Chromatogramme richtig integrieren und bewerten Ein Praxishandbuch für die HPLC und GC
Herausgegeben von Stavros Kromidas und Hans-Joachim Kuss
Chromatogramme richtig integrieren und bewerten Herausgegeben von Stavros Kromidas und Hans-Joachim Kuss
Beachten Sie bitte auch weitere interessante Titel zu diesem Thema
W. Gottwald
Statistik im Labor Anwendungen in der analytischen Chemie 2., vollständig überarbeitete Auflage 2007 ISBN 978-3-527-32011-0
S. Kromidas (Hrsg.)
HPLC richtig optimiert Ein Handbuch für Praktiker 2006 ISBN 978-3-527-31470-6
V. R. Meyer
Fallstricke und Fehlerquellen der HPLC in Bildern 2006 ISBN 978-3-527-31268-9
V. R. Meyer
Praxis der Hochleistungs-Flüssigchromatographie 2004 ISBN 978-3-527-30726-5
Chromatogramme richtig integrieren und bewerten Ein Praxishandbuch für die HPLC und GC
Herausgegeben von Stavros Kromidas und Hans-Joachim Kuss
Herausgeber Dr. Stavros Kromidas Rosenstraße 16 66125 Saarbrücken Dr. Hans-Joachim Kuss Psychatrische Klinik der Ludwig-Maximilians-Universität Nussbaumstraße 7 80336 München
Alle Bücher von Wiley-VCH werden sorgfältig erarbeitet. Dennoch übernehmen Autoren, Herausgeber und Verlag in keinem Fall, einschließlich des vorliegenden Werkes, für die Richtigkeit von Angaben, Hinweisen und Ratschlägen sowie für eventuelle Druckfehler irgendeine Haftung. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
abrufbar. ¤ 2008 WILEY-VCH Verlag GmbH & Co. KGaA, Weinheim Alle Rechte, insbesondere die der Übersetzung in andere Sprachen, vorbehalten. Kein Teil dieses Buches darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form – durch Photokopie, Mikroverfilmung oder irgendein anderes Verfahren – reproduziert oder in eine von Maschinen, insbesondere von Datenverarbeitungsmaschinen, verwendbare Sprache übertragen oder übersetzt werden. Die Wiedergabe von Warenbezeichnungen, Handelsnamen oder sonstigen Kennzeichen in diesem Buch berechtigt nicht zu der Annahme, dass diese von jedermann frei benutzt werden dürfen. Vielmehr kann es sich auch dann um eingetragene Warenzeichen oder sonstige gesetzlich geschützte Kennzeichen handeln, wenn sie nicht eigens als solche markiert sind. Printed in the Federal Republic of Germany Gedruckt auf säurefreiem Papier Umschlaggestaltung Schulz Grafik-Design, Fußgönheim Satz Manuela Treindl, Laaber Druck betz-druck GmbH, Darmstadt Bindung Litges & Dopf GmbH, Heppenheim ISBN 978-3-527-31774-5
V
Inhaltsverzeichnis Vorwort XIII Autorenliste XV Zum Aufbau des Buches XVII
Teil I
Auswertung in der Chromatographie – die Integration
1
Das Chromatogramm 3
1.1 1.1.1 1.2 1.2.1 1.2.1.1 1.2.1.2 1.2.1.3 1.2.1.4 1.2.2 1.2.2.1 1.2.2.2 1.2.2.3 1.2.2.4 1.2.3 1.2.3.1 1.2.3.2 1.2.3.3 1.2.4 1.2.4.1
1
Daniel Stauffer Chromatographischer Prozess 3 Selektivität und Effizienz – Maß für die unterschiedliche Wanderungsgeschwindigkeit 4 Chromatographische Kenngrößen 5 Retentionsgrößen 5 Totzeit (tm; t0) 5 Bruttoretentionszeit (tms; tR) 5 Nettoretentionszeit (ts) 6 Retentionsfaktor oder Kapazitätsfaktor (k; kc) 6 Peak-Ausdehnung und Peakform 6 Basispeakbreite (wb) 6 Peakbreite in halber Höhe (wh) 7 Peakhöhe (h) 7 Peaksymmetrie, Tailingfaktor (T) 7 Auflösungsgrößen 9 Die Auflösung (R) 9 Quantitative Größe der Selektivität 10 Quantitative Größen für die Effizienz der Trennsäule 11 Bestimmung von kleinen Substanzmengen 12 Ermitteln der Nachweis-, Erfassungs-, Entscheidungs- und Bestimmungsgrenze 13
VI
Inhaltsverzeichnis
1.3 1.4 1.4.1 1.4.1.1 1.4.1.2 1.4.1.3 1.4.1.4 1.4.2 1.4.2.1 1.4.2.2 1.4.2.3 1.4.2.4 1.4.2.5 1.4.2.6 1.5 1.5.1 1.5.1.1 1.5.2 1.5.2.1 1.5.2.2 1.5.2.3 1.5.2.4 1.5.2.5
van Deemter- und Golay-Gleichung 15 Erzeugen von Chromatogrammen 18 Datenaufnahme, Erzeugen der Rohdaten 19 Bei der Datenaufnahme verwendete Parameter 22 Beispiele der unterschiedlichen Art der Datenaufnahme 24 Innere/äußere Chromatogramme 28 2-D-/3-D-Chromatogramme 28 Charakterisierung von Detektoren 30 Zerstörend/nicht zerstörend 31 Selektiv, spezifisch, universell 31 Konzentrations- und massenstromabhängige Detektoren 31 Detektorempfindlichkeit 33 Linearer und dynamischer Bereich 34 Ansprechzeit, Zeitkonstante 35 Integration 39 Integration anschaulich 39 Methoden zur Peakerkennung 41 Integration und Integrationsparameter, Beispiele 43 Datenaufnahme und -integration mit Empower 2 43 Datenaufnahme und -integration mit Chromeleon 45 Datenaufnahme und -integration mit EZChrom Elite 47 Datenaufnahme und -integration mit ChemStation 47 Vergleich der wichtigsten Integrationsparameter von vier unterschiedlichen Integrationsprogrammen 48 Anhang: Experimente zur Optimierung der Zeitkonstante/ Datensammelrate 50 Literatur 53
2
Integrationsfehler und Auswertung 55 Hans-Joachim Kuss Was sagt die Literatur über Integrationsfehler? 55 Integration in der täglichen Praxis 58 Integration – einfach und immer gleich? 58 Vergleich von Integrationssystemen mit wenigen großen Peaks 61 Vergleich von Integrationssystemen mit vielen kleinen Peaks 64 Chromatogramm-Simulation 66 Simulation eines digitalen Chromatogramms 68 Ein Peak 69 Mehrere Peaks 71 Rauschen 72 Drift 72 Gaschromatogramm 75 Verschmolzene Peaks 77 Datenpunktabstand 81 Tailing 87
2.1 2.2 2.2.1 2.2.2 2.2.3 2.3 2.3.1 2.3.2 2.3.3 2.3.4 2.3.5 2.3.6 2.3.7 2.3.8 2.3.9
Inhaltsverzeichnis
2.3.10 2.3.11 2.4 2.4.1 2.4.2 2.4.3 2.4.4 2.4.5 2.4.6 2.4.7 2.5 2.5.1 2.5.2 2.5.3 2.5.4 2.5.5 2.5.6
Peakfläche und Peakhöhe 87 Andere Kenngrößen 88 Anwendungen der Simulation 89 Simulation einer Kalibriergeraden 91 Zehnfache Simulation an der Bestimmungsgrenze 98 Simulation eines isokratischen Chromatogramms 103 Simulation eines Gradienten-Chromatogramms 107 Nebenproduktanalyse 113 Eigene Chromatogramme simulieren 123 Welche Konsequenz ist daraus zu ziehen? 127 Auswertung 128 Auswertemethoden 129 Kalibrierung 131 Lineare Regression 131 Gewichtete lineare Regression 136 Nullpunktsgerade 140 Chromatogrammserien überprüfen 140 Literatur 142
3
Allgemeine Beurteilung analytischer Daten 145
3.1 3.2 3.3 3.3.1 3.3.2 3.3.3 3.3.4 3.3.4.1 3.3.4.2 3.3.5 3.3.6 3.3.7 3.4
Joachim Ermer (Normal-)Verteilung von analytischen Daten 145 Probleme des Schließens 149 Analytische Variabilität 153 Variabilitätsbeiträge und Präzisionsebenen 153 Systempräzision 155 Wiederholpräzision 157 Vergleichspräzision 159 Varianzanalyse 160 Literaturangaben zur Vergleichspräzision 162 Konsequenzen für das Design eines Prüfverfahrens 163 Konzentrationsabhängigkeit der Präzision 165 Schlussfolgerungen 168 (Be)Merkenswertes 168 Literatur 169
4
Metrologische Aspekte der Beurteilung chromatographischer Daten 171
4.1 4.2 4.3
Ulrich Panne Einführung 171 Messunsicherheit 173 Rückführbarkeit von analytischen Messungen Literatur 189
186
VII
VIII
Inhaltsverzeichnis
Teil II
Die Charakteristika der Auswertung in einzelnen LC-Modi 191
5
Auswertung von GC-Daten 193 Werner Engewald Einführung 193 Worin unterscheidet sich die GC von der HPLC? 194 Welche Konsequenzen ergeben sich aus diesen Unterschieden? 195 Anwendbarkeit der GC 195 Probeninjektion 199 Trennsäule 200 Detektor 201 Schnelle Gaschromatographie 203 Qualitative Analyse 204 Vorbemerkung 204 Fingerprint-Analyse 205 Peakreinheit 205 Vergleich von Retentionswerten 206 Relative Retentionswerte 206 Retention Time Locking (RTL) 207 GC/MS-Kopplung 208 MS als identifizierender Detektor (Scan-Modus) 209 Nutzung von Spektrenbibliotheken 210 Spektren-Deconvolution 213 MS als massenselektiver Detektor 215 Massenfragmentographie (Reconstructed oder Extracted Ion Chromatogramm) 215 SIM (Single Ion Monitoring) oder MID (Multiple Ion Recording) 216 Chemische Ionisation 217 Quantitative Analyse 218 Aufstellen einer Analysensequenz 219 Isotopenverdünnungsanalyse (IVA) oder Stabilisotopenverdünnungsanalyse (SIVA) 219 Matrixeffekte bei der Spurenanalytik 220 Headspace-GC 221 Abschätzung von Korrekturfaktoren beim FID 222 Literatur 224
5.1 5.2 5.2.1 5.2.1.1 5.2.1.2 5.2.1.3 5.2.1.4 5.2.1.5 5.3 5.3.1 5.3.1.1 5.3.1.2 5.3.2 5.3.3 5.3.4 5.4 5.4.1 5.4.2 5.4.3 5.4.4 5.4.4.1 5.4.4.2 5.4.5 5.5 5.5.1 5.6 5.7 5.8 5.9
6
6.1 6.2 6.2.1 6.3 6.4
Bewertung chromatographischer Daten in der Ionenchromatographie (IC) 225
Heiko Herrmann und Detlef Jensen Einleitung 225 Eluenten 226 Der Wasserdip – Lösemittelpeak der Ionenchromatographie Kontaminationen 230 Kalibrierfunktionen 232 Literatur 233
227
Inhaltsverzeichnis
7
Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen 235
Daniela Held und Peter Kilz Einleitung 235 Grundlagen der GPC-Datenverarbeitung in der Ausschlusschromatographie 236 7.2.1 Berechnung der Molekulargewichtsmittelwerte 238 7.3 Richtlinien, Normen und Anforderungen an GPCDatenverarbeitungsprozesse 241 7.4 Bewertung und Tests der GPC-Datenbearbeitungsprozesse 243 7.4.1 Beschreibung eines allgemeinen Verifikationsverfahrens für GPC-Software 243 7.4.2 Überprüfung der Richtigkeit der Berechnung der Molmassenverteilung 245 7.5 Einfluss von Datenprozessen, Kalibrationsverfahren und Signalqualität auf Richtigkeit und Reproduzierbarkeit von GPCErgebnissen 248 7.5.1 Prüfung der GPC-Auswertung mit direkter Kalibration 248 7.5.2 Überprüfung der Ergebnisgenauigkeit einer GPC-Viskositätskopplung 249 7.5.3 Einfluss des Detektor-Rauschens auf die Genauigkeit von GPCErgebnissen 250 7.5.4 Einfluss der Detektordrift auf die Genauigkeit von GPCErgebnissen 252 7.5.5 Einfluss der Datendichte auf die Genauigkeit von GPCErgebnissen 253 7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten 254 7.6.1 Einflussgrößen für GPC mit direkter Kalibration 255 7.6.1.1 Einfluss der Kalibration 255 7.6.1.2 Einfluss der Geräteeigenschaften (Geräteperformance) 259 7.6.1.3 Einfluss der Auswerteparameter 260 7.6.2 Einflussgrößen für GPC mit Lichtstreudetektion 262 7.6.3 Vergleichspräzision und Wiederholbarkeit von GPC-Analysen 265 7.7 Zusammenfassung 265 Literatur 266 7.1 7.2
8
8.1 8.2 8.3 8.4 8.5
Auswertung in der LC-MS-Kopplung 267 Hartmut Kirchherr Einleitung 267 Chromatographie und Matrixeinfluss 268 Interne Standards 276 Einstellungen Massenspektrometer 280 Auswertesoftware 282 Literatur 283
IX
X
Inhaltsverzeichnis
Teil III
Anforderungen an und Umgang mit chromatographischen Daten aus Sicht von Organisationen und Behörden 285
9
Beurteilung von analytischen Daten in der Lebensmittelanalytik 287
9.1 9.2 9.2.1 9.2.1.1 9.2.1.2 9.2.1.3 9.2.2 9.2.3 9.3 9.3.1 9.3.2 9.3.3 9.3.4 9.3.5 9.4 9.5 9.6 9.7
10
10.1 10.2 10.2.1 10.2.2 10.2.3 10.2.4 10.2.5 10.2.6 10.2.7 10.2.8 10.3 10.3.1 10.3.2
Herbert Otteneder Aufgaben der Behörde 287 Problembereiche 287 Pflanzenschutzmittelrückstände 289 In-house-Qualitätskontrolle (= IQC: Internal Quality Control) 292 Laborvergleichsuntersuchung (LVU), Proficiency Test 292 Validierungsstudie (Method Performance Study) 293 Schadstoffe, Kontaminanten und Mykotoxine 294 Pharmakologisch wirksame Stoffe 295 Definition und Bestimmung der Messunsicherheit 297 Analyse der Einzelkomponenten, „bottom-up“-Prinzip 297 Berechnung aus der Vergleichsstandardabweichung, „top down“-Prinzip 298 Berechnung mit der Horwitz-Gleichung 298 Der „Tauglichkeits“-Ansatz 299 Ergebnis-Interpretation mit Hilfe der Messunsicherheit 299 Nachweis-, Erfassungs- und Bestimmungsgrenze 300 Das Problem der Wiederfindung 303 Die Probennahme 306 Nationale und internationale Leitlinien und Gremien zur Qualitätssicherung in der Analytischen Chemie 309 Literatur 312 Beurteilung von analytischen Daten aus Behördensicht – Regelarbeitsweise und AQS für selten angewandte und zeitaufwändige Analysenverfahren 315
Günter Papke Einleitung 315 Werkzeuge und Definitionen für die AQS 316 Kontrollproben 316 Kontrollkarten/Zielwertkarten 316 Objektbezogene AQS 320 Stichproben-AQS 320 Stellvertreterproben-AQS 320 Validierung von Analysenverfahren 320 Messunsicherheit 323 Zusammengefasste AQS-Werkzeuge 324 Praxis der AQS 328 Hierarchisch aufgebaute AQS 328 Praxis bei selten angewandten und zeitaufwändigen Analysenverfahren 330
Inhaltsverzeichnis
10.3.2.1 10.3.2.2 10.4 10.5
AQS-Vorgehensweise für selten angewandte Analysenverfahren 331 AQS-Vorgehensweise für zeitaufwändige Analysenverfahren 333 Beurteilung der Analysenergebnisse 336 Fazit und Ausblick 337 Literatur 338
11
Auswertung Chromatographischer Daten nach den Arzneibüchern – Kontrolle von Verunreinigungen 339
11.1 11.2 11.2.1 11.3
12
12.1 12.2 12.3 12.4 12.5 12.5.1 12.5.2 12.5.3
13
13.1 13.1.1 13.1.1.1 1.3.1.2 13.1.1.3 13.1.2 13.1.3 13.2 13.2.1 13.2.1.1 13.2.1.2
Ulrich Rose Problemstellung 339 Auswertung qualitativer Daten 340 Systemeignungstest 343 Auswertung quantitativer Daten 345 Literatur 347 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung 349
Susanne Keitel Einführung 349 Beschreibung chromatographischer Prüfverfahren im Zulassungsdossier 349 Arzneibuchverfahren 352 Anforderungen an die Validierung und Bewertung durch die Zulassungsbehörde 355 Anforderungen der Zulassungsbehörde im Rahmen von Anträgen auf Genehmigung klinischer Prüfungen 360 Häufige Mängel 361 Spezielle Mängel 361 Fallbeispiele 362 Literatur 364 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik 365
Joachim Ermer Systemeignungstests 365 Europäisches Arzneibuch (EP) 367 Chromatographische Parameter 369 Signal/Rausch-Verhältnis 370 Systempräzision 371 US-Arzneibuch 373 FDA Reviewer Guidance 374 Spezifikationsgrenzen und Präzision 375 Gehaltsbestimmungen 375 Auf Grundlage des Methodenfähigkeitsindex 375 Auf Grundlage des 95-%-Prognosebereiches (DPhG-Verfahren) 376
XI
XII
Inhaltsverzeichnis
13.2.2 13.2.3 13.3 13.3.1 13.3.2 13.3.3 13.3.4 13.3.5 13.3.6 13.3.7
Nebenproduktbestimmungen 377 (Be)Merkenswertes 378 Interpretation und Behandlung analytischer Daten Voraussetzungen 378 Messprinzipien und Variabilität 378 Ausreißer 379 Vergleich von Analysenergebnissen 380 Präzision 380 Richtigkeit 382 (Be)Merkenswertes 383 Literatur 384
14
Über Bewertung und Wertung chromatographischer Daten 385
14.1 14.2 14.3 14.4
378
Stavros Kromidas Einleitung 385 Die Situation – oder warum ändert sich so wenig? 385 Wie kann sich etwas ändern und wann ist es überhaupt notwendig? 387 Wer kann etwas ändern? 390 Stichwortverzeichnis 393
XIII
Vorwort In der Chromatographie liegt der Fokus auf der Probenvorbereitung und der Trennung selbst. Das ist auch gut so, denn eine schlechte Trennung ist im Nachhinein nicht „reparierbar“. Wir haben allerdings den Eindruck gewonnen, dass im Alltagsstress der anschließenden Auswertung und auch der Bewertung der Ergebnisse nicht immer mit der gebührenden Vorsicht begegnet wird. Man verlässt sich gerne auf die Auswerteprogramme – schließlich ist ja die Integrationssoftware validiert und dies wird per Hersteller-Zertifikat „belegt“. Dass sich die Integrationsalgorithmen seit 30 Jahren nur unwesentlich geändert haben und dass z. B. die Fläche verschmolzener Peaks stets per Lotfällung bestimmt wird, wird kaum als Problem registriert. Auch reduziert sich die Bewertung der Ergebnisse oft auf die Frage: „Passt der VK und ist mein Wert „in spec“?“. Das mag manchmal ausreichen, manchmal aber auch nicht. Wir möchten uns in diesem Buch z.B. mit den folgenden Fragen beschäftigen: „Wie „richtig“ integrieren eigentlich kommerzielle Systeme?“, „Kann man dies überhaupt überprüfen?“, „Wie wichtig sind Einstellparameter, was bewirken sie?“ usw. Wir wollten uns aber auch mit Fragen auseinandersetzen, wie: „Wie kann ich ein Ergebnis wirklich beurteilen?“, „Wie wahrhaftig kann ein Ergebnis sein?“ und schließlich: „Was sagt „die Behörde“ dazu, was muss ich tun, wo bin ich frei?“. Dazu haben wir erfahrene Kollegen eingeladen, die ihr Wissen in diversen Bereichen zur Verfügung gestellt haben. Diesen Kollegen gilt unser herzlicher Dank. Das Ziel des Buches ist es, zum einen aufzuzeigen, dass man Auswertesystemen vielleicht nicht immer blind vertrauen sollte und dass es sich lohnt, ein tieferes Verständnis für das Integrieren zu entwickeln. Zum anderen einen Beitrag zu leisten, wie chromatographische Ergebnisse kritisch hinterfragt werden können, vor allem wenn es um brisante quantitative Aussagen geht. Wir hoffen, dem Leser möglichst viele Anregungen und Ideen zu geben, die eigene „richtige“ Auswerte- und Bewertungspraxis zu finden. Dem Verlag WILEY-VCH und insbesondere Frank Weinreich und Steffen Pauly danken wir für die sehr gute Zusammenarbeit. Saarbrücken und München Januar 2008
Stavros Kromidas Hans-Joachim Kuss
XV
Autorenliste Prof. Dr. Werner Engewald Fakultät für Chemie und Mineralogie Institut für Analytische Chemie Universität Leipzig Linnestraße 3 04103 Leipzig Dr. Joachim Ermer Paul-Sieben-Weg 12 64625 Bensheim/Auerbach Dr. Daniela Held PSS GmbH Postfach 3368 55023 Mainz Dr. Heiko Herrmann Dionex GmbH Am Wörtzgarten 10 65510 Idstein Dr. Detlev Jensen Dionex GmbH Am Wörtzgarten 10 65510 Idstein Dr. Susanne Keitel 26 rue Schweighaeuser 67000 Strasbourg Frankreich
Peter Kilz PSS GmbH Postfach 3368 55023 Mainz Dr. Hartmut Kirchherr Medizinisches Labor Bremen Haferwende 12 28357 Bremen Dr. Stavros Kromidas Rosenstraße 16 66125 Saarbrücken Dr. Hans-Joachim Kuss Psychatrische Klinik der Ludwig-Maximilians-Universität Nussbaumstraße 7 80336 München Dr. Herbert Otteneder Louvecienner Weg 4 88709 Meersburg Prof. Ulrich Panne Richard-Willstätter-Straße 11 12489 Berlin
XVI
Autorenliste
Prof. Dr. Günter Papke Fachhochschule Wiesbaden Studienbereich Umwelttechnik und Dienstleistung Am Brückweg 26 65428 Rüsselsheim
Dr. Ulrich Rose Ludwig-Trick-Straße 35 77694 Kehl Daniel Stauffer Traugott-Meyer-Straße 7 4147 Aesch Schweiz
XVII
Zum Aufbau des Buches Das Buch besteht aus drei Teilen. Teil I:
Grundsätzliches zur Auswertung und Bewertung von chromatographischen Daten
Im Teil I wird dargestellt, wie chromatographische Daten erzeugt sowie Ergebnisse bewertet werden können. Im Kapitel 1 (Daniel Stauffer) wird dargelegt, wie überhaupt ein Chromatogramm entsteht und welche Faktoren die Peakform, die Peakhöhe und die Peakfläche beeinflussen. Ferner wird auf die Einstellparameter bei der Integration eingegangen. Kapitel 2 (Hans-Joachim Kuss) widmet sich schwerpunktmäßig der Integration. Es wird der Frage nachgegangen, wie „richtig“ eigentlich kommerzielle Auswerteprogramme integrieren (können). Ferner wird anhand zahlreicher Beispiele eine Möglichkeit aufgezeigt, wie dies überprüft werden kann. Schließlich wird der Einsatz der gewichteten Regression erklärt und diskutiert. Die allgemeinen Kriterien zur Beurteilung von analytischen Daten werden im Kapitel 3 (Joachim Ermer) systematisch vorgestellt und kritisch hinterfragt. Teil I wird mit Kapitel 4 beendet, in dem die metrologischen Aspekte der Beurteilung von analytischen Daten mit einer detaillierten Diskussion der Messunsicherheit behandelt werden (Ulrich Panne). Teil II: Die Charakteristika der Auswertung in einzelnen LC-Modi Im Teil II wird auf Spezifika in folgenden chromatographischen Techniken eingegangen, Spezifika, die bei der Auswertung, aber auch bei der Beurteilung von chromatographischen Ergebnissen, berücksichtigt werden sollten: Gaschromatographie (Werner Engewald), Ionenchromatographie (Heiko Herrmann und Detlef Jensen), Gelpermeationschromatographie (Daniela Held und Peter Kilz) und LC-MS-Kopplung (Hartmut Kirchherr). Teil III: Anforderungen an und Umgang mit chromatographischen Daten aus Sicht von Organisationen und Behörden Im Teil 3 werden die Anforderungen seitens Organisationen/Behörden an chromatographische Daten dargestellt – sowohl das Formale als auch das Inhaltliche betreffend. Hier kommen die am stärksten reglementierten Bereiche zur Spra-
XVIII
Zum Aufbau des Buches
che: Lebensmittel, Umwelt, Pharma. Im ersten Kapitel 9 (Herbert Otteneder) werden die Anforderungen an die Beurteilung von analytisch/chromatographischen Daten in der Lebensmittelindustrie beleuchtet. Günter Papke stellt im Kapitel 10 die Vorgaben eines Landesuntersuchungsamtes für den Umgang mit analytischen Daten dar. Der am stärksten reglementierte Bereich ist gewiss Pharma. Die Anforderungen dort werden aus dreierlei Blickwinkeln erläutert: aus Sicht eines Angehörigen des EU-Direktoriats (Ulrich Rose, Kapitel 11), aus Sicht der nationalen Behörde BPharm (Susanne Keitel, Kapitel 12) und aus Sicht der Pharmaindustrie (Joachim Ermer, Kapitel 13). Statt eines Nachwortes wird im abschließenden Kapitel 14 (Stavros Kromidas) kurz der alltägliche Umgang mit Zahlenwerten diskutiert. Die einzelnen Kapitel wurden so verfasst, dass sie abgeschlossene Module darstellen, ein „Springen“ ist jederzeit möglich. Dadurch wurde versucht, dem Charakter des Buches als Nachschlagwerk gerecht zu werden. Es ist das Anliegen der Herausgeber, ein Ideenbuch vorzustellen mit möglichst vielen Anregungen, eigene Lösungen zu finden. Deshalb wurden abweichende Auffassungen der Autoren zu einem Thema akzeptiert, auch manche Wiederholung wurde in Kauf genommen, um die Harmonie im textlichen Kontext nicht zu beeinträchtigen. Der Leser möge von der unterschiedlichen Darstellung des Themas und der individuellen Gewichtung der Autoren profitieren.
1
Teil I Auswertung in der Chromatographie – die Integration
3
1 Das Chromatogramm Daniel Stauffer
1.1 Chromatographischer Prozess
Eine chromatographische Trennung ist dann erfolgreich, wenn es gelingt, die einzelnen Komponenten des zu trennenden Gemischs unterschiedlich schnell durch die Trennstrecke (stationäre Phase) wandern zu lassen. Die Möglichkeiten, unterschiedliche Wanderungsgeschwindigkeiten der einzelnen Analyten zu realisieren, lassen sich in zwei Gruppen aufteilen: 1. Die Retention erfolgt durch unterschiedlich starke Sorption des Analyten an die stationäre Phase = unterschiedliche absolute Wanderungsgeschwindigkeit (z. B. Normalphasen-/Umkehrphasenchromatographie, Verteilungschromatographie, Ionenaustauschchromatographie, Affinitätschromatographie). 2. Die poröse stationäre Phase teilt unterschiedlich großen Analytenteilchen unterschiedlich große Räume innerhalb der Trennstrecke zu, in welchen sie sich aufhalten können. Moleküle welche so groß sind, dass sie sich nur im Zwischenkornvolumen und somit im strömenden Eluenten aufhalten können, wandern am schnellsten. Weil die Wanderungsgeschwindigkeit für alle diese Teilchen ungefähr gleich groß ist, werden sie nicht getrennt. Kleinere Moleküle können durch Diffusion zusätzlich in die Poren der stationären Phase gelangen. In den Poren steht der Eluent. Die Wanderungsgeschwindigkeit der Analytenteilchen in Flussrichtung ist somit während ihres Aufenthaltes im Porenvolumen der stationären Phase gleich null. Je kleiner die Analytenmoleküle sind, umso größer ist das für sie zugängliche Porenvolumen und somit die Aufenthaltszeit im stehenden Eluenten. Daraus resultieren für unterschiedlich große Moleküle unterschiedlich lange Wanderungswege = unterschiedliche relative Wanderungsgeschwindigkeit. Größenausschlusschromatographie (Size Exclusion Chromatography, SEC), Gelpermeationschromatographie (GPC) und Gelfiltrationschromatographie (GFC) sind die gängigsten Bezeichnungen für diese Art von Chromatographie.
4
1 Das Chromatogramm
Die Wanderungsgeschwindigkeit der einzelnen Analyten kann durch Verändern verschiedener Einflussgrößen wie Zusammensetzung der mobilen Phase, Art der stationären Phase, Temperatur etc. mehr oder weniger kontinuierlich verändert werden. Man kann von einer analogen1) Chromatographie sprechen. Quantifizierung mittels Chromatographie erfolgt in der Regel auf diese Art. Bei der Chromatographie mittels Sorption können die chromatographischen Bedingungen im Idealfall so gewählt werden, dass nur eine Komponente wandert und die anderen Komponenten am Kopf der Trennstrecke total festgehalten werden resp. dass nur eine Komponente festgehalten wird und die andern Komponenten wandern. Die am Säulenkopf festgehaltenen Moleküle werden anschließend durch Änderung der chromatographischen Bedingungen zum Wandern gebracht. Diese, hauptsächlich in der präparativen Chromatographie angewendete, Methode wird oft als digitale1) Chromatographie bezeichnet. 1.1.1 Selektivität und Effizienz – Maß für die unterschiedliche Wanderungsgeschwindigkeit
In der Chromatographie müssen wir zwischen zwei Arten von unterschiedlichen Wanderungsgeschwindigkeiten unterscheiden. Gewünscht ist, dass unterschiedliche Spezies von Molekülen unterschiedlich schnell wandern. Das führt schlussendlich zur Trennung der einzelnen Komponenten. Je größer der Unterschied der Wanderungsgeschwindigkeit der unterschiedlichen Komponenten, umso besser ist die Trennung. Das System besitzt eine gute Selektivität (s. Abb. 1.1 und 1.8). Auf der andern Seite haben auch die gleichartigen Moleküle leicht unterschiedliche Wanderungsgeschwindigkeiten. Dieser unerwünschte Unterschied in der Wanderungsgeschwindigkeit wird als Effizienz (s. Abb. 1.2) des chroma-
Abb. 1.1 Unterschiedliche Arten von Molekülen wandern unterschiedlich schnell. Dieser gewünschte Unterschied der Wanderungsgeschwindigkeiten wird als Selektivität des chromatographischen Systems bezeichnet.
Abb. 1.2 Auch gleichartige Moleküle haben infolge von Eddy-Diffusion, Längsdiffusion und Massenaustauschverzögerung leicht unterschiedliche Wanderungsgeschwindigkeiten, was zu Bandenverbreiterung führt (= Effizienz des chromatographischen Systems). 1)
Analog und digital beziehen sich auf die Wanderungsgeschwindigkeit der Analyten.
1.2 Chromatographische Kenngrößen
tographischen Systems bezeichnet. Kleine Unterschiede in der Wanderungsgeschwindigkeit gleichartiger Moleküle = schmale Peaks = gute Effizienz = große theoretische Bodenzahl (s. Gl. 1.9).
1.2 Chromatographische Kenngrößen
Bei analytischen Anwendungen ist der Zweck der Chromatographie, ein Chromatogramm zu erhalten, welches uns alle gewünschten Informationen liefert [1]. 1.2.1 Retentionsgrößen
Diese bieten uns die Möglichkeit, Aussagen über die Art einer Probekomponente zu machen. Normalerweise werden Retentionszeiten verwendet; an Stelle der Retentionszeit wird oft auch das Retentionsvolumen verwendet, weil dieses vom Eluentenfluss unabhängig ist. VR = tR ⋅ F
(1.1)
mit: VR = Retentionsvolumen, tR = Retentionszeit, F = Eluentenfluss. Retentionsgrößen werden im Chromatogramm immer dort bestimmt, wo die höchste Probenkonzentration gemessen wird; also bei der Peakspitze. 1.2.1.1
Totzeit (tm; t0)
Unter Totzeit versteht man die Zeit, welche ein nicht-retardiertes Teilchen braucht, um die Trennstrecke zu durchqueren. Während dieser Zeit halten sich alle Probeteilchen in der mobilen Phase auf. Die genaue Bestimmung der Totzeit ist nicht so einfach; für die meisten Zwecke genügt es, die Totzeit mit einem sog. „Totzeitmarker“ zu messen (z. B. Methan in der GC resp. Nitromethan, Thioharnstoff, Uracil oder KNO3 in der LC). Genauer erhält man die Totzeit durch Berechnung aus den Bruttoretentionszeiten von mindestens drei homologen Verbindungen, weil log k von Homologen in linearer Abhängigkeit zu deren Molmassen steht [9]. 1.2.1.2
Bruttoretentionszeit (tms; tR)
Als Bruttoretentionszeit wird die durchschnittliche Zeit bezeichnet, welche ein Probeteilchen braucht um die Trennstrecke zu durchqueren. Die Bruttoretentionszeit setzt sich zusammen aus den Zeiten während welcher sich ein Probeteilchen in der mobilen und in (an) der stationären Phase aufgehalten hat. In Chromatogrammen werden die einzelnen Peaks in der Regel mit der Bruttoretentionszeit beschriftet.
5
6
1 Das Chromatogramm
Abb. 1.3 Totzeit und Brutto- resp. Nettoretentionszeit von Peak Nr. 3. tm = Totzeit, ts = Nettoretentionszeit, tms = Bruttoretentionszeit.
1.2.1.3
Nettoretentionszeit (ts)
Die Nettoretentionszeit sagt aus, wie lange sich eine Probekomponente in (an) der stationären Phase aufgehalten hat. tms = tm + ts
(1.2)
mit: tm = Totzeit, ts = Nettoretentionszeit, tms = Bruttoretentionszeit. 1.2.1.4
Retentionsfaktor oder Kapazitätsfaktor (k; kc)
Der Retentionsfaktor entspricht der Nettoretentionszeit, ausgedrückt in Anzahl Totzeiten. Als relative Retentionsgröße ist der k-Wert praktisch unabhängig vom Eluentenfluss und von den Säulendimensionen. k =
ts t − tm t = ms = ms − 1 tm tm tm
(1.3)
mit: k = Retentionsfaktor, tm = Totzeit, ts = Nettoretentionszeit, tms = Bruttoretentionszeit. 1.2.2 Peak-Ausdehnung und Peakform 1.2.2.1
Basispeakbreite (wb)
Die Basispeakbreite wird zwischen den Schnittpunkten der auf- und der absteigenden Wendetangente mit der Basislinie gemessen. Bei idealen chromatographischen Peaks (Gauß-Peaks) befindet sich die Basispeakbreite in 13,4% der Peakhöhe und entspricht der vierfachen Standardabweichung der Normalverteilung (s. Abb. 1.4).
1.2 Chromatographische Kenngrößen
Abb. 1.4 Die Basispeakbreite (wb) und die Peakbreite in halber Höhe (b0,5). Bei idealen Peaks befindet sich die Basispeakbreite in 13,4% der Peakhöhe.
Abb. 1.5 Die Peakhöhe wird von der Peakspitze bis zur Basislinie gemessen.
1.2.2.2
Peakbreite in halber Höhe (wh)
Weil es nicht ganz einfach ist, die Basispeakbreite zu bestimmen, wird oft die Peakbreite in halber Höhe (Halbwertsbreite) in Berechnungen eingesetzt (selbstverständlich muss die Formel entsprechend korrigiert werden). 1.2.2.3
Peakhöhe (h)
Die Peakhöhe ist die Ausdehnung des Peaks, von der Peakspitze bis zum Schnittpunkt mit der Basislinie (senkrecht zur Zeitachse gemessen). 1.2.2.4
Peaksymmetrie, Tailingfaktor (T )
Der Symmetriefaktor eines Peaks sagt aus, wie gut seine Form der Idealform eines chromatographischen Peaks (Gauß’sche Glockenkurve) angenähert ist. Der Tailingfaktor wird in Europa meistens in 10% (manchmal auch 5% oder 15%) der Peakhöhe bestimmt (s. Gl. 1.4).
7
8
1 Das Chromatogramm
Abb. 1.6 Die Peaksymmetrie wird in 10% (5%) der Peakhöhe gemessen, wobei a die „halbe“ Peakbreite der aufsteigenden und b der absteigenden Peakseite bezeichnet.
Abb. 1.7 Peakleading und Peaktailing. In der Praxis kommt das Peaktailing viel öfter vor als das Leading. Aufgepasst: In vielen Publikationen findet man Chromatogramme, bei welchen die Zeitachse von links nach rechts verläuft, weil zur Aufzeichnung des Chromatogramms z. B. ein Kompensationsschreiber verwendet wurde.
T =
b a
(1.4)
mit: T = Symmetrie- resp. Tailingfaktor, a = Breite der aufsteigenden Peakseite (in 0,1 h), b = Breite der absteigenden Peakseite (in 0,1 h). Nach USP werden die Werte in 5% der Peakhöhe gemessen. Die Berechnung erfolgt nach folgender Formel: T =
a+b 2a
(1.5)
mit: T = Symmetrie- resp. Tailingfaktor, a = Breite der aufsteigenden Peakseite (in 0,05 h), b = Breite der absteigenden Peakseite (in 0,05 h). Langsames Ansteigen und schnelles Abfallen des Peaksignals nennt man Leading oder Fronting. Das Umgekehrte, schneller Anstieg und langsames Abfallen, nennt man Tailing.
1.2 Chromatographische Kenngrößen
Symmetrischer Peak: T = 1 Peaktailing: T>1 Peakleading: T<1 1.2.3 Auflösungsgrößen 1.2.3.1
Die Auflösung (R)
Die Auflösung ist ein Maß, wie gut zwei Komponenten voneinander getrennt sind. Als Auflösung wird das Verhältnis von Selektivität und Effizienz eines Systems bezeichnet. Sie sagt nichts darüber aus, wie breit die Peaks sind. Unaufgelöste Peaks (Abb. 1.8 a) können getrennt werden durch: x Vergrößern der Effizienz des Trennsystems (Abb. 1.8 b), x Vergrößern der Selektivität (Abb. 1.8 c).
Abb. 1.8 Unaufgelöste Peaks (a) können getrennt werden durch: Vergrößern der Effizienz des Trennsystems (b) oder Vergrößern der Selektivität (c).
Selektivität = Maß für den Retentionsunterschied zweier Komponenten großer Retentionszeit-Unterschied = selektives System Effizienz = Maß für die Peakverbreiterung einer Komponente schmale Peaks = effizientes System
Wenn man Gleichung (1.7) etwas näher betrachtet, lassen sich drei wichtige Aussagen ableiten:
9
10
1 Das Chromatogramm
1. Die Selektivität ist die empfindlichste Größe zur Beeinflussung der Auflösung [10]. 2. Die Auflösung lässt sich zwar leicht durch Vergrößern der Bodenzahl, sprich Verlängern der Säule, erhöhen. Weil die Effizienz aber nur als N in die Gleichung eingeht, sind die Nachteile, wie Verlängerung der Analysenzeit, Erhöhung des Gegendrucks etc., oft größer als der Gewinn. Wenn die Auflösung über die Verbesserung der Effizienz gesteigert werden soll, dann ist es besser, den Teilchendurchmesser der stationären Phase zu verringern, als die Säulenlänge zu vergrößern, weil so die Analysenzeit gleich bleibt. 3. Liegen die Peaks nahe der Totzeit (k = klein), kann die Auflösung durch Vergrößern von k (Verringern der Elutionskraft des Eluenten) stark gesteigert k werden. Weil der Term gegen eins strebt, ist in der Regel ein Wert von 1+k k zwischen zwei und zehn sinnvoll. R =
tR (2) − tR (1) 't 1,177 ⋅ [tR (2) − tR (1)] = R = w b (1) + w b (2) wb w h (1) + w h (2) 2
(1.6)
mit: R = Auflösung, tR(1) = Retentionszeit des schneller eluierenden Peaks, tR(2) = Retentionszeit des langsamer eluierenden Peaks, wb(1) = Basispeakbreite des schneller eluierenden Peaks, wb(2) = Basispeakbreite des langsamer eluierenden Peaks, w b = mittlere Basispeakbreite, 'tR = Retentionszeit-Unterschied, wh(1) = Halbwertsbreite des schneller eluierenden Peaks, wh(2) = Halbwertsbreite des langsamer eluierenden Peaks. R = 0,25
k2 D−1 N2 D 1 + k2
(1.7)
mit: R = Auflösung, D = relative Retention (k2/k1), k1 = Retentionsfaktor der schneller eluierenden Komponente, k2 = Retentionsfaktor der langsamer eluierenden Komponente, N2 = theoretische Bodenzahl der langsamer eluierenden Komponente. Damit ein Chromatogramm quantitativ ausgewertet werden kann, ist anzustreben, die einzelnen Peaks möglichst so voneinander zu trennen, dass jeder Peak von der Basislinie aus startet und wieder zur Basislinie zurückkehrt. Anzustreben ist eine genügend große Auflösung (R | 1,5–2), nicht eine möglichst große Auflösung. 1.2.3.2
Quantitative Größe der Selektivität
Als Maß für die Selektivität eines Trennsystems wird das Verhältnis der Retentionsfaktoren zweier Peaks verwendet.
1.2 Chromatographische Kenngrößen
Abb. 1.9 Der Wert der Auflösung sagt nichts aus über die Qualität der Trennung in Bezug auf die Effizienz des Systems. Beide Peakpaare sind gleich gut aufgelöst.
Trennfaktor (α)
D=
k2 k1
(1.8)
mit: D = Trennfaktor (relative Retention), k1 = Retentionsfaktor der schneller eluierenden Komponente, k2 = Retentionsfaktor der langsamer eluierenden Komponente. 1.2.3.3
Quantitative Größen für die Effizienz der Trennsäule
Zur Beurteilung der Effizienz einer Trennsäule wird oft die theoretische Bodenzahl (Trennstufenzahl) resp. die theoretische Bodenhöhe (Trennstufenhöhe) verwendet. Diese Begriffe stammen aus der Destillationstheorie. Sie haben nichts mit der Anzahl der Gleichgewichtseinstellungen, welche in der Trennsäule ablaufen, zu tun, sondern sie sind ein reines Maß für die Peakverbreiterung, welche von einem Trennsystem hervorgerufen wird. Die theoretische Bodenzahl resp. Trennstufenzahl (N) 2
2
2
⎛t ⎞ ⎛t ⎞ ⎛t ⎞ ⎛t ⎞ N = ⎜ ms ⎟ = 16 ⎜ ms ⎟ = 8 ⋅ ln2 ⎜ ms ⎟ = 5,54 ⎜ ms ⎟ ⎝ V ⎠ ⎝ wh ⎠ ⎝ wh ⎠ ⎝ wb ⎠
2
(1.9)
mit: N = theoretische Bodenzahl, tms = Bruttoretentionszeit, V = Peak-Standardabweichung (bei Gauß-Peaks gilt: w = 4 V), wb = Basispeakbreite, wh = Halbwertsbreite.
11
12
1 Das Chromatogramm
Die theoretische Bodenhöhe resp. Trennstufenhöhe (H, HETP)
H =
L N
(1.10)
mit: H = theoretische Bodenhöhe, L = Länge der Trennsäule, N = theoretische Bodenzahl. Sowohl die theoretische Bodenzahl als auch die theoretische Bodenhöhe gelten nur für isokratisch/isotherm erzeugte Chromatogramme. 1.2.4 Bestimmung von kleinen Substanzmengen
Kann ein Analyt in einer Probe nur in kleinen Mengen vorhanden sein [2, 8], stellen sich die Fragen: x In welcher Konzentration muss ein Analyt in einer Probe vorliegen, damit man mit einer vorgegebenen Sicherheit seine Anwesenheit nachweisen kann? x Wie groß ist der Höchstgehalt des Analyten, wenn nichts detektiert wird? x Ab welcher Konzentration kann ein Analyt (mit einem vorgegebenen relativen Fehler) quantifiziert werden? Nachweisgrenze, LOD (Limit of Detection)
Damit ein Analyt in einer Probe nachgewiesen werden kann, muss sich das Messsignal (in der Chromatographie in der Regel die Peakhöhe) deutlich vom Blindwert bzw. vom Signalrauschen unterscheiden. Die kleinste, qualitativ erfassbare Konzentration eines Analyten wird als Nachweisgrenze bezeichnet. Messen wir bei einer Analysenprobe den Gehalt eines Analyten knapp oberhalb der Nachweisgrenze, ist die Wahrscheinlichkeit, dass wir uns irren und die Probe den Analyten in Wirklichkeit gar nicht enthält, relativ klein. Bei einer nochmaligen Messung der gleichen Probe könnten wir mit etwa 50%iger Wahrscheinlichkeit ein Ergebnis erhalten, welches knapp unterhalb der Nachweisgrenze liegt. Die Wahrscheinlichkeit, dass wir uns mit der Aussage, „der Analyt ist in der Probe nicht enthalten“, irren und der Analyt in Wirklichkeit in der Probe enthalten ist, wäre um einiges höher. Erfassungsgrenze (Limit of Inclusion)
Wird der qualitative Nachweis eines Analyten mit einer bestimmten Signifikanz verlangt, verwendet man die Erfassungsgrenze. Die Erfassungsgrenze gibt die kleinste Konzentration eines Analyten an, welche mit einer vorgegebenen Sicherheit nachgewiesen werden kann. Wie beschrieben eignet sich die Nachweisgrenze nicht, wenn eine Aussage darüber gemacht werden soll, wie viel eines Analyten maximal in einer Probe vorhanden sein kann, wenn der Messwert unterhalb des definierten Grenzwerts liegt. Zur Beantwortung dieser Frage ist die Erfassungsgrenze besser geeignet, denn bei einer Analytenkonzentration der Probe im Bereich der Erfassungsgrenze
1.2 Chromatographische Kenngrößen
sind der D- und der E-Fehler gleich groß, d. h., dass in einer positiv gemessenen Probe der Analyt nicht vorhanden ist, ist gleich wahrscheinlich, wie dass in einer negativ gemessenen Probe der Analyt doch vorhanden ist. Die Erfassungsgrenze hat in der Regel den doppelten Wert der Nachweisgrenze. Entscheidungsgrenze (Limit of Decision)
Lautet die Fragestellung „Ist ein Analyt in signifikanter Menge in der Probe vorhanden (ja/nein)?“, wird die Entscheidungsgrenze angewendet. Messwert < Entscheidungsgrenze: Analyt nicht vorhanden. Messwert t Entscheidungsgrenze: Analyt vorhanden. Die Entscheidungsgrenze wird in der Regel der Erfassungsgrenze gleichgesetzt. Bestimmungsgrenze LOQ (Limit of Quantification)
Je näher die Konzentration eines Analyten bei der Nachweisgrenze liegt, umso mehr streuen die gemessenen Werte. Soll ein Analyt quantitativ erfasst werden, ist das mit einer geforderten maximalen Streuung der Messwerte erst ab der Bestimmungsgrenze möglich. 1.2.4.1 Ermitteln der Nachweis-, Erfassungs-, Entscheidungs- und Bestimmungsgrenze
In der Chromatographie werden Nachweis-, Erfassungs- und Bestimmungsgrenze meistens entweder über das Signal/Rausch-Verhältnis oder aus den Daten, welche bei der Linearitätsprüfung im Rahmen der Validierung einer chromatographischen Methode anfallen, ermittelt. Mit Hilfe des Signal/Rausch-Verhältnisses (S/N)
Aus den Chromatogrammen einer Blindprobe und einer Probe, welche den zu bestimmenden Analyten in einer Konzentration nahe der Nachweisgrenze enthält, wird das Signalrauschen (in der Regel in der 20-fachen Halbwertsbreite des zu untersuchenden Peaks) gemessen (s. Abb. 1.10). Als Rauschen (noise) wird die Differenz zwischen dem größten und dem kleinsten Messpunkt im betrachteten Chromatogrammabschnitt (im Chromatogramm der Blindprobe oder peakfreier Abschnitt in der Nähe des zu beurteilenden Peaks im Chromatogramm der Analysenprobe) bezeichnet. Die Nachweis-, Erfassungs- oder Bestimmungsgrenze wird als Anzahl Rauschen (in positiver oder negativer Richtung von der Basislinie aus gesehen = N/2) angegeben, welche der Peak mindestens aus der Basislinie herausragen muss. Sie kann je nach Anforderung unterschiedlich groß sein. S/N =
H 2⋅H = hn hn 2
mit: S/N = Signal/Rausch-Verhältnis, H = Signalhöhe, hn = Rauschen.
(1.11)
13
14
1 Das Chromatogramm
Abb. 1.10 Berechnung des Signal/Rausch-Verhältnisses: S/N = Signal/Rausch-Verhältnis, H = Höhe des gemessenen Peaks (Basislinie bis Peakspitze) und hn = größte Schwankung der Basislinie im Bereich von 5–20 Halbwertsbreiten (wh) gemessen am Chromatogramm einer Blindprobe. Beispiel: H = 48 mm und hn = 7 mm; 2 ⋅ H 2 ⋅ 43 mm S /N = = ≅ 14 ; Signal/Rausch-Verhältnis = 14 : 1. hn 6 mm
Für die Nachweisgrenze (LOD) wird in der Regel ein S/N von 3 : 1 bis 10 : 1 angewendet, für die Erfassungs-/Entscheidungsgrenze ein Wert von 6 : 1 bis 10 : 1 und für die Bestimmungsgrenze (LOQ) ein S/N von 10 : 1 bis 20 : 1. Aus den Daten einer Validierung oder Kalibrierung
Die oben beschriebenen Grenzwerte können auch aus den Daten, welche bei der Linearitätsbestimmung einer Methodenvalidierung oder bei der Kalibrierung anfallen, in Anlehnung an die DIN-Norm 32645 [2] bestimmt werden [3, 4]. X NG = s x 0 ⋅ tf, D ⋅
1 1 x2 + + m n Qx
(1.12)
mit: XNG = Nachweisgrenze, s x0 = Verfahrensstandardabweichung, tf,D = t-Wert, m = Anzahl der Parallelmessungen, n = Anzahl der Kalibrierpunkte, x = mittlere Konzentration der Kalibrierlösungen (= Mittelpunkt des Arbeitsbereichs), Qx = Summe der Abweichungsquadrate. X EG = 2 X NG
(1.13)
1.3 van Deemter- und Golay-Gleichung
mit: XNG = Nachweisgrenze, XEG = Erfassungsgrenze. X BG = k ⋅ s x 0 ⋅ tf , D ⋅
1 1 (x − x )2 + + BG ≈ k ⋅ X NG m n Qx
(1.14)
mit: XBG = Bestimmungsgrenze; XNG = Nachweisgrenze; k = In der DIN 32 645 wird 3 als Wert für den Faktor k empfohlen, was einer Ergebnisunsicherheit von 33% entspricht; sx0 = Verfahrensstandardabweichung; tf,D = t-Wert; m = Anzahl der Parallelmessungen; n = Anzahl der Kalibrierpunkte; x = mittlere Konzentration der Kalibrierlösungen (= Mittelpunkt des Arbeitsbereichs); Qx = Summe der Abweichungsquadrate. Über einen maximalen Variationskoeffizienten
Von einer Reihe Standardlösungen (mit abnehmender Konzentration) werden jeweils z. B. 6 Injektionen gemacht und der Variationskoeffizient berechnet. Die Konzentration der Standardlösung, deren Vk gerade noch unter dem zuvor definierten Wert (z. B. 0,1 für die Bestimmungsgrenze) liegt, wird als Grenzwert festgelegt [5].
1.3 van Deemter- und Golay-Gleichung
Die van Deemter-Gleichung beschreibt die Abhängigkeit der Effizienz eines chromatographischen Peaks von der linearen Strömungsgeschwindigkeit des Eluenten durch Eddy-Diffusion, Längsdiffusion und Massenaustauschverzögerung. In der Gaschromatographie werden heute hauptsächlich offene Kapillarsäulen eingesetzt. Die Peakverbreiterung wird nur durch die Längsdiffusion und die Massenaustauschverzögerung beeinflusst. Der Einfluss der Eddy-Diffusion ist gleich null. Die van-Deemter-Gleichung vereinfacht sich zur Golay-Gleichung (Gl. 1.16) [6]. H = A+
B +C ⋅u u
(van-Deemter-Gleichung)
(1.15)
mit: H = theoretische Bodenhöhe, A = Eddy-Diffusion, B = Längsdiffusion, C = Massenaustauschverzögerung, u = durchschnittliche lineare Strömungsgeschwindigkeit. H =
B +C ⋅u u
(Golay-Gleichung)
(1.16)
mit: H = theoretische Bodenhöhe, B = Längsdiffusion C = Massenaustauschverzögerung, u = durchschnittliche lineare Strömungsgeschwindigkeit.
15
16
1 Das Chromatogramm
Werden die Terme B (Längsdiffusion) und C (Massenaustausch) weiter aufgeschlüsselt, ergibt sich: H =
2 Dm 1 + 6 k + 11 k 2 dc2 df2 2 k + u + u 2 u 3 (1 + k ) Ds 96 (1 + k )2 Dm Längsdiffusion
Massenaustausch in der stationären Phase
(1.17)
Massenaustausch in der mobilen Phase
(erweiterte Golay-Gleichung) mit: H = theoretische Bodenhöhe, Dm = Diffusionskoeffizient der mobilen Phase, Ds = Diffusionskoeffizient der stationären Phase, dc = Innendurchmesser der Kapillarsäule, df = Filmdicke, k = Retentionsfaktor, u = durchschnittliche lineare Strömungsgeschwindigkeit. Eine wichtige Aussage, welche die erweiterte Golay-Gleichung macht, ist, dass in der Kapillargaschromatographie die Effizienz durch Verkleinern des Innendurchmessers der Kapillare und der Filmdicke gesteigert werden kann. Soweit die Theorie, in der Praxis kann jedoch eine Vergrößerung der Filmdicke sowohl zu einer verbesserten Effizienz (weniger Überladung der Säule) als auch zu einer größeren Selektivität führen (s. Abb. 1.13). In der Regel führt man einen GC-Run nur dann mit der optimalen linearen Gasgeschwindigkeit durch, wenn das letzte Quäntchen an Effizienz (= möglichst schmaler Peak) aus der Trennsäule herausgeholt werden muss. Es ist zu bedenken, dass bei temperaturprogrammierter Arbeitsweise (und das ist bei Verwendung von Kapillarsäulen meistens der Fall) der Trägergasfluss mit steigender Temperatur wegen der steigenden Viskosität kleiner wird, wenn man mit einem druckgeregelten Gaseinlassventil arbeitet. Fällt der Trägergasfluss dann unter das van-Deemter- resp. Golay-Optimum, wird die Peakverbreiterung hauptsächlich vom B-Term (Längsdiffusion) beeinflusst. Dort ist die H/u-Kurve relativ steil, kleine Veränderungen des Trägergasflusses haben einen größeren Einfluss auf die Peakbreite (s. Abb. 1.11). Ziel der Suche nach dem van Deemter-Optimum ist die Steigerung der Effizienz des Systems, um entweder die chromatographische Auflösung zu steigern oder die Nachweisgrenze eines Analyten herunter zu setzen. Liegen die beiden Größen in einem akzeptablen Bereich, macht es mehr Sinn, den Eluentenfluss in Bezug auf die Analysezeit zu optimieren. Optimale Analysezeit heißt möglichst schnell chromatographieren, ohne dass die Effizienz (und somit die Auflösung), die Anfälligkeit des Systems auf Undichtigkeit oder die Genauigkeit der Peakerkennung darunter leiden. Zur Steigerung der Auflösung sind andere Maßnahmen als die Anpassung des Eluentenflusses oft wirkungsvoller. Die Erhöhung des Splitflusses in der GC kann z. B. bewirken, dass aus einer Peakschulter plötzlich ein gut abgetrennter Peak entsteht (s. Abb. 1.12) oder entgegen der Theorie, dass sich durch Verkleinern der Filmdicke einer GC-Kapillarsäule die Auflösung dank besserer Effizienz vergrößert (s. Gl. 1.17) resp. umgekehrt mit
1.3 van Deemter- und Golay-Gleichung
Abb. 1.11 Eine Abweichung vom Optimum der Strömungsgeschwindigkeit in positiver Richtung wirkt sich weniger stark auf die Peakverbreiterung aus (p), als wenn der Eluentenfluss unterhalb des Optimums liegt (m).
Abb. 1.12 Totzeitbestimmung eines GC-Systems mittels Feuerzeuggas (Ofentemperatur = 120 °C, Filmdicke = 2 μm). Die Erhöhung des Splitverhältnisses ist oft mit einer Zunahme der Effizienz verbunden. Die Peakhöhe nimmt in einem kleineren Maße ab, als aufgrund des größeren Splitverhältnisses zu erwarten wäre.
17
18
1 Das Chromatogramm
Abb. 1.13 Totzeitbestimmung eines GC-Systems mittels Feuerzeuggas (Ofentemperatur = 50 °C, Filmdicke = 0,25 μm resp. 2 μm). Auf der Säule mit dem dünneren Film sieht man an der aufsteigenden Peakflanke eine kleine Schulter, wogegen sich auf der Säule mit dem dickeren Film Propan, Butan und Isobutan dank besserer Selektivität gut trennen. Dass für eine Totzeitbestimmung entweder die Temperatur erhöht oder Methan als Totzeitmarker verwendet werden sollte, sei hier nur am Rande vermerkt.
zunehmender Filmdicke verkleinert, kann oft eine Vergrößerung der Filmdicke zu einer besseren Auflösung führen, weil die Selektivität zunimmt oder weil dank geringerer Überladung der dickfilmigen Säule die Peakbreite sogar abnimmt.
1.4 Erzeugen von Chromatogrammen
Der von Mikail Semenowitsch Tswett geprägte Begriff Chromatographie bedeutet in der deutschen Übersetzung bekanntlich „Farbschreibung“. Für die Erkennung der Substanzzonen bei präparativen Trennungen von Farbstoffgemischen mochte das menschliche Auge als Detektionssystem noch zu genügen, aber bereits zur Erkennung von farblosen Komponenten oder gar für die Quantifizierung von Analyten braucht es technische Einrichtungen, welche in der Lage sind, feinste Unterschiede in der Zusammensetzung des Eluentenstroms reproduzierbar zu erkennen. Der ideale Detektor, welchen man nur in die Nähe der zu untersuchenden Probe halten muss, wenn die genaue qualitative und quantitative Zusammensetzung ermittelt werden soll, existiert leider (oder zum Glück?) nicht. Die Meinung, dass mit der großen Verbreitung von massensensitiven Detektoren der chromatographische Schritt, also die Auftrennung des Substanzgemisches sekundär werde oder sogar ganz wegfalle, hat sich bis heute als Irrtum erwiesen. Neben der guten Probennahme und Probenvorbereitung ist in der Regel eine saubere
1.4 Erzeugen von Chromatogrammen
chromatographische Trennung unabdingbar, wenn Substanzgemische richtig analysiert werden sollen. 1.4.1 Datenaufnahme, Erzeugen der Rohdaten
Die meisten Detektionssysteme liefern ein der Substanzmenge proportionales, analoges, elektrisches Signal (Spannung, Stromstärke). Dieses Signal wird vom Datensystem in digitaler Form in einem Rohdatenfile abgespeichert (s. Abb. 1.14). Aus diesem zweidimensionalen Chromatogramm können sowohl qualitative (Retentionszeit) als auch quantitative (Peakfläche/Peakhöhe) Informationen erhalten werden, jedoch immer nur im Vergleich mit Referenzsubstanzen. Datenaufnahme und Datenauswertung werden meistens im gleichen Atemzug genannt. Um zu verstehen, was dabei genau vor sich geht, ist es meines Erachtens äußerst wichtig, die beiden Vorgänge getrennt zu betrachten, auch deshalb, weil bei verschiedenen Integrationsprogrammen einige Parameter zur Steuerung der Datenaufnahme gleich bezeichnet werden wie diejenigen der Datenauswertung und nicht immer klar ersichtlich ist, in welchem Schritt (Abb. 1.15) die Aktion erfolgt. Beispiel: Wird im Integrationsprogramm angegeben, dass die Datensammelrate in bestimmten Abständen halbiert werden soll, können entweder die Hälfte der Daten als Rohdatenpunkte abgespeichert werden (Abb. 1.15, Schritt 1) oder während der gesamten Datenaufnahme werden die Rohdaten in der gleichen Frequenz abgespeichert und die Datenreduktion erfolgt erst bei der Datenauswertung (Abb. 1.15, Schritt 2).
Abb. 1.14 Das vom Detektor erzeugte Analogsignal wird im Analog/Digitalwandler (ADU) digitalisiert und vom Integrationssystem als Rohdatenfile abgespeichert.
19
20
1 Das Chromatogramm
Abb. 1.15 Die Datenaufnahme (Erzeugen des Rohdatenfiles) und die Datenauswertung (Peakerkennung, Peakreduktion, Bestimmung der Basislinie, Peakzuordnung, qualitative und quantitative Auswertungen) sind zwei gesondert zu betrachtende Vorgänge.
Abb. 1.16 In der Detektorzelle wird ein analoges Signal erzeugt, welches vom Analog/Digitalwandler (ADU) digitalisiert wird. Die ADU kann im Detektor eingebaut, in einem externen Interface untergebracht oder als Karte im Computer eingebaut sein.
Sehen wir uns die Datenaufnahme etwas näher an: Das vom Detektor erzeugte analoge Signal kann (eventuell verstärkt) entweder an einem Analoganschluss des Detektors abgegriffen und anschließend „extern“ digitalisiert werden oder der Analog/Digitalwandler ist bereits Bestandteil des Detektors und das Signal steht am Detektor in digitaler Form zur Verfügung. Auch wenn auf modernen Computern der Speicherplatz nicht mehr einen limitierenden Faktor darstellt, macht es wenig Sinn, das analoge Detektorsignal mit der größtmöglichen Frequenz zu digitalisieren und jeden digitalen Datenpunkt abzuspeichern. Damit erhöht sich neben dem Platzbedarf auch die Zeit, welche der Rechner für die Datenauswertung braucht. Die abgespeicherten Datenpunkte bezeichnet man als Rohdaten. Das Detektorsignal sollte ein möglichst genaues Abbild der Konzentrationsverhältnisse im Eluentenstrom in der Detektorzelle
1.4 Erzeugen von Chromatogrammen
Abb. 1.17 Das analoge Detektorsignal wird (für schmale Peaks) mit einer hohen Datensammelrate von der ADU digitalisiert und mit der gleichen Frequenz vom Computer abgespeichert (in unserem Beispiel auf einer externen Festplatte).
Abb. 1.18 Für breite Peaks ist eine langsamere Datensammelrate besser geeignet. Es braucht nicht nur weniger Speicherplatz, sondern die Einstellung der optimalen Peakerkennungsparameter bereitet meistens auch weniger Probleme. Ob die von der ADU gelieferten Daten mit der gleichen Frequenz (z. B. 5 Hz) aufgenommen oder ob bereits in der ADU ein Datenbunching vorgenommen wurde (z. B. Datenaufnahme mit 100 Hz und der Mittelwert aus 20 Messwerten wird ausgegeben, was einer Rohdatenerzeugung gem. Abb. 1.19 gleichkommt), wird meistens in den Handbüchern der Hersteller von Integrationssoftware nicht beschrieben. Durch Vergleich der Bandbreite der mit kleiner und großer Frequenz aufgenommenen Basislinie kann abgeschätzt werden, welches Vorgehen angewendet wurde (s. Abb. 1.21).
darstellen. Diesem konzentrations- (oder massenstrom-)abhängigen Signal ist ein höherfrequentes (hauptsächlich elektronisches) Rauschen überlagert. Man kann sich verschiedene Möglichkeiten ausdenken, wie aus dem Analogsignal ein möglichst genaues digitales Abbild entsteht, aus welchem das Rauschen teilweise entfernt ist und/oder welches möglichst wenig Speicherplatz braucht. x Je nach Art des Chromatogramms (schnelle Gaschromatographie mit sehr schnellen Peaks oder LC/SEC mit ziemlich langsamen Signaländerungen) wird das Analogsignal mit einer angepassten Frequenz abgetastet (s. Abb. 1.17 bzw. Abb. 1.18). Die Datensammelrate wird so eingestellt, dass der schmalste Peak mit z. B. 20 Datenpunkten dargestellt wird. x Die Daten werden mit einer relativ hohen Datensammelrate abgetastet, aber nur der Mittelwert aus einer bestimmten Anzahl Datenpunkten wird abspeichert (s. Abb. 1.19). Das Verfahren wird als Datenbunching bezeichnet. x Je nach Größe der Signaländerung passt sich die Datensammelrate so an, dass die einzelnen Peaks mit mehr Datenpunkten dargestellt werden als die Basislinie (s. Abb. 1.20). x Nur die Differenz zum vorhergehenden Datenpunkt wird abgespeichert.
21
22
1 Das Chromatogramm
Abb. 1.19 Das Analogsignal wird von der ADU stets mit einer hohen Frequenz abgegriffen. Eine mit Bunching Rate, Peak Width oder ähnlich bezeichnete Funktion steuert, wie viele Datenpunkte zusammengefasst und deren Mittelwert im Rohdatenfile abgelegt wird. Als Beispiel sei ein Gaschromatogramm erwähnt, welches mit einem Mikro-Wärmeleitfähigkeitsdetektor aufgenommen wird, der nur über ein Filament verfügt und abwechselnd Messgasstrom und Referenzgasstrom über dieses Filament leitet. Wird mit zu großer Datensammelrate gearbeitet, erhält man einen treppenförmigen Peak (s. Abb. 1.23).
Abb. 1.20 Je nach augenblicklicher Signalsteigung wird eine variable Anzahl Datenpunkte als Rohdaten abgespeichert. Peaks werden mit mehr Datenpunkten dargestellt als das Signal zwischen den Peaks.
1.4.1.1
Bei der Datenaufnahme verwendete Parameter
Wie im vorhergehenden Abschnitt gezeigt, gehen die Hersteller von Chromatographiesystemen leicht unterschiedliche Wege, das analoge Detektorsignal in digitaler Form auf ein Speichermedium zu schreiben. Zur Steuerung des Vorgangs werden nur ein paar wenige Parameter gebraucht. Sie dienen dazu x der ADU mitzuteilen, wann das Analogsignal mit welcher Frequenz gelesen werden soll; x die ADU oder den Computer anzuweisen, wie viele Datenpunkte gemittelt werden sollen. Leider werden diese Steuerungsparameter nicht von jedem Hersteller gleich benutzt. Datensammelrate (Sampling Rate)
Die Datensammelrate gibt an, wie viele Datenpunkte pro Sekunde aufgenommen werden oder wie viele Datenpunkte der A/D-Wandler des Detektors liefern soll. Die Datensammelrate wird in Hertz [Hz] angegeben. Von Hersteller zu Hersteller kann dieser Parameter etwas unterschiedliche Aktionen auslösen:
1.4 Erzeugen von Chromatogrammen
x Das Analogsignal wird gemäß Abb. 1.17 bzw. 1.18 mit der angegebenen Frequenz abgetastet, digitalisiert und mit der gleichen Frequenz abgespeichert. x Das Analogsignal wird immer mit der gleichen, hohen Frequenz abgetastet (z. B. 100 Hz) und die gemittelten Werte mit der angegeben Frequenz (z. B. 5 Hz) abgespeichert. In unserem Beispiel würde somit jeweils der Mittelwert aus 20 Datenpunkten abgespeichert. Ob die eingestellte Datensammelrate während des ganzen chromatographischen Laufs konstant bleibt, ob sie sich mit der Zeit verändert (z. B. bei isokratischen/ isothermen Läufen in bestimmten Abständen langsamer wird) oder sich sogar mit der Signalsteigung verändert (je steiler das Signal, umso größer die Datensammelrate), ist von Hersteller zu Hersteller unterschiedlich. Schrittweite (Sampling Period, Step)
Anstelle der Datensammelrate wird oft auch deren Reziprokwert verwendet. Die Schrittweite bezeichnet den Zeitabschnitt zwischen zwei Messungen und wird normalerweise in Millisekunden [ms] angegeben. Peak Width
Wie verschiedentlich gezeigt wurde, ist nicht die größtmögliche Datensammelrate das Optimum bei der Datenaufnahme, sondern es ist unbedingt nötig, diesen Parameter auf das erwartete Chromatogramm abzustimmen. Mit zu wenig Datenpunkten können die Peaks nicht wirklichkeitsgetreu abgebildet werden (s. Abb. 1.24) und zu viele Datenpunkte erschweren die „richtige“ Peakerkennung und verbrauchen unnötig viel Speicherplatz und Rechenzeit. Die Peak Width hilft dem Benutzer, auf einfache Art eine angepasste Datensammelrate einzustellen. Als Wert für die Peak Width wird in der Regel die Breite des schmalsten Peaks (in Sekunden) in einem Chromatogrammabschnitt angegeben. Ob der Software-Hersteller die Halbwertsbreite, die Basispeakbreite oder irgendeine andere Peakbreite meint, ist dem jeweiligen Handbuch zu entnehmen. Innerhalb der bei Peak Width angegebenen Zeit wird eine definierte Anzahl Datenpunkte verwendet. Ob die Peak Width Einfluss auf die abgespeicherten Rohdaten hat (s. Abb. 1.15, Schritt 1) oder erst bei der Datenauswertung zum Tragen kommt, findet man mit etwas Glück in den Handbüchern der Software. Das Gleiche gilt für den Einfluss der Peak Width auf die Art der Datenumwandlung; wird das Analogsignal in der durch diesen Parameter definierten Frequenz abgetastet oder wird eine unterschiedliche Anzahl Datenpunkte gemittelt, was sich durch ein verringertes Signalrauschen bemerkbar machen würde (s. Abb. 1.48). Ändern der Datensammelrate während der Datenaufnahme
Bei isokratisch/isotherm aufgenommenen Chromatogrammen werden die Peaks mit zunehmender Retentionszeit breiter. Damit alle Peaks mit einer ähnlichen Anzahl Datenpunkten aufgenommen werden und sich die Peakerkennung innerhalb des Chromatogramms nicht allzu stark ändert, kann bei vielen Integrationsprogrammen eingestellt werden, ob und wie sich die Datensammelrate im
23
24
1 Das Chromatogramm
Verlauf der Datenaufnahme verändern soll. „Auto Data Sampling Mode“, „Auto Peak Width“ werden z. B. als Begriff dafür verwendet oder ein negativer Wert für die Peak Width schaltet die automatische Anpassung der Datensammelrate ein oder aus. Auch hier gilt das Gleiche wie bei der Peak Width. Ob die automatische Anpassung der Datensammelrate Einfluss auf die Anzahl der Rohdatenpunkte hat oder erst die Datenauswertung beeinflusst, ist von der Integrationssoftware abhängig. Selbstverständlich ist die Anwendung dieser Parameter nur bei isokratischer/ isothermer Chromatographie sinnvoll, bei Gradientenelution kann sie sich negativ auswirken, wenn spät eluierende Peaks mit einer zu geringen Anzahl an Datenpunkten erfasst werden (s. Abb. 1.24)! Einfluss bei der Datenaufnahme oder der Datenauswertung
Ob die Parameter zur Steuerung der Datenaufnahmefrequenz wirklich einen Einfluss auf die Datenaufnahme haben oder ob sie erst bei der Datenauswertung wirksam werden, ist oft ebenso schwer aus den Handbüchern der Software-Hersteller herauszulesen wie die Antwort auf die Frage, ob das analoge Detektorsignal wirklich mit der eingegebenen Datensammelrate aufgenommen wird oder ob umso mehr Datenpunkte gemittelt werden, je kleiner die Datensammelrate eingestellt wird. Zur Überprüfung des Ersteren können zwei Chromatogramme bei unterschiedlichen Datensammelraten aufgenommen, die Chromatogramme in ein von Excel lesbares Format konvertiert und die Datenreihen verglichen werden. Die Antwort auf die zweite Frage erhält man, wenn wiederum zwei Chromatogramme mit unterschiedlichen Datensammelraten aufgenommen und das Rauschen verglichen wird (s. Abb. 1.48). 1.4.1.2
Beispiele der unterschiedlichen Art der Datenaufnahme
Folgende Beispiele sollen den Effekt der unterschiedlichen Art des Sammelns von Rohdaten zeigen. Zur Darstellung des in Abb. 1.21 dargestellten Chromatogrammausschnitts wurde zur besseren Vergleichbarkeit ein mit FID aufgenommenes Gaschromatogramm nach Excel exportiert. Ein Ausschnitt von sechs Sekunden zwischen zwei gut aufgelösten Peaks des mit 100 Hz aufgenommenen Signals wurde ausgewählt, um die unterschiedlichen Arten der Rohdatenerzeugung darzustellen. In Abb. 1.21 Kurve (a) ist das Diagramm der Originaldaten dargestellt. Die Abb. 1.21 Kurve (b) zeigt das Diagramm, wenn 19 von 20 Datenpunkten gelöscht werden, was einer Datensammelrate von 5 Hz entspricht. Um Abb. 1.21 Kurve (c) zu erzeugen, wurde jeweils der Mittelwert von 20 aufeinander folgenden Originaldatenpunkten berechnet und nur diese Mittelwerte zur Darstellung verwendet. Dieses Vorgehen entspricht einem Datenbunching mit einer Bunching Rate von 20. In Abb. 1.21 Kurve (a) ist der größere Informationsgehalt gegenüber der mit 1/20 an Datenpunkten dargestellten Kurve (b) deutlich sichtbar, die Bandbreite des Signalrauschens bleibt in etwa gleich groß. Wie Abb. 1.22 zeigt, kann auf die größere Informationsdichte ohne Qualitätseinbuße verzichtet werden, wenn ein
1.4 Erzeugen von Chromatogrammen
Abb. 1.21 Ausschnitt von sechs Sekunden der Basislinie eines Gaschromatogramms, mit FID aufgenommen. Das OriginalChromatogramm (a) wurde mit einer Datensammelrate von 100 Hz aufgenommen und in ein Excel-File exportiert. Zur Veranschaulichung des Unterschieds der Datenaufnahme mit einer kleineren Datensammelrate mit und ohne Datenbunching wurde bei
(b) nur jeder 20. Datenpunkt verwendet und bei (c) der Mittelwert aus 20 Datenpunkten (= Datenbunching). Bei den Chromatogrammausschnitten (b) und (c) ist deutlich erkennbar, dass die Datenreduktion genau die gleiche ist, dass sich aber mit dem Datenbunching eine deutliche Reduktion des Signalrauschens erzielen lässt.
Peak mit genügend Datenpunkten dargestellt wird. Die Kurve (c) in Abb. 1.21 wird mit der genau gleichen Anzahl Datenpunkte dargestellt wie Kurve (b). Durch die Mittelwertbildung wird sie jedoch geglättet, das Signalrauschen verringert sich. Für diese Art der Datenreduktion ist der Begriff „Datenbunching“ üblich. Mit der Größe Bunching Rate wird die Anzahl der Datenpunkte bezeichnet, welche zu einem Datenpunkt zusammengefasst werden. Wie aus Abb. 1.22 gut ersichtlich ist, bringt eine sehr hohe Datensammelrate keinen Gewinn an Genauigkeit der Darstellung des Peaks, solange genügend (ca. 20) Datenpunkte vorhanden sind (s. Abb. 1.24).
25
26
1 Das Chromatogramm
Abb. 1.22 Sofern der Peak mit genügend Datenpunkten dargestellt wird (ca. 20), bringt eine zu hohe Datensammelrate keine Vorteile. Die beiden Peaks, einer mit 100 Hz aufgenommen, der andere mit 10 Hz, sind praktisch deckungsgleich.
Abb. 1.23 Totzeitbestimmung auf einem GC-System mit Methan. Detektor: WLD. Mit einer Frequenz von ca. 10 Hz werden abwechslungsweise der Referenzgasstrom und der Trägergasstrom über das eine Filament geleitet. Die Datensammelrate von 200 Hz lässt den Peak als treppenförmige Pyramide erscheinen, weil sich während der Messung des Referenzgasstroms die Konzentration nicht ändert. Je kleiner die Datensammelrate
eingestellt wird, umso mehr nähert sich die Peakform einer Gaußkurve. Mit 5 Hz ist die Sampling Rate eindeutig zu klein gewählt. Eine Optimierung der Aufnahmefrequenz ist unerlässlich. Das hier verwendete Integrationsprogramm arbeitet gemäß Abb. 1.19 und misst mit einer hohen Frequenz, speichert aber nur den Mittelwert der mit Peak Width eingestellten Anzahl Datenpunkte.
1.4 Erzeugen von Chromatogrammen
Abb. 1.24 Ein Peak sollte mit ca. 20 Datenpunkten dargestellt werden.
Abb. 1.25 Zur Bestimmung des van DeemterOptimums wurde bei einer Trägergasgeschwindigkeit von 5 cm/s ein Chromatogramm mit einer Datensammelrate von 10 Hz und eins mit 100 Hz aufgenommen. Bei diesem sehr langsamen Gasfluss machen sich Konzentrationsschwankungen innerhalb des Substanzpfropfens stark bemerkbar. Auch bei diesen Chromatogrammen wurde das Detektorsignal mit einer hohen Datensammelrate abgegriffen und die Rohdaten je nach eingestellter Peak
Width „gebuncht“ (gemäß Abb. 1.19). Beim mit 10 Hz aufgenommenen Chromatogramm konnte bei der Einstellung der Peakerkennungsparameter ein Kompromiss gefunden werden, dass nur ein Peak erkannt wurde und die Basislinie trotzdem einigermaßen richtig verlief. Wurde das Chromatogramm mit 100 Hz aufgenommen, wurden bei einem ähnlichen Verlauf der Basislinie eine Unmenge an Peaks erkannt.
27
28
1 Das Chromatogramm
Im Gegenteil, Abb. 1.23 zeigt ein Beispiel, wie sich zu viele Datenpunkte (jedenfalls optisch) kontraproduktiv bemerkbar machen können. Hier wurde mit Methan die Totzeit des GC-Systems bestimmt. Der verwendete Wärmeleitfähigkeitsdetektor misst das Signal der Probe und das Referenzsignal abwechslungsweise mit dem gleichen Filament. Ein Ventil schaltet die Gasströme mit einer Frequenz von ca. 10 Hz um. Weil das Integrationssystem bei kleinerer Datensammelrate mehr Datenpunkte mittelt (ein Datenbunching vornimmt), sieht der mit 5 Hz aufgenommene Peak eher nach einem chromatographischen Peak aus. Über die Unterschiede der Richtigkeit der beiden Peaks kann der Autor leider keine Angaben machen, weil er diesbezüglich keine Abklärungen vorgenommen hat. Für sehr schmale Peaks werden solch hohe Datensammelraten benötigt, damit die Peaks überhaupt mit einer genügenden Anzahl Datenpunkten dargestellt werden können. Weil zur Peakerkennung in der Regel die Signalsteigung benutzt wird, kann es bei etwas breiteren Peaks Schwierigkeiten bei der Peakerkennung geben, wenn ein stark verrauschtes Signal mit einer hohen Datensammelrate aufgenommen wird (s. Abb. 1.25). 1.4.1.3
Innere/äußere Chromatogramme
Nicht nur aus der Säulenchromatographie, sondern auch aus der Dünnschichtchromatographie können Chromatogramme erzeugt werden. Bei der Säulenchromatographie durchwandern die Analyten in der Regel die gesamte Trennstrecke und werden außerhalb der Säule detektiert. Das dabei erhaltene Chromatogramm wird als äußeres Chromatogramm bezeichnet (s. Abb. 1.26). Bei Dünnschichtchromatogrammen bleiben die Analyten innerhalb der Trennstrecke und werden dort detektiert; man spricht hier von einem inneren Chromatogramm (s. Abb. 1.27). 1.4.1.4
2-D-/3-D-Chromatogramme
Eine Erweiterung der Aussagekraft von Detektoren ist der Einbezug der dritten Dimension. Ein typischer Vertreter ist der Diodenarray-Detektor (DAD oder Photo Diode Array, PDA). Im Gegensatz zum klassischen UV-Detektor wird nicht nur die Absorption eines schmalen Wellenlängenbereichs mit einer lichtempfindlichen Diode gemessen, sondern ein breiterer Wellenlängenbereich wird auf z. B. 512 Dioden verteilt.
Abb. 1.26 Wird der Analyt außerhalb der Trennstrecke detektiert, spricht man von einem äußeren Chromatogramm.
1.4 Erzeugen von Chromatogrammen
Abb. 1.27 Auf Dünnschichtplatten entstehen innere Chromatogramme; die Analyten werden innerhalb der Trennstrecke detektiert.
Abb. 1.28 Ein 2-D-Chromatogramm.
Mit der zusätzlichen Dimension vergrößert sich der Informationsgehalt eines Chromatogramms wesentlich. So lässt sich z. B. aus dem in Abb. 1.29 dargestellten, mit einem Diodenarray-Detektor aufgenommenen Chromatogramm leicht das UV-Spektrum bei einer beliebigen Zeit extrahieren. Mit Hilfe einer Spektrendatenbank kann so die einem Peak zugrunde liegende Substanz ermittelt werden. Diese Information kann z. B. bei der automatisierten Methodenentwicklung wertvolle Dienste leisten, wenn nicht nach jeder Anpassung der chromatographischen Bedingungen die Peaks neu identifiziert werden müssen.
29
30
1 Das Chromatogramm
Abb. 1.29 Das gleiche Chromatogramm wie in Abb. 1.28, jedoch mit der Wellenlänge als dritter Dimension.
Abb. 1.30 UV-Spektrum bei der Spitze vom Peak bei 16,85 min (s. Abb. 1.28). Gemäß Spektrenbibliothek handelt es sich um Pyren.
1.4.2 Charakterisierung von Detektoren
Den Universaldetektor gibt es leider nicht. Jedes Detektionssystem besitzt unterschiedliche Eigenschaften, welche mehr oder weniger Einfluss auf die Qualität der ermittelten chromatographischen Daten haben. Das ausgeklügeltste Integrationssystem nützt nichts, wenn der Detektor unpräzise Daten liefert. Mit den technischen Spezifikationen des Detektors müssen wir leben; oft kann man jedoch mit einer optimalen Abstimmung der Geräteeinstellungen und der
1.4 Erzeugen von Chromatogrammen
chromatographischen Bedingungen wie Probekonzentration, Eluentenfluss oder Wahl der Säulendimension die Güte der Ergebnisse maßgeblich beeinflussen. Besitzen wir z. B. eine HPLC-Anlage mit einem UV-Detektor, dessen Detektorzelle ein Volumen von 20 μl aufweist und die Datensammelrate maximal auf 5 Hz eingestellt werden kann, macht es wenig Sinn, eine 5 cm lange Säule mit einem Innendurchmesser von 2 mm und einem Partikeldurchmesser von 3 μm zu verwenden und erst noch einen Eluentenfluss von 3 ml pro Minute einzustellen. Allgemein können Detektoren mit folgenden Werten charakterisiert werden: x x x x x x x x
zerstörend/nicht zerstörend, selektiv, spezifisch, universell, konzentrations-/massenstromabhängig, Empfindlichkeit, linearer/dynamischer Bereich, Ansprechzeit, Rauschen, Drift.
1.4.2.1
Zerstörend/nicht zerstörend
Je nach Messprinzip eines Detektors werden die Substanzen während der Messung zerstört. Ein typischer Vertreter dieser Art ist der Flammenionisations-Detektor. Die Kenntnis, ob ein Detektor zerstörend ist oder nicht, ist für präparative Trennungen wichtig, oder wenn ein selektiver und ein universeller Detektor hintereinander geschaltet werden, darf der erste Detektor nicht zerstörend sein. 1.4.2.2
Selektiv, spezifisch, universell
Typische Vertreter von universellen Detektoren sind der WärmeleitfähigkeitsDetektor in der GC oder der Brechungsindex-Detektor in der LC. Es werden alle Substanzen detektiert, deren Wärmeleitfähigkeit resp. Brechungsindex sich von den Werten des Eluenten unterscheiden. Ob ein Detektor selektiv oder spezifisch ist, lässt sich nicht immer so leicht unterscheiden. Definitionsgemäß versteht man unter Selektivität, wenn mehrere Komponenten nebeneinander und ohne gegenseitige Störung erfasst werden können. Als Spezifität bezeichnet man demgegenüber die Fähigkeit, eine bestimmte Komponente aus einer Mischung ohne Störung durch andere Komponenten zu erfassen. So ist z. B. ein enantioselektiver Detektor in der Lage, die beiden Enantiomere in einem Racemat nebeneinander zu erfassen, mit einem enantiospezifischen Detektor könnte eine der beiden Formen bestimmt werden, ohne dass die andere einen störenden Einfluss hätte. 1.4.2.3
Konzentrations- und massenstromabhängige Detektoren
Detektoren liefern ein Signal, welches der detektierten Masse (z. B. Flammenionisations-Detektor) oder der detektierten Konzentration (z. B. UV-Detektor) proportional ist. Das Chromatogramm ist somit ein Abbild der Substanzverteilung in der stationären Phase.
31
32
1 Das Chromatogramm
Abb. 1.31 Konzentrationsabhängiger Detektor (misst die Konzentration). Zur Veranschaulichung stellen wir uns den Substanzpfropfen in der Trennsäule als Aneinanderreihung von mehreren Zonen mit homogener Konzentration vor. Unabhängig vom Flow bleibt die Substanzkonzentration der einzelnen Konzentrationszonen gleich.
Bei kleinerem Flow (unterer Peak) ist das Signal für jede Konzentrationszone gleich groß wie beim größeren Flow (oberer Peak), aber die einzelnen Konzentrationszonen halten sich länger in der Detektorzelle auf. Der Peak bleibt gleich hoch, wird aber breiter. Die Peakfläche wird größer.
Abb. 1.32 Die vier Chromatogramme, welche mit einem UV-Detektor aufgenommen wurden, bestätigen die Theorie. Links sind vier Chromatogramme, welche mit einem Eluentenfluss von 0,25, 0,5, 1 und 2 ml/min aufgenommen wurden, rechts die dazugehörenden Größen. Dass die Signalhöhe nicht bei allen
Peaks genau gleich groß ist, lässt sich damit erklären, dass gemäß van DeemterGleichung die Effizienz vom Eluentenfluss abhängig ist. Probe: 0.5 μl/ml Toluol in ACN/ H2O 1 ml + 1 ml; Säule: 25 u 4 mm; Stationäre Phase: Purospher 100 RP-18 (5 μm); Mobile Phase: ACN/H2O 1 ml + 1 ml.
1.4 Erzeugen von Chromatogrammen
Abb. 1.33 Massenstromabhängiger Detektor (misst die Anzahl Teilchen, welche pro Zeiteinheit durch die Detektorzelle strömen). Weil die Konzentration an Analyt im Eluentenstrom (abgesehen vom Einfluss der Eddyund Längsdiffusion resp. der Massenaustauschverzögerung) nahezu konstant bleibt, ändert sich die Anzahl der Teilchen, welche pro Zeiteinheit den Detektor verlassen.
In unserem Beispiel wird die Eluentengeschwindigkeit halbiert (ursprüngliche Eluentengeschwindigkeit = Peak oben, reduzierte Eluentengeschwindigkeit = Peak unten). Der Peak wird zwar umgekehrt proportional zur Eluentengeschwindigkeit verbreitert, weil sich aber im gleichen Maß die Anzahl der Teilchen verändert, welche die Detektorzelle pro Zeiteinheit durchströmen, bleibt die Peakfläche ziemlich konstant.
Vernachlässigen wir die Peakverbreiterung durch die Änderung der Eluentengeschwindigkeit (van-Deemter-Gleichung (Gl. 1.15), bleiben die Konzentrationsverhältnisse in einem Substanzpfropfen, welcher sich in der Trennsäule befindet, annähernd konstant. Was sich ändert, ist die Aufenthaltszeit der Substanz in der Detektorzelle resp. die Anzahl der Teilchen, welche pro Zeiteinheit die Detektorzelle passieren. So lässt sich leicht erklären, dass sich bei konzentrationsabhängigen Detektoren die Peakfläche umgekehrt proportional zum Eluentenfluss verändert (s. Abb. 1.31 und 1.32), während bei massenstromabhängigen Detektoren die Peakfläche nahezu konstant bleibt (s. Abb. 1.33). 1.4.2.4
Detektorempfindlichkeit
Die Detektorempfindlichkeit wird üblicherweise als Signal (Peakhöhe) pro Konzentrations- oder Massenstromeinheit angegeben [6]. Für konzentrationsabhängige Detektoren gilt: S= =
m max ⋅ w h ⋅ F W Peakhöhe Durchschnittliche Analytenkonzentration im Peak
(1.18)
33
34
1 Das Chromatogramm
mit: S = Detektorempfindlichkeit, mmax = Peakhöhe (Signal am Peakmaximum), wh = Halbwertsbreite des Peaks, F = Eluentenfluss (in der GC druck- und temperaturkorrigiert), W = Masse des Analyten. Die Einheit der Detektorempfindlichkeit ist meistens [mAU] ⋅ [cm3 ] . [mg]
[mV] ⋅ [cm3 ] oder [mg]
Für massenstromabhängige Detektoren gilt: S=
mmax ⋅ w h Peakfläche = W Masse des Analyten im Peak
(1.19)
mit: S = Detektorempfindlichkeit, mmax = Peakhöhe (Signal am Peakmaximum), wh = Halbwertsbreite des Peaks, W = Masse des Analyten. [pA] ⋅ [s] . [mg] Die Detektorempfindlichkeit ist sowohl von der Bauweise des Detektors als auch von der Art des zu detektierenden Analyten abhängig. Zur Beurteilung von Detektoren muss daher immer die Detektorempfindlichkeit in Bezug auf einen definierten Analyten betrachtet werden. Die Einheit der Detektorempfindlichkeit ist meistens
1.4.2.5
Linearer und dynamischer Bereich
Als linearer Bereich eines Detektors wird der Konzentrations- resp. Massenbereich bezeichnet, in welchem sich die Empfindlichkeit eines Detektors in einem definierten Band befindet (in der Regel ±5%). Als Untergrenze dient die Nachweisgrenze resp. die Analytenkonzentration, welche das Signal des dreifachen Signalrauschens erzeugen würde (s. Abb. 1.34).
Abb. 1.34 Der lineare Bereich eines Detektors. In diesem Bereich bleibt die Detektorempfindlichkeit konstant.
1.4 Erzeugen von Chromatogrammen
Abb. 1.35 Der lineare und der dynamische Bereich eines Detektors. Der lineare Bereich eines Detektors ist erreicht, wenn die Steigung nicht mehr konstant ist, der dynamische Bereich (der den linearen Bereich mit einschließt), wenn die Steigung des Detektorsignals gegen die Konzentrationsänderung einen Mindestwert unterschreitet.
In welchem Bereich sich das Detektorsignal zur detektierten Substanzmenge linear verhält, ist sowohl vom Detektor als auch von der detektierten Substanz abhängig. Wird beispielsweise mit einem UV-Detektor eine nicht dissoziierende Verbindung gemessen, ist höchstwahrscheinlich der lineare Bereich des Detektors der limitierende Faktor. Anders bei der Analyse einer dissoziierenden Verbindung. Weil die Dissoziationskonstante von der Konzentration abhängig ist, kann hier der Analyt für die Größe des linearen Bereichs verantwortlich sein. Der lineare Bereich des Detektors und der lineare Bereich der Detektion eines bestimmten Analyten sind zwei Paar Stiefel; sie können zwar, müssen aber nicht gleich groß sein. Im dynamischen Bereich eines Detektors ergibt eine Änderung der Probenkonzentration eine signifikante Änderung des Detektorsignals. Innerhalb dieses Bereichs lässt sich eine Methode zwar noch kalibrieren, eine lineare Anpassung der Kalibrierkurve ist jedoch nur noch in kleinen Konzentrationsbereichen möglich und die Detektorempfindlichkeit wird immer schlechter (s. Abb. 1.35). Das Ende des dynamischen Bereichs ist erreicht, wenn eine Konzentrationsänderung keine signifikante Signaländerung mehr hervorruft. 1.4.2.6
Ansprechzeit, Zeitkonstante
Erreicht das Eluat aus der Trennsäule die Detektorzelle, wird in dieser ein der Substanzmenge proportionales Signal als Stromfluss oder als elektrische Spannung erzeugt. Dieser Vorgang benötigt naturgemäß eine bestimmte Zeit. Bei vielen Detektoren (z. B. UV-, VIS- und Fluoreszenz-Detektoren) bewegt sich diese Ansprechzeit im Picosekunden-Bereich, das Signal rauscht aber ziemlich stark. Aus diesem Grund wird dieses analoge Detektorsignal mittels elektronischer Schaltungen geglättet. Das Maß der Glättung lässt sich über den Parameter
35
36
1 Das Chromatogramm
Abb. 1.36 Mit dem Parameter „Zeitkonstante“ (Time Constant, Rise Time) wird bei vielen Detektoren eine elektronische Glättung des Analogsignals beeinflusst.
Abb. 1.37 Die Zeitkonstante gibt an, wie lange es dauert, bis das Ausgangssignal des Detektors das (1 – e–1)-fache = 63,2% des Endwerts erreicht hat. Bei diversen Detektoren lässt sich die Zeitkonstante verändern.
„Zeitkonstante“ (Time Constant, Rise Time, Response) variieren (s. Abb. 1.37 und 1.38). Wie Abb. 1.36 zeigt, beeinflusst die Zeitkonstante das Analogsignal. Bei der Digitalisierung dieses Signals kann mittels Datenbunching eine zusätzliche Signalglättung erreicht werden (s. Abb. 1.21 und 1.48). Dass der Optimierung dieser Parameter genügend Aufmerksamkeit geschenkt werden muss, liegt auf der Hand, besonders wenn man bedenkt, dass die Einstellung der Zeitkonstante und der Datenaufnahmeparameter wie Datensammelrate, Sampling Period, Peak Width etc. die aufgezeichneten Rohdaten beeinflussen. Eine falsche Einstellung der Zeitkonstante und der Datenaufnahmeparameter lässt sich nachträglich nicht mehr korrigieren!
1.4 Erzeugen von Chromatogrammen
Abb. 1.38 Die eingestellte Zeitkonstante hat Auswirkungen auf das Signalrauschen, die Peakhöhe, das Signal/Rausch-Verhältnis und die Peaksymmetrie. Weil die Zeitkonstante bei der Reintegration nicht mehr verändert werden kann, ist es wichtig, diesen Wert bei der Methodenentwicklung zu optimieren. Probe: 20 μl Phenyldecan (20 nl/ml) in Eluent; Stationäre Phase: Purospher RP-18 (5 μm) 25 u 4 mm; Mobile Phase: ACN/H2O 15 ml + 85 ml; Flow: 1 ml/min.
Experiment Optimierung Zeitkonstante/Datensammelrate
Um die Größenordung des Einflusses von Zeitkonstante und Datensammelrate auf die Datenauswertung abschätzen zu können, wurden zwei kleine Experimente gemacht. Die Ergebnisse der Versuche finden Sie im Anhang. Für die Versuche wurde eine HPLC-Anlage LaChrom von Merck-Hitachi verwendet. Die Steuerung der Anlage und die Datenauswertung erfolgten mit der Software HSM (ebenfalls Merck-Hitachi). Pumpe: UV-Detektor: Säule: Eluent: Flow: Probe:
L-7100 (Niederdruckgradient) L-7400 (261 nm) LichroCart 4 u 25 mm, Purospher 100 RP-18 (5 μm) ACN/H2O 85 ml + 15 ml 1 ml/min 3 nl/ml; 20 nl/ml; 1 μl/ml 1-Phenyldecan in Eluent
37
38
1 Das Chromatogramm
Versuch 1
Der Einfluss der Zeitkonstante auf das Chromatogramm (Peakfläche, Peakhöhe, Peakverbreiterung, Peaksymmetrie und Detektionsempfindlichkeit) soll demonstriert werden: x größtmögliche Datensammelrate: 10 Hz (bei HSM wird der Reziprokwert, die Sampling Period, eingestellt: SP = 100 ms); x unterschiedliche Zeitkonstanten (ZK) bei gleich bleibender Sampling Period (SP); x kleiner Peak/großer Peak (Probenkonzentration = 20 nl/ml resp. 1 μl/ml 1-Phenyldecan in Eluent); x die Daten wurden aus jeweils fünf Injektionen ermittelt. Versuch 2
Auch in diesem Versuch soll der Einfluss der Zeitkonstante auf das Chromatogramm demonstriert und zusätzlich untersucht werden, welchen Einfluss die Datensammelrate hat. Die Probenkonzentration von 3 nl/ml 1-Phenyldecan in Eluent ist nahe der Bestimmungsgrenze. Die Daten wurden aus jeweils 10 Injektionen ermittelt. Den Noise berechnete das Programm HSM aus einem Blank, die Basislinie wurde für jeden Run manuell gesetzt. Außer der Basispeakbreite, Anzahl der Datenpunkte und Auflösung wurden alle Werte vom Integrationsprogramm berechnet: x Die Basispeakbreite (w) wurde aus der theoretischen Bodenzahl (N) gemäß 4 tms Gleichung w = geschätzt. N x Zur Berechnung der Anzahl der Datenpunkte (Anz. DP) wurde die berechnete Basispeakbreite durch die Sampling Period (SP in [s]) dividiert. x Für den Schätzwert von R (Rgeschätzt) wurde von der Annahme ausgegangen, dass in jedem Chromatogramm ein (fiktiver) zweiter, gleich breiter Peak vorhanden sei. Im Chromatogramm mit dem schmalsten Peak wurde eine Auflösung von 1,5 (= Basislinientrennung) angenommen und für die anderen 't Chromatogramme die Auflösung gemäß R = R geschätzt. w Ergebnisse (s. Tabellen A.1 und A.2)
x Die Erhöhung der Zeitkonstante verringert das Rauschen, aber auch die Peakhöhe. Interessanterweise zeigte sich bei zwei unterschiedlichen Sequenzen, mit einer Datensammelrate von 10 Hz (SP = 100 ms) aufgenommen, ein Optimum des Signal/Rausch-Verhältnis bei einer Zeitkonstante von 0,5 s resp. 2 s und die Werte werden mit größerer Zeitkonstante wieder schlechter. Bei langsameren Datensammelraten verbesserte sich die Nachweisempfindlichkeit mit der Erhöhung der Zeitkonstante. x Die Peakfläche verändert sich im Gegensatz zur Peakhöhe nicht wesentlich. x Die Peaks werden mit zunehmender Zeitkonstante breiter.
1.5 Integration
x Die Auflösung wird daher mit zunehmender Zeitkonstante schlechter. x Die Datensammelrate hat einen geringen Einfluss auf die Peakfläche, sofern der Peak mit genügend Datenpunkten aufgenommen wird. Zusammenfassung
x Die Datensammelrate ist so zu wählen, dass der schmalste Peak im Bereich der Basispeakbreite mit 20–60 Datenpunkten aufgenommen wird. Werden zu viele Datenpunkte aufgenommen, kann die korrekte Einstellung der Peakerkennungsparameter erschwert werden, die Rohdatenfiles brauchen mehr Speicherplatz und die Datenauswertung mehr Rechenzeit. x Eine sorgfältige Abklärung der optimalen Einstellung der Zeitkonstante ist empfehlenswert. Mit einem Wert von 0,5 s verbreitert sich der Peak noch nicht übermäßig, die Reproduzierbarkeit der Peakerkennung wird jedoch stark verbessert. 0,5 s sind somit als Grundeinstellung für UV-Detekoren gut geeignet. Kleinere Zeitkonstante = bessere Auflösung, größere Zeitkonstante = bessere Detektionsempfindlichkeit; x Die zwei Experimente wurden unter gleichen chromatographischen Bedingungen durchgeführt, die Peakform blieb somit konstant. Je breiter jedoch ein Peak ist, umso weniger Einfluss hat die Zeitkonstante auf die zusätzliche Peakverbreiterung und Herabsetzung der Peakhöhe. Je breiter die Peaks sind, umso stärker kann das Signalrauschen durch Vergrößern der Zeitkonstante reduziert werden. Als Faustregel gilt: Zeitkonstante | 1/4 Halbwertsbreite (in [s]).
1.5 Integration
Ein Integrationssystem hat die Aufgabe, in einem Chromatogramm Retentionszeiten, Peakhöhen und Peakflächen möglichst genau zu bestimmen. Die Retentionszeit ist definiert als der Zeitpunkt, wo die größte Substanzmenge detektiert wird. Dementsprechend wird zu diesem Zeitpunkt die Peakhöhe gemessen. Eine Schwierigkeit besteht nun darin, dass vom Detektor auch ein Signal erzeugt wird, wenn sich die zu bestimmende Substanz nicht in der Detektorzelle befindet. Bei zweidimensionalen Chromatogrammen kann dieses Basissignal und das von den Analyten hervorgerufene Signal nur empirisch unterschieden werden. Aufgabe des Integrationssystems ist deshalb auch die Bestimmung des wahrscheinlichsten Verlaufs der Basislinie. 1.5.1 Integration anschaulich
Weil nicht die Peakhöhe, sondern die Peakfläche der Substanzmenge proportional ist, wird diese normalerweise zur Quantifizierung herangezogen. Zur Berechnung der Peakfläche muss das Integrationssystem zusätzlich den Peakbeginn und das Peakende definieren.
39
40
1 Das Chromatogramm
Dass die Substanzmenge der Peakfläche und nicht der Peakhöhe proportional ist, soll an einem kleinen Beispiel erläutert werden: Nehmen wir an, dass sich bei einer HPLC-Trennung die Substanz in scheibenförmigen Konzentrationszonen befindet, welche genau so breit sind, dass eine solche „Konzentrationsscheibe“ bei einem Eluentenfluss von 0,6 ml/min (= 10 μl/s) in einer Sekunde durch die Detektorzelle fließt. Nehmen wir weiter an, ein Signalausschlag von 1 mV entspreche einer Substanzkonzentration von 0,1 μg/ml (= 1 ng/10 μl). Dann enthält z. B. die „Scheibe O“ in Abb. 1.39 folgende Substanzmenge: 65 mV · 1 ng/mV = 65 ng. Die totale Substanzmenge, welche sich unter dem Peak „verbirgt“, entspricht der Summe der Substanzmengen in „Scheibe M–U“. Wenn wir uns nun diese „Scheiben“ sehr dünn vorstellen, dann erhalten wir einen Peak, wie wir ihn aus der Praxis kennen (s. Abb. 1.39). Wie wir gesehen haben, ist die Peakfläche der Substanzmenge proportional. Dennoch kann es vorteilhaft sein, die Peakhöhe zur Quantifizierung einzusetzen. Weil normalerweise mittels Vergleich mit Referenzlösungen bekannten Gehalts quantifiziert wird und sich eine Konzentrationsänderung des Analyten primär auf
Abb. 1.39 Wenn wir uns die Substanzverteilung z. B. bei einer HPLC-Trennung als scheibenförmige Konzentrationszonen vorstellen, dann enthält die Zone O (mit den angenommenen Werten: Substanzkonzentration = 6.5 ng/μl, Eluentenfluss = 10 μl/s) 65 ng Substanz. Die wirkliche Konzentrationsvertei-
lung können wir uns als eine unendlich große Menge unendlich schmaler solcher Scheiben vorstellen. Die Summe aller Substanzmengen in den einzelnen Zonen entspricht der gesamten eluierten Substanzmenge. Daraus ersehen wir, dass die Peakfläche der Substanzmenge proportional ist.
1.5 Integration
die Peakhöhe auswirkt, kann anstelle der Peakfläche auch die Peakhöhe kalibriert werden. Sind die Retentionszeiten nicht sehr stabil, dann kann bei isokratischen oder isothermen Trennungen das Produkt aus Peakhöhe und Retentionszeit zur Berechnung eingesetzt werden, um den Einfluss der Peakverbreiterung zu minimieren. 1.5.1.1
Methoden zur Peakerkennung
Klassische Methode
Bei der klassischen Methode wird ab dem Start des Chromatogramms laufend die Steigung zwischen zwei aufeinander folgenden Datenpunkten bestimmt und der Wert mit einem vom Benutzer definierten oder durch das System berechneten Schwellenwert verglichen. Sobald der Schwellenwert überschritten wird, markiert das System den betrachteten Datenpunkt als potentiellen Peakbeginn und startet einen zusätzlichen Algorithmus, welcher überprüft, ob dieser Datenpunkt definitiv als Peakbeginn festgelegt werden kann, oder ob es sich um Basisliniendrift oder einen Spike handelt (Abb. 1.40). Nachdem der Peakbeginn erkannt wurde, muss die Peakspitze gefunden werden. Jeder Datenpunkt, dem ein kleinerer Signalwert folgt, wird als potentielle Peakspitze markiert. Die Bestätigung erfolgt, wenn weitere Kriterien (z. B. drei nachfolgende Datenpunkte weisen eine negative Steigung auf) erfüllt sind. Nun beginnt die Suche nach dem Peakende. Dieses wird anlog zum Peakbeginn ermittelt, nur dass hier natürlich der Schwellenwert unterschritten werden muss.
Abb. 1.40 Bei der klassischen Methode der Peakerkennung wird jeder Datenpunkt, bei welchem die Steigung zum nächsten Datenpunkt einen definierten Schwellenwert überschreitet, als potentieller Peakbeginn markiert. Werden weitere Kriterien erfüllt, wird der Punkt als Peakbeginn bestätigt und
die Suche nach dem Peakende beginnt. Die Signalsteigung und die Bestimmung des Schwellenwerts werden von den verschiedenen Herstellern von Integrationsprogrammen unterschiedlich definiert. Die Methoden lassen sich jedoch auf das oben beschriebene Verfahren zurückführen.
41
42
1 Das Chromatogramm
Abb. 1.41 Zur Darstellung der ersten Ableitung des Peaks wird anstelle des Detektorsignals die Steigung des Signals zum jeweiligen Zeitpunkt aufgezeichnet. Dementsprechend zeigt die zweite Ableitung die Steigung der Kurve der ersten Ableitung. Die erste Ableitung entspricht somit der Steigung, die zweite Ableitung der Krümmung des Peaks. Minimum der zweiten Ableitung = Peakspitze; Nullstellen vor und nach dem Minimum = auf- und absteigende Wendepunkte (s. Abb. 1.42).
Abb. 1.42 Aus der zweiten Ableitung werden Peakspitze und Wendepunkte ermittelt.
1.5 Integration
Abb. 1.43 Die Steigung der beiden Wendetangenten in Bezug zur Verbindungslinie der beiden Wendepunkte wird bestimmt. Daraus wird ein Schwellenwert (in [%]) abgeleitet. Von der Peakspitze wird nun die Tangente eines jeden Datenpunkts in Richtung Peakbeginn resp. Peakende mit den jeweiligen Schwellenwerten verglichen.
Alternative Methode
Als Beispiel einer anderen Methode zur Peakerkennung und Bestimmung der Basislinie kann das als „ApexTrack“™ bezeichnete Verfahren im Integrationsprogramm „Empower“™ (Waters Corporation) erwähnt werden. Hier wird die zweite Ableitung des Detektorsignals gebildet und daraus die Peakspitze (= Retentionszeit) und die Wendepunkte bestimmt. Als Peakspitzen werden alle Minima in der zweiten Ableitung des Chromatogramms markiert, welche eine vom Benutzer definierte oder vom Programm berechnete Mindestgröße erreichen. Zur Bestimmung von Peakbeginn und Peakende wird die Steigung der Tangente an jedem Datenpunkt von der Peakspitze in Richtung Peakbeginn resp. Peakende mit der Steigung der Verbindungslinie zwischen dem auf- und dem absteigenden Wendepunkt und einem vom Benutzer definierten oder durch das System berechneten Schwellenwert verglichen. 1.5.2 Integration und Integrationsparameter, Beispiele 1.5.2.1
Datenaufnahme und -integration mit Empower 2
Mit Empower [11] kann die Peakerkennung und der Verlauf der Basislinie mit zwei unterschiedlichen Methoden erfolgen:
43
44
1 Das Chromatogramm
x Klassische Integration Peakbeginn und -ende werden anhand der Signalsteigung ermittelt (erste Ableitung). x ApexTrack-Verfahren Dieses Verfahren ermittelt die Spitze und die Wendetangenten des Peaks mittels der zweiten Ableitung und sucht von der Peakspitze aus den Peakbeginn und das Peakende. Datenaufnahme
Der Hersteller von Empower empfiehlt, die Datensammelrate so einzustellen, dass der schmalste Peak innerhalb der Peakbreite (gemessen in 5% der Peakhöhe ([11], Abschn. 2–10) mit 15 Datenpunkten erfasst wird ([11], Abschn. 1–7). Zur Bestimmung der Peakfläche werden alle (ungefilterten) Rohdatenpunkte verwendet, egal welche Sampling Rate und Peak Width bei den Peakerkennungsparametern eingestellt wurden. Peakerkennung
Wird eine höhere Datensammelrate als die 15 Datenpunkte pro Peak Width eingestellt, berechnet das System aus Peak Width und Sampling Rate eine Bunching Rate. Es werden so viele Datenpunkte zusammengefasst und die mittlere Signalgröße daraus berechnet, dass innerhalb der Peak Width 15 Datenpunkte resultieren. Peak Width ⋅ Datensammelrate Anzahl zusammengefasster Datenpunkte = 15 Durch das Zusammenfassen von Daten wird das Signal geglättet. Dieses geglättete Signal wird nur zur Bestimmung von Peakbeginn und Peakende verwendet. Die Berechnung der Peakfläche erfolgt anschließend mit den Rohdaten. Peakspitze (Retentionszeit, Peakhöhe)
Der größte Signalwert innerhalb des Peaks plus zwei Datenpunkte vor und zwei Datenpunkte nach diesem Wert werden dazu verwendet, mittels quadratischer Anpassung die maximale Signalhöhe zu berechnen. Die zu diesem maximalen Signalwert (y) gehörende Zeit (x) entspricht der Retentionszeit. Basislinie
Die Basislinie wird vom Peakbeginn zum Peakende eines Peaks oder einer nicht vollständig aufgelösten Peakgruppe gezogen. Zur Bestimmung, ob zwei benachbarte Peaks vollständig aufgelöst sind, wird die Distanz Peakende von Peak 1 bis Peakbeginn Peak 2 mit der Peakbreite des breiteren Peaks verglichen. Beträgt das Verhältnis höchstens drei, werden die Peaks als einzelne, vollständig aufgelöste Peaks betrachtet, sonst als Peakgruppe. In unserem Beispiel (Abb. 1.44) bildet das Peakpaar 1/2 eine Gruppe, weil w2 (breiterer Peak des Paares) mehr als dreimal so breit ist wie EB1-2. Das Peakpaar 2/3 ist vollständig aufgelöst, denn w3 ist nur etwa zweimal so breit wie EB2-3. Ein Basislinienpunkt wird somit bei Peakende 2 und Peakbeginn 3 gesetzt.
1.5 Integration
Abb. 1.44 Bei Peakende 1 und Peakbeginn 2 werden keine Basislinienpunkte gesetzt, weil der breitere Peak des Peakpaars 1/2 breiter ist als das Dreifache des Peakabstands EB1-2. Beim Peakpaar 2/3 ist die Distanz EB2-3 größer als 1/3 w3. Sowohl am Ende von Peak 2 als auch zu Beginn von Peak 3 werden Basislinienpunkte gesetzt.
1.5.2.2
Datenaufnahme und -integration mit Chromeleon
Datenaufnahme
Die Empfehlung des Herstellers von Chromeleon ist, jeden Peak mit mindestens 20 Datenpunkten zu erfassen, d. h., die Datenaufnahme-Parameter so einzustellen, dass der schmalste Peak mit 20 Datenpunkten aufgenommen wird [12, 13]. Sollen kleine Peaks detektiert werden (geringes Signal/Rausch-Verhältnis) oder bei schlecht aufgetrennten Peaks, ist die Anzahl der Datenpunkte auf ca. 40 pro Peak zu erhöhen. Bei Detektoren, welche bereits digitale Signaldaten liefern, wird die Datenaufnahme mit der Data Collection Rate (Datenerfassungsrate) gesteuert, bei Detektoren, bei welchen das analoge Signal zuerst in einem A/D-Wandler digitalisiert wird, mit dem Befehl Sampling Rate (Datenaufnahmerate). Neben den Befehlen Data Collection Rate und Sampling Rate muss mit Step auch die Schrittweite, also die Zeitdauer zwischen dem Abspeichern von zwei aufeinander folgenden Datenpunkten, angegeben werden. Standardmäßig wird der Wert von Step auf den Reziprokwert der Datenerfassungs- resp. Datenaufnahmerate gesetzt. Beispiel: Mit einer Sampling Rate von 100 Hz wird die Schrittweite (Step) auf 0,01 s gesetzt. Mit der Vergrößerung von Step auf z. B. 0,1 s und dem Zusatzbefehl Average = on kann bewirkt werden, dass von den
45
46
1 Das Chromatogramm
Abb. 1.45 Die Empfindlichkeit der Peakerkennung kann mit den beiden Parametern Sensitivity und Peak Slice beeinflusst werden.
Abb. 1.46 Verkleinern von Peak Slice macht die Peakerkennung unempfindlicher, der Peak wird später oder gar nicht erkannt, weil die Signalsteigung als Basisliniendrift interpretiert wird.
Abb. 1.47 Verkleinern der Sensitivity macht die Peakerkennung empfindlicher.
1.5 Integration
100 Datenpunkten, welche pro Sekunde gelesen werden, nur die Durchschnittswerte aus 10 Punkten im Speicher abgelegt werden. Dieses Datenbunching bewirkt eine Glättung des Signals. Der Hersteller rät, die Möglichkeit, die Schrittweite vom System automatisch der Signalsteigung anpassen zu lassen, um mit dieser variablen Schrittweite die Datenmenge zu reduzieren, nur für schnelle Probe-Chromatogramme zu verwenden, bei denen die zu erwartenden Peakbreiten nicht bekannt sind. Für eine präzise und reproduzierbare Analytik wird eine feste Schrittweite empfohlen. Peakerkennung
Die Peakerkennung wird mit den beiden Werten Peak Slice und Sensitivity gesteuert (s. Abb. 1.45 bis 1.47). Vom ersten gemessenen Datenpunkt ausgehend wird ein Rechteck gebildet, in der Zeitachse als Peak Slice und in der Signalachse als Sensitivity bezeichnet. Durch Spiegelung der Sensitivity in Richtung negativer Signalwerte wird die Fläche des Rechtecks verdoppelt. An dieses erste Rechteck wird nach Ablauf der für Peak Slice definierten Zeit ein nächstes Rechteck mit dem Nullpunkt auf den letzten Datenpunkt im ersten Rechteck gehängt. Solange sich alle Datenpunkte in diesem Rechteck befinden, wird die Signaländerung als Rauschen interpretiert. Verlässt ein Punkt das Rechteck, beginnt ein Peakerkennungsalgorithmus nach dem Peakbeginn zu suchen. Nach der Erkennung von Peakbeginn und Peakspitze sucht Chromeleon nach dem Peakende, sobald sich zwei aufeinander folgende Signalwerte wiederholen. 1.5.2.3
Datenaufnahme und -integration mit EZChrom Elite
Datenaufnahme
Der Hersteller von EZChrom Elite [14] empfiehlt ebenfalls die Anzahl der Datenpunkte des schmalsten Peaks auf 20 zu setzen. Die Anzahl der aufzunehmenden Datenpunkte kann entweder mit dem Befehl Sampling Frequency (in [Hz]) oder dem Reziprokwert der Sampling Period (in [ms]) eingestellt werden. Zur Glättung des Signals und zur Verringerung der Anzahl der aufgenommenen Datenpunkte können mit Width so viele Datenpunkte zusammengefasst und gemittelt werden (= Datenbunching), dass innerhalb der bei Width angegebenen Zeit 20 Datenpunkte abgelegt werden. Peakerkennung
Die Peakerkennung wird mit Threshold angepasst. Wird dieser Wert durch Markieren eines Stücks Basislinie zwischen zwei Peaks graphisch ermittelt, legt das Programm zur Berechnung den größten Wert der ersten Ableitung, also die in diesem Abschnitt größte Signalsteigung, zugrunde. 1.5.2.4
Datenaufnahme und -integration mit ChemStation
Datenaufnahme
Das analoge Detektorsignal wird mit einer hohen, konstanten Frequenz abgetastet [15]. In der Instrumentensteuerung wird mit dem Parameter Data Rate eingestellt,
47
48
1 Das Chromatogramm
Abb. 1.48 Das Detektorsignal wird mit einer hohen Frequenz abgetastet, je nach eingestellter Peak Width werden jedoch mehr oder weniger Datenpunkte zusammengefasst („gebuncht“), was zu einer Glättung des Signals führt.
wie viele Datenpunkte gemittelt und als Rohdaten im Computer abgespeichert werden. Alternativ zur Data Rate kann auch die Halbwertsbreite des schmalsten Peaks (Minimum Peak Width) eingegeben werden. Die Datensammelrate wird dann so gewählt, dass während der Halbwertsbreite des Peaks 12 (gemittelte) Datenpunkte abgespeichert werden. Wie Abb. 1.48 zeigt, wird durch dieses Datenbunching das Signalrauschen geglättet. Peakerkennung
Mit den fünf Parametern Initial Slope Sensitivity, Initial Peak Width, Initial Area Reject, Initial Height Reject und Shoulders (on/off) wird die Peakerkennung gesteuert. 1.5.2.5 Vergleich der wichtigsten Integrationsparameter von vier unterschiedlichen Integrationsprogrammen
Neben den Parametern, welche die Aufnahme der Rohdaten steuern, können bei den Integrationsprogrammen zeitabhängige Integrationsparameter eingegeben werden. Diese Werte beeinflussen die Peakerkennung, den Verlauf der Basislinie, die Peakzuordnung und bestimmen die Grenzen, innerhalb welcher sich die Ausdehnung eines Peaks bewegen muss, um als solcher erkannt zu werden. Besonders bei den Parametern für die Datenaufnahme ist es oft fast unmöglich, aus den Handbüchern der Software-Hersteller die Information zu erhalten, ob sich die Einstellung von Sampling Rate, Data Rate, Peak Width etc. auf die Aufnahme der Rohdaten oder auf die Peakerkennung bei der Datenauswertung auswirken (Tabelle 1.1).
ChemStation
Inhibit Integration Set Maximum Height Set Maximum Width Set Minimum Area Set Minimum Height
Baseline at Valleys Baseline Backwards Baseline Hold Baseline Next Valley Baseline Now Detect Shoulders Negative Peak Shoulders Mode Split Peak Tail Tangent Skim Tangent Skim Mode Unassigned Peaks
Data Rate/Peak Width
Auto Peak Width Fixed Peak Width Slope Sensitivity Solvent Peak
Einfluss auf
Anzahl Peaks reduzieren
Basislinie
Datenaufnahme Peakerkennung
Peakerkennung Peakzuordnung Basislinie
Fronting Sensitivity Factor Insert Peak Peak Slice Rider Threshold Sensitivity
Data Collection Rate Sampling Rate Step
Baseline Point Lock Baseline at Current Level Lock Baseline at Global Minimum Maximum Rider Ratio Peak Shoulder Threshold Rider Skimming Shape Shoulder Split Peak Tailing Sensitivity Factor Valley to Valley
Inhibit Integration Maximum Peak Height Maximum Width Minimum Area Minimum Height Minimum Width Reject with smaller Area than …%
Chromeleon
Set Liftoff Set Peak Width Set Touchdown
Sampling Rate
Allow Negative Peaks Detect Shoulders Exponential Skim Force Baseline by Peak Force Baseline by Time Force Drop Line Force Peak Forward Horizontal by Peak Forward Horizontal by Time Reverse Horizontal by Peak Reverse Horizontal by Time Tangential Skim Valley to Valley
Inhibit Integration Set Maximum Height Set Maximum Width Set Minimum Area Set Minimum Height
Empower
Tabelle 1.1 Vergleich einiger Integrationsparameter in unterschiedlichen Integrationsprogrammen.
Threshold Disable End of Peak Detection Force Peak Start/Stop Manual Peak Adjust RT Window Reassign Peak
Frequency Sampling Period Width
Backward Horizontal Baseline Front Tangent Skim Horizontal Baseline Lowest Point Horizontal Baseline Manual Baseline Move Baseline Negative Peak Reset Baseline Reset Baseline at Valley Shoulder Sensitivity Split Peak Tangent Skim Valley to Valley
Integration on/off Minimum Area
EZChrom
1.5 Integration 49
50
1 Das Chromatogramm
Anhang: Experimente zur Optimierung der Zeitkonstante/Datensammelrate
Versuch 1 Tabelle A.1 Der Einfluss der Zeitkonstante auf das Chromatogramm soll demonstriert werden. Mit der größtmöglichen Datensammelrate von 10 Hz, entspricht einer Sampling Period (SP) von 100 ms, wurden jeweils fünf Chromatogramme von zwei unterschiedlich konzentrierten Proben mit unterschiedlichen Zeitkonstanten (ZK) aufgenommen. Probenkonzentrationen: 20 nl/ml resp. 1 μl/ml 1-Phenyldecan (in Eluent).
Mittelwert
Konz
ZK [s]
SP [ms]
20 nl/ml
0.1
100
RSD Mittelwert
20 nl/ml
0.5
100
RSD Mittelwert
20 nl/ml
2
100
RSD Mittelwert
20 nl/ml
8
100
RSD Mittelwert
1 μl/ml
0.1
100
RSD Mittelwert
1 μl/ml
0.5
100
RSD Mittelwert RSD
1 μl/ml
2
100
Area [μV s]
Hight [μV]
RT [min]
Peakbreite [min]
N(EUP)
Asym
S/N
8749
1509
1,65
0,34
1877
1,12
100
3,40%
2,72%
1,48%
20,37%
1,86%
2,56%
2,72%
8664
1444
1,61
0,38
1670
1,11
206
0,33%
0,79
0,65
12,68
0,88
1,24
0,80
8533
1036
1,64
0,50
994
1,43
173
1,83%
1,05
0,81
16,39
0,78
1,55
1,06
8319
462
1,63
1,22
252
2,88
62
1,17%
0,64
0,99
4,96
2,94
4,02
0,63
40984
72514
1,56
0,46
1779
1,20
4395
0,07%
0,49
0,73
3,44
0,50
0,86
0,49
409410
68951
1,53
0,44
1553
1,20
8112
0,11%
0,99
0,91
8,28
0,92
0,91
0,99
407344
49172
1,56
0,71
894
1,54
8195
0,42%
0,21
0,76
10,56
0,42
0,72
0,22
Anhang: Experimente zur Optimierung der Zeitkonstante/Datensammelrate
Versuch 2 Tabelle A.2 In diesem Versuch soll der Einfluss der Zeitkonstante auf das Chromatogramm demonstriert und zusätzlich untersucht werden, welchen Einfluss die Datensammelrate hat. Die Probenkonzentration von 3 nl/ml 1-Phenyldecan (in Eluent) ist nahe der Bestimmungsgrenze. Die Daten wurden aus jeweils 10 Injektionen ermittelt, den Noise berechnete das Programm HSM aus einem Blank, die Basislinie wurde für jeden Run manuell gesetzt. Außer w, Anz. DP und R wurden alle Werte vom Integrationsprogramm berechnet. Die Basispeakbreite 4t (w) wurde aus der theoretischen Bodenzahl (N) gemäß Gleichung w = ms berechnet. N Zur Berechnung der Anzahl der Datenpunkte (Anz. DP) wurde die berechnete Basispeakbreite durch die Sampling Period (SP in [s]) dividiert. Für den Schätzwert von R (Rgeschätzt) wurde von der Annahme ausgegangen, dass in jedem Chromatogramm ein (fiktiver) zweiter, gleich breiter Peak vorhanden sei. Im Chromatogramm mit dem schmalsten Peak wurde eine Auflösung von 1,5 (= Basislinientrennung) angenommen und für die anderen Chromatogramme die Auflösung 't gemäß R = R geschätzt. w
Sampling Period = 100 ms / Sampling Rate = 10 Hz ZK 0,1 s
RT [min]
Area [μV s]
Height [μV]
N(EUP)
Asym
S/N
Noise [μV]
wber [s]
Anz. DP
Rgeschätzt
Mittelwert
2.14
1881
225
1534
1,13
16
29
13,1
131
1,5*
RSD
0,62%
3,18%
2,92%
3,99%
6,61%
2,92%
ZK 0,5 s
RT [min]
Area [μV s]
Height [μV]
N(EUP)
Asym
S/N
Noise [μV]
wber
Anz. DP
Rgeschätzt
[s]
Mittelwert
2,12
1869
211
1369
1,2
26
16
13,8
138
1,43
RSD
0,31%
2,55%
1,10%
3,93%
6,50%
1,10%
ZK 2 s
RT [min]
Area [μV s]
Height [μV]
N(EUP)
Asym
S/N
Noise [μV]
wber [s]
Anz. DP
Rgeschätzt
Mittelwert
2,16
1825
164
893
1,27
47
7
17,3
173
1,13
RSD
0,22%
3,54%
2,38%
1,95%
3,36%
2,38%
ZK 4 s
RT [min]
Area [μV s]
Height [μV]
N(EUP)
Asym
S/N
Noise [μV]
wber
Anz. DP
Rgeschätzt
[s]
Mittelwert
2,2
1779
123
574
1,43
41
6
22,0
220
0,89
RSD
0,29%
2,58%
1,71%
2,47%
2,65%
1,71%
* Schmalster Peak als Peakpaar mit einer Auflösung von R = 1,5 angenommen.
51
52
1 Das Chromatogramm
Sampling Period = 200 ms / Sampling Rate = 5 Hz ZK 0,1 s
RT [min]
Area [μV s]
Height [μV]
N(EUP)
Asym
S/N
Noise [μV]
wber [s]
Anz. DP
Rgeschätzt
Mittelwert
2,11
1848
220
1522
RSD
0,41%
2,58%
1,29%
8,50%
1,2
14
31
13.0
65
1,5*
9,14%
1,29%
ZK 0,5 s
RT [min]
Area [μV s]
Height [μV]
N(EUP)
Asym
S/N
Noise [μV]
wber
Anz. DP
Rgeschätzt
[s]
Mittelwert
2,12
1856
209
1354
1,23
23
RSD
0,24%
2,39%
1,69%
4,89%
6,20%
1,69%
18
13.8
69
1,41
ZK 2 s
RT
Area
Height
N(EUP)
Asym
S/N
[min]
[μV s]
[μV]
Noise
wber [s]
Anz. DP
Rgeschätzt
[μV]
Mittelwert
2,17
1801
165
919
1,28
55
RSD
0,24%
2,57%
2,02%
2,46%
3,72%
2,02%
6
17,2
86
1,13
ZK 4 s
RT [min]
Area [μV s]
Height [μV]
N(EUP)
Asym
S/N
Noise [μV]
wber
Anz. DP
Rgeschätzt
[s]
Mittelwert
2,2
1745
123
571
1,48
62
RSD
0,46%
4,25%
1,77%
3,84%
3,43%
1,77%
4
22,1
111
0,88
S/N
Noise [μV]
wber [s]
Anz. DP
Rgeschätzt
28
13,5
34
1,5*
Sampling Period = 400 ms / Sampling Rate = 2,5 Hz ZK 0,1 s
RT [min]
Area [μ Vs]
Height [μV]
N(EUP)
Asym
Mittelwert
2,14
1885
221
1455
1,28
15,77
RSD
0,51%
4,35%
1,95%
6,72%
9,05%
1,96%
ZK 0,5 s
RT [min]
Area [μ Vs]
Height [μV]
N(EUP)
Asym
S/N
Noise [μV]
wber [s]
Anz. DP
Rgeschätzt
Mittelwert
2,14
1895
210
1358
1,26
20,03
21
13,9
35
1,45
RSD
0,79%
2,39%
1,31%
4,07%
5,75%
1,32%
ZK 2 s
RT [min]
Area [μ Vs]
Height [μV]
N(EUP)
Asym
S/N
Noise [μV]
wber [s]
Anz. DP
Rgeschätzt
Mittelwert
2,2
1795
162
921
1,26
32,4
10
17,4
43
1,16
RSD
0,54%
3,43%
1,43%
2,34%
4,92%
1,43%
ZK 4 s
RT [min]
Area [μ Vs]
Height [μV]
N(EUP)
Asym
S/N
Noise [μV]
wber [s]
Anz. DP
Rgeschätzt
Mittelwert
2,2
1810
123
551
1,48
41,15
6
22,5
56
0,90
RSD
0,44%
2,96%
1,47%
2,84%
4,01%
1,47%
Literatur
Literatur 1 Recommendations for Nomenclature for Chromatography. Pure Appl. Chem. 65, 819–872 (1993). 2 DIN 32 645 (1994) Beuth, Berlin. 3 W. Gottwald (2000) Statistik für Anwender. Wiley-VCH, Weinheim. 4 Leitfaden zur Akkreditierung von Schweizer Prüflaboratorien zur Durchführung forensischer Drogenanalytik, Dokument Nr. 318.d (2005), Schweizerische Akkreditierungsstelle, Bundesamt für Metrologie, Bern-Wabern. 5 S. Kromidas (1995) Qualität im analytischen Labor. Wiley-VCH, Weinheim. 6 L. S. Ettre, J. V. Hinshaw und L. Rohrschneider (1996) Grundbegriffe und Gleichungen der Gaschromatographie. Hüthig Verlag, Heidelberg. 7 H. Engelhardt und L. Rohrschneider Deutsche chromatographische Grundbegriffe zur IUPAC-Nomenklatur, Arbeitskreis Chromatographie der
8
9 10
11
12 13 14 15
Fachgruppe Analytische Chemie in der Gesellschaft Deutscher Chemiker (http://www.uni-saarland.de/fak8/ huber/pdf/CHROBEGR97.pdf). S. Kromidas (2000) Handbuch Validierung in der Analytik. Wiley-VCH, Weinheim. R. E. Kaiser, Chromcard TMG. Institut für Chromatographie, Bad Dürkheim. S. Kromidas (2006) HPLC richtig optimiert, Abschn. 1.1.3.2, Was „bringt“ das meiste? Wiley-VCH, Weinheim. Empower 2, Data Acquisition and Processing Theory Guide, 71500109909/ Rev. A, Waters Corporation. Benutzerhandbuch Dionex-Softron 2005. Helpfile CHROM_G.HLP. ReferenceGuide, Agilent Technologies Inc., October 2006. Agilent ChemStation, Informationen zu Ihrer Chemstation (G2070-92123).
53
55
2 Integrationsfehler und Auswertung Hans-Joachim Kuss
Wenn eine chromatographische Methode neu entwickelt wird, so ist jedem bewusst, dass die Optimierung der Chromatographie schwierig und zeitaufwendig sein kann. Nicht nur im geregelten Umfeld ist mit der Validierung der Methode oft viel Arbeit verbunden. Als problemlos wird im Allgemeinen die Integration und Auswertung angesehen. Wenn das Integrationssystem den Anforderungen entsprechend installiert ist, erwartet man keine Probleme. Niemand wird so naiv sein, zu glauben, dass die Integrationssysteme fehlerlos sind. Es gehört auch zu dem chromatographischen Grundwissen, dass man nur mit einer guten Auflösung sehr gute Ergebnisse erwarten kann. Der Beitrag des Integrationssystems zum Gesamtfehler wird aber meist als so gering eingeschätzt, dass er als vernachlässigbar angesehen wird. Das ist keineswegs immer gegeben, wie im Folgenden gezeigt wird. Wir sind daran gewöhnt, dass Computer mit hoher Präzision rechnen. Wenn ein Ergebnis am Bildschirm erscheint oder ausgedruckt ist, ist man gern geneigt, dieses Ergebnis als endgültig zu akzeptieren. Im Zuge der zunehmenden Automatisierung und dem schnelleren Durchsatz an Analysen bleibt auch immer weniger Zeit, berechnete Konzentrationswerte zu hinterfragen. Bei Routineanalysen wird die Berechnung der Analysenergebnisse oft völlig dem Chromatographie-Daten-System „CDS“ überlassen, wenn die Kontrollwerte im vorgegebenen Bereich liegen.
2.1 Was sagt die Literatur über Integrationsfehler?
Es gibt überhaupt nur ein Buch ausschließlich über das Thema „Chromatographische Integrationsmethoden“, geschrieben von Dyson [8], das einen hervorragenden Überblick über die Möglichkeiten der Integration gibt. Auf einer der ersten Seiten steht: „No analytical report should be accepted unquestioningly“. Das Buch enthält sehr viele interessante ältere Zitate, z. B. von Westerberg [25], der
56
2 Integrationsfehler und Auswertung
bereits 1969 die Unzulänglichkeiten der Lotfällung bei verschmolzenen Peaks beschreibt und eine Kurvenanpassung vorschlägt. Leider ist auch knapp 40 Jahre später die Lotfällung noch immer die wichtigste Methode, um verschmolzene Peaks zu integrieren. Ein Teil des Buchs bezieht sich auf Dyson [7], in dem ein MS-DOS-Programm zur Chromatogramm-Simulation verwendet wird, dem ein Digital-Analog-Umwandler „DAU“ nachgeschaltet ist. Es wird von dem kommerziell erhältlichen Gerät „Calpeak“ ein Analogsignal ausgegeben, das ein beliebiges Chromatogramm mit vielen Peaks simulieren kann, quasi die Chromatographie in der Jackentasche. Die Beispiele zeigen, dass die Relativflächen der Peaks untereinander vorgegeben werden können, aber die Absolutflächen nicht vorhersagbar sind. Papas und Delaney [22] schreiben: „Unlike the rigorous quality assurance program implemented for instrumentation, there is presently no effective means to conduct such a quality assurance program for these data systems“. Sie beschreiben dann, dass sie Chromatogramme mit exponentiell modifizierten Gauß-Peaks (EMG) mit einem Pascal-Programm auf einer VAX-11/750 erzeugt und mit einem DAU in Analogdaten umgewandelt haben. Die Integrationen bei S/N von 3, 6, 9 und 12 ergeben Abweichungen von teilweise mehr als 30%. Papas und Tougas [23] stellen bei der Integration von zwei verschmolzenen Peaks die Ergebnisse mit der Lotfällung und der Tangentenmethode gegeneinander. Nach einer multiplen linearen Regression stellen sie ein Modell vor, nach dem man eine Entscheidung zwischen den beiden Integrationsarten treffen kann. Keiner der damals benutzten sieben Integratoren beinhaltete einen so komplexen Algorithmus – genau dieselbe Situation wie heute. Meyer [20] benutzte Excel 4.0 auf einem Macintosh LC II, um eine Gaußfunktion zu simulieren. Die Peakbreite wurde generell auf eins gesetzt. Die Retentionszeit und Fläche wurden als „units“ eingesetzt. Die Peakhöhe Hmax wurde berechnet und die Zufallszahl mit einem Bruchteil von Hmax multipliziert. Dann wurde in Excel numerisch integriert. Die Excel-Simulation wurde auf EMGPeaks erweitert. Das simulierte EMG-Peakpaar, bei dem der zweite Peak eine ausgeprägte Schulter ergibt, hat für den ersten größeren Peak eine Abweichung von –11% und entsprechend dazu für den zweiten halb so großen Peak eine Abweichung von +22%, d. h. eine um 22% zu hohe Fläche. Meyer [21] zeigte mit Calpeak, dass bei verschmolzenen Gauß- und EMGPeaks mit einem Höhenverhältnis von 100 und 1000 die Tangenten(TS)-Methode schlechtere Ergebnisse liefert als das Ziehen des Lots auf die Basislinie (PD), außer der größere Peak hat eine fünfmal so große Breite (oder höher). Die Höhe ist grundsätzlich weniger fehlerhaft. Felinger und Guiochon [9] berichten über frühere Arbeiten zur Wiederholbarkeit von HPLC-Daten. Die Datenformate und Integrations-Routinen einiger Hersteller von Integrationssystemen seien zwar nicht patentiert, würden aber vertraulich behandelt. Der richtigen Simulation des Rauschens wird in dieser Arbeit sehr viel Aufwand gewidmet. Als Chromatogramm wird das Rauschen mit nur einem überlagerten synthetischen (Gauß-, EMG- oder Langmuir-)Peak bezeichnet. Die Simulation wurde in Fortran für die UNIX-Workstation eines universitären Re-
2.1 Was sagt die Literatur über Integrationsfehler? Tabelle 2.1 Die im Text von Fehlinger und Guiochon [9] erwähnten Zahlen wurden in Tabellenform angeordnet. Als Richtigkeit wird die Differenz von integriertem Flächenwert zum Sollwert der Fläche, geteilt durch den Sollwert der Fläche, bezeichnet. S/N
Richtigkeit der Flächen [%]
Richtigkeit der Höhen [%]
10
100
10
100
Gauß-Peak
3,0
0,3
1,5
0,1
EMG-Peak
9,0
1,0
3,0
0,3
10,0
1,0
3,5
0,3
Langmuir-Peak
chenzentrums programmiert. Flächen und Höhen wurden berechnet und mit dem Ergebnis der ChemStation verglichen (Tabelle 2.1). Offensichtlich muss man unterhalb S/N von 100 mit Integrationsfehlern von mehr als 1% für die Fläche und von mehr als 0,3% für die Höhe rechnen. Trotzdem fassen die Autoren zusammen: „The most important conclusion of this study is that the contribution of the random and systematic errors originating from the data analysis procedure is generally far smaller than the experimental or instrumental contributions arising from the factors that affect the repeatability of chromatographic measurements.“ Das mag für Chromatogramme mit einem Peak stimmen, realistische Chromatogramme ähneln aber z. B. Abb. 2.1(b). Im Gegensatz dazu haben Schepers, Ermer et al. [24] aus Reproduzierbarkeitsuntersuchungen indirekt abgeleitet, dass im Bereich von der Bestimmungsgrenze (BG) bis etwa zum Fünffachen der BG die Messunsicherheit im Wesentlichen von dem Integrationsfehler bestimmt wird. Bicking [1, 2] zeigt für eine Auflösung von 4, 2, 1,5 und 1 und bis herunter zu einer Peakhöhe des zweiten Peaks von 0,5%, welchen Integrationsfehler die Lot-, Valley-to-Valley-, Exponentiell-Skim- und Gaussian-Skim-Methode ergeben. Die Werte bei der Auflösung von 4 wurden als richtige Werte angesehen und die anderen Werte darauf bezogen. Die beste Integration, insbesondere für große Peakhöhenunterschiede, ergibt ein komplexes Entscheidungsschema, das in der Praxis schwierig umzusetzen ist. Wer im Labor Chromatographie betreibt, dem nützen die Warnhinweise auf Integrationsfehler wenig, weil sein Problem darin besteht, wie er seine komplexen Chromatogramme mit vielen Peaks automatisch richtig integriert. Um die Qualität der Integration zu beurteilen, fehlt ein allgemein zugänglicher Richtigkeitsstandard. Die bisherige Optimierung der Integration ist auf Plausibilitätsbetrachtungen angewiesen. Im Folgenden wird versucht, Entscheidungshilfen zu geben.
57
58
2 Integrationsfehler und Auswertung
2.2 Integration in der täglichen Praxis
Die Integration verschmolzener Peaks ist die Realität in der Chromatographie, mit der jeder recht schnell konfrontiert wird. Leider beschränken sich die veröffentlichten Betrachtungen zu verschmolzenen Peaks fast ausschließlich auf zwei Peaks und ihren Einfluss aufeinander. Konkrete Chromatogramme sind meist erheblich komplizierter und liegen oft auf einer ungeraden Basislinie. Für die Überlassung von realen Chromatogrammen danken wir vielen Kollegen, namentlich erwähnt seien Carmen Hartmann, Grünenthal Aachen, Peter Lang, Pari München, Dirk Mautner, BayerSchering Bergkamen, Stefan Bühler, Boehringer Ingelheim, Biberach, Helmut Klippel, Boehringer Ingelheim, Ingelheim. 2.2.1 Integration – einfach und immer gleich?
Die Abb. 2.1(a) zeigt ein mit einer Datenaufnahmerate tDP von 200 ms aufgenommenes isokratisches Chromatogramm von drei Substanzen (Peak 4, 8 und 9) mit einigen Verunreinigungen. Wenn man nur die drei Hauptsubstanzen quantifizieren will, würde man keine Probleme bei der Integration erwarten. Die Abb. 2.1(b) zeigt dasselbe Chromatogramm, nur um den Faktor 32 verstärkt. Erst bei dieser Verstärkung kann man erkennen, wie integriert worden ist. Die Integration wurde mit LCSolutions (Shimadzu) mit Width = 5, Slope = 1000, Drift = 0 und T.Dbl = 0 durchgeführt. Eine Slope von ungefähr 1000 μV/min ergibt sich mit dem Slope-Test während der Basislinie zwischen 9,2 und 9,8 min. In diesem Zeitfenster hat man ausschließlich eine Basislinie, deren Variabilität gemessen wird, um einen Grenzwert zur Peakerkennung zu haben. Eine Width von 5 s entspricht der Halbwertsbreite der ersten Peaks. Die Basislinie bestimmt die Integration. Betrachten Sie Ihre Chromatogramme bei so hoher Verstärkung, dass Sie den Basislinienverlauf genau sehen.
Mit einer Slope von 200 μV/min ergibt sich die Integration in Abb. 2.2(a) und mit einer Slope von 2000 μV/min die Integration in Abb. 2.2(b). Bei jedem Peak kann man diskutieren, welche Integration besser ist. Die Fläche und Höhe jedes Peaks ist auch von der Integration der benachbarten Peaks abhängig. Selbst der letzte in Abb. 2.1(a) scheinbar freistehende Peak kann auf zwei Arten integriert werden, die wiederum die Fläche des vorletzten Peaks deutlich beeinflussen. Das Beispiel zeigt, dass man ein CDS erst beurteilen kann, wenn man weiß, wie es eine Gruppe von teilweise verschmolzenen Peaks unterschiedlicher Größe integriert, weil dies ein typisches Problem realer Chromatogramme ist. Nun könnte man unter Bezug auf Abb. 2.1(a) hoffen, dass die Unterschiede unbedeutend sind. Deshalb sind in der Tabelle 2.2 die integrierten Flächen als Abweichung von den Flächen der Abb. 2.1 (Slope = 1000) aufgezeichnet.
2.2 Integration in der täglichen Praxis
Abb. 2.1 (a) Integration eines Beispiel-Chromatogramms mit LCSolution und einer Slope von 1000 μV/min; (b) wie (a), aber 32-mal verstärkt.
59
60
2 Integrationsfehler und Auswertung
Abb. 2.2 (a) wie Abb. 2.1(a), aber Slope = 200 μV/min; (b) wie Abb. 2.1(a), aber Slope = 2000 μV/min.
2.2 Integration in der täglichen Praxis Tabelle 2.2 Die Abweichungen der Flächen (Höhen) der Integration nach Abb. 2.2(a) und (b) von den Flächen (Höhen) der Integration nach Abb. 2.1(b) wurden für die 10 in Abb. 2.1(a) gekennzeichneten Peaks aufgelistet. Die großen Peaks sind grau unterlegt. Slope
200
2000
200
Fläche [%]
2000 Höhe [%]
Peak 1
1,68
–1,96
0,02
–1,38
Peak 2
2,75
–0,12
–0,12
–0,09
Peak 3
–1,28
–0,30
–0,99
–0,08
Peak 4
–4,44
–3,80
–0,52
–0,17
Peak 5
–6,02
0,00
Peak 6
131,46
0,66
31,06
0,00
Peak 7
135,85
–0,54
54,51
–0,22
Peak 8
0,42
–2,92
–0,17
–0,83
Peak 9
0,71
–1,43
–0,08
–0,31
–14,08
–14,12
–4,51
–4,62
Peak 10
Die Abweichungen sind selbst bei den großen Peaks beachtlich. Die unterschiedliche Integration macht bei dem letzten Peak 14% aus. Die Höhen zeigen erheblich geringere Abweichungen. Auf dieses Beispiel werden wir später noch einmal zurückkommen. Überprüfen Sie den Einfluss Ihrer Integrationsparameter auf Ihre Chromatogramme, indem Sie nicht nur die vorgegebenen Werte verwenden. 2.2.2 Vergleich von Integrationssystemen mit wenigen großen Peaks
Bei sehr gut getrennten großen Peaks dürfen CDS bei der Integration keinerlei Schwierigkeiten haben, die Flächen und Höhen reproduzierbar und richtig zu messen. Aber kann man sich darauf verlassen, dass verschiedene CDS dieselben Flächen und dieselben Variationskoeffizienten (VK) der Flächen messen? Um eine Kaufentscheidung zwischen zwei CDS zu treffen, wurde in einer pharmazeutischen Firma bei Freisetzungsexperimenten 17-mal eine Probe mit unterschiedlichen Ausbeuten und 7-mal eine Kontrollprobe mit etwas geringerer Konzentration gemessen und parallel mit EZChrom und Empower ausgewertet, d. h. beide Integrationssysteme waren gleichzeitig angeschlossen. Hier kommt es nur darauf an, die beiden Datensysteme direkt zu vergleichen, nicht wie hoch („richtig“) die Einzelwerte sind. Ein typisches Beispiel der Chromatogramme zeigt die Abb. 2.3.
61
62
2 Integrationsfehler und Auswertung
Abb. 2.3 Beispiel-Chromatogramm als Excel-Ausdruck exportierter Empower-Daten. Signal (y)-Achse in [μV], Zeit (x)-Achse in [min].
Die integrierten Flächen des ersten Peaks sind in dem Punktdiagramm (Abb. 2.4) gezeigt. Die Flächenwerte von EZChrom [μV s] wurden durch 1 000 000 und von Empower [nV s] durch 1 000 000 000 geteilt, um vergleichbare Zahlen zu erhalten. Man sieht, dass bei beiden CDS praktisch identische Ergebnisse herauskommen. Bei den hier gezeigten Freisetzungsversuchen (obere Punktewolke) ist der VK von 1,86% (Höhen 1,77%) durch die verschiedenen Zeitpunkte der Probennahme zu erklären. Der Quotient Empower-Fläche zu EZChrom-Fläche beträgt 1002 ± 0,07% und der Quotient zwischen Empower-Höhe zu EZChromHöhe 1000,4 ± 0,02%, d. h., die Höhe scheint der stabilere und ähnlichere Parameter zu sein. Die Quotienten aus Fläche und Höhe haben einen VK von 0,36%. Der VK der Injektion wurde aus den sieben identischen Kontrollproben dieser Serie zu 0,36% berechnet (untere Punktewolke). Analog zu einer internen Standardisierung sollte der Bezug auf einen anderen Peak desselben Chromatogramms den Injektionsfehler weitgehend kompensieren können. Die Fläche des zweiten Peaks durch die Fläche des ersten Peaks dividiert, ergibt einen VK von 0,14%. Wenn damit der Injektionsfehler weitgehend eliminiert ist, dient das als Abschätzung des maximalen Integrationsfehlers. Die VKs sind mit EZChrom und Empower gleich. Die Verwendung einer internen Standardisierung kann besonders bei dominierenden Injektionsfehlern den VK wesentlich verkleinern – hier etwa um den Faktor 3. Die Richtigkeit der gemessenen Werte kann nicht beurteilt werden, weil kein Absolutstandard vorhanden ist. Allerdings ist bei einem so einfachen Chromatogramm die Wahrscheinlichkeit hoch, dass die Werte keine großen Abweichungen vom wahren Wert haben.
2.2 Integration in der täglichen Praxis
Abb. 2.4 Vergleich parallel und gleichzeitig mit Empower und EZChrom integrierter Flächen von 24 Chromatogrammen mit ähnlichen Konzentrationen. Die Gruppe von sieben etwas kleineren Werten sind die Kontrollwerte bei gleicher Konzentration.
Der Unterschied zwischen den beiden CDS ist durch eine systematische Verschiebung bedingt: In jedem einzelnen Fall ist der Empower-Wert geringfügig höher als der EZChrom-Wert, wie das Säulendiagramm in Abb. 2.5 für die 17 Flächenwerte zeigt. Auch alle Höhenwerte sind in Empower geringfügig höher. Diese mit einer sehr einfachen und sehr guten Trennung und großem Signal/ Rausch-Verhältnis erhaltenen Werte geben einen Anhaltspunkt für realistische Werte, die vermutlich nur mit beträchtlichem Aufwand unterschritten werden können: Präzision der Injektion: 0,36% (n = 7) Präzision der Integration: kleiner als 0,14% (n = 24)
Abb. 2.5 Die 17 Flächenwerte (obere Punktwolke in Abb. 2.4) integriert mit EZChrom (helle Balken) und Empower (schwarze Balken).
63
64
2 Integrationsfehler und Auswertung
Ob Empower oder EZChrom „richtiger“ integriert hat, ist mit diesem Vergleich nicht zu entscheiden, weil es keinen Richtigkeitsstandard gibt. Wir sind in der Situation eines kurzsichtigen Präzisionsschützen, der die Einschläge auf seiner Zielscheibe nicht sehen kann, weil er keine Brille hat. Er wird sich nie verbessern. Genauso wenig kann aufgeklärt werden, ob die systematische Abweichung zwischen den beiden CDS durch einen Unterschied der Analog-Digital-Wandlung (Sampling, Integrating, Delta-Sigma) oder der verschiedenen Integrationsalgorithmen zu erklären ist. Wenn man dies voneinander trennen könnte, würde man gezielt entweder an Verbesserungen der Hardware oder der Software arbeiten können. 2.2.3 Vergleich von Integrationssystemen mit vielen kleinen Peaks
Im Rahmen der üblichen Analytik wurde in einem pharmazeutischen Labor mit einer C18-Säule und einem flachen Phosphatpuffer-Acetonitril-Gradienten ein Chromatogramm bei 210 nm mit dem Datensystem Empower aufgenommen. Die Abb. 2.6 zeigt das Excel-Diagramm, das nach dem Export von Empower in Excel entstanden ist. Es sind drei große Peaks und viele kleine Peaks im Konzentrationsbereich von 0,1–1% des größten Peaks zu sehen. Dasselbe Chromatogramm wurde 5-mal integriert. Die Tabelle 2.3 zeigt die Peakflächen [μV s] in den Spalten: (2) Empower im Traditional-Mode; (3) von (2) ausgehend wurden alle Peaks manuell nachintegriert; (4) Empower im Apex-Mode; (5) LCSolution automatisch mit Tangentenmethode und Lotfällung; (6) LCSolution ausschließlich mit Lotfällung.
Abb. 2.6 Beispiel-Chromatogramm eines Gradientenlaufs als Excel-Ausdruck exportierter Empower-Daten.
2.2 Integration in der täglichen Praxis Tabelle 2.3 Flächenwerte nach Integration des Chromatogramms Abb. 2.6 auf fünf verschiedene Arten. Die unterste Zeile enthält die Zahl der gefundenen Peaks. RT
Empower Traditional
Manuell
LCSolution Apex
0,11
328
0,58
453
VK [%]
Tangente
Lot
0,75
4285430
4264380
4284437
4510651
4292257
2,38
1,03
142777
138159
140290
30337
135780
41,52
1,3
16883
4471
15073
5517
16656
52,82
1,42
18286
6801
16392
8622
17939
40,18
1,6
84727
46191
69161
58943
90044
25,91
1,8
7820
1632
13822
2,03
64716
43652
86848
46630
63023
28,33
2,25
23143
12196
17457
12420
21604
29,16
2,45
78,57
898
2,54
31169
14069
21535
17246
29924
33,24
2,66
32280
20224
25119
22005
29920
19,76
2,89
85482
47488
51958
66320
81544
25,58
15396
16566
2,98
5,18
3,68
8287311
8232904
8206488
8275794
8275794
0,42
4,21
100412
58719
68930
88023
88023
20,68
4463
4030
4030
30,94
23392
22394
22394
3,39
5397
2102
2102
59,44
4,38 4,82
12211 7262
3725
5,1
425
5,26
569
5,51
21569
21569
6,81 7,55
26078
4644
4644
104,97
8,01
8331
8005
34428
8968
8968
84,22
9,76
10594747
10482034
10887257
10628447
10628447
1,40
1626
1626
10
123204
12,75 13,74 14,39 30
10159
900242
10793
10793
190,92
22542
27575
340776
29010
29010
156,31
18
23
26
21
21
22
65
66
2 Integrationsfehler und Auswertung
Die erste Spalte der Tabelle 2.3 enthält die Retentionszeiten. Um zu zeigen, wie sehr die einzelnen Werte streuen, wurden in der letzten Spalte die VKs der Flächen berechnet, wenn mindestens drei Flächenwerte vorhanden waren. Die drei grau unterlegten Zeilen markieren die drei großen Peaks. In der letzten Zeile steht die Zahl der gefundenen Peaks. Die drei einzeln grau unterlegten Zellen kennzeichnen Peakschultern, die keines der verwendeten Integrationssysteme abtrennen konnte. Man sieht, dass bei der manuellen Nachintegration alle Flächen bis auf eine verkleinert wurden. Mit Apex wurden gegenüber dem Traditional-Mode acht zusätzliche Peaks integriert, von denen aber vier Peaks unterhalb der Bestimmungsgrenze sind, so dass 22 quantifizierbare Peaks herauskommen. Um die Daten auch mit LCSolution zu integrieren, wurden die Excel-Daten in ein Textfile kopiert und eingelesen. Der Transfer wäre auch mit einem AIAFile möglich gewesen. Außerdem wurde mit LCSolution automatisch (5. Spalte) oder nach Abschalten der Tangentenmethode ausschließlich mit der Lotfällung (6. Spalte) integriert. Für die kleinen Peaks ergeben sich hohe VKs. Die Flächen der letzten beiden Peaks mit Apex-Integration wurden nicht berücksichtigt, weil dort die Basislinie bei Weitem zu tief gezogen war und die Flächen viel zu groß herauskommen. Es ist sehr unbefriedigend, dass es vom verwendeten CDS abhängt, wie viele Peaks auswertbar sind und welche Flächen die Integration ergibt. Den Bemühungen um Nachverfolgbarkeit der Werte und um Reproduzierbarkeit steht im Wege, dass ein anderes CDS oft andere Flächen ergeben würde. Ohne Richtigkeitsstandard für die Flächen und Höhen von Peaks muss man jedes genügend plausible Ergebnis akzeptieren. Diese scheinbare Gleichwertigkeit der CDS wird seit fast 40 Jahren unverändert angenommen und dürfte der konkurrierenden Weiterentwicklung der Integrationssysteme im Wege gestanden haben. Die im Folgenden vorgestellte Chromatogramm-Simulation kann nicht die Integrationssysteme verbessern, aber deren Nutzung optimieren. Sie ist quasi die Brille für den Präzisionsschützen des letzten Kapitels. Er kann seine Leistung mit der Brille zielgerichtet verbessern. Aber er muss es auch tun – die Brille ist nur das Hilfsmittel.
2.3 Chromatogramm-Simulation
Normalerweise hat man für jede HPLC- oder GC-Anlage ein CDS. Dann ist es nicht möglich, den Integrationsfehler mit real aufgenommenen Chromatogrammen zu überprüfen, weil die übrigen unvermeidlichen Fehler nicht abgetrennt werden können. Voneinander unabhängige Fehler werden zu einem Gesamtfehler zusammengefügt, indem man die Einzelvarianzen (Integration, Injektion, Probenvorbereitung) addiert. Varges = VarInt + VarInj + VarPV
(2.1)
2.3 Chromatogramm-Simulation
Teilt man die Varianz durch das Quadrat des Mittelwerts, ergibt sich eine Gleichung für die Addition der VKs. VK ges =
VK Int + VK Inj + VK PV
(2.2)
Bei realen Chromatogrammen muss man die Proben immer wieder neu injizieren und hat damit zusätzlich zum Integrationsfehler immer einen Injektionsfehler, der im Bereich von 0,12–2,1% liegt (Küppers et al. [13]). Man kann immer nur den dominierenden Fehler ermitteln. Die Tabelle 2.4 zeigt, um wie viel Prozent sich der Gesamtfehler (Spalte 2) ändert, wenn der größere Fehler um den Faktor in Spalte 1 größer ist. Bei einem 5-fach größeren Wert eines der beiden Fehler wird der Gesamtfehler durch den Einfluss des kleineren (20%igen) Fehlers nur noch um 2% größer. Es wäre ideal, wenn man Peaks in einem Chromatogramm quasi ein- und ausschalten könnte, ohne neu injizieren zu müssen. Damit ließe sich prüfen, welchen Einfluss ein zusätzlicher Peak auf die Integration benachbarter Peaks hat. Man könnte z. B. einen internen Standard überprüfen, der alle Probenvorbereitungsschritte bis hin zur Injektion kontrollieren soll. Die interne Standardisierung kann nur funktionieren, wenn der interne Standardpeak völlig unabhängig von allen anderen Peaks ist und bei der Integration keine Beeinflussung mit anderen Peaks stattfindet. Aber wie kann man das beweisen, wenn der Injektionsfehler die Beeinflussung überdeckt? Natürlich ist eine gute chromatographische Trennung die Basis einer guten quantitativen Bestimmung. Eine gute Auflösung R zu erreichen, ist großen Aufwand wert, weil die quantitative Aussage erheblich sicherer wird. Besteht das Chromatogramm aus wenigen Peaks, sollte die Auflösung meist mit eher geringem Aufwand optimiert werden können. Tabelle 2.4 Zwei VKs addieren sich nach Gl. (2.2). Die erste Spalte enthält den Faktor, um den VKgroß größer ist als VKklein. Die zweite Spalte enthält den Prozentsatz, den der kleinere VK zum Gesamt-VK beiträgt. VKgroß / VKklein
VKgesamt
2
11,8%
3
5,4%
4
3,1%
5
2,0%
6
1,4%
7
1,0%
8
0,8%
9
0,6%
10
0,5%
67
68
2 Integrationsfehler und Auswertung
Hat man ein sehr besetztes Chromatogramm („Peakwald“), ist die Wahrscheinlichkeit gering, dass die Auflösung wesentlich verbessert werden kann. Meist wird sich beim Auseinanderziehen des Peakpaars mit der geringsten Auflösung an anderer Stelle eine Verschlechterung ergeben. Ab einem bestimmten Punkt muss man auch mit Kompromissen leben. Es ist wichtig, den Punkt zu kennen, an dem man einen Kompromiss nicht mehr akzeptieren kann. Dabei ist es hilfreich, zu wissen, welchen Integrationsfehler man für das vorliegende Problem hat. Dazu muss man ihn erst mal getrennt messen können. Der einzige Weg, um alle anderen möglichen Störfaktoren auszuschalten, ist eine digitale Chromatogramm-Simulation. x Idee: Es soll eine Chromatogramm-Simulation mit Excel entwickelt werden, die so einfach ist, dass jeder sie benutzen kann. Es sollen nicht nur ein oder zwei, sondern viele Peaks, aber auch Rauschen, Drift und Tailing simuliert werden können, damit Chromatogramme entstehen, die gemessenen, d. h. realen, Chromatogrammen weitgehend ähneln. Die Daten würden dann über ein Textfile in das Integrationssystem eingelesen werden und als AIA-File ausgegeben werden – somit würden verschiedene CDS miteinander verglichen werden können. Die Fläche und Höhe sind natürlich im Vorfeld bekannt, somit könnte anschließend deren Richtigkeit überprüft werden. x Realisierung: Excel, Normalverteilung, Zufallszahl. x Ziel: (1) Richtigkeit der Integration testen, um CDS zu überprüfen bzw. zu vergleichen. (2) Überprüfung, ob die gewohnte Auswertung über die Peakfläche vorteilhaft ist im Vergleich zu einer Auswertung über die Peakhöhe. (3) Einfluss von Integrationsparametern auf das Ergebnis testen und somit deren Einstellung optimieren. x Nutzen: Die Integrationspraxis kommerzieller CDS beurteilen, Integrationsfehler erkennen, Integrationsparameter optimal einstellen. 2.3.1 Simulation eines digitalen Chromatogramms
Eine Chromatogramm-Simulation kann selbstverständlich nicht die Integrationsprogramme direkt verbessern, aber helfen, die optimalen Parameter zur Integration zu finden und die Vor- und Nachteile von kommerziellen CDS aufzudecken. Insbesondere in der Spurenanalytik muss allzu oft zu dem letzten möglichen Mittel gegriffen werden, um die Integration zu verbessern, das ist das manuelle graphische Auswerten. Das orientiert sich zwangsläufig am Gefühl und ist vom Bearbeiter abhängig, d. h. nicht reproduzierbar. Hier wäre eine objektive Zielgröße, wie die bekannte Fläche der kleinen Peaks, besonders hilfreich. Im Folgenden ist eine Chromatogramm-Simulation beschrieben und grau unterlegt eine Schritt-für-Schritt-Anleitung zur eigenen Erstellung der entsprechenden Excel-Tabelle in den Text eingefügt. Die alle Teilschritte enthaltende Excel-Datei befindet sich auf der CD. Das Verständnis und die Möglichkeit, eigene
2.3 Chromatogramm-Simulation
Anpassungen an individuelle Probleme vorzunehmen, wird erleichtert, wenn man sich die Mühe macht, die Einzelschritte nachzuvollziehen. Das ist ohne Frage zeitaufwendig. Wenn man die Zeit nicht hat oder sich zunächst nur einen Überblick verschaffen möchte, kann man das kursiv Gedruckte überspringen. Man kann es zu jeder Zeit später lesen und versuchen, es nachzumachen. Eilige Leser können die Datei 10Peaks.xls auf der CD benutzen. 2.3.2 Ein Peak
Ein idealer Peak wird durch die Gaußfunktion beschrieben, d. h. durch die Gleichung
f (x , P, V ) =
1 V ⋅ 2S
−
e
( x − P)2 2 ⋅ V2
(2.3)
Diese auf eine Fläche von 1 normierte Gleichung ist eine wesentliche Grundlage der Statistik, weil sie die Definitionsgleichung der Normalverteilung ist, auf der die (übliche) parametrische Statistik beruht. Deshalb ist diese Funktion in Excel als Normvert (x, μ, V, Schaltwert) enthalten (vgl. Excel-Hilfefunktion). In einem Chromatogramm entspricht x der fortlaufenden Zeit t, μ entspricht der Retentionszeit tR und V entspricht der Standardabweichung des Peaks sP (Abweichung von tR). Der Schaltwert kann nur auf „0“ oder „1“ gesetzt werden. Da hier die Funktion selbst gezeigt werden soll, wird der Schalter auf „0“ gesetzt. Die Gleichung mit variabler Fläche könnte auch so geschrieben werden: y = y max ⋅ e
−(t − tR )² 2 ⋅ sP
(2.4)
Dabei ist y der Signalwert, d. h. die zu dieser Zeit gemessene Höhe. Diejenigen, denen Gleichungen wenig vertraut sind, können sich diese Funktion vielleicht besser mit einer interaktiven Simulation der Universität Basel vorstellen: http:// pharmtech.unibas.ch/modules/tinycontent6/content/Funktion/gauss.htm Die gaschromatographische Theorie hat in Analogie zur Effizienz von Destillationsvorgängen den Begriff der Bodenzahl übernommen und verwendet ihn als Charakteristikum des Trennvermögens. Das hat insoweit eine Berechtigung, als in der GC der Siedepunkt der zu trennenden Substanzen eine wesentliche Rolle spielt. Nachdem die Bodenzahl 20 Jahre in der GC etabliert war, wurde der Ausdruck für die HPLC übernommen. Der Begriff der Bodenzahl ist zweckmäßig und weltweit akzeptiert. Die Bodenzahl N ist definiert als: ⎛t ⎞ N = ⎜ R⎟ ⎝ sP ⎠
2
(2.5)
69
70
2 Integrationsfehler und Auswertung
Man benötigt nur die Retentionszeit tR und die Standardabweichung der Datenpunkte über den Peak sP bezogen auf die Retentionszeit. Bei isokratischen Chromatogrammen steigt sP mit der Retentionszeit so an, dass der Quotient tR/sP nahezu konstant bleibt. Bei Chromatogrammen mit einem (linearen) Gradienten bleibt sP annähernd konstant und die Bodenzahlberechnung macht keinen Sinn, weil N quadratisch mit tR steigt. Eine weitere Gleichung beinhaltet nur Größen, die im Report jedes Integrationssystems stehen: tR, Fläche A und Höhe H. ⎛t ⋅ H ⎞ N =2S⎜ R ⎝ A ⎟⎠
2
(2.6)
Setzt man den rechten Ausdruck der Gl. (2.5) mit dem der Gl. (2.6) gleich und löst nach sP auf, ergibt sich: sP =
tR N
(2.7)
Eine Bodenzahl von 8100 ist nur ein anderer Ausdruck dafür, dass sP gerade ein Neunzigstel der Retentionszeit ist. Eine grundlegende Entscheidung bei der Datenaufnahme eines Chromatogramms ist der Abstand zweier Datenpunkte tDP. Es gilt die allgemein akzeptierte Regel, dass der schmalste Peak durch mindestens 20 Datenpunkte beschrieben werden sollte. Angenommen, ein 20-minütiges Chromatogramm soll mit einer Datensammelrate von 5 Hz, d. h. fünf Punkten pro Sekunde (tDP = 200 ms), aufgenommen werden, dann sind das 300 Punkte pro Minute und insgesamt 6000 Datenpunkte. Jeder Datenpunkt besteht aus der Zeitangabe seit dem Chromatogrammstart und dem entsprechenden Signalwert des Detektors, der als Spannungswert weitergeleitet wird. Für heutige Computersysteme bedeuten auch Hunderte solcher Chromatogramme keinen erwähnenswerten Speicherbedarf.
Tragen Sie in ein leeres Excel-Tabellenblatt in die Zelle B1 „Peak 1“ und in Zelle C1 „Peak 2“ ein. Markieren Sie mit der Maus beide Zellen und ziehen Sie das schwarze Kreuz an der rechten unteren Begrenzung nach rechts, bis Sie z. B. bei Peak 8 sind. Tragen Sie in A10 „0,01“ und in A11 „0,02“ ein. Ziehen Sie die beiden Zellen bis auf A1009 herunter. Damit ist die Zeitachse über 10 Minuten in hundertstel Minuten (tDS = 0,01 min = 0,6 s = 600 ms) eingerichtet. Schreiben Sie in A2 „tR“, in A3 „Sp“ und in A4 „PFF“, in B2 „4“, in B3 „= B2/90“ und in B4 „1000“. Nun wenden wir uns den Signalwerten des Peaks zu. Tragen Sie in B10 ein: „=$B$4*NORMVERT(A10;$B$2;$B$3;0)“. Beim Herunterziehen der Rechen-
2.3 Chromatogramm-Simulation
vorschrift wird eine Zellenangabe wie A10 weitergezählt auf A11, A12 usw. bis A1009 (indirekte Adressierung). Mit den vorgesetzten $-Zeichen bleibt die angesprochene Zelle gleich (direkte Adressierung). Nach Markieren von A10 bis B1009 erhält man mit dem Diagrammassistenten ein Punktdiagramm, das einem Chromatogramm mit einem Peak entspricht.
Statt sP könnte man die anschaulichere Bodenzahl (als Wurzel (N)) eingeben. Weil sP und N in direktem Zusammenhang stehen, ist damit aber kaum ein Vorteil gegeben. Der Nachteil ist: Da die Bodenzahl bei Gradienten linear mit der Retentionszeit ansteigt, müsste man dort eine willkürliche und variable Größe eingeben. Demgegenüber ist die sP bei Gradienten besonders einfach als konstanter Wert einzugeben, weil die Peakbreite bei linearen Gradienten annähernd konstant ist. Mit dem Peakflächenfaktor kann man die Größe der Peaks variieren. Selbstverständlich haben die Peaks eines isokratischen Chromatogramms keine gleichen Bodenzahlen und die Peaks eines Gradientenchromatogramms sind nicht exakt gleich breit. Diese Abweichungen von realen Chromatogrammen beeinflussen aber nicht den Wert der Chromatogramm-Simulation als Integrationstest. 2.3.3 Mehrere Peaks
Wählt man die Parameter für tR, sP und PFF entsprechend aus, dann kann man in der nächsten Spalte genauso einen zweiten Peak erzeugen. Durch Addition der Werte in Spalte B und C würde sich ein Chromatogramm mit zwei Peaks ergeben. Dies ist auf beliebig viele Peaks erweiterbar. Excel ist auf 256 Spalten begrenzt. Mehr Peaks werden kaum notwendig sein.
Verändern wir die Zelle B10, indem wir $ vor B wegnehmen und vor A hinzufügen, in „=B$4*NORMVERT($A10;B$2;B$3;0)“, können wir B10 nach rechts ziehen, um nach Erweiterung bis Zeile 1009 acht (oder mehr) Peaks zu erzeugen. Die Fehlermeldung „#Zahl!“ verschwindet, wenn Sie die Zellen B2 bis B4 markieren und bis Spalte I nach rechts ziehen. Um die acht Peaks zu einem Chromatogramm zusammenzusetzen, muss man Spalte B markieren und <Einfügen> <Spalte> anklicken. In die jetzt leere Zelle B10 trägt man „=Summe(D10:K10)“ ein. Nach erneutem Ziehen von A10 bis B1009 erhält man mit dem Diagrammassistenten ein Punktdiagramm, das einem Chromatogramm mit acht Peaks entspricht.
Mit der bisherigen Tabelle kann man eine große Zahl von Peaks mit beliebiger Breite und Höhe und beliebigen Retentionszeiten simulieren.
71
72
2 Integrationsfehler und Auswertung
2.3.4 Rauschen
Da jeder Detektor ein Rauschen hat, muss das ebenfalls simuliert werden. Das Rauschen wird am einfachsten mit einer zufällig gewählten Zahl innerhalb eines vorgegebenen Bereichs simuliert. Dazu benutzt man die Funktion „Zufallszahl()“. Diese erzeugt eine Zufallszahl zwischen 0 und 1 (wird bei jedem Dateistart neu berechnet), die mit einem Peakflächenfaktor PFF vervielfacht wird. Das Rauschen Spitze zu Spitze entspricht dieser Zahl, angegeben in [μV]. Man markiert Spalte C, klickt <Einfügen> <Spalte> an und gibt in C10 „=$C$4*Zufallszahl()“ ein und erweitert beide Spalten bis C1009. Der einzutragende Wert in C4 ist das Rauschen in Spalte C in [μV]. Die Summe in Spalte B wird automatisch erweitert, damit alle Peaks und das Rauschen zu dem Signal addiert werden. Nach Papas [22] kann man auch zwei Zufallszahlen miteinander multiplizieren. Das (sog. weiße) Rauschen entspricht dann dem Quadrat der Rauschzahl. Am realistischsten ist es, wenn man eine typische Leerprobe als Rauschuntergrund verwendet und mit den Peaks überlagert (Stauffer, 2007, persönliche Mitteilung). Damit kann eine nahezu realistische Situation geschaffen werden, die mit keiner noch so aufwendigen Simulation möglich ist. Bei vielen CDS kann man die Rohdaten im Textformat ausgeben. Mit LCSolutions wurde 10 min lang das Rauschen eines SPD-10AV-UV-Detektors bei 214 nm aufgezeichnet und in ein Textfile übertragen. Die Signaldaten wurden in ein Excel-File kopiert. Markieren Sie die erste Zeile in Rauschen.xls und kopieren Sie diese in Spalte C der Simulationstabelle. Das simulierte Chromatogramm hat jetzt einen realen Rauschuntergrund. Bei der Gradientenchromatographie kommt man nicht daran vorbei, einen Leergradienten zu fahren. Diesen kann man sehr gut als Rauschhintergrund verwenden. Man kann aber auch den Basislinienverlauf simulieren, indem man z. B. den letzten Peak eines Chromatogramms – am besten mit der Retentionszeit, die der Analysenzeit entspricht – mit einer Breite von etwa tR/3 versieht. Mit dem PFF kann der übliche Gradientenverlauf stärker oder weniger stark betont werden. 2.3.5 Drift
Unter Drift versteht man ein lineares Ansteigen oder Abfallen der Basislinie. Dies ist mit einer Geraden leicht simulierbar. Zusätzlich zur Steigung hat man über den Achsenabschnitt die Möglichkeit, einen positiven oder negativen Offset
2.3 Chromatogramm-Simulation
Abb. 2.7 (a) Vergrößerter Ausschnitt eines Chromatogramms mit einem Peak auf 45o-Drift, Integration mit LCSolution; (b) wie (a), aber Integration mit EZChrom.
73
74
2 Integrationsfehler und Auswertung
Abb. 2.8 Vergrößerter Ausschnitt eines Chromatogramms mit zwei verschmolzenen Peaks auf 45o-Drift; (a) Integration mit LCSolution, (b) Integration mit EZChrom.
2.3 Chromatogramm-Simulation
einzugeben. Im Prinzip können auch andere einfache Funktionen verwendet werden oder eine Kombination von mehreren Möglichkeiten, die zeitlich versetzt sein können. Ein Offset und eine Drift kann in einer zusätzlichen Spalte mit einer Geradengleichung simuliert werden. Man markiert Spalte D, klickt <Einfügen> <Spalte> an und gibt in D10 „=$D$4*A10+$D$3“ ein und erweitert die Spalte bis D1009. In D3 muss dann der Achsenabschnitt a und in D4 die Steigung b stehen. Um den Einfluss der Drift auf die Integration zu beurteilen, wurden ein großer Peak (Abb. 2.7) bzw. zwei große miteinander verschmolzene Peaks mit einer starken Drift unterlegt (Abb. 2.8). Der einzelne Peak ist sichtbar falsch integriert. Die starken Abweichungen der Fläche von –7,8% vom Sollwert 2 100 000 für den ersten Peak und von –12,9% für den zweiten Peak erklären sich durch die Wahl des tiefsten Spannungswerts sowohl für das Ende des zweiten Peaks als auch für das Lot. Der tiefste Punkt ist hier aber nicht der optimale Punkt zur Peakerkennung, d. h., der Integrationsalgorithmus des hier verwendeten Programms LCSolutions (Abb. 2.7 a und 2.8 a) ist für dieses Problem zu einfach. Erstaunlicherweise ist das Ergebnis mit EZChrom (Abb. 2.7 b und 2.8 b) noch schlechter, obwohl es so aussieht, als ob EZChrom ebenfalls den jeweils tiefsten Punkt benutzt. 2.3.6 Gaschromatogramm
Zwischen den HPLC- und GC-Chromatogrammen besteht kein prinzipieller Unterschied. Allerdings ist die Trennleistung der Kapillargaschromatographie sehr viel höher als die der HPLC. Typische Bodenzahlen liegen um etwa den Faktor 10 höher. Das bedeutet um den Faktor drei schmalere Peaks und damit die Möglichkeit, sehr viel mehr Substanzen voneinander zu trennen. Da hier sP immer gerade 1/90-stel von tR ist, berechnet sich die Bodenzahl zu 8100. Das ist ein typischer Wert für die HPLC. Möchte man ein GC-Chromatogramm darstellen, ersetzt man z. B. in D3 die 90 durch 300 (N = 90 000) und zieht die geänderte Rechenvorschrift bis I3. Ein Temperaturprogramm in der GC wäre z. B. durch Eintragen von „0,02“ in D3 und nach rechts Ziehen simulierbar. Die Abb. 2.9 zeigt die Simulation einer Trennung von 100 schmalen Peaks (sp = 0,5 s), die mit einem Temperaturprogramm innerhalb von 13 min erscheinen. Sowohl die Retentionszeit als auch der Peakflächenfaktor wurden mit der Zufallsfunktion erzeugt. Das Chromatogramm könnte ein reales Kapillargaschro-
75
76
2 Integrationsfehler und Auswertung
Abb. 2.9 Simulation eines Gaschromatogramms mit 100 Peaks nach einem Zufallsverfahren für Retentionszeit und Peakhöhe.
matogramm aus dem Umweltbereich sein. Als Basislinie wurde der aufsteigende Ast eines Peaks bei der Retentionszeit 14 min (sp = 5 min) verwendet. Da die Zufallszahl die maximale Peakhöhe auf 600 mV begrenzt, ist der höchste Peak mit mehr als 900 mV nur durch zwei sehr große überlagerte Peaks mit fast gleicher Retentionszeit zu erklären. Bei jedem Aufruf der Excel-Datei, die 50 MB umfasst, wird ein neues Chromatogramm erzeugt. Mit einer Datenaufnahmezeit von 1/1000stel Minute ergeben sich bei 15 min 15 000 Signalwerte und für 100 Peaks 1,5 Millionen berechnete Werte. Damit stößt Excel bei manchen Rechnern an seine Grenzen. Eine ähnliche Simulation für 10 Peaks mit 1020 Datenpunkten in Excel wurde von V. Meyer vor etwa 10 Jahren entwickelt und unter dem Namen „ZufallsChromatogramm.xls“ an Interessierte weitergegeben (V. Meyer, 2006, persönliche Mitteilung). Excel hat eine maximale Tabellengröße von 256 Spalten, d. h., es lassen sich in einer Tabelle nicht mehr als 250 Gauß-Peaks oder 125 geteilte Peaks simulieren. Es ist selten, dass man mehr Peaks braucht. Die maximale Zahl von Zeilen ist 65 536. Selbst bei einer Aufnahmerate von 200 Datenpunkten pro Sekunde,
2.3 Chromatogramm-Simulation
die nur in der schnellen Gaschromatographie notwendig sein kann, lassen sich Chromatogramme bis zu 54 min Länge simulieren. 2.3.7 Verschmolzene Peaks
Durch Variation der Eingabewerte für die Retentionszeit können die beiden Peaks weiter voneinander entfernt oder näher aneinander herangeschoben werden. Damit ist die Verschmelzung von Peaks simulierbar. Es lassen sich ohne weiteres in einer Abbildung sowohl die einzelnen Peaks als auch die verschmolzenen Peaks darstellen. Damit ließe sich ein Programm zur Auseinanderrechnung von einzelnen Peaks aus einem verschmolzenen Peakpaar testen (vgl. Abb. 2.10 und die Integration in Abb. 2.11). Wichtiger ist aber, dass man hiermit die Fähigkeit von Integrationssystemen testen kann, mit verschmolzenen Peaks noch quantitative Ergebnisse zu erzielen. Je mehr die Peaks miteinander verschmolzen sind und je verschiedener ihre Größen sind, desto stärker weichen die Flächen von den Flächen der Einzelpeaks ab (Meyer [21]). Natürlich lassen sich Peaks verschmelzen. Tragen Sie z. B. in G2 „5,2“ ein. Es ergibt sich eine ausreichende Trennung, um zu quantifizieren. Verkleinert man nun den Wert in G4 von 1000 auf 100 und dann auf 10, erkennt man, dass bei großen Konzentrationsunterschieden an die Trennung höhere Anforderungen gestellt werden müssen. Die Abb. 2.12(a) zeigt ein einfaches Chromatogramm mit völlig symmetrischen großen Peaks. Die letzten vier Peaks laufen ineinander. In der üblichen Darstellung in der Abb. 2.12(a) müsste man sehr genau hinsehen, um etwas Auf-
Abb. 2.10 Simulation von zwei verschmolzenen Peaks, die auf einem viel breiteren Peak liegen.
77
78
2 Integrationsfehler und Auswertung
Abb. 2.11 Das Chromatogramm der Abb. 2.10 mit LCSolution integriert. Die CDS können nur gerade Basislinien unter einen Peak legen. Bei einer gekrümmten Basislinie werden auch große Peaks falsch integriert.
fälliges zu finden. Einen Ausschnitt dieses Chromatogramms von der dritten bis zur vierten Minute zeigt die Abb. 2.12(b). Das Datenpunktintervall beträgt 1/100 min = 600 ms. Der erste Peak hat 24 Punkte über den Peak, die anderen Peaks 30 oder mehr Punkte. Integriert wurde mit LCSolutions mit Width = 6 und T. Dbl. = 3. Die Slope wurde von 4,5–4,6 min mit dem Slope-Test zu etwa 100 μV min bestimmt. Man sieht, dass für das letzte Tal das Lot zu weit rechts gezogen wurde. In Abb. 2.13(a) wurde mit Width = 12 und T. Dbl. = 0 (automatische Anpassung), in Abb. 2.13(b) mit Width = 6, d. h. dem optimalen Wert, und T. Dbl. = 0 integriert. Man sieht, dass auch bei großen Peaks, die ineinander laufen, je nach Integrationsbedingungen recht verschiedene Ergebnisse möglich sind. Derartige Unterschiede hätte man kaum erwartet. Der linke fast freistehende Peak macht keinerlei Problem. Alle acht Peaks haben eine Bodenzahl von 8100 und einen Tailingfaktor von 1,00, weil es sich um Gauß-Peaks handelt. Diese Werte sollten von den CDS recht genau wiedergefunden werden. Die Tabelle 2.5 zeigt die Ergebnisse nach den verschiedenen Richtlinien. USP benutzt die Gl. (2.8a) und hat mit LCSolutions die größten Abweichungen dieser Tabelle vom richtigen Wert 8100. EP/JP benutzt die Gl. (2.8b), womit der Sollwert besser erreicht wird, aber bei verschmolzenen Peaks mit einem Tal über 50% kann die Halbwertsbreite nicht mehr gemessen werden.
2.3 Chromatogramm-Simulation
Abb. 2.12 (a) Simuliertes isokratisches Chromatogramm mit vier verschmolzenen Peaks, die mit LCSolution mit Width = 6 und T. Dbl. = 3 integriert wurden; (b) wie (a), aber als Ausschnitt vergrößert.
79
80
2 Integrationsfehler und Auswertung
Abb. 2.13 (a) Integration mit LCSolution und Width = 12 und T. Dbl. = 0. Es stehen weniger Datenpunkte für die Integration zur Verfügung, ohne dass das graphisch sichtbar ist. (b) Integration mit LCSolution und Width = 6 und T. Dbl. = 0. Der Unterschied liegt in dem Tal bei 3,56 min.
2.3 Chromatogramm-Simulation Tabelle 2.5 Das Chromatogramm Abb. 2.12(a) wurde mit LCSolution integriert und die Performance-Parameter auf USP, EP/JP, Fläche/Höhe oder EMG gesetzt. Außerdem wurde der Tailingfaktor (Tf) in 10% der Höhe aufgelistet. USP
EP
Fläche/Höhe
EMG
Tf
1. Peak
5455
7890
7976
7106
1,12
2. Peak
5752
7926
8000
7424
1,09
3. Peak
5990
7983
8014
7507
1,08
4. Peak
6116
7984
8017
7499
1,07
5. Peak
6434
7978
7930
7060
1,09
6. Peak
5757
7248
8072
–
–
7. Peak
5740
7230
7985
–
–
8. Peak
6632
7977
8195
–
–
⎛ t ⎞ N = 16 ⎜ R ⎟ ⎝ w 0% ⎠
2
⎛ t ⎞ N = 5,54 ⎜ R ⎟ ⎝ w 50% ⎠
(2.8a) 2
(2.8b)
Mit Fläche/Höhe (Gl. 2.6) erhält man die besten Ergebnisse; gerade diese Berechnung wird aber von keiner Richtlinie gefordert. Der Tailingfaktor ist im Mittel 1,1 statt 1,0, was vom Standpunkt der Chromatographie erträglich ist, aber den Nutzen dieser Zahlenwerte in Frage stellt. Die Bodenzahlberechnung nach EMG wird durch den Tailingfaktor verfälscht. Bei den letzten drei Peaks konnte der Tailingfaktor in 10% der Höhe nicht mehr bestimmt werden. Deshalb gibt es auch keine Angabe der Bodenzahl nach EMG. Bodenzahlen können nur verglichen werden, wenn sie nach demselben Rechenverfahren ermittelt wurden. 2.3.8 Datenpunktabstand
In den Manuals der Integrationssysteme ist im Allgemeinen die Forderung verankert, den schmalsten Peak mit 20 Datenpunkten (DP) zu beschreiben. Je nach dem Bereich, in dem die Retentionsfaktoren liegen, wird wegen der Peakverbreiterung bei isokratischen Trennungen der letzte Peak 40–100 DP umfassen. Bei Trennungen mit Gradienten sollte die Peakbreite maximal um den Faktor zwei schwanken, d. h., die Peaks werden durch maximal 40 DP beschrieben, wenn der schmalste Peak 20 DP hat. In der Abb. 2.14(a) sind zwei Peaks gezeigt, die jeweils 20 DP pro Peak haben. Bei einer Peakhöhe von etwa 13 000 μV wurde das Rauschen auf 10 μV gesetzt und S/N ist 1300.
81
82
2 Integrationsfehler und Auswertung
Abb. 2.14 (a) Bei gut getrennten Peaks reichen 20 DP aus, um sehr exakt zu integrieren. (b) Bei verschmolzenen Peaks reichen 20 DP nicht aus, um exakt zu integrieren. Einem der beiden Peaks werden zusätzlich 5% der Fläche zugeordnet, weil tDS zu groß ist.
2.3 Chromatogramm-Simulation
Bei der Integration mit LCSolutions ergeben sich die Flächen 60 047 und 60 082 μV s statt des Sollwerts von 60 000 μV s, d. h. eine Abweichung von 0,08 und 0,14%. Diese Abweichungen sind so gering, dass eine vielleicht mögliche Verbesserung mit mehr Datenpunkten letztlich irrelevant wäre, weil der Injektionsfehler immer höher sein wird. Ein freistehender Peak wird mit 20 Datenpunkten gut beschrieben.
Die Situation ändert sich, wenn die beiden Peaks so weit aneinander geschoben werden, dass die Auflösung etwa 1,1 beträgt, wie es in der Realität häufig vorkommt (Abb. 2.14 b). In dem Tal zwischen den beiden Peaks muss sich das Integrationssystem bei der Lotfällung für den rechten oder den linken Talpunkt entscheiden. Da der linke Datenpunkt mit 5117 μV geringfügig niedriger ist als der rechte Datenpunkt mit 5120 μV, ist die Entscheidung vorgegeben. Verschmolzene Peaks erfordern 100 Datenpunkte pro Peak.
Erst wenn man sich das Ergebnis der Integration ansieht, wird klar, dass die Fläche zwischen den beiden Datenpunkten etwa 5% der Gesamtfläche des linken oder des rechten Peaks ist. Auf denselben Wert kommt man, wenn man die oben genannten 5120 μV mit dem Abstand der Datenpunkte von 0,6 s multipliziert. In der Tat findet man bei der Integration für den ersten Peak eine um 5,17% zu hohe Fläche und für den zweiten Peak eine um 5,07% zu niedrige Fläche. Bei einem Unterschied zwischen den beiden Talpunkten von 3 μV und einem Rauschen von 10 μV ist es vom Zufall abhängig, ob der linke oder der rechte Punkt höher liegt. Somit ist die maximale Ungenauigkeit von ± 5% dadurch bedingt, dass der Abstand der Datenpunkte tDP viel zu groß ist. Nimmt man ein 6-mal kürzeres Datenpunktintervall von 100 ms (Abb. 2.15 a), beträgt die Abweichung der Flächen vom Sollwert nur 0,39% und –0,4%. Bei verschmolzenen Peaks macht es einen sehr großen Unterschied, ob die Zahl der Punkte über die Peaks 20 oder 120 beträgt. Zwanzig Punkte sind bei Weitem zu wenig, erst 120 Datenpunkte reichen aus. Die Abb. 2.15b zeigt in einem vergrößerten Abschnitt das Peaktal. Obwohl ein Vergleich des Chromatogramms in Abb. 2.14(b) (LCSolutions) und des Chromatogramms in Abb. 2.16(a) (EZChrom) keinen Unterschied erkennen lässt, sind die Abweichungen bei EZChrom etwa um den Faktor zwei geringer. Offensichtlich werden verschiedene Integrationsalgorithmen benutzt, die die Herstellerfirmen nicht preisgeben. Den Anwender interessiert auch vorrangig der Einfluss auf die Integration. Um das eigene CDS zu überprüfen, können die Files 20nDP.cdf und 120nDP.cdf auf der CD integriert werden. Wenn man im Chromatogramm verschmolzene Peaks hat, sollte die tDP etwa 5-mal niedriger eingestellt werden, um 100 Datenpunkte über die Peakbreite zu haben. Bei schmalen HPLC-Peaks lassen sich bei einigen Integrationssystemen nicht mehr genügend kleine tDP Werte einstellen.
83
84
2 Integrationsfehler und Auswertung
Abb. 2.15 (a) Simulation der beiden verschmolzenen Peaks analog zu Abb. 2.14(b) mit einem 6-fach höheren Datenpunktabstand. (b) Der vergrößerte Ausschnitt aus (a) zeigt die sehr viel bessere Angleichung der Datenpunkte an den Kurvenverlauf als bei Abb. 2.14(b).
2.3 Chromatogramm-Simulation
Abb. 2.16 (a) analog zu Abb. 2.14(b), aber mit EZChrom integriert; (b) analog zu Abb. 2.15(a), aber mit EZChrom integriert.
85
86
2 Integrationsfehler und Auswertung
Um den gewünschten Datenpunktabstand tDP einzustellen, muss man eine Abschätzung der Peakbreite des schmalsten Peaks vornehmen. Bei isokratischer (isothermer) Analyse ist das der erste Peak im Chromatogramm, der quantifiziert werden soll. Bei Analysen mit Lösungsmittel- oder Temperatur-Gradienten erlaubt der erste Peak eine genügend gute Näherung. Denken Sie bei jedem neuen Problem an die Optimierung der tDP
Wie schätzt man die Peakbreite ab? Wenn man einen Ausdruck des Integrationssystems mit Angabe der Peakanfangs- und -endzeit hat, ergibt sich die Peakbreite als Differenz. Damit wird man eher zu große als zu kleine Werte erhalten. Eine weitere Methode ist die graphische, bei der man den ersten Peak so darstellen muss, dass man ihn gut ausmessen kann. Man zeichnet die Basislinie ein und legt die Tangenten durch die Wendepunkte. Der Anteil der Basislinie zwischen den beiden Schnittpunkten mit den Tangenten ist eine Schätzung für 4 · sP und damit in Minuten ausgedrückt direkt die Peakbreite. Als realistisches Maß der Peakbreite ist 6 · sP besser geeignet. Wenn man die Peakbreite kennt, wird tDP so gewählt, dass die gewünschte Zahl von Datenpunkten nDP in die Peakbreite „hineinpassen“. nDP =
6 ⋅ sP tDP
(2.9)
Aus dem Verhältnis von Fläche zu Höhe bekommt man eine Abschätzung der Halbwertsbreite des ersten Peaks (Stauffer, 2007, persönliche Mitteilung). w 50% = 2,35 ⋅ sP
(2.10)
Bei keinem CDS ist eine Angabe der Datenpunkte pro Peak vorgesehen, allerdings kann die Halbwertsbreite angezeigt werden. Man müsste nur die dreifache Halbwertsbreite durch tDP teilen, d. h., es ist keinerlei Problem gegeben, diese Zahl für jeden Peak zu berechnen.
Gehen Sie auf die ursprünglichen Bedingungen für ein isokratisches Chromatogramm zurück, d. h. sP = tR/90. Die Peaks haben die üblicherweise geforderte Zahl von Datenpunkten. Die hier gewählte tDP von 0,01 min reicht nur aus, um Peaks ab 5 min oder mit einer Bodenzahl unter 10 000 ausreichend zu beschreiben. Um 100 oder 200 Datenpunkte pro Peak zu erhalten, muss tDP entsprechend weiter verkleinert werden. Es ist natürlich kein Problem, die Spalte A mit einem kleineren Punktabstand zu erstellen, z. B. tDP = 0,002. Es reicht aus, Spalte A neu zu erstellen und alle anderen Spalten weiter herunter zu ziehen.
2.3 Chromatogramm-Simulation
2.3.9 Tailing
Bei Verwendung der Excel-Funktion Normwert ist nur ein symmetrischer GaußPeak darstellbar, nicht aber ein Peak nach dem EMG-Modell (Foley und Dorsey [8]). Das dürfte das allgemein akzeptierte wichtigste Modell zur Beschreibung von geteilten Peaks sein. Eine gewisse Annäherung an ein nicht zu starkes Tailing – das für quantitative Aussagen nicht zu groß sein darf – lässt sich durch Überlagerung zweier Gauß-Peaks erreichen, bei denen der zweite Peak etwas später kommt (z. B. tR2 = tR1 + sP) und etwas breiter ist (z. B. 2 · sP). Um ein Tailing zu simulieren, kann man einen zweiten Peak z. B. um SDp versetzt und mit doppelter SDp und doppeltem PFF mit dem ersten Peak überlagern. Es entsteht ein Tailing mit einem Tailingfaktor von etwa 1,55. Diesen Wert sollte man – wann immer es chromatographisch möglich ist – sowieso nicht überschreiten. Zieht man die überlagerten Peaks bei der Simulation weiter auseinander, entsteht eine Schulter. 2.3.10 Peakfläche und Peakhöhe
Das Integral der oben genannten Gaußfunktion ist exakt eins. Mit einer Zeitachse in [min] und einer Signalachse in [μV] sind das 1 μV min. Der Peakflächenfaktor ist deshalb der Sollwert der Fläche bei der Integration in [μV min]. Bei den meisten Integrationssystemen wird die Fläche allerdings in [μV s] ausgedrückt. Dies bedeutet eine Fläche von 60 μV s, die mit dem Peakflächenfaktor multipliziert das Sollergebnis der integrierten Fläche darstellt. Diese Information stellt den wesentlichen Durchbruch für die Testung der CDS dar. Wenn der Sollwert der Fläche bekannt ist, kann jede integrierte Fläche auf Richtigkeit überprüft werden. Es kann bei der Optimierung der Integration auf ein sichtbares Ziel hin gearbeitet werden. In den Test-Chromatogrammen Isokrat und Gradient sind mehrere freistehende Peaks vorhanden, mit deren Übereinstimmung mit dem vorgegebenen Wert die Validität der Chromatogramm-Simulation abgesichert wird. Mit der Simulation erhält man Peaks mit bekannter Fläche!
Aus der Gaußfunktion ergibt sich, dass die Höhe eines (Gauß-)Peaks exakt berechnet werden kann, wenn die Fläche bekannt ist. H max =
A sP ⋅ 2 S
(2.11)
Bei den simulierten (gaußförmigen) Peaks sind tR, A, H und N exakt bekannt. Es lässt sich leicht überprüfen, mit welcher Genauigkeit diese Werte von den Inte-
87
88
2 Integrationsfehler und Auswertung
grationssystemen verschiedener Hersteller wiedergegeben werden können. Durch die sehr einfache Art der Simulation sollte es jedem Chromatographieanwender möglich sein, seine Chromatogramme nachzustellen (vgl. Abschn. 2.4.6). Auch wenn dies nicht 100%ig gelingen kann, ist es, da A und H bekannt sind, möglich, die Einstellparameter des verwendeten Integrationssystems zu verbessern. Das war bisher nicht möglich. Ob man für die Kalibrierung und Auswertung mit der üblichen Fläche rechnet oder mit der weniger störanfälligen Höhe, kann die Qualität der Ergebnisse wesentlich verändern. Bisher war die Entscheidung für Fläche oder Höhe nur nach Plausibilität zugunsten geringerer VKs möglich. Zwar ist den meisten Anwendern bewusst, dass sich bei Veränderung der Integrationsbedingungen die oben genannten Parameter verändern können, aber ohne Kenntnis des richtigen Werts ist eine Beurteilung nicht möglich. Die Wahrscheinlichkeit ist gering, dass sich Integrationsfehler beim Relativvergleich Kontrollprobe zu Analysenprobe wegkürzen. Mit einer möglichst „richtigen“ Integration ist man auf der sicheren Seite, um richtige Analysenergebnisse zu erhalten. 2.3.11 Andere Kenngrößen
Um das simulierte Chromatogramm möglichst gut beurteilen zu können, kann man einige sinnvolle Kenngrößen zusätzlich berechnen. Der Peakflächenfaktor PFF gibt die Sollfläche in [μV min] an. Um für die „richtige Fläche“ die üblichen [μV s] zu verwenden, wird „= 60 · E4“ in E5 (bis N6 weiterführen) eingetragen. Um die Zahl der Datenpunkte nDP für jeden Peak auszurechnen, teilt man die Peakbreite (6 · sP) durch tDP, d. h. den Abstand zweier Datenpunkte, indem in D6 „= 6 · D3/($A$11 – $A$10)“ eingetragen und bis N6 erweitert wird. Zur Berechnung der Resolution für Gauß-Peaks wird in D7 „= (F2 – E2) / (2 · F3 + 2 · E3)“ eingetragen. Dies ist natürlich erst ab dem zweiten Peak möglich. Für die Höhe wird „= E5 / (60 · E3 · WURZEL (2 · PI))“ in E8 eingetragen – auch diese Rechnung gilt nur für Gauß-Peaks. Aus der Peakhöhe und dem Rauschen ist leicht das Signal/Rausch-Verhältnis S/N auszurechnen: Tragen Sie „=E8/$C$4“ in E9 ein. Um ein Warnzeichen zu erhalten, wenn das S/N unterhalb von 10 liegt, kann der Bereich von E6 bis N6 mit der bedingten Formatierung versehen werden: [Zellwert ist] [kleiner als] [10] dann Format z. B. rot auf gelbem Grund oder andere Hervorhebungen. Genauso kann man in F7 bis N7 als Bedingung für die Auflösung eintragen [Zellwert ist] [kleiner als] [1] und in E9 bis N9 [Zellwert ist] [kleiner als] [30].
2.4 Anwendungen der Simulation
2.4 Anwendungen der Simulation
Im Folgenden sind einige Peak-Simulationen gezeigt, mit denen die wichtigsten Anwendungen in der Chromatographie überprüft werden können: x x x x x x
Kalibrierung einer Standardkurve, Mehrfachmessung an der Bestimmungsgrenze, zunehmend verschmolzene Peaks bei einer isokratischen Analyse, abnehmend verschmolzene Peaks bei einer Gradientenanalyse, Nebenproduktanalyse, Nachsimulation eigener Chromatogramme.
Die Probleme in den verschiedenen Labors sind äußerst vielfältig. Es ist aber möglich, eigene Chromatogramme nachzusimulieren und so die Richtigkeit der Integration zu verifizieren. Die Excel-Simulation muss in die CDS eingelesen werden. Dazu erzeugt man zuerst ein Textfile, kopiert die Excel-Datenmatrix hinein, liest in das CDS ein, speichert es in dem CDS-spezifischen Format ab und wandelt es in ein cdf-File um (AIA-Format). Hier ist die Vorgehensweise für LCSolution beschrieben. Bei anderen CDS muss man möglicherweise etwas anders vorgehen – vielleicht ist es auch gar nicht möglich. Wandeln Sie ein beliebiges Rohdatenfile (lcd) mit <Export Data> <Export Data as ASCII> in ein Textfile um. Löschen Sie darin die Datenmatrix und kopieren Sie die in Excel erstellte Datenmatrix hinein. Tragen Sie den richtigen tDP-Wert in „Interval(msec)“ ein und korrigieren Sie den Wert für „# of Points“ und „End Time (min)“. Speichern Sie und lesen Sie das Textfile mit ein, nachdem Sie das ASCII-File (*.txt) aus der Liste ausgewählt haben. Das simulierte Chromatogramm sollte zu sehen sein. Integrieren und speichern Sie im LCSolution-Format (*.lcd). Wählen Sie und klicken Sie mit der rechten Maustaste auf Ihr vorher gespeichertes Datenfile. Wählen Sie und . Das *.cdf-File sollte von jedem CDS gelesen werden können. Bei der Umwandlung in ein AIA-File mit LCSolution werden nur ganzzahlige Signalwerte [μV] ausgegeben, wobei die Kommastellen einfach abgeschnitten werden. Dadurch wird ein Rauschen von 10 durch die diskreten Zahlen von 0–9 wiedergegeben (deshalb ist das wirkliche Rauschen 9 μV und nicht 10 μV), nicht durch Zwischenwerte, wie die Abb. 2.17 zeigt. Bei der Chromatogramm-Simulation sollten deshalb Werte für das Rauschen von unter 10 vermieden werden. Ein Rauschen von eins würde in dem (LCSolution)-AIA-File durchgehend den Signalwert null ergeben. In der Praxis ist ein Rauschen von 1 μV extrem selten. Normalerweise bringen die Dezimalstellen der [μV] nur einen sehr geringen Informationszuwachs.
89
90
2 Integrationsfehler und Auswertung
Abb. 2.17 Excel-Simulation des Rauschens mit der Zufallsfunktion multipliziert mit 10 und in LCSolution eingelesen.
Der Vorteil der hier beschriebenen Peak-Simulation liegt in ihrer einfachen Handhabbarkeit und sofortigen Verfügbarkeit, sofern ein Computer mit Excel zur Verfügung steht. Das Excel-Tabellenblatt ist leicht erweiterbar. Um die Analysenzeit zu verlängern, markiert man alle Einträge der untersten Zeile und zieht sie bis zur gewünschten Analysenzeit herunter. Die Zahl der Peaks erhöht man, indem man alle Einträge der Spalte ganz rechts markiert und nach rechts zieht. Dann muss noch der Bereich für die Summe in Spalte B erweitert werden. Wenn das Tabellenblatt zu viele Spalten oder Zeilen enthält: Für die Peaks, die man nicht braucht, PFF einfach auf null setzen. Das setzt die Größe der Peaks auf null und schaltet sie so quasi aus. Ist die Analysenzeit länger, als man braucht, kopiert man nur den Chromatogrammteil, der benötigt wird. Die Integrationen mit LCSolution wurden teilweise von Carsten Zeidler, Shimadzu Neufahrn, teilweise von einem der Herausgeber (H. J. Kuss) durchgeführt. Die Integrationen mit Cromeleon lagen in den Händen von Michael Heep, Dionex, Idstein bzw. Peter Sauter, Dionex Softron, Germering. Alle Integrationen mit Empower wurden von Bruno Peuser, Waters Eschborn vorgenommen. Die Integrationen mit EZChrom Elite (außer Abschn. 2.2.2) führte Ralf Fischer, Fa. Dr. Th. Böhme, Geretsried durch.
2.4 Anwendungen der Simulation
Allen Beteiligten sei herzlich für ihre Mühe gedankt. Besonderer Dank geht an Herrn Zeidler für seinen Hinweis, dass man die Daten von LCSolution als Textfile ausgeben und einlesen kann und an Herrn Fischer, der die Integrationen neben seiner laufenden beruflichen Tätigkeit durchführte. 2.4.1 Simulation einer Kalibriergeraden
Die Kalibrierung ist die Grundlage jeder quantitativen chromatographischen Bestimmung, für die genaue Vorschriften existieren. Es gibt den Mandel-Test, der feststellt, ob nicht eine geringe Krümmung der quadratischen Funktion eine signifikant geringere Residualstandarabweichung ergibt als die lineare Funktion. Weiterhin soll die Varianzenhomogenität, das Prognoseintervall und die Messunsicherheit gezeigt werden. Eine deutsche Norm (DIN 32 645) befasst sich mit der Nachweis-, Erfassungs- und Bestimmungsgrenze, u. a. nach der Kalibriergeradenmethode im Konzentrationsbereich direkt um die Bestimmungsgrenze herum. In der Chromatographie ergibt sich die Bestimmungsgrenze einfacher und sicherer aus dem 10-fachen Rauschen. Zu der Frage, ob und wie stark das Integrationssystem zur Messunsicherheit U beiträgt, gibt es wenige Informationen. Bei den Auflistungen der Einflussgrößen zur Messunsicherheit, wie in dem Ishikawa-Diagramm (Meyer [19]), ist die Integration mit verschiedenen Untergliederungen enthalten. Die Schwierigkeit besteht darin, die einzelnen Fehleranteile zu beziffern. Wenn das nicht individualisiert gelingt, bleibt der Ansatz des „Guide to the Expression of Uncertainty in Measurement“ (GUM) im Formalistischen stecken. In der Qualitätskontrolle arbeitet man weit oberhalb der Bestimmungsgrenze und der Integrationsfehler an der Bestimmungsgrenze ist unwichtig. Dafür sind die Anforderungen an die Präzision und Richtigkeit besonders hoch. Bei der Nebenproduktanalyse muss man oft sehr kleine Konzentrationen messen oder man hat teilweise verschmolzene Peaks, so dass der Integrationsfehler durchaus beträchtlich sein kann. Mit der Chromatogramm-Simulation ist es möglich, eine Kalibrierkurve mit Peaks von der Bestimmungsgrenze bis zu beliebig höheren Konzentrationen zu erzeugen, deren Flächen vorher bekannt sind. Dadurch kann die (prozentuale) Abweichung vom richtigen Wert in Abhängigkeit von der Konzentration bzw. des S/N ermittelt werden. Dies wurde in einem einfachen Chromatogramm mit einer tDP von 200 ms (5 Hz) und drei benachbarten, aber gut getrennten Peaks innerhalb von vier Minuten simuliert: Eich1, Eich2, Eich4, Eich8, Eich16, Eich32, Eich64, Eich128, Eich256, Eich512 und Eich1024, d. h. 11 Kalibrierpunkte mit aufsteigenden Konzentrationen des ersten und dritten Peaks von 1 (ng) bis zu 1024 (ng). Der zweite Peak ist in allen Chromatogrammen gleich – bei Eich128 haben alle drei Peaks etwa dieselbe Höhe – er könnte ein interner Standard sein. Alle Peaks haben ein Tailing mit Af = 1,55, das wie oben beschrieben durch Verschmelzen zweier Gauß-Peaks erzeugt wurde. Das Rauschen wurde auf 10 μV gesetzt und
91
92
2 Integrationsfehler und Auswertung Tabelle 2.6 Flächensollwerte [μV s] der drei Peaks in den 11 Eich-Simulationen. Eich…
Fläche 1
Fläche 2
Fläche 3
1
720
120000
1080
2
1440
120000
2160
4
2880
120000
4320
8
5760
120000
8640
16
11520
120000
17280
32
23040
120000
34560
64
46080
120000
69120
128
92160
120000
138240
256
184320
120000
276480
512
368640
120000
552960
1024
737280
120000
1105920
die Peakhöhe des ersten und dritten Peaks in Eich1 auf 100 μV, so dass das S/N gerade bei 10 liegt (Abb. 2.18). Die Peaks wurden durch etwa 50 Datenpunkte beschrieben. Es wurde eine leichte Drift und ein geringer negativer Offset verwendet. Dies ist kein besonders schwieriges Integrationsproblem, das eine durchaus häufige Situation im Laboralltag wiedergibt. Zum Integrationstest wurden von der Firma Waters die beiden Verfahren „ApexTrack“ und „Traditional-Mode“ verwendet. Bei Dionex wurde die Integration mit Chromeleon unabhängig voneinander mit etwas unterschiedlichen Integrationsparametern von zwei Mitarbeitern durchgeführt. Bei EZChrom wurde zweimal integriert, wobei nur der Threshold um den Faktor zwei verändert wurde. Außerdem wurde mit LCSolution von Shimadzu und Atlas von Thermo integriert. Die doppelte Integration mit Chromeleon und EZChrom soll zeigen, welchen Einfluss verschiedene Integrationsparameter haben können. Zur vergleichenden Beurteilung der CDS sollten natürlich die besseren Ergebnisse herangezogen werden, die ja ohne Weiteres erreichbar sind. Die einzelnen integrierten Flächen und die Auswertung nach der Richtigkeit sind in dem File „Eich-Ergebnisse.xls“ auf CD enthalten. Der mittlere Peak mit einem S/N > 1000, der als interner Standard gedacht ist, enthält bei allen Eich-Files immer die gleichen Zahlenwerte, nur moduliert durch das Rauschen, das maximal 1 ‰ Veränderung zulässt. Deshalb sollte immer dieselbe Fläche herauskommen. Andernfalls wäre anzunehmen, dass der Peak davor (R = 2,14) und der danach (R = 1,75) die Integration des mittleren Peaks beeinflussen. Die Tabelle 2.7 zeigt, dass sowohl die Präzision als auch die Richtigkeit in fast allen Fällen unterhalb von 0,1% liegen und damit die Abweichungen irrelevant sind, weil sie unterhalb des unvermeidbaren Injektionsfehlers (bestenfalls 0,12%) liegen.
2.4 Anwendungen der Simulation
Abb. 2.18 Simulation von Eich1 mit einem S/N von 10.
Abb. 2.19 Simulation von Eich1024 mit S/N von 10 240.
93
94
2 Integrationsfehler und Auswertung Tabelle 2.7 Flächenwerte der 11 Eich-Simulationen für acht verschiedene Integrationsmodi. Die unteren vier Zeilen geben einen Überblick über Präzision und Richtigkeit. 2. Peak
Shimadzu Waters
Waters
Dionex
Dionex
VWR
VWR
Thermo
Eich…
Labsolutions
ApexTrack
Traditional
Chromeleon
Chromeleon
EZChrom
EZChrom
Atlas
1
119792
119171
120167
119820
120011
119792
120008
119920
2
119976
119068
120176
119700
120096
119976
119960
119914
4
119925
119008
120138
120120
120111
119925
119943
119958
8
119948
118791
120219
120000
120169
119948
119892
119998
16
120004
118448
120191
120060
120141
120004
119939
119985
32
120028
118019
120246
120120
120145
120028
119970
120037
64
120050
119370
120222
119580
120014
120050
119988
120008
128
120063
119044
120213
119280
120172
120063
120025
120084
256
120052
118464
120107
119760
120051
120052
119822
119875
512
119960
112965
120080
119820
119974
119960
119857
119817
1024
120163
110785
120095
119940
119981
120163
119893
119831
Mittelwert
119996
117558
120169
119836
120079
119996
119936
119948
Stand.abw.
94,8793
2877,3
56,49
254,69
75,181
94,959
63,735
84,915
Präzision
0,08%
2,45%
0,05%
0,21%
0,06%
0,08%
0,05%
0,07%
Richtigkeit
0,00%
–2,04%
0,14%
–0,14%
0,07%
0,00%
–0,05%
–0,04%
Ganz anders sieht das Ergebnis nach der Apex-Track-Integration aus: Ein VK der Präzision von 2,5% und 2% Abweichung vom richtigen Wert – das ist mehr als 10-mal höher als mit allen anderen Integrationssystemen. Dazu tragen insbesondere Eich512 und Eich1024 bei. Außerdem liegen alle Werte zu niedrig. Die traditionelle Waters-Integration liegt dagegen vollkommen im Rahmen der anderen Ergebnisse. Bei allen Ergebnis-Tabellen wurden zur schnelleren Übersicht Abweichungen über 1% hellgrau unterlegt, Abweichungen über 5% sind mittelgrau unterlegt und fett gedruckt dargestellt. Die Abweichungen der beiden variablen Peaks vor und nach dem konstanten Peak zeigt die Tabelle 2.8. Im Bereich bis S/N = 80 liegen die Abweichungen über 1%, bei höheren S/N-Verhältnissen aber immer darunter. Auch hier ist die Ausnahme die Apex-Track-Integration, bei der erst Eich128 unter 1% Abweichung liegt, und bei der alle Abweichungen negatives Vorzeichen haben, d. h., dass die Basislinie grundsätzlich zu hoch angesetzt ist.
2.4 Anwendungen der Simulation Tabelle 2.8 Abweichungen der Flächen (Richtigkeit) der 11 Eich-Simulationen mit acht Integrationsmodi für den ersten und dritten Peak. 1. Peak
Shimadzu Waters
Waters
Dionex
Dionex
VWR
VWR
Thermo
Eich…
Labsolutions
Traditional
Chromeleon
Chromeleon
EZChrom
EZChrom
Atlas
1
Apex Track
–12,52% –12,08%
14,17% –18,92%
–6,39% –12,50% –17,78% –11,53%
2
–4,75%
–4,79%
6,46%
–2,92%
4,51%
–4,72% –13,19%
–6,32%
4
–4,15%
–4,17%
2,74%
1,98%
1,94%
–4,13%
–6,28%
–2,88%
8
–0,09%
–2,00%
2,92%
–0,14%
1,89%
–0,09%
–4,60%
–1,41%
16
–0,59%
–1,44%
0,95%
–0,39%
0,79%
–0,59%
–1,60%
–0,40%
32
–0,43%
–1,55%
0,62%
0,35%
0,35%
–0,43%
–0,63%
–0,12%
64
–0,14%
–1,02%
0,39%
–0,62%
–0,15%
–0,14%
–0,32%
–0,13%
128
–0,07%
–0,78%
0,17%
–0,57%
0,11%
–0,07%
–0,16%
0,00%
256
0,03%
–0,78%
0,08%
–0,11%
0,08%
0,03%
–0,15%
–0,03%
512
–0,03%
–0,56%
0,06%
–0,06%
0,02%
–0,03%
–0,06%
–0,02%
1024
0,02%
–0,54%
0,03%
0,00%
0,01%
0,02%
–0,02%
0,00%
3. Peak
Shimadzu Waters
Waters
Dionex
Dionex
VWR
VWR
Thermo
Eich…
Labsolutions
Traditional
Chromeleon
Chromeleon
EZChrom
EZChrom
Atlas
10,09%
–5,32%
Apex Track
1
–18,42% –11,94%
2
–1,87% –12,36%
4
–1,86%
–9,00%
–0,37%
8
–1,43%
–7,28%
16
–0,91%
32
4,40% –11,07%
1,02% –18,43%
5,00%
0,19%
–0,60%
–1,85%
–0,46%
–2,87%
–0,77%
–0,76%
–1,85%
–1,46%
–1,27%
1,59%
–1,86%
0,73%
–1,42%
–0,22%
–0,10%
–5,77%
0,42%
–0,21%
–0,02%
–0,91%
0,03%
0,20%
–0,22%
–5,67%
0,39%
–0,01%
0,00%
–0,22%
–0,19%
0,09%
64
–0,26%
–1,11%
0,12%
–0,49%
–0,20%
–0,26%
–0,10%
0,01%
128
–0,24%
–0,90%
0,03%
–0,32%
–0,01%
–0,24%
–0,03%
0,01%
256
–0,05%
–0,79%
0,08%
–0,10%
0,04%
–0,05%
0,02%
0,06%
512
–0,04%
–1,98%
0,03%
–0,04%
–0,01%
–0,04%
0,01%
0,02%
1024
–0,01%
–1,60%
0,02%
0,00%
0,00%
–0,01%
0,00%
0,02%
95
96
2 Integrationsfehler und Auswertung
Nur durch Veränderung des Threshold von 50 auf 100, findet EZChrom für Eich1 beim 3. Peak statt 18% zu wenig Fläche 5% zu viel Fläche. Auch die Chromeleon Ergebnisse zeigen, dass durch eine verschiedene Einstellung der Integrationsparameter sich recht unterschiedliche Abweichungen ergeben können. Die von Fehlinger und Guiochon [9] nur mit der ChemStation für einen Peak erhaltenen Abweichungen liegen im Rahmen der hier gezeigten Ergebnisse, bei denen die ChemStation nicht untersucht wurde. Würde man den zweiten Peak als internen Standard verwenden, wäre dadurch keine Verbesserung der Ergebnisse möglich, weil dieser Peak durch die Simulation ja immer gleich ist. Bei realen Proben wird der interne Standard mit dem Injektionsvolumen und der Probenvorbereitung variieren und deren Fehler im Regelfall verringern können. Da die integrierten Flächen des zweiten Peaks fast gleich sind, bewirkt eine Korrektur mit dem internen Standard auch tatsächlich nichts, wie in Eich-Ergebnisse.xls gezeigt wird. Die Abweichungen vom Sollwert sind mit obigen Zahlen fast völlig identisch. Eine Ausnahme ist wiederum die Apex-Track-Integration. Vergleicht man die integrierten Werte nach Division durch die Fläche des mittleren Peaks mit den Sollwerten, ist das Ergebnis noch einmal ungünstiger (Tabelle 2.9), weil der mittlere Peak als interner Standard stark variiert. Tabelle 2.9 (Große) Abweichungen der Flächen (Richtigkeit) des ersten und dritten Peaks nach Korrektur durch den internen Standard (mittlerer Peak) nach Apex-Track-Integration. Die große Variabilität des mittleren Peaks verschlechtert die Ergebnisse immens. Apex-Track
Interner Standard
Eich…
1. Peak
3. Peak
1
–11,47%
–11,33%
2
–4,05%
–11,68%
4
–3,37%
–8,25%
8
–1,00%
–6,34%
16
–0,15%
–4,53%
32
0,10%
–4,09%
64
–0,50%
–0,59%
128
0,01%
–0,10%
256
0,51%
0,50%
512
5,63%
4,13%
1024
7,73%
6,59%
2.4 Anwendungen der Simulation Tabelle 2.10 Ist das Rauschen gerade 10% der Peakhöhe (S/N = 10), dann ist ein Anhaltspunkt für den erwarteten VK der Flächen gerade auch 10%. Vom Mittelwert des Rauschens gesehen sind die maximalen Abweichungen nach oben oder unten 5%. Da der Peakfuß verbreitert ist, ist die Abweichung der Flächen 2–3-mal größer als die Abweichung der Höhen. S/N
N/S
VK(int)
10
0,1
10%
100
0,01
1%
1000
0,001
0,10%
Die gezeigten Eich-Daten legen die Annahme nahe, dass die in den Tabellen gezeigten Integrationsfehler Absolutabweichungen sind, die nicht von der Peakhöhe, sondern im Wesentlichen vom Rauschen abhängen. Die Integration hängt im Prinzip von der richtigen Bestimmung des Peakanfangs und Peakendes ab, zwischen denen eine gerade (Basis)-Linie gezogen wird. Die Unsicherheit dieser Linie wird praktisch nur vom Rauschen bestimmt und verschiedene Lagen dieser Linie werden bei großen und kleinen Peaks zu demselben Flächenfehler in Absoluteinheiten führen, d. h., prozentual verschwindet dieser Fehler bei den großen Peakflächen. Daraus wird klar, dass ein interner Standard mit immer gleicher Konzentration den Integrationsfehler, der von der Konzentration abhängig ist, prinzipiell nicht ausgleichen kann, andere Fehler aber schon. Ein interner Standard ist das beste Hilfsmittel, um die Messunsicherheit zu verringern. Aber: Der interne Standard gleicht den Integrationsfehler nicht aus.
Als Anhaltswert kann man den Integrationsfehler der Fläche aus dem prozentualen Rauschen, bezogen auf das Signal, abschätzen, d. h. aus dem Kehrwert des S/N. Ein 10%iges Rauschen bietet die Chance einer bis zu 5%igen Vergrößerung oder Verkleinerung der Höhe. Die Fläche verändert sich mehr als doppelt so stark, weil sich die Peaks nach unten hin verbreitern. Mit den richtigen Integrationsparametern kann der Integrationsfehler kleiner sein, mit ungünstigen Parametern kann der Integrationsfehler größer sein als in der Tabelle. Dong schrieb 1999: „Theoretical considerations indicate that peak area precision is inversely proportional to signal-to-noise, and number of sampling points, and is proportional to peak width“ [6]. Er fand bei S/N = 11 einen VK von 5,5%. Nun wäre denkbar, dass Abweichungen letztlich toleriert werden können, weil sie sich bei der Berechnung der Konzentration der Analysenproben herausrechnen. Zunächst müsste dann das Integrationssystem zwar falsch, aber reproduzierbar falsch messen. Linear systematische Fehler würden sich in der Tat herausrechnen, konstant systematische Fehler nicht. Fehler der Analog-Digital-Wandlung wären mit den heute üblichen 24-bit-ADUs vorwiegend linear,
97
98
2 Integrationsfehler und Auswertung
Integrationsfehler aber konstant. Deshalb rechnen sich die Integrationsfehler nicht heraus. Die Kalibrierung erfolgt normalerweise mit der Anpassung an eine Gerade mit Achsenabschnitt. Der Achsenabschnitt a (besser: y-Achsenabschnitt bei x = 0) ist in der Chromatographie fast immer nicht signifikant. Trotzdem stellt er einen Korrekturfaktor für die Analysenwerte dar, die man nach: x =
y a − b b
(2.12)
berechnet. Der Korrekturfaktor ist der x-Achsenabschnitt bei y = 0. Bei großen Signalwerten y ist die Korrektur durch –a/b vernachlässigbar, bei kleinen y-Werten aber nicht. Um den Effekt abzuschätzen, kann man den x-Achsenabschnitt berechnen und mit der untersten Arbeitsbereichskonzentration xU vergleichen. Ist der x-Achsenabschnitt größer als xU, dann ist für die geringsten möglichen Analysekonzentrationen entweder mehr als eine Verdopplung oder ein Wert von unter null zu erwarten. Beides ist nicht akzeptabel, ein Wert unter null unsinnig und nur deshalb besser, weil man ihn kaum übersehen wird. Dies wird im Abschn. 2.5 ausführlich diskutiert. Um das Ausmaß der Verfälschung abzuschätzen, kann man die Signalwerte der Eichung mit obiger Gleichung (wie es jedes CDS automatisch machen kann) in Konzentrationswerte umrechnen. Durch Vergleich mit den vorgegebenen Konzentrationswerten kann man leicht die prozentualen Abweichungen berechnen. Natürlich würde man bei einer erneuten Messung der Kalibrierproben nicht exakt dieselben Signalwerte bekommen, aber ähnliche Werte. Deshalb ist die Rückrechnung mit den ursprünglichen Kalibrierwerten als Überprüfung der Kalibrierung sinnvoll. 2.4.2 Zehnfache Simulation an der Bestimmungsgrenze
Am kritischsten ist wegen des hohen Rauschens die Integration bei Eich1. Um bei dieser „Konzentration“ mehr Informationen zu bekommen, wurde dieses File 10-mal aufgerufen, wobei das Rauschen jedes Mal neu berechnet und als Eich1_1 bis Eich1_10 abgespeichert wird. Diese Files wurden mit LCSolution und Chromeleon integriert. Die Simulation liefert bei dem hier vorliegenden maximalen Rauschen von 10% unterschiedliche Peaks, wie der Vergleich der Abb. 2.20(a) und (b) zeigt. Da sich das Rauschen über alle Datenpunkte eines Peaks weitgehend wegmittelt, kann diese Abweichung vernachlässigt werden. Die Einzelwerte der Tabelle 2.11 sind sehr verschieden (mit LCSolution resp. Chromeleon integriert). Vergleicht man die Werte der jeweils gleichen AIA-Files Eich1_1 bis Eich1_10, so ergibt sich nicht die geringste Korrelation. Es scheint, dass die beiden Integrationsalgorithmen von LCSolution und Chromeleon so unterschiedlich sind, dass die integrierten Flächen überhaupt nicht korrelieren. Dies sollte bei Methodentransfer und unterschiedlichen CDS berücksichtigt werden.
2.4 Anwendungen der Simulation
Abb. 2.20 (a) LCSolution-Integration der Simulation Eich1_2, d. h. der für den ersten Peak kleinsten Fläche der Tabelle 2.11. (b) LCSolution-Integration der Simulation Eich1_10, d. h. der für den ersten Peak größten Fläche der Tabelle 2.11.
99
Eich1_1
1038
5,69
0,04
–3,89
2. Peak
3. Peak
Abw. 1 [%]
Abw. 2 [%]
Abw. 3 [%]
–10,00
–0,04
–5,69
972
119947
–5,09
0,00
6,81
1025
120003
769
–6,85
–0,01
8,47
1006
119985
781
–1,30
0,07
8,75
1066
120078
783
Eich1_5
3,06
0,08
9,03
1113
120095
785
Eich1_6
–8,70
–3,52
–0,02
2,50
1042
119973
738
Eich1_7
–3,70
3,19
–12,22
–0,11
–3,61
948
119866
694
Eich1_8
–19,63
–0,09
–2,41
0,08
8,61
1054
120096
782
Eich1_9
–13,24
–0,05
–9,17
3,61
–7,04
–0,10
–1,81
1004
119882
707
Eich1_10
–17,50
–0,10
–12,13%
–0,06%
–1,61%
–4,93%
0,00%
3,88%
Richtigkeit
5,15%
0,07%
5,73%
761
120052
1. Peak
679
Eich1_4
0,00
2,64 –0,02
Richtigkeit
8,52%
Präzision
Eich1_3
–18,89
1,11 –0,03
891
Chromeleon
Eich1_2
–21,30
0,05
0,83
937
0,07%
N = 3600
–11,76
–0,10
–2,22
868
119882
–6,57
–0,12
–2,50
1040
119939
Abw. 3 [%]
–0,17
–16,94
986
119888
0,02
1080
119978
746
3,33
876
119966
654
Abw. 2 [%]
850
120058
743
Eich1_10
Abw. 1 [%]
953
119884
739
Eich1_9
1009
119851
728
Eich1_8
3. Peak
119795
726
Eich1_7
120026
704
Eich1_6
2. Peak
702
Eich1_5
6,97%
598
Eich1_4
744
Eich1_3
1. Peak
Eich1_2
Präzision
Eich1_1
LCSolutions
N = 3600
Tabelle 2.11 Die Simulation von Eich1 (S/N = 10) wurde 10-mal aufgerufen, wobei das Rauschen jedes Mal neu erzeugt wurde. Präzision und Richtigkeit wurden für die Integration mit LCSolution und Chromeleon berechnet.
100
2 Integrationsfehler und Auswertung
2.4 Anwendungen der Simulation
Abb. 2.21 (a) LCSolution-Integration der Simulation Eich1_2, d. h. der für den ersten Peak kleinsten Fläche der Tabelle 2.12. (b) LCSolution-Integration der Simulation Eich1_8, d. h. der für den ersten Peak größten Fläche der Tabelle 2.12.
101
769
120046
1125
6,81
0,04
4,17
1. Peak
2. Peak
3. Peak
Abw. 1 [%]
Abw. 2 [%]
Abw. 3 [%]
9,17
0,05
7,92
1179
120061
777
Eich1_2
3,98
0,06
6,81
1123
120068
769
Eich1_3
–0,65
–0,74
0,06
–1,39
1072
120066
710
Eich1_4
0,65
0,05
–2,36
4,26
0,07
0,56
1126
120083
724
Eich1_5
2,69
0,00
0,42
1109
4,44
0,07
6,67
1128
120082
768
Eich1_6
–1,57
0,05
1,11
1063
0,00
0,07
9,31
1080
120085
787
Eich1_7
–1,67
0,06
–5,14
1062
120073
–2,31
0,06
2,78
1055
120073
740
Eich1_8
4,81
0,01
4,58
1132
120006
2,13
0,06
4,72
1103
120076
754
Eich1_9
–0,93
0,04
0,56
1070
120047
–4,63
0,01
7,22
1030
120012
772
Eich1_10
–1,20
0,07
–2,36
1067
120085
703
0,07%
0,03%
–0,71%
Richtigkeit
2,11%
0,04%
2,05%
0,05%
5,14%
Richtigkeit
3,94%
0,02%
3,27%
Eich1_1
N = 10000
–1,11
4,03 –0,01
1087
120057
724
Präzision
–0,28
Abw. 3 [%]
0,06
–6,39
1073
119998
753
Eich1_10
Chromeleon
–1,53
–0,03
Abw. 1 [%]
Abw. 2 [%]
1068
120061
683
Eich1_9
1077
119988
728
Eich1_8
3. Peak
120069
723
Eich1_7
119961
703
Eich1_6
2. Peak
749
Eich1_5
3,59%
674
Eich1_4
709
Eich1_3
1. Peak
Eich1_2
Präzision
Eich1_1
LCSolutions
N = 10000
Tabelle 2.12 Wie Tabelle 2.11. Die Simulation von Eich1 (S/N = 10) wurde aber verändert, indem die Bodenzahl von 3600 auf 10 000 erhöht wurde. Damit sind die drei Peak-Basislinien getrennt.
102
2 Integrationsfehler und Auswertung
2.4 Anwendungen der Simulation
Der Unterschied zwischen beiden Flächen des ersten Peaks in Abb. 2.20(a) und (b) von immerhin 20% erklärt sich daraus, dass die Basislinie einmal an den oberen Spitzen des Rauschens und einmal an den unteren Spitzen entlang geht, weil als Stützpunkte der Basislinie nur gemessene Datenpunkte genommen werden können. Die bisher bei den Eich-Proben verwendeten Peaks haben ein Tailing und sind leicht verschmolzen. Um beurteilen zu können, ob sich bessere Ergebnisse mit nicht verschmolzenen Peaks (Abb. 2.21 a und b) erzielen lassen, wurde die vorausgesetzte Bodenzahl von 3600 auf 10 000 erhöht, wodurch sich die Peaks um den Faktor 0,6 verschmälern. Wie erwartet, verbessert sich das Ergebnis mit LCSolution deutlich. Chromeleon hat eine bessere Präzision bei 3600 Böden (Tabelle 2.11) als LCSolution, verbessert sich aber nicht mehr (Tabelle 2.12). 2.4.3 Simulation eines isokratischen Chromatogramms
Die Simulation einer 20-minütigen isokratischen (isothermen) Trennung enthält 22 Gauß-Peaks, die eine Bodenzahl von 10 000 haben. Mit einer tDP von 200 ms sind das 6000 Datenpunkte. Der erste Peak hat eine Retentionszeit von 2 min, die Abstände zu den folgenden Peaks sind abwechselnd 0,5 und 1 min. Durch die Peakverbreiterung mit zunehmender Retentionszeit verschmelzen die Peakpaare immer mehr, sind aber vom nächsten Peakpaar immer durch Basislinien getrennt. Nur Peak 21 und 22 haben einen Abstand von jeweils 1,5 min vom vorhergehenden Peak, um zwei freistehende Peaks am Ende des Chromatogramms zu bekommen. Die Peakflächenfaktoren sind abwechselnd 55 000 und 11 000, d. h. die Sollflächen 3 300 000 und 660 000 μV s. Die Zahl der Datenpunkte pro Peak beträgt 36–342, d. h., die Informationsdichte wird höher. Offensichtlich spielt nicht nur S/N eine Rolle, weil für den letzten Peak durch Zusammenfassen von jeweils 10 Datenpunkten (Bunching) eine Verbesserung von S/N möglich wäre. Andererseits haben bei isokratischen Chromatogrammen die vorderen Peaks eine höhere „Integrationsqualität“, weil sie bei gleicher Fläche ein höheres S/N haben. Für Gradienten gilt das nicht. Die Abb. 2.22 zeigt die 11 Peakpaare, von denen die ersten vier Basislinientrennung haben, d. h. ein R von mindestens 1,5. Hier darf die Integration kein Problem machen. Danach kommen drei Peakpaare mit einem R von mindestens eins. Auch bei diesen Peakpaaren sind keine besonders großen Abweichungen zu erwarten. Die nächsten drei Peakpaare sind schon so schlecht (R . 1) getrennt, dass man sie für quantitative Zwecke nur mit großer Vorsicht benutzen sollte. Hier sind große Abweichungen zu erwarten. Als Letztes kommen zwei freistehende Peaks, die zum Vergleich und zur Absicherung dienen sollen, d. h., es sollten fast die Sollwerte herauskommen, allerdings ist ihre Breite fast 10-mal so hoch, wie die eingestellte Width, die sich am ersten Peak orientiert. Bei dem oben gezeigten Chromatogramm (Abb. 2.22) wurde das Rauschen auf 100 μV gesetzt. Damit hat der erste Peak ein S/N von 10 971 und der letzte
103
104
2 Integrationsfehler und Auswertung
Abb. 2.22 Simulation eines isokratischen Chromatogramms mit zunehmendem Verschmelzen der Peaks und einem Rauschen von 100 μV.
Peak von 231. Wenn hier Abweichungen gefunden werden, sind sie nicht auf ein zu kleines S/N, sondern auf das Verschmelzen der Peaks zurückzuführen. Bei Betrachtung der Tabelle 2.13 ist zu erkennen, dass Abweichungen über 1% erst bei den Peakpaaren 8–10 auftreten. Allerdings kann man mit nicht optimierten Integrationsparametern erheblich schlechtere Ergebnisse erreichen, wie der Vergleich von Chromeleon 1 und 2 zeigt. Die Differenzen erklären sich im Wesentlichen dadurch, dass bei Chromeleon 1 der kleinere Peak im zweiten Teil des Chromatogramms mit der Tangentenmethode integriert wurde. Dadurch wurde die Fläche des kleinen Peaks erheblich zu niedrig und die Fläche des großen Peaks zu hoch berechnet. Die freistehenden Peaks am Anfang sind tendenziell richtiger integriert als am Ende des Chromatogramms. Vermutlich sind die CDS auf eine Zahl von ungefähr 20 Punkten über den Peak eingestellt. Es wurden auch die Flächen aller Peakpaare zusammengefasst (Tabelle nicht gezeigt, aber auf CD vorhanden) und in allen Fällen Abweichungen von weniger als 1% gefunden. Das bedeutet, dass die in der Tabelle 2.13 gezeigten Abweichungen aus einer unzureichenden Flächentrennung der Peakpaare resultieren. Sehr auffällig sind die erheblich besseren Werte für die Höhe. Es ergeben sich wesentlich geringere Abweichungen vom Sollwert. Erhöht man bei demselben Chromatogramm das Rauschen auf 10 000 (Isokrat10000.cdf auf der CD), dann hat der erste Peak ein S/N von 110 und der letzte Peak von 2,3. Außerdem wurde eine Drift eingegeben, beginnend mit –10 000 μV und pro Minute mit 2000 μV ansteigend. Das sind harte Anforderungen an das Integrationssystem, der jeweils kleinere Peak liegt mit dem S/N
2.4 Anwendungen der Simulation Tabelle 2.13 Prozentuale Abweichungen der Flächen und Höhen vom richtigen Wert mit fünf Integrationsmöglichkeiten. LCSolutions
Apex
Chromeleon 1
Chromeleon 2
EZChrom
Abweichungen
Abweichungen
Abweichungen
Abweichungen
Abweichungen
Fläche [%]
Höhe [%]
Fläche [%]
Höhe [%]
Fläche [%]
Höhe [%]
Fläche [%]
Höhe [%]
Fläche [%]
Höhe [%]
0,00
–0,92
–0,11
–0,06
0,02
0,01
0,00
0,00
0,02
0,00
0,03
–0,57
–0,16
–0,04
0,13
0,05
0,00
0,02
0,10
0,04
0,03
–0,30
–0,12
–0,04
0,04
0,00
0,01
0,00
0,03
0,00
0,08
–0,21
–0,01
0,00
0,26
0,05
0,02
0,01
0,19
0,05
0,00
–0,15
–0,16
–0,06
0,04
0,01
0,01
0,01
0,04
0,00
0,07
–0,07
0,00
0,04
0,17
0,10
–0,06
0,04
0,25
0,11
0,03
–0,09
–0,20
–0,07
0,24
0,02
0,00
0,00
0,02
0,00
0,04
–0,56
–0,57
–0,20
–0,66
–0,21
–0,08
0,00
0,13
0,07
0,08
–0,44
–0,01
–0,02
1,29
0,01
0,00
–0,02
0,08
0,02
–0,13
–0,36
–0,51
–0,18
–5,73
–2,47
–0,13
0,02
0,17
0,09
0,34
–0,31
0,14
0,00
3,80
0,01
0,20
–0,01
0,21
0,01
–1,43
–0,25
–0,78
0,03
–18,50
–9,57
–0,94
0,07
–0,64
0,09
0,89
–0,22
0,36
–0,02
7,25
0,04
0,41
0,01
0,38
–0,02
–4,22
–0,11
–2,15
–0,01
–35,71
–22,18
–2,19
0,00
–2,11
0,08
1,69
–0,17
0,93
–0,02
11,01
0,05
0,98
0,01
1,02
0,01
–8,29
–0,01
–5,97
–0,26
–54,45
–38,47
–5,23
0,18
–5,05
0,21
2,64
–0,07
1,94
–0,13
14,42
0,08
2,34
0,04
2,41
0,06
–12,95
0,72
–14,56
–0,50
–71,62
–57,65
–12,15
0,97
–11,82
1,04
5,60
0,05
3,71
–0,08
20,15
0,17
4,11
0,12
4,68
0,17
–27,83
3,46
–22,67
2,82
–100
–100
–21,01
3,50
–23,18
3,74
0,03
–0,58
–0,44
–0,18
0,16
0,05
–0,11
–0,02
–0,05
–0,04
0,11
–0,13
–2,24
–0,76
0,35
0,19
–0,79
–0,20
–0,66
–0,05
105
106
2 Integrationsfehler und Auswertung Tabelle 2.14 Prozentuale Abweichungen der Flächen und Höhen vom richtigen Wert mit sechs Integrationsmöglichkeiten. Labsolution
Apex
Apex 29
Chromeleon 1 Chromeleon 2
EZChrom
Abweichungen Abweichungen Abweichungen Abweichungen Abweichungen Abweichungen Fläche Höhe Fläche Höhe Fläche Höhe Fläche Höhe Fläche Höhe Fläche Höhe [%] [%] [%] [%] [%] [%] [%] [%] [%] [%] [%] [%] 0,55
–0,74
0,55
0,18
0,05
–0,98
3,06
0,30
3,14
0,30
3,35
0,33
3,90
1,49
7,07
2,76
3,14
0,62
16,16
2,67
17,94
2,78
19,29
4,68
0,67
–0,13
0,81
0,31
0,20
0,01
7,88
0,70
8,29
0,74
3,90
1,21
3,93
0,72
3,89
2,37
3,05
1,31
23,55
5,25
25,06
5,53
17,24
8,23
1,14
–0,43
–0,26
0,73
–0,29
0,50
3,18
1,91
9,29
2,08
10,55
2,00
5,10
0,80
–1,62
1,35
0,56
0,13
11,84
8,61
22,10
10,07
19,99
10,47
1,31
–0,71
–0,90
0,04
–0,24
–0,40
4,56
1,79
4,89
1,89
4,61
1,97
–2,65 –26,71
–7,73
–3,03
–2,25
17,15
11,67
23,41
12,95
19,59
13,07
–2,13 2,40
0,02
0,06
0,10
–1,60
–0,59
5,54
3,11
9,07
3,20
6,07
2,66
6,87
1,40
2,19
–2,51
–8,83
–3,50
24,38
16,55
25,31
16,92
24,72
18,34
3,17
–0,12
–2,57
–0,43
–1,04
–0,53
5,92
3,39
6,87
3,56
8,47
3,96
4,71
2,94
–9,04
7,45
–6,05
1,35
19,91
20,25
22,95
21,67
21,83
21,79
3,72
–0,55
–5,52
–1,29
–7,36
–2,86
17,86
3,54
9,58
3,83
9,41
4,68
5,35 –46,23 –21,10 –50,24 –26,66 –32,39
–7,44
23,89
24,62
18,46
24,21
4,95
7,54
4,92
8,36
5,35
15,72 –45,78 –15,97
21,13
27,86
24,36
26,40
4,91
10,47
4,88
9,19
5,26
15,81 –75,95 –43,87
4,20
30,68
20,87
28,71
33,81
5,80
12,31
6,51
6,27 –100,00 –100,00 –100,00 –100,00
1,88
37,57
1,61
1,62
14,03
7,16
13,94
7,14
9,75
6,78
19,86 –11,53
–2,90
31,90
35,39
57,58
39,44
47,34
41,09
1,45 3,86
–0,33
6,10
3,59
3,92
–3,22
7,84
6,10
20,55
5,58
2,78
–1,02
9,32
4,05
4,87
–1,52
4,95
9,78
19,51
11,85
20,89
–0,05
5,83
5,09
5,97
–100,00 –100,00
–4,59
–0,03
–1,05
4,41
–0,01
–5,97
6,62
24,17 –33,72 5,95
1,48
1,41
1,05
21,87
28,46
33,92
5,83
2.4 Anwendungen der Simulation
unterhalb der Bestimmungsgrenze – ausgenommen bei beiden ersten Peakpaaren. Das Ergebnis in der Tabelle 2.14 ist dementsprechend erheblich schlechter als bei dem 100-mal geringeren Rauschen, weil sich hier die Fehler durch die Verschmelzung von Peaks und die Fehler durch zu kleines S/N überlagern. In jeder zweiten Zeile ist die Summe der beiden Flächen des jeweiligen Peakpaars gezeigt. Die hier nicht gezeigten Höhen weisen wiederum erheblich geringere Abweichungen auf. Überprüfen Sie entgegen Ihrem bisherigen Vorgehen, ob Ihnen die Peakhöhen eine bessere Auswertung ermöglichen.
Der Vergleich der beiden Chromeleon-Ergebnisse zeigt, dass andere Integrationsbedingungen nicht – wie bei dem 100-fach geringeren Rauschen – zu geringeren Abweichungen führen. Die getesteten Integrationssysteme haben im Endeffekt ein vergleichbares Ergebnis, d. h., auch die freistehenden Peaks haben deutliche Abweichungen vom richtigen Wert. Nach einer Glättung der Daten mit 19 Punkten Moving-Average zeigte Apex-Track eine Verbesserung für die Peakpaarsumme (Daten nicht in der Tabelle 2.14, aber in Isokrat10000-Ergebnis.xls auf der CD), weil das Rauschen wesentlich vermindert war. Die innere Auftrennung der Peakpaare wird davon aber nicht verbessert. Bei den anderen Integrationssystemen wurde nicht getestet, welchen Einfluss ein Smoothing gehabt hätte. Man sieht, dass die Integrationsprobleme durch das Rauschen die Probleme durch die verschmolzenen Peaks stark überlagern. 2.4.4 Simulation eines Gradienten-Chromatogramms
Die Simulation einer Trennung mit Gradienten (Temperaturprogramm) wurde mit Gauß-Peaks gleicher Peakbreite vorgenommen (Gradient100.cdf und Gradient10000.cdf auf der CD). Sie enthält 36 Gauß-Peaks, die eine Standardabweichung der Peaks von 0,05 min haben (Abb. 2.23). Die ungeraden Peaknummern haben die Retentionszeiten 2, 3, 4 bis 19 min und einen Peakflächenfaktor von 60 000 μV min, die geraden Peaknummern haben Retentionszeiten 2,14 + 0 · 0,015 min, 3,14 + 1 · 0,015 min, 4,14 + 2 · 0,015 min bis 19,14 + 17 · 0,015 min und einen Peakflächenfaktor von 20 000 μV min. Dadurch entstehen 18 Peakpaare, die am Anfang stark verschmolzen und dann immer besser getrennt sind. Um einen Gradientenanstieg zu simulieren, wurde ein sehr breiter Peak mit der Retentionszeit 20 min, d. h. nur der Anstieg des Peaks, verwendet. Die Flächen der Peaks sind abwechselnd 3 600 000 und 1 200 000 μV s. Jeder Peak wird von 90 Datenpunkten beschrieben. Der zweite Peak des ersten Peakpaars ist nur eine Schulter, ab dem sechsten Peakpaar übersteigt die Auflösung den Wert eins. Die letzten drei Peakpaare sind durch Basislinien getrennt. Das Rauschen wurde einmal auf 100 μV und einmal auf 10 000 μV gesetzt. Das Signal-Rausch-Verhältnis bei dem starken Rauschen beträgt immer abwechselnd 48 und 16 und ist bei dem geringeren Rauschen jeweils 100-mal so hoch.
107
108
2 Integrationsfehler und Auswertung
Abb. 2.23 Simulation eines Gradienten-Chromatogramms.
Hier liegt das Integrationsproblem in der Verschmelzung der Peaks, nicht im Rauschen oder der Basislinienverschiebung. Mit jeweils einem Tastendruck könnte man in der Chromatogramm-Simulation beide Effekte „abschalten“, um zu prüfen, was dies für die Integration bedeutet. Genauso wie bei den Isokrat-Simulationen ist die Höhenbestimmung erheblich weniger von dem Verschmelzen der Peaks beeinflusst. Zu einer Auswertung über die Peakhöhe können sich viele Erfahrene nur schwer entscheiden, aber der Vorteil der Höhen ist sehr deutlich (vgl. Kipiniak [12]). Versuchen Sie bei Ihrem Problem einen Vorteil der Flächen zu belegen. Dann nehmen Sie natürlich die Flächen, andernfalls nicht. Nimmt einer der beiden Peaks eines Paares dem anderen Fläche weg, dann ist das prozentual ein größerer Wert für den kleineren als für den größeren Peak. Der Prozentwert des zweiten, ein Drittel so großen Peaks, ist in der Tabelle häufig etwa 3-mal so groß, wie der Prozentwert des ersten Peaks. Vergleicht man die Chromatogramme der Abb. 2.24 und 2.25 miteinander, so ist der Effekt des „Smoothing by 29 Points“ sehr beeindruckend. Die Ergebnisse in Tabelle 2.16 für Apex 29 sind im Vergleich zu Apex (ohne Glättung) erheblich besser. Der „Gaussian Skim“ (Abb. 2.25) erweckt die Hoffnung, bei diesem Chromatogramm besonders sinnvoll zu sein, weil es nur aus Gauß-Peaks besteht. Das ist aber nicht der Fall. Die gaußförmige Weiterführung des ersten Peaks benachteiligt den zweiten Peak und das Gesamtergebnis wird schlechter als bei der Lotfällung.
2.4 Anwendungen der Simulation Tabelle 2.15 Prozentuale Abweichungen der Flächen und Höhen vom richtigen Wert mit vier Integrationsmöglichkeiten. Apex 29 Fläche [%]
Chromeleon 1
Höhe [%]
Fläche [%]
Höhe [%]
Chromeleon 2 Fläche [%]
Höhe [%]
LCsolutions Fläche [%]
Höhe [%]
6,75
0,51
33,30
0,64
2,73
0,66
33,20
0,50
–20,46
–1,11
–100,00
–100,00
–8,31
14,91
–100,00
–100,00
4,73
0,11
25,36
0,26
4,71
0,26
5,90
0,10
–14,38
2,59
–76,24
–65,99
–14,29
2,79
–18,06
2,68
2,41
–0,07
21,57
0,08
2,41
0,08
3,36
–0,07
–7,55
0,71
–64,93
–51,38
–7,45
0,87
–10,46
0,74
1,31
–0,14
1,31
0,02
1,33
0,02
1,58
–0,13
–4,30
0,19
–4,17
0,24
–4,16
0,24
–4,95
–0,25
0,95
–0,17
0,98
–0,02
0,98
–0,02
1,52
–0,16
–3,28
–0,17
–3,10
0,08
–3,10
0,08
–4,91
–0,09
0,37
–0,18
0,36
–0,02
0,36
–0,02
0,52
–0,16
–1,54
–0,23
–1,46
–0,13
–1,41
–0,11
–1,82
–0,61
0,24
–0,17
0,23
–0,03
0,22
–0,03
0,59
–0,16
–1,11
–0,24
–1,04
–0,08
–1,07
–0,10
–1,87
–0,16
0,13
–0,17
0,15
–0,02
0,16
–0,02
0,57
–0,14
–0,82
–0,25
–0,72
–0,10
–0,66
–0,08
–1,72
–0,57
0,07
–0,17
0,08
–0,03
0,07
–0,03
0,19
–0,14
–0,57
–0,22
–0,45
–0,03
–0,51
–0,05
–0,45
–0,11
0,02
–0,17
0,05
–0,01
0,01
–0,03
0,20
–0,14
–0,45
–0,24
–0,28
–0,11
–0,39
–0,15
–0,47
–0,54
0,01
–0,16
–2,40
–0,96
–0,01
–0,01
0,21
–0,12
–0,30
–0,21
–6,62
–2,94
–0,15
0,00
–0,33
–0,08
0,03
–0,14
–1,60
–0,61
0,02
0,00
0,09
–0,12
–0,18
–0,19
–4,43
–1,90
–0,10
–0,05
0,07
–0,50
0,04
–0,14
–1,05
–0,39
0,01
0,00
0,15
–0,10
–0,13
–0,17
–2,86
–1,18
0,02
–0,02
0,16
–0,04
0,11
–0,12
–0,68
–0,23
–0,67
–0,23
0,18
–0,09
0,03
–0,11
–1,82
–0,77
–1,81
–0,77
0,29
–0,44
–0,41
–0,29
–0,42
–0,13
–0,43
–0,14
0,20
–0,07
–1,09
–0,54
–1,05
–0,40
–1,07
–0,40
0,89
0,11
–0,24
–0,22
–0,25
–0,08
–0,23
–0,08
–0,21
–0,20
–0,68
–0,38
–0,64
–0,25
–0,64
–0,25
–0,72
–0,83
–0,15
–0,19
–0,11
–0,02
–0,10
–0,02
–0,12
–0,17
–0,37
–0,25
–0,30
–0,08
–0,34
–0,10
–0,50
–0,29
–0,11
–0,18
0,00
0,00
–0,02
–0,01
–0,10
–0,17
–0,21
–0,21
–0,06
–0,06
–0,08
–0,06
–0,32
–0,72
109
Abb. 2.24 Integration von Gradient 10 000 mit Apex.
110
2 Integrationsfehler und Auswertung
Abb. 2.25 Integration von Gradient 10 000 mit Apex nach „Smoothing by 29 Points“.
2.4 Anwendungen der Simulation 111
112
2 Integrationsfehler und Auswertung Tabelle 2.16 Prozentuale Abweichungen der Flächen vom richtigen Wert mit sechs Integrationsmöglichkeiten. Labsolutions [%]
Chromeleon 1 [%]
Chromeleon 2 [%]
Apex [%]
Apex 29 [%]
Apex Gauß [%]
EZChrom [%]
32,10
37,33
7,40
18,68
6,82
12,70
37,71
–100,00
–100,00
–15,79
–48,49
–19,65
–37,27
–100,00
4,18
31,49
6,37
3,18
4,48
6,75
8,93
–13,34
–82,39
–5,04
–10,12
–15,60
–22,42
–8,38
3,75
27,38
5,44
3,79
2,79
6,65
5,93
–9,48
–69,84
–4,13
–5,27
–8,44
–20,00
–4,22
4,09
19,54
5,18
4,83
1,62
4,83
3,77
–10,39
–57,40
–0,69
–3,88
–3,67
–13,32
2,81
3,16
3,57
3,19
0,84
1,84
4,21
3,57
–5,14
5,61
4,58
2,89
–1,80
–8,90
5,61
1,68
3,19
2,46
2,46
0,55
1,91
3,15
–1,84
4,91
5,21
2,71
–1,11
–5,19
4,09
1,48
2,87
2,56
1,78
0,53
1,58
3,51
–3,36
–0,05
4,59
1,54
–1,48
–4,65
4,71
2,39
1,81
2,49
2,49
0,75
1,43
2,93
–0,53
6,39
5,03
5,03
0,88
–1,17
8,27
0,45
3,06
1,56
–0,79
0,48
0,94
3,06
–0,28
6,89
3,87
1,97
0,63
–0,74
6,89
1,26
2,34
2,42
2,66
0,98
0,98
4,09
0,71
6,49
5,53
4,80
0,73
0,73
6,97
0,94
2,27
2,63
0,97
–0,40
–0,40
3,45
0,09
5,59
4,82
2,72
–0,83
–0,83
7,89
–0,65
0,52
2,41
1,77
0,33
0,33
6,23
–4,13
–4,38
7,23
1,51
–1,53
–1,53
7,55
–0,49
1,36
4,66
1,99
0,23
0,23
3,13
–1,79
3,92
9,25
3,98
–0,24
–0,24
7,05
0,27
2,37
2,39
1,06
0,39
0,39
4,14
–3,08
5,21
5,72
2,22
–1,62
–1,62
11,24
–0,38
1,89
2,82
2,12
1,04
1,04
5,68
–3,37
6,13
6,76
5,76
2,59
2,59
13,12 6,50
0,14
2,39
2,78
2,42
0,94
0,94
–0,97
9,14
7,28
5,86
2,01
2,01
9,89
–0,56
2,75
3,06
1,43
–0,26
–0,26
2,65
–0,19
7,47
11,20
6,27
4,28
4,28
6,81
0,23
3,28
4,02
1,43
0,17
0,17
2,47
–0,95
9,30
7,72
–1,77
0,23
0,23
7,55
2.4 Anwendungen der Simulation
Nur mit einer Dekonvolution wäre es denkbar, verschmolzene Peaks auseinander zu rechnen. Kein CDS enthält bisher diese Möglichkeit – wahrscheinlich ist der unabdingbare automatische Ablauf nicht möglich. Einer Bitte an die Firma Statcon, das Chromatogramm, das die Abb. 2.10 zeigt, mit „Peakfit“ in Gaußfunktionen zurückzurechnen, wurde nicht entsprochen. Die Abb. 2.25 zeigt, dass selbst in einem realen Gradientenchromatogramm die Peakbreite um den Faktor zwei variieren kann. Tailing ist sicherlich schwierig zu erfassen. Vermutlich verhindern beide Effekte den Einsatz der Dekonvolution in der Routineanalytik. 2.4.5 Nebenproduktanalyse
Bei der Nebenproduktanalyse hat man im Allgemeinen einen sehr großen Peak und mehrere sehr viel kleinere Peaks. Die kleinen Peaks nach dem Hauptproduktpeak liegen möglicherweise auf dem Tailing dieses Peaks, wie man es erst bei z. B. 100-facher Verstärkung sieht. Deshalb kommt für die richtige Integration einer realistischen Simulation des Hauptpeaks mit genauer Nachbildung des Tailing wesentliche Bedeutung zu. Das Tailing der Nebenproduktpeaks hat dagegen viel weniger Bedeutung. Bei der Methodenentwicklung strebt man im Allgemeinen ein Chromatogramm an, bei dem alle Peaks basisliniengetrennt sind. Das wird durch eine Auflösung R von 1,5 verifiziert. Leider entspricht ein Wert von 1,5 nur bei etwa gleichgroßen Peaks gerade einer Basislinientrennung. Für Peaks mit großen Konzentrationsunterschieden von 100 oder 1000 ist R wenig aussagefähig, weil der Fuß des größeren Peaks den kleineren Peak überdeckt. Eine viel einfachere und aus dem Chromatogramm direkt ableitbare Forderung wäre, dass das Tal zwischen zwei Peaks mindestens eine Höhe von 55% von der Höhe des kleineren Peaks erreichen muss, um genügend reproduzierbar quantifiziert zu werden. Das entspricht bei gleichgroßen Peaks einem R von eins, ist aber auch bei sehr verschiedenen Peakhöhen verwendbar. Damit könnte auch jedem Peak ein Asymmetriefaktor Af50% = b50%/a50% zugeordnet werden. Der Asymmetriefaktor in 5% oder 10% der Höhe ist zwar genauer, aber bei verschmolzenen Peaks oft nicht mehr messbar. Man könnte Af50% generell mit im Report ausgeben. Wenn bei allen Peaks die entsprechenden Werte angezeigt werden, ist auch oben genannte Forderung erfüllt. Tailing oberhalb von Af = 1,55 ist mit zwei verschmolzenen Gauß-Peaks nicht mehr zu simulieren. Um eine möglichst realistische Simulation von Peaks mit starkem Tailing durchzuführen, könnte man die EMG-Funktion verwenden. Eine andere geeignete einfache Funktion mit wenigen Parametern wurde von Losef [17] beschrieben: y =
a exp [ −a(x − c )] + exp [b(x − c )]
(2.13)
In Anlehnung an ein konkretes Chromatogramm wird mit den Eingabedaten a = 15, b = 4, c = 1,9304339 und A = 836 530 ein Peak bei 2 min und einer Höhe
113
114
2 Integrationsfehler und Auswertung
Abb. 2.26 Peak nach einem realen Beispiel mit der Funktion von Losef nachsimuliert [17]. Tabelle 2.17 Graphisches Ausmessen der Asymmetriefaktoren und Tailingfaktoren in verschiedener Höhe eines Peaks nach Losef [17]. Peakhöhe [%]
Asymmetriefaktor
Tailingfaktor
0,01
3,30
2,15
0,10
3,15
2,07
1,00
2,88
1,94
5,00
2,67
1,83
10,00
2,53
1,77
von 500 000 μV erzeugt, der ein starkes Tailing mit folgenden Faktoren in verschiedener Peakhöhe hat: Die Funktion von Losef wurde mit den oben genannten Parametern als Hauptproduktpeak verwendet und sechs symmetrische Peaks auf dessen Tailing aufgesetzt. Die Standardabweichung sP der kleinen Peaks wurde von 0,12 min in 0,02er Schritten bis auf 0,28 min erhöht. Die Nebenproduktpeaks haben eine Fläche von 1% oder in einer zweiten Serie von 0,1% von der Fläche des Hauptpeaks. Die Retentionszeit des Hauptpeaks liegt bei 2 min. Die Retentionszeit der Nebenprodukte wurde um jeweils 4 · sP nach hinten geschoben (Schema in Tabelle 2.18), um zwischen den Nebenproduktpeaks jeweils eine Auflösung von eins zu haben. Jeder zweite Peak hat die doppelte Fläche und Höhe. Von den insgesamt 18 Chromatogrammen sind sechs Chromatogramme gezeigt. Die restlichen Chromatogramme befinden sich in der Datei Losef.ppt auf der CD. Damit haben alle sechs Peaks untereinander eine Auflösung von eins, d. h. noch keine Basislinientrennung. Je nach Peakbreite verschwinden mindestens ein, maximal drei Peaks im Hauptpeak. Dieser Effekt ist im 0,1-%-Bereich (Abb. 2.33 bis 2.35) stärker als im 1-%-Bereich (Abb. 2.30 bis 2.32).
2.4 Anwendungen der Simulation Tabelle 2.18 Berechnung der Retentionszeiten von sechs Nebenproduktpeaks, die auf dem Peak von Losef [17] aufgesetzt sind. = 2 + 4 · sP = 2 + 8 · sP = 2 + 12 · sP = 2 + 16 · sP = 2 + 20 · sP = 2 + 24 · sP
Abb. 2.27 Simulation von sechs Nebenproduktpeaks mit sP = 0,12 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.
Die entsprechende Excel-Simulation mit sP = 0,12 min und 1% der Fläche zeigt die Abb. 2.27. Die Sollfläche der Nebenproduktpeaks ist bei den Peaks mit 1% der Fläche vom Hauptpeak abwechselnd 64 800 und 129 600 μV · s und bei 0,1% der Fläche vom Hauptpeak abwechselnd 6480 und 12 960 μV · s. Man erkennt, dass die ersten beiden Peaks von dem Hauptpeak vollständig maskiert werden. Eine Trennung ist nur mit deutlich veränderten chromatographischen Bedingungen möglich. Jede Verringerung des Tailings des Hauptpeaks (evtl. bessere Säule) würde aber bereits die Trennung von den Nebensubstanzen verbessern. Der dritte Peak sitzt als Schulter auf dem Hauptpeak, der ursprüngliche Peak ist stark verfälscht. Die Umhüllung des vierten bis sechsten Peaks zeichnet die wirklichen Peaks fast unverfälscht nach, d. h., sie werden von dem Hauptpeak nicht mehr beeinflusst.
115
116
2 Integrationsfehler und Auswertung
Abb. 2.28 Integration der Simulation der Daten aus Abb. 2.27 mit LCSolution im automatischen Modus.
Abb. 2.29 Integration der Simulation der Daten aus Abb. 2.27 mit LCSolution mit Unterdrückung der Tangentenmethode.
2.4 Anwendungen der Simulation
Die mit einem unterlegten Rauschen von 5 μV simulierten Chromatogramme – um im Wesentlichen nur den Effekt der Peakverschmelzung zu untersuchen – wurden mit LCSolution (Shimadzu) und den Bedingungen Width = 10 und Slope = 200 integriert. Je nach der Qualität des Detektors wird man ein höheres Rauschen als hier (minimales S/N = 70) haben, das die Ergebnisse noch einmal verschlechtert. LCSolution wählte automatisch immer die Tangentenmethode (Abb. 2.28), was optisch durchaus nachvollziehbar, vom Ergebnis her aber ungünstig für die Fläche und Höhe der Aufsetzerpeaks ist. Mit der Eingabe „tangent off“ bei 2,5 min wurde die Lotfällung erzwungen (Abb. 2.29). Der dritte Peak (vgl. Abb. 2.30) ist gerade noch erkennbar, aber nicht mehr abtrennbar. Für den vierten Nebenproduktpeak liegt die richtige Fläche zwischen Abb. 2.28 und 2.29, aber näher an Abb. 2.29. Für die nachfolgenden Peaks verliert die Tangentenmethode sichtlich zu viel Fläche. Tabelle 2.19 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 1-%-Bereich zu Abb. 2.30. Tangente Fläche [%]
Lotfällung Höhe [%]
Fläche [%]
Höhe [%]
–63,16
–45,82
10,08
11,03
–28,39
–16,95
2,37
0,32
–34,52
–22,76
–2,41
0,12
–10,22
–5,68
0,26
–0,07
Abb. 2.30 Simulation von sechs Nebenproduktpeaks mit sp = 0,16 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 1080 μV min oder 2160 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.
117
118
2 Integrationsfehler und Auswertung
Es gibt keine Untersuchungen darüber, wie das Tailing im Bereich von 0,1 bis 1% eines Peaks richtig abgebildet wird. Geringe Unterschiede in den Anpassungsparametern können möglicherweise im untersten Konzentrationsbereich zu großen Unterschieden im Auslaufen eines großen Peaks führen. Es ist vorstellbar, dass der exponentielle Abfall in der EMG-Funktion in der Realität eine Überlagerung mehrerer e-Funktionen mit verschiedenen Zeitkonstanten ist. Dolan [4, 5] postuliert ein „exaggerated tail“ von Peaks, das man nur bei sehr großer Verstärkung erkennen kann, ohne dass er einen experimentellen Beleg dazu gibt. Alle für die Integration ungünstigen Effekte, die hier zusammenkommen, wie Verschmelzen von Peaks, sehr große Konzentrationsunterschiede und geringes Signal-Rausch-Verhältnis, machen sich bevorzugt am Peakfuß bemerkbar. Deshalb wird normalerweise die Fläche deutlich mehr verfälscht als die Höhe. Tabelle 2.20 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 1-%-Bereich zu Abb. 2.31. Tangente Fläche [%] –71,64 –56,80 –26,00 –30,72 –8,63
Lotfällung Höhe [%] –60,36 –39,10 –15,22 –20,11 –4,77
Fläche [%]
Höhe [%]
19,81 0,30 1,52 –3,31 0,33
26,68 1,98 0,06 –0,06 0,01
Abb. 2.31 Simulation von sechs Nebenproduktpeaks mit sp = 0,2 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 1080 μV min oder 2160 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.
2.4 Anwendungen der Simulation
Die hier dargestellte Simulation geht von einer geraden Basislinie aus. Bei jeder Integration nimmt das CDS zu Recht ebenfalls eine gerade Basislinie an, falls nichts dagegen spricht. Das CDS kann aber nur vorhandene Datenpunkte verwenden. Wir haben oft Zusatzinformationen, wie einen Leergradienten oder eine Leerprobe, aus denen wir den wahrscheinlichen Basislinienverlauf abschätzen können. Wenn diese Information vorhanden ist, muss sie in der Simulation berücksichtigt werden. Reale Chromatogramme können sehr komplex sein und es gibt Grenzfälle, in denen eine Entscheidung zwischen Tangentenmethode und Lotfällung schwer fällt. In Einzelfällen kann die Exponential- oder GaussianSkim-Methode zu einer guten Annäherung an die Realität führen. Als generell empfehlenswerte Integrationsverfahren sind die Skim-Methoden nicht geeignet (vgl. [2]). Tabelle 2.21 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 1-%-Bereich zu Abb. 2.32. Tangente Fläche [%] –45,64 –50,57 –21,34 –26,39 –6,90
Lotfällung Höhe [%] –30,14 –33,91 –12,76 –16,56 –4,08
Fläche [%]
Höhe [%]
5,60 –2,94 1,20 –3,07 0,64
2,68 0,14 –0,08 0,08 –0,08
Abb. 2.32 Simulation von sechs Nebenproduktpeaks mit sp = 0,28 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 1080 μV min oder 2160 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.
119
120
2 Integrationsfehler und Auswertung
Gegenüber den Abb. 2.30 bis 2.32 wurde in den Abb. 2.33 bis 2.35 noch 10-mal höher verstärkt. Dadurch wird der Peakfuß optisch noch einmal breiter und maskiert die Serie von jeweils sechs Peaks noch mehr. Erst der vierte Peak bildet eine Schulter aus. Die Forderung, noch Nebensubstanzen von 0,05% der Hauptsubstanz nachzuweisen, schöpft die analytischen Möglichkeiten weitgehend aus. Wenn der Hauptpeak maximal 2 V Peakhöhe haben darf, dann hat ein 0,05%iger Nebenpeak eine Höhe von 1 mV. Um ein minimales S/N von 10 zu haben, darf das Rauschen höchstens 100 μV betragen. Das ist nicht in jedem Fall erreichbar.
Tabelle 2.22 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 0,1-%-Bereich zu Abb. 2.33. Tangente
Lotfällung
Fläche [%]
Höhe [%]
Fläche [%]
Höhe [%]
–60,42
–46,80
52,72
41,76
–58,29
–40,95
12,38
11,41
–20,86
–11,43
0,65
0,54
Abb. 2.33 Simulation von sechs Nebenproduktpeaks mit sp = 0,12 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 108 μV min oder 216 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.
2.4 Anwendungen der Simulation
Bei den „Nebenprodukten“ im Promille-Bereich ist der Peakfuß des Hauptpeaks scheinbar breiter, weil man das Chromatogramm noch einmal um den Faktor 10 verstärken muss, um die kleinen Peaks darzustellen. Das hat zur Folge, dass sich ein zusätzlicher Peak mehr im Peakfuß quasi „verstecken“ kann. Diese möglicherweise „versteckten“ Nebenprodukte sind unsichtbar, aber vielleicht biologisch aktiv. Substanzen, die dem Hauptprodukt chemisch sehr ähnlich sind, haben vermutlich auch wenig abweichende Retentionszeiten. Nach einem Vorschlag von Dolan [4, 5] sollte man daran denken, das Tailing des Hauptpeaks aufzufangen und erneut mit möglichst stark verminderter Menge der Hauptsubstanz einzuspritzen.
Tabelle 2.23 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 0,1-%-Bereich zu Abb. 2.34. Tangente
Lotfällung
Fläche [%]
Höhe [%]
Fläche [%]
Höhe [%]
–74,49
–59,15
11,23
20,23
–29,53
–16,91
2,11
–0,20
–37,35
–23,41
–6,37
–2,06
–10,68
–5,77
–2,65
–0,66
Abb. 2.34 Simulation von sechs Nebenproduktpeaks mit sp = 0,2 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 108 μV min oder 216 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.
121
122
2 Integrationsfehler und Auswertung
Generell wird die Fläche nach der Tangentenmethode stark unterschätzt, wie es für die Nebenproduktanalyse zwar wünschenswert sein kann, aber meist falsch ist. Nach der Lotfällung wird die Fläche zu hoch eingeschätzt, aber in erheblich geringerem Ausmaß. Bei der Lotfällung sind die Abweichungen der integrierten Fläche für den ersten Aufsetzerpeak noch beträchtlich, für alle weiteren Peaks aber gering. Bis auf ganz wenige Ausnahmen hat die Peakhöhe geringerere Abweichungen vom Sollwert. Dagegen sind die Flächen und Höhen aller Aufsetzerpeaks nach der Tangentenmethode zu klein. Sicherlich würde meistens der erste Peak mit der Exponential- oder Gaussian-Skim-Methode besser als mit der Drop-Methode (Lotfällung) integriert, alle Tabelle 2.24 Die Tabelle zeigt die prozentualen Abweichungen vom richtigen Wert mit der Tangentenmethode und der Lotfällung für die Nebenproduktpeaks im 0,1-%-Bereich zu Abb. 2.35. Tangente Fläche [%]
Lotfällung Höhe [%]
Fläche [%]
Höhe [%]
–53,64
–35,01
–6,23
0,08
–23,66
–13,57
1,20
–0,57
–29,29
–18,77
–8,10
–1,87
–7,93
–4,47
0,02
–0,25
Abb. 2.35 Simulation von sechs Nebenproduktpeaks mit sp = 0,28 min, die mit einer Retentionszeitverzögerung nach Tabelle 2.18 und PFF = 108 μV min oder 216 μV min nach dem Peak von Losef [17] bei 2 min aufgesetzt sind.
2.4 Anwendungen der Simulation
folgenden Peaks aber nicht. Ob die Überschätzung des ersten Peaks akzeptabel ist, kann man nur im Einzelfall entscheiden. Die oben genannten Skim-Verfahren machen insbesondere Sinn, wenn nur ein Nebenproduktpeak nach dem Hauptpeak kommt bzw. wenn die weiteren Peaks mit so erheblichem Abstand folgen, dass sie basisliniengetrennt sind. Nur wenn die Aufsetzerpeaks atypisch schmal sind, reicht der Einfluss des Tailings vom Hauptpeak bis zum zweiten Aufsetzerpeak. Unter diesen sehr speziellen Umständen und bei nur einem Aufsetzerpeak würde das Auslaufen des Hauptpeaks bei der Drop-Methode zur Fläche des Aufsetzerpeaks hinzugezählt und es ist wahrscheinlich, dass die Tangentenmethode günstiger wäre. 2.4.6 Eigene Chromatogramme simulieren
Der Minimalreport jedes Integrators enthält die Retentionszeit, Fläche und Höhe der Peaks. Mehr ist nicht notwendig, um symmetrische Peaks nachzukonstruieren. Die Standardabweichung der Peaks errechnet sich aus dem Verhältnis Fläche zu Höhe: sP =
A 60 ⋅ H ⋅ 2 S
(2.14)
Teilt man die Fläche durch 60, hat man den Peakflächenfaktor und mit der Retentionszeit alle drei Größen, die einen Gauß-Peak bestimmen. Mit der Chromatogramm-Simulation ist es möglich, auf das im Abschn. 2.2.3 beschriebene Problem zurückzukommen. Es konnte dort nicht entschieden werden, welche von fünf Integrationen der Realität am nächsten kommt. Es konnten fünf etwas unterschiedliche, aber dem Original-Chromatogramm ähnliche Chromatogramme nachsimuliert werden. Um möglichst viele Peaks zu erfassen, wurde überall da, wo die Peakhöhe ein S/N von 10 überschreitet, der Mittelwert der Fläche und der Höhe gebildet. Wenn nur eine Fläche und Höhe vorhanden war, wurde diese genommen. Die Peaksimulation kann vorhandenen Peaks nicht nachträglich eine Fläche zuordnen. Aber man kann ein Chromatogramm nachsimulieren, das dem gemessenen Chromatogramm weitgehend ähnlich ist. Bei diesem simulierten Chromatogramm sind die Flächen und Höhen bekannt und die Abweichungen von dem Sollwert können mit den verschiedenen CDS ermittelt werden. Dadurch kann die Integration im Rahmen der Möglichkeiten der CDS optimiert werden. Das Rauschen wurde auf 20 μV gesetzt. Das ist ein graphisch abgelesener Wert aus dem Original-Chromatogramm bei hoher Verstärkung. Die deutlich vorhandene Drift wird genauso mit den dem Original-Chromatogramm entnommenen Werten modelliert: Die Drift hat bis zur dritten Minute eine Steigung von –200 μV/min, bis zur neunten Minute eine Steigung von –500 μV/min und danach von –30 μV/min. Diese Annahme entspricht der Realität weitgehend, aber nicht vollkommen.
123
124
2 Integrationsfehler und Auswertung
Die nachfolgende Integration des simulierten Chromatogramms erlaubt den Vergleich der simulierten Flächen (die aus dem Original-Chromatogramm resultieren) mit den integrierten Flächen. Eine Korrektur der Flächen des OriginalChromatogramms ist aber nicht möglich. Durch zielgerichtete Optimierung der Integrationsparameter werden spätere reale Chromatogramme besser integriert. Die Chromatogramm-Simulation erlaubt eine Fehleranalyse an nachsimulierten realen Chromatogrammen und eine Verbesserung der Integration innerhalb der Möglichkeiten, die die CDS bieten. Der früher erwähnte Präzisionsschütze kann ebenfalls seine frühere Leistung nicht nachträglich verbessern, aber er kann für die Zukunft lernen und tatsächlich besser werden. Das Ergebnis der Nachsimulation mit der zugrunde gelegten Basislinie zeigt die Abb. 2.36. Abgesehen von den ersten beiden Peaks sieht die Nachsimulation dem Original-Chromatogramm recht ähnlich, obwohl hier nur innerhalb von Excel kopiert werden musste, was wenige Minuten dauert. Bei sehr komplexen Chromatogrammen, bei denen es bei der Integration vielleicht darauf ankommt, ob ein Talpunkt geringfügig höher oder tiefer liegt als ein anderer, kann die Nachsimulation aber auch sehr zeitaufwendig sein. Die drei großen Peaks werden erwartungsgemäß mit genügender Genauigkeit integriert. Die ausschließlich negativen Abweichungen im Zeitbereich von 1 bis 2,5 min sind durch eine etwas zu hohe Basislinie zu erklären, die bei kleinen Peaks zu beachtlichen Fehlern führt. Diese Fehler wird man bei manueller Inte-
Abb. 2.36 Nachsimulation des realen Chromatogramms in Abb. 2.6 mit Gauß-Peaks mit den gemittelten Daten aus Tabelle 2.3. Die simulierte Basislinie ist mit eingezeichnet.
2.4 Anwendungen der Simulation
gration vermutlich genauso machen. Die Tangentenmethode würde den Fehler noch einmal beträchtlich erhöhen, weil dadurch noch einmal deutlich kleinere Flächen herauskommen würden. Natürlich kennt man die exakte Lage der Basislinie (vgl. Abb. 2.36) nur bei einer Simulation. Je mehr Peaks in einem Chromatogrammabschnitt verschmolzen sind und je stärker sie verschmolzen sind, desto schwieriger ist es, den realen Basislinienverlauf nachzuvollziehen. Deshalb ist es wichtig, den Leergradienten und alle gleichartigen Chromatogramme anzusehen. Die Basislinie kann immer tiefer, aber nie höher liegen als die Verbindungslinie der tiefen Talpunkte, außer bei Matrixeffekten.
Die integrierten Flächen zwischen 2,5 und 3,5 min sind wesentlich zu hoch, weil die Schultern mit integriert worden sind. Die CDS unterscheiden sich in ihrer Fähigkeit, Schultern zu erkennen. Häufig wird man auf manuelle Nachintegration angewiesen sein. Die Peakhöhen werden von den Schultern fast nicht beeinflusst.
Abb. 2.37 Integration des Chromatogramms aus Abb. 2.36. Die Integration erfolgte mit LCSolution und den Einstellungen Width = 10 s und Slope = 200 μV/min.
125
126
2 Integrationsfehler und Auswertung Tabelle 2.25 Die Flächen und Höhen der in Abb. 2.37 gezeigten Integration wurden mit den Sollwerten der Simulation verglichen und die Abweichungen berechnet. Vier Peaks wurden nicht erkannt. RT gem.
Sollfläche
Fläche int.
Abw. [%]
Sollhöhe
Höhe int.
0,725
4327431
1,005
4327375
0,00
1029879
1029851
0,00
117469
115936
–1,30
15483
15381
–0,66
1,276
11720
10433
–10,98
1923
1821
–5,29
1,394
13608
13393
–1,58
2509
2411
–3,91
1,575
69813
67770
–2,93
9705
9561
–1,48
1,774
7758
5383
–30,61
1144
965
–15,65
2,005
60974
58659
–3,80
9601
9409
–2,00
2,225
17364
16354
–5,82
3212
3123
–2,77
898
280
22789
3024
Abw. [%]
2,63
25910
49676
91,73
4183
4327
3,44
2,867
66558
82899
24,55
8017
8009
–0,10
15981
3529
3,655
8255658
8260362
0,06
641514
641014
–0,08
4,185
80821
87470
8,23
4374
4361
–0,29
12211
1617
4,791
4702
4441
–5,55
611
594
–2,70
5,483
22264
22088
–0,79
2422
2392
–1,24
6,763
3200
2064
–35,51
203
155
–23,65
7,473
11789
4078
–65,41
424
229
–45,99
7,973
13740
9157
–33,36
790
612
–22,56
9,735
10644186
10767287
1,16
573167
572475
–0,12
123204
10311
12,724
1626
1825
12,24
120
130
8,33
13,706
10582
10851
2,55
532
544
2,19
14,371
27034
27144
–9,36
1281
1288
0,59
2.4 Anwendungen der Simulation
Die beiden Peaks bei 7,5 und 8 min wurden (automatisch) nach der Valley-toValley-Methode integriert. Deswegen sind sowohl die Flächen als auch die Höhen stark erniedrigt. Die Integration eines Chromatogramms mit verschmolzenen kleinen Peaks ist meist schwierig. Weil die automatische Integration zu schlechte Ergebnisse liefert, werden solche Chromatogramme häufig manuell nachintegriert. Die beiden Funktionen „Tangent Skim“ und „Valley to Valley“ sind nur in wenigen Fällen nützlich, die mit der Chromatogramm-Simulation zu finden sind. Diese Funktionen sollten bei den CDS normalerweise ausgeschaltet sein, um sie nur bei Bedarf zu verwenden. Je komplizierter die Basislinie verläuft und je mehr verschmolzene Peakgruppen vorhanden sind, desto höheren Stellenwert hat die richtige Erfassung der Basislinie. Zur manuellen Integration siehe auch Abschn. 2.4. Eine bisher in den CDS nicht vorhandene Integrationsfunktion könnte hilfreich sein (Kilz, 2006, persönliche Mitteilung), die eine geglättete vorläufige Basislinie einzeichnet, die man graphisch anheben und absenken könnte, ähnlich wie es Zeichenprogramme erlauben. Die korrigierte Basislinie würde von den Original-Daten abgezogen, um dann mit einer geraden Basislinie bestmöglich zu integrieren. Bei den sehr einfachen Beispielen im Abschn. 2.3.5 „Drift“ würde dieses Verfahren sehr wirksam sein. 2.4.7 Welche Konsequenz ist daraus zu ziehen?
Bei guten Chromatogrammen (vgl. Abb. 2.3) ist die Integration völlig problemlos und der Integrationsfehler minimal. Leider sind reale Chromatogramme meist erheblich komplizierter. Wenn manche Peaks eines Chromatogramms miteinander verschmolzen sind, wird meist mit der Lotfällung integriert. Das gibt nur dann vollkommen richtige Ergebnisse, wenn die Peaks gleich groß und symmetrisch sind. Je mehr die Peaks verschmolzen sind, je stärker das Tailing ist und je unterschiedlicher die beiden Peakhöhen sind, desto schlechter werden die Ergebnisse. Dabei kann der Integrationsfehler größer als 50% sein. Die Tangentenmethode liefert fast immer schlechtere Ergebnisse als die Lotfällung. Die Peakhöhe zeigt fast immer geringere Abweichungen vom Sollwert als die Peakfläche. Mit der hier vorgestellten Chromatogramm-Simulation in Excel ist es erstmals jedem Anwender möglich, die Fläche der Peaks (bei Gauß-Peaks auch die Höhe) beliebig zu justieren und zu einem realistischen Chromatogramm zusammenzusetzen. Durch Einlesen eines Excel- oder Textfiles oder eines AIA-Files in das jeweils verwendete Integrationssystem kann die Richtigkeit der Integration überprüft werden. Damit ist auch erstmals eine wirkliche Validierung der Integrationsfunktion von CDS möglich. In Ermangelung der Zielgröße „richtige Fläche“ konnte bisher nur die Präzision überprüft werden, was nur für prinzipiell richtige Werte Sinn macht. Wenn möglich sollten Peaks immer ein Signal-Rausch-Verhältnis über 100 haben. Nur wenn das Rauschen weniger als 1% des Signals beträgt, liegt der In-
127
128
2 Integrationsfehler und Auswertung
tegrationsfehler für die Fläche unter 1%. Bei Nebenproduktanalysen, bei denen Substanzen bis zu 0,05% vom Hauptprodukt quantifiziert werden müssen, muss bis an die Bestimmungsgrenze mit S/N = 10 heran gemessen werden. Das ist selbst bei basisliniengetrennten Peaks nur mit einem beträchtlichen Integrationsfehler möglich. Wenn Sie Ihre Routineproben in den Autosampler gestellt und von jeder Probe ein Chromatogramm erhalten haben, fängt die Arbeit wieder neu an: Sie müssen Ihren Computer kontrollieren, nicht umgekehrt. Vergessen Sie bei den vielen beeindruckenden Steuerfunktionen Ihres Integrationssystems nicht, dass die Integration das gewünschte Ergebnis liefert. Hier ist ein Weg aufgezeigt, wie vorhandene oder geplante Systeme mit simulierten Chromatogrammen, die selbst gemessenen Chromatogrammen möglichst ähnlich sind, auf Richtigkeit überprüft werden können. Ein CDS, das für einen Anwender optimal erscheint, muss für einen Anwender mit anderen Problemen nicht das Beste sein. Zusätzlich ist die Entscheidung für ein CDS von vielen Gesichtspunkten getragen, die nur individuell zu beurteilen sind. Die Grundfunktion der CDS ist trotzdem die Integration. Wenn die Integration unzureichend sein sollte, werden auch die vielfältigen Möglichkeiten der Gerätesteuerung weitgehend entwertet. Die CDS reagieren verschieden auf die bei einem komplexen Chromatogramm letztlich unzureichende Zahl von 20 Datenpunkten, mit denen ein Peak beschrieben wird. Dadurch, dass die richtigen Flächen mit der Chromatogramm-Simulation bekannt sind, kann die Reaktion der CDS auf Änderungen der Integrationsparameter oder der tDP nicht mehr nur nach der Plausibilität untersucht werden und die Integration optimiert werden. Es ist vorstellbar, dass nicht nur Anwender mit der nunmehr bekannten Zielgröße „richtige Fläche“ ihr Integrationssystem optimieren, sondern dass die CDS selbst sich eines Tages automatisch optimieren und als selbstlernende Systeme funktionieren.
2.5 Auswertung
In der Chromatographie erwartet man in 99% der Fälle einen linearen Zusammenhang zwischen der Konzentration x und dem Signal y. Unter der Voraussetzung der Linearität ist ein Kalibrierpunkt bei nicht zu kleiner Konzentration ausreichend, um die Steigung b einer Geraden y = b · x zu berechnen, weil der zweite Punkt, durch den die Gerade geht, der Nullpunkt ist. Auch für mehrere Kalibrierpunkte lässt sich eine Nullpunktsgerade anpassen. Die allgemeine Art, einen linearen Zusammenhang zu finden, ist die lineare Regression mit Achsenabschnitt. Für eine Validierung wird grundsätzlich eine Kalibriergerade bestimmt. In der täglichen Routine beschränkt man sich dagegen oft auf eine Einpunktkalibierung.
2.5 Auswertung
2.5.1 Auswertemethoden
Die Minimalform der Kalibrierung ist die Einpunktkalibrierung. Man berechnet als Responsefaktor RF den Quotienten aus dem Signalwert y und der Konzentration x und nimmt an, dass diese Beziehung für die Kalibrierkonzentration xK und alle Analysenkonzentrationen xA gilt. RF =
yK xK
(2.15)
RF =
yA xA
(2.16)
Da xA die Zielgröße ist, muss nach xA aufgelöst werden. xA =
yA y ⋅x = A K RF yK
(2.17)
In diesen Gleichungen kann der Messwert y die Fläche oder die Höhe sein, aber auch der Quotient der Fläche (Höhe) geteilt durch die Fläche (Höhe) des internen Standards IS in demselben Chromatogramm. yK = FK
(2.18)
y K = HK
(2.19)
yK =
FK FISK
(2.20)
yK =
HK HISK
(2.21)
Selbstverständlich kann man eine Gesamtgleichung für den internen Standard erstellen, in der verschiedene Einwaagen vorgesehen sind, verschiedene extrahierte Volumina und verschiedene Injektionsvolumina (eigentlich verboten). Diese drei Größen sind jeweils nur ein Korrekturfaktor für die resultierende Konzentration, der sich aus dem Quotienten, normalerweise benutztes Volumen (Einwaage) durch aktuell benutztes Volumen (Einwaage), ergibt. Extrahiert man z. B. statt des üblichen Milliliters nur 0,5 ml, teilt man durch 0,5 und erhält die doppelte Konzentration.Bei der Chromatographie kann man sich entscheiden (bei Messungen mit Untergrundsignal ist es notwendig), eine Gerade mit einem Achsenabschnitt anzupassen. Einerseits ist dann bei chromatographischen Bestimmungen zu fordern, dass sich der Achsenabschnitt a nicht signifikant von null unterscheidet. Ist das der Fall, gibt es aber auch kein statistisches Argument gegen die Nullpunktsgerade.
129
130
2 Integrationsfehler und Auswertung
Löst man die Gleichungen nach xA auf, so ergibt sich: xA =
yA RF
Einpunkteichung
(2.22)
xA =
yA b
Nullpunktsgerade
(2.23)
xA =
yA − a b
Lineare Regression
(2.24)
Mit diesen sehr ähnlichen Gleichungen lassen sich die Analysenwerte berechnen. In der linearen Regression mit Achsenabschnitt gibt es bis auf die meist geringe Korrektur des Signalwertes yA durch a gar keinen Unterschied. Allerdings werden kleine Signalwerte relativ gesehen viel mehr korrigiert als große Werte. Dies wird im nächsten Abschnitt näher beleuchtet.Das Additionsverfahren ist auch eine lineare Regression – natürlich mit Achsenabschnitt, der ja hier die eigentliche Zielvariable ist. Deshalb braucht man mindestens zwei Punkte, um die Gerade anzupassen. Die gesuchte Konzentration der Probe ohne Zusatz ist, wie in der DIN 32 633 beschrieben: a b
(2.25)
a = yA
(2.26)
xA =
b=
yA +Z − yA xZ
(2.27)
Selbstverständlich kann auch bei dem Additionsverfahren ein interner Standard eingesetzt werden. Dabei werden auch hierbei als Messwerte die Fläche (Höhe) des Analysenpeaks in Relation zum internen Standard in demselben Chromatogramm eingesetzt. Als Minimum muss man zwei Analysen durchführen: Einmal ohne Zusatz, einmal mit Zusatz Z. xA =
y A ⋅ xZ yA +Z − yA
(2.28)
Bei mehr als zwei Messpunkten muss eine lineare Regression durchgeführt werden. Dabei ergeben sich a und b direkt aus der Geradengleichung. Eine ausführlichere Beschreibung der Auswertemethoden, bei der in Excel durchgerechnete Beispiele gezeigt werden, findet sich bei Kuss [16].
2.5 Auswertung
2.5.2 Kalibrierung
Zur Kalibrierung sucht man mit der linearen Regression nach der Steigung b (Empfindlichkeit) und dem Achsenabschnitt a (Untergrund) der Geradengleichung. y =b⋅x +a
(2.29)
Dazu braucht man bei Kalibrierproben mit aufsteigenden Konzentrationen die Fläche oder Höhe der entsprechenden Peaks in den einzelnen Chromatogrammen. Die Kalibrierprobe mit der niedrigsten xU und der höchsten Konzentration xO bestimmen den Arbeitsbereich ABx. ABx =
xO xU
(2.30)
2.5.3 Lineare Regression
Das folgende Beispiel von Johnsson et al. [11] umfasst mit Dreifachmessungen zu jeder Konzentration einen Arbeitsbereich von 600, der spezielle Probleme mit sich bringen kann. Hier ist zunächst nur ein Teil der Tabelle, nämlich die unteren sieben Kalibrierpunkte (jeweils der mittlere Wert), gezeigt, die einen Arbeitsbereich vom Faktor 100 umfassen (s. Tabelle 2.26). Die (korrigierten) Signalwerte sind Quotienten aus der Fläche der Analysensubstanz und der entsprechenden Fläche des internen Standards. Die Signalwerte wurden mit 1000 multipliziert, um die Tabelle übersichtlicher zu gestalten. Da immer nur Relativberechnungen durchgeführt werden, kürzt sich das bei der Auswertung weg. Tabelle 2.26 Aus einer Tabelle von Johnsson [11] wurden für die Konzentrationen von 5 bis 500 die mittleren Signalwerte (n = 3) berechnet, außerdem die Werte auf der Geraden y(x), die Residuen y – y(x) und die Quadrate der Residuen. In Tabelle 2.27 sind die vollständigen Daten dargestellt. x
y
5 10 25 50 100 250 500
35 59 143 274 550 1343 2683
134
727
y(x)
y – y(x)
[y – y(x)]2
35,20 61,95 142,18 275,90 543,33 1345,63 2682,81
–0,20 –2,95 0,82 –1,90 6,67 –2,63 0,19
0,04 8,69 0,67 3,59 44,48 6,94 0,04
Mittelwert
SAQ =
64,462
131
132
2 Integrationsfehler und Auswertung
In Excel sind mit <Einfügen> <Steigung> und diese beiden Größen leicht zu bestimmen (b = 5,3486; a = 8,4614), die in Gl. (2.29) eingesetzt werden, um die y(x)-Werte zu berechnen, d. h. die y-Werte auf der Geraden. Die Differenzen zwischen den gemessenen y-Werten und den berechneten y(x)-Werten werden Residuen oder Reste genannt. Die lineare Regression berechnet die Gerade, für die die Summe der Residuen zum Quadrat den kleinstmöglichen Wert (hier: 64,462) ergeben. Jede Abweichung von der Geraden, d. h. jedes Residuum, zieht die Gerade zu sich hin, sogar sehr stark, weil ja die Abweichungsquadrate aufsummiert werden. Wenn im unteren Teil der Gerade nur kleine Abweichungen auftreten, im oberen Teil nur große Abweichungen (inhomogene Varianzen), dann bleiben die unteren Punkte unberücksichtigt, weil sie kein Gewicht haben und die Gerade kann an ihnen zu weit vorbeigehen. Die Abweichungen bei den kleineren Konzentrationen haben die höhere Gewichtung „verdient“, wenn sie (in Absoluteinheiten) erheblich genauer gemessen werden können. Mit dem Diagrammassistenten kann man nach Markieren der ersten drei Spalten der Tabelle 2.26 die Messwerte und die Gerade (Abb. 2.38) darstellen, die die beste Annäherung an die Messwerte ergibt. Man sollte immer die Residuen graphisch auftragen (Abb. 2.39), um beurteilen zu können, ob sie zufällig verteilt sind. Aus Abb. 2.39 lässt sich abschätzen, dass ein mittlerer Residuenwert bei etwa drei liegt. Bezogen auf den Mittelwert von y = 727 sind das weniger als 0,5%. Die exakte Rechnung bestätigt das. Die mittlere Abweichung der Residuen, die Residualstandardabweichung RSD, errechnet sich nach: RSD =
[y − y(x )]2 = 3,591 n−2
(2.31)
Die RSD als y-Abweichung (Differenz zwischen gemessenen und berechneten y-Werten) wird genauso wie andere y-Werte mit der Geradengleichung in x-Abweichungen umgerechnet. Allerdings berücksichtigt man hier die Korrektur mit dem Achsenabschnitt nicht, weil sie sich bei einer Differenz herauskürzt. Deshalb teilt man nur durch die Steigung b und erhält die Verfahrensstandardabweichung
Abb. 2.38 Die Daten der Tabelle 2.26 und die Regressionsgerade graphisch dargestellt.
2.5 Auswertung
Abb. 2.39 Die Residuen der Tabelle 2.26 als Graphik.
VSD. Diese, auf den Mittelwert der Konzentrationswerte x bezogen, ergibt den Verfahrensvariationskoeffizienten VVK [%]. VVK =
RSD = 0,5% b⋅x
(2.32)
Damit hat man ein anschauliches Maß für die Streuung der Signalwerte um die Gerade, analog zu dem Variationskoeffizienten für Mehrfachmessungen bei einer Konzentration. Ein halbes Prozent ist ein sehr guter Wert, der dem optischen Eindruck der Abb. 2.40 entspricht, in der praktisch keine Restabweichungen zu sehen sind. Die Berechnung von Analysenwerten aus dem Signal yA erfolgt mit der umgestellten Geradengleichung, bei der die Steigung (Empfindlichkeit) die wesentliche Größe ist und ein konstanter Korrekturfaktor –a/b (Untergrund in Konzentrationseinheiten) dazukommt, der hier –1,58 ist, d. h. unterhalb der kleinsten Konzentration. xA =
yA a − b b
(2.33)
Nimmt man alle (3 · 10) Kalibrierpunkte der Johnsson-Tabelle – zur besseren Übersichtlichkeit wurden in Abb. 2.40 die jeweils drei Werte einzeln dargestellt – wird die Steigung größer (b = 5,7362) und die Gerade schneidet die y-Achse bei a = –72,389. Dadurch errechnen sich ein VVK von 3,47% und ein Korrekturfaktor –a/b von 12,62, d. h., die Werte werden durch die zusätzlichen drei Kalibrierpunkte 7-mal so hoch. Die Gerade mit den (3 · 10) Kalibrierpunkten in Abb. 2.40 sieht plausibel aus. Wenn man aber den Bereich der unteren vier Kalibrierpunkte in Abb. 2.40(a) als vergrößerten Ausschnitt ansieht, erkennt man, dass die Gerade weit an ihnen vorbeiführt, obwohl die drei Werte bei jeder Konzentration dicht beieinander liegen. Die Residuen in Abb. 2.40(b) zeigen bis zum fünften Kalibrierpunkt (15. Wert) ausschließlich positive Abweichungen und sind für die oberen drei Kalibrierpunkte weitaus am größten. Diese erheblichen Abweichungen bewirken eine große Hebelwirkung der oberen drei Kalibrierpunkte und die Gerade wird nach oben gezogen. Da die unteren Kalibrierpunkte mit ihren kleineren Abweichungen einen geringeren
133
134
2 Integrationsfehler und Auswertung
Abb. 2.40 Das große Diagramm zeigt alle Werte der Tabelle 2.27 mit der Regressionsgerade. Erst der vergrößerte Ausschnitt links oben zeigt die erheblichen Abweichungen bei den unteren vier Punkten. Das Diagramm der Residuen rechts unten lässt die Dominanz der Abweichungen bei höheren Konzentrationen erkennen, wobei die Rechnung mit den Quadraten der Residuen erfolgt.
Einfluss (geringeres Gewicht) haben, ergibt sich ein beträchtlicher negativer Achsenabschnitt. Aus der Abb. 2.40(a) ist zu erkennen, dass die Gerade die unteren Messpunkte nicht repräsentiert und sich bei kleinen Konzentrationen sehr große Abweichungen ergeben. Bei der Rückrechnung der Signalwerte der Kalibrierproben wird der Korrekturfaktor von 12,62 addiert, so dass für die unteren Konzentrationen viel zu hohe Konzentrationen herauskommen, wie schon Johnsson [11] gezeigt hat. Dies stimmt mit dem VK der Signalwerte von 14,1% bei 5 ng/ml nicht überein, der zwar hoch ist, aber für die unterste Konzentration akzeptabel. Es darf nicht sein, dass ein Wert mit einer Präzision von 14% durch die lineare Regression um 170% zu hoch herauskommt. Bis zu 50 ng/ml sind die Fehler bei der Rückrechnung (letzte Spalte der Tabelle 2.27) unakzeptabel, d. h., man macht sich bei diesem Beispiel mit der normalen linearen Regression den unteren Arbeitsbereich kaputt. Man kann auch die Signifikanz des Achsenabschnitts berechnen. Das ist letztlich die Beantwortung der Frage: „Kann man bei der gegebenen Streuung den Achsenabschnitt sicher von null unterscheiden?“. Sowohl mit den sieben Kalibrierpunkten als auch mit den 10 Kalibrierpunkten ist der Achsenabschnitt nicht signifikant, weil der 10-mal größere Achsenabschnitt mit einer viel größeren
2.5 Auswertung Tabelle 2.27 Die ersten beiden Spalten enthalten die Daten von Johnsson [11], bei denen zur Übersichtlichkeit die Signalwerte mit 1000 multipliziert wurden. Die drei letzten Spalten enthalten die Rückrechnung der Signalwerte in Konzentrationen für die normale lineare Regression, für die gewichtete Regression und für die Nullpunktsgerade. x
y
5
32
5
35
5
Sy
VK [%]
y(x) –14
46
13,1
4,5
5,7
5,13
14,10
–14
49
13,7
5,1
6,2
42
–14
56
14,9
6,3
7,5
10
60
14
46
18,1
9,6
10,7
10
59
14
45
17,9
9,4
10,5
10
65
14
51
19,0
10,5
11,6
25
143
99
44
32,8
24,8
25,5
25
143
99
44
32,8
24,8
25,5
25
145
99
46
33,2
25,1
25,8
50
277
240
37
56,6
49,2
49,4
50
274
240
34
56,1
48,7
48,8
50
276
240
36
56,5
49,0
49,2
100
530
521
9
102
95
94
100
550
521
29
105
99
98
100
552
521
31
105
99
98
250
1302
250
1343
250
3,21
1,15
1,53
12,2
5,20
0,80
0,60
2,20
Resid
x(y)
x(y) Gewicht
x(y) Null
1366
–64
239
236
232
1366
–23
246
244
239
1331
1366
–35
244
242
237
500
2642
2774
–132
477
481
471
500
2683
2774
–91
484
488
478
500
2740
2774
–34
494
499
488
1000
5295
5590
–295
948
965
944
1000
5360
5590
–230
959
977
955
1000
5468
5590
–122
978
997
974
2000
11297
11222
75
2013
2060
2013
2000
11352
11222
130
2023
2070
2023
2000
11502
11222
280
2050
2098
2050
3000
15981
16854
–873
2845
2915
2848
3000
17286
16854
432
3077
3153
3080
3000
17235
16854
381
3068
3144
3071
21,1
49,2
87,4
106
739
1,60
1,80
1,60
0,90
4,40
135
136
2 Integrationsfehler und Auswertung
Streuung verbunden ist, die aus den Residuen der drei obersten Kalibrierpunkte resultiert. Ein signifikanter Achsenabschnitt ist ein deutliches Warnzeichen, das zu einer Überprüfung der Chromatographie führen sollte. Zur Bewertung der Kalibrierung ist der oben genannte Korrekturfaktor aber ein wichtigeres Maß. Bei einem großen Arbeitsbereich kann der Achsenabschnitt nicht signifikant sein, aber zu einem nicht tolerierbaren Korrekturfaktor führen. Das ist der Fall, wenn –a/b größer als die unterste Konzentration ist, weil diese dann um mehr als 100% verfälscht wird. In der vierten Spalte der Tabelle 2.27 ist die Standardabweichung der y-Werte sy bei jeweils einer Konzentration gezeigt, d. h. die Absolutwerte in der Einheit der Signalwerte. Teilt man sy durch yK , ergeben sich die Relativwerte der Standardabweichung in Prozent. Die Absolutwerte haben einen viel größeren Bereich von 1,15 bis 739 als die Relativwerte mit einem Bereich von 0,55% bis 14,12%. Der F-Wert (Quotient der Absolutwerte am oberen und unteren Ende des Arbeitsbereichs) in obigem Beispiel beträgt 20 748 und liegt damit oberhalb jedes Wertes in der F-Tabelle. Die lineare Regression ist ein Rechenverfahren, bei dem die quadratischen Abweichungen (Varianzen) minimiert werden. Das ist nur erlaubt, wenn anzunehmen ist, dass die Absolutabweichungen nicht von der Konzentration abhängen. Das ist für die Daten im besprochenen Beispiel aber offensichtlich der Fall, wie die dritte Spalte der Tabelle 2.27 eindeutig zeigt. Bei vielen anderen realen Beispielen aus der Chromatographie ist das für einen Arbeitsbereich von über 10 ebenfalls gegeben. Bei der Kalibrierung im Rahmen einer Validierung misst man die einzelnen Kalibrierpunkte nicht mehrfach, sondern macht nur am obersten und am untersten Kalibrierpunkt eine Mehrfachmessung mit meist sechs Punkten. Dann stellt man durch einen F-Test fest, ob sich die quadrierten Standardabweichungen signifikant unterscheiden. Mit F = 20 748 ist der Grenzwert von 5,35 (p = 1%) um Größenordnungen überschritten. Diese sog. Varianzeninhomogenität führt dazu, dass nach Abb. 2.40(a) die Gerade an den unteren vier Kalibrierpunkten vorbeigeht, weil diese zu wenig beachtet werden, d. h., zu wenig Gewicht haben. Es liegt nahe, dadurch einen Ausgleich zu schaffen, dass die Varianzen bei den niedrigen Konzentrationen mit einem höheren (Gewichts-)Faktor multipliziert werden und die Varianzen bei den hohen Konzentrationen entsprechend heruntergewichtet werden. 2.5.4 Gewichtete lineare Regression
In der allgemeingültigen Form der linearen Regression wird das Minimum für das Quadrat aus der Differenz des Messwerts yK und dem aus der Geradengleichung errechneten Messwert y(xK) errechnet, normiert auf die entsprechenden Varianzen, d. h., die x-Abweichungen werden im Unterschied zur Korrelationsrechnung als vernachlässigbar angesehen.
2.5 Auswertung
∑ K =1 n
[yK − y (xK )]2 = Minimum sy2K
(2.34)
Um so rechnen zu können, muss die Standardabweichung sy an jedem Kalibrierpunkt bekannt sein. Aus statistischer Sicht wäre es wünschenswert 10 Kalibrierpunkte 10-mal zu messen. Aus der Sicht des analytischen Chemikers wäre das ein unakzeptabel hoher Aufwand. Leider findet sich in der Chromatographie bereits bei einem Arbeitsbereich von über 10 beim F-Test häufig eine signifikant große Differenz in der Streuung. Das liegt daran, dass in der Chromatographie eher der Relativfehler konstant ist als der Absolutfehler, wie bei der vereinfachten Regression angenommen, d. h.: VK = const. =
Sy y
(2.35)
Bei einem konstanten Verhältnis zwischen Standardabweichung des Messwerts und dem Messwert selbst kann der Messwert als Schätzung der Standardabweichung benutzt werden. Damit wird obige Gleichung zu:
∑
[yK − y (xK )]2 = Minimum yK2
(2.36)
Dies ist nichts Anderes als die bekannte 1/y2-Gewichtung der Varianzen, die bei den Integrationsprogrammen angewählt werden kann. Übliche weitere Gewichtungen sind 1/y, auch 1/x und 1/x2 und auch 1/y1/2. Da ein Schätzwert für Sy gesucht wird, ist prinzipiell eine y-Gewichtung sinnvoller als eine x-Gewichtung. Den Fall gleicher Varianzen (Varianzenhomogenität; keine Gewichtung) könnte man „Apparatevarianz“ nennen. Dies wird angenähert der Fall sein, wenn wir nur eine einfache physikalische Messung durchführen. Die 1/y2-Gewichtung, die auf einen konstanten VK im Messbereich zurückzuführen ist, könnte man „volumenabhängige Varianz“ nennen. Dies beschreibt den Fall, wenn die Probenvorbereitung die Abweichungen dominiert. Die sehr wahrscheinlichen Volumenfehler müssen per se konzentrationsabhängig sein (Kuss [15]). Nun sind alle Fälle zwischen diesen beiden Extremen einer Gewichtung w mit eins (= keine Gewichtung) und einer 1/y2-Gewichtung vorstellbar, die allgemein durch 1/yWE beschrieben werden können. Alle oben genannten y-Gewichtungen sind enthalten, aber zusätzlich ungeradzahlige Gewichtungen erlaubt. Der ungewichtete Fall ist durch den Wichtungsexponenten WE = 0 beschrieben. Damit wird:
∑ w [yK
− y (xK )]2 = Minimum
(2.37)
mit g = und
1 y
WE
(2.38)
137
138
2 Integrationsfehler und Auswertung
w =
n⋅g ∑g
(2.39)
Das Problem besteht darin, WE aus den vorhandenen Daten möglichst sinnvoll abzuschätzen. Dies ist aus dem Varianzquotienten (F-Wert) unter Beachtung des y-Arbeitsbereichs nach folgender Gleichung möglich: WE =
log Sy2Kn − log Sy2K1 log F = log ABy log yKn − log yK1
(2.40)
Dieses Verfahren könnte Varianzquotientengewichtung genannt werden (Kuss [14]). Setzt man die Werte aus der Tabelle 2.27 in die Gl. (2.40) ein, erhält man WE = 1,62, d. h., wie erwartet näher an der „volumenabhängigen Varianz“ als an
Abb. 2.41 Die Regressionsgerade wird von dem Prognoseintervall, das senkrecht abgelesen die 5%ige (1%ige) Unsicherheit der Messung charakterisiert. Waagerecht, d. h. in Konzentrationseinheiten abgelesen, ergibt sich die Messunsicherheit – letztlich die zwei Seiten derselben Münze. Tabelle 2.28 Mit den Daten der Tabelle 2.27 werden die Eingabedaten für die Gl. (2.40) und daraus der Wichtungsexponent WE berechnet. 20 748
F-Wert
4,3170
log(F)
463 2,6659 1,62
ABy log(ABy) WE
2.5 Auswertung
Abb. 2.42 Die Gewichtung engt das Prognoseintervall im unteren Arbeitsbereich ein. Dadurch wird die Messunsicherheit bei niedrigen Konzentrationen kleiner.
der „Apparatevarianz“. Die Integrationssysteme erlauben die Einstellung einer Gewichtung, aber man müsste sich in diesem Beispiel zwischen einer 1/y- oder 1/y2-Gewichtung entscheiden. Die unteren vier Kalibrierpunkte liegen mit Gewichtung fast exakt auf der Geraden (Abb. 2.42). Es ergibt sich aus der Geradengleichung y = 5,48 x + 7,25 ein positiver Achsenabschnitt, der 1,3 ng/ml entspricht. Die rückgerechneten Ergebnisse sind in Tabelle 2.27 in der Spalte x(y)-Gewicht dargestellt. Der Vergleich von x(y) und x(y)-Gewicht zeigt, welche ungenügenden Ergebnisse die normale lineare Regression bringt. Mit der Nullpunktsgeraden weichen die Werte x(y)-Null nur etwas mehr von den wahren Werten im unteren Konzentrationsbereich ab als mit der Gewichtung. Ein weiterer wesentlicher Grund, eine Gewichtung vorzunehmen, liegt in der adäquaten mathematischen Abbildung realistischer Messunsicherheiten U. Zu diesem Thema schrieb Doerffel [3]: „Deshalb muss die gewichtete Regression immer dann angewandt werden, wenn aus den Messungen Aussagen zur Präzision der Ergebnisse gefordert sind.“ Die bekannten Gleichungen zum Prognoseintervall (Miller [18]) PI (y-Abweichungen) und zur Messunsicherheit U (x-Abweichungen) verkomplizieren sich durch die Gewichtung nur geringfügig: PI = t ⋅ RSD ⋅
U =
t ⋅ RSD b
(x k − x w )2 1 + ∑ w ∑(x k − x w )2
(2.41)
(y − yw )2 1 + 2 a ∑ w b ∑(x a − y w )2
(2.42)
1 + wk 1 + wa
139
140
2 Integrationsfehler und Auswertung
Die gewichtete Regression geht für den Wichtungsfaktor w = 1 in die normale lineare Regression über, wobei 6 w = n ist. Beide Gleichungen ähneln sich, weil U auf PI zurückgeführt wird. Die Unsicherheit der errechneten Konzentrationen resultiert aus der Unsicherheit der Messwerte. Graphisch wird dieselbe Grenzlinie einmal in y- und einmal in xRichtung abgelesen. Mit Gewichtung sind auch die unteren Konzentrationen im zulässigen Bereich der Messunsicherheit, wie die Abb. 2.42 demonstriert. Bei einem großen Arbeitsbereich macht man sich mit normaler linearer Regression durch eine letztlich falsche Rechnung (falls der F-Test signifikant ausfällt) die eigene meist mühsam optimierte Messung im unteren Konzentrationsbereich kaputt. Das schmerzt. 2.5.5 Nullpunktsgerade
Sinnvollerweise wird man sich bei einer Chromatogrammserie immer mal wieder überzeugen, ob eine Leerprobe tatsächlich keine Veränderung der Basislinie an den Stellen zeigt, an denen bei Analysenproben Peaks erwartet werden. Das heißt, dass bei einer Konzentration von null auch der Messwert null sein und die lineare Kalibrierfunktion durch den Nullpunkt gehen muss. Im Gegensatz dazu hat man bei der Messung der UV-Absorption in einer Küvette einen Messwert für die Untergrundabsorption. In der HPLC mit UV-Detektion wird diese Untergrundabsorption durch das Nullen (Autozero) des Detektors für alle Messwerte abgezogen. Ein chromatographisches Messsignal in einer Leerprobe an der Stelle des erwarteten Peaks kann nur als unzureichende Methode gewertet werden, was bedeutet, dass die Methode verbessert werden muss. Dies ist nicht zu verwechseln mit der stetigen Gefahr, eine zusätzliche interferierende Substanz unter dem Peak einer einzelnen Analysenprobe zu finden. Dagegen ist keine Methode vollständig gefeit. Trotzdem wird in der Validierung einer chromatographischen Methode generell eine lineare Regression mit Achsenabschnitt durchgeführt. Dabei ist der Achsenabschnitt fast immer nicht signifikant. Auch aus statistischen Gründen muss dann der Achsenabschnitt auf null gesetzt werden, weil sein Wert nur durch den Zufall bedingt ist. 2.5.6 Chromatogrammserien überprüfen
Die Validierung soll die Eignung einer Methode für den beabsichtigten Zweck sicherstellen. Dazu muss meist ein beträchtlicher Aufwand betrieben werden. In den darauf folgenden Analysenserien sollten Kontrollproben mitgeführt und überprüft werden, ob deren Werte im Kontrollbereich sind. Von der Statistik her gesehen ist weiterer Aufwand nicht erforderlich. Aber reicht das aus? Sinnvol-
2.5 Auswertung
lerweise wird man zusätzlich möglichst jede Gelegenheit ergreifen, um z. B. an Ringversuchen teilzunehmen. Nehmen wir an, wir wollten Medikamente im Blut von Patienten messen. Abgesehen von den sinnvollen üblichen Kriterien wird die Qualität dieser Analysen wesentlich davon abhängen, wie der latenten Gefahr von Interferenzen mit anderen Medikamenten oder deren Metaboliten begegnet wird. Es gibt eine unüberschaubare Zahl von möglichen Interferenzen und dauernd kommen neue Medikamente dazu. Eine Forderung, im Rahmen der Robustheit alle möglichen Interferenzen auszutesten, wäre nicht mehr machbar. Die Chromatogramme 254(214)C01.cdf bis 254(214)C09.cdf enthalten drei dominierende Peaks mit einer Retentionszeit von 15,8; 17,7 und 19,5 min. Es wurde bei 254 nm (Quecksilberlampe) und bei 214 nm (Zinklampe) gemessen. Beide Detektoren waren hintereinander geschaltet. Die Peaks sind die drei trizyklischen Antidepressiva Nortriptylin, Amitriptylin und Trimipramin, die aus 1 ml menschlichem Blutplasma extrahiert wurden. Zuerst kommen drei Rejustierproben, die die Konzentration 100 ng/ml haben. Trimipramin als interner Standard wurde erst direkt vor der Extraktion hinzu pipettiert. Die neunte Probe ist identisch mit den ersten drei, wird aber als Analysenprobe berechnet, um die Stabilität in der Analysenserie zu überprüfen. Probe 4 bis 8 sind Patientenproben während der Therapie mit Amitriptylin. Nortriptylin ist der Desmethylmetabolit von Amitriptylin, der in jeder Patientenprobe neben Amitriptylin vorhanden ist. Es ist sinnlos, die Flächen oder Höhen intensiv zu untersuchen, wenn die Integrationsparameter nicht stimmen. Dies sieht man am besten an den Chromatogrammen: Ist die Basislinie plausibel und nicht von möglichen Negativpeaks nach unten gezogen? Nach dem Ausschneiden der Basislinie mit der „Maus“: Verläuft die (konstruierte) Basislinie unter den Peaks so, wie man es mit der Hand auch machen würde? Sind zusätzliche kleine Peaks oder Aufsetzer vorhanden, die die Fläche verfälschen könnten? Muss eine Drift zugelassen oder die Verdopplungszeit gesetzt werden? Am besten erfolgt die Optimierung der Integrationsparameter mit der Chromatogramm-Simulation, die die realen Peaks möglichst gut wiedergibt. Wenn man in einer Analysenserie – wie hier – einen internen Standard verwendet, sollte man als Erstes dessen Werte ansehen: Ist der VK im Rahmen dessen, was man sonst findet? Mit einem Säulendiagramm kann man – insbesondere bei zu hohen Werten des VK – feststellen, ob die Werte einen Trend zeigen. Es sollten nur zufällige Schwankungen vorhanden sein. Manchmal lässt sich ein Trend besser erkennen, wenn man die Abweichungen vom Mittelwert darstellt. Wenn ein Patient auch Trimipramin bekommen hat, sieht man das am Vorhandensein von Desmethyltrimipramin. Deshalb ist es wichtig, Amitriptylin und Desmethyltrimipramin chromatographisch zu trennen, was nicht mit jeder C18-Säule gelingt. Durch einfache Quotientenbildung erhält man mit Fläche durch Höhe eine Größe, deren Kehrwert in der Bodenzahlberechnung verwendet wird. Der VK dieses Quotienten sollte nicht auffällig sein. Andernfalls müsste man das entsprechende Chromatogramm ansehen und gegebenenfalls korrigieren. Weiterhin
141
142
2 Integrationsfehler und Auswertung
kann man den Quotienten Fläche 214 nm/254 nm bilden oder den Quotienten aus den Höhen. Auch hier müssen die Quotienten so konstant sein, dass sich nur ein geringer VK ergibt. Danach sieht man sich die Abweichungen der drei Rejustierproben untereinander an. Deren VK sollte im Bereich der VKs für den internen Standard liegen. Natürlich ist es wertvoll, diese Größen im Verlauf der Messtage zu dokumentieren und vielleicht als Kontrollkarte zu führen. Alle Werte inklusive der Rejustierproben sollten in Konzentrationen umgerechnet werden. Insbesondere wenn man einen geraden Wert wie 100 ng/ml als Sollwert hat, sieht man die Abweichungen viel leichter als bei den Flächen. Als Nächstes wird man sich die Kalibrierproben ansehen. Wurde eine Kalibriergerade erstellt, dann ist der Verfahrensvariationskoeffizient das entsprechende Güte- und Vergleichsmaß. Wurde zusätzlich zu einer früher erstellten Kalibriergerade eine Kalibrierprobe als Korrektur der Tagesform benutzt, ist natürlich keine statistische Betrachtung möglich. Nur bei mindestens drei derartigen (gleichen) Proben lässt sich ein VK berechnen und vergleichen. Es lässt sich auch ein Korrelationskoeffizient zwischen Kalibrierwert und zugehörigem internen Standardwert berechnen oder als Punktdiagramm darstellen. Nur bei einer signifikant positiven Korrelation kann der interne Standard seine Funktion erfüllen. Alle diese Möglichkeiten sind in der Datei 3Chrom.xls auf der CD zu sehen.
Literatur 1 Bicking, M., Integration Errors in Chromatographic Analysis, Part I: LCGC Int. 24 (2006a) 402–414. 2 Bicking, M., Integration Errors in Chromatographic Analysis, Part II: Large Peak Size Ratios, LCGC Int. (June 2006b). 3 Doerffel, K., Statistik in der analytischen Chemie. Deutscher Verlag für Grundstoffindustrie, Leipzig 1990. 4 Dolan, J. W., Peak Tailing and Resolution, LCGC Int. 20 (2002a) 430–436. 5 Dolan, J. W., Resolving Minor Peaks, LCGC Europe (September 2002b) 578–580. 6 Dong, M., Enhancing HPLC Precision and Ruggedness, Perkin-Elmer Newsletters: Views (Fall 1994) 7–8. 7 Dyson, N., The Validation of Integrators and Computers for Chromatographic Measurements, Int. Lab. 22 (June 1992) 38–46. 8 Dyson, N., Chromatographic Integration Methods, The Royal Society of Chemistry, 2nd ed., Hertfordshire 1998.
9 Fehlinger, A., Guiochon, G., Validation of a chromatography data analysis software, J. Chrom. A 913 (2001) 221. 10 Foley, J. P., Dorsey, J. G., Equations for Calculation of Chromatographic Figures of Merit for Ideal and Skewed Peaks, Anal. Chem. 55 (1983) 730. 11 Johnson, E. L., Reynolds, D. L., Wright, D. S., Pachla, L. A., J. Chromatogr. Sci. 26 (1988) 372. 12 Kipiniak, W., A Basic Problem – The Measurement of Height and Area, J. Chrom. Sci. 19 (1981) 332. 13 Küppers, S., Renger, B., Meyer, V. R., Autosamplers – A Major Uncertainty Factor in HPLC Analysis Precision, LCGC Europe, February 2000. 14 Kuss, H. J., Gewichtete Lineare Regression, in: Handbuch Validierung in der Analytik (Hrsg.: S. Kromidas). Wiley-VCH, Weinheim 2000. 15 Kuss, H. J., Weighted Least-Squares Regression in Practice: Selection of the Weighting Exponent, LCGC Europe, December 2003a.
Literatur 16 Kuss, H. J., Quantifizierung in der Chromatographie, in: HPLC-Tipps II (Hrsg.: S. Kromidas). Hoppenstedt Bonnier Zeitschriften, 2003b. 17 Losef, A., On a Model Line Shape for Asymmetric Spectral Peaks, Appl. Spectrosc. 48 (1994) 1289–1290. 18 Miller, J. N., Miller, J. C., Statistics and Chemometrics for Analytical Chemistry, Pearson Education Limited 2000. 19 Meyer, V. R., Fallstricke und Fehlerquellen der HPLC in Bildern, 3. Aufl. Wiley-VCH, Weinheim 2006. 20 Meyer, V. R., Generation and Investigation of Chromatographic Peaks Using a Spreadsheet Program, LCGC Int. 7 (October 1994) 590. 21 Meyer, V. R., Chromatographic Integration Errors: A Closer Look at a Smaller
22
23
24
25
Peak, LCGC Europe 13 (March 1995) 252–260. Papas, A. N., Delaney, M. F., Evaluation of Chromatographic Integrators and Data Systems, Anal. Chem. 59 (1987) 54A. Papas, A. N., Tougas, T. P., Accuracy of Peak Deconvolution Algorithms within Chromatographic Integrators, Anal. Chem. 62 (1990) 234–239. Schepers, U., Ermer, J., Preu, L., Wätzig, H., Wide concentration range investigation of recovery, precision and error structure in liquid chromatography, J. Chrom. (B) 810 (2004) 111–118. Westerberg, A. W., Detection and Resolution of Overlapped Peaks for an On-Line Computer System for Gas Chromatographs, Anal. Chem. 41 (1969) 1770.
143
145
3 Allgemeine Beurteilung analytischer Daten Joachim Ermer
Analytische Daten werden üblicherweise – gegebenenfalls nach weiteren Berechnungen – als Grundlage von Entscheidungen verwendet. Dies kann beispielsweise die Steuerung eines Herstellprozesses, die Verwendungsentscheidung für Materialien oder die Eignung von analytischen Methoden selbst sein. Solche Entscheidungen sind oft an festgelegte Regeln (Akzeptanzgrenzen) gebunden. Messergebnisse unterliegen stets (zumindest) einer zufälligen Streuung [1], was bei der Beurteilung und insbesondere bei der Aufstellung der Regeln (s. Kapitel 13.2) berücksichtigt werden muss. Dazu ist ein Schließen vom Speziellen (d. h. von den einzelnen Messergebnissen) auf das Allgemeine (d. h. die „normale“ Verteilung der Daten) erforderlich.
3.1 (Normal-)Verteilung von analytischen Daten
Analytische Prüfungen kann man sich als zufällige Ziehung von Einzeldaten (s. Abschn. 3.2) aus der Gesamtzahl aller möglichen (unendlich vielen) Daten vorstellen. Je mehr Daten vorliegen, desto deutlicher wird das Bild der Verteilung, in Abb. 3.1 als Histogramme dargestellt. Dazu wird der gesamte Bereich, in welchem Daten vorkommen, in konstante Intervalle (Klassen) eingeteilt und die jeweilige Anzahl der Daten gezählt, die in den Klassen vorkommen. Die Anzahl der Klassen sollte etwa der Wurzel aus der Anzahl der Daten entsprechen. Solche Histogramme können mit Statistiksoftware oder mit Microsoft Excel® erstellt werden (Tools/Data Analysis/Histogram; das „Analysis ToolPak“ muss über „Tools/ Add-Ins“ installiert sein). Über Abb. 3.1(a) zu 3.1(b) und 3.1(c) wird deutlich, dass eine große Datenzahl erforderlich ist, um ein klares Bild der Gesamtverteilung zu erkennen. Die theoretische Kurve der den Daten zugrunde liegenden Gauß’schen Normalverteilung ist zusätzlich in Abb. 3.1(c) eingezeichnet. Simulation normalverteilter Werte (Excel®): x = STANDNORMINV(ZUFALLSZAHL()) · V + μ
(3.1)
146
3 Allgemeine Beurteilung analytischer Daten
Abb. 3.1 Histogramme für 25 (a), 100 (b) und 10 000 (c) normalverteilte Werte. In (c) ist zusätzlich die theoretische Gaußkurve eingezeichnet. Die Histogrammklassen, welche die Grenzen der 2 V- und 3 V-Bereiche um den wahren Wert μ beinhalten, sind schwarz gefärbt. Die normalverteilten Werte wurden mit Microsoft Excel® für μ = 100 und V = 1 berechnet (Gl. 3.1).
Warum ist nun die – für physikalisch-chemische Messergebnisse üblicherweise vorausgesetzte – Normalverteilung so beliebt? Weil sie in einer einfachen mathematischen Form mit nur zwei Parametern, dem Lagemaß μ und der (wahren) Standardabweichung V vollständig beschrieben werden kann. Der wahre Wert μ (Mittelwert der Gesamtverteilung) liegt im Scheitelpunkt der Verteilungskurve. Mit zunehmendem Abstand vom wahren Wert sinkt die Wahrscheinlichkeit des Auftretens von Werten, und zwar symmetrisch nach oben und unten. Der Streuparameter V entspricht mathematisch dem ho-
3.1 (Normal-)Verteilung von analytischen Daten
rizontalen Abstand zwischen dem Wendepunkt der Gaußkurve und dem wahren Wert und beschreibt die Breite der Verteilung. Geringe Standardabweichungen ergeben eine schmale, scharfe Verteilung, große eine flache und breite Kurve. Zur Beurteilung von Daten und Bewertung von Standardabweichungen ist es wichtig zu berücksichtigen, dass im Bereich von ±1 V nur 68% aller Daten der Verteilung erwartet werden können. Der Anteil der Daten steigt auf 95% für ±2 V und auf 99,7% für ±3 V. (Achtung: Dies bezieht sich auf die wahren Parameter μ und V, im Unterschied zu den experimentelle Parametern, s. Abschn. 3.2.) Diese Gesetzmäßigkeiten werden auch eingesetzt, um die Eignung einer Methode zu beurteilen (Methodenfähigkeit): Wenn die Akzeptanzgrenze mindestens drei Standardabweichungen vom Mittelwert entfernt liegt, ist die Methode aus analytischer Sicht geeignet, da keine einzelnen Werte zu erwarten sind, die außerhalb der Grenze liegen. Vertrauensbereichsgrenzen: x des Mittelwertes CL(P )x = x ± s ⋅
t(P , df ) n
(3.2)
x der Standardabweichung CL(P )s, unten = s ⋅
df F (1 − P , df )
(3.3a)
CL(P )s, oben = s ⋅
df F2 (P , df )
(3.3b)
2
mit: t(P, df) = Student-t-Faktor für eine statistische Sicherheit P (oft 95%) und Anzahl der Freiheitsgrade df (Excel®: t = TINV(D, df); D = 1 – P); F2(P, df) = Chi-QuadratFaktor für eine statistische Sicherheit P (oft 95%) und Anzahl der Freiheitsgrade df (Excel®: F2 = CHIINV(D, df); D = 1 – P). Die (theoretisch) aus der Grundgesamtheit aller (unendlich vielen) Messwerte berechneten Parameter sind identisch mit den wahren Parametern. Bei Verringerung der Anzahl der Werte (d. h. des Stichprobenumfangs) nimmt die Schärfe dieser Aussage ab oder die Unsicherheit zu. Man kann nur noch einen Bereich angeben, in welchem der wahre Wert mit einer festgelegten Wahrscheinlichkeit liegt, die sog. Vertrauensbereiche (Gl. 3.2 und 3.3). Der Student-t-Faktor kann als Korrekturfaktor der experimentellen (Stichproben-) Standardabweichung aufgefasst werden. Da die Äste der Gaußkurve unendlich sind, d. h., auch in großer Entfernung vom wahren Wert noch Messwerte vorkommen können (wenn auch mit sehr geringer Wahrscheinlichkeit), ist es erforderlich, die Aussage auf einen
147
148
3 Allgemeine Beurteilung analytischer Daten
praktikablen Bereich einzugrenzen, das sog. statistische Signifikanzniveau oder Sicherheit P, ausgedrückt als Relativ- oder Prozentwert. Die Randbereiche der Verteilung mit geringen Wahrscheinlichkeiten des Auftretens von Werten werden ignoriert – obwohl auch diese Werte zur Verteilung gehören. Oft wird auch die komplementäre Fehlerwahrscheinlichkeit D = 1 – P verwendet. Fehlerwahrscheinlichkeit und Schärfe der Aussage sind verknüpft, d. h., bei sehr kleiner Fehlerwahrscheinlichkeit (oder großer Sicherheit) wird die Aussage sehr unscharf und damit wenig praktikabel: Bei einem Mittelwert von 100, einer Standardabweichung von 1 und sechs Werten kann der wahre Wert mit 95% Sicherheit zwischen 99,0 und 101,0% erwartet werden. Mit einer Sicherheit von 99,99% ergibt sich dagegen ein Bereich zwischen 95,4 und 104,6%. Die Freiheitsgrade (df ) geben die Anzahl der Werte wieder, die zusätzlich zum absolut erforderlichen Minimum für die jeweilige Berechnung vorliegen. Wenn z. B. ein Endwert (Mittelwert) benötigt wird, ist mindestens ein Wert erforderlich, so dass df = n – 1 beträgt. Für eine Gerade sind mindestens zwei Werte notwendig, d. h. df = n – 2. Bei mehreren Serien (k) von Messwerten (n) ergibt sich die Gesamtzahl der Freiheitsgrade zu df = k · (n – 1), d. h. die Gesamtzahl aller Werte, vermindert um die Anzahl der Serien. Aus Abb. 3.2 ist ersichtlich, dass die Vertrauensbereiche (für eine festgelegte statistische Sicherheit) mit zunehmender Anzahl an Werten enger werden, d. h., die Zuverlässigkeit des jeweiligen Parameters nimmt zu. Im Umkehrschluss ist natürlich zu beachten, dass bei geringer Datenzahl die Unsicherheit zunimmt. Dies gilt insbesondere für Standardabweichungen. Die obere Grenze des
Abb. 3.2 95-%-Vertrauensbereiche des Mittelwertes (a, einseitig) und der Standardabweichung (b) als Funktion der Freiheitsgrade (df ). Die Vertrauensbereiche (VB) sind in Einheiten der Standardabweichung dargestellt. Bei einer Messserie mit sechs Werten (df = 5) liegt der 95-%-VB des Mittelwerts ±1,05 Standardabweichungen (symmetrisch) um den Mittelwert, der der Standardabweichung erstreckt sich vom 0,67-fachen bis zum 2,09-fachen der berechneten Standardabweichung. Diese ist in (b) als gestrichelte Linie dargestellt.
3.2 Probleme des Schließens
95-%-Vertrauensbereichs einer aus drei Werten berechneten Standardabweichung (df = 2) liegt bei 4,4, d. h., bei einer zu 1,0 berechneten Standardabweichung kann der wahre Wert auch 4,4 betragen! Der inhaltliche (Un-)Sinn einer solchen Aussage bedarf wohl keiner weiteren Kommentierung. Leider sind aber derartige Berechnungen nicht so selten in der Literatur zu finden. Ausschlaggebend ist aber die Gesamtzahl an Freiheitsgraden, so dass mehrere Serien oder Messreihen (k) mit jeweils drei Werten durchaus eine angemessene Zuverlässigkeit ergeben (df = k · (n – 1) = k · 2). Vertrauensbereiche bilden die Basis für viele statistische Tests (s. Kapitel 13).
3.2 Probleme des Schließens
Auf die Zunahme der Unsicherheit bei abnehmender Datenanzahl wurde im vorigen Abschnitt bereits eingegangen. Vertrauensbereiche beschreiben aber nur die Erwartungsbereiche für die wahren Parameter auf der Grundlage der aktuellen Werte (Stichprobe). Oft sind aber Prognosen für zukünftige Ergebnisse von Interesse bzw. wie (zuverlässig) man von der Stichprobe auf die Grundgesamtheit schließen kann. Das (zukünftige) Verhalten von Stichproben kann man durch statistische Simulationen untersuchen (s. Gl. 3.1), wobei natürlich nur zufällige Effekte berücksichtigt werden. Der Vorteil solcher Simulationen liegt insbesondere darin, die wahren Werte zu kennen, was a priori bei experimentellen Messwerten nicht der Fall ist, einmal von der aus praktischen Gründen limitierten Anzahl solcher Serien abgesehen. In Tabelle 3.1 sind jeweils fünf simulierte Datensätze für 3, 6 und 10 Werte mit den Stichprobenmittelwerten, Standardabweichungen und Spannweiten aufgelistet. Selbst bei den wenigen Datensätzen ist die beträchtliche Streubreite der Parameter deutlich erkennbar, die für Mittelwert und Standardabweichung mit geringerer Datenzahl noch zunimmt. Die Spannweite steigt demgegenüber mit zunehmender Datenzahl an, um sich bei großer Anzahl der aus der Normalverteilung bekannten ±3 V-Grenze anzunähern. Zur besseren Absicherung sind in den Abb. 3.3 bis 3.5 die Ergebnisse von 50 000 Simulationen dargestellt. Es wurden jeweils die Bereiche erfasst, in denen 90, 95 und 99% aller simulierten Ergebnisse lagen. Je nach erforderlicher Sicherheit können diese Bereiche als Erwartungsgrenzen für individuelle Berechnungsparameter herangezogen werden. Die Erfassung erfolgte zweiseitig, d. h., die obersten und untersten jeweils 5; 2,5 und 0,5% der Werte wurden ignoriert. Wenn nur die Obergrenzen von Interesse sind, wie oft im Fall von akzeptablen Standardabweichungen und Spannweiten, ergibt sich eine einseitige Betrachtung, d. h., bei Vernachlässigung von 5% der oberen Werte müssen die 90%-Grenzen herangezogen werden. Die Erwartungsbereiche beziehen sich auf eine wahre Standardabweichung von eins und können deshalb leicht mit der für die jeweilige Anwendung vorliegenden Standardabweichung umgerechnet werden. Dabei sind jedoch zwei wichtige Bedingungen zu beachten. Erstens beziehen sich die
149
99,68
99,40
99,62
99,15
101,08
100,85
99,59
99,14
101,01
MW = Mittelwert, SD = Standardabweichung, SW = Spannweite
99,80
103,66
100,71
100,31
100,49
97,76
100,93
101,26
100,54
98,49
99,81
98,96
98,67
101,69
98,73
99,81
100,6
98,83
98,16
98,02
99,46
99,04
99,96
101,16
102,04
98,51
100,54
100,79
100,71
99,38
100,62
99,84
100,41
99,20
99,54
100,08
99,38
101,32
99,15
99,38
99,74
100,58
98,97
100,11
99,98
99,89
99,90
100,24
99,09
100,01
99,52
101,13
99,97
98,75
98,79
100,15
100,29
99,82
100,24
102,13
100,15
101,57
101,89
98,32
100,12 97,15
99,13
100,69
99,45 100,31
99,90
100,45
102,42
101,13
101,53
98,63
100,45
101,22
99,94
101,65
99,61
100,24
99,44
100,17
100,50
99,69
99,31
100,48
99,89
100,44
99,93
100,86
100,68
100,31
100,26
100,58
100,10
99,81
100,10
100,23
99,12
MW
Simulierte Werte
Tabelle 3.1 Simulierte Datensätze normalverteilter Werte für Stichprobengrößen von 3, 6 und 10. Die Maximalwerte der Parameter (bzw. die maximale Abweichung vom wahren Wert im Fall des Mittelwerts) für die verschiedenen Stichprobengrößen sind fett hervorgehoben. Die Zahlen wurden mit Microsoft Excel® für μ = 100 und V = 1 berechnet (Gl. 3.1).
0,82
1,69
1,07
0,68
0,85
0,65
0,45
0,95
1,84
0,77
0,50
1,98
0,88
0,24
0,61
SD
2,41
5,51
3,01
1,94
3,07
1,62
1,13
2,39
4,74
2,09
1,00
3,79
1,71
0,47
1,11
SW
150
3 Allgemeine Beurteilung analytischer Daten
3.2 Probleme des Schließens
Abb. 3.3 Obere und untere Grenze der Erwartungsbereiche von Mittelwerten simulierter Datensätze normalverteilter Werte in Abhängigkeit von der Stichprobengröße. Die Bereichsgrenzen, in denen 90%, 95% und 99% aller Mittelwerte vorkommen (zweiseitig), sind dargestellt. Es wurden jeweils 50 000 Datensätze mit Microsoft Excel für μ = 100 und V = 1 berechnet (Gl. 3.1).
simulierten Werte auf die wahre Standardabweichung V. Für eine zuverlässige Abschätzung von akzeptablen Streubereichen benötigt man demzufolge entweder eine maximal akzeptable wahre Standardabweichung, eine experimentell gut abgesicherte Standardabweichung der konkreten Methode oder die Kenntnis der Soll- oder Ziel-Standardabweichung für die jeweilige Anwendung aus anderen Quellen (s. Abschn. 3.3). Die zweite Bedingung ist, dass nur zufällige Effekte vorliegen bzw. dass alle relevanten Variationsbeiträge in der jeweiligen Standardabweichung erfasst sind (Präzisionsebenen s. Abschn. 3.3.1). In der Praxis ist letzteres von größerer Bedeutung, da für eine einzelne Serie systematische Effekte, wie z. B. die Variabilität der Probenaufarbeitung (die in der System- oder Injektionspräzision nicht berücksichtigt ist) in der Wiederholpräzision erfasst werden. Akzeptanzgrenzen für letztere, die über Standardabweichungen aus wiederholten Injektionen abgeschätzt würden, wären natürlich zu eng, da der Variabilitätsbeitrag der Probenaufarbeitung nicht berücksichtigt wäre. Da Akzeptanzgrenzen definitionsgemäß für alle zukünftigen Messungen gelten, müssen die Obergrenzen der Verteilung des jeweiligen Parameters berücksichtigt werden. Die Spannweite, d. h. die Differenz zwischen größtem und kleinstem Wert, kann insbesondere zur Bewertung herangezogen werden, wenn die Anzahl der Werte gering ist (so dass eine Berechnung der Standardabweichung mit großer
151
152
3 Allgemeine Beurteilung analytischer Daten
Abb. 3.4 Obere und untere Grenze der Erwartungsbereiche von Standardabweichungen simulierter Datensätze normalverteilter Werte in Abhängigkeit von der Stichprobengröße. Die Bereichsgrenzen, in denen 90%, 95% und 99% aller Standardabweichungen vorkommen (zweiseitig), sind dargestellt. Es wurden jeweils 50 000 Datensätze mit Microsoft Excel für μ = 100 und V = 1 berechnet (Gl. 3.1).
Unsicherheit behaftet ist), oder zur Beurteilung der Streuung von Residuen (Residuenplot, s. Kapitel 2 und 10). Die zu erwartende Spannweite nimmt mit der Anzahl der Werte zu, bei größerer Anzahl nähert sie sich der sechsfachen Standardabweichung, d. h. der ±3 V-Grenze der Normalverteilung (s. Abb. 3.5 und Abschn. 3.1). Eine akzeptable Differenz zwischen zwei Einzelbestimmungen ist auch numerisch zugänglich (s. Gl. 3.4) [2]. Der Student-t-Faktor bezieht sich auf die Anzahl der Werte, die der Ermittlung der (experimentellen) Standardabweichung der jeweiligen Anwendung zu Grunde liegen. Bei größerer Anzahl, d. h. gut abgesicherter Standardabweichung, beträgt die zu erwartende Spannweite für 95% statistische Sicherheit etwa das Dreifache der Standardabweichung (mit df t 16 ermittelt; bei sehr großen Freiheitsgraden geht die Spannweitengrenze gegen 2,8). Dieser Wert entspricht der oberen Verteilungsgrenze für n = 2 unter Berücksichtigung von 90% aller Ergebnisse, d. h. bei Ausgrenzung von 5% der oberen Werte. In der praktischen Anwendung muss auf das jeweils passende Präzisionsniveau für die Standardabweichung geachtet werden (s. Abschn. 3.1), d. h., die Systempräzision ergibt eine Wiederholgrenze für Doppelinjektionen, die Wiederholpräzision eine Grenze für unabhängige Probenaufarbeitungen etc. Spannweitengrenze (n = 2): R = s ⋅ t(P , df ) ⋅ 2
(3.4)
3.3 Analytische Variabilität
Abb. 3.5 Obere und untere Grenze der Erwartungsbereiche von Spannweiten simulierter Datensätze normalverteilter Werte in Abhängigkeit von der Stichprobengröße. Die Bereichsgrenzen, in denen 90%, 95% und 99% aller Spannweiten vorkommen (zweiseitig), sind dargestellt. Es wurden jeweils 50 000 Datensätze mit Microsoft Excel für μ = 100 und V = 1 berechnet (Gl. 3.1).
3.3 Analytische Variabilität 3.3.1 Variabilitätsbeiträge und Präzisionsebenen
Jeder Einzelschritt eines analytischen Verfahrens trägt mit seiner Variabilität zur Gesamtstreuung bei, natürlich mit unterschiedlicher Gewichtung. Wenn alle (wichtigen) Beiträge bekannt sind, kann die Gesamtunsicherheit nach den Regeln der Fehlerfortpflanzung berechnet werden, sozusagen von unten nach oben („bottom-up“) [3, 4] (s. auch Gl. 3.7). Diese Beiträge und ihre Verknüpfung können auch visualisiert werden, als „Fischgräten-“ oder Ishikawa-Diagramm (Abb. 3.6). Die Zuverlässigkeit einer solchen Unsicherheitsberechnung liegt natürlich darin, alle relevanten Beiträge zu (er)kennen, was sehr komplex werden kann. In der pharmazeutischen Analytik wird üblicherweise ein anderer Ansatz verwendet („top-down“), wobei die verschiedenen Beiträge experimentell zusammengefasst werden, in Form von Präzisionsebenen [5]. Dabei müssen die Beiträge nicht unbedingt einzelnen bekannt sein, obwohl dies sehr hilfreich bei
153
154
3 Allgemeine Beurteilung analytischer Daten
Abb. 3.6 Ishikawa-Diagramm für die LC-Systempräzision (reproduziert aus [6], S. 39).
3.3 Analytische Variabilität
der Fehlersuche sein kann (zumindest die Hauptbeiträge, d. h. die horizontalen Äste in Abb. 3.6). Grundsätzlich werden Kurz- und Langzeiteffekte in den Präzisionsebenen unterschieden, wobei System- und Wiederholpräzision von ersterem, die Laborvergleichspräzision (oder Intermediate Precision) und die Vergleichspräzision von letzterem beeinflusst werden. Üblicherweise werden Standardabweichungen (bzw. Varianzen) aus den quadrierten Abweichungen der Einzelwerte vom Mittelwert berechnet (Gl. 3.5). Es ist unbedingt erforderlich, beim Berichten von Standardabweichungen die zu Grunde liegenden Bedingungen klarzustellen, z. B. aus wiederholten Injektionen, aus unabhängigen Probenaufarbeitungen, aus Mittelwerten von Injektionen, aus Mittelwerten von Proben etc. Anderenfalls ist keine vernünftige Interpretation möglich. Weiterhin ist es vorteilhaft, Standardabweichungen immer auf Einzelwerte bzw. -injektionen zu beziehen, da nur dann eine weitergehende Betrachtung erfolgen kann. So ist es leicht möglich, aus einer Einzelwert-Standardabweichung die Standardabweichung eines Mittelwertes aus sechs Bestimmungen zu berechnen (= s/n, der sog. Standardfehler), aber nicht umgekehrt. Zur einfacheren Beurteilung ist es üblich, die Standardabweichung auf den jeweiligen Mittelwert zu beziehen. Die relative Standardabweichung ist als normierter Prozentparameter leichter mit anderen Erfahrungswerten vergleichbar. Des Weiteren kann die Standardabweichung auch aus der Spannweite von Doppelwerten berechnet werden (Gl. 3.6). Dies ist eine gute Möglichkeit, Parameter aus der Routineanalytik zu extrahieren (s. Abschn. 3.3.3). Zur Vermeidung von Wichtungseffekten dürfen sich die Mittelwerte allerdings nicht zu stark unterscheiden, eine maximale Differenz von ca. 10% sollte akzeptabel sein. Varianz und Standardabweichung: s2 =
∑ (x i
s2 =
∑(xi ,1 − xi ,2 )2
− x )2
(n − 1)
2⋅k
s =
s2
(3.5)
(3.6)
mit: x i , x = Einzelwert und Mittelwert einer Serie; x i ,1 / 2 = Doppelbestimmung einer Probe, Charge etc.; k = Anzahl der in Doppelbestimmung analysierten Proben, Chargen etc. 3.3.2 Systempräzision
Bei der Systempräzision wird dieselbe Probe wiederholt analysiert, d. h. in der Chromatographie dieselbe Analytlösung mehrfach injiziert. Deshalb wird diese Ebene oft auch als Injektionspräzision bezeichnet. Die im Englischen
155
156
3 Allgemeine Beurteilung analytischer Daten
gebräuchliche Bezeichnung „injection repeatability“ ist recht unglücklich, da dies leicht mit „repeatability“, also der Wiederholpräzision, zu verwechseln ist. Dies lässt sich leider auch in diversen Publikationen verfolgen und kann zu falschen Schlussfolgerungen führen, da nicht die in der Routineanalytik relevante Präzision erfasst wird. In Abb. 3.6 sind sehr anschaulich die (vielfältigen) einzelnen Beiträge zur Systempräzision ersichtlich. Über die Regeln der Fehlerfortpflanzung bzw. die Additivität der Varianzen können die Hauptbeiträge separiert werden (Gl. 3.7). Der relative Anteil mancher Beiträge ändert sich mit der Konzentration des Analyten (s. Abschn. 3.3.6), so dass bei höheren Konzentrationen die Detektions- und Integrationsvarianzen vernachlässigt werden können (s. Abb. 3.10). Die verbleibenden Varianzbeiträge zu Injektion und Trennung (im Wesentlichen Kurzzeitschwankungen des Flusses) können durch wiederholte Injektion einer Substanzmischung separiert werden, als Maldener-Test ursprünglich zur Qualifizierung von HPLCSystemen beschrieben [7]. Durch Umstellung von Gl. (3.7) und Subtraktion der Varianz der relativen Peakflächen der in der Mischung enthaltenen Analyten von der der absoluten Peakflächen (d. h. der Gesamt-Systempräzision) erhält man die Varianz der Injektion (Gl. 3.8), hier vereinfacht direkt als Quadrat der relativen Standardabweichungen dargestellt. Unter Verwendung von 10 Injektionen einer Mischung von Methyl-, Ethyl-, Propyl- und Butylester der 4-Hydroxybenzoesäure wurden Präzisionen der relativen Peakfläche zwischen 0,04 und 0,12% erhalten. Die relative Peakfläche wird im Wesentlichen von kurzzeitigen Schwankungen des Flusses beeinflusst und entspricht im obigen Beispiel einem Varianzbeitrag von 5 bis 22%. Je kleiner die Gesamtpräzision, desto größer fiel dieser Beitrag aus, aber insgesamt zeigte sich, dass der überwiegende Teil der Variabilität durch das Injektionssystem verursacht wird, zumindest bei einfachen Chromatographien. Bei sehr komplexen Anwendungen kann dieser Anteil durchaus geringer ausfallen. Dann kann man jedoch nur bedingt Informationen über die Geräteleistung aus dem Systemeignungstest (SST, s. Kapitel 13.1) ziehen, sondern nur das Gesamtsystem Gerät und Methode betrachten. Varianzbeiträge zur Systempräzision: 2 2 2 + s 2Trennung + sDetektion + sIntegration si 2 = sInjektion
(3.7)
Injektionspräzision: rsdInjektion =
2 2 rsdabs − rsdrel
(3.8)
Da die Systempräzision die unterste Präzisionsebene darstellt und die Variabilität in den weiteren Ebenen nur zunehmen kann, ist es sinnvoll, hier bereits zu begrenzen, was in den Systemtestanforderungen der Arzneibücher auch getan wird (s. Kapitel 13.1). In der Literatur wird eine Variabilität von Autosamplern zwischen 0,3 und 0,7% und für Systemtests zwischen 0,5 und 1,2% [8] beschrieben, oder von 0,7 bis 1,0% [9]. In einem Review von ca. 20 Publikationen
3.3 Analytische Variabilität
([10], S. 41) wurden relative Standardabweichungen zwischen 0,06 und 1,90% zusammengestellt, mit einem mittleren Wert von 0,92%. Etwa drei Viertel aller Werte waren kleiner als 1,0%. Es muss jedoch beachtet werden, dass teilweise die Interpretation schwierig war, da nicht ausreichende Informationen vorlagen, z. B. über das Verhältnis der Testkonzentration zur Bestimmungsgrenze, oder wenn es sich um simultane Bestimmung mehrerer Analyten handelte. In einer Untersuchung zur Konzentrationsabhängigkeit der Präzision [11] wurde eine mittlere Systempräzision bei höheren Konzentrationen von 0,31% bestimmt. Bei Stabilitätsstudien einer Lyophilisatformulierung ergab sich aus 132 Doppelinjektionen eine mittlere Systempräzision von 0,28%, wobei die Systempräzisionen der sechs Lagerintervalle (9 bis 48 Monate) zwischen 0,14% und 0,49% lagen. Eine Erfassung von 53 Systempräzisionen im Rahmen der (jährlichen) Qualifizierung von 28 verschiedenen LC-Systemen ergab Werte zwischen 0,10% und 0,87% mit einem mittleren Wert von 0,34%. 3.3.3 Wiederholpräzision
Bei der Wiederholpräzision müssen unabhängige Proben hergestellt und innerhalb eines kurzen Zeitraumes, d. h. innerhalb einer Serie oder Messreihe, analysiert werden. Zusätzlich zu den Varianzbeiträgen der Systempräzision kommen hier die Variabilitäten der jeweiligen Probenaufarbeitung dazu. Da die Präzision der Routineanwendung die ausschlaggebende Information darstellt, sollte die experimentelle Bestimmung auch die im Routineeinsatz herrschenden Bedingungen so weit wie möglich widerspiegeln. Das bedeutet die weitestgehende Verwendung von authentischen Proben, da nur dann auch alle Schritte der Probenaufarbeitung wie im Prüfverfahren beschrieben durchgeführt werden können (Ausnahmen s. Abschn. 3.3.6). Die ICH-Guideline [5] schreibt mindestens sechs Bestimmungen vor, um eine akzeptable Zuverlässigkeit zu erreichen (s. Abb. 3.2 b). Im Rahmen der Validierung wird zur Berechnung in der Regel Gl. (3.5) verwendet, d. h., man erhält die (individuelle) Wiederholpräzision einer Serie (oder mehrerer Serien, s. Abschn. 3.3.4). Die Wiederholpräzision kann aber auch aus Doppelbestimmungen in der Routineanalytik erfasst werden (s. Gl. 3.6). Die Differenzen der beiden Probenaufarbeitungen pro Charge erfassen die Kurzzeitvariabilität, die über mehrere Chargen aufsummiert wird. Dies erlaubt über die Zeit eine große Anzahl an Werten zu erfassen und damit die Zuverlässigkeit deutlich zu erhöhen [12]. Eine solche Wiederholpräzision entspricht (ab ca. 20 Chargen) der in Abschn. 3.3.4 beschriebenen mittleren Wiederholpräzision der Varianzanalyse (Gl. 3.9). Zu beachten ist hierbei, dass die Mittelwerte der Proben oder Chargen nicht zu unterschiedlich sein dürfen, insbesondere wenn relative Standardabweichungen berechnet werden. Eine Spannweite bis zu etwa 10% sollte akzeptabel sein. Wenn keine authentischen Proben zur Verfügung stehen, beispielsweise im Fall von Nebenproduktbestimmungen, besteht auch die Möglichkeit aufgestockte
157
158
3 Allgemeine Beurteilung analytischer Daten
Proben zu verwenden, in ICH als Bestimmung mit mindestens neun Werten über den Arbeitsbereich beschrieben [5]. Hierfür wird eine ungewichtete lineare Regression durchgeführt. Die Reststandardabweichung beschreibt die Streuung der experimentellen Ergebnisse um die Ausgleichsgerade. Die Richtigkeit des linearen Modells vorausgesetzt, ist dies ein Maß für die zufällige Variabilität, also die Präzision. Wird die Reststandardabweichung auf die mittlere Konzentration normiert, erhält man die relative Verfahrensstandardabweichung (s. Kapitel 2), die der relativen Standardabweichung der Wiederholpräzision entspricht. Um einen für den gesamten einbezogenen Konzentrationsbereich repräsentativen Wert zu bekommen, sollten maximale und minimale Konzentration ein Verhältnis von ca. fünf nicht überschreiten. Mit einem solchen Vorgehen kann man die Validierungselemente Richtigkeit und Präzision (ggf. auch Linearität und Bestimmungsgrenze, in Abhängigkeit vom erforderlichen und inhaltlich akzeptablen Konzentrationsbereich) kombinieren oder Teildatensätze verwenden. Nachteil einer so erhaltenen Präzision ist allerdings, dass zumindest die Probe (und damit die Variabilitätsbeiträge der Aufarbeitung) nicht der im Routineprüfverfahren verwendeten entspricht, so dass die Präzision evtl. unterschätzt wird. Auch können so Inhomogenitätseffekte nicht erfasst werden. Bei der Festlegung von Akzeptanzgrenzen muss darauf geachtet werden, dass diese alle aus der normalen Variabilität resultierenden Ergebnisse einschließen, d. h., die Obergrenze der jeweiligen Verteilung repräsentieren sollten (s. Abb. 3.4). Unter Berücksichtigung von 99% der Verteilung beträgt die Obergrenze für eine Standardabweichung aus sechs Werten das etwa 2-fache der wahren Standardabweichung. An Stelle der wahren Standardabweichung kann man natürlich nur einen experimentellen Wert verwenden, der möglichst zuverlässig abgesichert sein sollte, d. h., mittels ausreichender Datenzahl erhoben wurde, die sog. ZielStandardabweichung (Target Standard Deviation [13], s. u. Vergleichspräzision). Wie präzise muss es nun sein?
Die Antwort ergibt sich primär aus den Anforderungen an das Prüfverfahren, oft als Spezifikationsgrenzen manifestiert. Dies sind jedoch nur Mindestanforderungen, die in Abschn. 3.3.5 behandelt werden. Darüber hinaus sollte auch der gegenwärtige analytische „state of the art“ herangezogen werden. Oft wird in LC-Gehaltsbestimmungen eine Grenze von 2,0% für Wiederholpräzisionen verwendet, die wohl eher als „kollektiver intuitiver Erfahrungswert“ zu betrachten ist, da nicht auf „harte Daten“ rückführbar. In Veröffentlichungen sind überwiegend Präzisionen zwischen 0,5 und 1% zu finden, aber auch deutlich größere Standardabweichungen, bis zu 4%, Einzelfälle bis zu 12% (Zusammenfassung s. [10], S. 43). Es ist oft schwierig, weitergehende Analysen solcher Extremwerte durchzuführen, da nicht genügend Information veröffentlicht ist, z. B. wie weit die Testkonzentration von der Bestimmungsgrenze entfernt und die geringe Präzision damit konzentrationsbedingt ist (s. Abschn. 3.3.6). Eine Analyse von 458 Wiederholpräzisionen, die aus Validierungs- und Transferstudien bei Sanofi-Aventis sowie aus Stabilitätsstudien (Projekt der Fachgruppe Qualitätskontrolle/Pharmazeutische Analytik der DPhG [14]) stam-
3.3 Analytische Variabilität
men, erlaubte eine weitergehende Differenzierung. Die Wiederholpräzision ist weniger vom Analyten als von der jeweiligen Arzneiform abhängig. Es wurden, nach Arzneiformen gruppiert, die Obergrenzen der Verteilung der individuellen Wiederholpräzisionen und die Durchschnittswerte betrachtet. Letztere können, auf Grund der höheren Anzahl der einbezogenen Bestimmungen, als Zielwerte oder Schwerpunkt der jeweiligen Gruppe aufgefasst werden. Die Obergrenze der Verteilung der relativen Standardabweichungen für Wirkstoffe, Injektionslösungen und Lyophilisate liegt bei 1,2–1,4%, der mittlere Wert bei 0,5–0,6%. Dies stimmt gut mit der Ziel-Standardabweichung von 0,6% aus einem Ringversuch des Europäischen Arzneibuches für den LC-Gehalt von Cloxacillin überein [15]. Die LC-Gehaltsbestimmung von Tabletten ist mit einer höheren Variabilität verbunden, bis zu 1,8% bei einer mittleren Wiederholpräzision von 0,9%. Die mittlere relative Standardabweichung für halbfeste Zubereitungen ist noch etwas größer mit 1,0%, die Obergrenze für einen Wirkstoff in einem pharmazeutischen Bad liegt bei 3,4%. Für andere Arnzeiformen, wie z. B. Emulsionen bzw. Kaugummis, wurden in der Literatur Wiederholpräzisionen bis zu 5% bzw. 15% beschrieben (s. [10], S. 48). Die Abhängigkeit der Präzision von der Arzneiform dürfte mit der Probe bzw. Probenaufarbeitung zusammenhängen: Je komplexer diese sind, desto höher die Variabilität. Einzelne Analyten bzw. Methoden können natürlich auch abweichende Präzisionen aufweisen, wobei die Systempräzision stets die Untergrenze darstellt. Die Untersuchung bestätigt die Gültigkeit der 2-%-Erfahrungsgrenze für viele Anwendungen, zeigt aber auch, dass bei verschiedenen Probentypen höhere Wiederholpräzisionen, bei manchen jedoch geringere erwartet werden können. Ein weiteres interessantes Ergebnis ist, dass das in Abschn. 3.1 aus den simulierten normalverteilten Werten resultierende Verhältnis zwischen wahrer Standardabweichung und Verteilungsobergrenze von ca. 2 (s. Abb. 3.4) mit den experimentellen Wiederholpräzisionen, und zwar unabhängig von der Arzneiform, bestätigt wurde. 3.3.4 Vergleichspräzision
In die nächste Präzisionsebene gehen Faktoren ein, die die Langzeitvariabilität des Prüfverfahrens abbilden sollen. Dies sind z. B. unterschiedliche Tage (Zeit), Bearbeiter, Geräte, Materialien usw. Bei Variation dieser Faktoren innerhalb eines Labors wird von Laborvergleichspräzision (Intermediate Precision) gesprochen, bei Einbeziehung anderer Laboratorien von Vergleichspräzision. Der Unterschied zwischen beiden Stufen ist fließend, insbesondere wenn man längere Zeiträume betrachtet, wichtig z. B. für Stabilitätsuntersuchungen (fast philosophisch: Ist ein Labor nach drei Jahren noch das Gleiche?). Ringversuchsbedingungen stellen einen Sonderfall dar, da hier noch weitere Effekte hinzukommen, wie z. B. größere Geräte-, Know-how- und Interpretationsunterschiede („kulturelle“ Effekte) als bei Anwendungen innerhalb einer Firma bzw. Organisationseinheit. Da mehrere Messserien durchgeführt werden, ist bei den chromatographischen
159
160
3 Allgemeine Beurteilung analytischer Daten
Relativverfahren die Variabilität der Kalibrierung ein wesentlicher Präzisionsbeitrag. Deshalb muss auch das gesamte Prüfverfahren, einschließlich Kalibrierung unabhängig von jedem Bearbeiter wiederholt werden. Die ICH-Guideline schreibt keine Anzahl an erforderlichen Serien vor, fordert jedoch die Berechnung der Präzisionen für jede Ebene. Demzufolge besteht der Minimalansatz darin, die Serie für die Wiederholpräzision (mit sechs Bestimmungen) zu wiederholen, z. B. an einem anderen Tag, mit einem anderen Bearbeiter und an einem anderen Gerät. Damit würde man die Variation der Faktoren kombinieren. Wie bereits mehrfach diskutiert, nimmt natürlich die Zuverlässigkeit der Ergebnisse mit der Anzahl der Bestimmungen zu, bei der Vergleichspräzision entsprechend mit der Anzahl der Serien. Dies sollte berücksichtigt werden, da die Vergleichspräzision die Variabilität darstellt, die für die eigentlichen Anwendungen wie Chargenfreigabe oder Stabilitätsuntersuchungen relevant ist. Bei einer Erhöhung der Anzahl der Serien kann die Anzahl der Bestimmungen innerhalb der Serien reduziert werden, da es auf die Gesamtzahl der Freiheitsgrade ankommt (Gesamtzahl an Werten über alle Serien minus Anzahl der Serien, df = k · (n – 1)). 3.3.4.1
Varianzanalyse
Die Berechnung erfolgt vorzugsweise mittels Varianzanalyse (ANOVA) [2], da hier Ergebnisse für mehrere Präzisionsebenen erhalten werden, wie von der ICH-Guideline gefordert. Dies erlaubt auch eine Bewertung der „Empfindlichkeit“ der verschiedenen Analysenschritte, in der USP als „ruggedness“ bezeichnet [16]. Mit einer Einweg- (oder Ein-Faktor)-ANOVA können zwei Präzisionsebenen berechnet werden (Gl. 3.9 und 3.11) [2, 17]. Im Fall einer Vergleichspräzisionsstudie entsprechen diese Ebenen der mittleren Wiederholpräzision und der (Labor-)Vergleichspräzision. Erstere ergibt sich aus der mittleren Varianz innerhalb der Serien, letztere enthält zusätzlich die Varianz zwischen den Serien, welche von den Variationsfaktoren der Studie (Kalibrierung, Bearbeiter, Gerät etc.) verursacht wird. Auf Grund der höheren Freiheitsgrade ist die mittlere Wiederholpräzision (Gl. 3.9) eine bessere Abschätzung für die wahre Standardabweichung. Im Beispiel in Tabelle 3.2 beträgt sie 0,87% bzw. 0,85% unter Verwendung der ersten bzw. zweiten Injektion. Die Injektionen wurden separat herangezogen, damit sich alle berechneten Standardabweichungen auf eine Einzelinjektion beziehen. Intra-serielle Varianz: nj
k
sr2
oder
=
sr2 =
∑ ∑(x j ,i j =1 i =1
∑n j
∑(s2j ) k
− x j )2
−k
(für gleiche n)
(3.9)
0,1265 0,5996 0,3689
Injektionsvarianz (Ebene 3) (df = 20)
Probenaufarbeitungsvarianz (Ebene 2) (df = 15)
Inter-serielle Varianz (Ebene 1) (df = 4)
2-Weg-ANOVA
0,3789
0,7200
0,3259
0,7575
97,57
Inter-serielle Varianz (df = 4)
97,88
100,56
(2. Injektion)
99,68
100,76
101,09
Intra-serielle Varianz (df = 15)
99,57
Serie 5
100,60
100,57
100,81
1-Weg-ANOVA
100,55
Serie 4
99,46
101,20
99,80
2
Inter-serielle Varianz (df = 4)
99,51
Serie 3
101,88
99,86
1
(1. Injektion)
101,83
Serie 2
99,80
2
Einwaage 2
Intra-serielle Varianz (df = 15)
100,22
Serie 1
Einwaage 1
1-Weg-ANOVA
1
Injektion
Einwaage
Vergleichspräzision
Wiederholpräzision
Systempräzision
Vergleichspräzision
Wiederholpräzision
Vergleichspräzision
99,53
2
100,83
100,38
101,38
101,58
Einwaage 3
Wiederholpräzision
100,03
100,06
102,10
101,78
99,44
1
Tabelle 3.2 Vergleichspräzisionsstudie einer LC-Gehaltsbestimmung (in Prozent Nominalgehalt) mit fünf Serien und jeweils vier Probenaufarbeitungen mit Doppelinjektion. Die Einweg-ANOVA wurde jeweils separat mit der 1. und mit der 2. Injektion berechnet (s. auch ANOVA.xls auf der Begleit-CD).
100,79
100,52
99,06
101,20
100,57
1
2
1,04%
0,85%
0,35%
1,05%
0,85%
1,04%
0,87%
99,09
100,27
99,07
101,03
100,47
Einwaage 4
3.3 Analytische Variabilität 161
162
3 Allgemeine Beurteilung analytischer Daten
Inter-serielle Varianz: k
sg2 =
∑ (x j
− x )2
j =1
k −1
−
sr2 n
(für gleiche n)
(3.10)
Gesamtvarianz und -präzision: sR2 = sr2 + s 2g wenn sg2 < 0 : sR2 = sr2 sR =
sr2
(3.11)
mit: xj,i = individueller Wert x in Serie j; n j , s j , x j = Anzahl an Werten, Standardabweichung und Mittelwert in Serie j; k = Anzahl an Serien. Die Berechnung ist unabhängig von der experimentellen Durchführung, d. h., der Anwender muss darauf achten, welche Präzisionsebenen adressiert werden. Wenn beispielsweise mehrere Probenaufarbeitungen durchgeführt und die Probelösungen wiederholt injiziert werden, erhält man mit Gl. (3.9) die (mittlere) Systempräzision und mit Gl. (3.11) die Wiederholpräzision. In der eigentlichen statistischen Anwendung der Varianzanalyse wird auf Gleichförmigkeit der intra-seriellen Varianzen und auf signifikante Unterschiede zwischen den Mittelwerten getestet. Letzteres ist das eigentliche Ziel einer statistischen Varianzanalyse, die Identifizierung abweichender Datengruppen. Unser Ziel ist aber die Berechnung von Präzisionen, weshalb die o. g. statistischen Tests ignoriert werden sollten. Nicht akzeptable Ergebnisse für die Präzisionen lassen sich praxisrelevanter über eine Akzeptanzobergrenze für individuelle Wiederholpräzisionen und für die Vergleichspräzision verhindern. In letztere gehen auch die Mittelwertsunterschiede ein. Mit Hilfe von Mehrweg- (oder Mehrfaktor-) Varianzanalysen lassen sich die Varianzen mehrerer Schritte des Prüfverfahrens bzw. Präzisionsebenen separieren [18, 19]. Bei Verwendung von Mehrfachinjektionen in einer Vergleichspräzisionsstudie kann man beispielsweise die System-, Wiederhol- und Laborvergleichspräzision gleichzeitig berechnen (s. Tabelle 3.2 und ANOVA.xls auf der Begleit-CD). Oder der Beitrag einzelner Faktoren, wie Bearbeiter, Gerät etc., kann betrachtet werden, z. B. zur Methodenoptimierung (s. Abschn. 3.3.5). 3.3.4.2
Literaturangaben zur Vergleichspräzision
Es ist wesentlich schwieriger, in der Literatur Angaben zur Laborvergleichspräzision zu finden, Ergebnisse zwischen 0,5 und 3,5% werden berichtet (Zusammenfassung s. [10], S. 46). Die im vorigen Abschnitt bereits beschriebene Datensammlung von Sanofi-Aventis und DPhG umfasste 224 Vergleichspräzisionen aus Validierungs- und Transferstudien sowie aus Stabilitätsuntersuchungen [14]. Die mittleren Vergleichspräzisionen betrugen das 1,4- bis 2-fache der jeweiligen mittleren Wiederholpräzision, was die zusätzlichen Varianzbeiträge widerspiegelt.
3.3 Analytische Variabilität
Die mittleren Werte bzw. die Obergrenzen der Vergleichspräzisionen betrugen 1,0 bzw. 1,7% für Lyophilisate und Arzneistoffe, 1,1 bzw. 2,5% für Injektionslösungen, 1,2 bzw. 2,3% für Tabletten und 1,6 bzw. 3,0% für Cremes (s. [10], S. 48). Bei Arzneiformen bzw. Proben mit höherer Wiederholpräzision (geringe relative Standardabweichung) erhalten die Varianzbeiträge der Vergleichsfaktoren ein höheres Gewicht (wie bei Injektionslösungen) und umgekehrt (wie bei Tabletten). Ersteres führt dann auch schnell bei Anwendung von statistischen Signifikanztests zum Ergebnis eines signifikanten Mittelwertsunterschiedes, obwohl die Gesamtpräzision durchaus akzeptabel ist. 3.3.5 Konsequenzen für das Design eines Prüfverfahrens
Die Kenntnis der verschieden Varianzbeiträge kann genutzt werden, um den Hauptbeitrag zur Gesamtpräzision zu identifizieren (Abb. 3.7) und auf dieser Grundlage den größten Hebel für eine Optimierung des Prüfverfahrens zu finden. Dies kann einerseits durch methodische Optimierung (z. B. der Probenaufarbeitung) erfolgen, andererseits durch Erhöhung der Anzahl der Bestimmungen (und damit Verringerung der Gesamtvariabilität), sozusagen „statistisch“. Die bisher verwendeten Gleichungen für Standardabweichungen bezogen sich auf Einzelwerte. Bei Kenntnis der einzelnen (zuverlässigen!) Varianzbeiträge kann nun mit Gl. (3.12) eine „synthetische“ Standardabweichung des Prüfverfahrens berechnet werden.
Abb. 3.7 Darstellung des relativen Anteils der Varianzen an der Vergleichspräzision für verschiedene Arzneiformen bzw. Probenarten. Es wurden die mittleren Varianzen der Beispiele aus [10, Tabelle 2.1-5] verwendet, ergänzt durch eine Systempräzision von 0,31% [11], die für alle Formen als gleich angenommen wurde.
163
164
3 Allgemeine Beurteilung analytischer Daten
Zu einem äquivalenten Ergebnis würde man auch kommen, wenn die Präzision exakt nach festgelegter Prüfanweisung bestimmt wird, z. B. Doppelinjektionen, doppelte Probenaufarbeitung, zwei externe Referenzstandards und das Ganze sechs Mal wiederholt. Damit kann man zwar auch gut die Eignung des Verfahrens abschätzen, die Präzision gilt aber auch nur für dieses Design. Präzision des Prüfverfahrens: sPV =
s 2p sg2 si2 + + m⋅n⋅k n⋅k k
(3.12)
mit: si2 , s 2p , sg2 = Systemvarianz, Varianz der Probenaufarbeitung, inter-serielle Varianz; m = Anzahl der Mehrfachinjektionen; n = Anzahl der Probenaufarbeitungen; k = Anzahl der Serien (mit eigener Kalibrierung), überwiegend k = 1. Mit m, n, und k = 1 erhalten wir wieder die Standardabweichung für einen Einzelwert. Die Varianz der Wiederholpräzision ergibt sich aus den ersten beiden Termen in Gl. (3.12). Die Anzahl der Serien (k) ist der Vollständigkeit halber aufgeführt, es dürfte allerdings nur äußerst selten vorkommen, dass der Endwert einer Analyse aus mehreren unabhängigen Serien mit eigener Kalibrierung ermittelt wird. Dies
Abb. 3.8 Berechnete relative Standardabweichung des Prüfverfahrens in Abhängigkeit von der Anzahl der Mehrfachinjektionen und Probenaufarbeitungen (s. auch Optimierung.xls auf der Begleit-CD). (a) LC-Gehaltsbestimmung in Injektionslösung (aus [10]) mit si2 = 0,0961 (16%), sp2 = 0,0159 (3%), und sg2 = 0,4960 (82%). (b) LC-Gehaltsbestimmung in Tabletten (aus [10]) mit si2 = 0,0961 (3%), sp2 = 1,274 (42%), sg2 = 1,650 (55%). Die Varianzen wurden auf einen Mittelwert von 100 normiert.
3.3 Analytische Variabilität
ist sicher nur gerechtfertigt, wenn z. B. die Kalibrierung mit einer sehr großen Variabilität behaftet ist. Der Anwender kann nun zur Optimierung die Anzahl an Mehrfachinjektionen und an Probenaufarbeitungen variieren und den Einfluss auf die Präzision des Prüfverfahrens berechnen. Natürlich sinkt die Standardabweichung generell mit zunehmender Anzahl an Bestimmungen immer weiter, aber der zusätzliche Präzisionsgewinn wird immer geringer. Demzufolge ist das Ganze eine Aufwand-Nutzen-Optimierung, deren Kriterien der Anwender festlegen muss. In Abb. 3.8 sind verschiedene Szenarien mit Einzelbeispielen für Injektionslösung und Tabletten (aus [10], Tabelle 2.1-5) dargestellt (s. auch Optimierung.xls auf der Begleit-CD). Im Beispiel der Tablettenproben (Abb. 3.8 b) ist deutlich zu erkennen, dass wiederholte Injektionen kaum zur Verminderung der Variabilität beitragen, da der Anteil der Systemvarianz sehr gering ist, wohl aber die Erhöhung der Anzahl der Probenaufarbeitungen. Im Fall der Injektionslösung (Abb. 3.8 a) hat die Erhöhung sowohl der Anzahl der Injektionen als auch der Probenaufarbeitungen einen Effekt. Allerdings starten wir hier bereits mit einer sehr geringen Standardabweichung. 3.3.6 Konzentrationsabhängigkeit der Präzision
Mit sinkender Konzentration nimmt auch die absolute Variabilität ab, aber langsamer als die Konzentration. Dies führt zu einer Abnahme der relativen Präzision. William Horwitz et al. untersuchten eine Vielzahl an Ringversuchen verschiedenster Analyten und Analyseverfahren und fanden eine bemerkenswert einfache mathematische Beschreibung der Konzentrationsabhängigkeit der (Ringversuchs-)Vergleichspräzision (Gl. 3.13). Die relative Standardabweichung der Vergleichspräzision ist demnach nur von der Konzentration des Analyten in der Matrix abhängig. Die sog. „Horwitz-Funktion“ wird in der chemischen Analytik als Richtwert für die Abschätzung einer akzeptablen Vergleichspräzision in Ringversuchen eingesetzt. Die erhaltenen Ergebnisse sollten zwischen der Hälfte und dem Doppelten der „Horwitz-Vorhersage“ für die jeweilige Konzentrationsfraktion betragen. Die Intra-Laborvariabilität (d. h. die Wiederholpräzision) kann bei der Hälfte bis zwei Dritteln der Inter-Laborvariabilität erwartet werden [20]. Bei einer Dosierung des Wirkstoffs von 4 mg in einer 400-mg-Tablette (d. h. einer Konzentrationsfraktion von 0,01) müsste man beispielsweise mit einer Ringversuchs-Standardabweichung zwischen 2,0 und 8,0% und einer Wiederholpräzision von 1,0 bis 5,3% rechnen. Horwitz-Funktion: RSDR (H ) = 2 ⋅ c −0,1505
(3.13)
mit: RSDR(H) = nach Horwitz vorhergesagte relative Standardabweichung der (Ringversuchs-)Vergleichspräzision, experimentelle Ergebnisse sollten zwischen der Hälfte und dem Zweifachen liegen; c = Konzentrationsfraktion des Analyten in der (ursprünglichen) Probe.
165
166
3 Allgemeine Beurteilung analytischer Daten
Die Horwitz-Funktion bezieht sich auf einen sehr breiten Konzentrations- und Anwendungsbereich sowie auf Ringversuchsbedingungen, wo zusätzliche Effekte, die zur Erhöhung der Variabilität beitragen, erwartet werden können [21]. Bei Prüfverfahren in der pharmazeutischen Analytik, die innerhalb derselben Firma angewendet werden, kann man üblicherweise von einem höheren Grad an Beherrschung (oder zumindest Konsistenz) der Methode ausgehen. Wie sieht nun dort die Konzentrationsabhängigkeit der Präzision aus? In einer Modellstudie [11] wurden Wiederholpräzisionen aus fünf bis sieben Bestimmungen einer mit Glibenclamid aufgestockten Matrix typischer Tablettenhilfsstoffe zwischen 0,025 und 125% der normalen Dosis (5 mg/90 mg Hilfsstoffe) ermittelt (Abb. 3.9). Die Abb. 3.9 a zeigt, dass bei höheren Konzentrationen die Wiederholpräzisionen unter der Horwitz-Vorhersage liegen, bei geringen Konzentrationen und Annäherung an die Bestimmungsgrenze am oberen Ende. Oberhalb von ca. 10% Wirkstoffgehalt sind sowohl System- als auch Wiederholpräzision relativ konstant und zeigen einen deutlichen Unterschied (Abb. 3.9 b). Dieser entspricht der Variabilität der Probenaufarbeitung, so dass deren Varianz aus der mittleren Wiederholvarianz von (0,70%)2 und der mittleren Systemvarianz von (0,31%)2 zu
Abb. 3.9 Konzentrationsabhängigkeit der Systempräzision (Quadrate) und der Wiederholpräzision (Rhomben) einer LC-Gehaltsbestimmung von Glibenclamid in einer Tablettenformulierung (Daten aus [11]). (a) Die gestrichelten Linien stellen die Grenzen der aus der Horwitz-Funktion abgeleiteten Wiederholpräzision dar [20]; (b) doppelt
logarithmische Darstellung. Der Trend von System- bzw. Wiederholpräzision ist mit gestrichelter bzw. durchgezogener Linie dargestellt und wurde mittels quadratischer Regression des Logarithmus der Standardabweichung gegen die logarithmierte Konzentration berechnet.
3.3 Analytische Variabilität
(0,63%)2 berechnet werden kann. Von den in Abschn. 3.3.1 diskutierten Variabilitätsbeiträgen (s. Gl. 3.7) zur Systempräzision ist bei größeren Konzentrationen nur die Injektionsvarianz von Bedeutung, so dass diese mit der ermittelten Systemvarianz gleichgesetzt werden kann. Mit abnehmender Konzentration nehmen die relativen Standardabweichungen beider Präzisionen zu und nähern sich einander an. Da sowohl Probenaufarbeitung als auch Injektionsvarianz (relativ gesehen) konstant bleiben, muss die Zunahme der Gesamtvariabilität auf die Detektions- und Integrationsbeiträge zurückgeführt werden. Die Abb. 3.10 stellt die konzentrationsabhängige Veränderung des relativen Anteils der hauptsächlichen Variabilitätsbeiträge dar. Bei geringen Konzentrationen (unterhalb von ca. 0,1% bzw. dem 2–4-fachen der Bestimmungsgrenze) dominiert die Detektions- und Integrationsvariabilität, so dass die Beiträge der Probenaufarbeitung und der Injektion vernachlässigt werden können und System- und Wiederholpräzision sich angleichen. Bei Konzentrationen über ca. 10% (bzw. dem 200-fachen der Bestimmungsgrenze) ist die Detektions- und Integrationsvariabilität vernachlässigbar, d. h. die Systempräzision ergibt sich im Wesentlichen aus der Injektionsvariabilität (s. Abb. 3.10 b). Hierbei muss der Trend der Beiträge betrachtet werden, da der relative Anteil der einzelnen Konzentrationen von der Streuung der individuellen Standardabweichungen beeinflusst wird. Die ab 80% Konzentration in Abb. 3.10 zu sehende Zunahme der Integrationsvariabilität dürfte auf zufällig höhere experimentelle Injektionspräzision zurückzuführen sein, da eine reale Zunahme mit steigender Konzentration keine logische Erklärung findet.
Abb. 3.10 Konzentrationsabhängigkeit der relativen Varianzbeiträge zur Wiederholpräzision (a) und zur Systempräzision (b). Erläuterungen siehe Text.
167
168
3 Allgemeine Beurteilung analytischer Daten
3.3.7 Schlussfolgerungen
Die Verwendung von internen Standards führt nur zu einer Verbesserung der Gesamtpräzision, wenn die Injektionsvariabilität den Hauptbeitrag liefert. (Eine andere Begründung wäre natürlich eine Kompensation von Matrix- oder weiteren Probenaufarbeitungseffekten). Wenn keine authentischen Proben mit Nebenprodukten in ausreichender Konzentration zur Verfügung stehen, kann man bei Nebenproduktbestimmungen die (Wiederhol-)Präzision auch aus wiederholten Injektionen ermitteln. Trotzdem sind authentische Proben (falls vorhanden) vorzuziehen, da nur dort Inhomogenitäten im Material oder die Variabilität der Probennahme erfasst werden. Sofern in akzeptabler Größenordnung, sind solche Inhomogenitäten als Bestandteil der normalen Variabilität zu betrachten. Da die Präzision stets von der Gesamtkonzentration abhängig ist, muss man bei Wiederfindungsuntersuchungen aus analythaltiger Matrix gefundenen und zugegebenen Analyt immer auf die Gesamtmenge beziehen, und nicht nur auf die zugesetzte Analytmenge. Ansonsten wäre eine sehr geringe, aufgestockte Analytkonzentration mit der ggf. viel größeren Variabilität der Gesamtkonzentration behaftet, was leicht zu größeren Abweichungen von der theoretischen Wiederfindung von 100% führen kann. Der Fehler wird vernachlässigbar, wenn die aufgestockte Menge mehr als das Vierfache der ursprünglich vorhandenen beträgt (s. [10], S. 71).
3.4 (Be)Merkenswertes
x Die Zuverlässigkeit von berechneten Parametern hängt stark von der zu Grunde liegenden Datenzahl ab, insbesondere bei Standardabweichungen. Der wahre Wert kann mit n = 3 das 4,4-fache des berechneten betragen (Obergrenze des 95-%-Vertrauensbereiches)! x Auf Grund der normalen zufälligen Variabilität von Messwerten ist auch für (zukünftige) Parameter mit einer Streuung zu rechnen. Für das Setzen von Akzeptanzgrenzen sind die (Ober)Grenzen der Verteilung der jeweiligen Parameter relevant. Der Erwartungswert für die Obergrenze der Verteilung der Standardabweichung aus sechs Werten beträgt etwa das Zweifache der jeweiligen Ziel-Standardabweichung (als zuverlässige experimentelle Abschätzung der wahren Standardabweichung). x Jeder Teilschritt eines Analyseverfahrens trägt mit seiner Variabilität zur Gesamtpräzision bei. In den Präzisionsebenen System-, Wiederhol- und Vergleichspräzision sind jeweils verschiedene Teilschritte zusammengefasst. Standardabweichungen sollten sich auf Einzelwerte beziehen, da nur dann weitergehende Berechnungen möglich werden.
Literatur
x Varianzbeiträge der verschiedenen Präzisionsebenen können mittels Varianzanalyse separat berechnet werden. Damit kann die Gesamtpräzision des Prüfverfahrens über die Anzahl an Einwaagen und Mehrfachinjektionen optimiert werden. x Die Präzision ist konzentrationsabhängig. Innerhalb derselben Methode verschiebt sich der relative Anteil der Varianzbeiträge zueinander mit der Konzentration. Mit abnehmender Konzentration erhöht sich der Anteil der Integrationsvarianz (auf das Kurzzeitrauschen zurückzuführen), unterhalb des ca. 20-fachen der Bestimmungsgrenze ist praktisch nur noch dieser Anteil von Bedeutung. Umgekehrt nimmt der Anteil der Injektionsvarianz zu und dominiert oberhalb des ca. 200-fachen der Bestimmungsgrenze die Systempräzision. Diese Mindestkonzentration muss deshalb für einen aussagekräftigen Systemeignungstest beachtet werden.
Literatur 1 United States Pharmacopeia, National Formulary, Chapter <1010> „Analytical Data – Interpretation and Treatment“, United States Pharmacopeial Convention, Rockville, USA. 2 DIN ISO 5725-2: Accuracy (trueness and precision) of measurement methods and results; a basic method for the determination of repeatability and reproducibility of a standard measurement method, 1990. 3 EURACHEM/CITAC Guide: Quantifying uncertainty in analytical measurement, 2nd ed., 2000. http://www.eurachem.ul.pt/, http:// www.measurementuncertainty.org 4 T. Anglov, K. Byrialsen, J. K. Carstensen et al., Accred. Qual. Assur., 2003, 8, 225–230. 5 ICH. Q2(R1): Validation of Analytical Procedures: Text and Methodology, 2005. 6 V. R. Meyer, Fallstricke und Fehlerquellen der HPLC in Bildern. Wiley-VCH, Weinheim, 2006. 7 G. Maldener, Chromatographia, 1989, 28, 85–88. 8 S. Küppers, B. Renger and V. R. Meyer, LC-GC Europe, 2000, 114–118. 9 B. Renger, J. Chromatogr. B, 2000, 745, 167–176.
10 J. Ermer, Chapter 2: Performance parameters, calculations and tests, in Method Validation in Pharmaceutical Analysis. A Guide to Best Practice (J. Ermer and J. H. McB. Miller, Eds.). Wiley-VCH, Weinheim, 2005. 11 U. Schepers, J. Ermer, L. Preu and H. Wätzig, J. Chromatogr. B, 2004, 810, 111–118. 12 J. Ermer, H.-J. Ploss, J. Pharm. Biomed. Anal., 2005, 37, 859–870. 13 A. G. J. Daas, J. H. M. Miller, Pharmeuropa, 1997, 9, 148–156. 14 J. Ermer, C. Arth, P. De Raeve, D. Dill, H. D. Friedel, H. Höwer-Fritzen, G. Kleinschmidt, G. Köller, H. Köppel, M. Kramer, M. Maegerlein, U. Schepers and H. Wätzig, J. Pharm. Biomed. Anal., 2005, 38, 653–663. 15 A. G. J. Daas, J. H. M. Miller, Pharmeuropa, 1998, 10, 137–146. 16 United States Pharmacopeia, National Formulary, Chapter <1225> „Validation of Compendial Methods“, United States Pharmacopeial Convention, Rockville, USA, 2006. 17 MVA – Method Validation in Analytics. Software zur analytischen Validierung, 2005. NOVIA GmbH, Frankfurt. www.novia.de
169
170
3 Allgemeine Beurteilung analytischer Daten 18 DIN ISO 5725-3: Accuracy (trueness and precision) of measurement methods and results; Part 3: Intermediate measures on the precision of a test method, 1991. 19 K. Koller, H. Wätzig, Electrophoresis, 2005, 26, 2470–2475.
20 R. Albert, W. Horwitz, Anal. Chem., 1997, 69, 789–790. 21 W. Horwitz, J. Assoc. of Anal. Chem., 1977, 60, 1355–1363.
171
4 Metrologische Aspekte der Beurteilung chromatographischer Daten Ulrich Panne
4.1 Einführung
Die Auswertung chromatographischer Daten hat in Mess- und Prüflaboratorien üblicherweise mehrere hierarchische Ebenen. Zum einen die unmittelbare numerische Behandlung der Messergebnisse mit entsprechenden mathematischen und statistischen Methoden. Hier gilt es bekannte Fallstricke, wie z. B. nichtlineare Relationen oder Datentransformationen, zu vermeiden, um nicht „zu schlechten Ergebnissen aus guten Daten“ zu kommen. Auch multivariate Methoden der Chemometrie wie Faktorenanalyse und Klassifizierungsalgorithmen werden häufig falsch interpretiert und eingesetzt, so dass die Informationsfülle moderner Verfahren wie LC-MS/MS sich eher ins Gegenteil wandelt (vgl. z. B. [1, 2] und Literatur dort). Wege zu einer sinnvollen und korrekten Auswertung wurden bereits in den vorherigen Kapiteln ausführlich behandelt. Die nächste Ebene der Beurteilung der Güte von chromatographischen Messung setzt sich mit den metrologischen Aspekten der Analyse auseinander, d. h. vornehmlich der Unsicherheit und Rückführbarkeit von Messergebnissen. Die Metrologie ist die Lehre vom Messen und wird häufig synonym für Messtechnik oder Messwesen verwendet. In der Regel wird darunter das System der Maßnahmen verstanden, mit denen sichergestellt werden soll, dass Messergebnisse vergleichbar und richtig sind. Dazu gehören: das Internationale Einheitensystem (SI), die messtechnische Rückführung, die Ermittlung und Angabe der Messunsicherheit, Vergleichsmessungen zwischen Laboratorien, aber auch die Grundsätze des Qualitätsmanagements. Dieses System wird von allen Beteiligten arbeitsteilig betrieben: Nationale Metrologie-Institute sorgen durch Referenzmessungen auf dem höchsten Qualitätsniveau für Anschluss an die SI-Einheiten, Kalibrierstellen durch Vergleichsmessungen für die Richtigkeit der Messgeräte, Prüflaboratorien durch Qualitätssicherung entsprechend den Grundsätzen der Norm ISO/IEC 17025 für korrekte Prüfergebnisse. Metrologie in der Chemie stellt sicher, dass chemische Analysenergebnisse vergleichbar und richtig sind.
172
4 Metrologische Aspekte der Beurteilung chromatographischer Daten
Die gegenseitige internationale Anerkennung von konkreten Analysenergebnissen, speziell in sicherheitsrelevanten Bereichen wie dem Gesundheitsschutz, dem Umweltschutz oder dem Verbraucherschutz, ist keine Selbstverständlichkeit und kann erhebliche Handelshemmnisse zur Folge haben. Zu diesem Zweck haben die nationalen Metrologieinstitute 1999 ein internationales Abkommen über die gegenseitige Anerkennung der Messergebnisse nationaler Metrologieinstitute unterzeichnet (CIPM Mutual Recognition Agreement). Gegenstand des Abkommens ist die gegenseitige Anerkennung von nationalen Normalen sowie von Kalibrier- und Messzertifikaten nationaler Metrologieinstitute. Die Vereinbarung betrifft auch die Analytische Chemie (Sachgebiet „Amount of Substance“). Die gegenseitige Anerkennung der nationalen Rückführungssysteme soll eine Grundlage für weitergehende Vereinbarungen in Handel, Wirtschaft und Gesetzgebung schaffen. Diese Anerkennung ist weitaus mehr als ein formaler Akt: Die betreffenden nationalen Institute müssen ihre Kompetenz und die Zuverlässigkeit ihrer Ergebnisse in internationalen Ringversuchen unter Beweis stellen und ein angemessenes Qualitätsmanagement-System vorweisen. Im Interesse größtmöglicher Transparenz werden die Ergebnisse dieser Ringversuche vom Bureau International des Poids et Mésures (BIPM) in Paris frei zugänglich im Internet publiziert (www.bipm.org). Während für die Messung physikalischer Größen seit langem nationale Rückführungssysteme bestehen, ist der Aufbau nationaler Rückführungssysteme für chemische Analysen noch weitgehend am Anfang. In den klassischen Gebieten der Metrologie erfolgt die Rückführung auf nationale Normale über Kalibrierlaboratorien. In der Analytischen Chemie ist eine solche Zwischenebene nur in wenigen Gebieten vorhanden. Hier richtet sich das Angebot metrologischer Dienstleistungen der nationalen Institute weitgehend direkt an die Anwender, d. h. analytisch-chemische Prüflaboratorien. Die Rückführbarkeit von Messungen und ihre Unsicherheit sind zwei wesentliche Paradigmen für Mess- und Prüflaboratorien geworden, nicht zuletzt durch die Verankerung dieser beiden Forderungen in der ISO/IEC 17025 [3]. Während die Rückführbarkeit demonstriert werden muss, also keine mathematische Eigenschaft ist, müssen die Unsicherheiten numerisch ermittelt werden. Nicht überraschend werden metrologische Verfahrensweisen in chemischen Analyselaboratorien häufig als artifiziell und realitätsfern betrachtet [4, 5]. In der Physik konzentrieren sich metrologische Betrachtungen vornehmlich auf die Verringerungen der Unsicherheiten, die Definition der „Analyten“ bzw. Messgrößen und ihre Rückführung bereitet hier keine Probleme. Hier ist selbstverständlich, dass zum Beispiel die Längenmessung unabhängig vom Objekt der Messung ist und auch zur Längenmessung wohl kaum eine Waage verwendet wird. In der Analytischen Chemie sind die Messaufgaben häufig deutlich komplexer und die beiden oberen Punkte nicht unbedingt selbstverständlich. In nur wenigen Fällen ist die gesamte Zusammensetzung einer Probe bekannt, zumeist steht nur ein einzelner Analyt oder eine bestimmte Klasse von Analyten im Mittelpunkt der Betrachtungen. Damit kann die Messung zum einen maßgeblich von der Art der Matrix bestimmt werden, d. h. vom Objekt der Messung. Zum anderen ist die
4.2 Messunsicherheit
Abb. 4.1 Ursachen/Wirkungs-Diagramm für die Unsicherheit einer chemischen Messung.
Identität des Analyten häufig nicht zweifelsfrei zu bestimmen, da die zugrundeliegende Chemie nicht ausreichend bekannt oder verstanden ist. Damit kann die angewendete Methode nicht zu einem sinnvollen Ergebnis führen. Damit wird in der chemischen Metrologie die Probe zum entscheidenden Element der Messung, d. h., was wird in welchem Material bestimmt. Für eine Rückführung können dann chemische Referenzmaterialen und deren Verfügbarkeit entscheidend werden. Das Ergebnis einer Messung wird typischerweise von drei wesentlichen analytischen Prozessen bestimmt (vgl. Abb. 4.1), dem Messinstrument (d. h. der Wiederholbarkeit von kontrollierten Messungen), der analytischen Methode, d. h. Probenbehandlung und damit der Selektivität des Verfahrens, und der Probenahme. Interessanterweise werden in der Praxis aufgrund der numerischen Unzugänglichkeit fast ausschließlich die beiden ersten Quellen für eine Unsicherheitsbetrachtung berücksichtigt, trotz des erheblichen Anteils der Probenahme an der Unsicherheit der Analyse. Damit erfolgt natürlich auch eine wesentliche Einschränkung welche Art von Proben durch die in einem Prüflaboratorium etablierten Methoden analysiert werden können, d. h. die verfügbaren validierten Methoden decken nur einen bestimmten Bereich der möglichen Heterogenität der Proben ab. 4.2 Messunsicherheit
Die Unsicherheit ist eine fundamentale Eigenschaft eines Messergebnisses und mit ihm untrennbar verknüpft [6–9]. Ein Messergebnis bezeichnet dabei in der
173
174
4 Metrologische Aspekte der Beurteilung chromatographischer Daten
Analytischen Chemie zumeist die Konzentration eines Analyten, kann aber eine deutlich größere Komplexität bei verfahrensdefinierten Zielgrößen aufweisen (z. B. die Messung adsorbierbarer organischer gebundener Halogene, AOX). Die Angabe von Unsicherheiten für ein Messergebnis ist kein optionales Charakteristikum einer analytischen Messung. Der Begriff Messunsicherheit impliziert auch nicht Zweifel an der Validität der Messungen. Im Gegenteil, die Kenntnis der Unsicherheit impliziert ein wachsendes Vertrauen in die Validität eines Messergebnisses. Selbst bei einer Korrektur aller systematischen Fehlerquellen führen zufällige Variationen einer einzelnen Messung um den Erwartungswert zu einer Unsicherheit. „Fehler“ bzw. „Messabweichung“ und Unsicherheit müssen voneinander unterschieden werden. Die Messabweichung ist definiert als Differenz zwischen einem individuellen Ergebnis und dem wahren Wert der Messgröße und somit ein einzelner Wert. Die Unsicherheit stellt ein Intervall dar und kann, wenn sie für eine analytische Methode und eine definierte Probenart bestimmt wird, für alle Bestimmungen, die auf genau diese Art durchgeführt werden, herangezogen werden. Somit kann ein Messergebnis zufällig nahe dem (wahren) Wert der Messgröße liegen und damit einen vernachlässigbaren Fehler besitzen. Aufgrund des idealisierten Prinzips ist der wahre Wert jedoch nicht bekannt und die Unsicherheit des Ergebnisses kann immer noch sehr hoch sein. Folgerichtig bezeichnet der GUM (Guide to the Expression of Uncertainty in Measurement) [10] die Messunsicherheit „als ein dem Messergebnis zugeordneter Parameter, der die Streuung der Werte kennzeichnet, die vernünftigerweise der Messgröße zugeordnet werden können“. Diese Definition umfasst Werte, die unter Wiederhol-, Zwischen- und Vergleichsbedingungen gewonnen werden. Aber auch unterschiedliche Korrekturen bekannter systematischer Fehler und theoretische Ansätze können zu dieser Streuung beitragen. Damit gilt, dass alle experimentell oder theoretisch ermittelten Werte, sofern sie nicht als falsch erkannt sind, der Messgröße zugeordnet werden. Die Messunsicherheit ist somit ein Maß für diese Bandbreite möglicher Werte und beschreibt zusammen mit dem Messergebnis den gesamten Kenntnisstand über die Messgröße.
Damit ist die Messunsicherheit mit der Zuverlässigkeit und Vergleichbarkeit von analytischen Ergebnissen untrennbar verknüpft und stützt damit das Vertrauen in nachfolgende Entscheidungsprozesse. Messunsicherheiten müssen so ermittelt werden, dass sie unabhängig vom Verfahren und zu bestimmendem Parameter sind. Darüber hinaus können Messunsicherheiten eines Messergebnisses benutzt werden, um die Messunsicherheit abgeleiteter Größen zu bestimmen. Für einen allgemeinen Überblick und beispielhafte Berechnungen seien der entsprechende EURACHEM/CITAC-Leitfaden [11] bzw. [12] empfohlen, hier findet sich auch weitere Literatur und Angaben zu den entsprechenden ISO-Normen. Für eine numerische Behandlung der Unsicherheit müssen zunächst einige Größen definiert werden: Die Standardunsicherheit u bezeichnet die als Standardabweichung ausgedrückte Unsicherheit des Ergebnisses einer Messung.
4.2 Messunsicherheit
Die kombinierte Standardunsicherheit u ist die Standardunsicherheit eines Messergebnisses, wenn dieses Ergebnis aus den Werten einer Anzahl anderer Größen gewonnen wird. Sie ist gleich der positiven Quadratwurzel einer Summe von Gliedern, wobei die Glieder Varianzen oder Kovarianzen dieser anderen Größen sind, gewichtet danach, wie das Messergebnis mit Änderungen dieser Größen variiert. Die erweiterte Messunsicherheit U ist der Wert, der einen Bereich um das Messergebnis kennzeichnet, von dem erwartet werden kann, dass er einen großen Anteil der Verteilung der Werte umfasst, die der Messgröße vernünftigerweise zugeordnet werden könnten. Dabei ist der Erweiterungsfaktor k der Faktor, mit dem die Standardunsicherheit multipliziert wird, um eine erweiterte Messunsicherheit zu erhalten. Die Genauigkeit einer Messung bezeichnet das Ausmaß der Übereinstimmung eines Messergebnisses mit dem wahren Wert der Messgröße. Diesem Oberbegriff können die Begriffe der Präzision, d. h. Ausmaß der Übereinstimmung zwischen den Ergebnissen unabhängiger Messungen, und der Richtigkeit, d. h. das Ausmaß der Übereinstimmung des Mittelwertes der Ergebnisse einer großen Anzahl unabhängiger Messungen mit dem wahren Wert der Messgröße, untergeordnet werden. Die Präzision kann, nach den Umständen unter denen sie bestimmt wird, zwischen Wiederholbedingungen, Zwischenbedingungen und Vergleichsbedingungen differenziert werden. Wiederholbedingungen beziehen sich auf dasselbe Messverfahren, dasselbe Laboratorium, denselben Bearbeiter, dasselbe Messgerät und Wiederholungen innerhalb einer kurzen Zeitspanne. Vergleichsbedingungen beziehen sich hingegen auf dasselbe Messverfahren, aber auf verschiedene Laboratorien, Bearbeiter oder Messgeräte. Wiederholbedingungen und Vergleichsbedingungen sind somit die Grenzfälle minimaler und maximaler Variabilität. Die Richtigkeit, d. h. der idealisierte wahre Wert, erschließt sich in der chemischen Analytik deutlich schwieriger oder gar nicht. Geeignete Referenzobjekte (Normale, Maßverkörperungen, Referenzmaterialien) oder parallele Anwendung von Referenzverfahren bieten entsprechende Alternativen. Der GUM klassifiziert die Unsicherheitskomponenten über ihre Ermittlungsmethode in Typ A und Typ B. Typ A resultiert in einer Auswertung durch statistische Analyse von Messreihen [13], Typ B in einer Auswertung mit anderen Mitteln als der statistischen Analyse von Messreihen. Die konventionelle Verfahrensweise des Typs A beruht auf der Annahme einer Häufigkeitsverteilung, d. h. in vielen Fällen der Normalverteilung, für die zufallsbedingte Streuung von Messergebnissen. Die alternative Typ-B-Auswertung wird vorwiegend zur Schätzung von Unsicherheiten benutzt, die von unbekannten systematischen Abweichungen herrühren und basiert auf einer erfahrungsbasierten Schätzung dieser Größen. Typisches Beispiel für eine Typ-A-Auswertung ist die Ermittlung eines Schätzwertes für die Standardabweichung V einer angenommenen Normalverteilung. Mit den Ergebnissen x1, x2, …, xn der Größe X kann als Schätzer für die Standardabweichung V dieser Normalverteilung die Standardabweichung s n
s =
∑ (x i i =1
− x )2
n −1
(4.1a)
175
176
4 Metrologische Aspekte der Beurteilung chromatographischer Daten
mit n
x =
∑ xi i =1
(4.1b)
n
verwendet werden. Die Standardunsicherheit u(x ) dieser Ergebnisgröße ergibt sich dann aus u( x ) =
s n
(4.2)
Ist sichergestellt, dass das Messverfahren in dem betreffenden Messbereich frei von systematischen Abweichungen ist und mit konstanter Streuung arbeitet, so kann die empirische Standardabweichung der Messreihe {x1, x2, …, xn} auch zur Schätzung der Standardunsicherheit der Ergebnisse anderer Messungen in diesem Messbereich verwendet werden. Hierbei ist zu beachten, ob es sich bei der Ergebnisgröße um einen Einzelwert oder um den Mittelwert aus mehreren unabhängig gemessenen Einzelwerten handelt. Im Fall eines Einzelwertes entspricht die Standardunsicherheit s, im Fall eines (arithmetischen) Mittelwertes aus m Einzelwerten entsprechend s / m . Eine Typ-B-Auswertung ist zum Beispiel die Umwandlung einer Höchstwert/Mindestwert-Angabe in eine Standardunsicherheit. Sind für einen Referenzwert nur ein Mindestwert xmin und ein Höchstwert xmax bekannt und sind alle Werte in diesem Intervall als gleichwahrscheinlich anzunehmen, so können für den Referenzwert x und seine Standardunsicherheit u(x) der Mittelwert und die Standardabweichung der Rechteckverteilung mit den Grenzen xmin und xmax verwendet werden. x =
(x max + x min ) 2
(4.3a)
und u( x ) =
(x max − x min ) 12
(4.3b)
Im Allgemeinen setzen sich Ergebnisunsicherheiten aus mehreren Komponenten zusammen, von denen ein Teil nach Typ A, der andere Teil nach Typ B ausgewertet wurde. Deshalb ist die Klassifikation nach Typ A und Typ B in der Regel nur für die einzelnen Unsicherheitskomponenten sinnvoll. Im GUM wird hinsichtlich der vorgeschlagenen Vorgehensweise nicht zwischen unerkannten systematischen und zufälligen Unsicherheitskomponenten unterschieden (Abb. 4.2). Erkannte systematische Messabweichungen werden durch technische Maßnahmen oder Ausgleichsrechnungen kompensiert. Für die Unsicherheitsbilanz bleibt dann eine Komponente, die die Unsicherheit dieser messtechnischen Verbesserung oder Korrektur beinhaltet. Für alle Unsicherheitsanteile ist eine einheitliche Behandlung vorgesehen, da der systematische
4.2 Messunsicherheit
Abb. 4.2 Unterschiedliche Komponenten der Unsicherheit einer chemischen Analyse.
oder zufällige Charakter vom jeweiligen Anwendungsfall abhängt. So wird aus einer zufälligen Messabweichung eine systematische Messabweichung, wenn das Messergebnis als Eingangsgröße in eine weitere Messung einfließt. Umgekehrt werden systematische Abweichungen, die ein Laboratorium bei einem bestimmten Messverfahren macht, zu zufälligen Abweichungen, wenn z. B. bei der Auswertung eines Ringversuchs die Ergebnisse sehr vieler Laboratorien, die jeweils unterschiedliche systematische Abweichungen aufweisen, in einer Vergleichspräzision zusammengefasst werden. Bei der Berechnung der kombinierten Standardunsicherheit werden alle Unsicherheitskomponenten gleich behandelt. In der Vergangenheit wurden teilweise im Sinne „konservativer“ Abschätzung abweichend davon die zufälligen Komponenten quadratisch (s. u.) und die systematischen linear addiert. Heute wird dazu die Wahl eines geeigneten Erweiterungsfaktors k empfohlen. Außerdem sind, z. B. beim Vergleich mit Grenzwerten, auch Höchstwertabschätzungen der Ergebnisunsicherheit sinnvoll. Die Angabe der erweiterten Unsicherheit U(y) für ein Messergebnis y, U ( y ) = k ⋅ u (y )
(4.4)
also des Produkts der Standardunsicherheit u(y) mit einem Erweiterungsfaktor k, definiert einen Vertrauensbereich y − U (y ) ≤ Y ≤ y + U (y )
(4.5)
von dem angenommen werden kann, dass er mit einer vorgegebenen Wahrscheinlichkeit p (z. B. p = 95%) den wahren Wert Y der Messgröße enthält. Dieses Intervall enthält dann den Anteil p aller Werte, die der Messgröße vernünftigerweise zugeordnet werden können. Die Berechnung des Vertrauensbereichs setzt die
177
178
4 Metrologische Aspekte der Beurteilung chromatographischer Daten
Kenntnis der Verteilungsfunktion der Messwerte voraus. Da diese Voraussetzung in der Regel nur sehr unvollkommen erfüllt ist, empfiehlt der GUM die Wahl eines Erweiterungsfaktor k zwischen 2 und 3 (k = 2 entspricht p = 95,45% bzw. p = 95% und k = 1,96). In jedem Fall muss der Faktor k explizit angegeben werden, damit auf die Standardunsicherheit u rückgeschlossen werden kann. Die analytisch-rechnerische Ermittlung von Messunsicherheiten basiert auf der Voraussetzung, dass alle bekannten systematischen Abweichungen korrigiert sind. Der weitere Ablauf gestaltet sich in einem mehrstufigen Verfahren (vgl. Abb. 4.3). 1. Definition der Ergebnisgröße y und das Verfahren zur Ermittlung derselben. In der analytischen Chemie können im Falle von empirischen Methoden die Ergebnisgrößen von der Methode abhängig sein. Diese Verfahren dienen vorrangig dazu eine Vergleichbarkeit zwischen Laboratorien zu erreichen, um das Verfahren damit auch als lokale, nationale oder auch internationale Standardmethode zu definieren. Korrekturen für die systematische Abweichung der Methode oder Matrixeffekte werden daher ignoriert. 2. Identifizierung aller relevanten Unsicherheitsquellen. Hier gilt es zunächst alle relevanten Quellen der Unsicherheit ohne eine Quantifizierung zu erkennen. Hierzu werden typischerweise Ursache- und Wirkungsdiagramme verwendet, um die hierarchische Beziehung der Einflussgrößen zu illustrieren. Zu diesen Faktoren gehören zum Beispiel konstituierende Messgrößen der Ergebnisgröße, indirekte Einflussgrößen (z. B. Druck und Temperatur), Referenzgrößen (von Referenzmaterialien verkörperten Werte) sowie Literaturdaten und Kenngrößen für Teilschritte des vollständigen Messverfahrens (Wiederfindung bei der Probenvorbereitung). Ziel ist somit die Formulierung der Gleichung y = F(x1, x2, …, xN), welche die Prüfgröße in Abhängigkeit von allen relevanten Einflussgrößen beschreibt. 3. Schätzung der Beiträge der einzelnen Unsicherheitsquellen zur Ergebnisunsicherheit. Sind nur wenige Daten zur Charakterisierung der Methode bekannt, ist eine Ermittlung der einzelnen Unsicherheitskomponente vorzuziehen. Im Falle empirischer Methoden erfolgt normalerweise eine Abschätzung durch Ringversuche. Laborübergreifende Studien zur Validierung von Referenzverfahren (z. B. gemäß des AOAC/IUPAC-Protokolls oder der ISO 5725 Norm) sind wertvolle Quellen (z. B. für Reproduzierbarkeit oder systematischen Abweichung, basierend auf CRM-Studien), um die Unsicherheitsabschätzung zu unterstützen. Die gesamte systematische Abweichung kann durch entsprechende zertifizierte Referenzmaterialien, CRM, geschätzt werden, indem das komplette Messverfahren durchgeführt wird. Sind die systematischen Abweichungen nicht signifikant, so ist die systematische Unsicherheit die Standardunsicherheit für den entsprechenden CRM-Wert. Unterscheiden sich zwei Beiträge von Einflussfaktoren um den Faktor 1/5, so kann der kleinere in der Regel gegenüber dem größeren Beitrag vernachlässigt werden. Auf-
4.2 Messunsicherheit
grund der quadratischen Addition (s. u.) trägt eine um den Faktor 1/p kleinere Standardunsicherheit nur mit einem Anteil von ca. 1/(2 p2) der größeren Standardunsicherheit zur Ergebnisunsicherheit bei (p = 5 entspricht ca. 2%). Kleine Unsicherheitsbeiträge, die in großer Zahl auftreten, oder korrelierte Beiträge, die eine lineare Addition von Unsicherheitsbeiträgen anstelle der quadratischen Addition zur Folge haben, müssen berücksichtigt werden. 4. Quantifizierung als Standardunsicherheiten. Je nach Verfügbarkeit von experimentellen Daten werden für alle Eingangsgrößen xi (i = 1, 2, …, N) die Standardunsicherheiten u(xi) ermittelt. Obwohl die Typ-A-Auswertungen eine vermeintlich höhere Objektivität liefern, können im Falle von nur wenigen Messwerten die empirischen Standardabweichungen zu ungenauen Schätzwerten für Standardunsicherheiten führen, so dass eine erfahrungsbasierte Expertenschätzung (Typ-B-Auswertung) möglicherweise den Vorzug verdient. Weiterhin werden die Empfindlichkeitskoeffizienten ci für die Abhängigkeit der Ergebnisgröße y = F(x1, x2, …, xN) von den Eingangsgrößen xi durch die Differentialquotienten oder Differenzenquotienten bestimmt: ci =
∂F ∂x i
(4.6a)
'y 'x i
(4.6b)
bzw. ci =
Der Beitrag der Unsicherheit einer Eingangsgröße xi zur kombinierten Standardunsicherheit von y ergibt sich dann über ui = ci · u(xi). 5. Berücksichtigung von signifikanten Korrelationen durch Kovarianzen. Eine Korrelation zweier Eingangsgrößen xi und xk ist zu erwarten, wenn die betreffenden Eingangsgrößen voneinander abhängig sind oder beide von einer dritten Größe abhängen (z. B. zur Kalibrierung zweier verschiedener Messungen wird dieselbe Stammlösung verwendet). Korrelationen tragen als Produkte uik = ci · ck · u(xi,xk) der Kovarianz u(xi,xk) mit den betreffenden Empfindlichkeitskoeffizienten ci und ck zur kombinierten Standardunsicherheit der Ergebnisgröße y bei. Die Berechnung kann einerseits über eine Unsicherheitsfortpflanzung bezüglich der gemeinsamen Variablen erfolgen, d. h. die Größen xi und xj hängen von unkorrelierten Variablen z1, z2, …, zK ab und damit gilt: u( x i , x j ) =
K
⎛ ∂x ⎞ ⎛ ∂x j ⎞ 2 ⎟⎠ ⋅ u(zk )
∑ ⎜⎝ ∂z i ⎟⎠ ⋅ ⎜⎝ ∂z
k =1
k
(4.7)
k
Sind die Größen z1, z2, …, zK ihrerseits korreliert, so sind auch deren Kovarianzen zu berücksichtigen mit
179
180
4 Metrologische Aspekte der Beurteilung chromatographischer Daten
u( x i , x j ) =
K
⎛ ∂x ⎞ ⎛ ∂x j ⎞ 2 ⎟⎠ ⋅ u(zk )
∑ ⎜⎝ ∂z i ⎟⎠ ⋅ ⎜⎝ ∂z
k =1
+2
k
K −1
∑
k =1
k
⎛ ∂x ⎞ ⎛ ∂x j ⎞ ∑ ⎜⎝ ∂z i ⎟⎠ ⋅ ⎜⎝ ∂z ⎟⎠ ⋅ u(zk , z l ) k l l = k +1
(4.8)
K
Parallelmessungen unter Wiederholbedingungen eröffnen alternativ die Möglichkeit empirische Kovarianzen der Mittelwerte zu schätzen. Eine einfach Abschätzungen, ob Kovarianzen überhaupt berücksichtigt werden müssen, folgt daraus, dass u(xi,xj) zwischen u(xi) · u(xj) und u(xi) · u(xj) liegt. 6. Berechnung der kombinierten Unsicherheit. Die Beiträge zur Standardunsicherheit der Ergebnisgröße werden durch u(y )2 =
N
N −1
N
∑ ui2 + 2 ∑ ∑ i =1
i =1 k = i +1
uik
(4.9)
zusammengefasst. Gleichung (4.9) kann auch als u(y )2 =
2
N −1 ⎛ ∂F ⎞ 2 ∑ ⎜⎝ ∂x ⎟⎠ u (xi ) + 2 ∑ i i =1 i =1 N
⎛ ∂F ⎞ ⎛ ∂F ⎞ ⎜ ⎟⎜ ⎟ ⋅ u( x i , x k ) k = i + 1 ⎝ ∂x i ⎠ ⎝ ∂x k ⎠ N
∑
(4.10)
geschrieben werden. Werden keine Korrelationen beobachtet oder die Beiträge der Korrelationen vernachlässigt vereinfacht sich Gl. (4.10) zu u(y )2 =
2
⎛ ∂F ⎞ ∑ ⎜⎝ ∂x ⎟⎠ u(xi )2 i i =1 N
(4.11)
Gleichung (4.11) entspricht dem bekannten „Gauß’schen Fehlerfortpflanzungsgesetz“. Beide Gleichungen sind Reihenentwicklung, die nach dem linearen Glied abgebrochenen werden. Im Falle von nichtlinearen Zusammenhängen müssen entweder weitere Terme der Reihenentwicklung, d. h. höhere Potenzen der Abweichungen, ausgewertet werden, oder es müssen andere Auswertungsmethoden, wie z. B. Monte-Carlo-Simulationen, eingesetzt werden. Besteht zwischen der Ergebnisgröße y und den Eingangsgrößen xi ein einfacher Formelzusammenhang, so lassen sich die Empfindlichkeitsfaktoren mathematisch exakt durch Differentiation bestimmen, ansonsten sind Differenzenrechnungen anzustreben. Die Kovarianzen u(xi,xk) sind mit den Standardunsicherheiten der betreffenden Eingangsgrößen durch u( x i , x k ) = r ( x i , x k ) ⋅ u ( x i ) ⋅ u ( x k )
(4.12)
verknüpft, r(xi,xk) ist der Korrelationskoeffizient. Wären alle Eingangsgrößen gleichsinnig korreliert, so ergäbe sich die kombinierte Standardunsicherheit als lineare Summe u(y) = 6ui der Unsicherheitsbeiträge. Hingegen werden bei voll-
4.2 Messunsicherheit
ständig unkorrelierten Eingangsgrößen die Unsicherheitsbeiträge quadratisch addiert gemäß u(y)2 = 6ui2 (vgl. Gl. 4.9). Die quadratische Addition ergibt in der Regel erheblich kleinere Werte für die kombinierte Standardunsicherheit u(y) als die lineare Addition. Deshalb kann zur Abschätzung von Höchstwerten für die kombinierten Standardunsicherheiten die lineare Addition verwendet werden, ohne dass das Vorliegen von Korrelationen im Einzelnen geprüft wird. 7. Festlegung von Erweiterungsfaktoren und Berechnung der erweiterten Unsicherheit. Die Unsicherheit der Ergebnisgröße kann alternativ entweder als Standardunsicherheit u(y) oder als erweiterte Standardunsicherheit U(y) = k · u(y) angegeben werden. Die erweiterte Standardunsicherheit wird gewählt, um einen Bereich abzugrenzen, von dem erwartet werden kann, dass er den wahren Wert der Ergebnisgröße mit hoher Sicherheit enthält. Typischerweise (d. h. Normalverteilung) wird ein k zwischen 2 und 3 gewählt; empfohlen wird k = 2. Liegen hinreichende Kenntnisse über die Häufigkeitsverteilung der Ergebnisgröße vor, so kann k als „Vertrauensfaktor“ zu einem festgelegten Vertrauensniveau berechnet werden. Hierfür wird das Vertrauensniveau 0,95 (95%) empfohlen. Die notwendige Anzahl der effektiven Freiheitsgrade kann aus den Standardunsicherheiten und den Freiheitsgraden der Verteilungen für die Werte der Eingangsgrößen errechnet werden. Berechnete oder geschätzte Werte der Messunsicherheit werden zusammen mit dem Wert der Ergebnisgröße y entweder als Standardunsicherheit u(y) oder als erweiterte Unsicherheit U(y) = k · u(y) angegeben. Wird die erweiterte Standardunsicherheit angegeben, so sind auch der benutzte Erweiterungsfaktor und das zugehörige Vertrauensniveau zu nennen. Sowohl die Standardunsicherheit als auch die erweiterte Standardunsicherheit können direkt oder als Relativwert (z. B. in Prozent) angegeben werden. Der Aufwand zur Ermittlung der Messunsicherheit auf der Grundlage eines detaillierten Unsicherheitsbudgets eignet sich insbesondere für Messverfahren mit breitem Anwendungsbereich, d. h. bei erheblicher Variationsbreite der Messobjekte und der Messbedingungen. In der Praxis wird die Eignung von analytischen Methoden durch eine Methodenvalidierung nachgewiesen [14], d. h., es liegen Daten zu den relevanten Einflussfaktoren bereits vor. Für Messverfahren mit engem Anwendungsbereich ist daher eine Abschätzung der Messunsicherheit mit laborinternen Validierungsdaten oder Ringversuchsdaten (vgl. z. B. [15, 16]) eine sinnvolle Alternative. Dies erscheint besonders attraktiv, da in der Praxis die Vergleichbarkeit von Methoden häufiger über globale Parameter wie Linearität, Bestimmungsgrenze, Wiederfindungsraten usw. sichergestellt wird, ohne dass ein formales mathematisches Modell vorliegt. Da die größten Quellen der Unsicherheit zumeist aus diskreten (nicht differenzierbaren, vgl. Gl. 4.6) Ereignissen resultieren und sich nur durch experimentelle Studien erschließen lassen, sind sie häufig eine Teil einer globalen Methodenvalidierung. Eine separate Aufschlüsselung einzelner Variationsquellen ist daher aus solche Daten nicht möglich [5, 17, 18].
181
182
4 Metrologische Aspekte der Beurteilung chromatographischer Daten
Beispiel Eine Stammlösung von 1000 mg l–1 zur Kalibrierung wird mit einer Substanz X hoher Reinheit hergestellt. Die Messgröße ist die Konzentration der Lösung cX und ergibt sich aus cX =
mP V
(B1)
mit: m der eingewogenen Masse von X, P der Reinheit als Massenanteil und V dem Volumen der Lösung. Für die Berechnung der kombinierten Standardunsicherheit müssen folgende Unsicherheitskomponenten berücksichtigt werden: Die Reinheit der Substanz X ist im Zertifikat mit 99,99 ± 0,02% angegeben, so dass sich P = 0,9999 ± 0,0002 ergibt. Da es keine Informationen über die Unsicherheit gibt, wird eine Rechteckverteilung angenommen. Die Standardunsicherheit u(P) ergibt sich dann mit Gl. (4.3b) zu u(P ) =
0,00002 = 0,000115 3
(B2)
Ein weiterer Schritt umfasst das Wiegen der der Substanz. Der Messkolben wird mit und ohne Einwaage gewogen, aus den Herstellerdaten ergibt sich für die Differenzwägung von m = 100,42 mg eine geschätzte Unsicherheit von 0,06 mg. Die Unsicherheit des Volumens der Lösung ergibt sich aus dem zertifizierten Innenvolumen des Kolbens und der Variationen beim Befüllen des Kolbens. Die Differenz der Temperatur des Kolbens und der Lösung von der Temperatur, bei der das Volumen des Kolbens kalibriert wurde, wird hier vernachlässigt. Der Hersteller gibt das Volumen des Kolbens mit 100 ± 0,1 ml an. Da die Unsicherheit ohne ein Vertrauensniveau vorliegt, wird die Standardunsicherheit unter der Annahme einer Dreiecksverteilung errechnet. Letztere erscheint sinnvoll, da bei gesicherten Massenproduktionen wie eines Kolbens der Nennwert wahrscheinlicher ist als die Extremwerte. Die Unsicherheit ergibt sich dann zu 0,01 = 0,04 ml 6
(B3)
Die Unsicherheit aufgrund der unterschiedlichen Befüllung kann durch einen Wiederholbarkeitsversuch geschätzt werden. Eine Reihe von zehn Befüll- und Wiegeversuchen ergab eine Standardabweichung von 0,025 mL, die direkt als Standardunsicherheit verwendet wird. u(V) ergibt sich dann als u(V ) =
0,042 + 0,0252 = 0,05 ml
(B4)
Mit den obigen Werten ergibt sich cX zu 1004,1 mg l–1 und die Unsicherheit entsprechend Gl. (4.11) berechnet sich durch Differenzierung und Umformung des multiplikativen Ausdrucks in Gl. (B1) zu
4.2 Messunsicherheit 2
u(c X ) = c X
2
⎛ u(P ) ⎞ ⎛ u(m ) ⎞ ⎛ u(V ) ⎞ ⎜⎝ ⎟⎠ + ⎜⎝ ⎟⎠ + ⎜⎝ ⎟ P m V ⎠
2
2
2
2
⎛ 0,000115 ⎞ ⎛ 0,06 ⎞ ⎛ 0,05 ⎞ = 1004,1 mg l −1 ⎜ + + = 0,8 mg l −1 ⎝ 0.9999 ⎟⎠ ⎜⎝ 100.42 ⎟⎠ ⎜⎝ 100 ⎟⎠ Weitere komplexe Rechenbeispiele finden sich in [11]. Dieser Ansatz, in der Literatur auch als „top-down“-Ansatz im Vergleich zum „bottom-up“-Ansatz des GUM bezeichnet (Abb. 4.3), konnte für eine Reihe von chromatographischen Anwendungen erfolgreich demonstriert werden. Studien zur Robustheit der Verfahren, wie sie z. B. in der pharmazeutischen Analytik
Abb. 4.3 Flussdiagramm für die Berechnung der Unsicherheit.
183
184
4 Metrologische Aspekte der Beurteilung chromatographischer Daten
üblich sind, können bei einem entsprechenden experimentellen Design die Variationen zwischen Laboratorien zu simulieren. Dies konnte in zahlreichen Studien [19–21] für unterschiedlichste Applikationen zum Beispiel im Bereich der Pharmazeutik und Lebensmittelanalytik [22–28] demonstriert werden. Die verschiedenen Aspekte der Methodenvalidierung erlauben zahlreiche Einblicke in die Problematik der Unsicherheitsberechnungen bei chromatographischen Verfahren. Die Bedeutung der Probenahme für die gesamte Unsicherheit wurde in [29] veranschaulicht, während in [20] auf die Beachtung von Termen zweiter Ordnung in Gl. (4.9) bzw. Gl. (4.10) hingewiesen wurde. Eine gute Übersicht über möglich Fehlerquellen in der Flüssigkeits- und Gaschromatographie bieten Barwick [30] und Ambrus [31]. Deutlich einfacher gestalten sich die Berechnungen bei primären Methoden oder Referenzverfahren auf der Basis der Isotopenverdünnungsanalyse mittels GC-MS [32–37]. Eine direkte Methode der Messunsicherheitsermittlung besteht darin, das betreffende Messverfahren auf Referenzobjekte (Normale, Maßverkörperungen, Referenzmaterialien) anzuwenden und die unter laborinternen Vergleichsbedingungen erhaltenen Ergebnisse mit den bekannten Referenzwerten zu vergleichen. Einfachster Fall ist die Verwendung eines einzigen Referenzobjekts. Eine Variante, die weitgehend demselben Prinzip folgt, besteht darin, das Messverfahren parallel mit einem Referenzverfahren auf geeignete Messobjekte anzuwenden und die Ergebnisse des zu bewertenden Verfahrens mit denen des Referenzverfahrens zu vergleichen. Bei beiden Varianten wird die Messunsicherheit aus Kennwerten zur Richtigkeit und Kennwerten zur Präzision aufgebaut. Die Abfolge der einzelnen Schritten besteht dann aus: (1) Prüfung der Präzision; (2) Prüfung auf systematische Abweichungen und entsprechende Korrektur; (3) Ermittlung der Messunsicherheit für die Messgröße. Üblicherweise werden Untersuchungen von Präzision und Richtigkeit eines Messverfahrens regelmäßig wiederholt. Sind die Daten einer aktuellen Untersuchung mit den Daten aus vorangegangenen Untersuchungen vergleichbar, können sie zusammengefasst werden, um die statistische Basis der betreffenden Schätzwerte zu verbessern. Bei Normverfahren werden Richtigkeit und Präzision in der Regel im Ringversuch ermittelt (vgl. ISO 5725-2).Von den dabei ermittelten Verfahrenskenndaten eignet sich die sog. „Vergleichsstandardabweichung“ (sR) als Schätzwert für die Messunsicherheit (siehe Details in ISO/TS 21748). Da sie bereits systematische Effekte durch unterschiedliche Arbeitsweisen der beteiligten Laboratorien beinhaltet, ist eine zusätzliche Einrechnung systematischer Unsicherheitsbeiträge in der Regel nicht erforderlich. Hat das Laboratorium sich mit einem Prüfverfahren im Rahmen von Eignungsprüfungen erfolgreich an Ringversuchen beteiligt, so kann es die Ergebnisse verwenden, um seine Messunsicherheit abzuschätzen. Alternativ bieten Ringversuche zur Eignungsprüfung die Möglichkeit, eine anderweitig ermittelte Messunsicherheit zu überprüfen. Ist für die Analyse nur ein Höchstwert von Interesse, z. B. bei Einhaltung vorgegebener Spezifikationen bzw. Grenzwertforderungen, ergeben sich folgende Vereinfachungen: Die Unsicherheitsbeiträge ui = ci · u(xi) der Eingangsgrößen
4.2 Messunsicherheit
werden linear addiert; die Korrelationsbeiträge uik = ci · ck · u(xi,xk) entfallen. In den Unsicherheitsbeiträgen ui = ci · u(xi) der Eingangsgrößen können anstelle der Standardunsicherheiten u(xi) Höchstwerte der möglichen Messabweichungen |'xi|max verwendet werden. Mit diesen Vereinfachungen ergeben sich die beiden folgenden Gleichungen, die wahlweise zur Berechnung von Höchstwerten der Messunsicherheit verwendet werden können: N
'y max =
∑
'y max =
∑
i =1 N
i =1
∂F ⋅ u( x i ) ∂x i
(4.13a)
∂F ⋅ 'x i ∂x i
(4.13b)
max
Wie oben diskutiert verliert die lineare Approximation in Gl. (4.9) bei nichtlinearen Zusammenhängen zwischen der Ergebnisgröße y und einer Eingangsgröße xi ihre Gültigkeit. Weiterhin kann die Wahrscheinlichkeitsverteilung der Ergebnisgröße y erheblich von einer Normalverteilung abweichen, mit der Folge, dass k = 2 den Erweiterungsfaktor für einen Überdeckungsgrad von 95% erheblich unterschätzt. Mit Monte-Carlo-Methoden wird für jede Eingangsgröße eine passende Verteilung (z. B. Normalverteilung, Rechteckverteilung oder Dreiecksverteilung) angesetzt. Aus diesen Verteilungen wird je ein Pseudo-Zufallswert simuliert und aus dem so erzeugten Satz von Eingangsdaten ein Wert der Ergebnisgröße berechnet. Dieser Vorgang wird entsprechend oft wiederholt, so dass als Ergebnis ein Datensatz resultiert, der eine Stichprobe der möglichen Werte der Ergebnisgröße in Abhängigkeit von Variationen der Eingangsgrößen entsprechend ihrer Verteilung darstellt. Der Mittelwert und die Standardabweichung dieser Stichprobe sind Schätzwerte für den Wert der Ergebnisgröße und dessen Standardunsicherheit. Zusätzlich kann aus dieser Verteilung bei größeren Abweichungen von der Normalverteilung ein realistischeres Vertrauensintervall bestimmt werden. Die Durchführung von Grenzwertvergleichen verlangt oft den Nachweis, dass die Messgröße innerhalb bestimmter Grenzen liegt. Dazu muss die Unsicherheit im analytischen Ergebnis möglicherweise bei der Bewertung des Grenzwertvergleichs berücksichtigt werden bzw. die Grenzwerte können unter Berücksichtigung der Messunsicherheiten gesetzt worden sein. Die Abb. 4.4 verdeutlicht die Zusammenhänge für den Fall, dass ein Grenzwert ohne Rücksicht auf Unsicherheiten gesetzt wurde. Das Ergebnis übersteigt den Grenzwert um mehr als die ermittelte Unsicherheit (a) bzw. das Ergebnis übersteigt den Grenzwert um weniger als die ermittelte Unsicherheit (b). Das Ergebnis unterschreitet den Grenzwert um weniger als die ermittelte Unsicherheit (c) bzw. das Ergebnis unterschreitet den Grenzwert um mehr als die ermittelte Unsicherheit (d). Die Fälle (a) und (d) werden üblicherweise als mit den Vorgaben nicht übereinstimmend bzw. konform angesehen. Die Fälle (b) und (c) bedürfen in der Praxis individuelle Überlegungen in Anbetracht möglicher Vereinbarungen mit dem
185
186
4 Metrologische Aspekte der Beurteilung chromatographischer Daten
Abb. 4.4 Messunsicherheit und Grenzwerte.
Anwender der Daten. Ausnahme ist die Überwachung eines Grenzwertes mittels einer festgesetzten Methode. Hier wird explizit unterstellt, dass die Unsicherheit oder wenigstens die Reproduzierbarkeit der festgesetzten Methode klein genug ist, um sie in der Praxis zu ignorieren. Mit einer geeigneten Qualitätskontrolle kann so die Einhaltung nur durch den Wert des speziellen Messergebnisses angegeben werden.
4.3 Rückführbarkeit von analytischen Messungen
Für eine Vergleichbarkeit von Ergebnissen zwischen verschiedenen Laboratorien oder von demselben Laboratorium zu verschiedenen Zeiten muss die Verwendung der gleichen Messskala oder gleichen Bezugspunkte sichergestellt sein. In vielen Fällen wird dies erreicht durch eine Kette von Kalibrierungen, die zu einem nationalen oder internationalen Primärstandard, idealerweise zu einer SI-Einheit, gehören. Während für physikalische Größen diese Rückführbarkeit (z. B. Beispiel analytische Waage und das Kilogramm) vergleichsweise einfach zu realisieren ist, gestaltet sich die Etablierung einer ununterbrochenen Kette von Vergleichen zu einem bekannten Referenzwert in der Analytischen Chemie in vielen Fällen sehr schwierig. Rückführbarkeit ist kein neues Konzept, die Bedeutung der Präparation von Stammlösung für die Titrimetrie und Gravimetrie ist seit den Anfängen der Analytischen Chemie bekannt. Für moderne Methoden ist eine adäquate Rückführung zu einer SI-Einheit deutlich schwieriger zu demonstrieren. Die Rückführung (engl.: Traceability) wird formal [38] definiert als „die Eigenschaft eines Messergebnisses oder der Wert eines Standards, welche auf festgelegte Referenzstandards, üblicherweise nationale oder internationale, durch eine ungebrochene Kette von Vergleichen, die alle festgelegte Unsicherheiten besitzen, bezogen wird“. Daraus ergibt sich natürlich auch ein Bezug zur Unsicherheit, da die Übereinstimmung zwischen den Laboratorien begrenzt ist. Rückführung ist folgerichtig eng verbunden mit der Unsicherheit, welche die Güte der Verknüpfungen in der Kette und die zu erwartende Übereinstimmung zwischen Laboratorien, die ähnliche Messungen durchführen, charakterisiert. Eine sinnvolle
4.3 Rückführbarkeit von analytischen Messungen
Schätzung eines Messergebnisses y mit den Eingangsgrößen x1 … xm ist über den funktionalen Zusammenhang f möglich, y = f ( x1 , x 2 , …, x m ) x m + 1 , x m + 2 , …, x n
(4.14)
wenn die Bedingungen xm + 1 … xn spezifiziert sind und durch eine Validierung der Methode bestätigt sind. Dann ist y rückführbar auf x1 … xn, vorausgesetzt die Eingangsgrößen sind ebenfalls rückführbar oder eindeutig definiert. In der Praxis bedeutet dies, dass die Eingangsgrößen mindestens durch die Methode eindeutig bestimmt werden und kritische Größen durch Kalibrierung auf Referenzwerte zurückgeführt werden können. Das Messergebnis kann auch hier wieder eine Größe wie Masse oder Konzentration sein oder durch die empirische Methode definiert werden. Die Ergebnisse können nur dann verglichen werden, wenn sie in derselben Einheit ausgedrückt werden. Diese Vergleichskette führt dann zur entsprechenden primären Einheit oder einer entsprechenden Realisierung einer Einheit am Ende der Kette. Kalibrierung ist ein fundamentaler Schritt für die Etablierung einer Rückführungskette und erlaubt den Vergleich zwischen den Messergebnissen und den Werten eines Referenzstandards. Die Validierung eines Verfahrens spielt nicht nur bei der Berechnung der Unsicherheit gegebenenfalls eine wichtige Rolle, sondern ist auch für die Rückführbarkeit entscheidend. Validierung ist auch für Referenzverfahren notwendig, d. h., zur Überprüfung ob die Methode entsprechend angewandt wird und damit die notwendigen Randbedingungen xm+1 … xn spezifiziert sind. Typischerweise erfolgt dies durch ein zertifiziertes Referenzmaterial oder einen entsprechenden Ringversuch. Die Rückführung des Ergebnisses eines Analysenverfahrens kann somit durch die Kombination folgender Kalibrierungsschritte abgesichert werden: 1. Verwendung eines rückverfolgbaren Standards um die Messeinrichtung zu kalibrieren. Aus metrologischer Sicht sind Referenzmaterialien (RM) Maßverkörperungen der stofflichen Zusammensetzung und anderer Stoffkenngrößen. Zertifizierte Referenzmaterialien (Certified Reference Material, CRM) sind Referenzmaterialien mit einem Zertifikat, in dem unter Angabe der Unsicherheit und des zugehörigen Vertrauensniveaus ein oder mehrere Merkmalswerte aufgrund eines Ermittlungsverfahrens zertifiziert sind, mit dem die Rückverfolgbarkeit der Werte auf eine genaue Realisierung der Einheit erreicht wird. Sie dienen zur Weitergabe von Referenzwerten dieser Größen sowie von Realisierungen reiner Stoffe. Reinststoff-Referenzmaterialien werden verwendet für die Analytkalibrierung von Messgeräten und die Herstellung bzw. Richtigkeitskontrolle von Kalibrierlösungen. Kalibrierlösungen werden verwendet für die Analytkalibrierung von Messgeräten und die Richtigkeitskontrolle von Analysenergebnissen mittels Aufstockung (Wiederfindungsexperimente). Matrix-Referenzmaterialien werden verwendet zur Richtigkeitskontrolle von Analysen, sowohl bei der Validierung von Analysenverfahren als auch bei der laufenden Qualitätsüberwachung. In bestimmten Gebieten werden
187
188
4 Metrologische Aspekte der Beurteilung chromatographischer Daten
Matrix-RM u. a. zwecks Berücksichtigung von Matrixeffekten auch für die Analytkalibrierung von Messgeräten eingesetzt (für Übersicht über verfügbare Referenzmaterialien vgl. www.comar.bam.de). 2. Verwendung einer Primärmethode oder Vergleich mit den Ergebnissen einer Primärmethode. Eine primäre Messmethode ist eine Methode mit höchster metrologischer Qualität, so dass alle Verfahrensschritte vollständig beschrieben und in SI-Einheiten ausgedrückt sind. Die Ergebnisse können so ohne eine Referenz zu einem Standard derselben Quantität anerkannt werden. 3. Verwendung einer reinen Substanz RM oder eines geeigneten matrix-angepassten CRM. Eine Rückführung kann durch einen Vergleich der Messergebnisse mit einem CRM demonstriert werden. Wenn der Wert des CRM rückverfolgbar zu SI ist, ist für diese Messungen auch die messtechnische Rückführung zu SI-Einheiten nachgewiesen. Das Konzept einer reinen Substanz ist dabei ein idealisiertes Konzept, so dass die Verwendung von „reinen“ Substanzen einer sorgfältigen Überprüfung bedarf. Da diese Substanzen häufig auch das Ende der Rückführung von CRMs sind, kann durch mangelhafte oder fehlende Reinstsubstanzen das gesamte Ende der Kette durch einen Zirkelschluss gefährdet sein. 4. Verwendung eines anerkannten, sehr gut definierten Verfahrens. Referenzverfahren sind eingehend charakterisierte, validierte und nachweislich beherrschte quantitative analytische Messverfahren zur Qualitätsbewertung anderer Verfahren für vergleichbare Aufgaben, zur Zertifizierung von Referenzmaterialien oder zur Bestimmung von Referenzwerten, mit einer dem Verwendungszweck entsprechenden Messunsicherheit. Referenzverfahren werden u. a. verwendet zur Validierung von Routineverfahren, Zertifizierung von Referenzmaterialien, Bestimmung von Referenzwerten (Zielwerten) bei Eignungsprüfungen, Analysen von besonderer Tragweite (z. B. Schiedsanalysen), Bestimmung von Referenzwerten relevanter Stoffkenngrößen, Rückführung von Konventionsverfahren (z. B. Bestimmung extrahierbarer Schwermetallgehalte in Böden mit Königswasseraufschluss). Die Angabe der Rückführbarkeit erfolgt über den Bezug zu den verwendeten Standards zur Kalibrierung bzw. die Angabe der Referenzstandards zur Kontrolle der Messbedingungen.
Literatur
Literatur 1 M. Daszykowski and B. Walczak, Use and abuse of chemometrics in chromatography, Trends Anal. Chem. (2006) 25, 1081–1096. 2 M. Badertscher and E. Pretsch, Bad results from good data, Trends Anal. Chem. (2006) 25, 1131–1138. 3 GUM, General Requirements for the Competence of Calibration and Testing Laboratories, ISO, Genf, 1999. 4 J. L. Love, Chemical metrology, chemistry and the uncertainty of chemical measurements, Accred. Qual. Assur. (2002) 7, 95–100. 5 A. Rios and M. Valcarcel, A view of uncertainty at the bench analytical level, Accred. Qual. Assur. (1998) 3, 14–19. 6 P. De Bievre and H. Günzler, Measurement Uncertainty in Chemical Analysis. Berlin: Springer Verlag, 2003. 7 F. Adunka, Messunsicherheiten. Essen: Vulkan, 2000. 8 L. Kirkup and B. Frenkel, An Introduction to Uncertainty in Measurement. Cambridge: Cambridge University Press, 2006. 9 M. Drosg, Dealing with Uncertainties. Berlin: Springer Verlag, 2006. 10 Guide to the Expression of Uncertainty in Measurement, ISO, Genf, 1995. 11 EURACHEM/CITAC GUIDE, Quantifying Uncertainty in Analytical Measurement, 2000. www.eurolab-d.bam.de. 12 W. Hässelbarth, BAM-Leitfaden zur Ermittlung von Messunsicherheiten bei quantitativen Prüfergebnissen. Bremerhaven: N. W. Verlag, 2004. 13 M. Rosslein, Evaluation of uncertainty utilising the component by component approach, Accred. Qual. Assur. (2000) 5, 88–94. 14 S. Kromidas, Handbuch Validierung in der Analytik. Weinheim: Wiley-VCH, 2000. 15 M. Patriarca, F. Chiodo, M. Castelli, and A. Menditto, Estimates of uncertainty of measurement from proficiency testing data: a case study, Accred. Qual. Assur. (2006) 11, 474–480. 16 P. Dehouck, Y. V. Heyden, J. SmeyersVerbeke, D. L. Massart, R. D. Marini,
17
18
19
20
21
22
23
24
P. Chiap, P. Hubert, J. Crommen, W. Van de Wauw, J. De Beer, R. Cox, G. Mathieu, J. C. Reepmeyer, B. Voigt, O. Estevenon, A. Nicolas, A. Van Schepdael, E. Adams, and J. Hoogmartens, Interlaboratory study of a liquid chromatography method for erythromycin: determination of uncertainty, J. Chromat. (2003) A 1010, 63–74. A. Maroto, R. Boque, J. Riu, and F. X. Rius, Evaluating uncertainty in routine analysis, Trends Anal. Chem. (1999) 18, 577–584. S. L. R. Ellison and V. J. Barwick, Estimating measurement uncertainty: reconciliation using a cause and effect approach, Accred. Qual. Assur. (1998) 3, 101–105. E. Hund, D. L. Massart, and J. Smeyers-Verbeke, Comparison of different approaches to estimate the uncertainty of a liquid chromatographic assay, Anal. Chim. Acta (2003) 480, 39–52. V. J. Barwick, S. L. R. Ellison, C. L. Lucking, and M. J. Burn, Experimental studies of uncertainties associated with chromatographic techniques, J. Chromatogr. (2001) A 918, 267–276. E. Hund, D. L. Massart, and J. Smeyers-Verbeke, Operational definitions of uncertainty, Trends Anal. Chem. (2001) 20, 394–406. E. C. Gimenez and S. Populaire, Use of validation data for fast and simple estimation of measurement uncertainty in liquid chromatography methods, J. Liq. Chromatogr. R. T. (2005) 28, 3005–3013. V. J. Barwick, S. L. R. Ellison, M. J. Q. Rafferty, and R. S. Gill, The evaluation of measurement uncertainty from method validation studies – Part 2: The practical application of a laboratory protocol, Accred. Qual. Assur. (2000) 5, 104–113. J. O. De Beer, P. Baten, C. Nsengyumva, and J. Smeyers-Verbeke, Measurement uncertainty from validation and duplicate analysis results in HPLC analysis of multivitamin preparations and nutrients with different galenic forms, J. Pharm. Biomed. Anal. (2003) 32, 767–811.
189
190
4 Metrologische Aspekte der Beurteilung chromatographischer Daten 25 T. Anglov, K. Byrialsen, J. K. Carstensen, F. Christensen, S. Christensen, B. S. Madsen, E. Sorensen, J. N. Sorensen, K. Toftegard, H. Winther, and K. Heydorn, Uncertainty budget for final assay of a pharmaceutical product based on RP-HPLC, Accred. Qual. Assur. (2003) 8, 225–230. 26 D. W. M. Sin, Y. C. Wong, C. Y. Mak, S. T. Sze, and W. Y. Yao, Determination of five phenolic antioxidants in edible oils: Method validation and estimation of measurement uncertainty, J. Food Compos. Anal. (2006) 19, 784–791. 27 N. Ratola, L. Santos, P. Herbert, and A. Alves, Uncertainty associated to the analysis of organochlorine pesticides in water by solid-phase microextraction/gas chromatography-electron capture detection – Evaluation using two different approaches, Anal. Chim. Acta (2006) 573, 202–208. 28 F. Cordeiro, G. Bordin, A. R. Rodriguez, and J. P. Hart, Uncertainty estimation on the quantification of major milk proteins by liquid chromatography, Analyst (2001) 126, 2178–2185. 29 S. Leito, K. Molder, A. Kunnapas, K. Herodes, and I. Leito, Uncertainty in liquid chromatographic analysis of pharmaceutical product: Influence of various uncertainty sources, J. Chromatogr. (2006) A 1121, 55–63. 30 V. J. Barwick, Sources of uncertainty in gas chromatography and high-performance liquid chromatography, J. Chromatogr. (1999) A 849, 13–33. 31 A. Ambrus, Reliability of measurements of pesticide residues in food, Accred. Qual. Assur. (2004) 9, 288–304.
32 M. J. T. Milton and R. I. Wielgosz, Uncertainty in SI-traceable measurements of amount of substance by isotope dilution mass spectrometry, Metrologia (2000) 37, 199–206. 33 B. King and S. Westwood, GC-FID as a primary method for establishing the purity of organic CRMs used for drugs in sport analysis, Fresenius J. Anal. Chem. (2001) 370, 194–199. 34 M. J. T. Milton and R. I. Wielgosz, Use of the international system of units (SI) in isotope ratio mass spectrometry, Rapid Commun. Mass Spectrom. (2002) 16, 2201–2204. 35 A. S. Brown, M. J. T. Milton, C. J. Cowper, G. D. Squire, W. Bremser, and R. W. Branch, Analysis of natural gas by gas chromatography – Reduction of correlated uncertainties by normalisation, J. Chromatogr. (2004) A 1040, 215–225. 36 H. Hasegawa, Y. Shinohara, T. Hashimoto, R. Matsuda, and Y. Hayashi, Prediction of measurement uncertainty in isotope dilution gas chromatography/mass spectrometry, J. Chromatogr. (2006) A 1136, 226–230. 37 C. Planas, A. Puig, J. Rivera, and J. Caixach, Analysis of pesticides and metabolites in Spanish surface waters by isotope dilution gas chromatography/mass spectrometry with previous automated solid-phase extraction – Estimation of the uncertainty of the analytical results, J. Chromatogr. (2006) 1131, 242–252. 38 International Vocabulary of basic and general terms in Metrology, ISO, Genf, 1993.
191
Teil II Die Charakteristika der Auswertung in einzelnen LC-Modi
193
5 Auswertung von GC-Daten Werner Engewald
5.1 Einführung
Warum ein eigenes Kapitel über die Auswertung von GC-Daten? Bei der Gaschromatographie wird doch prinzipiell die gleiche Hard- und Software zur Signalerfassung und -verarbeitung angewandt wie bei der HPLC; auch die Kalibrierverfahren unterscheiden sich nicht. Und der A/D-Wandler weiß doch gar nicht, mit welcher Chromatographie-Variante das ankommende Signal erzeugt wurde. Eben! Aber die Chromatographie in der Gasphase bedingt in der Regel höhere Temperaturen für Injektor, Trennsäule und Detektor. Daraus ergeben sich einige wesentlich andere Aspekte und Fehlerquellen für die qualitative und quantitative Analyse, die der Betreiber kennen und bereits bei der Methodenausarbeitung beachten sollte, um richtige und reproduzierbare Ergebnisse zu erhalten. Bei der Auswertung der Gaschromatogramme lassen sich eventuell in den vorhergehenden Schritten der Analyse (Probenvorbereitung, Injektion, Trennung, Detektion, Signalverarbeitung) gemachte Fehler nicht mehr beheben; bestenfalls können einige davon erkannt werden. Das Szenario kann von einer nicht erfolgten oder ungenügenden Trennung, schlecht auswertbaren Peakformen bis zu Minderbefunden für „kritische“ Probenkomponenten reichen. Es können auch zusätzliche Peaks auftreten, die nicht aus der Probe stammen. Die Chromatogrammauswertung sollte daher nicht isoliert von den vorherigen Analysenschritten und den dabei angewandten Bedingungen erfolgen und eine kritische Wertung und Absicherung der erhaltenen Ergebnisse einschließen, um falsche Aussagen zu vermeiden, die manchmal schwerwiegende Konsequenzen nach sich ziehen. In diesem Kapitel soll daher aufzeigt werden, was in der Gaschromatographie – genauer in der weit verbreiteten Kapillar-Gaschromatographie (KGC) – anders ist im Vergleich zur HPLC und welche Konsequenzen sich daraus ergeben. Einige für die qualitative und quantitative Analyse bedeutsame Neuentwicklungen werden vorgestellt.
194
5 Auswertung von GC-Daten
Dagegen muss für eine ausführliche Diskussion von möglichen Fehlern, ihre Erkennung und Vermeidung, die zudem von der verfügbaren Gerätetechnik beeinflusst wird, auf die Literatur [1–13] verwiesen werden.
5.2 Worin unterscheidet sich die GC von der HPLC?
Bei der Gaschromatographie ist die mobile Phase ein Gas, meist wird Wasserstoff, Helium oder Stickstoff als sog. Trägergas benutzt. Gase zeichnen sich gegenüber Flüssigkeiten durch eine geringere Dichte, Viskosität sowie durch eine beträchtlich höhere Diffusivität (Diffusionskoeffizienten) aus. Als stationäre Phase dient entweder eine hochsiedende Flüssigkeit (Gas-Liquid-Chromatographie, GLC) oder ein Feststoff (Gas-Solid-Chromatographie, GSC). Im Unterschied zur HPLC spielen gepackte Säulen in der GC nur noch eine untergeordnete Rolle; es kommen hauptsächlich Kapillarsäulen mit einem Innendurchmesser von unter einem Millimeter zur Anwendung, bei denen die stationäre Phase entweder als dünner Film oder als dünne Schicht eines feinkörnigen Adsorbens nur an der Innenwand aufgetragen ist. Wegen der hohen Permeabilität (Durchlässigkeit) von Kapillarsäulen lassen sich in der Kapillar-GC wesentlich längere Säulen mit einem signifikant höheren Trennvermögen verwenden. Die Verwendung von Gasen als mobile Phase, die den Stofftransport durch die Säule bewirkt, bedeutet aber auch, dass die Probe in die Dampf- oder Gasphase überführt werden muss und man in der Regel bei Säulentemperaturen zwischen Zimmertemperatur und 350 °C arbeitet. Damit beschränkt sich der Anwendungsbereich der GC auf flüchtige und thermisch stabile Verbindungen, die sich schnell ohne Zersetzung oder Reaktion mit den anderen Komponenten der Probe verdampfen lassen. Bei der KGC gestaltet sich das Einbringen der Probe in die Säule wesentlich schwieriger und problematischer als in der HPLC, bei der die Probelösung letztlich nur in den Strom des flüssigen Eluenten eingeschleust werden braucht. Anstelle einer universell anwendbaren Injektionstechnik stehen dem GC-Anwender verschiedene Injektoren sowie eine Reihe von Dosiertechniken zur Verfügung, von denen er in Abhängigkeit von den Eigenschaften der Probe sowie der analytischen Fragestellung eine Technik auswählen und die dafür geeigneten Betriebsparameter erarbeiten muss. In der Flüssigchromatographie bilden Phasengleichgewichte, chemische Gleichgewichte (z. B. Ionenaustausch) oder sterische Effekte (Ausschluss) die Basis der Trennung. Bei den Phasengleichgewichten sind unterschiedliche zwischenmolekulare Wechselwirkungen der Analyten sowohl mit der stationären als auch mit der mobilen Phase für die Trennung verantwortlich. Diese Konkurrenz der Probekomponenten mit den Lösungsmittelmolekülen um die Oberflächenplätze der stationären Phase, die treffend als “Wechselwirkungsdreieck“ bezeichnet wird, bedeutet, dass Retention und Auflösung der Komponenten nicht nur von der Struktur der stationären Phase, sondern auch von der Zusammensetzung
5.2 Worin unterscheidet sich die GC von der HPLC ?
der mobilen Phase abhängen. In der GC sind dagegen die zwischenmolekularen Wechselwirkungen sowohl der Analyten als auch der stationären Phase mit den kleinen Gasmolekülen, die als mobile Phase dienen, vernachlässigbar klein. Für die Retention und Trennung der Probekomponenten sind daher in der GC nur die Wechselwirkungen zwischen stationärer Phase und Analyten verantwortlich; bei flüssigen stationären Phasen (Gas-Liquid-Chromatographie, GLC) die Verteilung der Komponenten zwischen einem hochsiedenden Lösungsmittel und der darüber befindlichen Gasphase oder bei festen stationären Phasen (Gas-SolidChromatgraphie, GSC) die Adsorption der Komponenten aus der Gasphase an der Oberfläche von Festoffen. Da in beiden Fällen die entsprechenden Gleichgewichte stark von der Temperatur abhängen, spielt in der GC die Säulentemperatur eine ganz entscheidende Rolle. Sie ist neben der stationären Phase die wichtigste Variable bezüglich Analysenzeit und erreichbarer Auflösung. Im verdampften Zustand sind die Analytmoleküle nicht solvatisiert und besitzen je nach Polarität eine mehr oder weniger ausgeprägte Neigung zur Adsorption an kalten sowie an aktiven Oberflächen. Andererseits kann es an heißen Oberflächen zu thermischen Zersetzungserscheinungen kommen, auch wenn das Trägergas eine inerte Atmosphäre darstellt. Daher ist die Temperatur sowie die Inertheit aller Oberflächen, mit denen die heiße Probe in Berührung kommen kann (Injektor, Säule, Detektor) von großem Einfluss auf das analytische Ergebnis (das gilt besonders für die Spurenanalyse polarer Verbindungen). Ebenso spielt die Verweilzeit (Berührungszeit) der Substanzen an diesen Oberflächen eine Rolle. 5.2.1 Welche Konsequenzen ergeben sich aus diesen Unterschieden? 5.2.1.1
Anwendbarkeit der GC
Wie bereits erwähnt, ist die GC die Methode der Wahl für flüchtige und thermisch stabile (bis 350–400 °C) Verbindungen, die sich schnell und ohne Zersetzung oder Reaktionen mit anderen Gemischkomponenten verdampfen lassen. Die Flüchtigkeit hängt bekanntlich von der Größe und Polarität der Moleküle ab: Je größer das Molekulargewicht und/oder die Polarität, desto geringer die Flüchtigkeit. Man muss also beide Faktoren betrachten: So können große unpolare Moleküle eine größere Flüchtigkeit aufweisen als kleine polare Moleküle. Eine polare Gruppe in einem größeren Molekül hat einen geringeren Einfluss auf die Polarität als in einem kleineren Molekül. Verbindungen mit mehreren polaren Gruppen (Zucker, Aminosäuren usw.) weisen nur eine geringe Flüchtigkeit auf. Die Domäne der GC sind folglich unpolare und schwach polare Verbindungen, d. h. gasförmige, flüssige und auch feste Verbindungen mit weniger als 60 Kohlenstoffatomen, einem Molekulargewicht unter 600 und einem Siedepunkt unter 500 °C. Sogar einige hochsiedende Verbindungen, wie z. B. langkettige, gesättigte Kohlenwasserstoffe (bis zur C-Zahl 100) oder Triglyceride, sind aufgrund ihrer thermischen Stabilität der GC zugänglich. Ein Beispiel für die GC hochsiedender Verbindungen zeigt Abb. 5.1. Im Chromatogramm der polybromierten Diphenylether (PBDE) ist die gute Peakform des Decabrom-Diphenylethers (letzter
195
196
5 Auswertung von GC-Daten
Abb. 5.1 Gaschromatogramm einer Testmischung von polybromierten Diphenylethern (Flammenschutzmittel) an einer unpolaren Säule; temperaturprogrammierte Arbeitsweise.
Peak, nominale Molmasse 950!) bemerkenswert, da diese Substanz an aktiven Oberflächen zur Zersetzung neigt. Polare, weniger flüchtige und/oder leicht zersetzliche Substanzen lassen sich jedoch durch geeignete chemische Reaktionen (vorwiegend Silylierung, Alkylierung, Acylierung) in stabile flüchtige (weniger polare) Derivate überführen und somit der GC zugänglich machen. Durch Einführung spezieller „detektorspezifischer“ Gruppen kann diese Derivatisierung gleichzeitig zu einer empfindlicheren oder selektiven Detektion führen. Weiterhin können nichtflüchtige Proben durch eine definierte thermische Zersetzung in kleinere, der GC zugängliche Moleküle überführt werden (Pyrolyse-GC). Außerdem ist bei zahlreichen Problemstellungen ohnehin nicht die komplette Zusammensetzung der Proben, sondern nur die Menge der flüchtigen Inhaltsstoffe gefragt. Hierfür bietet die bei der GC erforderliche Überführung der Analyte in die Gas- oder Dampfphase – meist als Nachteil der Methode angesehen – eine elegante Möglichkeit der Verknüpfung der Dosierung mit einer Analyt/MatrixTrennung bzw. einer Anreicherung ohne Verwendung eines Lösungsmittels (Tabelle 5.1). Betrachtet man die unterschiedlichen Anwendungsmöglichkeiten von GC und HPLC, so ergänzen sich beide Techniken ideal. Einige Substanzen können jedoch mit beiden Techniken untersucht werden. Bei der Methodenauswahl ist zu beachten, dass die HPLC mildere Bedingungen (Trennung bei Raumtemperatur) bietet, die Kapillar-GC dagegen das bedeutend größere Trennvermögen. So kann man mit HPLC-Säulen bis zu 100 Peaks in einem Lauf trennen, mit GC-Kapillaren 500 bis 1000.
5.2 Worin unterscheidet sich die GC von der HPLC ? Tabelle 5.1 Lösungsmittelfreie („trockene“) Extraktions- und Dosiertechniken zur GC-Analyse flüchtiger Komponenten in schwer- oder nichtflüchtigen Proben. Technik
Prinzip
Headspace-GC (HS-GC) Kopf- oder Dampfraumanalyse
Probenahme aus dem Dampfraum über flüssigen oder festen Proben, statische und dynamische Varianten
Thermodesorption Direkte Thermodesorption
Ausgasen fester Proben bei höheren Temperaturen im Gasstrom
Adsorptive Anreicherung/ Thermodesorption
Spurenanreicherung aus Gasen an Adsorbentien mit nachfolgendem Ausheizen im Gasstrom
Festphasen-Mikroextraktion Solid Phase Micro Extraction, SPME
Extraktion aus flüssigen Proben oder dem Dampfraum an einer außen beschichteten Quarzfaser mit nachfolgendem Ausheizen im GC-Injektor
Stir Bar Sorptive Extraction, SBSE
Extraktion an einem beschichteten Rührstäbchen („Twister“)
Solid Phase Dynamic Extraction, SPDE (in tube SPME)
Extraktion an einer innen beschichteten Spritzennadel
Zum Methodenvergleich soll die chromatographische Analyse von Carbonylverbindungen in gasförmigen Proben dienen, die wegen ihrer atmosphärenchemischen Bedeutung und toxikologischen Relevanz von Interesse ist. In der Regel werden diese Verbindungen wegen ihrer hohen Reaktivität nicht in freier Form, sondern nach ihrer Umsetzung zu stabileren und reaktionsträgeren Derivaten bestimmt. Die – mit einer Anreicherung kombinierte – säurekatalysierte Umsetzung mit 2,4-Dinitrophenylhydrazin (DNPH) und anschließende HPLC der gebildeten Hydrazone stellt eine Standardmethode dar, obwohl in Gegenwart von Ozon sowie Stickoxiden Interferenzen auftreten können. Diese DNPH-Derivate lassen sich prinzipiell auch mit der GC trennen. In Abb. 5.2 werden die mittels HPLC (a) und GC (b) erhaltenen Chromatogramme einer DNPH-Standardmischung gegenüber gestellt. Ein wesentlicher Unterschied zwischen beiden Chromatogrammen besteht im Auftreten von Doppelpeaks für einige DNPH-Derivate in der GC. Diese Doppelpeaks resultieren aus den bei der Reaktion von DNPH mit unsymmetrischen Carbonylverbindungen gebildeten syn- und anti-isomeren Dinitrophenylhydrazonen, die sich an der unpolaren Kapillarsäule, nicht aber bei der HPLC, trennen lassen. Da zur quantitativen Analyse die Flächen beider Isomere addiert werden müssen, erweist sich in diesem Fall das höhere Auflösungsvermögen der Kapillar-GC als Nachteil. Die Isomerenverhältnisse hängen von den Reaktionsbedingungen bei der Derivatisierung (pH-Wert, Lösungsmittel, Temperatur) ab; darüber hinaus kann auch beim chromatographischen Prozess eine Isomerisierung in der Säule
197
198
5 Auswertung von GC-Daten
Abb. 5.2 Trennung von 2,4-DNPH-Derivaten niederer Carbonylverbindungen. (a) HPLC; Säule: Discovery RP Amide C16 column (150 mm × 4,6 mm, 5 μm); Fluss: 1 mL/min, 30 °C. (b) GC; Säule: Methylsilikon mit 5% Phenyl (MDN-5), (30 × 0,25 mm, 0,25 μm); Temperaturprogramm: 50 °C (1 min); 20 °C/min bis 180 °C (5 min); 1 °C/min bis 195 °C (1 min); 10 °C/min bis 280 °C (50 min); Dosierung: PTV, temperaturprogrammiert 50–280 °C mit 12 °C/s, Trägergas He (11 psi).
erfolgen, wie in Abb. 5.3 aus dem Signalverlauf zwischen den beiden Isomerenpeaks (das Signal geht nicht bis zur Basislinie zurück, sondern es bildet sich ein Plateau zwischen beiden Peaks aus) zu erkennen ist. Dies erschwert die Quantifizierung. Im hinteren Bereich des Gaschromatogramms (Abb. 5.2 b) beobachtet man unsymmetrische sowie einige zusätzliche Peaks, die auf eine thermische Zersetzung der aromatischen DNPH-Derivate hinweisen. Da sich in der GC mit zunehmender Probenzahl die Peakform und Auflösung deutlich verschlechtern, bleibt für diese Substanzen die HPLC die Methode der Wahl.
5.2 Worin unterscheidet sich die GC von der HPLC ?
Abb. 5.3 Isomerisierung auf der Säule während der GC-Trennung der syn/anti-Tautomeren vom 2,4-Dinitrophenylhydrazon des Acetaldehyds (Säule und Bedingungen wie Abb. 5.2 b).
5.2.1.2
Probeninjektion
Moderne Gaschromatographen bieten dank ihrer Zuverlässigkeit sowie der elektronischen Steuerung von Temperaturen und Gasflüssen, leistungsfähigen Autosamplern und Abspeichern von Analysensequenzen einen hohen Bedienkomfort, der andererseits aber auch manche Anwender zu einem unkritischen Herangehen bei der Methoden- und Parameterauswahl verleitet. Besonders die Probeninjektion ist neben der Probenaufarbeitung der fehlerträchtigste Arbeitsschritt der gesamten GC-Analyse. Die Dosiertechnik und dabei angewandte Parameter haben einen großen Einfluss auf die Richtigkeit und Reproduzierbarkeit der quantitativen Ergebnisse [2, 6, 7]. An dieser Stelle kann nur auf einige Aspekte hingewiesen werden. Die häufigste Art der Dosierung ist die mit einem Autosampler realisierbare Spritzendosierung von mehr oder weniger verdünnten Lösungen (Extrakte), die sich bei der Injektion mit bzw. ohne Strömungsteilung (Split- oder splitlose Injektion), Cold-on-column-Injektion sowie verschiedenen Varianten der temperaturprogrammierten Injektion (PTV) anwenden lässt. In Abhängigkeit von den Dimensionen der Kapillarsäulen sowie der angewandten Dosiertechnik sind durch eine geeignete Parameterwahl spezielle Anforderungen zu berücksichtigen, wie z. B. geringe Probenmenge, schmale Startbandbreite oder eine Refokusierung der Analyte am Anfang der Kapillarsäule. Bei den sog. „heißen“ Injektionstechniken (Split- und splitlose Dosierung) wird die Probe in den heißen Injektor dosiert und verdampft. Neben möglichen Dosierfehlern ist zu beachten, dass die Verdampfung mit einer beträchtlichen Volumenvergrößerung verbunden ist. In Abhängigkeit von Polarität und Siedepunkt des Lösungsmittels sowie der Temperatur und dem Druck im Injektor entsteht aus 1 μl flüssiger Probe ein Dampfvolumen zwischen
199
200
5 Auswertung von GC-Daten
0,1 und 0,5 ml, was bei der Dimensionierung des auswechselbaren Injektoreinsatzes (insert liner) beachtet werden muss, um Memoryeffekte als Folge von zurückströmenden Probedämpfen zu vermeiden. Bei der Verdampfungsinjektion stellt der Liner die heißeste Oberfläche im Probeweg dar, daher ist die Verwendung von gut desaktivierten Linern sowie ihre Inspektion bei Septumwechsel unbedingt zu empfehlen. Auch die häufig als Füllung verwendete Glas- oder Quarzwolle sollte gut desaktiviert sein. Eine ganze Reihe von Analyten (bestimmte Pestizide, Arzneimittel, Säuren, Amine,…) neigen nämlich zu Adsorption und Zersetzung an aktiven Oberflächen; dieser Substanzverlust führt zu kleineren Peaks (verringerte „Response“) und schlechterer Reproduzierbarkeit. Scheiden sich solche Zersetzungsprodukte im Liner ab, können sie bei der Dosierung der nachfolgenden Proben weitere Zersetzungen katalysieren (vgl. Abschn. 5.7). Andere Quellen für Kontaminationen können die Probe selbst (nichtverdampfbare Rückstände) oder das Septum (beim Durchstoßen mit der Kanüle ausgestanzte Partikel) sein. Es wird empfohlen, die Aktivität des chromatographischen Systems in periodischen Abständen anhand der Chromatogramme von zu Zersetzung neigenden Indikatorsubstanzen (z. B. Benzidin, 2,4-Dinitrophenol, Pentachlorphenol, Endrin, DDT oder entsprechende Substanzen Ihrer Proben) zu beurteilen: So sollte nach den Empfehlungen der amerikanischen Umweltbehörde EPA die Zersetzung von Endrin zu Endrinaldehyd und Endrinketon sowie von DDT zu DDD und DDE jeweils 15% nicht übersteigen. 5.2.1.3
Trennsäule
Dem GC-Anwender steht heute ein ganzes Arsenal von Trennsäulen mit unterschiedlichen stationären Phasen und Dimensionen (Länge, Innendurchmesser und Filmdicke) zu Verfügung. Die Mehrzahl der Trennprobleme lassen sich mit einer relativ geringen Anzahl von Filmkapillaren mit unterschiedlicher Polarität bewältigen; für spezielle Anwendungen sind maßgeschneiderte Säulen verfügbar. Die Gasanalytik ist die Domäne der sog. PLOT-Säulen mit festen stationären Phasen. Weitere äußerst bedeutsame Eigenschaften von Trennsäulen sind maximale Arbeitstemperatur, Langzeitstabilität, Robustheit, Inertheit und das sog. „Bluten“, die in den letzten Jahren durch verschiedene Maßnahmen der Säulenhersteller (Deaktivierung der inneren Oberfläche, Verwendung extrem reiner Chemikalien, Immobilisierung der Polymerketten und neue Polymerstrukturen) beträchtlich verbessert werden konnten [7, 9, 13]. Unter dem Säulenbluten (Column Bleed) versteht man einen unerwünschten Beitrag der stationären Phase zum Untergrundsignal durch ein allmähliches Abdampfen niedermolekularer Bestandteile von flüssigen Polymerphasen sowie durch flüchtige Produkte einer thermischen oder chemischen Zersetzung der Phasen. Selbst die wegen ihrer hohen Stabilität am meisten angewandten Polysiloxanphasen erleiden bei hohen Temperaturen (oberhalb von 250 °C) einen Abbau, der zu Abspaltung cyclischer Siloxane führt und bereits durch geringste Mengen Sauerstoff sowie anorganischer Säuren, Basen und Salze beschleunigt wird. Dieses Säulenbluten ist bei polaren Silikonphasen stärker als bei unpolaren und äußert sich in einer verrauschten (isotherme GC)
5.2 Worin unterscheidet sich die GC von der HPLC ?
bzw. ansteigenden (temperaturprogrammierte GC) Basislinie, einem ungünstigen Signal/Rausch-Verhältnis sowie in „unsauberen“ Massenspektren; es stört also besonders bei hohen Säulentemperaturen (Ende des Temperaturprogramms) und bei der Verwendung von sehr empfindlichen Detektoren in der Spurenanalyse. Neue Säulen werden in der Regel vom Hersteller mit einem Testchromatogramm ausgeliefert. Darin wird das Bluten als Differenz des FID-Signals zwischen dem oberen Temperaturlimit der Säule und der isothermen Testtemperatur (110 bis 130 °C) angegeben („delta bleed“ in [pA]). Aus den Retentionszeiten, Peakflächen sowie der Peakform von Substanzen mit verschiedenen funktionellen Gruppen werden neben der Säuleneffizienz auch Informationen über Säulenpolarität und Adsorptionsaktivität (Verluste an polaren Analyten durch irreversible Adsorption und Zersetzung) abgeleitet. Es wird empfohlen, die Leistungsfähigkeit der verwendeten Säule von Zeit zu Zeit anhand eines kommerziell erhältlichen oder selbst zusammengestellten – problembezogenen – Testgemisches zu überprüfen. Da die Erfahrungen gezeigt haben, dass nicht die gelegentliche Dosierung lufthaltiger Proben, sondern die ständige Einwirkung von Sauerstoff den thermischen Abbau von Silikonphasen begünstigt, ist die Verwendung von extrem reinen oder nachgereinigten Trägergasen sowie die Vermeidung von Undichtigkeiten in der GC-Spurenanalyse sehr wichtig. Obwohl vernetzte und chemisch gebundene stationäre Phasen robust sind und größere Mengen organischer Lösungsmittel und sogar Wasser vertragen, wird empfohlen, Proben mit anorganischen Säuren und Basen weitgehend zu vermeiden. In diesen Fällen wirkt sich auch Wasser ungünstig aus. Offensichtlich sind mitgeschleppte Säurespuren in den Proben eine wesentliche Ursache für die im Abschn. 5.2.1.1 diskutierte Verschlechterung der Auftrennung der DNPH-Derivate. Im Laufe der Zeit können sich nicht- oder schwerflüchtige Verunreinigungen aus den Proben (geringste Mengen an Verunreinigungen finden sich selbst in den saubersten Proben!) am Anfang der Säule absetzen, die Trenneigenschaften ändern und den Abbau der stationären Phase und/oder von labilen Probebestandteilen fördern. Durch Abschneiden der ersten 10 bis 20 Zentimeter lässt sich diese Störung meist beheben. 5.2.1.4
Detektor
Im Unterschied zum Injektor ist der Detektor weniger die Quelle von Fehlern durch unzulängliche Gerätetechnik und ungeeignete Betriebsparameter, sondern vielmehr durch falsche Interpretation. Response
Das vom Detektor erzeugte Messsignal ist entweder der Konzentration oder der Masse der betreffenden Substanz proportional; die entsprechenden Proportionalitätsfaktoren werden stoffspezifische Responsefaktoren RF genannt und müssen durch Kalibration ermittelt werden: RF = Peakfläche/Substanzkonzentration (oder -menge)
201
202
5 Auswertung von GC-Daten
Dabei wird zwischen Universaldetektoren, die bei allen Verbindungen ein Signal ergeben, und selektiven Detektoren, die je nach Messprinzip nur auf bestimmte Substanzklassen ansprechen, unterschieden. Bei der Quantifizierung nach der Methode des internen Standards arbeitet man gewöhnlich mit relativen Responsefaktoren RRF, in denen die Response der Analyte auf die von Standardsubstanz(en) bezogen wird. In den experimentell ermittelten Responsefaktoren sind alle Unzulänglichkeiten bei der Injektion, Trennung und Integration der Peakflächen enthalten. Mögliche Substanzverluste bei der Injektion oder durch Adsorption können bei Spurenanalysen nicht vernachlässigt werden. Aus diesen Gründen wird empfohlen, Literaturwerte nicht kritiklos zu übernehmen und bei der experimentellen Ermittlung von Responsefaktoren den Konzentrationsbereich zu wählen, der später bei den Analysen benötigt wird. Linearität
Für die quantitative Analyse ist es bedeutsam, dass der lineare Bereich des verwendeten Detektors nicht überschritten wird. Dabei ist zu beachten, dass die Gerätehersteller diese Detektoreigenschaft ebenso wie die Nachweisgrenze direkt – also unter Ausschluss von Injektor und Trennsäule – bestimmen. In der Realität ist jedoch der Detektor ein Teil des chromatographischen Systems. Adsorptionseffekte an den Oberflächen von Injektor und Säule können zu einem scheinbar höheren Wert für die Nachweisgrenze führen als in der Detektorspezifikation angegeben und so den nutzbaren linearen Bereich reduzieren. Nehmen wir an, in einem GC-System mit einem Detektor, dessen Nachweisgrenze 10 pg beträgt, kommt es in der Säule und am Injektor zur Adsorption polarer Komponenten im Bereich von etwa 50 pg, dann gelangt erst oberhalb dieses Wertes – der Nachweisgrenze der Methode – Substanz in den Detektor und erzeugt einen Messwert. Bei einer dosierten Menge von 100 pg dieser Komponente würde der Substanzverlust 50% betragen, bei einem Nanogramm nur noch 5% und bei noch höheren Substanzmengen kann dieser Effekt vernachlässigt werden. Zeitkonstante und Datenaufnahme
Von fundamentalem Einfluss auf die Güte des aufgenommenen Detektorsignals und damit auf die Genauigkeit und Reproduzierbarkeit der chromatographischen Ergebnisse sind Zeitkonstante und Datenaufnahmerate, die beide in enger Beziehung zur Breite der Peaks gewählt werden müssen [14]. Die Zeitkonstante (Time Constant, Response Time, Rise Time, Detector Filter Time, s. auch Kapitel 1) eines Detektors einschließlich der zugehörigen Auswerteelektronik (A/D-Wandler und Rauschfilter) entspricht der Zeit, die vom Anlegen eines Eingangssignals vergeht, bis 63,2% dieses Signals angezeigt werden. Eine zu schnelle Zeitkonstante verstärkt das Rauschen, zu langsame Werte führen zu verzerrten Peaks mit den Folgen: schwierigere Erkennung von Peakanfang und -ende, Verschiebung der Peakmaxima sowie eine Verschlechterung der Auflösung eng benachbarter Peaks. Optimale Werte liegen im Bereich von ca. 10%
5.2 Worin unterscheidet sich die GC von der HPLC ?
der Peakbreite in halber Höhe des schmalsten noch auszuwertenden Peaks im Chromatogramm. Die Abtastfrequenz (Data Aquisition Rate, Sampling Rate, Sampling Frequency, Aufnahmerate) hat ebenfalls einen fundamentalen Einfluss auf die registrierte Peakform. Für eine akkurate Wiedergabe der chromatographischen Peaks in qualitativer und quantitativer Hinsicht werden etwa 10 Datenpunkte pro Peakbreite in halber Höhe gefordert, das entspricht ca. 20 Punkte pro Peak (s. jedoch dazu die Bemerkungen in Kapitel 2). Wird eine niedrigere Aufnahmerate gewählt, so erhält man ebenfalls verzerrte Peaks (erkennbar an „Ecken und Kanten“) mit den bereits erwähnten Nachteilen. 5.2.1.5
Schnelle Gaschromatographie
Schnelle Gaschromatographie [15, 16] bedeutet immer schmale Peaks, ganz gleich, auf welchem Wege die Reduzierung der Analysenzeiten erfolgt. Wie bereits weiter oben ausgeführt, erfordern geringe Peakbreiten sowohl eine schnelle Datenerfassung (mindestens 8–10 Datenpunkte pro Peakbreite in halber Höhe) als auch eine entsprechend kurze Detektor-Zeitkonstante (bis zu ca. 10% der Peakbreite in halber Höhe), die erst mit den neueren Geräten möglich sind. Für die unterschiedlichen Varianten der schnellen GC sind verschiedene Termini, wie High-Speed-GC, Fast-GC, Ultra-Fast-GC, Super-Fast-GC gebräuchlich. Um die praktischen Anforderungen an die Detektor-Zeitkonstante und Datenaquisition zu verdeutlichen, hat es sich eingebürgert, die Peakbreite in halber Höhe wh zur Unterteilung der schnellen GC heranzuziehen: x Fast-GC: Trennung in wenigen Minuten, wh unter 1 s. x Super-Fast (Very-Fast)-GC: Trennungen im Minutenbereich wh unter 0,5 s. x Ultra-Fast-GC: Trennungen im Sekundenbereich, wh kleiner als 0,1 s. Von den verschiedenen Möglichkeiten zur Verkürzung der Analysenzeiten haben sich vor allem zwei Wege als erfolgreich erwiesen: Die Anwendung von kürzeren Säulen mit geringerem Innendurchmesser (z. B. 0,05 oder 0,1 mm anstelle der konventionellen Säulen von 0,2–0,3 mm) sowie extrem hohe Heizraten bei der temperaturprogrammierten Arbeitsweise. Schnelle Analysen müssen auch von einer höheren Präzision der Analysenbedingungen begleitet sein, wenn die Retentionszeiten zur Identifizierung der Komponenten herangezogen werden soll. Weitere apparative Anforderungen betreffen besonders die schnelle Dosierung geringer Probemengen gegen hohen Säuleneingangsdruck, präzise Regelung kleiner Gasflüsse bei hohem Eingangsdruck sowie die präzise Messung kurzer Retentionszeiten. Bei der Methodenübertragung von „normalen“ auf enge Säulen ist zu beachten, dass mit der Verringerung des Innendurchmessers auch die Filmdicke verringert werden muss, um das Phasenverhältnis konstant zu halten. Damit verringern sich die Probenkapazität sowie die Toleranz der Säule gegen große Konzentrationsunterschiede der Komponenten in der Probe; extreme Spurenanalyse bei hohen Trenngeschwindigkeiten ist daher problematisch. Bei sehr hohen Heizraten kann die „Feinstruktur“ des Chromatogramms verloren gehen.
203
204
5 Auswertung von GC-Daten
Wenn das Trennvermögen einer ausgearbeiteten Methode bei der Verkürzung der Analysenzeit erhalten bleiben soll, erweist sich ein frei verfügbares „GC Method Translation Programm“ [17, 18] als sehr hilfreich, vorausgesetzt, man bleibt bei der Maßstabübertragung von „normalen“ auf Bedingungen der schnellen GC bei der gleichen stationären Phase. Aus den oben angegebenen Werten für die Peakbreite in halber Höhe leiten sich die Konsequenzen für die Gerätetechnik ab: Peakbeiten im Sekundenbereich erfordern bereits maximale Zeitkonstanten unter 100 ms und Datenaufnahmeraten von über 10 Hz, für die ultraschnelle GC liegen die entsprechenden Werte bei ca. 10 ms und über 100 Hz. Die Geräteindustrie stellt sich zunehmend diesen Herausforderungen. Besonders hohe Anforderungen stellt die schnelle GC jedoch an die massenspektrometrische Detektion, da die oben erwähnten Datenpunkte im Scan-Modus jeweils einem kompletten Massenspektrum entsprechen, das zum Zweck der Identifizierung eine entsprechende Qualität aufweisen muss. Dazu werden entweder sehr schnell scannende Massenspektrometer oder Flugzeit-Massenspektrometer (TOF-MS) in Verbindung mit einer Deconvolution-Software benötigt. TOF-Massenspektrometer können bis zu 500 komplette Massenspektren pro Sekunde aufnehmen.
5.3 Qualitative Analyse 5.3.1 Vorbemerkung
Unter dem Begriff „Identifizierung“ muss bekanntlich zwischen zwei generell verschiedenen analytischen Fragestellungen unterschieden werden, die unterschiedliche Strategien bedingen: Zum einen die Identifizierung von Inhaltsstoffen in unbekannten Proben (Non-Target Analysis) und zum anderen die zielgerichtete Suche nach ausgewählten Verbindungen als Voraussetzung für eine Quantifizierung (zielgerichtete Analyse, Target Analysis). Für die Non-Target-Analysis ist die Kombination von chromatographischer Trennung mit spektroskopischer Identifizierung die Methode der Wahl. Von den prinzipiell möglichen Kopplungstechniken hat sich die GC-MS wegen ihrer hohen Empfindlichkeit, Vielseitigkeit (Universal- oder massenselektive Detektion), substanzspezifischen Information und den umfangreichen Spektrenbibliotheken zur leistungsfähigsten Methodenkombination für flüchtige Analyten entwickelt. Die Kopplung der GC mit der Fouriertransformations-Infrarotspektroskopie (GCFTIR) und mit der Atomemissions-Spektrometrie (GC-AED) liefern zwar zur MS ergänzende Strukturinformationen (vgl. Tabelle 5.2), werden aber gegenwärtig nur in wenigen Laboratorien angewendet. Bei der Target-Analysis ist stets eine Zuordnung der Peaks zu den Zielanalyten erforderlich, die in vielen Fällen als reine Substanzen oder Kalibrierstandards
5.3 Qualitative Analyse Tabelle 5.2 KGC-Kopplungstechniken. GC-AED
GC-MS (EI; LRMS)
GC-FTIR
Ablaufende Prozesse
Atomisierung, Strahlungsemission
Ionisierung, strukturtypische Zerfallsreaktionen
Anregung von Molekülschwingungen und -rotationen
Spektrum
Emissionslinien (Atome, Ionen)
Molekül- und Fragmentionenpeaks
Interferogramme o RotationsSchwingungsspektren
Informationen
An-/Abwesenheit von Elementen elementare Zusammensetzung Elementverhältnisse
Molmasse Heteroatome (Cl, Br, S) Isotope Grundgerüst: aliphatisch, aromatisch, Kettenverzweigungen
Funktionelle Gruppen cis/trans-Isomere Positionsisomere (Aromaten) Ringverknüpfung Konformere
Molekülidentität Spektrenvergleich
–
- Große Spektrenbibliotheken
/ Kleine Spektrenbibliotheken (Gasphasenspektren)
Empfindlichkeit
-
-
/ Ca. 100-mal schlechter als MS, strukturabhängig (strong, medium, weak)
verfügbar sind. Als ein Entscheidungskriterium für die An- oder Abwesenheit der Targetverbindungen werden oft Retentionsdaten genutzt. 5.3.1.1
Fingerprint-Analyse
Eine weitere analytische Fragestellung betrifft die nach der Identität oder Ähnlichkeit komplex zusammengesetzter Gemische. Durch Vergleich der Peakmuster (Position und Intensität der GC-Peaks) werden ohne Identifizierung der einzelnen Inhaltsstoffe Aussagen erhalten, ob z. B. zwei Proben identisch sind. Für diese „Fingerprint-Analyse“ sind einige Programme (neuerdings auch unter Einbeziehung von Massenspektren) verfügbar, die auf den mathematischen Methoden der Mustererkennung (pattern recognition) beruhen. 5.3.1.2
Peakreinheit
Selbst bei Verwendung hochauflösender Trennsäulen sind Koelutionen nicht zu vermeiden. Aus der Form der Peaks kann jedoch nur in wenigen Fällen erkannt werden, ob sie eine reine Komponente oder eine Mischung repräsentieren. Bei sehr geringen Unterschieden in den Retentionszeiten und/oder großen Konzentrationsunterschieden ist es besonders schwierig, nicht aufgelöste Komponenten zu erkennen.
205
206
5 Auswertung von GC-Daten
Ein Indiz für die Peakreinheit liefert ein Vergleich der Peakbreite mit der von benachbarten Peaks, die Paralleldetektion mit Universal- und selektiven Detektoren, ein Vergleich von Massenspektren aus verschiedenen Peakpositionen oder die Massenfragmentographie (Übereinanderlegen mehrerer Massenspuren). Die in jüngster Zeit entwickelten mathematischen Programme zur Zerlegung überlagerter Signale (Deconvolution, s. weiter unten) eröffnen neue Möglichkeiten zur Erkennung und Auswertung von Koelutionen, zur Erzeugung „reiner“ Massenspektren, sowie zur quantitativen Auswertung von nur angetrennten Peaks. 5.3.2 Vergleich von Retentionswerten
Die aus dem Gaschromatogramm zugänglichen Retentionszeiten sind für Vergleichszwecke nicht ohne weiteres nutzbar, da sie nicht nur von Struktur und Menge der verwendeten stationären Phase und der Säulentemperatur abhängen, sondern auch von Säulendimensionen und Geschwindigkeit der mobilen Phase. Ein Retentionsvergleich zwischen Probe und darin vermuteten Komponenten (Target-Analysis) muss daher unter exakt gleichen experimentellen Bedingungen erfolgen. Eine gefundene Übereinstimmung stellt ein notwendiges, aber noch kein hinreichendes Kriterium für die Anwesenheit der betreffenden Substanz in der Probe dar und sollte auf einer Säule mit deutlich unterschiedlicher Polarität der stationären Phase wiederholt werden. Bei Nichtübereinstimmung kann dagegen sofort die eindeutige Aussage getroffen werden, dass diese Substanz nicht in der Probe enthalten ist. Kann aus verschiedenen Gründen kein „identifizierender“ Detektor (MS) verwendet werden, erweist sich in einigen Fällen eine Zweisäulentechnik als vorteilhaft, bei der nach Dosierung und Verdampfung die Probe auf zwei Säulen mit unterschiedlichem Trennvermögen aufgeteilt wird. Auf diese Weise erhält man pro Dosierung zwei Chromatogramme mit unterschiedlichen Retentionszeiten und evtl. auch Elutionsreihenfolgen; die Retentionszeiten (Erkennungsfenster) der Targetverbindungen müssen in Kalibrierläufen ermittelt werden. Nur wenn auf beiden Säulen im festgelegten Identifizierungsfenster ein Peak erscheint, gilt die betreffende Substanz als anwesend. Auch die Peakflächen bzw. das Quantifizierungsergebnis sollten auf beiden Säulen vergleichbar sein. Wenn dies nicht der Fall ist, ist auf einer Säule eine Koelution mit einer anderen Substanz wahrscheinlich und es sollte dann nur der geringere Konzentrationswert angegeben werden. Die größere Sicherheit in den qualitativen und quantitativen Aussagen rechtfertigt bei anspruchsvollen Analysen den höheren Aufwand der Tandem-GC. 5.3.3 Relative Retentionswerte
Um den Einfluss von apparativen Schwankungen (vor allem Säulentemperatur und Trägergasgeschwindigkeit) sowie der Menge der stationären Phase in der Säule auf die Messwerte zu minimieren, wurden relative Retentionswerte zur
5.3 Qualitative Analyse
Identifizierung vorgeschlagen, die weitgehend unabhängig von Säulenlänge, Menge der stationären Phase und Trägergasgeschwindigkeit sind. Die größte Verbreitung hat das von E. Kovats (1958) eingeführte Retentionsindexkonzept gefunden, bei dem nicht eine einzelne Verbindung, sondern die homologe Reihe der n-Alkane als Referenzverbindungen benutzt wird. Er definierte den Retentionsindex eines n-Alkans für eine beliebige Säule bei beliebiger Temperatur als das 100-fache seiner C-Zahl z (z. B. n-Octan: I = 800). Einmal bestimmt, können die für die isotherme und temperaturprogrammierte GC bestimmbaren Indices tabelliert und zu Vergleichszwecken mit experimentellen Werten herangezogen werden. Bei der überwiegend angewandten temperaturprogrammierten Arbeitsweise (TPGC) mit einem linearen Temperaturprogramm können die aus dem Chromatogramm direkt zugänglichen (Brutto-)Retentionszeiten zur Berechnung verwendet werden: I xTP = 100 z + 100
tR( x ) − tR( z ) tR( z + 1) − tR( z )
mit: tR(x) Retentionszeit der Substanz x tR(z) Retentionszeit des n-Alkans mit z C-Atomen Bei dem temperaturprogrammierten Retentionsindex, oft als linearer Retentionsindex (LRI) bezeichnet, sollte neben der stationären Phase unbedingt das Temperaturregime (Heizrate, Start- und Endtemperatur) angegeben werden. Mit der zunehmenden Anwendung der GC/MS-Kopplung einschließlich der ständig erweiterten Spektrenbibliotheken in den vergangenen 20 Jahren haben die Retentionsindices stark an Bedeutung verloren, weil die Massenspektren wesentlich mehr Informationen zur Strukturerkennung vermitteln als ein Retentionsindex. Andererseits ist bei Verbindungen mit sehr ähnlichen Massenspektren eine Strukturzuordnung allein aus den Massenspektren unsicher. Retentionsindex-Werte können daher besonders bei komplexen Gemischen als ein zusätzliches Kriterium zur Peakidentifizierung dienen, wenn sich die Massenspektren der interessierenden Verbindungen nur wenig unterscheiden, wie z. B. in der Kohlenwasserstoff-Analytik oder bei Duft- und Aromastoffen. In [18] wird der lineare Retentionsindex in den Algorithmus zum Spektrenvergleich einbezogen. Auch die Aufnahme von Retentionsindices in die jüngste Ausgabe der NIST-Spektrenbibliothek weist auf eine Rückbesinnung zur Nutzung von Retentionswerten bei der Peakzuordnung hin. 5.3.4 Retention Time Locking (RTL)
Mit der Verbesserung der Gerätetechnik – vor allem der elektronischen Regelung von Säulentemperatur und Gasflüssen – sowie den Fortschritten in der Säulentech-
207
208
5 Auswertung von GC-Daten
nologie (engere Toleranz und bessere Reproduzierbarkeit von Säulenlänge, Innendurchmesser und Filmdicke) wurde vor einem Jahrzehnt ein System entwickelt, mit dem sich die absoluten Retentionszeiten – also die Gesamtretentionszeiten anstelle der Retentionsindices – zur Identifizierung bei Target-Analysen nutzen lassen [19]. Dabei wird nach der üblichen Methodenausarbeitung die Abhängigkeit der Retentionszeit einer ausgewählten „Fixierungssubstanz“ vom Eingangsdruck in wenigen Testläufen experimentell ermittelt. Die von der RTL-Software gesteuerte elektronische Trägergasregelung (Electronic Pressure Control, EPC, Agilent Technologies) ist dann in der Lage, kleine Schwankungen oder Abweichungen in Säulentemperatur, Eingangs- oder Ausgangsdruck sowie in den Säulendimensionen durch Variation der Regelgröße Eingangsdruck auszugleichen und so die Retentionszeiten für alle Verbindungen im Chromatogramm konstant zu halten. Diese Fixierung der Retentionszeiten führt zu einer hohen Reproduzierbarkeit, die engere Retentionszeitfenster zur Peakerkennung ermöglicht. Mit RTL werden Chromatogramme vergleichbar, die zu verschiedenen Zeiten oder an verschiedenen Geräten bzw. in unterschiedlichen Laboratorien an nominell gleichen Säulen, aber unterschiedlichen Detektoren erzeugt wurden. Die unterschiedlichen Säulenausgangsdrücke von FID (Normaldruck), MS (Unterdruck) oder AED (leichter Überdruck) werden kompensiert. Auch nach dem Verkürzen der Säule oder dem Einbau einer neuen Säule können wieder die gleichen Retentionszeiten erhalten werden. Damit entfällt das zeitraubende Korrigieren der Identifizierungsfenster (z. B. bei SIM-Analysen). Bei Standardisierung von Trennsäule und Betriebsbedingungen lassen sich diese fixierten Retentionszeiten in Datenbanken als Kriterien zur Identifizierung aufnehmen.
5.4 GC/MS-Kopplung
Den Standard für die Kopplung mit der GC bilden Kompaktgeräte mit Elektronenstoß-Ionisation (EI) bei hoher Energie und einem Quadrupol oder einer Ionenfalle (Ion Trap) als Massenanalysator. Mit diesen Geräten wird praktisch eine über den gesamten Massenbereich konstante Auflösung nach Nominalmassen erzielt („Einheitsmassen- oder Nominalmassenauflösung“), eine Unterscheidung von Signalen mit unterschiedlichen exakten Massenzahlen aber gleicher Nominalmasse ist mit diesen niederauflösenden Geräten (low resolution, LRMS) nicht möglich. So lassen sich z. B. die Verbindungen Pyridin Benzamidin Ethyltoluol Acetophenon
C5H4N4 C7H8N2 C9H12 C8H8O
exakte Massenzahl = 120,004 120,069 120,09 120,058
nicht anhand ihres Molpeakes unterscheiden, da sie alle die gleiche Nominalmasse von 120 aufweisen. Noch eine andere Zahl: Es sind mehr als 1500 Verbindungen mit der gleichen Nominalmasse von 250 bekannt.
5.4 GC/MS-Kopplung
Mit hochauflösenden Massenspektrometern können dagegen sehr geringe Massendifferenzen 'MZ unterschieden werden, wie z. B. CH4/O ('MZ = 0,036), CH2/N (0,013) und O2/S (0,018). Für die Analytik polychlorierter Dioxine und ähnlicher Verbindungen in komplexen Umweltproben ist daher die Kopplung der GC mit hochauflösenden Massenspektrometern vorgeschrieben, auf die in diesem Kapitel nicht eingegangen wird. Wie bereits erwähnt, kann das Massenspektrometer sowohl zur Identifizierung unbekannter Substanzen als auch zum selektiven und äußerst empfindlichen Nachweis von Zielanalyten eingesetzt werden. 5.4.1 MS als identifizierender Detektor (Scan-Modus)
Bei der Elektronenstoß-Ionisation werden die aus der GC-Säule austretenden Moleküle durch Beschuss mit energiereichen Elektronen ionisiert. Durch die hohe Energie (70 eV; sog. „harte Ionisation“) kommt es in Abhängigkeit von der Molekülstruktur zu simultan ablaufenden Bindungsspaltungen und Umlagerungsreaktionen, d. h. ein Teil der gebildeten Molekülionen zerfällt sofort weiter unter simultaner Bildung von mehreren kleineren, stabileren Bruchstücken (Fragmentionen). Im Massen-Scan-Modus (Full Scan Mode) wird nun durch zeitgesteuerte Änderung der elektrischen Felder des Massenanalysators sequentiell, d. h. fortlaufend in zeitlich kurzer Abfolge, der relevante Massenbereich abgetastet und somit alle gebildeten Ionen erfasst, unabhängig davon, ob eine Substanz aus der GC-Säule in das Massenspektrometer gelangt oder nicht (cyclischer Scan, Massendurchlauf). Auf diese Weise wird eine sehr große Anzahl von Massenspektren aufgenommenen und abgespeichert. Diese Strichspektren beinhalten die relative Intensität (entspricht der Häufigkeit) der gebildeten Ionen als Funktion ihrer Massenzahl. Durch Addition der Intensitäten und Darstellung der Summenintensität gegen die Retentionszeit oder die Anzahl der Scans wird das sog. Totalionenstrom-Chromatogramm (Total Ion Current, TIC) auf dem Monitor abgebildet, das einem FIDChromatogramm sehr ähnlich ist. Dabei werden alle Verbindungen registriert, die durch Elektronenstoß ionisierbar sind. Bei der MS im Scan-Modus handelt es sich also wie beim FID um eine Universaldetektion für organische Substanzen. Aufgrund der unterschiedlichen Ionenerzeugung (FID: heiße Flamme; MS: Beschuss mit Elektronen) können sich aber unterschiedliche Signalintensitäten ergeben. Wird z. B. bei der MS-Fragmentierung einer Verbindung die Bildung von neutralen Molekülen bevorzugt, die im MS kein Signal geben, so erscheint diese Verbindung im TIC nur mit geringer Intensität. Zu allen Zeitpunkten im Chromatogramm sind die entsprechenden Massenspektren zur Identifizierung verfügbar. Bei dem Massen-Scan-Modus gibt es zwei wählbare Parameter, die in engem Zusammenhang stehen und das qualitative und quantitative Ergebnis beeinflussen können: Massenbereich und Zykluszeit.
209
210
5 Auswertung von GC-Daten
x Massenbereich: Das komplette EI-Massenspektrum einer Substanz erstreckt sich von kleinen – relativ unspezifischen – Bruchstücken bei niederen Massenzahlen bis zu den Molekularionen. Die Molmasse der zu erwarteten Verbindungen bestimmt folglich das obere Ende des Bereichs (meist zwischen 400 und 600, bei polybromierten Verbindungen entsprechend höher), während die Startmasse nicht zu niedrig (möglichst nicht unter 40 Dalton) gewählt werden sollte, um eine Registrierung des unspezifischen Untergrundes gering zu halten. x Zykluszeit: Die Zykluszeit oder Scan Rate ist eine fundamentale Größe, die sich nach der Peakbreite richten sollte: Wie bereits erwähnt, werden zur akkuraten Wiedergabe der chromatographischen Peaks mindestens 10 Messpunkte, besser jedoch über 20 gefordert. Beispielsweise werden. mit einer Zykluszeit von 0,5 s (das entspricht zwei Scans pro Sekunde) bei einem Peak von 10 s Basisbreite 20 Datenpunkte erreicht; bei einer Peakbreite von 1 s dagegen nur zwei. Das ist völlig unzureichend. Schmale Peaks (Peaks am Anfang des Chromatogramms oder bei der schnellen GC) erfordern also wesentlich höhere Abtastraten, um Peakverzerrungen zu vermeiden. Im Totalionenstrom-Chromatogramm verkörpert jeder dieser Datenpunkte jeweils ein komplettes Massenspektrum. Bei einem Massenbereich von 500 amu (atomic mass units; z. B. von 50–550 amu) entspricht dies unter Berücksichtigung der Rückführzeit (Reset Time) zwischen den Scans einer Aufnahmezeit (Verweilzeit) von unter 1 ms pro Masseneinheit. Da sich andererseits mit Verkürzung der Aufnahmezeit die Signalintensität verringert, wird zur Spurenanalyse der SIMModus bevorzugt. Aufgrund des Hochvakuums verlaufen die oben erwähnten Fragmentierungen unimolekular, d. h., es finden keine Reaktionen untereinander statt; die Fragmentierungswege sind weitgehend aufgeklärt (Fragmentierungsregeln). Da das sog. Fragmentierungsmuster charakteristisch für die betreffende Substanz ist, weisen die EI-Massenspektren einen hohen Informationsgehalt auf und können zur Identifizierung eingesetzt werden. 5.4.2 Nutzung von Spektrenbibliotheken
Die hohe Anregungsenergie von 70 eV bei der Elektronenstoß-Ionisation bildet eine wesentliche Voraussetzung für die Vergleichbarkeit der mit verschiedenen Geräten aufgenommen EI-Massenspektren sowie für das Anlegen von umfangreichen, kommerziell erhältlichen Spektrenbibliotheken. So enthält die jüngste Version der NIST/EPA/NIH Mass Spectral Library (NIST05) 190 825 EI-Massenspektren von 163 200 verschieden chemischen Substanzen [20]. Durch den computergesteuerten Vergleich der aufgenommenen Spektren mit den Bibliotheksspektren oder selbst aufgenommenen Referenzspektren können die GC-Peaks entweder den Zielanalyten zugeordnet oder Strukturvorschläge für unbekannte Verbindungen abgeleitet werden. Dabei werden mit Hilfe eines Suchalgorithmus Lage und Intensität der wichtigsten Fragmente im aufgenommenen
5.4 GC/MS-Kopplung
Massenspektrum mit den entsprechenden Daten in der Bibliothek verglichen. Das Ergebnis dieses Vergleichs ist eine Hitliste mit den Substanzen, bei denen die beste Übereinstimmung gefunden wurde. Als Maß für die Übereinstimmung wird ein Ähnlichkeitsindex (Similarity Index, SI oder Purity Index, PUR) angegeben. Der Anwender ist jedoch gut beraten, nicht automatisch die Verbindung mit der besten Übereinstimmung kritiklos zu übernehmen, sondern diese Substanzliste nur als das zu betrachten, was sie eigentlich darstellt, nämlich eine Rangfolge von Vorschlägen! Die kritische Überprüfung der betreffenden Strukturen auf ihre Plausibilität bleibt die Aufgabe des Bearbeiters, denn der Rechner kann auf der Grundlage der Ähnlichkeitsberechnungen keine Aussage treffen, wie sinnvoll seine Vorschläge sind. Die Vorschlagsliste kann selbstverständlich nur Substanzen enthalten, deren Massenspektren in der Bibliothek vorhanden sind. Umfang und Qualität der Bibliotheksspektren (manche Bibliotheken enthalten oft noch Spektren, die mit unsauberen Substanzen oder an Geräten der Pionierzeit aufgenommen worden sind) sowie die Qualität der selbst aufgenommenen Spektren sind wichtige Faktoren. Denn die bei der Kopplung resultierenden Massenspektren setzen sich additiv aus allen Signalen der in der Ionenquelle anwesenden Substanzen zusammen. Bei Koelutionen werden folglich Gemischspektren erhalten, wie in Abb. 5.4 dargestellt. Außerdem können „verunreinigte Spektren“ Signale vom „chemischen Rauschen“ (meist Säulenbluten) aufweisen. In den Algorithmen zum Spektrenvergleich ist daher eine Untergrundkorrektur (Subtraktion von Basislinien-Spektren) sowie eine geringere Wichtung des niederen Massenbereichs enthalten; durch Spektrenvergleich innerhalb eines GC-Peaks (Peakanfang, -maximum, -ende) kann man auf Koelutionen prüfen, vorausgesetzt, die Massenspektren der betreffenden Substanzen unterscheiden sich voneinander.
Abb. 5.4 Zusammengesetztes Massenspektrum bei Koelution (aus [21]).
211
212
5 Auswertung von GC-Daten
Abb. 5.5 Schema zur Strukturinterpretation von EI-Massenspektren. Es bedeuten: I Intensität; a, b relative Intensität des leichten bzw. schweren Isotops.
Als wichtiges Kriterium bei Plausibilitätsbetrachtungen sollte die gaschromatographische Retention nicht vergessen werden. Die oben erwähnte Spektrenbibliothek NIST05 enthält erstmalig die Retentionsindices von über 25 000 Verbindungen an unpolaren stationären Phasen [20]. Auch eine Überprüfung der Massenspektren (Molpeak, Isotopenmuster, charakteristische Fragmente und Schlüsselbruchstücke) kann weiterhelfen, ohne eine komplette Interpretation vornehmen zu müssen. Abbildung 5.5 enthält ein Schema zur systematischen Herangehensweise bei der Interpretation von EI-Massenspektren; die charakteristischen Isotopenmuster für die Elemente Chlor und Brom veranschaulicht Abb. 5.6.
5.4 GC/MS-Kopplung
Abb. 5.6 Isotopenmuster für die Elemente Chlor und Brom.
5.4.3 Spektren-Deconvolution
In jüngster Zeit wurden mathematische Techniken zur schnellen und genauen Extraktion „sauberer Massenspektren“ bei Überlagerung mit anderen Komponenten und/oder hohen Untergrundsignalen eingeführt [22], die besonders bei komplex zusammengesetzten Proben zu einer höheren Sicherheit der Identifizierung beim Vergleich mit Bibliotheksspektren führen. Weiterhin kann man aus den deconvolierten Spektren oftmals überlagerungsfreie Ionenspuren erkennen, die eine zuverlässige Quantifizierung selbst in Nachbarschaft zu großen Peaks ermöglichen. Das Prinzip der Deconvolution verdeutlicht Abb. 5.7, ein Anwendungsbeispiel zeigt Abb. 5.8. Man erkennt deutlich die Unterschiede in den Massenspektren des Aufsetzerpeaks Nr. 3 vor und nach der Deconvolution. Zur Erkennung und Zerlegung von überlagerten Spektren werden automatisch die Intensitätsverhältnisse aller Massensignale ständig miteinander verglichen. Dazu ist eine hohe Abtastfrequenz (Scan Rate) erforderlich, weitere Voraussetzungen sind unterschiedliche Massenspektren der betreffenden Verbindungen sowie geringfügige Unterschiede in den Retentionszeiten. Neben dem frei erhältlichen Automated Mass Spectral Deconvolution and Identification System AMDIS, das mit den Suchalgorithmen verknüpft werden kann (Agilent Technologies [21]), sind weitere Deconvolution-Programme auf dem Markt; das Gebiet ist gegenwärtig in starker Entwicklung.
213
214
5 Auswertung von GC-Daten
Abb. 5.7 Schematische Darstellung der Spektren-Deconvolution (aus [21]).
Abb. 5.8 Beispiel einer Datenanalyse mittels AMDIS [23].
5.4 GC/MS-Kopplung
5.4.4 MS als massenselektiver Detektor
Eine selektive Darstellung bestimmter Komponenten wird erhalten, wenn anstelle des Totalionenstromes nur der Signalverlauf für eine oder einige wenige charakteristische Massenzahlen abgebildet wird. In solch einem „Ionenchromatogramm“ werden nur die Verbindungen registriert, deren Massenspektren die eingestellten m/z-Werte aufweisen. Für die massenselektive Detektion existieren zwei Varianten. 5.4.4.1
Massenfragmentographie (Reconstructed oder Extracted Ion Chromatogramm)
Die Darstellung ausgewählter Ionenspuren erfolgt durch Nachbehandlung der Scan-Daten und dient der Erkennung und Auswertung koeluierender Verbindungen in komplexen Gemischen. Per Knopfdruck lassen sich beliebige Massenzahlen aus dem aufgenommenen Datensatz extrahieren; ein Intensitätsgewinn wird dabei nicht erzielt. Ein Beispiel zeigt Abb. 5.9, in der das Totalionenstrom-Chromatogramm und zwei rekonstruierte Ionenchromatogramme bei den Massenzahlen 220 und 236 dargestellt sind. Es handelte sich um eine Probe aus Versuchen zum Bioabbau
Abb. 5.9 Vergleich von Totalionenstrom-Chromatogramm (TIC) mit den Ionenchromatogrammen bei den Massenzahlen 220 und 236 [24].
215
216
5 Auswertung von GC-Daten
von 4-n-Nonylphenolen [24]. Die Massenspur 220 ist das Molekülion der Nonylphenole, die beim Abbau gebildeten hydroxylierten Nonylphenole ergeben die Massenspur 236. 5.4.4.2
SIM (Single Ion Monitoring) oder MID (Multiple Ion Recording)
Bei der Kopplung wird auf den vollständigen Massendurchlauf und damit auf die Aufnahme kompletter Massenspektren verzichtet und nur die Intensität von einem oder einigen wenigen Ionen verfolgt, die für die nachzuweisenden
Abb. 5.10 GC/MS-SIM-Spurenanalyse von Dichlofluanid; Identifizierung anhand der Retentionszeiten und Intensitäten charakteristischer Ionen [25].
5.4 GC/MS-Kopplung
Verbindungen charakteristisch sind. Neben der hohen Selektivität bietet diese Technik den Vorteil der größeren Aufnahmezeiten (Verweilzeit, Dwell Time) pro Massenzahl, wodurch sich je nach Gerätetyp gegenüber dem Scan-Modus eine Empfindlichkeitssteigerung um den Faktor 20 bis 100 ergibt. Diese Technik wird besonders bei Quadrupol-Geräten zur selektiven und empfindlichen Spurenbestimmung von Zielanalyten in matrixbelasteten Proben angewandt, wie z. B. bei der Rückstandsanalytik. Der Preis für den Gewinn an Empfindlichkeit und Selektivität ist jedoch der Verlust an molekülspezifischer Information, da keine Massenspektren mehr zur Überprüfung der Identität verfügbar sind. Daher werden pro Zielanalyt die Intensitäten von drei charakteristischen Ionen registriert; von denen das intensivste zur Quantifizierung und die anderen zur Absicherung der Identität (sog. qualifier ions) dienen. Es sollten charakteristische und intensive Ionen, möglichst aus dem höheren Massebereich, ausgewählt werden, die nur bei dem betreffenden Zielanalyten vorkommen. Die Identität einer Verbindung gilt bei SIM-Analysen als gesichert, wenn alle ausgewählten SIM-Ionen im vorgegebenen Retentionsfenster vorhanden sind und ihre Intensitätsverhältnisse denen des Kalibrierstandards entsprechen. Die Abb. 5.10 zeigt die Identitätsbestätigung an einem Beispiel aus der Rückstandsanalytik von Pestiziden in landwirtschaftlichen Erzeugnissen. Im oberen Chromatogrammausschnitt ist das Fungizid Dichlofluanid nicht enthalten, obwohl das Qualifierion (MZ 224) vorhanden ist und die Retentionszeit übereinstimmt. Aber das Qualifierion 167 liegt nicht im Erwartungsbereich und das andere Qualifierion mit der MZ 332 fehlt gänzlich. Im unteren Chromatogramm ist Dichlofluanid positiv identifiziert, da alle Kriterien erfüllt sind: Alle Ionenspuren sind vorhanden, die Retentionszeit stimmt überein und die Intensitäten der Qualifierionen liegen im erwarteten Bereich. Bei der Ausarbeitung von Multikomponentenmethoden wird das Chromatogramm zweckmäßigerweise in mehrere Zeitfenster unterteilt, in denen zeitgesteuert jeweils unterschiedliche Ionen registriert werden. Neuere MS-Geräte erlauben quasisimultane Full-Scan- und SIM-Messungen im gleichen Lauf, was sich zur Strukturbestätigung sowie zur Identifizierung weiterer Probekomponenten nutzen lässt (Screening). 5.4.5 Chemische Ionisation
Manche Verbindungen fragmentieren unter Elektronenstoßbedingungen so stark, das im Massenspektrum nur zahlreiche unspezifische Ionen mit geringer Intensität auftreten, aber kein Molekülion oder substanzcharakteristische Ionen. Hier hilft die Chemische Ionisation (CI) weiter, bei der unter Vermittlung eines Reaktantgases (Methan, iso-Butan, Ammoniak, Methanol, Wasser) nur wenig Energie übertragen wird. Bei dieser „weichen“ Ionisierungstechnik entstehen sehr stabile positive oder negative Ionen, meist die Quasi-Molekülionen (MH+, (M-H)+ oder Adduktionen); Fragmente werden kaum gebildet. Als Strukturinformation wird daher bei der CI die Molmasse erhalten; weitergehende Strukturinformationen
217
218
5 Auswertung von GC-Daten
können aus MS/MS-Experimenten abgeleitet werden, die mit Ionenfallengeräten oder Tripel-Quadrupolsystemen durchführbar sind. Wegen ihrer Selektivität und den intensiven charakteristischen Signalen werden Chemische Ionisation und MS/MS-Techniken zunehmend in der Ultraspurenanalytik eingesetzt.
5.5 Quantitative Analyse
Wie bereits mehrfach erwähnt wurde, muss der quantitativen Auswertung eine sichere Identifizierung der betreffenden Peaks einschließlich ihrer Überprüfung auf Reinheit (Koelutionen) vorausgehen und gegebenenfalls versucht werden, die Auftrennung zu verbessern. Die richtige und effiziente Kalibrierung erweist sich nach wie vor als ein kritischer Schritt der quantitativen Analyse. Dies gilt besonders für die zunehmend geforderten Multimethoden, bei denen möglichst viele Analyten in einem chromatographischen Lauf bestimmt werden. Die einzuschlagende Strategie ist stark problem- und probenbezogen und von der verfügbaren Geräteausstattung abhängig. In der GC lassen sich wie in der HPLC prinzipiell folgende Auswertetechniken zur quantitativen Analyse heranziehen: innere Normierung („100%-Methode“), externer Standard, interner Standard mit Fremdsubstanz und Standardaddition (Aufstockung). Am häufigsten wird die Methode des internen Standards angewandt, mit der sich evtl. auftretende Dosierfehler korrigieren lassen. Eine gute Trennung vorausgesetzt, hängen die Güteparameter gaschromatographischer Analysenmethoden signifikant vom eingesetzten Detektor sowie von der Natur der Analyte (und der Probe) ab. Empfindliche und stabile Detektoren, wie z. B. der FID, erlauben mit internem Standard den Nachweis organischer Verbindungen bis in den ppb-Bereich mit einer relativen Standardabweichung von 1–3%, im Allgemeinen sind (einschließlich der MS-Detektion) Messvarianzen von ca. 5% oder darunter erreichbar. Die Messvarianz setzt sich bekanntlich additiv aus den Beiträgen der einzelnen Teilschritte zusammen. Zur Erkennung dieser unterschiedlichen Beiträge arbeitet man mit mehreren Standards: Der sog. „Extraktionsstandard“ (Surrogate) wird den Proben vor den Probenvorbereitungsschritten zugesetzt und dient zur Ermittlung der Wiederfindung und damit der Erkennung von Fehlern bei der Probenvorbereitung. Nach Möglichkeit sollen Analyt und Standardverbindung ähnliche Struktur und Eigenschaften aufweisen; bei Verwendung eines massenselektiven Detektors sind isotopmarkierte Standards (vgl. Abschn. 5.6) zu bevorzugen. Der zweite Standard wird direkt vor der Dosierung zugesetzt. Bei der Auswertung von Wiederholungsanalysen und Sequenzen deuten starke Schwankungen in der Response des Surrogate-Standards auf Fehler bei der Probenvorbereitung, Schwankungen bei beiden Standards auf Fehler bei der Messung (Dosierung) hin.
5.6 Isotopenverdünnungsanalyse oder Stabilisotopenverdünnungsanalyse
5.5.1 Aufstellen einer Analysensequenz
Beim Aufstellen von Analysensequenzen beginnt man zweckmäßigerweise mit Blindproben (Blanks) zur Erkennung von Störsignalen, hervorgerufen durch Lösungsmittel, Reagenzien, Glasgefäße, Septa und Zersetzung der stationären Phase. Es folgen Kalibrierstandards und die einzelnen Proben, aber nicht nach auf- oder absteigender Konzentration geordnet (in Neuhochdeutsch einfach als „randomisiert“ bezeichnet). Zwischen den Proben werden in regelmäßigen Abständen (z. B. alle 10 bis 20 Proben) wieder Blindproben (zur Erkennung von carry over effects, d. h. von Substanzverschleppungen aus vorangegangenen Analysen), Kalibrierchecks und Replikate von Proben untersucht. Die Ergebnisse der Kalibrierchecks werden mit der anfänglichen Kalibrierung verglichen. Bei deutlichen Abweichungen zwischen den Kalibrierungen sollte man auch den Messwerten nicht mehr trauen und nach Fehlern suchen. Als Grenzwert für die zulässige Toleranz wird meist in Anlehnung an FDA-Vorschriften ein Wert von 15 oder 20% gewählt. In diesem Zusammenhang sei daran erinnert, dass bei linearen Regressionen nicht nur der Regressionskoeffizient allein betrachtet werden sollte, denn auch bei hohen Werten darf die Abweichung für den untersten Messwert nicht mehr als 20%, im mittleren Bereich nicht mehr als 15% betragen.
5.6 Isotopenverdünnungsanalyse (IVA) oder Stabilisotopenverdünnungsanalyse (SIVA)
Die massenspektrometrische Detektion bietet die Möglichkeit, stabilisotopmarkierte Zielkomponenten als interne Standards zu verwenden. Die Markierung (Einbau schwerer Isotope) erfolgt meist mit Deuterium- oder 13C-Atomen. Die stabilisotopmarkierten Standardsubstanzen besitzen fast die gleichen physikalisch-chemischen Eigenschaften wie die nicht markierten Substanzen, können aber im Massenspektrometer durch ihre höheren Massenzahlen von den nicht markierten Analyten getrennt werden. Setzt man nun zur Probe eine definierte Menge eines isotopmarkierten internen Standards zu – das sollte möglichst in einem frühen Stadium der Probenvorbereitung erfolgen – so ergibt sich ein Gewichtsverhältnis Analyt zu Standard, das während der gesamten analytischen Prozedur konstant bleibt, da Verluste oder Unregelmäßigkeiten Analyt und Standard gleichermaßen betreffen. Erst bei der massenselektiven Detektion (SIM oder Extracted Ion Chromatogram) ergeben beide aufgrund ihrer unterschiedlichen Molmassen unterschiedliche – interferenzfreie – Signale. Die Quantifizierung erfolgt aus dem Verhältnis der Ionenintensitäten (Peakflächen) von Zielanalyt und Standard. Generell sollte der Markierungsgrad (Anzahl der schwereren Atome im Molekül) größer als zwei sein, um eine Überlagerung mit eventuellen Isotopenpeaks (M + 2) der nativen Analyten zu vermeiden. Weiterhin ist zu beachten, dass
219
220
5 Auswertung von GC-Daten
Abb. 5.11 Erkennung deuterierter Verbindungen bei der GC/MS anhand der Extracted Ion Chromatogramme bei den entsprechenden Massenzahlen [30].
deuteriummarkierte Verbindungen auf flüssigen stationären Phasen etwas kleinere Retentionswerte aufweisen als die nicht markierten Verbindungen. An unpolaren Trennphasen beträgt die Retentionsverminderung etwa 0,5 bis 0,7 Retentionsindexeinheiten pro Deuteriumatom. Bei mehreren Deuteriumatomen im Molekül führt dieser Effekt im Totalionenstrom-Chromatogramm zu einem breiteren Substanzpeak bzw. einer teilweisen oder vollständigen Trennung (vgl. Abb. 5.11). Sollten keine isotopenmarkierten Standards zur Verfügung stehen, kann auch eine nicht in der Probe vorkommende Substanz, die in der Nähe des Zielanalyten eluiert und ähnliche Struktur und Eigenschaften aufweist, als interner Standard verwendet werden.
5.7 Matrixeffekte bei der Spurenanalytik
Bei der Spurenanalyse in stark matrixbelasteten Proben (Extrakte aus landwirtschaftlichen oder tierischen Produkten, medizinische Proben u. a.) beobachtet
5.8 Headspace-GC
man häufig trotz Probenvorbereitung eine Über- oder Unterbestimmung der Zielanalyte, obwohl die Reproduzierbarkeit der Messwerte sowie die Linearität der Kalibriergeraden (externe Kalibrierung) nicht zu beanstanden sind. Auf mögliche Substanzverluste wurde an mehreren Stellen dieses Kapitels hingewiesen. „Positive“ Matrixeffekte, die zu einer Signalvergrößerung führen, werden in der Gaschromatographie meist mit der Abdeckung aktiver Oberflächen durch nichtflüchtige Matrixbestandteile in den Proben in Verbindung gebracht. Zur Korrektur wird eine sog. „Matrixkalibrierung“ angewandt, d. h. die Kalibrierung unter Verwendung von konzentrationsabgestuften Standards mit möglichst probengleicher oder probenähnlicher Matrix anstelle des reinen Lösungsmittels. Sind analytfreie Probenstandards nicht erhältlich, so ist die Verwendung von stabilisotopmarkierten Standards zu favorisieren (MS-Isotopenverdünnungsanalyse). Wenn diese auch nicht zu Verfügung stehen, sollte in der Methodenentwicklungsphase mittels Standardadditionsexperimenten auf das Vorhandensein von Matrixeffekten geprüft werden.
5.8 Headspace-GC
Die Problematik der lösungsmittelfreien Extraktions- und Dosiertechniken (vgl. Tabelle 5.1) soll am Beispiel der statischen Headspace-Technik, einer Probennahmetechnik zur GC-Analyse von flüchtigen Verbindungen mit mittlerem bis hohem Dampfdruck in weniger flüchtigen Proben [12, 26], betrachtet werden. Dabei wird die flüssige, feste oder heterogen zusammengesetzte Probe in einem verschlossenen Gefäß einige Zeit bei höherer Temperatur thermostatisiert, bis sich das Verteilungsgleichgewicht der flüchtigen Probenbestandteile zwischen Probe und Gasvolumen über der Probe – dem sog. Kopfraum – eingestellt hat und anschließend aus dem Dampfraum ein Gasvolumen zur GC-Analyse entnommen. Die quantitative Auswertung kann nach den Methoden der internen oder externen Kalibrierung sowie der Aufstockung erfolgen. Diese elegante Methode der Abtrennung der nachzuweisenden Analyte von der Matrix ist jedoch als Folge des Verteilungsgleichgewichtes stark matrixabhängig. Wenn eine reine Matrix nicht zur Verfügung steht oder nicht simulierbar ist, sollte die Aufstockung angewendet werden. Außerdem beeinflussen bei heterogen zusammengesetzten Probematrices zusätzliche Adsorptionseffekte die Richtigkeit und Präzision des Messverfahrens. Wenn die Probe ein Feststoff ist oder feste Anteile enthält (Boden, Schlamm, Suspension), so kommt noch das Problem der inhomogenen Verteilung bei der Standardzugabe (Spiken) dazu. An der äußeren Oberfläche adsorbierte Standardsubstanzen sind sofort verfügbar, Analyte aus dem Inneren müssen erst an die Oberfläche migrieren. Aus diesen Gründen werden inhomogene oder feste Proben durch ein geeignetes Lösungsmittel in eine klare Lösung überführt. Bei niedrigsiedenden Analyten empfiehlt sich dafür ein höhersiedendes Lösungsmittel (z. B. Dimethyl-
221
222
5 Auswertung von GC-Daten
sulfoxid, Dimethylformamid, Ethylenglykolmonomethylether), das auch Vorteile beim Ansetzen von Kalibrierstandards etc. bietet. Gelingt es nicht, die Probe in Lösung zu bringen, so kann man versuchen, durch Zugabe eines Suspensionsmittels (Wasser) sowie von Salzen, den Matrixeinfluss durch eine „Verdrängungsdesorption“ zu vermindern. Führt dies auch nicht zum Erfolg, muss die multiple Headspace-Extraktion (MHE) angewandt werden, eine mehrfache Probenahme aus der Gasphase über der gleichen Probe in gleichen Zeitintervallen unter gleichen Bedingungen. Dabei kommt es zur exponentiellen Konzentrationsabnahme mit zunehmender Anzahl der Extraktionsschritte. Diese schrittweise Gasextraktion in gleichen Zeitintervallen erlaubt mit wenigen Messungen eine matrixunabhängige Quantifizierung und ist übrigens auch mit der Festphasenmikroextraktion aus dem Dampfraum (HS-SPME) machbar [27].
5.9 Abschätzung von Korrekturfaktoren beim FID
Chromatogramme von Multikomponentengemischen bestehen aus einer Vielzahl von Peaks, wenn sie mit einem Universaldetektor (FID, TIC) erhalten worden sind. Da solche Gemische meist Vertreter verschiedener Stoffklassen enthalten, kann man diese Chromatogramme nicht direkt als ein exaktes Abbild der betreffenden Proben ansehen, weil sich mit Berücksichtigung der individuellen Responsefaktoren andere Flächenverhältnisse ergeben würden. Da jedoch eine experimentelle Bestimmung von allen benötigten Korrekturfaktoren aufwendig oder wegen des Fehlens von Referenzverbindungen unmöglich ist, könnte eine Abschätzung aus der Molekülstruktur hilfreich sein. Bereits 1962 wurde von Sternberg et al. [28] ein Inkrementsystem zur Vorhersage von relativen Responsefaktoren aus der Molekülstruktur abgeleitet, das in der Folgezeit mit modernen Säulen und Geräten mehrfach überprüft und weitgehend bestätigt wurde [2, 29]. In den meisten Fällen wurden Abweichungen zwischen berechneten und experimentellen Faktoren von unter 5% gefunden. Fw(X) =
MWX ECN Ref ⋅ MWRef ECN X
Darin bedeuten: Fw(X) MWX MWRef ECNRef ECNX
relativer Gewichts-Responsefaktor der Substanz X Molmasse der Substanz X Molmasse der Referenzverbindung effektive Kohlenstoffzahl (Effective Carbon Number) der Referenzverbindung effektive Kohlenstoffzahl der Substanz X
5.9 Abschätzung von Korrekturfaktoren beim FID Tabelle 5.3 Atominkremente zur effektiven Kohlenstoffzahl (ECN) nach Sternberg. Atom
Struktureinheit
ECN-Inkrement
C
aliphatisch
1
C
aromatisch
1
C
olefinisch
0,95
C
acetylenisch
1,30
C
Carbonyl
0
C
Carboxyl
0
C
Nitril
0,3
O
Ether
–1,0
O
primärer Alkohol
–0,5
O
sekundärer Alkohol
–0,75
O
tertiärer Alkohol, Ester
–0,25
N
Amine
wie O in Alkoholen
Cl
2 oder mehr amaliphatischen C
–0,12 pro Cl-Atom
Cl
am olefinischen C
+0,05
Die effektive Kohlenstoffzahl (ECN) ergibt sich als Summe der in Tabelle 5.3 aufgeführten Inkremente; z. B. x für Benzol x für Acetaldehyd
6 u C aromatisch = 6 1 u C aliphatisch = 1 1 u CO = 0
Daraus erhält man einen molekularen Responsefaktor für Acetaldehyd in Bezug auf Benzol von 6 und unter Berücksichtigung des Molmassenverhältnisses 44/78 einen „Gewichtsfaktor“ von 3,38. Im Gegensatz zur potentiellen Nützlichkeit hat dieses Konzept bisher keine allgemeine Anwendung gefunden. Beim Elektroneneinfangdetektor (ECD) ist eine Abschätzung der extrem substanzabhängigen Responsefaktoren nicht möglich, weil neben der Polarisierbarkeit des Moleküls noch andere Faktoren eine Rolle spielen.
223
224
5 Auswertung von GC-Daten
Danksagung
Der Autor ist Dr. Daniela Baumann, Dr. Katja Dettmer, Dipl.-Chem. Franziska Hartmann, Dr. Thomas Knobloch, Dr. Monika Möder und Dr. Bernhard Rothweiler für kritische Hinweise und die Bereitstellung von Ergebnissen zu Dank verpflichtet.
Literatur 1 E. Leibnitz, H. G. Struppe (Eds.), Handbuch der Gaschromatographie, 3. Aufl. Geest & Portig, 1984. 2 G. Guiochon, C. Guillemin, Quantitative gas chromatography, Elsevier, 1988. 3 G. Schomburg, Gaschromatographie (Grundlagen, Praxis, Kapillartechnik), VCH, Weinheim, 1987. 4 W. Gottwald, GC für Anwender. VCH, Weinheim, 1995. 5 B. Baars, H. Schaller, Fehlersuche in der Gaschromatographie (Diagnose aus dem Chromatogramm). VCH, Weinheim, 1994. 6 K. Grob, Einspritztechniken in der Kapillar-Gaschromatographie, HüthigVerlag, 1995. 7 H.-J. Hübschmann, Handbuch der GC/MS. VCH, Weinheim, 1996. 8 M. Oehme, Praktische Einführung in die GC/MS-Analytik mit Quadrupolen, Hüthig, 1996. 9 P. J. Baugh (Ed.), Gaschromatographie – eine anwenderorientierte Darstellung (Übersetzung aus dem Englischen). Vieweg-Verlag, 1997. 10 W. David, B. Kusserow, GC-Tipps, Problemlösungen rund um den Gaschromatographen. Hoppenstedt-Verlag, 1999. 11 B. Kolb, Gaschromatographie in Bildern, 2. Aufl. Wiley-VCH, Weinheim, 2003. 12 B. Kolb, L. S. Ettre, Static Headspace-Gas Chromatography, Wiley-VCH, Weinheim, 2006. 13 D. Rood, The Troubleshooting and Maintenance Guide for Gas Chromatographers. Wiley-VCH, Weinheim, 2007. 14 J. V. Hinshaw, LC.GC Europe, 2002, 15, 152–155.
15 A. van Es, High Speed, Narrow-Bore Capillary Gas Chromatography. HüthigVerlag, 1992. 16 H.-U. Baier, L. Mondello, Die schnelle Gaschromatographie (fast GC) in der Lebensmittelanalytik – Prinzip und Anwendung, in W. Baltes, L. Kroh, Schnellmethoden zur Beurteilung von Lebensmitteln und ihren Rohstoffen. Behr’s Verlag, 2004. 17 www.agilent.com/chem. 18 L. Mondello, P. Dugo, A. Basile, G. Dugo, K. D. Bartle, J. Microcol., Sep. 1995, 7, 581–591. 19 L. M. Blumberg, M. S. Klee, Anal. Chem. 1998, 70, 3828–3839. 20 www.gcimage.com/nist.html. 21 B. Rothweiler (Agilent Technologies, Waldbronn) Analytische Trends und Möglichkeiten zur Überwachung der Lebensmittel- und Wasserqualität. Vortrag. 22 J. M. Halket et al., Rapid Commun. Mass Spectrom. 1999, 13, 279–289. 23 K. Dettmer, Regensburg (unveröffentlicht). 24 M. Möder, Leipzig (unveröffentlicht). 25 T. Knobloch, Leipzig (unveröffentlicht). 26 H. Hachenberg, K. Beringer, Die Headspace-Gaschromatographie als Analysenund Messmethode. Vieweg-Verlag, 1996. 27 S. A. Scheppers Wercinski (Ed.), Solid Phase Microextraction – A Practical Guide. Marcel Dekker, 1999. 28 J. C. Sternberg, W. S. Gallaway, D. T. L. Jones, in Gas Chromatography. Academic Press, 231–267, 1962. 29 A. D. Jorgensen, K. C. Picel, V. C. Stamoudis, Anal. Chem. 1990, 62, 683–689. 30 D. Baumann, Leipzig (unveröffentlicht).
225
6 Bewertung chromatographischer Daten in der Ionenchromatographie (IC) Heiko Herrmann und Detlef Jensen
6.1 Einleitung
Die Anwendung von Ionenaustauschern in der Analytischen Chemie geht zurück auf die Arbeiten von Folin und Bell (1917) zur Ammonium-Bestimmung in Urin [1]. Die erste chromatographische Bestimmung anorganischer Spezies wird Schwab zugeschrieben, der 1937 Alkali-Metalle und Übergangsmetalle trennte [2]. Heute fasst der Begriff „Ionenchromatographie“ (IC) verschiedene Trennverfahren zusammen, die Teilgebiete der modernen Flüssigkeitschromatographie zugeordnet sind. Im Speziellen kommen drei verschiedene Verfahren zur Anwendung, deren Trennmechanismus die Grundlage zur jeweiligen Bezeichnung darstellt. Man unterscheidet die Ionenaustausch-, die Ionenausschluss- und die IonenpaarChromatographie. Die Trennung in der Ionenaustausch-Chromatographie wird durch die Wechselwirkung der Analyte mit den am Trägermaterial gebundenen Austauschergruppen erreicht. Man unterscheidet je nach Ladung der Zielkomponenten die Anionenaustausch- und die Kationenaustausch-Chromatographie. Die IonenausschlussChromatographie wird zur Trennung schwach saurer anorganischer und organischer Säuren eingesetzt. Als stationäre Phasen verwendet man total sulfonierte polymere Kationenaustauscher hoher Kapazität. Die Trennung basiert auf dem sog. Donnan-Ausschluss, dem sterischen Ausschluss, der Adsorption sowie – in Abhängigkeit von der eingesetzten Trennsäule – auch auf der Ausbildung von Wasserstoffbrückenbindungen. Die Anwendung der Leitfähigkeits-Detektion in Verbindung mit einem kontinuierlich regenerierten Suppressorsystem hat sich heutzutage am Markt auf Grund der höheren Nachweisempfindlichkeit und höheren Flexibilität (z. B. Gradientenelution) durchgesetzt. Neben der LeitfähigkeitsDetektion finden auch UV/Vis-, amperometrische und Fluoreszenz-Detektoren Verwendung. Die Ionenaustausch-Selektivität wird im Wesentlichen durch die mobile und die stationäre Phase bestimmt. Bei der Ionenpaarchromatographie hingegen
226
6 Bewertung chromatographischer Daten in der Ionenchromatographie (IC)
dominiert der Einfluss der mobilen Phase. Die wesentlichen Komponenten der mobilen Phase sind sog. Ionenpaarbildner und ein organisches Lösemittel. Durch Variation von Zusammensetzung und Konzentration der Ionenpaarbildner und des organischen Lösemittels lässt sich die gewünschte Trennung erreichen. Das Ionenpaar-Reagenz ist meist ein großes dem Analyten entgegengesetzt geladenes ionisches Molekül mit hydrophober Region. Hierdurch sind Wechselwirkungen mit stationärer Phase und Analyten sichergestellt. Stationäre Phasen für die Ionenpaarchromatographie sind entweder neutrale, hydrophobe Harze auf Basis Polystyrol/Divinylbenzol (PS/DVB) oder Kieselgel-Umkehrphasen. Eine einzelne Säule kann sowohl zur Trennung von Anionen oder Kationen eingesetzt werden. Obwohl der Retentionsmechanismus der Ionenpaarchromatographie noch nicht vollständig erklärt werden konnte [3, 4], stehen drei mögliche Erklärungsansätze zur Verfügung: x Ionenpaarbildung, x dynamischer Ionenaustausch, x Ionenwechselwirkung. Dem Schwerpunkt dieses Beitrages folgend diskutieren wir die Interpretation von Daten vornehmlich aus der Anionenaustausch-Chromatographie in Verbindung mit der Leitfähigkeits-Detektion nach Suppression [3].
6.2 Eluenten Reinheit
Die in der modernen IC am häufigsten eingesetzten Laufmittel sind verdünnte Säuren und Laugen [5, 6], die u. U. korrosive Eigenschaften haben (s. Abschn. 6.3, Kontaminationen). Konventionell erfolgt deren Herstellung meist durch das Verdünnen handelsüblicher Chemikalien genügender Reinheit. Je nach Art der zu verdünnenden Ausgangschemikalie müssen dabei Vorkehrungen getroffen werden, die eine Verunreinigung des herzustellenden Eluenten vermeiden. So kann z. B. verdünnte Natronlauge leicht mit Carbonat, durch Aufnahme von CO2 aus der Umgebungsluft, kontaminiert werden. Man kann diesen Vorgang weitgehend durch Entgasen des eingesetzten Wassers mit Helium und durch Aufbewahrung des einsatzfertigen Eluenten unter einem Inertgas verhindern. Bildet sich Carbonat in der Natronlauge, so verändern sich die Zusammensetzung und die chromatographischen Eigenschaften des Eluenten. Beim Einsatz derart kontaminierter Hydroxid-Eluenten resultiert zudem eine höhere Grundleitfähigkeit, die sich insbesondere bei der Gradientenelution – gemeint sind in diesem Zusammenhang meist Konzentrationsgradienten – als störende Basisliniendrift bemerkbar macht. Aus diesen Gründen wurde ein neues Verfahren entwickelt, das hochreine Säure und Lauge im Sinne einer OnlineElektrolyse einzig mit demineralisiertem Wasser erzeugt (Eluenten-Generator), und sowohl isokratische als auch Gradientenanwendungen deutlich vereinfacht.
6.2 Eluenten
Der zeitliche Verlauf des Elektrolysestroms bestimmt, ob es sich um eine isokratische Anwendung oder eine Gradientenelution handelt. Die Technologie des Eluenten-Generators basiert auf einem von Small et al. entwickelten Konzept [7, 8] und wurde von Dionex unter dem Begriff RFIC (Reagent Free IC, d. h. Ionenchromatographie ohne manuelles Ansetzen der Reagenzien) kommerzialisiert. Auch beim Einsatz konventioneller Carbonat/Hydrogencarbonat-Eluenten können Kontaminationen zu einer Veränderung der chromatographischen Trennung führen. Eine Verschiebung des Verhältnisses von Carbonat zu Hydrogencarbonat – etwa durch Zugabe von NaOH oder durch die Absorption von CO2 – führt zu einem anderen pH-Wert, durch den beispielsweise die Retentionszeit von Phosphat verändert wird. Auf Grund des pH-abhängigen Dissoziationsgleichgewichtes H3PO4 p – H+ H2PO4– p – H+ HPO42 p – H+ PO43– ergibt sich zunächst eine „andere chromatographische Selektivität“. Tatsächlich eluiert das Phosphor-Oxoanion in Abhängigkeit von der jeweiligen Formalladung von den eingesetzten Ionenaustauschern. Je höher die Ladung, umso länger verweilt das Phosphor-Oxoanion auf dem Ionenaustauscher. Sich kontinuierlich verändernde Retentionszeiten können demnach auf Kontaminationen des Eluenten hinweisen. Auch für Carbonat/Hydrogencarbonat-Eluenten bietet die RFIC eine einfache Lösung zur kontinuierlichen online Eluentenherstellung. Da der beschriebene Eluenten-Generator Eluenten online und in einem nach außen geschlossenen System bildet, ist die Kontamination mit atmosphärischem CO2 ausgeschlossen, was sich augenfällig in der Spurenanalytik günstig auswirkt. Eine He-Entgasung des Wassers oder des Eluenten ist hierbei nicht notwendig! 6.2.1 Der Wasserdip – Lösemittelpeak der Ionenchromatographie
Die Leitfähigkeits-Detektion ist die am häufigsten in der Ionenchromatographie eingesetzte Detektionsmethode [9]. Zur empfindlichen und spezifischen Detektion von Ionen über ihre elektrische Leitfähigkeit ist der Einsatz eines Suppressorsystems unumgänglich. Aufgabe des Suppressorsystems besteht zum einen darin, die hohe Grundleitfähigkeit des als Eluent fungierenden Elektrolyten vor Eintritt in die Detektionszelle auf chemischem Wege zu verringern und zum anderen die zu analysierenden Ionen in eine stärker leitende Form zu überführen, wodurch eine deutliche Steigerung der Empfindlichkeit resultiert (Abb. 6.1). Da moderne Suppressoren die Nachweisempfindlichkeit der Leitfähigkeits-Detek-
227
228
6 Bewertung chromatographischer Daten in der Ionenchromatographie (IC)
Abb. 6.1 Schematische Darstellung der chemischen Suppression in der Ionenchromatographie.
tion verbessern, ohne die Peakform zu beeinträchtigen, werden sie als Teil der Detektionseinheit betrachtet. Setzt man zur Trennung von Chlorid und Sulfat an einem Anionenaustauscher beispielsweise eine NaOH-Lösung als Eluent ein, erfolgt der Kationenaustausch sowohl für den Eluenten als auch für die nachzuweisenden Anionen unmittelbar vor Eintritt in die Leitfähigkeits-Messzelle. Als Ergebnis der Suppressorreaktion gelangen die korrespondierenden Säuren sowohl der Eluent-Ionen als auch der Analyt-Ionen in die Leitfähigkeits-Messzelle. Wie aus Abb. 6.1 hervorgeht, werden sämtliche Kationen aus Probe und Elutionsmittel gegen Protonen ausgetauscht. Interferenzen durch Kationen im Bereich des Totvolumens und mögliche Koelutionen von Metallen mit anorganischen Anionen sind daher ausgeschlossen. Durch den Kationenaustausch wird die stark dissoziierte NaOH in Wasser überführt, so dass die Grundleitfähigkeit sinkt, und sich der absolute Temperatureinfluss auf die Leitfähigkeits-Detektion minimiert (Abb. 6.2). NaCl und Na2SO4 werden in die stark leitenden anorganischen Mineralsäuren (HCl bzw. H2SO4) überführt. Die niedrige Grundleitfähigkeit und die größeren Analytsignale führen dabei zusätzlich zu einer Verbesserung des Signal/RauschVerhältnisses, wodurch niedrige Nachweisgrenzen im untersten μg/L-Bereich erreicht werden. Die Anwendung der Suppressortechnik erhöht zudem die Spezifität des Detektionsverfahrens, da die chemische Modifizierung von Eluent und Probe im Suppressor den unspezifischen Leitfähigkeits-Detektor in einen analytspezifischen überführt. Moderne Suppressorsysteme werden kontinuierlich regeneriert und weisen eine sog. dynamische Austauschkapazität auf. Diese wird beispielsweise in [μmol/min] ausgedrückt, und kann je nach Bauart des Suppressors im Bereich von bis zu 350 μmol Na+/min liegen. Hieraus ergibt sich im Umkehrschluss die
6.2 Eluenten
Abb. 6.2 Gegenüberstellung der Leitfähigkeits-Detektion ohne Suppressor (a) mit der Leitfähigkeits-Detektion mit Suppressor (b). In beiden Fällen wurde auf die Temperierung der Messzelle verzichtet.
Möglichkeit hochkapazitive Säulen mit entsprechend konzentrierteren Eluenten zu betreiben. Aus der höheren Beladbarkeit solcher Säulen ergeben sich zwingend niedrigere Nachweisgrenzen. Eine Besonderheit bei der Bewertung ionenchromatographischer Daten stellt der sog. Wasserdip dar. In der konventionellen HPLC sind sog. Lösemittelpeaks bekannt. Diese können auf das im Überschuss vorliegende Probelösemittel zurückgeführt werden. Im Gegensatz zur klassischen HPLC ist der Lösemittelpeak in der IC (= der Wasserdip) ein negatives Signal. Dieses entsteht bei der Elution des Probelösemittels Wasser, das das Laufmittel verdünnt und zu einer Abnahme
229
230
6 Bewertung chromatographischer Daten in der Ionenchromatographie (IC)
Abb. 6.3 Beispiel des „Void Volume Treatment“-Parameters: (a) ohne „Void Volume Treatment“; (b) mit „Void Volume Treatment“; alle weiteren Parameter wurden konstant gehalten.
der Grundleitfähigkeit führt. Dieser Effekt ist umso ausgeprägter, je höher die Grundleitfähigkeit ist. Die Integration von früh eluierenden Signalen auf der ansteigenden Flanke des Wasserdips – etwa Fluorid, Acetat, o. ä. – ist erschwert. Besondere Integrationsalgorithmen – bekannt unter dem Terminus „Void Volume Treatment“ – vereinfachen die Auswertung. Dieser Parameter dient zum Ausblenden eines negativen Peaks zu Beginn des Chromatogramms. Ist der Parameter „Void Volume Treatment“ eingeschaltet, wird die Peak-Detektion im Bereich des negativen Wasser-Peaks deaktiviert und die Integration der nach dem negativen Peak eluierenden Komponenten erleichtert (Abb. 6.3). Alternativ kann auf Hydroxid-Laufmittel und ggf. Gradientenanwendungen ausgewichen werden. Die niedrigere Grundleitfähigkeit etwa von KOH-Laufmitteln und die höhere Peak-Kapazität der Gradientenanwendung führen zu einer zusätzlichen Vereinfachung bei der Quantifizierung früh eluierender Substanzen. Die Anwendung spezieller Integrationsalgorithmen entfällt.
6.3 Kontaminationen
Bestandteile moderner Ionenchromatographen, d. h. Pumpe, Kapillaren, Ventile, Injektoren etc., sind komplett metallfrei ausgelegt. Hiermit sind Korrosionserscheinungen vollständig ausgeschlossen, die ansonsten zu einer Metallkontamination der Trennsäulen und Suppressoren führten. Metallkontaminationen – etwa mit Eisen – können die Wiederfindung einzelner Ionen, deren Peakform sowie deren Retentionszeiten, aber auch den Systemgegendruck signifikant beeinflussen. Daneben sind Eisen und andere Metalle in vielen Umweltproben enthalten. Werden solche Proben nativ injiziert, können diese Metalle in Säulen und Suppressoren als Niederschläge oder über Ionenaustauschwechselwirkungen zurück-
6.3 Kontaminationen Tabelle 6.1 Auswirkungen möglicher Kontaminationen und Behebung der Ursachen. Auswirkung
Mögliche Ursache
Behebung
Druckanstieg
Metallniederschläge
x Austausch der Säuleneingangsfritte x Spülen z. B. Oxalsäure-Lösungen (s. Säulenhandbuch!) x Probenvorbehandlung!
Peakverbreiterung (z. B. für Fluorid und Phosphat)
Eisenkontamination des Systems
x Spülen z. B. Oxalsäure-Lösungen (s. Säulenhandbuch!)
Anstieg der Grundleitfähigkeit
Metallkontamination des Suppressorsystems
x Reinigen des Suppressors (s. Handbuch)
Anstieg des Basislinien-Rauschens
Metallkontamination des Suppressorsystems
gehalten werden. Im Falle moderner elektrolytisch regenerierter Suppressoren kann dieser Vorgang einfach über die Kontrolle des elektrischen Widerstandes überprüft werden. Als unmittelbare Folge dieser Veränderung ergeben sich ein höheres Grundsignal, ein höheres Rauschen und in bestimmten Fällen (z. B. Phosphat und Fluorid) eine veränderte Peakform. Veränderungen der Säulen und Suppressoren lassen sich besonders einfach durch die regelmäßige Injektion von Kontrollstandards feststellen. Reinigungsvorschriften – etwa das Spülen von Säulen und Suppressoren mit Oxalsäure-Lösungen – finden sich in den jeweiligen Handbüchern der Hersteller und stellen in den meisten Fällen die ursprüngliche Leistung der Bauteile wieder her [10]. Hydrophobe Verbindungen und Komponenten mit hoher Affinität zur verwendeten stationären Phase werden zunächst auf den Vorsäulen zurückgehalten. Fette, Öle, Tenside, Humin- und Ligninstoffe sowie Zellulose, Eiweißstoffe und andere hochmolekulare Substanzen gelten – speziell für Ionenaustauscher – als Säulengifte und müssen mit einer geeigneten Vorbereitungstechnik, etwa durch den Einsatz geeigneter SPE-Kartuschen [3], aus der jeweiligen Probe entfernt werden. Die „Vergiftung“ der analytischen Trennsäule, die sich gewöhnlich in einer Abnahme der Trennleistung äußert, wird vermieden. Da auch die Kapazität der Vorsäulen begrenzt ist, müssen diese gelegentlich gespült oder ausgetauscht werden. Die Art der Reinigung richtet sich in erster Linie nach den Eigenschaften der stationären Phase. Moderne Ionenaustauscher sind lösemittelstabil, so dass sie bei Bedarf mit konventionellen HPLC-Lösemitteln gespült werden können. Allgemein sind bei allen Reinigungschritten der Trennsäulen die Richtlinien der Säulenhersteller unbedingt zu befolgen. Sind die Spülschritte beendet, werden die Säulen in der ursprünglichen Konfiguration zusammengebaut und im Eluenten äquilibriert.
231
232
6 Bewertung chromatographischer Daten in der Ionenchromatographie (IC) Tabelle 6.2 Reinigungslösungen moderner Ionenaustauschersäulen. Kontamination
Reinigungslösunga)
Organische Verbindungen
Meist 80% Acetonitril, dem je nach Säulentyp noch ein Elektrolyt NaCl oder HCl (0,1 mol/l) zugesetzt wird
Metalle
0,1 mol/l Oxalsäure oder HCl
Anionen
10–100-fach konzentrierter Eluent 0,1–0,5 mol/l NaOH 0,1–0,5 mol/l HCl
a)
Vor Verwendung alkalischer oder säurehaltiger Reinigungslösungen ist die pH-Stabilität der Trennsäule sicherzustellen. Die jeweiligen Vorschriften und Richtlinien des Säulenherstellers sind unbedingt zu befolgen!
6.4 Kalibrierfunktionen
In der Anionenaustausch-Chromatographie in Verbindung mit der Suppressionstechnik bestimmt das eingesetzte Laufmittel im Wesentlichen die Linearität der resultierenden Kalibrierfunktion. Als Resultat der Suppressions-Reaktion werden sowohl aus den Analytionen als auch aus den eluierenden Anionen die korrespondierenden Säuren gebildet. Die im Falle von Carbonat/Hydrogencarbonat-haltigen Eluenten entstehende, nur formal diskutierte „Kohlensäure“ dissoziiert gemäß der folgenden Gleichung: „H2CO3“ + H2O l H3O+ + HCO3– Eluierende Anionen – beispielsweise Halogenide – werden im Suppressor in ihre korrespondierenden, stark dissoziierten Säuren überführt. Diese Säuren beeinflussen das o. g. Gleichgewicht und verschieben es auf die linke Seite. Hieraus resultiert eine „unter dem Analyt-Peak“ liegende Abnahme der Grundleitfähigkeit und gleichzeitig eine typischerweise quadratische Kalibrierfunktion. Im Gegensatz hierzu weisen Hydroxid-Laufmittel zunächst eine deutlich niedrigere Grundleitfähigkeit nach dem Suppressor auf. Das gebildete Wasser ist eine deutlich schwächere Säure als die „Kohlensäure“, so dass der beschriebene Einfluss starker Säuren auf die Autoprotolyse des Wassers deutlich geringer ist. Es resultieren meist lineare Kalibrierfunktionen mit einer deutlich größeren Steigung (= höhere Empfindlichkeit). Obwohl heutzutage leistungsstarke Auswerteprogramme für chromatographische Daten vorhanden sind und die Auswertung der Analysendaten über Kalibrierfunktionen höherer Ordnung (quadratisch, kubisch, …) leicht möglich ist, wird noch häufig die Auswertung über die lineare Kalibrierfunktion bevorzugt. Hintergrund hierfür sind zumeist vorliegende Arbeitsanweisungen (SOPs)
Literatur
oder andere Vorschriften. Gleichwohl gibt es bei vorliegendem linearen Zusammenhang von Konzentration und Detektorsignal unbestreitbare Vorteile: Das Verfahren der Standard-Addition ist im Sinne der Qualitätssicherung aber auch zur Auswertung komplexer Proben möglich und gleichzeitig kann der Kalibrieraufwand in der Routine reduziert werden. Neben den Eigenschaften des Eluenten bestimmen Säure- bzw. Basenstärke der Analyte über die Linearität des Leitfähigkeits-Signals. Da beispielsweise die Dissoziation schwacher Säuren (Basen) mit zunehmender Konzentration abnimmt, flacht die Kalibrierfunktion in gleichem Maße ab. So kann die Kalibierfunktion schwacher Säuren (Basen) bei Anwendung der Suppressionstechnik quadratische Kalibrierfunktionen ergeben. Sind jedoch lineare Kalibrierfunktionen gefordert, so kann auf den Einsatz von Suppressoren verzichtet werden. Allerdings gilt es beim Einsatz der sog. direkten Leitfähigkeits-Detektion zu beachten, dass sowohl die Spezifität als auch die Empfindlichkeit deutlich abnehmen (s. Abb. 6.2).
Literatur 1 O. Folin, R. Bell, J. Biol. Chem., 29 (1917) 329. 2 G.-M. Schwab, Naturwissenschaften 44 (1937) 25. 3 J. Weiß, Ionenchromatographie, 3. Aufl. Wiley-VCH, Weinheim, 2001. 4 Methods Development Using Ion-Pair Chromatography with Suppressed Conductivity Detection, Document No. LPN 0705-01 3M 10/00, Dionex Reference Library, www.dionex.com. 5 ISO 10 304 Teil 1 bis 4. Verschiedene ISO-Verfahren zur ionenchromatographischen Anionen-Bestimmung in unterschiedlichen Matrizes. BeuthVerlag, Berlin.
6 ISO 14 911: 1998. Bestimmung von Alkali- und Erdalkalimetallen sowie Ammonium in Wasser und Abwasser mit der IC. Beuth-Verlag, Berlin. 7 H. Small, J. Riviello, Anal. Chem. 70 (1998) 2205–2212. 8 H. Small, Y. Liu, N. Avdalovic, Anal. Chem. 70 (1998) 3629–3635. 9 J. R. Stillian, V. Barreto, K. Friedman, S. Rabin, M. Toofan, J. Statler, L. Takahashi: „Chemical Suppression in Ion Chromatography: 1975 to Present“. Vortrag anlässlich des International Ion Chromatography Symposium, Linz (Österreich) 1992. 10 „Removal of Iron Contamination from Electrolytic Suppressors“, Document No. 031841-02, Dionex Reference Library, www.dionex.com.
233
235
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen Daniela Held und Peter Kilz
Die Gelpermeationschromatographie (GPC), auch Gelfiltrationschromatographie (GFC) oder Größenausschlusschromatographie bzw. Size Exclusion Chromatography (SEC) genannt, ist eine spezielle Methode in der Chromatographie, die zur Bestimmung der molekularen Eigenschaften von synthetischen und natürlichen Makromolekülen in Lösung in großem Umfang eingesetzt wird. Grundlagen und Anwendung dieser Analysentechnik sind in vielen Monographien umfassend beschrieben [1]. In diesem Beitrag soll auf die Besonderheiten und die spezifischen Datenverarbeitungsanforderungen der GPC-Datenprozessierung und ihr Einfluss auf die Ergebnisqualität eingegangen werden.
7.1 Einleitung
Mit der GPC-Technik können Eigenschaften makromolekularer Proben schnell, einfach und genau bestimmt werden, die mit anderen Verfahren nur aufwendig oder nur teilweise zugänglich sind. Die GPC-Methodik wird deshalb zur Charakterisierung von natürlichen, synthetischen und Bio-Polymeren in vielen Laboratorien eingesetzt, auch wenn deren Kernkompetenz nicht in der makromolekularen Analytik liegt. Zugänglich sind mit einer einzigen Messung komplette Eigenschaftsverteilungen. Diese sind bei Makromolekülen von größter Wichtigkeit, da gewünschte und unerwünschte makroskopische Produkteigenschaften direkt von der physikalischen (Molmasse) und chemischen (Zusammensetzung) Heterogenität beeinflusst werden. Bei der GPC-Datenprozessierung werden die absolute Lage und die Form der Peaks ausgewertet, aus denen mit bestimmten Algorithmen (s. Abschn. 7.2.1) die Molmassenverteilungen und mittleren Molmassen bestimmt werden. Dadurch unterscheidet sich die GPC-Datenevaluation grundlegend von der HPLC- und GC-Datenprozessierung, bei denen primär Peakreihenfolge und Peakfläche zur Auswertung herangezogen werden.
236
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen Tabelle 7.1 Besonderheiten der GPC Datenprozessierung im Vergleich zu HPLC. HPLC
GPC
ChromatogrammForm
Viele enge Peaks
(Ein) breiter Peak (evtl. Peaks von Verunreinigungen im RI)
Analysenziele
a) Qualitative Analyse b) Quantitative Analyse
a) Molmassenmittelwerte b) Molmassenverteilung
Ergebnisgrundlagen
a) Peakreihenfolge b) Peakfläche
a) Absolute Peakposition b) Peakform
Kalibration
Detektorsignal o Konzentration
Retention o Molmasse
Detektion
Einzeldetektor (UV, DAD)
Multidetektion (UV, RI, LS, Viskosimetrie, FTIR etc.)
Die GPC-Trennung erfolgt nach dem bekannten Größenausschluss-Mechanismus, die Grundlagen dazu sind in der einschlägigen Literatur zu finden [1]. Im Idealfall wird das Retentionsvolumen nur durch die Größe des Makromoleküls in Lösung bestimmt. Da mit der GPC die Molmassen nicht direkt gemessen werden können, muss die Retentionsachse mit sog. Polymerstandards bekannter Molmasse (Molmassenstandards) kalibriert werden. Dadurch kann eine Peakposition mit der Molmasse korreliert werden. Zur leichteren Orientierung der Leser, die mit HPLC-Anwendungen vertraut sind, sind in Tabelle 7.1 Unterschiede zwischen HPLC und GPC in Bezug auf die Datenevaluation gegenübergestellt.
7.2 Grundlagen der GPC-Datenverarbeitung in der Ausschlusschromatographie
Die Abläufe in der GPC-Datenprozessierung unterscheiden sich wie in der Einleitung ausgeführt grundlegend von der Datenverarbeitung bei anderen chromatographischen Verfahren. Die Abb. 7.2 zeigt das Fluss-Schema einer GPC-Datenprozessierung, wobei der Datenakquise-Prozess nicht dargestellt ist, da er nicht GPC-spezifisch ist, sondern analog jeder Echtzeit-Datenerfassung verläuft. Die GPC-Metadaten umfassen alle probenspezifischen Informationen, alle Methodenparameter und alle Größen die zur sach- und normgerechten Berechnung der Resultate erforderlich sind. Diese Daten können aus unterschiedlichen Quellen kommen (automatisch erzeugte Prozessgrößen, Benutzerein- und -vorgaben etc.). Dazu gehören z. B. separate Parametersätze für Basislinie, Integrationsgrenzen und Stützstellen für Anteilswerte, wie sie für Datenprozesse in GPC-Normen zwingend vorgeschrieben sind. Bei den Kalibrierdaten handelt es sich um eine besondere Form von GPC-Metadaten, die zwischen Rohdaten und
7.2 Grundlagen der GPC-Datenverarbeitung in der Ausschlusschromatographie
Abb. 7.1 Vergleich von HPLC- und GPC-Chromatogrammen (Rohdaten). (a) Isokratische HPLC-Trennung mit einem DAD-Signal. (b) GPC-Chromatogramm eines breitverteilten zertifizierten Referenzmaterials mit UV-, RI-, Viskositäts- und Lichtstreu-Detektion (CRM-Quelle: PSS).
237
238
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
Abb. 7.2 Fließdiagramm einer GPC-Datenanalyse unter Einbeziehung von methodischen Randbedingungen und Benutzervorgaben.
reinen Metadaten anzusiedeln sind. In diesem Container sind Quelldaten wie Retentions- und Intensitätskalibration enthalten sowie Parameter, die Art, Anlass und Umfang der Kalibration sowie Referenzgrößen festlegen. Der Container „Auswertebedingungen/Optionen“ enthält Parameter die zur finalen Ergebnisberechnung benötigt werden. Dazu zählen alle System- oder Infrastruktur- Größen die probenübergreifend Anwendung finden und die Datenprozessierungswege definieren. Hier sind z. B. auch Parameter hinterlegt, die die Art der Molmassenberechnung und andere Auswerteoptionen beschreiben. 7.2.1 Berechnung der Molekulargewichtsmittelwerte
Die Berechnung der Molmassenmittelwerte erfolgt heute meist mittels der sog. Streifenmethode [1d, 2]. Dabei wird der eluierte Peak in mehrere i. d. R. äquidistante Zeit- oder besser Volumenstreifen unterteilt. Die Datenerfassung mittels Volumeter hat heute allerdings keine besondere Bedeutung mehr, da die Förderpumpen in den meisten Fällen ausreichende Genauigkeit und Reproduzierbarkeit liefern, die es erlaubt aus der Elutionszeit das Elutionsvolumen zu berechnen.
7.2 Grundlagen der GPC-Datenverarbeitung in der Ausschlusschromatographie
Über eine Molmassen-Kalibration werden dann Elutionsvolumina in Molmassen transformiert. Bei der Berechnung der Molekulargewichtsmittelwerte müssen die Streifenkonzentrationen ci mit der Steigung der Kalibrierkurve korrigiert werden. Dies ist notwendig, da die Datenerfassung linear in der Zeit erfolgt, die Molmassenzuordnung jedoch nichtlinear verläuft. Anschaulich bedeutet dies, dass bei gleicher Streifenkonzentration die Anzahl der Polymerketten mit einem bestimmten Molekulargewicht auf der hochmolekularen Seite des Elugramms viel geringer ist als auf der niedermolekularen Flanke. Diese Korrektur wird bei vielen Programmen nicht durchgeführt. Die dadurch verursachten Fehler werden umso größer, je breiter die Polymerprobe verteilt ist und je kleiner die Datenerfassungsfrequenz ist. Nur bei strikt linearen Kalibrierkurven (die in der GPC nur unter besonderen Bedingungen vorkommen) kann auf diese Korrektur verzichtet werden. Wichtig für die Beurteilung der Produkteigenschaften von Makromolekülen ist die Molmassenverteilung w(M), die aus den Signalhöhen h(V) berechnet werden kann. Im Gegensatz zu den Mittelwerten der Massenverteilung beschreibt die Molmassenverteilung die Gesamtheit der Probe. So können z. B. die Molekulargewichtsmittelwerte von zwei Proben gleich sein, obwohl sich die Molmassenverteilung deutlich unterscheidet [1(d)]. Die differentielle Verteilung, w(M), der Molmasse M berechnet sich nach: w(M ) =
dm dM
mit: dm/dM = Massenanteil Polymer im Intervall dM. Durch Umformen kann man w(M) durch Messgrößen ausdrücken: w(M ) =
h(V ) M(V ) ⋅ V(V )
V(V ) =
d lg M dV
mit: h(V) = Detektorsignal, V(V) = Steigung der Kalibrierkurve. Die oben qualitativ eingeführte Korrektur mit der Steigung der Kalibrierkurve wird nun durch die mathematische Ableitung der Molmassenverteilung belegt. Die integrale Verteilung I(M) ergibt sich aus: ∞
I(M ) = ∫ w(M ) dM 0
Die Mittelwerte der Molmassen ergeben sich aus den Momenten, μi, der Molmassenverteilung, die wie folgt definiert sind:
239
240
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen ∞
Pi = ∫ M i w(M ) dM 0
mit: μi = i-tes Molmassen-Moment. Für die Kalkulation der Molmassenmittelwerte gelten folgende Definitionen:
Zahlenmittelwert:
∑ hi
P Mn = 0 = P−1
i
h
∑ Mi i
Gewichtsmittelwert:
Mw =
i
∑ hi ⋅ Mi i ∑ hi
P1 = P0
i
z-Mittelwert:
∑ hi ⋅ Mi2 i ∑ hi ⋅ Mi
P Mz = 2 = P1
i
1
⎛ P ⎞a Viskositätsmittelwert: M v = ⎜ v ⎟ ⎝ P0 ⎠
∞
mit
Pv = ∫ M a w(M ) dM 0
Andere Mittelwerte der Molmassenverteilung sind analog zu bilden, spielen in der GPC-Praxis aber keine Rolle. Die Breite der Molekulargewichtsverteilung wird durch die Polydispersität D oder die Uneinheitlichkeit U (veraltete Bezeichnung) beschrieben: D =
Mw Mn
bzw . U = D − 1
Weitere wichtige GPC-Ergebnis-Größen zeigt die folgende Aufstellung: [K]
Vp Mp A w% I(M)
intrinsische Viskosität der Probe innerhalb der Integrationsgrenzen entweder berechnet aus den Mark-Houwink-Koeffizienten oder bestimmt aus der Viskositätsmessung der Probe, Elutionsvolumen am Peakmaximum des Elugramms, Molekulargewicht am Peakmaximum des Elugramms, Peakfläche innerhalb der Integrationsgrenzen, Massenanteil des Polymeren zwischen Molekulargewichtsgrenzen, Molmassenwert bei gewähltem Probenanteilswert.
7.3 Richtlinien, Normen und Anforderungen an GPC-Datenverarbeitungsprozesse
7.3 Richtlinien, Normen und Anforderungen an GPC-Datenverarbeitungsprozesse
In vielen Einsatzbereichen von wissenschaftlicher Software spielt heute der Nachweis der Richtigkeit und Zuverlässigkeit (sowie die Nachweisführung für externe Zertifizierungs- und Akkreditierungsstellen) eine große Rolle [3]. Für die spezifischen Fragestellungen bei GPC-Anwendungen ist dieser Nachweis bislang nicht allgemein erfolgt und muss für jedes einzelne Mess-System von den Anwendern, am besten in enger Zusammenarbeit mit den Herstellern, erbracht werden. Derzeit gibt es nur einen einzigen Hersteller, der Tools zur Validierung von GPC-Anwendungen kommerziell anbietet, die nicht Hersteller-spezifisch arbeiten (EasyValid GPC-Kit, PSS, Mainz). Allgemeine Tools, die es erlauben GPC-Software zu validieren, sind den Autoren nicht bekannt. Wenige Hersteller von GPC-Software unterstützen Anwender bei der umfassenden Software-Validierung und Verifizierung. Die meisten Hersteller von GPC-Softwareprodukten bieten keine standardisierten Validierungslösungen an, so dass der Anwender auf sich alleine gestellt ist. Neben diesen Tools sind natürlich umfassende Qualitätssicherungsmaßnahmen bei den Softwareherstellern nötig, die vor jeder Produkt-/RevisionsFreigabe zwingend durchzuführen und zu bewerten sind.
Tabelle 7.2 Grundlegende Anforderungen an GPC-Softwareanbieter für Anwender im regulierten Umfeld gemäß ICH, GMP, GAMP 4 und CFR Richtlinien. Allgemeines
Zertifizierungen, Referenzprojekte
Qualitätsmanagementsystem
QM-Handbuch, Verfahrensanweisungen, Audits, Überprüfung Zulieferer
System Development Life Cycle
Projektmanagement, Design-/Test-Phasen, Dokumentation
Konformität
ICH, GxP, GAMP 4, ISO 9000, CFR; Bildschirmarbeitsplatzverordnung, Usability-Tests nach ISO/DIN 9241-10; GPC-spezifische Normen
Dokumentation
Richtlinien, Aktualisierung, Testpläne, Freigaben, Validierungsverfahren
Konfigurations- und Fehlermanagement
Verfahrensanweisungen, Versionierung, Nachvollziehbarkeit, Risikobewertung bei Änderungen
Sicherheitsaspekte
Wiederherstellungsprozeduren, Sicherheitsmechanismen, Archivierung
Kundenunterstützung/ -reklamation
Installationsdienste, Supportpläne, Revisionsdienste, Eskalationsmanagement, kundenspezifischen Support
241
> 5 Punkte > 2/Dekade Residuen und Ableitung linear
Kalibration
Güte Kalibration
Basislinie
n/s nicht spezifiziert: in Norm ohne konkrete Anforderung erwähnt. n/a nicht anwendbar: in Norm nicht vorhanden.
s. Abschn. 7.2
> 9 bit
Auflösung Peakhöhe
I(M) Berechnung
> 60 Punkte
Datendichte
s. Abschn. 7.2
< 1% Imax
Signaldrift
MMD-Berechnung
> 1 : 100
Signal/Rausch-Verhältnis
s. Abschn. 7.2
±1 °C
Temperaturkonstanz
Molmassenberechnung
> 6,0
Trennleistung
separat
> 2,5
Resolution
RSD(Vp) < 0,3%
1,00 ± 0,15
Asymmetrie
Flusskorrektur
> 20000/m
Bodenzahl
Integrationsgrenzen
ISO 13 885-x
Anforderung
s. Abschn. 7.2
s. Abschn. 7.2
s. Abschn. 7.2
RSD(Vp) < 0,2%
separat
linear
s. Abschn. 7.2
s. Abschn. 7.2
s. Abschn. 7.2
RSD(Vp) < 0,3%
n/a
linear
n/a
s. Abschn. 7.2
s. Abschn. 7.2
s. Abschn. 7.2
RSD(Vp) < 0,3%
separat
linear
Residuen und Ableitung
> 5 Punkte > 2/Dekade n/a > 3/Dekade
n/a n/a n/a
> 9 bit
n/a
> 60 Punkte
< 1% Imax
> 1 : 100
±1 °C
> 6,0
> 2,5
1,00 ± 0,15
> 20000/m
DIN 55 672-x
n/a
> 40 Punkte
< 2% Imax
< 20% Imax n/a
< 1 : 50
< 3 °C
n/a
> 1,7
n/a
> 13100
ASTM D 5296-05
> 1 : 200
n/s
n/a
n/s
n/s
n/s
ISO 16 014-x
Tabelle 7.3 Zusammenstellung der Anforderungen von Normen an die GPC-Datenanalyse und GPC-Auswertung.
242
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
7.4 Bewertung und Tests der GPC-Datenbearbeitungsprozesse
Im regulierten Bereich sind von den Herstellern von GPC-Software daneben eine Vielzahl anderer Anforderungen zu erfüllen, die beim Einsatz im Kundenumfeld den korrekten Betrieb und die Risikobewertung durch den Kunden erlauben. Hier spielen die allgemein bekannten Richtlinien (ICH, GxP, GAMP 4, ISO 9000, 21 CFR Part 11) [4] ebenso eine Rolle wie Fragen der Bildschirmarbeitsplatzverordnung und Usability-Nachweise (ISO/DIN 9241-10). Darüber hinaus gibt es wichtige internationale und nationale GPC-spezifische Normen (ISO 13 885, ISO 16 014, ASTM D 5296-05, DIN 55 672 etc.), die Richtlinien zur Ergebnisberechnung, zur Datenqualität und zur Nachvollziehbarkeit beim Berichtswesen festschreiben. Tabelle 7.2 gibt einen Überblick über die wichtigsten Anforderungen der wesentlichen Normen. Umfangreiche aber auch sehr detaillierte Angaben zur korrekten Durchführung von GPC-Prüfungen beschreiben die Richtlinien bei der ISO 13 885 und der DIN 55 672-Serie. Andere Normen lassen etwas mehr Freiräume, die aber auch weitgehende Freiheiten in der Ergebnisbewertung ermöglichen.
7.4 Bewertung und Tests der GPC-Datenbearbeitungsprozesse
Die Molmassenverteilung w(M), die heute fast ausschließlich aus GPC-Experimenten bestimmt wird, stellt die umfassende molekulare Information von Makromolekülen dar. Der GPC-Datenerfassungsprozess liefert hingegen als primäre Information (Rohdaten) apparente Konzentrationsverteilungen (Chromatogramm, c(V)), die Information aus dem Mess-System und der zu untersuchenden Probe enthalten. Aufgabe des GPC-Datenverarbeitungsprozesses ist es, die systemabhängigen Informationen (z. B. Flussrate, Eluent, Anzahl und Art der Trennsäulen, Art der Detektion) von den proben-spezifischen Eigenschaften zu separieren, als Molmassenverteilung w(M) darzustellen und daraus als Kenngrößen der Molmassenverteilung Eigenschaftsmittelwerte zu berechnen. Der Unterschied zwischen Molmassenverteilung und Chromatogramm lässt sich leicht verdeutlichen: wird die gleiche Probe in zwei Laboratorien auf unterschiedlichen Instrumenten mit unterschiedlich langen Säulen gemessen, so unterscheiden sich die beiden Chromatogramme (Rohinformation). Ohne Vorkenntnisse wird man nicht vermuten, dass sie die gleiche Probe repräsentieren. Die Molmassenverteilungen der Proben unterscheiden sich nicht, denn diese enthalten keine Informationen mehr über das Mess-System. Dadurch erlauben Molmassenverteilungen eindeutigere und unverfälschte Aussagen und bieten einen direkten Vergleich von Produkteigenschaftsprofilen. 7.4.1 Beschreibung eines allgemeinen Verifikationsverfahrens für GPC-Software
Zur Überprüfung der Anforderungen der GPC-Datenanalyseprozesse wird hier ein leistungsfähiges und einfaches Verfahren zur systemunabhängigen
243
244
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
Überprüfung von GPC-Software beschrieben, das von Kilz et al. [5] entwickelt wurde. Zur Validierung aller GPC-Prozesse werden Referenzdaten verwendet, die aus theoretischen Molmassenverteilungen unterschiedlicher Charakteristik (Flory-Schulz- und Wesslau-Verteilungen mit unterschiedlichen Molmassen, Polydispersitäten und verschiedenen Signal/Rausch-Verhältnissen) [6] stammen. Die Beweisführung erfolgt dabei dergestalt, dass keinerlei Voraussetzung an die eingesetzten Daten, deren Erzeugung und das chromatographische System gestellt werden. Nur dadurch kann wirkliche Systemunabhängigkeit erhalten und können Zirkelschlüsse bei der Validierung vermieden werden. Damit lassen sich ohne weitere Vorbedingungen x alle Softwarealgorithmen, x die kompletten Arbeitsabläufe innerhalb des Datenmanagements und x die Vor-Ort-Installation unabhängig überprüfen. Ein Hersteller von GPC-Software [7] bietet dieses Verfahren als Teil seines Makromolekularen Chromatographie-Datensystems (MCDS) an, das es jedem Anwender ermöglicht, die jederzeit korrekte Installation und die volle Funktionsfähigkeit des GPC-Datensystems an seinem Arbeitsplatz zu überprüfen und z. B. Auditoren zu demonstrieren. Ist die Validierung erfolgreich und es treten trotz allem Differenzen bei der Analyse auf, dann liegt der Schluss nahe, dass das Mess-System oder die chromatographischen Bedingungen nicht exakt eingestellt sind. In diesem Fall schließt sich dann eine Qualifizierung des GPC-Systems selbst an (operationale Qualifikation), die z. B. mit speziellen Validierkits (EasyValid GPC-Kit, PSS, Mainz) durchgeführt werden kann. Das Validierungsverfahren mit den theoretischen Referenzdaten besteht im Wesentlichen aus drei Stufen, die zum besseren Verständnis nachfolgend kurz beschrieben werden: 1. Schritt: Aus den theoretischen Molmassenverteilungskurven (mit daher bekanntem Mn, Mw und Mz, [K], I(M)) werden die zur Verarbeitung in der Software nötigen Rohdaten (Konzentration c(V), Viskositätssignal 'P(V), Lichtstreusignale IT(V ) und Molmassenkennlinie M(V )) anhand anerkannter Gleichungen aus der Literatur berechnet. 2. Schritt: Diese zertifizierten Rohdaten mit bekannten molekularen Parametern werden dann in das MCDS-Datensystem über die Datenakquise-Schnittstelle als Messdaten eingespielt und dem Datenverarbeitungsablauf, allen Software-eigenen Rechenvorschriften und der Datenpräsentation unterworfen. 3. Schritt. Die Ergebnisse aus der theoretischen Molmassenverteilung und die von der Software berechneten experimentellen Ergebnisse werden als Zahlenwerte und Verteilungskurven miteinander verglichen. Die Tests sind dann erfolgreich bestanden, wenn die vom MCDS berechneten Ergebnisse mit den Referenzwerten im Rahmen der Rechengenauigkeit von 0,5% übereinstimmen.
7.4 Bewertung und Tests der GPC-Datenbearbeitungsprozesse
7.4.2 Überprüfung der Richtigkeit der Berechnung der Molmassenverteilung
Das Verfahren zur exakten Bestimmung der Molmassenverteilungen aus Chromatographie-Experimenten ist in Abschn. 7.2.1 mathematisch beschrieben. Hier soll gezeigt werden, wie sich korrekte und falsche Berechnung anschaulich unterscheiden und welche Auswirkungen eine unvollkommene Berechnung der Molmassenverteilung auf die Resultate hat. Wie erwähnt stellt jedes Chromatogramm eine apparente Konzentrationsverteilungskurve dar, bei dem die Molmassen zu größeren Retentionszeiten (Elutionsvolumina) abnehmen. Im ersten Schritt der Berechnung der Molmassenverteilung wird die Retentionsachse (x-Achse) mit einer Molmassen-Kalibration in eine Molmassenachse umgewandelt. Im zweiten Schritt wird die y-Achse in Massenanteile (in einem Molmassenintervall), w(lgM), umgerechnet [8]. Das ist nötig, da im Chromatogramm Signale nur in einem konstanten Zeitintervall aufgezeichnet werden, für die Molmassenverteilung aber die Konzentration in einem konstanten Molmassenintervall benötigt wird. Leider kann man bei von kommerziellen Datensystemen erzeugten „Molmassen-Diagrammen“ nicht sofort erkennen, ob es sich wirklich um Molmassenverteilungskurven handelt oder um Chromatogramme, bei denen nur die Retentionszeit in Molmassen umgewandelt wurde. Mit einem einfachen Experiment lässt sich das leicht selbst testen: Man injiziert eine Mischung von Polymerstandards mit gleicher Konzentration auf eine GPC-Säule (keine Linear- oder Mixed-Bed-Säule verwenden) und erstellt mit dieser Injektion eine nichtlineare Molmassen-Kalibration (vgl. Abb. 7.3). Dann wertet man diese Standardmischung aus und lässt sich die Molmassenverteilung anzeigen. Wenn sich die Peakhöhen und Peakbreiten nicht ändern, zeigt das Datensystem keine Molmassenverteilungen, sondern nur umskalierte Chromatogramme an (vgl. Abb. 7.4 a). Dann sind Vergleiche zwischen Laboratorien nur sehr schwer und mit sehr viel Aufwand möglich. Die Abb. 7.4(a) zeigt deutlich, dass sowohl die Peaklagen (Molmasse am Peakmaximum) als auch die Peakbreiten (Polydispersitäten) unrichtig sein können. Die naheliegende Frage ist jetzt natürlich: sind die Molmassenmittelwerte auch falsch? Das ist im Allgemeinen nicht der Fall. Die Molmassenmittelwerte werden bei den meisten CDS-Herstellern nicht direkt aus den Verteilungskurven berechnet, sondern aus den Summenformeln und sind daher von diesem Phänomen i. Allg. nicht betroffen. Tabelle 7.4 zeigt jedoch, dass Ergebnisse dennoch signifikant falsch sein können, wenn Teilergebnisse nicht Norm-konform berechnet werden müssen. Das betrifft im Wesentlichen die Auswertung bestimmter Chromatogramm-Bereiche. Solche Angaben werden oft zur Beurteilung der Verarbeitbarkeit oder der Einsatztauglichkeit von Produkten herangezogen. Von diesem Effekt sind viele Datensysteme betroffen, die nicht speziell für die GPCDatenanalyse entwickelt worden sind. Die dabei beobachtbaren Abweichungen können ganz erheblich sein. In allen Fällen in denen die Molmassenverteilung unrichtig berechnet wird, werden die Probenanteile unterhalb bzw. oberhalb einer Molmassengrenze falsche
245
246
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
Abb. 7.3 GPC-Chromatogramm (grün) einer Probenmischung mit überlagerter Kalibrierkurve (rot). Tabelle 7.4 Vergleich der Peakmolmasse und der Polydispersität bei korrekter und falscher Kalkulation der Molmassenverteilung in der GPC-Datenprozessierung mit Daten aus Abb. 7.4. Probe
Mp [kDa]
Mw/Mn
korrekt
falsch
Fehler [%]
korrekt
falsch
Fehler [%]
Peak 1
3685
4764
29,3
12,1
1,40
–88,4
Peak 2
319
352
10,3
1,13
1,22
8,0
Peak 3
21,5
15,5
27,9
1,41
1,38
–2,1
Peak 4
0,38
1,33
250,0
1,21
1,04
–14,0
Ergebnisse zeigen. Dies ist z. B. bei Produktanmeldungen wichtig, da die Toxizität von Makromolekülen unterhalb bestimmter Molmassen dramatisch ansteigt. Daher verlangen viele Zulassungsbehörden die Angabe von Produktanteilen kleiner 500 g/mol bzw. kleiner 1000 g/mol. Ebenfalls falsch berechnet werden die Molmassenwerte bei festgelegten Mengenanteilen einer Probe, wie sie in vielen pharmazeutischen Prüfvorschriften enthalten sind. Hier wird bestimmt, bei welchem Probenanteil welche Molmasse vorliegt (Angabe der integralen Verteilung). Wie groß Unterschiede bei korrekter und falscher Berechnung der Molmassenverteilung sein können, ist in Abb. 7.4(b) und Tabelle 7.5 zusammengestellt.
7.4 Bewertung und Tests der GPC-Datenbearbeitungsprozesse
Abb. 7.4 Überlagerung einer echten mit einer aus einem HPLC-Datensystem falsch berechneten Molmassenverteilung: (a) differentielle Molmassenverteilung; (b) integrale Molmassenverteilung.
247
248
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen Tabelle 7.5 Vergleich wichtiger GPC-Kennzahlen bei korrekter und falscher Kalkulation der Molmassenverteilung in der GPC mit Daten aus Abb. 7.4. Eigenschaft
Korrekt
Falsch
Fehler
Masse < 500 Da
7,85%
0,00%
–
Masse > 10 000 kDa
5,88%
2,11%
64%
Molmasse bei 5%
0,37 kDa
1,31 kDa
254%
Molmasse bei 15%
12,8 kDa
9,87 kDa
23%
Molmasse bei 50%
304 kDa
331 kDa
9%
Molmasse bei 85%
3325 kDa
4510 kDa
36%
Molmasse bei 95%
12254 kDa
7520 kDa
39%
7.5 Einfluss von Datenprozessen, Kalibrationsverfahren und Signalqualität auf Richtigkeit und Reproduzierbarkeit von GPC-Ergebnissen
Im Nachfolgenden wird anhand von theoretischen Molmassenverteilungen geprüft, wie GPC-Ergebnisse unter realistischen Bedingungen von der Theorie abweichen. Die Prüfungen werden exemplarisch anhand wichtiger GPC-Techniken dargestellt. Ferner wird der Einfluss der Signalgüte und Signalstabilität auf wichtige GPC-Kenngrößen untersucht. 7.5.1 Prüfung der GPC-Auswertung mit direkter Kalibration
In diesem Test wird der Einfluss der Datenprozessierung auf die Qualität von wichtigen GPC-Größen untersucht. Dazu wird wie in Abschn. 7.4.1 beschrieben die ausschließlich durch die Datenprozessierung verursachte Abweichung der Resultate von den theoretischen Kennzahlen dokumentiert. In diesem Abschnitt wird ein GPC-System geprüft, das mit einem RI-Detektor betrieben wird und mit konventioneller Kalibration mit engverteilten Polymer-Standards kalibriert wurde. Die nachfolgende Tabelle 7.6 zeigt die gute Übereinstimmung zwischen den theoretischen Vorgaben und den von einem speziell für GPC-Datenanalysen programmierten MCDS (Makromolekulares Chromatographie-Datensystem) berechneten Ergebnissen. Die minimalen Abweichungen sind auf die begrenzte Anzahl von Datenpunkten (insgesamt wurden 52 Wertepaare verwendet) zurückzuführen.
7.5 Einfluss von Datenprozessen, Kalibrationsverfahren und Signalqualität Tabelle 7.6 Vergleich der Ergebnisse einer konventionellen GPC-Analyse mit einem Konzentrationsdetektor zwischen den Referenzangaben aus einer Schulz-Flory-Verteilung und den von einem MCDS berechneten Ergebnissen. Referenz
Berechnet
Fehler [%]
Mn [Da]
150 000
150 300
0,200
Mw [Da]
300 000
300 070
0,023
Mz [Da]
450 000
450 010
0,002
2,000
1,997
0,150
Mv [Da]
280 869
280 230
0,228
[K] [ml/g]
105,68
105,69
0,009
c [g/l]
4,343
4,343
0,000
D
7.5.2 Überprüfung der Ergebnisgenauigkeit einer GPC-Viskositätskopplung
Analog zu Abschn. 7.5.1 wird hier die Qualität von GPC-Ergebnissen untersucht. Das GPC-Instrument besteht in diesem Fall aus einem online Viskosimeter und einem RI als Konzentrationsdetektor. Bei einer Viskositätskopplung werden die Molmassen aus einer universellen Kalibration (lg[K] · M gegen V) aus den direkt gemessenen Viskositäten der eluierten Fraktionen berechnet. Dazu werden Messdaten aus einer bekannten Schulz-Flory-Polystyrol-Verteilung berechnet und mit den Ergebnissen der Viskositäts-Auswertung aus einem MCDS mit einer universellen Kalibrierkurve verglichen, die mit engen Polymethylmethacrylat (PMMA)-Standards erstellt wurde. Die nachfolgende Tabelle 7.7 verdeutlicht auch hier die gute Übereinstimmung zwischen Theorie und der von einem MCDS berechneten Resultaten. Die minimalen Abweichungen (< 1%) der ermittelten von den theoretischen Daten sind Tabelle 7.7 Ergebnissgenauigkeit einer GPC-Analyse mit Viskositätsdetektion im Vergleich zu einer Schulz-Flory-Verteilung. Referenz
Berechnet
Fehler [%]
Mn [Da]
150 000
150 110
0,073
Mw [Da]
300 000
298 230
0,590
Mz [Da]
450 000
447 220
0,618
D
2,000
1,987
0,650
Mv [Da]
278 997
275 510
0,175
[K] [ml/g]
105,68
105,69
0,001
K [ml/g]
0,01363
0,0137
0,514
a
0,714
0,714
0,000
Konzentration [g/l]
4,343
4,343
0,000
249
250
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
auf die begrenzte Anzahl von Datenpunkten und numerische Rundungsfehler bei der Anwendung transzendenter Funktionen bei der Datenprozessierung zurückzuführen. 7.5.3 Einfluss des Detektor-Rauschens auf die Genauigkeit von GPC-Ergebnissen
Bei dem oben angewendeten Validierverfahren könnte man als Praktiker leicht einwenden, dass Computerberechnungen mit theoretischen Daten eine ganze Reihe von möglichen Softwareproblemen unberücksichtigt lassen, die z. B. durch das im Laboralltag vorhandene Signalrauschen zustande kommen. In realen Experimenten sind die Rohdaten immer mehr oder weniger verrauscht. Auch in solchen Situationen dürfen die Berechnungsalgorithmen der GPC-Software dann nicht versagen. Mit gezielten Störungen der Datenqualität kann die Robustheit der GPC-Datenverarbeitungsprozesse von GPC-Datensystemen getestet werden. Zur Simulation eines „worst case“ werden hier deshalb alle theoretisch berechneten Messdaten individuell mit 5% statistischem Rauschen versehen und der Einfluss auf alle oben beschriebenen Berechnungsmethoden überprüft (Abb. 7.5). 5% statistisches Rauschen entsprechen einem Signal/Rausch-Verhältnis von 20 : 1; im Laborexperiment werden üblicherweise S/N-Werte > 100 problemlos erreicht. Das untersuchte Szenario stellt damit einen Extremfall der Laborpraxis dar, der es erlaubt die Robustheit der GPC-Algorithmen unter schwierigen Bedingungen zu testen. Die in der Tabelle 7.8 zusammengefassten Ergebnisse wurden ohne jede Glättungs-, FFT- und Despike-Funktionen erhalten.
Abb. 7.5 LALLS, RALLS, Viskosität und RI-Rohdaten mit dargestellten Basislinien. Alle Signale wurden zur Prüfung der Robustheit der GPC-Algorithmen mit 5% statistischem Rauschen versehen (S/N: 20 : 1).
7.5 Einfluss von Datenprozessen, Kalibrationsverfahren und Signalqualität Tabelle 7.8 Einfluss eines statistischen Signalrauschens (5% des Signalmaximums) auf unterschiedliche GPC-Molmassenbestimmungsmethoden basierend auf einer Schulz-Flory-Verteilung. Referenz
Konventionell
Viskosität
Lichtstreuung
TripleDetektion
Mn [Da]
150 000
131 630
150 200
169 120
151 040
Mw [Da]
300 000
303 310
306 260
299 670
294 420
Mz [Da]
450 000
477 670
478 210
427 110
415 290
D
2,000
2,304
2,039
1,772
1,949
Mv [Da]
280 869
282 240
285 670
284 030
276 170
[K] [ml/g]
105,68
106,79
106,86
105,90
104,59
K [ml/g]
0,01295
0,01363
n/a
0,01457
n/a
a
0,714
n/a
0,708
n/a
0,719
Konzentration [g/l]
4,343
4,327
4,276
4,284
4,296
Durch das sehr schlechte Signal/Rausch-Verhältnis sind in Tabelle 7.8 sehr schön die möglichen Abweichungen verschiedener Berechnungsverfahren im Vergleich zu sehen. Generell lässt sich feststellen, dass die durch das Rauschen verursachten Abweichungen umso größer werden, je mehr Detektorsignale zur Auswertung miteinander verknüpft werden müssen. Bei der konventionellen GPC-Auswertung wird durch die Rauschanteile erwartungsgemäß das Zahlenmittel, Mn, zu klein und das z-Mittel, Mz, zu groß bestimmt (ca. 10%). Etwas größere Abweichungen sind bei der universellen Kalibrierung festzustellen (K und a sind für das starke Rauschen noch erstaunlich nahe an der Realität). Besonders große Diskrepanzen zeigt die Lichtstreuung: hier wird das Zahlenmittel, Mn, deutlich über-, die Polydispersität, D, deutlich unterschätzt, da die Lichtstreuung bei niedrigeren Molmassen systembedingt kaum noch ein vernünftig auswertbares Mess-Signal liefert. Eine deutliche Verbesserung der Ergebnisse kann erzielt werden, wenn im Elugramm die Integrationsgrenzen so verändert werden, dass nur Daten mit einem Signal/Rausch-Verhältnis größer drei zur Berechnung herangezogen werden. In unserem Beispiel liegen diese Werte bei 10,0 und 17,0 ml. Dies entspricht einer Verkleinerung der berechneten injizierten Masse um genau 1%. Bei so stark verrauschten Chromatogrammen muss der Wahl der Basislinie besondere Beachtung geschenkt werden. Die freie Wahl der Basislinienabschnitte über große Zeiträume und die davon völlig unabhängige Festlegung der Integrationsgrenzen ist für solche Fälle besonders wichtig und wird von GPC-Normen gefordert [8]. Mit diesem Verfahren können gute Molmassenmittelwerte bestimmt werden; auch die so gemessenen intrinsischen Viskositäten und Mark-Houwink-Koeffizienten liegen dann sehr nahe an den wirklichen Werten. Betrachtet man die verschiedenen Auswertemethoden mit molmassensensitiven Detektoren, so fällt auf, dass die Lichtstreuung im Vergleich zur online Viskosimetrie zu große Zahlenmittelwerte, Mn, und zu kleine z-Mittelwerte, Mz, liefert.
251
252
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
7.5.4 Einfluss der Detektordrift auf die Genauigkeit von GPC-Ergebnissen
Der Einfluss driftender Detektorsignale ist wegen der Vielfalt der verschiedenen Drift-Charakteristiken in diesem Beitrag nicht umfassend zu beschreiben. Wenn eine konstante Signaldrift vorliegt, kann dies mit einem guten CDS korrigiert werden, wenn dort die Dateninterpolation korrekt ausgeführt wird [8]. Da dies nicht immer sichergestellt und die Art der Interpolation i. d. R. vom Hersteller nicht gut dokumentiert wird, sollen hier die maximalen Fehler bei einer linearen Detektordrift beschrieben werden. Tabelle 7.9 Einfluss einer konstanten Signaldrift (x% vom Signalmaximum) auf wichtige Ergebnisgrößen in der GPC-Datenanalyse am Beispiel eines zertifizierten Referenzmaterials (CRM-Quelle: PSS BAM P005). CRM-Referenz
1% Drift
5% Drift
10% Drift
Mn [Da]
115 000
98 700
72 500
57 100
Mw [Da]
330 000
329 000
328 000
327 000
Mz [Da]
612 000
622 000
662 000
691 000
2,88
3,34
4,53
5,72
Mv [Da]
299 000
298 000
295 000
291 000
[K] [ml/g]
110,44
110,06
109,29
108,27
D
Abb. 7.6 Einfluss des Driftverhaltens von Detektoren auf wichtige Ergebnisgrößen in der GPC-Datenanalyse basierend auf identischen Rohdaten eines zertifizierten Referenzmaterials (CRM-Quelle: PSS BAM P005). Molmassen sind auf der linken, die intrinsische Viskosität auf der rechten Ordinate dargestellt.
7.5 Einfluss von Datenprozessen, Kalibrationsverfahren und Signalqualität
Das hier untersuchte Driftverhalten entspricht den in der Praxis am häufigsten vorliegenden Fällen: das Signal driftet ab Injektionszeitpunkt linear mit der Elution. Der Driftanteil wird relativ zum maximalen Signalwert des Peaks (korrigiert um den korrekt interpolierten Basislinienwert) beschrieben: wenn ein Signal eine 1%ige Drift aufweist, dann liegt der letzte Messpunkt um 1% des PeakmaximumWertes über der nicht driftenden Basislinie. Tabelle 7.9 zeigt die Ergebnisse des Drifteinflusses auf wichtige GPC-Kenngrößen anhand eines zertifizierten Referenzmaterials (Quelle: PSS, Mainz). Dabei wird deutlich, dass zentrale Momente der Molmassenverteilung (Mw und hier Mv) nur wenig von der Signaldrift beeinflusst werden, nicht-zentrale Größen (Mn und Mz) dagegen sehr stark (vgl. Abschn. 7.2.1). Dieses Verhalten zeigt sich auch in Abb. 7.6 in graphischer Darstellung. 7.5.5 Einfluss der Datendichte auf die Genauigkeit von GPC-Ergebnissen
Anders als bei vielen anderen analytischen Methoden ist bei der GPC-Auswertung der Einfluss der Datendichte (Anzahl der Messpunkte) auf die GPC-relevanten Mittelwerte nicht sehr ausgeprägt und macht sich erst bei sehr kleinen Datendichten signifikant bemerkbar. Die Ursache dafür ist in der Mittelwertbildung zu finden, die aus den Ergebnisdetails der Eigenschaftsverteilung Eigenschaftsmittelwerte (z. B. mittlere Molmassen) durch Integration bestimmt. Tabelle 7.10 zeigt den Einfluss der Verringerung der Messdatenanzahl anhand einer breitverteilten CRM-Probe (PSS BAM P005) um den Faktor 64. Signifikante Abweichungen treten erst bei weniger als 50 Datenpunkten auf. Dies zeigt Abb. 7.7 zusammenhängend für verschiedene GPC-relevante Größen. Da im untersuchten Fall die Probe eine große Halbwertsbreite besitzt, wirkt sich eine Reduktion der Datendichte natürlich später aus als bei engverteilten Polymerstandards oder Realproben mit kleinen Halbwertsbreiten. Tabelle 7.10 Einfluss der Messdatendichte auf die Genauigkeit von Molmassenmittelwerten und Polydispersitätinder GPC am Beispiel eines zertifizierten Referenzmaterials (CRM-Quelle: PSS BAM P005). 1024 Punkte
128 Punkte
64 Punkte
32 Punkte
16 Punkte
Mn [Da]
121 000
120 000
118 000
110 000
106 000
Mw [Da]
330 000
330 000
330 000
330 000
332 000
Mz [Da]
616 000
617 000
621 000
624 000
630 000
2,72
2,75
2,81
2,99
3,15
299 000
299 000
299 000
299 000
300 000
[K] [ml/g]
110,4
110,4
110,4
110,4
110,8
%-Anteil < 10 kDa
0,57
0,57
0,58
0,59
0,74
%-Anteil > 1000 kDa
3,27
3,29
3,31
3,61
4,57
D Mv [Da]
253
254
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
Abb. 7.7 Einfluss der Anzahl der Messpunkte (Messdatendichte) auf die Genauigkeit von Molmassenmittelwerten und Polydispersität Mw/Mn in der GPC am Beispiel eines zertifizierten Referenzmaterials (CRM-Quelle: PSS BAM P005). Molmassen sind auf der linken, die Polydispersität auf der rechten Ordinate dargestellt.
7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten
Neben Parametern, die aus Detektoreinflüssen und Datenakquisition resultieren, spielen speziell in der GPC noch andere Einflussgrößen eine Rolle. Wie bereits in Tabelle 7.1 zusammengefasst, werden Ergebnisse bei der GPC basierend auf der absoluten Peakposition ermittelt. Alle Größen, die Einfluss auf die Lage der Peakposition haben, haben somit auch Einfluss auf die Ergebnisse. An erster Stelle bei den Einflussgrößen sind hier Fluss-Schwankungen verursacht durch die Pumpe zu nennen. Eine Korrektur der Flussrate ist bei einer gleichmäßig fördernden Pumpe möglich. Ändert sich die Flussrate kontinuierlich oder sprunghaft während der Messung, so kann dies nicht korrigiert werden. Eine Veränderung der Peaklage kann weiterhin durch Überladung der Trennsäulen durch eine zu hoch gewählte injizierte Masse hervorgerufen werden. Die optimale injizierte Probenmenge hängt von der Molmasse der Probe sowie der Polydispersität ab. Für Proben mit enger Molekulargewichtsverteilung (Molmassenstandards) ist die Gefahr der zu hoch gewählten injizierten Masse höher als für Proben mit einer breiten Molekulargewichtsverteilung. Hinweise zur richtigen Konzentration und zum richtigen Injektvolumen sind unter anderem in der DIN 55 672 zu finden [8]. Einfluss auf die Verlässlichkeit und Richtigkeit haben auch die Kalibrierdaten und weitere Auswerteparameter. Hierbei muss in einem ersten Schritt unterschieden werden zwischen GPC-Analysen mit direkter Kalibration und GPCAnalysen mit online Kalibration durch Lichtstreudetektion. Bei der GPC mit
7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten
direkter Kalibration erfolgt die Kalibration der Retentionsvolumenachse durch Messen des Elutionsvolumens von Molmassenstandards. Verwendet werden hier RI (Brechungsindex)-, UV-, ELS (Verdampfungslichtstreu)- und Viskositätsdetektoren (bzw. Kombinationen davon). Bei der GPC mit Lichtstreudetektion hingegen wird die Molmassenzugehörigkeit der Retentionsvolumenachse direkt mit der Probe gemessen. Verwendet werden hier RI- oder UV- und Lichtstreudetekoren (bzw. Kombinationen davon). Beide Verfahren unterscheiden sich in ihren Ansprüchen an präzise experimentelle Bedingungen und die Ergebnisse unterliegen anderen Einflussgrößen, wie in den nachfolgenden Abschnitten umfassender dargestellt wird. 7.6.1 Einflussgrößen für GPC mit direkter Kalibration 7.6.1.1
Einfluss der Kalibration
Wie bei allen Verfahren, deren Ergebnisse auf einer Kalibration basieren, kommt der verwendeten Kalibration für die Verlässlichkeit und Richtigkeit der Ergebnisse eine große Bedeutung zu. In der GPC stehen unterschiedliche Kalibrationsverfahren zur Verfügung (vgl. Tabelle 7.11). Tabelle 7.11 Übersicht über GPC Kalibrationsverfahren unter Verwendung von Referenzstandards. Verfahren
Vorteile
Nachteile
Kalibration mit engverteilten Molmassenstandards
x Einfaches Verfahren x Präzises Verfahren, wenn chemisch und strukturell gleiche Standards und Proben verwendet werden
x Nicht alle Monomere lassen sich engverteilt polymerisieren x Kalibration ist nur gültig für chemisch und strukturell gleiche Substanzen
Breite Kalibration
x Einfaches und präzises Verfahren
x Nur wenige Standards kommerziell erhältlich x Kalibration ist nur gültig für chemisch und strukturell gleiche Substanzen
Integrale Kalibration
x Einfaches und präzises Verfahren
x Nur wenige Standards kommerziell erhältlich x Kalibration ist nur gültig für chemisch und strukturell gleiche Substanzen
Universelle Kalibration – Kalibration mit engverteilten Molmassenstandards mit zusätzlicher Viskositätsdetektion
x Einfaches und präzises Verfahren x Eine Kalibrierkurve, gültig für alle Substanzen
x Höherer experimenteller Aufwand x Zusätzliche Fehlerquellen aus Konzentrationsabhängigkeit, Bandenverbreiterung und Versatzbestimmung
255
256
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
Das am häufigsten eingesetzte Verfahren ist die Kalibration mit engverteilten Molmassenstandards. Sind Molmassenstandards und zu untersuchende Substanz chemisch oder strukturell unterschiedlich, dann werden Molmassen bezogen auf die Kalibriersubstanz (apparente/scheinbare Molmassen) erhalten. Die Abweichung zur korrekten Molmasse und Molmassenverteilung kann leicht von 10–20% bis zu mehreren 100% betragen. Da die Ergebnisse untereinander aber sehr gut vergleichbar sind, wird dieses Verfahren häufig in der Qualitäts- und Einganskontrolle eingesetzt. Weiterhin kommt das Verfahren dann zum Einsatz, wenn die exakte Bestimmung der Molmasse nicht unbedingt notwendig ist. Die Anzahl der zu verwendenden Kalibrationsstandards hängt vom zu kalibrierenden Molmassenbereich ab. Pro Molmassendekade sollten aber mindestens drei Molmassenstandards verwendet werden [8]. Nachdem die Retentionsvolumina gemessen und eingetragen wurden, muss eine Fitfunktion gewählt werden, die den Verlauf der Kalibrationspunkte möglichst korrekt beschreibt. GPC-Kalibrationskurven sind, auch wenn Linear- oder Mixed-Bed-Säulen verwendet werden, nicht in allen Molmassenbereichen linear, sondern zeigen einen sigmoidalen Verlauf. Die am häufigsten verwendeten Fitfunktionen sind daher Polynome unterschiedlicher Ordnung oder Spezialfunktionen unterschiedlicher Ordnung basierend auf Polynomen (PSS-Fitfunktionen). Die optimale Fitfunktion für die verwendete Säule oder Säulenkombination muss vom Anwender selbst bestimmt werden. Um die Güte der gewählten Fitfunktion beurteilen zu können, stehen drei verschiedene Kriterien zur Verfügung: x Regressionskoeffizient (Bestimmtheitsmaß) R2, x Abweichung der Kalibrierpunkte von der Kalibrationskurve (bzw. mittlere Abweichung), x Verlauf der Steigung der Kalibrationskurve. Tabelle 7.12 zeigt die Regressionskoeffizienten für identische Messdaten (Abb. 7.8 und 7.9) mit verschiedenen Fitfunktionen sowie die mittlere Abweichung der Datenpunkte. Die mittlere Abweichung, bzw. die Abweichung eines Kalibrierpunkts, ist korreliert mit allen Fehlern, die bei der Charakterisierung, Analyse und Auswertung der Kalibriersubstanzen auftreten können (z. B. Elutionsvolumen, Referenzmolmasse). Wie Tabelle 7.12 zeigt, ist der Regressionskoeffizient ein wenig geeigneter Parameter, um die Güte der gewählten Fitfunktion zu beschreiben. Auch für Regressionskoeffizienten nahe eins erhält man noch große mittlere Abweichungen und damit Fehler in der Molmassenbestimmung. Steht in der Datenanalyse-Software nur der Regressionskoeffizient als Kriterium zur Beurteilung der Fitfunktion zur Verfügung, sollte dieser bei Freiheitsgraden von mindestens sieben größer als 0,999 sein, um möglichst fehlerfreie GPC-Ergebnisse zu erhalten. Der Regressionskoeffizient und die mittlere Abweichung der Kalibrierpunkte werden mit zunehmender Ordnung des Polynoms besser. Trotzdem können nicht Polynome beliebig hoher Ordnung für die Anpassung der Kalibrierpunkte verwendet werden. Die Kalibrierkurve muss neben einer guten Anpassung auch
7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten Tabelle 7.12 Einfluss der Wahl der Kalibrier-Fitfunktion auf den Regressionskoeffizienten. R2
Mittlere Abweichung
Linear (quadratisch)
0,9925
30,20%
Polynom 3 (kubisch)
0,9986
10,44%
Polynom 5
0,9995
7,35%
0,9999
3,57%
0,9998
4,92%
Anpassung
Polynom 7
a)
PSS Polynom 7 a)
Ableitung der Kalibrierkurve ist nicht mehr stetig, diese Funktion kann nicht verwendet werden.
einen physikalisch sinnvollen Verlauf aufweisen. Die Beurteilung dieses Kriteriums erfolgt am einfachsten durch die Kontrolle der Steigung der Kalibrierkurve (erste Ableitung). Die Abb. 7.8 zeigt einen idealen Verlauf der ersten Ableitung der Kalibrierkurve. Die Steigung ändert sich nur zur Trennschwelle und zur Ausschlussgrenze hin und ist im optimalen Trennbereich der Säule konstant. Wird ein Polynom siebenter Ordnung gewählt (Abb. 7.9), ändert sich die Steigung der Kalibrierkurve und in der Ableitung zeigen sich Maxima und Minima, die keine physikalische Grundlage haben.
Abb. 7.8 GPC-Kalibrationskurve mit physikalisch sinnvoller Ableitung. Der optimale Trennbereich der Säule ist erkennbar an der flachen Steigung. Besonders zur Trennschwelle und zum Ausschlussvolumen hin nimmt die Steigung der Kalibrationskurve zu.
257
258
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
Abb. 7.9 Kalibrationskurve mit einem Polynom 7. Ordnung. In diesem Fall ist die Ordnung der Kalibrationskurve zu hoch gewählt. Die Ableitung der Kalibrationskurve zeigt physikalisch unsinnige Maxima und Minima.
Den Einfluss der gewählten Fitfunktion auf die Molmassenergebnisse zeigt Tabelle 7.13. Hier sind gegenübergestellt eine konventionelle kubische Anpassung (Polynom dritter Ordnung) und ein Spezialfitfunktion basierend auf einer polynomischen Anpassung bei Verwendung identischer Rohdaten und Kalibrierpunkte. Tabelle 7.13 Einfluss der verwendeten Kalibrierfunktion auf die Genauigkeit von Molmassen am Beispiel der PSS-Kalibrierfunktion und eines Polynom 3. Grades. Polystyrol Standard
Ergebnisse berechnet mit PSS-Kalibrierfunktion
Ergebnisse berechnet mit Polynom 3. Ordnung
Referenz Mw
Mw
Mw/Mn
'Mw
Mw
Mw/Mn
'Mw
985 000
1 006 000
1,05
+2%
1 507 000
1,06
+53%
325 000
316 000
1,02
–3%
393 000
1,04
+21%
98 000
96 300
1,05
–2%
84 500
1,07
–16%
34 000
31 500
1,05
+3%
26 400
1,05
–29%
10 000
9 830
1,09
–2%
7 800
1,06
–28%
8 100
8 080
1,08
0%
6,650
1,04
–22%
7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten
Die sog. PSS-Fitfunktion (Spezialfitfunktion) wurde speziell für den sigmoidalen Verlauf von GPC-Kalibrationskurven entwickelt und beschreibt die Wendepunkte und die Unstetigkeitsstellen (Ausschlussgrenze und Trennschwelle) besonders gut. Dadurch können größere Molmassenbereiche der Trennsäulen kalibriert und genutzt werden, was Analysenzeit und Kosten spart, da weniger Säulen gekauft und eingesetzt werden müssen. 7.6.1.2
Einfluss der Geräteeigenschaften (Geräteperformance)
Neben der Kalibration spielen auch die Reproduzierbarkeit der Analysenbedingungen und ihr Bezug zur Kalibration eine große Rolle. Obwohl kommerziell erhältliche HPLC-Geräte sehr gute Reproduzierbarkeiten erzielen, stellt die Gelpermeationschromatographie besondere Anforderungen an Messwerterfassung und -verarbeitung. Wie bereits in Tabelle 7.1 zusammengefasst, werden Ergebnisse bei der GPC basierend auf der absoluten Peakposition ermittelt. Alle Größen, die Einfluss auf die Lage der Peakposition haben, haben somit auch Einfluss auf die Ergebnisse. An erster Stelle bei den Einflussgrößen sind hier Fluss-Schwankungen verursacht durch die Pumpe zu nennen. Für reproduzierbare und genaue Ergebnisse ist es von eminenter Wichtigkeit, dass die Flussrate bei der Erstellung der Kalibration und bei der Messung der Proben gleich ist. Tabelle 7.14 zeigt den Einfluss von unterschiedlichen Flussraten auf die Ergebnisse bei der GPC. Die in Tabelle 7.14 angegebenen Werte hängen von der verwendeten Säulenkombination und der Lage des Peaks in der Kalibrierkurve ab. Bei Linear- oder Mixed-Bed-Säulen oder Säulen mit größerer Partikelgröße (> 10 μm) muss bei gleicher Säulenlänge mit noch größeren Abweichungen gerechnet werden. Moderne HPLC (GPC)-Pumpen arbeiten in ordnungsgemäßem Zustand sehr genau und mit guter Flusskonstanz, so dass nur geringe Abweichungen auftreten. Trotzdem hat es sich in der Praxis bewährt, mit einem zugesetzten niedermolekularen internen Flussmarker zu arbeiten (s. Abb. 7.10). Mit Hilfe dieses internen Standards kann auf die bei der Kalibration vorliegende Flussrate korrigiert werden. Die erhaltenen Ergebnisse sind dadurch genauer und reproduzierbarer und Abweichungen, wie in Tabelle 7.14 beschrieben, können korrigiert werden. Tabelle 7.14 Einfluss unterschiedlicher effektiver Flussraten auf die Genauigkeit der Molmassen-Ergebnisse bei der GPC. Abweichung von Soll-Flussrate [%]
Gemessene Molmasse Mw [Da]
Mw Differenz [%]
2,1
46 500
36,8
1,31
41 900
23,2
0,61
37 500
10,3
0
34 000
0
–0,8
29 800
–12,4
–1,5 –2,2
26 400 23 300
–22,4 –31,5
259
260
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
Nicht korrigiert werden können sprunghafte oder kontinuierlich Änderungen der Flussrate während der Messung. 7.6.1.3
Einfluss der Auswerteparameter
Einfluss der Probenkonzentration
Für die Auswertung von GPC-Messungen mit RI-, UV- oder ELS-Detektion spielt die genaue Kenntnis der Probenkonzentration (bzw. der eluierten Masse) keine Rolle. Die Konzentration der Probe geht nicht in die Formeln zur Molmassenbestimmung ein. Werden Viskositätsdetektoren oder Lichtstreudetektoren (s. u.) verwendet, spielt die wirkliche Konzentration der Probe eine Rolle. Tabelle 7.15 zeigt den Molmassenfehler, der dann durch eine falsche Konzentration auftreten kann. Tabelle 7.15 Bestimmungsfehler für Molmassen verursacht durch falsche Probenkonzentration bei GPC Analysen mit Viskositätsdetektion. Variation
Mw [Da]
Fehler [%]
Mn [Da]
Fehler [%]
[¸]
Fehler [%]
D
Fehler [%]
Referenzwert
–
384 000
–
115 800
–
42,01
–
0,545
–
Konzentration
–5%
364 800 –5,21 110 000 –5,00
44,22
–5,26
0,545
0
Detektorversatz
–5%
385 900
41,96a)
–0,12
0,526
–3,49
a)
0,49
112 700 –2,68
Der Versatz wurde für das Viskosimeter geändert, damit die Kalibrierkurve ihre Gültigkeit behält, [K] ändert sich da die Integrationsgrenzen belassen wurden und dadurch ein kleiner Teil der Probe nicht mehr berücksichtigt wird.
Auch die Volumendifferenz (Versatz) zwischen konzentrationssensitivem Detektor und molmassensensitivem Detektor spielt für die Genauigkeit der Ergebnisse eine große Rolle. Denn bei falschem Versatz wird dem molmassensensitiven Signal der Konzentrationswert einer Fraktion zugeordnet, die nicht zu dem Signal des Viskositäts- oder Lichtstreudetektors gehört. Wahl der Basislinie
Häufig stellt sich in der Praxis das Problem, dass der Polymerpeak für einzelne Detektoren nicht mehr auf die ursprüngliche Grundlinie zurückgeht. Für diese schwierigen Auswertungen ist in der GPC ein zweistufiges Auswerteverfahren nötig: Zuerst wird die Basislinie korrekt abgezogen, danach wird der zu integrierende Bereich definiert. Für diesen wird die Molmassenverteilung ermittelt. Ohne dieses zweistufige Verfahren kann die Polymerprobe nicht vollständig ausgewertet werden und die erhaltenen Ergebnisse sind falsch und schlecht reproduzierbar. Die Abb. 7.10 zeigt dieses Verfahren beispielhaft an einem zertifizierten Referenzmaterial (CRM-Quelle: PSS, Mainz), wobei die senkrechten Linien in Abb. 7.10 (oben) die Integrationsgrenzen repräsentieren. Die Abb. 7.10 zeigt weiterhin die korrekte (grüne Linie) und die falsche (rote Linie) Wahl der Basislinie.
7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten
Abb. 7.10 Einfluss der Basislinie auf die Molmassenverteilung und die Molmassenmittelwerte. Hier werden die Ergebnisse eines einstufigen und zweistufigen Verfahrens mit separater Wahl der Integrationsgrenzen verglichen.
Sind Basisliniengrenzen und Integrationsgrenzen nicht unabhängig voneinander wählbar, wird ein Teil der Probe (rot markierter Bereich) nicht mit ausgewertet. In der erhaltenen Molmassenverteilung zeigen sich die Unterschiede graphisch und numerisch ganz deutlich (Abb. 7.10, unten).
261
262
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
7.6.2 Einflussgrößen für GPC mit Lichtstreudetektion
In der GPC werden verschiedene Arten von Lichtstreudetektoren verwendet, die sich hauptsächlich in der Anzahl der Winkel und der Anordnung der Winkel im Detektor unterscheiden. Tabelle 7.16 gibt einen Überblick über die verwendeten Verfahren und die Vorteile und Nachteile der einzelnen Methoden. Online Lichstreudetektoren haben in der GPC den Vorteil, dass mit der Messung der Proben das Molekulargewicht bei jedem Elutionsvolumen direkt gemessen werden kann, wenn verschiedene Auswerteparameter bekannt sind. Unabhängig vom verwendeten Lichtstreudetektortyp sind die Auswerteparameter, die für die Auswertung benötigt werden:
Tabelle 7.16 Überblick über die gebräuchlichen Lichtstreudetektionsverfahren in der GPC-Analyse und die Vorteile und Nachteile der einzelnen Methoden. Typ
Verfahren
Anwendung
Einschränkungen
Voraussetzungen
LALLS Kleinwinkelgeräte
MolmassenMessung ohne Extrapolation
x MWD x Hochmolekulare Proben
x Oft „Spikes“ x Wartungsintensiv x Keine RgMessung
x Sehr sauberes System (ohne Partikel, Staub)
RALLS 90/Einwinkelgeräte
MolmassenMessung ohne Winkelkorrektur
x Nur MWD von niedermolekularen Proben x Vergleichende Analysen
x Keine Winkelkorrektur x Rg nur in Verbindung mit Viskosimetern
x M < 200 00 Da x Probeneigenschaft bekannt
TALLS Zwei-/DreiWinkelgeräte
MolmassenMessung mit 2(3)-PunktExtrapolation
x MWD x Hoch- und niedermolekulare Proben
x „Spikes“ x Knäuelstatistik bei kleinen sollte bekannt Winkeln sein x Eingeschränkte Winkelkorrektur x Rg ungenau
MALLS Mehrwinkelgeräte
Molmassen- und TrägheitsradienMessung mit VielwinkelExtrapolation
x x x x
Exakte MWD Verlässliche Rg Verzweigungen Strukturmerkmale
7.6 Einfluss von GPC-spezifischen Größen auf Verlässlichkeit und Richtigkeit von GPC-Resultaten
x Brechungsindexinkrement (dn/dc), x Konzentration im Streifen (aus der injizierten Masse oder aus der Kalibration des Konzentrationsdetektors), x Versatz zwischen Lichtstreudetektor und Konzentrationsdetektor (RI, UV), x Brechungsindex des Lösungsmittels (n (Eluent)), x Detektorkonstante des Lichtstreudetektors, x Normalisierungsfaktoren der einzelnen Winkelpositionen bei MALLS-Detektoren (N(q)). Einfluss der Geräte-Kalibration
Obwohl die Lichtstreuung eine Absolutbestimmungsmethode darstellt, müssen alle Lichtstreudetektoren kalibriert werden. Dies kann mit verschiedenen Methoden durchgeführt werden. Bei dieser Kalibration bezieht man sich auf die absolute Streuintensität einer Referenzprobe, die der Lichtstreu-Literatur zu entnehmen ist. Leider gibt es schon bei diesen Literaturwerten Unterschiede von ca. 10%, die sich proportional im Messergebnis niederschlagen. Hinzu kommt noch der Bestimmungsfehler der Detektorkonstante, die sich ebenfalls proportional im GPC-Resultat widerspiegelt. Wenn also zwei Labore ihre absoluten LichtstreuMolmassen vergleichen, ist es problemlos möglich, dass sich die Ergebnisse um 20% unterscheiden, weil sie (a) unterschiedliche Streuintensitäten der Referenzprobe (10%) und (b) einen 10%igen Fehler in der Kalibration des eigenen Lichtstreugeräts haben. Einfluss der Geräteperformance
Da bei der GPC-Lichtstreumessung die Kalibration online gemessen wird, findet man hier keinen Einfluss aus einer veränderten Flussrate. Trotzdem gelten auch hier die generellen Anforderungen an die Geräteperformance. Ändert sich die Flussrate kontinuierlich oder sprunghaft während der Messung, so kann man auch bei GPC-Lichtstreumessungen falsche Ergebnisse erhalten. Im Gegensatz zu GPC-Messungen mit Konzentrationsdetektoren (RI, UV, ELSD) spielt bei GPC-Lichtstreumessungen die Reproduzierbarkeit bei der Injektion eine Rolle. Der Einfluss eines nicht reproduzierbar arbeitenden Injektors ist vergleichbar mit dem Fehler, der durch eine falsche Probenkonzentration auftritt (siehe Einfluss der Auswerteparameter). Einfluss der Auswerteparameter
Um den Einfluss der Auswerteparameter auf die Ergebnisse abschätzen zu können, wurden Validierdaten mit bekannten Molmassenmittelwerten verwendet [5]. Statt korrekter Auswerteparameter wurden abweichende Werte zur Auswertung verwendet. Tabelle 7.17 zeigt den Fehler in der Bestimmung der Molmassenmittelwerte durch fehlerhafte Auswerteparameter. Den größten Einfluss auf die ermittelten Molmassen haben das Brechungsindexinkrement (dn/dc) und die Konzentration der Probe. Die Abb. 7.11 illustriert den Einfluss dieser beiden Größen.
263
264
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen Tabelle 7.17 Einfluss von wichtigen Auswerteparametern auf die GPC-Ergebnisse bei Verwendung von Lichtstreudetektoren.
Sollwerte dn/dc
Variation
Mw [Da]
Fehler [%]
Mn [Da]
Fehler [%]
z [nm]
Fehler [%]
–
300 000
–
150 000
–
21,96
–
–5%
331 000
10,3
165 600
10,4
21,96
0
326 000
8,67
155500
3,67
23,05
4,96
315 800
5,27
158 000
5,33
21,96
0
–5%, –4%, 289 800 –3% –5%, 4%, 296 300 –3%
–3,40
144 900
–3,40
22,10
0,64
–1,23
148 100
–1,26
22,03
0,32
Verwendung von A2 Konzentration Normalisierunga)
Detektorversatz n (Eluent) a)
–5%
+5%
295 100
–1,63
159 500
6,33
21,96
0
–0,004%
297 500
0,83
148 800
–0,83
21,96
0
Abweichung der Normalisierungskoeffizienten immer in gleiche Richtung (oben: –).
Abb. 7.11 Einfluss eines fehlerhaften Brechungsindexinkrements, dn/dc, und einer fehlerhaften Konzentration auf die Molmassenbestimmung.
7.7 Zusammenfassung Tabelle 7.18 Wiederholpräzision und Vergleichspräzision bei GPC-Analysen von Realproben in verschiedenen Eluenten; Werte aus standardisierten statistisch validen Rundversuchen nach DIN 5725-1 mit komplexen Realproben (Quelle: DIN GPC Normen [8]). THF
DMA
H2O
THF
DMA
H2O
Vergleichspräzisiona)
Wiederholpräzision Mn
3%
2%
2%
15%
15%
15%
Mw
2%
2%
2%
10%
15%
15%
Mz
3%
3%
3%
15%
24%
24%
Mw/Mn
3%
3%
3%
15%
24%
24%
a)
Vergleichspräzision bestimmt mit komplexen Realproben.
7.6.3 Vergleichspräzision und Wiederholbarkeit von GPC-Analysen
Werden die oben diskutierten Randbedingungen beachtet, sind sehr genaue und reproduzierbare GPC-Analysen mit höchster Ergebnisqualität sichergestellt. In vielfältigen DIN-initiierten Rundversuchen wurden folgende Richtwerte für die Ergebnisunsicherheit erhalten [8], die in Tabelle 7.18 wiedergegeben sind. Alle Ergebnisse wurden in standardisierten, statistisch validen Rundversuchen gemäß DIN 5725-1 mit komplexen Realproben bestimmt. Die Werte zur Wiederholpräzision zeigen die Reproduzierbarkeit von GPC-Ergebnissen unter vergleichbaren Messbedingungen im eigenen Labor, wobei Informationen vorliegen, die über die Rundversuchsvorschrift hinausgehen. Wird nur mit Informationen gearbeitet, die in den Rundversuchsbedingungen niedergelegt sind und werden die Experimente in verschiedenen Laboratorien mit unterschiedlicher Ausstattung und unterschiedlicher Kompetenz durchgeführt, dann werden Werte für die Wiederholbarkeit von GPC-Analysen gefunden, die in der Tabelle unter Vergleichspräzision aufgelistet sind.
7.7 Zusammenfassung
Die Anforderungen an GPC-Datenverarbeitungsprozesse unterscheiden sich erheblich von anderen chromatographischen Datenanalyse-Prozessen. Vielseitige Strukturen greifen in die komplexen Datenprozessierungsabläufe ein und können die Ergebnisse auf vielfältige Weise beeinflussen. Nur wenn alle Randbedingungen der GPC-Datenverarbeitung eingehalten werden, sind reproduzierbare und nutzerunabhängige Resultate erzielbar. Nationale und internationale GPCNormen erlauben es, die wichtigsten Bedingungen für eine erfolgreiche und nachvollziehbare Datenanalyse in jedem Labor umzusetzen. Darüber hinaus gibt
265
266
7 Qualifizierung von GPC/GFC/SEC-Daten und -Ergebnissen
es weitere Einflussfaktoren, die die Ergebnisqualität und -integrität bedingen. Dazu zählen: x x x x x x
die Wahl des Datensystems selbst, die Kalibrationsmethode, die Art und Optimierung der Fitfunktion der Kalibration, der Typ und die Lage der Basislinie, die Festlegung der Integrationsgrenzen, die Vergleichbarkeit der Elutionsvolumina zwischen Kalibration und Analyse und x die geräte-, methoden- und probenspezifischen Parameter bei molmassensensitiver Detektion. Auf Grund der Komplexität der GPC-Datenprozesse erscheint es für kritische und gerichtsverwertbare GPC-Resultate in Umgebungen ohne spezifische GPC-Kompetenzen sinnvoll, zur Absicherung der Ergebnisse unabhängigen Sachverstand einzuholen.
Literatur 1
2 3
4
(a) P. Kilz: Optimierung von GPC-Analysen durch geeignete Wahl von stationärer Phase und Detektionsverfahren. In: HPLC richtig optimiert, S. Kromidas (Ed.). Wiley-VCH, Weinheim, 2006. (b) P. Kilz, H. Pasch: Coupled techniques in chromatography. In: Encyclopedia of Analytical Chemistry, R. A. Meyers (Ed.). Wiley, Chicester, 2000. (c) S. Mori, H. G: Barth: Size Exclusion Chromatography, Springer, Berlin, 1999. (d) W. W. Yau, J. J. Kirkland, D. D. Bly: Modern Size-Exclusion Liquid Chromatography. Wiley, New York, 1979. K.-F. Arndt, G. Müller: Polymercharakterisierung. Hanser, Müchen, 1996. (a) R. D. McDowall, LC.GC Europe, 12, 568–576 (1999). (b) R. D. McDowall, LC.GC Europe, 12, 774–781 (1999). (c) W. Winter, L. Huber: Implementing 21CFR Part 11 Electronic Signatures and Records in Analytical Laboratories, BioPharm, January 2000. (a) Technical Requirements for the Registration of Pharmaceuticals for Human Use, Q2B: Validation of analytical procedures: Methodology, ICH-Q2B, Genf, 1996.
5
6 7 8
(b) Commision of the Council of the European Community: directives 87/18/EEC, 1987; 88/320/EEC, 1988 and 90/18/EEC 1990. (c) US FDA: Code of Federal Regulations, Title 21, Part 11, Electronic Records; Electronic Signatures; Final Rule; Federal Register 62 (54), 13429/13466, 1997. (d) ISO/IEC Guide 25: General requirements for the competence of calibration and testing laboratories, 3rd ed., ICH, Genf, 1990. (a) P. Kilz, G. Reinhold, Proceedings International GPC Symposium, San Diego, 1996, Boston 1997. (b) P. Kilz, G. Reinhold, Vollständige Validierung für PSS WinGPC Software. In: Peak-Info, Hewlett-Packard, Waldbronn, 1996. H. G. Elias, Makromoleküle. Hüthig, Basel, 1992. PSS, Benutzerdokumentation PSS WinGPC Datensystem, Mainz, 1997. DIN 55 672-1: Gelpermeationschromatographie (GPC), Teil 1: Tetrahydrofuran (THF) als Elutionsmittel. Beuth Verlag, Berlin, 1995.
267
8 Auswertung in der LC-MS-Kopplung Hartmut Kirchherr
8.1 Einleitung
Die routinemäßige Anwendung der LC-MS hat mit der Entwicklung von robusten Ionisierungsquellen unter Atmosphärendruck wie APCI (Atmospheric Pressure Chemical Ionization Interface) und ESI (Electrospray Interface) einen Siegeszug in der Flüssigkeitschromatographie angetreten und oft aufwendige und langwierige Trennverfahren und Nachweismethoden mit Vor- oder Nachsäulenderivatisierung ersetzt. Gerade durch die Anwendung der Tandem-MS als zusätzlicher Trenndimension konnten Probenvorbereitung und chromatographische Trennung bei der Quantifizierung in komplexer Matrix drastisch vereinfacht und verkürzt werden. Die unbestrittenen Erfolge dieser Technik können aber nicht darüber hinwegtäuschen, dass die Ionisierungsquellen immer noch das Nadelöhr bei der Verbindung von HPLC und Massenspektrometer darstellen. Ob eine Substanz hinreichend genau quantifiziert werden kann, hängt neben einstellbaren Geräteparametern wie Flüssigkeits- und Gasfluss, Ionisierungsenergie und Temperatur, Anordnung und Ausrichtung der Bauteile sowie der Ionisierungstechnik, von der chemischen Struktur des Analyten, von der Beeinflussung durch die Matrix einschließlich der mobilen Phase, von der Clusterbildung und deren Vermeidung, von der Oberflächenbeschaffenheit des gesamten Ionenpfades und besonders von konstanten Bedingungen während des Ionisierungsprozesses ab. Daneben gibt es weitere notwendige technische Vorgaben, bedingt durch die Kopplung an das Massenspektrometer und die Anzahl der zu bestimmenden Analyten, um präzise und richtige Ergebnisse zu erhalten. Diese Besonderheiten sollen hier an einzelnen Beispielen besprochen werden. Zur Quantifizierung wird dabei der hierfür besonders geeignete MRM-Modus (Multiple Reaction Monitoring) herangezogen. Für allgemeine Grundlagen der LC-MS sei auf andere Literaturquellen verwiesen [1–3].
268
8 Auswertung in der LC-MS-Kopplung
8.2 Chromatographie und Matrixeinfluss
Das Hauptproblem ist die mögliche Beeinflussung des Messwertes durch die Matrix. Anders als im UV-Chromatogramm wird bei MRM-Übergängen ein vermeintlich störungsfreies Chromatogramm angezeigt. Signal-verändernde Effekte können aber trotzdem im Hintergrund und für den Betrachter „unsichtbar“ ablaufen. Um das Problem der Matrixeffekte zu beherrschen gibt es verschiedene Strategien: x x x x
Abtrennung der störenden Matrix durch Probenaufarbeitung; Verdünnen der Probe, bis kein Matrixeffekt mehr wirksam ist; chromatographische Abtrennung der störenden Matrixkomponenten; Einsatz von isotopenmarkierten internen Standards.
Als störende Matrixkomponenten kommen hauptsächlich ionische Substanzen wie Proteine und Salze sowie unpolare Stoffe wie z. B. Fette in Betracht. Die einfachste Art der Probenvorbereitung in biologischer Matrix – wie z. B. Serum – ist die Proteinfällung mit Acetonitril/Methanol oder Säure. Eine Mischung aus neun Teilen Acetonitril und einem Teil Methanol hat sich für die Proteinfällung in biologischem Material als günstig erwiesen. Bei Anwendung von reinem Acetonitril besteht die Gefahr von Mitreißeffekten durch die sehr schnelle Ausfällung, bei Fällung mit reinem Methanol wird für eine vollständige Abtrennung der Proteine eine zu große Menge Methanol benötigt. Ein Standardansatz besteht z. B. aus 100 μl Serum und 300 μl Acetonitril/Methanol-Gemisch, einschließlich internen Standards. Der klare Überstand kann nach dem Zentrifugieren weiter mit mobiler Phase verdünnt werden [4]. Bei dieser Art der Probenvorbereitung wird die Proteinbindung von Medikamenten vollständig gelöst. Will man nur den freien Anteil eines Medikamentes bestimmen, kommt eine schonende Abtrennung der hochmolekularen Stoffe mittels Ultrazentrifugation in Betracht. Reicht die Konzentration des Analyten oder die Empfindlichkeit des Massenspektrometers für diese Art der Probenvorbereitung nicht aus, kann durch Flüssig-Flüssig-Extraktion oder Festphasenextraktion angereichert und aufgereinigt werden. Die Festphasenextraktion (SPE) hat zudem den Vorteil, dass sich dieser Prozess leicht automatisieren lässt und durch mehrdimensionale Anordnung und Säulenschaltungen z. B. Serum direkt eingesetzt werden kann [5, 6]. Eine universelle Anwendung z. B. für polare Analyten ist allerdings nicht immer mit ausreichender Wiederfindung gegeben. Ob ein Matrixeffekt vorliegt und welche Region im Chromatogramm beeinflusst ist, kann man leicht mit Hilfe der Infusionsmethode feststellen. Die mobile Phase wird über die HPLC-Säule geleitet. Mittels T-Verbindung wird gleichzeitig eine Substanzlösung wie beim Tuning mittels Spritzenpumpe zugeführt und ergibt ein hohes gleichmäßiges Untergrundsignal. Wird nun die Matrix (ggf. nach Aufarbeitung) injiziert, erkennt man Signal-Quenching-Effekte durch Abfall der Grundintensität im Chromatogramm. In diesen durch die Matrix beeinflussten Zeitzonen sollte der Substanzpeak dann nicht erscheinen.
8.2 Chromatographie und Matrixeinfluss
Abb. 8.1 API 4000 Infusion Risperidon 10 ng/ml, 40 μl/min: Matrixeffekt nach Injektion von 10 μl Serum nach Proteinfällung (Verdünnungsfaktor 4) auf Chromolith C18 50 u 4,6 mm, mobile Phase CH3CN: 5 mM AcetatPuffer pH 3,9, 40 : 60 (v/v), 1 ml/min.
In Abb. 8.1 ist ein solches Infusions-Chromatogramm mit Risperidon als Grundsubstanz und Serum-Matrix nach Proteinfällung mit einem Verdünnungsfaktor von 4 am API 4000 (Applied Biosystems) mit Turbospray-Quelle im MRM zu sehen. Aus diesem Chromatogramm mit isokratischer Trennung auf C18-Umkehrphase kann abgelesen werden, dass die Retentionszeit von Risperidon eine Minute nicht unterschreiten sollte, um Matrixeffekte und Signalunterdrückung zu vermeiden. Durch Verdünnung der Probe nach der Proteinfällung kann das Ausmaß der Signalunterdrückung in Intensität und Dauer verringert werden (Abb. 8.2). Auch nach SPE-Aufreinigung tritt diese Signalabschwächung im Bereich bis zu einer Minute auf (Abb. 8.3). Eluiert die zu analysierende Substanz innerhalb der kritischen Zeitspanne, kann durch Änderung der Chromatographie-Bedingungen eine verzögerte Elution erreicht werden. Die kritische Zone der Signalabschwächung verbreitert sich in dem angeführten Beispiel nicht (Abb. 8.4). Bei Gradienten-Elution muss berücksichtigt werden, dass die Signalintensität im Elektrospray in der Regel mit zunehmendem organischem Anteil in der mobilen Phase ansteigt. Eine Retentionszeit-Verschiebung kann dann zu veränderten Intensitäten führen. Bei hohem organischem Anteil können dann auch Fette eluieren, die durch Signalabschwächung eine weitere „verbotene Zone“ für die Analyten darstellen (Abb. 8.5).
269
270
8 Auswertung in der LC-MS-Kopplung
Abb. 8.2 API 4000 Infusion Risperidon 10 ng/ml, 40 μl/min: Matrixeffekt nach Injektion von 10 μl Serum nach Proteinfällung. (a) Verdünnungsfaktor 40, (b) Verdünnungsfaktor 400 auf Chromolith C18 50 u 4,6 mm, mobile Phase CH3CN: 5 mM Acetat-Puffer pH 3,9, 40 : 60 (v/v), 1 ml/min.
8.2 Chromatographie und Matrixeinfluss
Abb. 8.3 API 4000 Infusion Risperidon 10 ng/ml, 40 μl/min: Matrixeffekt nach Injektion von 10 μl Serum nach C18-SPE (Verdünnungsfaktor 4) auf Chromolith C18 50 u 4,6 mm, mobile Phase CH3CN: 5 mM AcetatPuffer pH 3,9, 40 : 60 (v/v), 1 ml/min.
Abb. 8.4 API 4000 Infusion Risperidon 10 ng/ml, 40 μl/min: Matrixeffekt nach Injektion von 10 μl Serum nach Proteinfällung (Verdünnungsfaktor 4) auf Chromolith C18 50 u 4,6 mm, mobile Phase CH3CN: 5 mM AcetatPuffer pH 3,9, 20 : 80 (v/v), 1 ml/min.
271
272
8 Auswertung in der LC-MS-Kopplung
Abb. 8.5 API 4000 Infusion Risperidon 10 ng/ml, 40 μl/min: Matrixeffekt nach Injektion von 10 μl Serum nach Proteinfällung (Verdünnungsfaktor 4) auf Chromolith C18 50 u 4,6 mm, mobile Phase Gradient 20–70% CH3CN in 4 min, bis 5 min 70% CH3CN, bis 8 min 20% CH3CN: 5 mM AcOH pH 3,9, 1 ml/min.
Bei isokratischer Chromatographie können diese Fette im Laufe einer längeren Messserie durchbrechen und eine Verminderung der Signalintensität hervorrufen. Spülschritte zwischen den Messserien können diese Gefahr minimieren. Auch bei einem weniger empfindlichen Massenspektrometer wie dem API 2000 (Applied Biosystems) kann man ähnlich verfahren. Das Spray trifft hier im Gegensatz zur orthogonalen Anordnung des API 4000 schräg auf die Curtain-Plate. Im Elektrospray sind hier Flussraten um 0,2 ml/min und Säuleninnendurchmesser von 2 mm üblich. Um beim Risperidon etwa gleiche Intensitäten wie beim API 4000 bei der Infusion zu erhalten, muss die Konzentration hier 1000 statt 40 ng/ml betragen. Der Matrixeffekt wirkt sich nach Injektion von 5 μl Serum nach Proteinfällung und 1 : 4-Verdünnung ähnlich aus wie beim API 4000 (Abb. 8.6). Bei dieser Art der Probenaufarbeitung reicht natürlich bei manchen Analyten die Empfindlichkeit nicht mehr aus und es muss aus diesem Grund durch Extraktion angereichert werden. Die weitere Möglichkeit, so weit zu verdünnen bis kein Matrixeffekt gegenüber einem Standard ohne Matrix mehr auftritt (erkennbar an gleichen Intensitäten), kann natürlich nur angewendet werden, wenn entweder die Analyt-Konzentration hoch genug ist oder das Massenspektrometer eine ausreichende Empfindlichkeit aufweist. Dieser Intensitätsvergleich ist für gegebene Chromatographiebedingungen auch geeignet, zumindest für die zu analysierende Substanz einen Matrixeffekt auszuschließen.
8.2 Chromatographie und Matrixeinfluss
Abb. 8.6 API 2000 Infusion Risperidon 1000 ng/ml, 20 μl/min: Matrixeffekt nach Injektion von 5 μl Serum nach Proteinfällung (Verdünnungsfaktor 4) auf LUNA C18 50 u 2 mm, mobile Phase CH3CN: 5 mN Acetat pH 3,9, 36 : 64 (v/v), 0,2 ml/min.
Die Abb. 8.7 zeigt dieses Verhältnis von Substanz in Matrix und ohne Matrix in Abhängigkeit der Verdünnung und des Anteils der organischen Phase in der mobilen Phase bei Elektrospray-Ionisierung. Je höher die Verdünnung und je kleiner der organische Anteil in der mobilen Phase, desto weniger Beeinflussung durch die Serum-Matrix ist bei dem Testanalyten Risperidon zu erwarten. In der Praxis genügt natürlich eine Elution kurz nach dem Matrixeinbruch, um möglichst kurze Retentionszeiten und schmale Peaks mit hohen Intensitäten zu erhalten. Die APCI-Quelle zeigt eine deutlich kleinere Matrix-Beeinflussung. Bei den meisten polareren Analyten wird aber bei den gegebenen chromatographischen Bedingungen eine wesentlich kleinere Signalintensität und damit eine meist nicht ausreichende Empfindlichkeit erreicht (Abb. 8.8). Diese Art der Ionisierung ist deshalb hauptsächlich für unpolarere Analyten, wie z. B. Fettsäuren und Steroide, geeignet.
273
274
8 Auswertung in der LC-MS-Kopplung
Abb. 8.7 API 4000 Matrixeffekt ESI – Variation der mobile Phase: Merck Chromolith C18 50 u 4,6 mm, CH3CN: 5 mM AcOH pH 3,9, 1 ml/min, Rt 0,88 min (40% Puffer), Rt 0,90 min (50% Puffer), Rt 0,97 min (60% Puffer), Rt 1,28 min (70% Puffer), Rt 3,25 min (80% Puffer), 100% Intensität MRM (Area): 39900; (a) Serum + 1 ng/ml Risperidon, Proteinfällung 1 : 4 verdünnt, 10 μl injiziert; (b) Serum + 1 ng/ml Risperidon, Proteinfällung 1 : 40 verdünnt, 10 μl injiziert.
Einige Analyten bilden leicht Addukte oder Cluster. Werden nicht optimierte Ionisierungsbedingungen angewendet, können deutlich schlechtere Empfindlichkeiten und im Grenzbereich unreproduzierbare Messergebnisse erhalten werden. Ein sorgfältiges Tuning der Standardsubstanzen bleibt Voraussetzung für die nachfolgende Methodenentwicklung. Die Adduktbildung von Immunsuppressiva wie Tacrolimus und Sirolimus kann durch die Spray-Temperatur beeinflusst werden. In der Regel bestimmt man diese Analyten über das Ammonium-Addukt, indem z. B. Ammoniumacetat-Puffer in der mobilen Phase vorgelegt wird. Allerdings ist durch die Verwendung von Glasflaschen Natrium allgegenwärtig. Bei höherer Turbospray-Temperatur wird das Natrium-Addukt bevorzugt gebildet, die Intensität an Ammonium-Addukt nimmt dann ab (Abb. 8.9 und 8.10). Meist werden die intensivsten Fragmente für die MRM-Übergänge ausgewählt. In Einzelfällen kann ein solches Fragment aber relativ unspezifisch sein, indem z. B. nur Wasser abgespalten wird, oder ein hohes Untergrundsignal verhindert eine Messung im Spurenbereich. Im Idealfall werden zwei intensive, struktur-spezifische Fragmente erhalten, wobei ein Fragment zur Quantifizierung (Quantifier) und das andere Fragment zur Bestätigung (Qualifier) dienen.
8.2 Chromatographie und Matrixeinfluss
Abb. 8.8 API 4000 Matrixeffekt APCI – Variation der mobilen Phase: Merck Chromolith C18 50 u 4,6 mm, CH3CN: 5 mM AcOH pH 3,9, 1 ml/min, Rt 0,88 min (40% Puffer), Rt 0,90 min (50% Puffer), Rt 0,97min (60% Puffer). 100% Intensität MRM (Area): 2810; (a) Serum + 1 ng/ml Risperidon, Proteinfällung 1 : 4 verdünnt, 10 μl injiziert; (b) Serum + 1 ng/ml Risperidon, Proteinfällung 1 : 40 verdünnt, 10 μl injiziert.
Abb. 8.9 Einfluss der Turbospray-Temperatur auf die Na- und NH4-Adduktbildung beim Tacrolimus (API 4000).
275
276
8 Auswertung in der LC-MS-Kopplung
Abb. 8.10 Einfluss der Turbospray-Temperatur auf die Na- und NH4-Adduktbildung beim Sirolimus (API 4000).
8.3 Interne Standards
Der Verwendung eines geeigneten internen Standards kommt bei der Quantifizierung mittels MS eine besondere Bedeutung zu. Anders als bei der klassischen HPLC soll der interne Standard hier nicht nur Fehler bei den Aufarbeitungsschritten und der Injektion ausgleichen, sondern ist ganz wesentlich zur Kontrolle und zum Ausgleich von möglichen Schwankungen während der Ionisierung erforderlich. Isotopenmarkierte interne Standards sind dafür am besten geeignet. Natürlich muss es sich um stabile Isotope handeln, ein Isotopenaustausch z. B. von Deuterium mit der mobilen Phase muss ausgeschlossen sein. Der Massenabstand muss mindestens zwei, bei halogenierten Analyten mindestens drei Masseneinheiten betragen, um mögliche Interferenzen mit natürlichen Isotopen auszuschließen. Ferner muss geprüft werden, inwieweit der interne Standard den Messwert des Analyten beeinflusst, da käufliche Isotope meist keine 100%ige Reinheit aufweisen. Unter Berücksichtigung dieser Vorgaben kann der isotopenmarkierte interne Standard auch Matrixeffekte in Grenzen ausgleichen. Natürlich muss noch genügend Intensität für eine sichere Quantifizierung vorhanden sein. Schwieriger wird die Situation, wenn wie in den meisten Fällen keine isotopenmarkierten internen Standards zur Verfügung stehen. In diesen Fällen ist immer eine Chromatographie ohne erkennbare Matrixbeeinflussung des Analyten anzustreben. Meist sind chemisch ähnliche Substanzen als interne Standards am besten geeignet. Eine Übertragung von internen Standards, wie sie in der klassischen UV-HPLC eingesetzt werden, ist nicht immer möglich. Bei der Bestimmung von Terbinafin mittels HPLC-UV-Detektion wurde Clotrimazol als interner Standard
8.3 Interne Standards
Abb. 8.11 Einfluss der Turbospray-Temperatur am Beispiel Terbinafin und internem Standard Clotrimazol (API 4000).
verwendet. Clotrimazol wird jedoch im Gegensatz zu Terbinafin durch thermische Hydrolyse leicht zersetzt. Die Signalintensität ändert sich im Gegensatz zu Terbinafin bei Änderung der Spraytemperatur dramatisch (Abb. 8.11). Ob ein interner Standard für die Quantifizierung geeignet ist, kann man am einfachsten feststellen, indem man eine Präzision in kurzer Serie (z. B. n = 10) durchführt. Die Varianz der Messserie darf unter Verwendung des internen Standards nicht eindeutig schlechter werden als bei Berechnung ohne internen Standard. Wäre dies der Fall, machen gegenläufige Prozesse bei der Ionisierung den internen Standard für diese Quantifizierung unbrauchbar. In der Praxis kann man sich eine tolerable Obergrenze der Varianz festlegen (z. B. VK max. 5–10%), die durch Verwendung des internen Standards nicht überschritten werden darf. Zwar ist im Idealfall eine gleiche Retentionszeit von Analyt und internem Standard anzustreben, dies durch eine entsprechende Chromatographie – z. B. durch steile Gradienten – zu erzwingen, bringt aber eher Nachteile mit sich, da dann auch koeluierende Substanzen zu Störungen wie bei Matrixeffekten führen können. Wichtiger ist eine Kontrolle der Signalstabilität bei langen Messserien. Die Einlaufzeit bis zu stabilen Signalintensitäten kann von Analyt zu Analyt unterschiedlich lang sein und fünf Minuten bis über zwei Stunden betragen. Besonders beim Methodenwechsel kann in einzelnen Fällen mit längeren Einlaufzeiten gerechnet werden. Wenn Analyt und interner Standard sich nicht gleichförmig verhalten, sind Messfehler bei einem zu frühen Start oder bei einer Drift der Signalintensitäten bei langen Analysenserien vorprogrammiert.
277
278
8 Auswertung in der LC-MS-Kopplung Tabelle 8.1 Clonidin-Bestimmung in Serum-Matrix, unterschiedlicher interner Standard, Präzision und Abweichung vom Sollwert (n = 10). Interner Standard
Proteinfällung
C18-SPE
VK [%]
Abw. [%]
VK [%]
Abw. [%]
d4-Clonidin
4,7
3,9
6,3
–11,4
Tizanidin
4,7
9,4
5,2
–19,2
Aciclovir
44,1
außer Kontrolle
31,7
außer Kontrolle
ohne
5,0
6,7
5,1
–7,4
In Tabelle 8.1 ist der Einfluss des internen Standards auf Präzision und Abweichung bei der Clonidin-Bestimmung im Serum nach Proteinfällung und C18-SPE-Probenaufarbeitung aufgelistet. Es wurden 9 verschiedene Humanseren und ein Schweineplasma aufgearbeitet. D4-Clonidin als interner Standard ist erwartungsgemäß am besten geeignet. Allerdings scheint man mit Proteinfällung hinsichtlich Präzision und Abweichung noch bessere Ergebnisse als mit C18-SPE zu erhalten (VK 4,7%, Abweichung +3,9% gegenüber VK 6,3%, Abweichung –11,4%). Die Probe mit dem Schweineplasma hatte in der Serie keinen erkennbaren abweichenden Einfluss. Die Abweichung ist hier auf eine Standardlösung ohne biologische Matrix bezogen. Tizanidin weist als Imidazolamin Strukturähnlichkeit mit Clonidin auf. Die Retentionszeit im Chromatogramm liegt leicht vor dem Clonidin (1,2 statt 1,4 min). Präzision und Abweichung liegen durchaus auch im Bereich wie beim d4-Clonidin als internen Standard. Aciclovir liegt mit einer Retentionszeit von 0,9 Minuten unter den gegebenen Chromatographiebedingungen gerade noch in der „verbotenen Zone“, d. h. Matrixeinflüsse sind sowohl bei Proteinfällung als auch bei Festphasenextraktion zu erwarten. Als interner Standard ist Aciclovir bei der Clonidin-Bestimmung unter den gegebenen Bedingungen völlig ungeeignet. Ohne Korrektur über den internen Standard werden ähnlich gute Ergebnisse hinsichtlich Präzision und Abweichung erhalten. Dieser Umstand sollte jedoch nicht dazu verführen, auf den internen Standard prinzipiell zu verzichten. Eine Kontrolle der Chromatographie und besonders der Ionisierungsbedingungen kann im Einzelfall die Herausgabe von falschen Messwerten verhindern. Werden 10 verschiedene Humanurine hinsichtlich des internen Standards auf Präzision und Abweichung verglichen (Tabelle 8.2), zeigt sich deutlich eine Verschlechterung dieser Parameter, wenn statt d4-Clonidin Tizanidin verwendet wird. Aciclovir ist auch hier wieder völlig ungeeignet. Ohne Korrektur über einen internen Standard werden in Urinmatrix wesentlich schlechtere Ergebnisse als in Serum-Proben erhalten. C18-SPE ergibt bei Verwendung von d4-Clonidin als interner Standard die besten Ergebnisse (VK 3,8%, Abweichung +1,1%). In Abb. 8.12 sind die Chromatogramme der Massenübergänge von Clonidin und der verwendeten internen Standards dargestellt. Anders als in einem HPLC-
8.3 Interne Standards Tabelle 8.2 Clonidin-Bestimmung in Urin-Matrix, unterschiedlicher interner Standard, Präzision und Abweichung vom Sollwert (n = 10). Interner Standard
Verdünnung
C18-SPE
VK [%]
Abw. [%]
VK [%]
Abw. [%]
d4-Clonidin
4,6
1,1
3,8
1,1
Tizanidin
9,3
2,1
10,3
–3,7
Aciclovir
35,5
außer Kontrolle
53,3
außer Kontrolle
ohne
15,0
–18,6
17,8
–18,2
Abb. 8.12 API 4000 – Auswahl interner Standards bei der Clonidin-Bestimmung.
UV-Chromatogramm sind hier Analyt und interne Standards in einzelnen extrahierten Massenspuren dargestellt. Die Auswertung erfolgt über die Peakfläche. Eine Auswertung über die Peakhöhe bringt hier – im Gegensatz zu einem UVChromatogramm – keine Verbesserung der Präzision.
279
280
8 Auswertung in der LC-MS-Kopplung
8.4 Einstellungen Massenspektrometer
Tandem-Massenspektrometer haben im Gegensatz zu Ion-Traps den Vorteil, dass man in einer MRM-Methode leicht mehrere Analyten und interne Standards unterbringen kann. Allerdings muss die Scan-Zeit für einen Massenübergang (dwell time) der Anzahl der MRM-Übergänge angepasst werden. Gerade bei kleinen Konzentrationen nahe der Bestimmungsgrenze ist man bemüht, die Dwell Time hoch zu halten um noch etwas an Empfindlichkeit herauszuholen. In Abb. 8.13 ist die Dwell Time gegenüber dem Signal/Rausch-Verhältnis am Beispiel von Risperidon dargestellt. Bei einer Dwell Time von 20 ms gegenüber 200 ms verbessert sich das Signal/Rausch-Verhältnis um etwa den Faktor 8. Damit wird auch die Präzision bei steigender Dwell Time deutlich besser, was sich bei höheren Konzentrationen am Beispiel 9-Hydroxy-Risperidon allerdings nicht mehr auswirkt (Abb. 8.14). Bei mehreren MRM-Übergängen in einer Methode muss die Dwell Time reduziert werden, um eine ausreichende Menge an Datenpunkten über einen Peak zu erhalten. Etwa 10–15 Datenpunkte sollten pro Peak für eine hinreichend genaue Quantifizierung vorhanden sein. Tabelle 8.3 gibt Auskunft über die mögliche Anzahl an MRM-Übergängen in einer Methode im Verhältnis zur Dwell Time und Peakbreite. Bei einer Peakbreite von 20 s können 50 MRM-Übergänge in einer Methode untergebracht werden, wenn man eine Dwell Time von 20 ms für die einzelnen Übergänge wählt. Es werden dann immer noch 16 Datenpunkte pro Peak erhalten. Bei fünf MRMÜbergängen kann man sich bei gleicher Peakbreite schon 200 ms als Dwell Time leisten, um noch 20 Datenpunkte pro Peak zu erhalten. Eine zu geringe Zahl an Datenpunkten wirkt sich negativ auf die Reproduzierbarkeit aus. In Abb. 8.15 ist die Präzision einer Serie (n = 10) im Verhältnis zu der Anzahl an Datenpunkten pro Peak aufgetragen. Fünf Datenpunkte sind demnach für eine ausreichende Präzision eindeutig zu wenig.
Abb. 8.13 API 4000 – Verhältnis Dwell Time/Signal to Noise.
8.4 Einstellungen Massenspektrometer
Abb. 8.14 API 4000 – Auswirkung der Dwell Time auf die Präzision.
Tabelle 8.3 Verhältnis Anzahl Datenpunkte zu Dwell Time (DT) und Anzahl MRM-Übergänge (Minimum 15 Datenpunkte pro Peak). DT (ms)
2 MRM
5 MRM
10 MRM
20 MRM
50 MRM
100 MRM
20
400
160
80
40
16
8
40
222
89
44
22
9
4
60
154
62
31
15
6
3
80
118
47
24
12
5
2
100
95
38
19
10
4
2
200
49
20
10
5
2
1
400
25
10
5
2,5
1
0,5
Anzahl Datenpunkte bei Peakbreite 20 s 5 ms Pause zwischen den MRM-Übergängen Peakbreite (s) ⋅ 1000 + Pause (ms) ⋅ Anzahl MRM = Anzahl Datenpunkte Berechnung: DT (ms) ⋅ Anzahl MRM
281
282
8 Auswertung in der LC-MS-Kopplung
Abb. 8.15 Präzision in Serie (n = 10) bei der Risperidon-Bestimmung am API 4000. Anzahl der aufgenommenen Datenpunkte pro Peak im Verhältnis zur Präzision.
8.5 Auswertesoftware
Moderne Auswertesysteme können chromatographisch saubere Peaks, wie sie meist bei MRM-Übergängen vorliegen, problemlos und sicher integrieren. Problematisch bleibt die Situation bei kleinen Konzentrationen nahe der Bestimmungsgrenze. Eine Kontrolle ist unbedingt erforderlich und eine manuelle Korrektur der Integration oft der schnellste Weg, richtigere Ergebnisse zu erhalten (s. Kapitel 1 und 2). Unterstützt werden kann dieser Prozess durch Glättungsfunktionen, die allerdings nur für die gesamte Serie gleich, und nicht nur für einzelne Proben, angewendet werden dürfen. In Abb. 8.16 ist zu erkennen, dass durch das mehrmalige Anwenden der Smoothing-Funktion bei der Risperidon-Bestimmung das Signal/Rausch-Verhältnis um etwa den Faktor zwei verbessert werden kann. Mittels Auswertesoftware Analyst 1.4.1 wurde bei einer Serie Risperidon im Serum (n = 10, Proteinfällung, Verdünnungsfaktor 8, API 4000) bei zwei Konzentrationen (1,0 und 0,1 ng/ml) die Präzision berechnet. Die Bestimmungsgrenze (Signal/Rauschen 10 : 1) liegt bei dieser Methode bei 0,1 ng/ml. Mit der automatischen Integration (Smoothing-Faktor 1, Bunching-Faktor 2) wurde ohne manuelle Korrektur bei 1,0 und 0,1 ng/ml ein VK von 6,5 bzw. 15,1% gefunden. Nach manueller Korrektur verbesserten sich diese Werte leicht auf 6,3% bei 1,0 ng/ml bzw. deutlicher auf 11,1% bei einer Risperidon-Konzentration von 0,1 ng/ml. Bei manueller Integration wurde der individuelle Einfluss auf die Messergebnisse untersucht. Dazu haben 10 Mitarbeiter unabhängig voneinander die komplette Serie manuell integriert. Bei der Risperidon-Konzentration von 1,0 ng/ml lag der Mittelwert der Präzision bei 5,2% mit einem Bereich von 3,8–6,8%. An der Bestimmungsgrenze (0,1 ng/ml) wurde ein Mittelwert der Präzision von 12,8% mit einem Bereich von 6,9–16,0% gefunden. Ein individueller Einfluss bei
Literatur
Abb. 8.16 API 4000 – Verhältnis Smoothing zu Signal/Noise.
der manuellen Integration ist erwartungsgemäß vorhanden. Bei gut geschulten Mitarbeitern werden die Werte gerade im Bereich der Bestimmungsgrenze aber eher besser als bei automatischer Integration. Manuelle Eingriffe sind allerdings besonders bei automatisierter Probenvorbereitung nicht immer zulässig oder müssen klar erkennbar dokumentiert werden.
Literatur 1 2
3
Willoughby, R., et al., A Global View of LC-MS. Global View Pub., 2002. McMaster, M. C., LC-MS A Practical User’s Guide. Wiley-VCH, Weinheim, 2005. Traldi, P. et al., Quantitative Applications of Mass Spectrometry. Wiley-VCH, Weinheim, 2006.
4 5 6
Kirchherr, H., Kühn-Velten, K. N., J. Chromatogr. B, 843, 100–113, 2006. Boos, K. S. et al., Fresenius J. Anal. Chem., 371, 16–20, 2001. Koal, T. et al., Clin. Chem. Lab. Med., 44(3), 299–305, 2006.
283
285
Teil III Anforderungen an und Umgang mit chromatographischen Daten aus Sicht von Organisationen und Behörden
287
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Herbert Otteneder
9.1 Aufgaben der Behörde
Vorrangiges Ziel der staatlichen Lebensmittelüberwachung ist der Schutz des Verbrauchers vor gesundheitlichen Gefahren und einer Gefährdung seiner Gesundheit. Den klaren Auftrag dazu erteilt das seit September 2005 in Kraft getretene Lebensmittel- und Futtermittelgesetzbuch (LFGB, 2005). Hierin ist an vorderster Stelle, nämlich in § 1 Abs. 1 Ziffer 1 aufgeführt, dass es der Zweck dieses Gesetzes ist, den Schutz der Verbraucherinnen und Verbraucher durch Vorbeugung gegen eine oder Abwehr einer Gefahr für die menschliche Gesundheit sicherzustellen. Dieser abstrakte Grundsatz wird konkret umgesetzt durch eine ganze Reihe von Detailvorschriften, u. a. zu Rückständen und Kontaminanten. Die Tabelle 9.1 gibt einen groben Überblick über die wichtigsten Regelungen, die für diesen Bereich den vorsorglichen gesundheitlichen Verbraucherschutz gewährleisten sollen.
9.2 Problembereiche
Um Diskrepanzen zwischen Laboratorien und ihren Auftraggebern zu vermeiden, sind – bezogen auf die einzelnen in der Tabelle 9.1 aufgeführten Substanzgruppen – Leitlinien auf nationaler als auch auf gemeinschaftlich europäischer Ebene erstellt worden. Sie legen fest, welche qualitativen Anforderungen an die Analytik zu stellen sind und geben vor, wie Ergebnisse in Bezug auf Grenzwerte zu interpretieren sind. Das konkrete Ziel dabei ist, dass die Kontrolllaboratorien der Industrie und der Lebensmittelüberwachung in Bezug auf das In-VerkehrBringen von zum Teil großen Warenpartien zu übereinstimmenden Entscheidungen kommen.
288
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Tabelle 9.1 Nationale Rechtsvorschriften mit Höchstmengen für Rückstände, Schadstoffe und Kontaminanten. Substanzgruppe
Rechtsvorschrift
Substanzen
Pflanzenschutzmittel
RückstandshöchstmengenVO – RHmV i.d.F. der Bek. vom 21. Oktober 1999 (RHmV, 1999)
ca. 238 Pflanzenschutzmittelwirkstoffe (Insektizide, Fungizide, Herbizide)
Schadstoffe
SchadstoffhöchstmengenVO – SHmV vom 18. Juli 2007 (SHmV, 2007)
PCB-28; PCB-52; PCB-101; PCB-180; PCB-138; PCB-153; Hg; Perchlorethylen; Trichlorethylen; Chloroform
Kontaminanten
VO (EG) Nr. 466/2001, Höchstgehalte für Kontaminanten in Lebensmitteln vom 8. März 2001 (EG, 2001)
Nitrat; Mykotoxine (Aflatoxin B1, B2, G1, G2); Ochratoxin A; Patulin; Deoxynivalenol (DON); Zearalenon, Fumonisine; Pb; Cd; Hg; 3-MCPD; Dioxin; Sn; Polycyclische Aromatische Kohlenwasserstoffe
Mykotoxine
MykotoxinhöchstmengenVO – MHmV vom 2. Juni 1999 (MHmV, 1999)
Aflatoxine B1, B2, G1, G2; M1; Ochratoxin A; Patulin; Deoxynivalenol (DON); Zearalenon; Fumonisine; T-2 und HT-2 Toxin
Arzneimittelrückstände
VO (EWG) Nr. 2377/90, Höchstmengen für Tierarzneimittelrückstände (EWG, 1990)
Höchstmengen für ca. 120 Wirkstoffe
So sind im Warenverkehr der Gemeinschaft Fälle aufgetreten, bei denen z. B. eine Warenpartie in Bezug auf die Einhaltung eines Mykotoxin-Grenzwertes als „non compliant“ angesehen wurde, weil der analytisch ermittelte Wert geringfügig höher war als der vorgeschriebene Grenzwert; die Kontrolluntersuchung im Auftrag des Warensenders dagegen bescheinigte unter Berücksichtigung der Messunsicherheit die Ware als „fully compliant“. Ein weiterer Konflikt kann bei einer amtlichen Probenentnahme im innerstaatlichen Verkehr oder durch den Zoll auftreten. Hier hat der Verantwortliche das Recht die zurückgelassene Probe von einem privaten, amtlich zugelassenen Labor gegen untersuchen zu lassen. Arbeiten die Laboratorien nach unterschiedlichen Verfahren, ist der Konflikt vorprogrammiert. Die Vollzugsbehörde wird womöglich unterschiedliche Werte erhalten und damit zunächst nicht über die Verkehrsfähigkeit der Ware entscheiden können. Nach Medienberichten würden ein Drittel der Analysen mit Beanstandungen, vermutlich aus diesem Grund, von den Vollzugsbehörden zurückgewiesen. Die Richtigkeit dieser Aussage unterstellt, kann es dafür folgende Ursachen geben:
9.2 Problembereiche
x Amtliches und privates Labor arbeiten jeweils für sich korrekt, wenden aber zur Bestimmung desselben Analyten, der zur Beanstandung führte, unterschiedliche Verfahren an. Deren unterschiedliche Fehlerbreiten können zu deutlichen Differenzen führen, wobei z. B. verschiedene Ausbeuten bei der Extraktion den größten Einfluss haben. x Die Proben sind nicht exakt identisch. Je nach Homogenität des Materials ist der Analyt ungleichmäßig verteilt, Probe und Gegenprobe enthalten den Analyten in verschiedenen Konzentrationen. Ein Effekt, der besonders bei Mykotoxinen ausgeprägt ist. x Im ungünstigsten Fall haben eines oder beide Labors fehlerhaft gearbeitet. Den Ausschlag wird dann das Ergebnis geben, das mit einer genormten und validierten Methode erstellt wurde, d. h., dessen Leistungskriterien bekannt sind. Damit lassen sich Ergebnisse zurückverfolgen und objektiv Soll- (= Grenzwert) und Ist-Wert miteinander vergleichen. Die amtliche Überwachung hat jedoch nicht nur die Aufgabe durch stichprobenartige Untersuchungen zu prüfen, ob Lebensmittel in Verkehr sind, die nicht den Rechtsvorschriften entsprechen. Wie der Gammelfleischskandal in den Jahren 2005/2006 zeigte, ist es zusätzlich erforderlich, Risikobetriebe regelmäßig zu überprüfen, dort Proben zu ziehen und sich so ein objektives und umfassendes Bild von der Be- und Verarbeitung der Lebensmittel zu verschaffen. Vorraussetzung dafür ist, dass die Überwachungsbehörde unabhängig neutral und erforderlichenfalls gegenüber den Rechtsunterworfenen auch mit Härte vorgeht. Wie die zu Tage getretenen Missstände zeigen, wurden diese einfachen Grundsätze nicht allgemein angewendet. In Bezug auf die chemische Analytik ist es auf europäischer Ebene mittlerweile üblich, dass Laboratorien ihre Datenqualität belegen. Dies geschieht durch Teilnahme an Laborvergleichsuntersuchungen (Proficiency Tests) und darüber hinaus wird die Messunsicherheit (Details, s. Kapitel 4) des angewendeten Verfahrens angegeben. Beides, sowohl das interne Qualitätsmanagement (IQM) als auch die Bestimmung und die Anwendung der Messunsicherheit zur Ergebnisinterpretation, wurde in spezifischen Leitlinien für die Substanzgruppen Pflanzenschutzmittelrückstände, für Schadstoffe, Kontaminanten und Mykotoxine sowie für pharmakologisch wirksame Stoffe in unterschiedlichen, spezifischen Leitlinien festgehalten. 9.2.1 Pflanzenschutzmittelrückstände
Für die Europäische Gemeinschaft beschreibt die Leitlinie vom 05. Februar 2004 (EG, 2006) die analytische Qualitätskontrolle (AQC), die bei der Überprüfung von Höchstmengen (MRL’s) anzuwenden ist. Die Leitlinie weist vorrangig darauf hin, dass in Übereinstimmung mit der Richtlinie 93/99/EWG (EG-RL, 1993) Laboratorien die Anforderungen eines Anerkennungsverfahrens nach der Norm ISO 17 025, Norm für die Akkreditierung als Prüflaboratorium, erfüllen sollen.
289
290
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik
Das Dokument behandelt den gesamtem Ablauf der Rückstandsuntersuchung, beginnend mit der Probennahme, ihre Behandlung und Vorbereitung im Labor, den Umgang mit den Wirkstoffstandards, die Herstellung von Kalibrierlösungen, ihre Lagerung und ihre Überprüfung. Ferner sind grundsätzliche Verhaltensmaßnahmen zur Vermeidung von Verlusten bei der Extraktion und bei der Konzentrierung von Extrakten sowie Vorkehrungen, Kontaminationen im Labor zu verhindern, erläutert. Um den enorm großen Aufwand von Kalibrierungen bei den in der Rückstandsanalytik angewandten Multimethoden in Grenzen zu halten, wird eine Kalibrierung einzelner, repräsentativer Analyten empfohlen sowie die Mindesthäufigkeit der Kalibrierung und der Bestimmung der Wiederfindung genannt. Die Validierung der Methoden erfolgt laborintern, wiederum für eine Auswahl repräsentativer Wirkstoffe und Matrizes. Mindestwerte für die Wiederholbarkeit und die mittlere Wiederfindungsrate werden genannt (Tabelle 9.2). Abweichend davon hat die Arbeitsgruppe „Pestizide“ der Lebensmittelchemischen Gesellschaft 1998 folgende erweiterte Messunsicherheiten (jeweils der zweifache Wert der Vergleichsstandardabweichung) für pflanzliche und tierische Lebensmittel publiziert (Gilsbach, 1998) (Tabelle 9.3). Tabelle 9.2 Kriterien für quantitative Methoden in Rückstandsuntersuchungen nach SANCO/10232/2006 (EG, 2006). Konzentrationsbereich [mg/kg]
Wiederholbarkeit
Mittlere Wiederfindung [%]
RSDA%
RSDL%
0,001–0,01
30
32
70–110
> 0,01–0,1
20
22
70–110
> 0,1–1
15
18
70–110
>1
10
14
70–110
RSDA%: Variationskoeffizient der Untersuchung ohne den Einfluss der Inhomogenität der Probe. RSDL%: Variationskoeffizient der Labors unter Berücksichtigung von 10% Inhomogenität der Probe.
Tabelle 9.3 Erweiterte Messunsicherheiten bei Pflanzenschutzmittelrückständen nach Empfehlung der Arbeitsgruppe „Pestizide“ der Lebensmittelchemischen Gesellschaft. Konzentrationsbereich [mg/kg]
Erweiterte Messunsicherheit [%] Tierische Lebensmittel
1
32
0,1
46
0,01
64
0,01–3
Pflanzliche Lebensmittel
60
9.2 Problembereiche
Dabei wurde bei den tierischen Lebensmitteln die Horwitz-Gleichung angewendet (RSDR = 2 · C–0,1505, s. auch Kapitel 3). Bei den pflanzlichen Lebensmitteln wurden Laborvergleichsuntersuchungen ausgewertet und die dabei erhaltenen Vergleichsstandardabweichungen zur Berechnung der erweiterten Messunsicherheit verwendet. Zur Bestätigung von positiven Werten wird die Kopplung mit der Massenspektrometrie und die Identifizierung einzelner Substanzen mit mindestens drei spezifischen Ionen bei einem Signal/Rausch-Verhältnis von mindestens 3 : 1 gefordert. So sind z. B. für Vinclozolin am MSD-EI(+) die Ionen 212, 198 und 285 (m/z) heranzuziehen. Weitere Diskrepanzen bei der Ergebnisinterpretation können bei der Ergebnisangabe durch eine unterschiedliche Anzahl von Nachkommastellen entstehen. Das Dokument SANCO/10232/2006 (EG, 2006) empfiehlt daher Folgendes (Tabelle 9.4). Unabdingbar für eine einheitliche Ergebnisinterpretation ist die Berücksichtigung der Messunsicherheit. Das SANCO-Dokument fordert bei der Beurteilung, ob ein Höchstwert überschritten wurde oder nicht, dass alle relevanten Daten der analytischen Qualitätskontrolle einbezogen werden, die Ergebnisse aus den Mittelwerten von Wiederholuntersuchungen gebildet werden und die typische Messunsicherheit angegeben wird. Die Daten müssen aus der der Untersuchung zu Grunde liegenden Matrix/Stoffkombination abgeleitet sein. Dazu sind im Einzelnen erforderlich: 1. In-house-Qualitätskontrolle (= IQC: Internal Quality Control). 2. Laborvergleichsuntersuchung (LVU = Proficiency Test mit dem angewandten Verfahren). 3. Teilnahme an einer Validierungsstudie (Method Performance Study) und zufriedenstellende Ergebnisse. Tabelle 9.4a Zahl der signifikanten Stellen bei der Angabe von Ergebnissen nach SANCO/10232/2006. Ergebnis [mg/kg]
Rundung auf signifikante Stellen
Beispiel [mg/kg]
< 0,01 t 10
2 3
0,08 11,3 oder 11
Tabelle 9.4b Zahl der signifikanten Stellen bei der Angabe von Grenzwerten nach SANCO/10232/2006. Grenzwert [mg/kg]
Rundung auf signifikante Stellen
Beispiel [mg/kg]
< 10 t 10
1 2
2 15
291
292
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik
Abb. 9.1 Beispiel für eine Qualitätsregelkarte bei der Überprüfung der Bestimmung von Aflatoxinen.
9.2.1.1
In-house-Qualitätskontrolle (= IQC: Internal Quality Control)
Die Bestimmung der Messunsicherheit stützt sich immer auf zurückliegende Untersuchungsserien. Sie stellt ein Prognoseintervall dar, das angibt, innerhalb welcher Spanne der wahre Wert bei gegebener Wahrscheinlichkeit erwartet werden kann. Dies bedeutet, dass der Wert für die Messunsicherheit nicht unbedingt und in jedem Fall auf eine aktuelle Untersuchung übertragen werden kann. Im konkreten Fall wird im Rahmen der IQC fortlaufend zertifiziertes Prüfmaterial untersucht und die Ergebnisse statistisch ausgewertet, d. h., man prüft, ob die erhaltenen Sollwerte innerhalb der speziellen Wiederholbarkeit des jeweiligen Labors liegen. Ein geeignetes Mittel, dies darzustellen, ist die Qualitätsregelkarte. Die Abb. 9.1 zeigt ein solches Beispiel, das erkennen lässt, dass die über einen bestimmten Zeitraum erstellten Werte am gleichen Prüfmaterial keinen Ausreißerwert aufweisen. Deutlich wird in diesem speziellen Fall aber auch eine leicht steigende Tendenz der Ergebnisse. Dies wiederum belegt, dass sich die Ausbeute der Extraktion im Laufe der Zeit mit zunehmender Routine verbessert. 9.2.1.2
Laborvergleichsuntersuchung (LVU), Proficiency Test
Bei der LVU wird Untersuchungsmaterial an verschiedene Labors versandt. Das Untersuchungsverfahren ist freigestellt. Hinweise zur Bewertung der Ergebnisse der LVU für die einzelnen Labors liefert der sog. Z-Score, der wie folgt berechnet wird: Z = (y − m0 )/ s A mit: y = Mittelwert der Ergebnisse eines Labors m0 = Mittelwert der Ergebnisse aller Labors sA = Zielstandardabweichung1) oder Standardabweichung der Ergebnisse aller Labors 1) Standardabweichung aus der Validierungsstudie (Method Performance Study) oder berechnet nach Horwitz, 1995.
9.2 Problembereiche
Die Analytik gilt den Anforderungen entsprechend, wenn der Z-Score den Wert von zwei nicht überschreitet, d. h., wenn (y − m0 ) nicht größer als 2 · sA ist. 9.2.1.3
Validierungsstudie (Method Performance Study)
Die Grundlage für die Ermittlung der Messunsicherheit legt die sog. Validierungsstudie. Bei ihr wird, anders als bei der LVU, einheitliches Untersuchungsmaterial von allen teilnehmenden Labors mit einer identischen Methode untersucht. Nach Auswertung der Ergebnisse, z. B. nach DIN/ISO 5725-2 (ISO, 2000), erhält man die Verfahrenskennzahlen Wiederholbarkeit (r) und Vergleichbarkeit (R). Die Teilnahme an einer Validierungsstudie kann mittelbar als Instrument der internen Qualitätskontrolle angesehen werden, denn hierfür werden Erfahrung und gute Laborroutine als unabdingbar vorausgesetzt. Die laborinterne Streuung einer Methode auf Übereinstimmung mit der in der Validierungsstudie ermittelten zu überprüfen, stellt eine konkrete Maßnahme im Rahmen der IQC dar. Dazu kann z. B. aus Paralleluntersuchungen mit einer bestimmten Methode die aktuelle Wiederholbarkeit in Form ihrer Standardabweichung ermittelt werden. Mit Hilfe des Varianzen-Tests (F-Test) lässt sich prüfen, ob ein Unterschied gegenüber der Wiederholbarkeit aus der Validierungsstudie besteht. Dabei gilt die folgende Bedingung: sL ≤ sR mit: sL = Standardabweichung unter Wiederholbedingungen im Labor sR = Wiederholstandardabweichung des Verfahrens Beispiel: Bestimmung von Ochratoxin A in Weißwein
Verfahrenskennzahlen: Wiederholbarkeit (r): 0,028 μg/l (für c = 0,1 μg OTA/l) Vergleichbarkeit (R): 0,056 mg/l Wiederholstandardabweichung: sR = 0,0099 μg/l sR =
r 2,83
In-house-Validierung: Wiederholstandardabweichung: sL = 0,0136 μg/l Anzahl der Wiederholungen: n=6 F-Test (Varianzen-Test): sL2 ; F = 1,90 sR2
Prüfgröße:
F =
Tabellenwert (Sachs, 1992):
Fˆ (P = 0,05; f 1 = ∞; f 2 = n − 1) = 2,09 (für n1 = 6 und n2 = f)
293
294
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik
In vorliegendem Fall ist F < Fˆ . Damit entspricht die laboreigene Streuung der Methode dem Wert der Validierung. Das Beispiel zeigt, dass der reine Zahlenvergleich von sL und sR nicht genügt, um darüber zu befinden, ob die laboreigene Streuung den Kriterien der Validierung entspricht. 9.2.2 Schadstoffe, Kontaminanten und Mykotoxine
In Bezug auf Schadstoffe, Kontaminanten und Mykotoxine gibt es seitens der Europäischen Kommission das Dokument Nr. SANCO/0064/2003-rev.4 des Ständigen Lebensmittelausschusses (EG, 2003), welches in gleicher Weise wie die EU-Leitlinie für die Qualitätskontrolle bei der Pflanzenschutzmittelrückstandsanalyse sicherstellen soll, dass Ergebnisse und Ergebnisinterpretationen in Bezug auf Grenzwertüberschreitungen in der Europäischen Gemeinschaft einheitlich gehandhabt werden. Als Ursache für unterschiedliche Ergebnisinterpretationen werden auch hier, wie bei den Pflanzenschutzmitteln, die folgenden Gründe angesehen: x Zahl signifikanter Stellen bei der Ergebnisangabe und dem Vergleich mit Grenzwerten; x Behandlung der Messunsicherheit beim Vergleich von Ergebnissen und Grenzwerten oder Spezifikationen. Hinzu kommt noch: x Anwendung einer Wiederfindungskorrektur. Zur Zahl der signifikanten Stellen wird einerseits in der Leitlinie gefordert, dass der nationale und der EU-Verordnungsgeber präzise Angaben machen, d. h., im Verordnungstext genau angibt, auf wie viele Stellen genau ein Grenzwert eingehalten werden muss. Im Allgemeinen gilt jedoch, dass das Ergebnis mit einer signifikanten Stelle mehr anzugeben ist, als die Spezifikation (z. B. ein Grenzwert) nennt. Analytische Werte sind grundsätzlich in der Form a ±2⋅u oder a ±U anzugeben, wobei a die bestmögliche Schätzung des wahren Wertes der Konzentration des Analyten ist. u ist die sog. Standardunsicherheit (d. h. eine Standardabweichung aus Mehrfachuntersuchungen) und U (= 2 · u) die erweiterte Messunsicherheit. Bei der Entscheidung, ob ein Grenzwert überschritten ist, ist nach dem Grundsatz „jenseits eines vernünftigen Zweifels“ zu verfahren, d. h., von einer Überschreitung des Grenzwertes ist dann auszugehen, wenn a − U > Grenzwert ist (s. Abb. 9.2).
9.2 Problembereiche
In Bezug auf Wiederfindungskorrekturen ist die Situation uneinheitlich. Während für Pestizide entsprechend dem Dokument Nr. SANCO/10232/2006 (EG, 2006) die Berücksichtigung der Wiederfindung im Allgemeinen nicht empfohlen wird, verlangt der Ständige Ausschuss für Lebensmittel und Futtermittel insbesondere bei Mykotoxinergebnissen deren fortlaufende Bestimmung. Weiterhin ist anzugeben, ob eine Wiederfindungskorrektur erfolgt ist. Das Dokument Nr. SANCO/0064/2003 (EG, 2003) verlangt außerdem, dass Rechtsvorschriften die Wiederfindungskorrektur bei der Ergebnisangabe für Schadstoffe, Kontaminanten und Mykotoxine verbindlich verlangen sollen. Dies ist (bedauerlicherweise) mittlerweile auch in einer Reihe von EU-Rechtsakten umgesetzt worden (s. Tabelle 9.8). 9.2.3 Pharmakologisch wirksame Stoffe
Obwohl im Bereich der pharmakologisch wirksamen Stoffe die gleichen Erfordernisse in Bezug auf die Datenqualität und die Dateninterpretation bestehen und damit auf ihre Vergleichbarkeit, sind dort die Anforderungen an die Analytik formal anders geregelt. Dies hat u. a. damit zu tun, dass speziell auf diesem, für den Verbraucherschutz besonders sensiblen Gebiet, schon sehr früh systematische Monitoring-Untersuchungen im Rahmen des Rückstandskontrollplans und Grenzkontrollen durchgeführt werden mussten und dementsprechend zu erkennen war, dass ein einheitlicher Vollzug nur dann entsteht, wenn auch die entsprechenden Vorgaben an das interne Laborqualitätsmanagement und eine einheitliche Leitlinie für die laborinterne Methodenvalidierung existieren. Die Entscheidung der Kommission vom 12. August 2002 (EG, 2002) legt Regeln für Analysenmethoden fest, die bei der Analyse von amtlichen Proben auf pharmakologisch wirksame Stoffe angewendet werden sollen. Sie beinhalten: x Dokumentation der Analysenmethoden, x Validierung nach festgelegten Verfahren, x Erfüllung von Mindestleistungsgrenzen. Auch hier ist wiederum die Analytik Mittel zum Zweck, nämlich die Grenzwerte, die in der Verordnung (EWG) Nr. 2377/90 (EWG, 1990) enthalten sind, zu überprüfen. Hierin sind für pharmakologisch wirksame Stoffe in tierischen Lebensmitteln Höchstmengen und vorläufige Höchstmengen festgesetzt. Außerdem enthält die Verordnung eine Liste von Tierarzneimitteln, für die keine Höchstmengen gelten, d. h. solche Substanzen, die nicht angewendet werden dürfen und damit auch nicht nachweisbar sein dürfen, da sie in jeder Konzentration eine Gefährdung für die menschliche Gesundheit darstellen. Auch die Art der Überwachung innerhalb der Gemeinschaft ist durch die Richtlinie 96/23/EWG detailliert vorgegeben durch konkrete Festlegungen über die Art und die Häufigkeit von Untersuchungen (EG-RL, 1996). Die o. g. Entscheidung der Kommission vom August 2002 legt für angewendete Analysenmethoden u. a. Folgendes fest (Tabellen 9.5 und 9.6):
295
296
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Tabelle 9.5 Mindestwerte der Richtigkeit von quantitativen Methoden (nach Entscheidung der Kommission 2002/657/EG). Konzentration
Bereich
d 1 μg/kg
–50% bis +20%
> 1 μg/kg bis 10 μg/kg
–30% bis +10%
t 10 μg/kg
–20% bis +10%
Tabelle 9.6 Beispiele für Variationskoeffizienten unter Reproduzierbarkeitsbedingungen für quantitative Methoden (siehe Entscheidung der Kommission vom 12. August 2002/657/EWG). Konzentration
Reproduzierbarkeit – VK [%]
1 μg/kg
(*)
10 μg/kg
(*)
100 μg/kg
23
1000 μg/kg
16
(*) Für Konzentrationen von weniger als 100 μg/kg liefert die Horwitz-Gleichung inakzeptabel hohe Werte (VK(1 μg/kg) = ± 45% bzw. VK(10 μg/kg) = ± 32%). Die Variationskoeffizienten (VKs) für Konzentrationen unter 100 μg/kg müssen kleiner sein.
In der Praxis der Untersuchung auf Rückstände an pharmakologisch wirksamen Stoffen werden dazu mittels In-house-Validierung die VKs für das jeweilige Verfahren experimentell ermittelt (s. Gowik, 1998), wobei in der Regel niedrigere Werte (für c < 100 mg/kg) erreicht werden können. Da es, wie oben erwähnt, in der VO (EWG) Nr. 2377/90 (EWG, 1990) auch ein striktes Verbot für bestimmte Stoffe gibt, muss der abstrakte Begriff „nicht vorhanden“ konkret in einen Zahlenwert nach analytisch-chemischen Maßstäben umgesetzt werden. Dazu definiert die Entscheidung 2002/657/EG (EG, 2002) die sog. Entscheidungsgrenze (CCD), über die mit einer Fehlerwahrscheinlichkeit von D bestimmt werden kann, dass eine Probe positiv ist. Hierdurch kann eine einheitliche Ergebnisinterpretation sichergestellt werden. Die Entscheidungsgrenze ist die kritische Signalhöhe, ab der der Analyt als nachgewiesen gilt. Sie ergibt sich aus dem Blindwert (Schnittpunkt der Eichkurve mit der y-Achse) plus dem 2,33-fachen der Standardabweichung des Blindwertes. Die Irrtumswahrscheinlichkeit D beträgt 0,01. Addiert man zur Entscheidungsgrenze das 1,64-fache der laborinternen Standardabweichung, erhält man das Nachweisvermögen (CCE). Das Nachweisvermögen ist die Konzentration, bei der die Methode mit einer statistischen Sicherheit von 1–E (hier 95%) Stoffe quantitativ nachweisen kann.
9.3 Definition und Bestimmung der Messunsicherheit
9.3 Definition und Bestimmung der Messunsicherheit
Die Messunsicherheit wurde durch die internationale Organisation für Standardisierung 1993 abstrakt definiert (ISO, 1993). „Uncertainty (of measurement) parameter, associated with the result of a measurement that characterizes the dispersion of the values that could reasonably be attributed to the measurement“.
„Parameter“ = Standardabweichung (s) oder ein gegebenes Mehrfaches davon, z. B. ein Vertrauensbereich. Die Unsicherheit umfasst viele Komponenten. Das Ergebnis einer Messung ist die bestmögliche Schätzung des Wertes der Messgröße und alle Komponenten der Unsicherheit, auch solche aus systematischen Einflüssen, wie Korrekturkomponenten, Referenzstandards, tragen zur Streuung bei. Die Messunsicherheit wird durch eine Standardabweichung oder deren Vielfaches beschrieben (s. auch Kapitel 4). Diese Definition schafft nichts fachlich Neues, sondern verwendet übliche Begriffe der klassischen Fehlerrechnung, wie z. B. den Vertrauensbereich. 9.3.1 Analyse der Einzelkomponenten, „bottom-up“-Prinzip
Kompliziert wird die Bestimmung der Messunsicherheit dadurch, dass ein Labor alle Einflüsse, die bei einem Verfahren zur Messwertstreuung führen können, zunächst durch eine Standardabweichung ausdrücken muss. Der Gesamtfehler wird dann mit Hilfe des Fehlerfortpflanzungsgesetzes zu einer kombinierten Messunsicherheit zusammengefasst. Diese Vorgehensweise bezeichnet man als das sog. „bottom-up“-Prinzip. x Kombinierte Messunsicherheit (combined uncertainty) (uc) Für den Fall, dass die Messgröße y aus Summe oder Differenzen der Einzelkomponenten errechnet wird, ergibt sich für uc: u c (y( p , q , …) ) =
u(2p ) + u(2q ) + …
mit: y(p, q, …) = Messwert für die Parameter p, q, … u(p, q, …) = Messunsicherheit für die Parameter p, q, … Für den Fall, dass die Messgröße y durch Multiplikation oder Division der Einzelkomponenten errechnet wird, werden die Varianzen der relativen Unsicherheiten 2 ⎛ u( p ) ⎞ ⎜⎝ p ⎟⎠ addiert.
297
298
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik
x Erweiterte Messunsicherheit (expanded uncertainty) Aus der kombinierten Messunsicherheit ergibt sich die erweiterte Messunsicherheit (expanded uncertainty) nach: U = k ⋅ Uc mit: k = Erweiterungsfaktor 2 oder 3 Der Erweiterungsfaktor 2 entspricht dem gerundeten Studentfaktor für den Vertrauensbereich 95%. 9.3.2 Berechnung aus der Vergleichsstandardabweichung, „top down“-Prinzip
In der Lebensmittelanalytik werden sehr häufig validierte Verfahren verwendet, d. h. Verfahren, deren Leistungskriterien, wie die Wiederholbarkeit (r), die Vergleichbarkeit (R) und die Wiederfindung sowie weitere Kennzahlen, in einer laborübergreifenden Studie ermittelt worden sind. Man kann hier davon ausgehen, dass die wesentlichen Einflüsse auf die Messwertstreuung bei einer Validierungsstudie erfasst werden. Schließlich führen alle beteiligten Labors ein vorher festgelegtes Verfahren in allen Einzelheiten von der Probeneinwaage bis zur chromatographischen Endbestimmung mehrfach durch. Es ist daher richtig, die Vergleichsstandardabweichung (sR) der kombinierten Messunsicherheit (U) gleichzusetzen (s. EURACHEM, 2004) und daraus die erweiterte Messunsicherheit zu berechnen, die in gleicher Weise wie bei dem vorgenannten „bottom-up“Prinzip den Vertrauensbereich ergibt, innerhalb dessen der wahre Wert mit 95% Wahrscheinlichkeit liegt. Bestimmung der Wiederholstandardabweichung sr und der Vergleichstandardabweichung sR: U = k ⋅ sR (k = 2; P = 95%) 9.3.3 Berechnung mit der Horwitz-Gleichung
Eine weitere Möglichkeit, die Messunsicherheit zu bestimmen, liefert die HorwitzFormel. In ihr wurde die Erfahrung aus zahlreichen Ringversuchen, wonach die Messunsicherheit von der Konzentration des Analyten abhängt, in eine empirische Formel gegossen. RSDR = 2 (1 − 0,5 log c ) (%) Die Konzentration c des Analyten wird in die Formel als dimensionsloses Massenverhältnis eingesetzt (z. B. 1 mg/kg = 10–6).
9.3 Definition und Bestimmung der Messunsicherheit
9.3.4 Der „Tauglichkeits“-Ansatz
Nach der Verordnung (EG) Nr. 333/2007 (EG 2007) kann, sofern nur eine begrenzte Zahl vollständig validierter Analysemethoden vorliegt, der sog. „Tauglichkeits“Ansatz zur Beurteilung der Eignung von Analysemethoden herangezogen werden. Für die amtliche Kontrolle taugliche Methoden müssen Ergebnisse bringen, bei denen die Standardmessunsicherheit unter der mit Hilfe der nachstehenden Formel berechneten maximalen Standardmessunsicherheit liegt: Uf =
(LOD /2)2 + ( D C )2
Dabei ist: Uf die maximale Standardunsicherheit (μg/kg) LOD die Nachweisgrenze der Methode (μg/kg) C die jeweilige Konzentration (μg/kg) ² ein konstanter numerischer Faktor, der in Abhängigkeit vom Wert für C zu verwenden ist (siehe Tabelle 8 in Literatur EG 2007) 9.3.5 Ergebnis-Interpretation mit Hilfe der Messunsicherheit
Nach der Empfehlung des Ständigen Ausschusses der EU, SANCO/0064/2003rev4 (EG, 2003), sind Messergebnisse in der Form m = a ±U mit: a = Messwert und U = erweiterte Messunsicherheit, anzugeben. Bei der Interpretation eines Ergebnisses in Bezug auf den Grenzwert ist die Messunsicherheit wie folgt zu berücksichtigen (Abb. 9.2): Im Fall 03 ist die Forderung des Ständigen Ausschusses der Gemeinschaft (siehe SANCO/0064/2003-rev 4 (EG, 2003)) erfüllt, wonach der Grenzwert im Falle einer Beanstandung jenseits vernünftigen Zweifels überschritten sein muss. Eine weitere Möglichkeit einen Messwert in Bezug auf einen Grenzwert zu beurteilen, besteht in der Berechnung der kritischen Differenz (CrD95) nach: C rD95 ≤ y − m 0 =
0,84 2
⎛n − 1⎞ R2 − r 2 ⎜ ⎝ n ⎟⎠
mit: y = Mittelwert der Messungen, m0 = Sollwert (z. B. Höchstmenge), R = Vergleichbarkeit, r = Wiederholbarkeit, n = Anzahl der Messungen. Voraussetzung für die Anwendung der kritischen Differenz ist, dass das jeweilige Labor mit dem gleichen Qualitätslevel arbeitet wie die am Ringversuch zur
299
300
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik
Abb. 9.2 Anwendung der Messunsicherheit U und der kritischen Differenz bei der Ergebnisinterpretation.
Methodenvalidierung beteiligten Laboratorien. Nähere Einzelheiten dazu finden sich bei (Fauhl, 2006).
9.4 Nachweis-, Erfassungs- und Bestimmungsgrenze
Im Bereich des vorsorglichen gesundheitlichen Verbraucherschutzes wird z. B. verlangt, dass ein Stoff nicht nachweisbar sein darf. Wenn sich seine Anwesenheit nicht grundsätzlich vermeiden lässt, kann aber auch ein bestimmter niedriger Grenzwert, der aus gesundheitlicher Sicht unbedenklich ist und nicht überschritten werden darf, festgesetzt werden. Bei den zu ihrem Nachweis und ihrer quantitativen Bestimmung eingesetzten Verfahren muss daher bekannt sein, ob und ab welcher Konzentration sie in der Lage sind diese Stoffe nachzuweisen. Auch bei der Auswertung von Monitoring-Untersuchungen, d. h. Erhebungen, die die Belastungssituation eines Lebensmittels mit einer Kontaminante oder einem Rückstand beschreiben, ist es nötig, die Leistungsgrenzen des angewendeten Untersuchungsverfahrens zu kennen. So werden z. B. bei der Berechnung der mittleren Belastung mit einem Schadstoff, um ein realistisches Bild zu erhalten, Gehalte unter der Nachweisgrenze nicht mit null, sondern üblicherweise mit der halben Nachweisgrenze angesetzt. Gelegentlich hat das Auftreten eines Stoffes eine Indikatorfunktion. Zum Beispiel belegen die Anwesenheit von 3-MPD (3-Methoxypropandiol) oder cyclischen Diglycerinen, als Nebenprodukte der technischen Glycerinherstellung, in Wein einen unerlaubten Glycerinzusatz.
9.4 Nachweis-, Erfassungs- und Bestimmungsgrenze
Abb. 9.3 Darstellung der Nachweis-, Erfassungs- und Bestimmungsgrenze nach mit dem Eichkurvenverfahren nach DIN 32 645.
Um zu einer einheitlichen Ergebnis-Interpretation zu kommen, ist es daher unumgänglich, das Leistungsvermögen von Analysenmethoden objektiv zu definieren (s. auch Kapitel 1). x Nachweisgrenze: Entscheidungsgrenze für das Vorhandensein eines Analyten (ja/nein). Besitzt eine Probe genau den Gehalt der NWG, so würde der Analyt in 50% der Messungen nicht nachgewiesen werden, obwohl er in der Analysenprobe vorhanden ist („falsch negativ“). x Erfassungsgrenze: kleinste Konzentration eines Analyten, die mit hoher Wahrscheinlichkeit nachgewiesen werden kann (z. B. 95%). Die Erfassungsgrenze beträgt i. d. R. das Doppelte der Nachweisgrenze. x Bestimmungsgrenze: kleinste Konzentration eines Analyten, die quantitativ mit einer festgelegten Präzision bestimmt werden kann. Erst oberhalb der Bestimmungsgrenze werden quantitative Analysenergebnisse angegeben. Die Bestimmungsgrenze entspricht grob genähert der dreifachen Nachweisgrenze. Über das sog. Eichkurvenverfahren nach DIN 32 645 (DIN, 1994) können z. B. die o. g. Leistungsparameter bestimmt werden. Es geht davon aus, dass der Rückstandsanalytiker die Peaks in einem GC- oder HPLC-Chromatogramm kennt, die bei der Untersuchung rückstandsfreien Materials im Retentionszeitfenster des Analyten auftreten. Der Analytiker schätzt dann ab, wie groß ein Signal an dieser
301
302
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik
Stelle mindestens sein muss, ab dem er vom Nachweis des speziellen Analyten ausgehen kann. Nach dem Schema der DIN 32 645 wird eine gesonderte Kalibriergerade mit steigenden Konzentrationen des Analyten (10 Punkte, äquidistant), die einem wirkstofffreien Probenextrakt zugesetzt wurden, erstellt. Die Konzentrationen müssen im Bereich der Mindestleistungsgrenze des Verfahrens liegen. Der Schnittpunkt der Kalibriergeraden mit der y-Achse ergibt den sog. „Blindwert“ A (s. Abb. 9.3). Nach DIN 32 645 erhält man die Nachweisgrenze (NWG), indem der Schnittpunkt der oberen Grenze des 95-%-Prognosebereichs der Eichkurve mit der y-Achse ermittelt wird. Dieser Punkt B entspricht dem größtmöglichen Signal (Peakfläche oder Peakhöhe), das bei der Analyse von rückstandsfreiem Material erhalten werden kann. Durch Spiegelung dieses Punktes an der Kalibiergeraden auf die y-Achse wird so die Nachweisgrenze (NWG) erhalten. Die Erfassungsgrenze (EG), als kleinste Konzentration, die mit z. B. 95% Wahrscheinlichkeit ermittelt werden kann, erhält man durch Verlängerung des Lots auf die NWG bis zur oberen Grenze des 95-%-Vertrauensbandes zum Punkt Cc. Man erhält dann in C den maximalen Messwert, der mit 95% Wahrscheinlichkeit erhalten wird. Durch Spiegelung von C an der Eichkurve erhält man die Erfassungsgrenze. Für die Grenzwertüberwachung ist zusätzlich die Bestimmungsgrenze (BG) für die Messwertbeurteilung wichtig. Bei einer Rückstandskonzentration in der Nähe der Nachweisgrenze ist die Streuung der Messsignale des Analyten naturgemäß groß, weil sich der Einfluss der Begleitstoffe stark bemerkbar macht. Daher geht es bei der Bestimmungsgrenze darum, eine Konzentration zu definieren, deren Signalgröße (Peakfläche oder Peakhöhe) nur noch unwesentlich von derjenigen durch die Begleitstoffe beeinflusst wird. Die Bestimmungsgrenze soll daher die niedrigste Rückstandskonzentration sein, die nur noch Signale liefert, die deutlich größer sind als die Messsignale, welche der Analyt in Konzentrationen im Bereich der Nachweisgrenze liefern kann. Nach DIN 32 647 kann diese Konzentration ebenfalls nach dem Eichkurvenverfahren ermittelt werden. Man geht in diesem Fall vom größten Signal der Bestimmungsgrenze aus, das man durch Verlängerung des Lots auf die Erfassungsgrenze bis zum Schnittpunkt mit der oberen Grenze des 95%-Prognoseintervalls (Dc) und dessen Projektion auf die y-Achse (D) erhält. Dieser Wert, der an der Eichgrade auf die x-Achse gespiegelt wird, ergibt die Bestimmungsgrenze (BG). NWG, EG und BG, die mit reinen Standardlösungen ermittelt wurden, haben nur eine geringe Aussagekraft. Sie können von der Matrix abhängen und müssen ggf. getrennt für unterschiedliche Probenarten ermittelt werden. In der Chromatographie sind aber auch einfache Schätzungen aus dem Rauschen der Basislinie gebräuchlich: x Nachweisgrenze:
3-faches Rauschen (Mittelwert + 3 · Standardabweichung) der Basislinie,
x Bestimmungsgrenze: 10-faches Rauschen (Mittelwert + 10 · Standardabweichung) der Basislinie.
9.5 Das Problem der Wiederfindung
Der Nachteil dieses Verfahrens ist, dass der Einfluss der Matrix unberücksichtigt bleibt. Angabe von Analysenergebnissen nach DIN 32 645: x < NG: nicht nachgewiesen (mit NG), Höchstgehalt EG, NG d x < BG: nachgewiesen, nicht bestimmbar (mit BG), x t BG: Gehalt mit Konfidenzintervall bzw. Messunsicherheit.
9.5 Das Problem der Wiederfindung
Die Wiederfindung ergibt sich als Quotient eines beobachteten Wertes und eines zertifizierten Wertes, die jeweils an zertifiziertem Referenzmaterial erstellt worden sind. Letzterer kann auch der Wert aus einem Zusatzversuch sein. Im Idealfall liegt die Wiederfindung (WF) bei eins. WF =
c obs c ref
mit: cobs = beobachtete Konzentration und cref = zertifizierter Wert aus Referenzmaterial (CRM) oder Ergebnis mit alternativer Methode oder Ergebnis aus Zusatzversuch. Bevor eine Korrektur über einen Wiederfindungsfaktor erfolgt, muss geprüft werden, ob die Wiederfindung signifikant von eins abweicht. Dies gelingt mit dem t-Test. Bei Überschreitung des kritischen t-Wertes kann die Null-Hypothese, d. h., es besteht kein Unterschied zwischen der Wiederfindung und dem Idealwert eins, abgelehnt werden. In diesem Fall kann man von einer signifikanten Abweichung vom Idealwert der Wiederfindung ausgehen. Bestimmung der Standardabweichung der Wiederfindung (srec), z. B. durch Zusatzversuche (spiking) an verschiedenen Matrizes: Signifikanztest:
WF – 1 = 0
mittels „t-Test“:
t =
1 − WF sRec
WF − 1 = 0 mit: tkrit = kritischer Wert der t-Verteilung für f = n – 1 und P = 95% (zweiseitig) t > tkrit; WF signifikant von 1 verschieden. Korrektur des Messwertes mit k = 1/WF.
303
304
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik
Die kombinierte Messunsicherheit uc beträgt dann: 2
uc =
⎛ u( p ) ⎞ ⎛ uRec ⎞ ⎜⎝ p ⎟⎠ + ⎜⎝ Rec ⎟⎠
2
Wird der ermittelte analytische Wert um die Wiederfindung korrigiert, ist der Fehler der Wiederfindung in die kombinierte Messunsicherheit einzubeziehen. Möglichkeiten zur Bestimmung der Wiederfindung: x Wiederholte Untersuchung von zertifiziertem Referenzmaterial (CRM). Das Referenzmaterial sollte für das Testmaterial annähernd repräsentativ sein. x Zusatz eines „Surrogates“ des Analyten zum Testmaterial, z. B. in Form des isotopenmarkierten Analyten. x Zusatzversuch (spiking) – zu Testmaterial unbelastet, – zu Testmaterial belastet. x Interner Standard. Der interne Standard sollte möglichst ähnliche Eigenschaften besitzen wie der Analyt. Zu den bekannten Fehlerquellen bei der Bestimmung der Wiederfindung zählen folgende: x Wiederholbarkeit der Wiederfindungsversuche – die Ergebnisse von Wiederfindungsversuchen streuen. x Unsicherheit des Referenzwertes Auch der Referenzwert ist keine Naturkonstante, sondern er muss analytisch bestimmt werden mit der Folge von Messwertstreuungen. x Unsicherheit des Zusatzes beim „Spiking“ Auch Zusätze zum Testmaterial unterliegen einer zufallsbedingten Streuung. x Wiederfindungsversuche sind matrix-abhängig und deren Ergebnis nicht auf unterschiedliche Testmaterialien übertragbar (matrix mismatch). x Der Zusatz und der sog. „gewachsene“ Analyt verhalten sich häufig unterschiedlich. In diesen Fällen wird die Wiederfindung mehr oder weniger stark überschätzt. x Die Wiederfindung kann konzentrationsabhängig sein. Hervorzuheben ist, dass die Unsicherheit von Wiederfindungsversuchen sehr hoch sein kann und damit die kombinierte Unsicherheit des unkorrigierten Wertes überproportional erhöht. Dies kann beim Auftraggeber und auch in der Öffentlichkeit zu Zweifeln an der Wirksamkeit von Überwachungsmaßnahmen führen. Bei Untersuchungen auf Pflanzenschutzmittelrückstände sagt das Dokument SANCO/10232/2006 (EG, 2006) unzweideutig, dass Daten aus der Untersuchung von Pflanzenschutzmittelrückständen nicht durch Wiederfindungsfaktoren korrigiert werden sollten. Wird dies doch für erforderlich gehalten, muss im Zusammenhang mit der Ergebnismitteilung darauf hingewiesen werden.
9.5 Das Problem der Wiederfindung
Gänzlich anders ist die Situation bei Mykotoxinen, toxischen Spurenelementen und 3-MCPD. Hier legen EU-Richtlinien, ein EU-Richtlinienentwurf und Empfehlungen des Ständigen Ausschusses die Wiederfindungskorrektur der analytisch ermittelten Werte verbindlich fest. Der Arbeitskreis Lebensmittelchemischer Sachverständiger der Länder und des Bundesamtes für Verbraucherschutz und Lebensmittelsicherheit (ALS) hat sich unbeschadet der Festlegungen in den o. g. Rechtsvorschriften zur Wiederfindungskorrektur wie folgt geäußert: „Wenn bei einer Analyse der Gehalt eines Analyten nicht exakt zu ermitteln ist, d. h., die Wiederfindungsrate von 100% abweicht, kann dies an zufälligen oder an systematischen Fehlern liegen. Ausschließlich dann, wenn systematische Fehler vorliegen, z. B. bei Extraktionen oder Derivatisierungen, darf eine Berücksichtigung der Wiederfindung bei der Ergebnisangabe in Betracht gezogen werden. Im Bereich der Elementuntersuchungen werden Verluste z. B. durch Verflüchtigung oder Absorption verursacht. Die Gründe dafür sind zufälliger Art und vielfältiger Natur. Nur durch Optimierung der Verfahren und geeignete Vorgaben innerhalb des Analysenprozesses können zu niedrige und zu hohe Werte vermieden werden. Die Anwendung eines konstanten Wiederfindungsfaktors ist daher aus analytischer Sicht nicht zu begründen und wissenschaftlich falsch. Werden bei organischen Rückständen genormte und über Ringversuche validierte Methoden angewendet, sind ihre Leistungskriterien bekannt. Diese Daten werden im Rahmen der IQC in den Laboratorien laufend überprüft. Unter diesen Bedingungen erstellte Einzelergebnisse können grundsätzlich als vergleichbar betrachtet werden. Eine Korrektur von Messwerten durch die Wiederfindungsrate führt in diesen Fällen nicht zwangsläufig zu einer besseren Vergleichbarkeit der Messergebnisse verschiedener Laboratorien. Tabelle 9.7 Pro und Kontra einer Wiederfindungskorrektur. Pro
Kontra
x Ermittlung des wahren Wertes des nativen Analyten und seiner Unsicherheit grundsätzlich erwünscht.
x WF wird zu hoch ermittelt („gewachsener“ Analyt verhält sich anders als Zusatz).
x Bei niedriger WF, Annäherung an den wahren Wert, bessere Vergleichbarkeit und gegenseitige Anerkennung. x Methoden zur Bestimmung der WF sind in bewährte Analysenverfahren integriert. x Die Unsicherheit uRec der WF wird in uc mit berücksichtigt.
x WF nicht auf verschiedene Matrizes übertragbar. x uRec hoch gegenüber u des unkorrigierten Wertes. Folge: uc wird groß; Außenstehende bezweifeln die Wirksamkeit von Überwachungsmaßnahmen. x uc kann auch bei WF § 1 stark erhöht werden. x Höchstmengenregelungen sind von MonitoringUntersuchungen ohne Korrektur abgeleitet. Verluste durch die WF sind damit bereits erfasst. x Es gibt noch kein international vereinheitlichtes Verfahren zur Bestimmung der WF.
305
306
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik
Werden nicht genormte Methoden angewandt, weisen Messergebnisse verschiedener Laboratorien in der Regel eine geringere Vergleichbarkeit auf. Eine Wiederfindungskorrektur durch Externe, d. h. unabhängig von der jeweiligen Probe ermittelte Korrekturfaktoren durch Zusatzversuche oder Untersuchung von Referenzmaterial, wird hier als sinnvoll angesehen.“ (ALS 2006). Tabelle 9.8 Rechtsvorschriften, die die Wiederfindungskorrektur vorschreiben. Stoff/Stoffgruppe
EG-Dokument
Aflatoxine
RL 2003/121/EG (EG-RL, 2003a)
Pb, Cd, Hg, 3-MCPD, Benzo(a)pyren, Zinn
Verordnung (EG) Nr. 333/2007 (EG 2007)
Ochratoxin A
RL 2004/43/EG (EG-RL, 2004 a)
Patulin
RL 2003/78/EG (EG-RL, 2003 b)
Zinn
RL 2004/16/EG (EG-RL, 2004 b)
Fusarientoxine
SANCO/0023/2004/Rev.3 (EG, 2004)
Die vor kurzem erlassene Verordnung (EG) Nr. 333/2007 (EG 2007) fordert nur dann das Analyseergebnis um die Wiederfindungsrate zu berichtigen, wenn die Analysemethode einen Extraktionsschritt beinhaltet. Trifft dies nicht zu, wie z. B. bei Metallen, kann das Ergebnis ohne Berichtigung angegeben werden.
9.6 Die Probennahme
Die Entnahme des Probenmaterials für eine Untersuchung ist ein elementarer Teilschritt des gesamten analytischen Prozesses. Die Untersuchung einer Teilmenge von Material oder einer Warenpartie soll ein zutreffendes Bild der zu beurteilenden Gesamtmenge ergeben. Je nach Probenbeschaffenheit oder nach der Art des Analyten kann der erhaltene Wert bei Mehrfachuntersuchung streuen. Man bezeichnet dies als den Probennahmefehler. Ein Beispiel für besonders extreme, vom Analyten abhängige Probennahmefehler stellen die Mykotoxine dar. Sie breiten sich nesterartig im pflanzlichen Material aus. Das nachfolgende Beispiel (Tabelle 9.9) mag die Problematik verdeutlichen: Tabelle 9.9 Gesamtaflatoxingehalte in geschälten Erdnüssen (je 10 Proben zu je 5-kg-Proben aus einer Gesamtpartie) nach Whitacker (Whitacker, 2003). Lfd. Nr.
1
2
3
4
5
6
7
8
9
10
Mittelwert
μg/kg
n. n.
n. n.
n. n.
n. n.
3
13
19
41
43
69
19
9.6 Die Probennahme
Unter der Annahme, der wahre Gehalt der Partie beträgt 19 μg/kg und der Grenzwert 15 μg/kg, würde die Entscheidung die Partie anzunehmen oder abzulehnen auf der Grundlage der Proben 1–6 zu falsch-negativer Entscheidung führen. Das Verbraucherrisiko läge bei 60%. Die Untersuchungen von Whitaker zeigen an einem weiteren Beispiel, dass durch die Erhöhung der Probenmenge von 5 auf 20 kg und gleichzeitig der Zahl der Einzelproben sich der Probennahmefehler um den Faktor vier verringern lässt. Generell gilt, dass der Probennahmefehler durch eine hohe Zahl von Einzelproben, die zur Sammelprobe durch Homogenisieren zusammengefasst und dann untersucht werden, zu verringern ist. Eine umfassende Darstellung dieser Problematik geben Whitaker et al. (1994). Um bei der Überwachung der Grenzwerte vergleichbare Ergebnisse einerseits zwischen der Eigenkontrolle des Herstellers und andererseits der amtlichen Kontrolle zu erhalten, wurden verbindliche Probennahme-Pläne für die Untersuchung auf Rückstände und Kontaminanten auf EU-Ebene erlassen. Die Tabelle 9.10 gibt einen Überblick über eine Reihe wichtiger Probennahme-Vorschriften und zeigt auszugsweise, wie viele Einzelproben jeweils abhängig von der Partiegröße bei bestimmten Erntegütern zu entnehmen sind. Schematisch wird in allen Probennahme-Vorschriften der Ablauf in folgende Schritte gegliedert: x Einzelprobe:
Anzahl abhängig von der Partiegröße, Menge zwischen 100 bis 300 g in der ProbennahmeVorschrift je nach Warenart definiert.
x Sammelprobe: Menge zwischen 10 bis 30 kg, homogenisieren. x Teilprobe:
Je nach Partiegröße kann die Sammelprobe in Teilproben aufgeteilt werden, die getrennt zu untersuchen sind.
x Laborprobe:
Ein Aliquot aus der homogenisierten Sammel- oder den Teilproben.
Allgemeine Grundsätze, wie Probennahme-Pläne für einzelne Lebensmittelgruppen zu entwickeln sind, enthält eine spezielle Codex-Alimentarius-Leitlinie (Codex Alimentarius, 2004). In ihr wird beschrieben, wie unter der Berücksichtigung der Verteilung eines Analyten in bestimmten Probenmaterialien, die gesondert experimentell zu bestimmen ist, die erforderlichen Probenzahlen errechnet werden können, um bestimmte Grenzwerte mit der geforderten Irrtumswahrscheinlichkeit für eine falsch-negative oder eine falsch-positive Entscheidung erfassen zu können. Aus den Vorbemerkungen zu den in der Tabelle 9.10 genannten Richtlinien ergeben sich keine Hinweise darauf, dass die theoretischen Überlegungen der Codex-Alimentarius-Leitlinie zur Erstellung der dort ausgewiesenen Probennahme-Pläne angewendet wurden. Höchstwahrscheinlich sind diese Pläne unter dem Gesichtspunkt der Praktikabilität erstellt worden. Es ist zu hoffen, dass die in verschiedenen Vorschriften unübersichtlich aufgeteilten Probennahme-Pläne, die sich vom Prinzip gleichen, bald vereinfacht, zu einer
307
308
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik
einzigen Vorschrift zusammengefasst werden. Ein entsprechender Richtlinienentwurf der EU-Kommission liegt seit 2005 vor.
Tabelle 9.10 Probennahme-Vorschriften bei der Überwachung von Grenzwerten für Kontaminanten und Rückstände in Lebensmitteln. Rückstand/ Kontaminante
Vorschrift
Partiegröße Anzahl Proben
Richtlinie Nr. 2002/63/EG (EG-RL, 2002a) Amtliche Sammlung Nr. L 00.00-7 (ASU)
A (kg)
< 50
50–500
> 500
B
3
5
10
Aflatoxine Getreide, Erdnüsse, Paranüsse, Feigen, Mais
Richtlinie Nr. 98/53/EG (EG-RL, 1988)
A* (t)
1–3
3–10
10–20
20–50
B
20
40
60
100
Ochratoxin A Getreide, Rosinen
Richtlinie Nr. 2002/26/EG (EG-RL, 2000b)
A* (t)
<1
1–3
3–10
10–20
20–50
B
10
20
40
60
100
Richtlinie Nr. 2002/27/EG (EG-RL, 2002c)
A (t)
< 15
> 15
B
10–100
100
Patulin Apfelsaft, Apfelerzeugnisse
Richtlinie Nr. 2003/78/EG (EG-RL, 2003b)
A (kg)
< 50
50–500
> 500
B
3
5
10
Aflatoxine und Ochratoxin A Babynahrung auf Getreidebasis
Richtlinie Nr. 2004/43/EG (EG-RL, 2004a)
A* (t)
<1
> 1–3
3–10
10–20
20–50
B
10
20
40
60
100
Zinn Konserven
Richtlinie Nr. 2004/16/EG (EG-RL, 2004b)
C
1–25
26–100
100
B
1
2
5
Richtlinie Nr. 2005/38/EG (EG-RL, 2005)
A (t)
3–10
20–50
40
100
Pestizide
Aflatoxine Gewürze
Fusarientoxine Getreide, Getreideerzeugnisse
B
< 0,05 0,05–0,5 0,5–1 3
5
10
A = Partiegröße in [kg] oder [t]; B = Probenzahl; C = Partiegröße als Dosenzahl. * Angaben beziehen sich auf Getreide oder Erzeugnisse auf Getreidebasis.
9.7 Nationale und internationale Leitlinien und Gremien zur Qualitätssicherung
9.7 Nationale und internationale Leitlinien und Gremien zur Qualitätssicherung in der Analytischen Chemie
Die EG-Richtlinie 93/99/EWG (EG-RL, 1993) über zusätzliche Maßnahmen im Bereich der amtlichen Lebensmittelüberwachung legt in Artikel 3 verbindlich fest, dass die in der Überwachung tätigen Laboratorien die Kriterien der EN 45001 (heute EN 17025) zu erfüllen haben. Daraus ergeben sich im Wesentlichen die folgenden Pflichten: x x x x
Validierung der Untersuchungsverfahren, Anwendung validierter Verfahren, Angabe der Messunsicherheit bei der Mitteilung von Ergebnissen, internes Qualitätsmanagement (IQC).
Leitlinien, wie diese Maßnahmen im Einzelnen zu erfüllen sind, ergeben sich aus Tabelle 9.11. Grundlage für alle Überlegungen zur Messunsicherheit, deren Berechnung und Anwendung ist die ISO-Norm 1993 (ISO, 1993), auf die fast alle in der Tabelle 9.11 aufgeführten Dokumente Bezug nehmen. Die EURACHEM-Leitlinien greifen wiederum die harmonisierten Protokolle und Leitlinien der IUPAC auf und stellen die praktische Verbindung zur Rückstandsanalytik in der Lebensmittelüberwachung her.
Tabelle 9.11 Nationale und internationale Leitlinien zum Qualitätsmanagement in der Analytischen Chemie. Leitlinie
Inhalt/Anmerkungen
Guide to the expression of uncertainty, ISO, Geneva 1993 (ISO, 1993)
Definitionen aller relevanten metrologischen Größen; Beschreibung der Bestimmung der Standard-, der kombinierten und der erweiterten Messunsicherheit.
IUPAC – The international harmonized protocol for the proficiency testing of (chemical) analytical laboratories (Thompson, 1993)
Definition und Beschreibung des Eignungsprüfungssystems (Proficiency Testing Scheme). Beschreibung der Organisation, Auswertung und Bewertung der Ergebnisse des Eignungsprüfungssystems (LVU), letzteres mit dem sog. z-Score. Ein Ranking anhand des z-Scores wird nicht als sinnvoll angesehen.
IUPAC – Protocol for the design, conduct and interpretation of methodperformance studies (Horwitz, 1995)
Beschreibung der Organisation, des Designs und der Auswertung von Ringversuchen (Method Performance Studies). Beschreibung der Verfahrenskennzahlen Wiederholbarkeit (r = repeatability limit) und der Vergleichbarkeit (R = reproducibility limit) und der Anwendung dieser Größen zum Vergleich der Ergebnisse zweier Laboratorien (im Wesentlichen auch in der DIN/ISO 5796-2 enthalten).
309
310
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Tabelle 9.11 (Fortsetzung) Leitlinie
Inhalt/Anmerkungen
IUPAC – Harmonized guidelines for internal quality control in analytical chemistry laboratories (Thompson, 1995)
Leitlinie für die interne Qualitätskontrolle (Internal Quality Control = IQC). IQC beschreibt das analytische Verfahren anhand seiner statistischen Kennzahlen im laufenden Gebrauch. Das geeignete Mittel, dies darzustellen und zu verfolgen, ist die Qualitätsregelkarte, deren Erstellung, Auswertung und deren Anwendungsregeln beschrieben werden. Die Verwendung von zertifiziertem Referenzmaterial wird der von laboreigenem Kontrollmaterial gegenübergestellt.
IUPAC – Harmonized guidelines for the use of recovery information in analytical measurement (Thompson, 1999)
Umfassende Darstellung der Art von Wiederfindungsversuchen, ihre Vor- und Nachteile sowie Empfehlungen, wann Ergebniskorrekturen durch einen Wiederfindungsfaktor erfolgen können.
IUPAC – Harmonized guidelines for single-laboratory validation of methods of analysis (Thompson, 2002)
Empfehlung, wo immer möglich, sollen Labors solche Verfahren einsetzen, deren Leistungskriterien aus dem Ringversuch (Method Performance Study) bekannt sind und nach einem international anerkanntem Protokoll erstellt wurden. Wo derartige Verfahren nicht verfügbar sind, ist eine laborinterne Validierung angebracht. Die Validierung durch ein Labor umfasst: Anwendbarkeit, Selektivität, Kalibrierung, Genauigkeit, Präzision, Messbereich, Nachweis- und Bestimmungsgrenze, Empfindlichkeit und Robustheit. Das analytische Labor muss einen Nachweis erbringen, dass diese Kriterien erfasst wurden. Die Bestimmung der einzelnen Kriterien wird durch Beispiele erläutert.
EURACHEM/CITAC-Leitfaden (Stand: Februar 2004), 2. Auflage (deutsche Fassung) Ermittlung der Messunsicherheit bei analytischen Messungen (EURACHEM 2004)
Umfassende Darstellung des Themas Messunsicherheit unter Berücksichtigung früherer Leitfäden (Draft EURACHEM/CITAC-Guide, June 1999 und EURACHEM-Guide 1995) und der Literatur. Definitionen der Begriffe wie, Verfahren der Quantifizierung der Messunsicherheit, der kombinierten und der erweiterten Messunsicherheit. Umfangreicher Anhang mit Beispielen und den Berechnungsformeln.
EURACHEM/CITAC-Guide 2003 (EURACHEM, 2003) Traceability in chemical measurement
Definitionen wichtiger Begriffe, wie z. B. analytisches Verfahren, Messgröße, Ergebnisse, Kalibrierung und deren Rückverfolgbarkeit.
EURACHEM-Guide, The fitness of purpose analytic methods 1998 (EURACHEM, 1998)
Hilfreicher Leitfaden, der u. a. im Anhang die Definitionen der Begriffe und ihre Bedeutung bei analytischen Methoden alphabetisch geordnet von accuracy bis verification zusammenstellt. Er legt dar, wann und wie Methoden validiert werden sollten, wie die Validierungsdaten angewendet werden und wie Ergebnisse anhand der Messunsicherheit zu interpretieren sind.
9.7 Nationale und internationale Leitlinien und Gremien zur Qualitätssicherung Tabelle 9.11 (Fortsetzung) Leitlinie
Inhalt/Anmerkungen
Handbook for calculation of measurement uncertainty in environmental laboratories, June 2003 (Nordic Council, 2003)
Die Begriffe der Messunsicherheit und der Verfahrenskennzahlen werden an konkreten Beispielen der Umweltanalytik anschaulich durch Bilder und Graphiken erläutert.
Dokumente der EG-Generaldirektion Gesundheit und Verbraucherschutz (SANCO): Quality control procedures for pesticide residue analysis, Doc. N° SANCO/10232/2006 vom 24. März 2006 (SANCO, 2006)
Leitlinie, die beim Pestizid-Monitoring und bei der Pestizid-Grenzwertüberwachung von den Überwachungsbehörden anzuwenden ist und dazu dienen soll x falsch-positive und falsch-negative Ergebnisse zu vermeiden, x sicherstellen, dass akzeptable Genauigkeit erreicht wird, x innerhalb der EU ein wirtschaftlich effizientes analytisches Qualitätsmanagement zu schaffen und es zu harmonisieren, x die Anwendung der Norm ISO 17025 (Akkreditierungsstandard) zu fordern.
Report on the standing committee on the food chain and animal health – SANCO/0064/2003-rev.4 (EG, 2003)
Dokument des ständigen Lebensmittelausschusses der EU (Generaldirektion Gesundheit und Verbraucherschutz = SANCO). Es wendet sich sowohl an den EU-Gesetzgeber als auch an die Behörden der Überwachung. Ausgangspunkt ist, dass einerseits analytische Werte von der Methode abhängen können, andererseits die Art der Probenahme das Ergebnis immer beeinflusst. Es wird daher den Überwachungsbehörden auferlegt bei der Entscheidung über die Nichtkonformität von Waren stets die Messunsicherheit einzubeziehen. Nur wenn der analytische Wert abzüglich der Messunsicherheit größer als der Grenzwert ist, ist sichergestellt, dass die festgestellte Konzentration jenseits vernünftigen Zweifels höher ist als der festgesetzte Grenzwert. Bei der Festlegung von Grenzwerten in EU-Rechtsakten ist verbindlich anzugeben, ob bei der abschließenden Beurteilung eine Wiederfindungskorrektur anzuwenden ist oder nicht. Methoden sollten außerdem in Bezug auf eine minimale bzw. maximale Wiederfindungsrate klassifiziert werden. Wichtig: Die Standardabweichung der Reproduzierbarkeit (sR), die aus den Ergebnissen des Ringversuchs errechnet werden kann, kann der „combined uncertainty“ gleichgesetzt werden. Mit der erweiterten Messunsicherheit (u = 2 · sR) wird der wahre Wert zu 95% erfasst.
311
312
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Tabelle 9.11 (Fortsetzung) Leitlinie
Inhalt/Anmerkungen
Dokumente der Codex Alimentarius Kommission, Food and Agriculture Organisation of the United Nations (FAO): Guidelines for the assessment of the competent of testing laboratories involved in the import and export control of food (Codex Alimentarius, 1997)
Die Codex Alimentarius Kommission erkennt auf weltweiter Ebene die ISO-Norm ISO/IEC 28: 1993 „Akkreditierung von Untersuchungslaboratorien, allgemeine Anforderungen zur Durchführung und Anerkennung“ an. Sie beruft sich auf das harmonisierte Protokoll für Eignungsprüfungstest der IUPAC (Thompson, 1993), die Leitlinie für die interne Qualitätskontrolle in analytischchemischen Labors (Thompson, 1995).
Guidelines on measurement uncertainty (Codex Alimentarius, 2004)
Die Angabe der Messergebnisse erfolgt grundsätzlich in der Form a ± 2 · u oder a ± U. Die Bestimmung der Messunsicherheit muss nicht notwendigerweise nach dem ISO-Modell der Einzelschritte („bottom-up“-Prinzip) erfolgen, wenn z. B. Daten aus einem Ringversuch vorliegen.
Literatur Codex Alimentarius (1997) http://www.codexalimentarius.net. Codex Alimentarius (2004) http://www.codexalimentarius.net. DIN (1994) DIN 32 645 Chemische Analytik; Nachweis-, Verfassungs- und Bestimmungsgrenze; Ermittlung unter Wiederholbedingungen; Begriffe, Verfahren, Auswertung. Deutsches Institut für Normung e.V., Berlin 1994. EG (2001) Verordnung (EG) Nr. 466/2001 der Kommission vom 8. März 2001 zur Festsetzung der Höchstgehalte für bestimmten Kontaminanten in Lebensmitteln; ABl. vom 16.03.2001, L 77, S. 1. EG (2002) Entscheidung der Kommission vom 12. August 2002 zur Umsetzung der Richtlinie 96/23/EG des Rates betreffend die Durchführung von Analysenmethoden und die Auswertung von Ergebnissen ABl. Nr. L 221 S. 8. EG (2003) Report of the standing committee on the food chain and animal health
on the relationship between analytical results, the measurement uncertainty, recovery factors and the provisions in EU food and feed legislation with particular focus on the community legislation concerning – contaminants in food (council regulation (EEC) No 315/93 of 8 February 1993 laying down community procedures for contaminants in food – undesirable substances in feed (directive 2002/32/EC of the European Parliament and of the Council of 7 May 2002 on undesirable substances in animal feed. Dokument Nr. SANCO/0064/2003-rev.4. EG (2006) Quality Control Procedures for Pesticide Residues Analysis; Document Nr. SANCO 10232/2006 vom 24. März 2006. EG (2007) Verordnung (EG) Nr. 333/2007 zur Festlegung der Probenahmeverfahren und Analysemethoden für die amtl. Kontrolle des Gehaltes an Pb, Cd, Hg,
Literatur anorg. Sn, 3-MCPD und Benzo(a)pyren in Lebensmitteln; ABl. vom 29.01.2007 Nr. L 88, S. 29. EG-RL (1993) Richtlinie 93/99/EWG des Rates vom 29. Oktober 1993 über zusätzliche Maßnahmen im Bereich der amtlichen Lebensmittelüberwachung, ABl. Nr. L 290/14, geändert durch VO (EG) Nr. 1882/2003 vom 29.09.2003, ABl. Nr. L 284, S. 1. EG-RL (1996) Richtlinie 96/23/EG des Rates vom 29. April 1996 über Kontrollmaßnahmen hinsichtlich bestimmter Stoffe und ihrer Rückstände in lebenden Tieren und tierischen Erzeugnissen und zur Aufhebung der Richtlinien 85/258/EWG und 86/469/EWG und der Entscheidung 89/187/EWG und 91/664/ EWG; ABl. Nr. L 125, S. 10. EG-RL (1998) Richtlinie 98/53/EG der Kommission vom 16. Juli 1998 zur Festlegung von Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle bestimmter Lebensmittel auf Einhaltung der Höchstgehalte für Kontaminanten, ABl. Nr. L 201, S.93. EG-RL (2002a) Richtlinie 2002/63/EG der Kommission vom 11. Juli 2002 zur Festlegung gemeinschaftlicher Probennahmemethoden zur amtlichen Kontrolle von Pestizidrückständen in und auf Erzeugnissen pflanzlichen und tierischen Ursprungs und zur Aufhebung der Richtlinie 79/700/EWG, ABl. Nr. L 187, S. 30. EG-RL (2002b) Richtlinie 2002/26/EG der Kommission vom 13. März 2002 zur Festlegung der Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle der Ochratoxin-A-Gehalte in Lebensmitteln, ABl. Nr. L75, S. 38. EG-RL (2002c) Richtlinie 2002/27/EG der Kommission vom 13. März 2002 zur Änderung der Richtlinie 98/53/EG zur Festlegung von Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle bestimmter Lebensmittel auf Einhaltung der Höchstgehalte für Kontaminanten, ABl. Nr. L 75, S. 44. EG-RL (2003a) Richtlinie 2003/121/EG der Kommission vom 15. Dezember 2003 zur Änderung der Richtlinie 98/53/EG der Kommission zur Festlegung von Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle
bestimmter Lebensmittel auf Einhaltung der Höchstgehalte für Kontaminanten, ABl. Nr. L 332, S. 38. EG-RL (2003b) Richtlinie 2003/78/EG der Kommission vom 11. August 2003 zur Festlegung der Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle des Patulingehaltes von Lebensmitteln, ABl. Nr. L 203, S. 40. EG-RL (2004a) Richtlinie 2004/43/EG der Kommission vom 13. April 2004 zur Änderung der Richtlinie 98/53/EG und der Richtlinie 2002/26/EG hinsichtlich der Probennahmeverfahren und Analysemethoden zur amtlichen Kontrolle der Gehalte an Aflatoxin und Ochratoxin A in Lebensmitteln für Säuglinge und Kleinkinder, ABl. Nr. L 113 S. 14. EG-RL (2004b) Richtlinie 2004/16/EG der Kommission vom 12. Februar 2004 zur Festlegung der Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle der Zinngehalte in Lebensmittelkonserven, ABl. Nr. L 42, S. 16. EG-RL (2005) Richtlinie 2005/38/EG der Kommission vom 6. Juni 2005 zur Festlegung der Probennahmeverfahren und Analysemethoden für die amtliche Kontrolle des Gehalts an Fusarientoxinen in Lebensmitteln, Abl. Nr. L 143, S. 18. EURACHEM (1995) Quantifying uncertainty in analytical measurement, Laboratory of Government Chemist, London 1995, ISBN 0-948926-082. EURACHEM (1998) Guide, The fitness for purpose of analytical methods – A laboratory guide to method validation and related topics. EURACHEM (2003) Traceability in chemical measurement. – A guide to achieving comparable results in chemical measurements. EURACHEM (2004) Ellison, S. L. R.; Rösslein, M.; Williams, A. (Hrsg.) Ermittlung der Messunsicherheit bei analytischen Messungen, EURACHEM/ CITAC Guide, 2. Aufl. EWG (1990) Verordnung (EWG) Nr. 2377/90 des Rates zur Schaffung eines Gemeinschaftsverfahrens für die Festsetzung von Höchstmengen für Tierarzneimittelrückstände in Nahrungsmitteln tierischen Ursprungs vom 26. Juni 1990, ABl. Nr. L 224, S. 1.
313
314
9 Beurteilung von analytischen Daten in der Lebensmittelanalytik Fauhl, C. (2006) Measurement uncertainty in wine appreciation, Mitteilungen Klosterneuburg, 56: 3–13. Gilsbach, W. (1998) Abschätzung der Messunsicherheit bei der Rückstandsanalytik von Pflanzenschutzmitteln, Lebensmittelchemie, 52: 95–96. Gowik, P., Jülicher, B., Uhlig, S. (1998) Multi-residue method for non-steroidal anti-inflammatory drugs in plasma using high-performance liquid chromatography–photodiodearray detection, Method description and comprehensive in-house validation, Journal of Chromatography B, 716: 221–232. Horwitz, W. (1995) Protocol for the design, conduct and interpretation of methodperformance studies, Pure & App. Chem., 67: 331–343. ISO (1993) Guide to the expression of uncertainty, ISO, Geneva 1993. ISO (2000) Genauigkeit (Richtigkeit und Präzision) von Messverfahren und Messergebnissen, Teil 2 (ISO 5725-2: 1994), Entwurf 2000. Journal für Verbraucherschutz und Lebensmittelsicherheit (2006), 1. Amtl. Mitt. aus dem Bereich Lebens- und Futtermittel, ALS-Stellungnahmen. LFGB (2005) Lebensmittel, Bedarfsgegenstände und Futtermittelgesetzbuch vom 01. September 2005, BGBl. I, S. 2618 ff. MHmV (1999) Verordnung über Höchstmengen an Mykotoxinen in Lebensmitteln vom 2. Juni 1999, BGBl. I, 1999, S. 1248, zul. geänd. d. Art. 17 vom 22.02.2006, BGBl. I, S. 444. Nordic Council (2003) Handbook for calculation of measurement uncertainty in environmental laboratories, version 1.2, June 2003 (Nordic Council of Ministers 2003).
RHmV (1999) Rückstands-Höchstmengenverordnung vom 21. Oktober 1999, BGBl. I, 1999, S. 2082, zul. geänd. d. Art. 1 vom 13.08.2007, BGBl., S. 1962, 2379. Sachs, L. (1992) Angewandte Statistik, 7. Auflage, Springer Verlag. SHmV (2007) Verordnung über Höchstmengen an Schadstoffen in Lebensmitteln vom 18. Juli 2007, BGBl. I, 2007, S. 1473. Thompson, M., Ellison, S. L. R., Fajgelj, A., Willetts, P., Wood, R. (1999) Harmonized guidelines for the use of recovery information in analytical measurement, Pure & App. Chem., 71: 337–348. Thompson, M., Ellison, S. L. R., Wood, R. (2002) Harmonized guidelines for single-laboratory validation of methods of analysis, Pure & App. Chem., 74: 835–855. Thompson, M., Wood, R. (1993) The international harmonized Protocol for the proficiency testing of (chemical) analytical laboratories, Pure & App. Chem., 65: 2123–2144. Thompson, M., Wood, R. (1995) Harmonized guidelines for internal quality control in analytical chemistry laboratories, Pure & App. Chem., 67: 649–666. Whitaker, Th. B., Dowell, F. E., Hagler jr., W. M., Giesbrecht, F. G., Wu, J. (1994), Variability associated with sampling, sample preparation and chemical testing for aflatoxin in farmer’s stock peanuts, Journal of the AOAC International 77: 107–116. Whitaker, Th. B. (2003) Standardisation of mycotoxin sampling procedures: an urgent necessity, Food Control 14: 233–237.
315
10 Beurteilung von analytischen Daten aus Behördensicht – Regelarbeitsweise und AQS für selten angewandte und zeitaufwändige Analysenverfahren Günter Papke
10.1 Einleitung
Operative AQS-Maßnahmen (gemeint sind hier nicht die strategischen Anteile der AQS zur Erstellung und Pflege des Qualitätsmanagementsystems nach DIN EN ISO/IEC 17 025 [1]) sind Konventionen zur Vertrauensbildung gegenüber dem Kunden. Ideal wären Werkzeuge, die von jedem angewandt werden können, um die Güte des „Produktes“ Analytik objektiv beschreiben/umschreiben(?) zu können. AQS-Maßnahmen sind zweckgerichtet, ihr wichtigstes Ziel ist es, durch Angabe eines Wertes für die Messunsicherheit die jeweilige Analysentechnik harmonisch zu ergänzen. Unstimmigkeiten existieren aber manchmal darüber, wo die Analysentechnik aufhört und die AQS anfängt. Wenn z. B. die analytische Fachnorm eine Kalibrierung gemäß DIN 38 402-A51, ISO 8466-1 oder DIN 8466-2 (A 44) [2–3] (im Folgenden auch „Basiskalibrierung“ genannt) vorschreibt, ist dies keine (zusätzliche) AQS-Maßnahme, sondern ein Verfahrens-/Normbestandteil. Ebenso verhält es sich mit Mehrfachbestimmungen; manche Normen schreiben Mehrfachbestimmungen (z. B. für AOX, CSB) vor, welche dann natürlich auch keine (zusätzliche) AQS-Maßnahme darstellen. Operative AQS-Maßnahmen arbeiten mit bestimmten Messstrategien und mathematischen Modellen – in der Regel Normalverteilung – zur Ermittlung von Kenngrößen zur Klassifizierung der Güte und Grenzen des Produktes Analytik. Für diese Art AQS ist auch der unklare Begriff „Analytische Qualitätskontrolle“ (AQK) geläufig. Die wichtigste Maxime für alle Arten der AQS lautet „mit dem geringsten Aufwand für den Untersuchungszweck, z. B. die Überwachung eines Grenzwertes, ausreichende (!) Sicherheit zu erlangen.“
316
10 Beurteilung von analytischen Daten aus Behördensicht
10.2 Werkzeuge und Definitionen für die AQS 10.2.1 Kontrollproben
Kontrollproben sind synthetische oder reale Proben, welche zur Durchführung der AQK-Maßnahmen (z. B. Kontrollkartenführung) eingesetzt werden. Eine ideale Kontrollprobe wäre die jeweilige Analysenprobe. 10.2.2 Kontrollkarten/Zielwertkarten
Kontrollkarten/Zielwertkarten sind das probateste Instrument zur Langzeitbeobachtung eines Messsystems unter Einsatz von Kontrollproben anhand von Kontrollwerten. Die Praxis der Kontrollkartenführung wird in mehreren Dokumenten inhaltsgleich beschrieben (LAWA-AQS-Merkblätter [4], DIN V EN V ISO 13 530 – A60 [5] und DEV-Strategiepapier [6]). Die Abb. 10.1 und 10.2 zeigen für die Umweltanalytik typische Beispiele für Kontroll- und Zielwertkarten. Kontrollkarten sind das Standardinstrument der Routine-AQS geworden. Ihnen liegt folgendes Konzept zugrunde: Für definierte Kontrollproben wird mit Hilfe von Erfahrungswerten aus Vergangenheit/Gegenwart ein Erwartungsrahmen für die nachfolgenden Ergebnisse (Zukunft) festgelegt. Liegen die Folgewerte innerhalb des Erwartungsrahmens, wird das Analysensystem als „in Kontrolle“ (IKS) definiert, ansonsten befindet es sich „außer Kontrolle“ (AKS) und Korrekturmaßnahmen müssen ergriffen und dokumentiert werden.
Abb. 10.1 Beispiel einer relativen Spannweiten-Kontrollkarte (ohne Außerkontrollsituation). Rrel = Tageswert für die relative Spannweite = (größter Wert – kleinster Wert) u 100%/Mittelwert; Rrel = mittlere relative Spannweite (arithmetisches Mittel der Rrel ),
AO = Ausschlussobergrenze, KO = Kontrollobergrenze. Als Kontrollwert (Ordinate) aufgetragen wurden die relativen Spannweiten aus der Messung realer Proben an den Messtagen (als lfd. Nr. 1 bis 32 auf der Abszisse aufgetragen).
10.2 Werkzeuge und Definitionen für die AQS
Abb. 10.2 Beispiel einer Mittelwert-Zielwertkarte. Sollwert = nominelle Konzentration der Kontrolllösung, ZO = Ziel(wert)obergrenze, ZU = Ziel(wert)untergrenze). Als Kontrollwert (Ordinate) aufgetragen wurden die Konzentrationswerte aus der Messung einer Standardlösung an den Messtagen (als lfd.
Nr. 1 bis 39 auf der Abszisse aufgetragen). Die Zielwertgrenzen werden spiegelbildlich zum Sollwert aufgetragen. Die Ergebnisse zeigen einen leichten mittleren Überbefund von ca. 1,5%. Per Definition liegt aber keine Außerkontrollsituation vor.
Wurde der Erwartungsrahmen statistisch (unter Annahme einer mathematischen Verteilung) ermittelt, kann eine Kontrollkarte geführt werden. Unter Annahme einer zweiseitigen Verteilung resultieren sog. Shewhart-Kontrollkarten und unter Annahme einer einseitigen Verteilung sog. Spannweiten(Range)-Kontrollkarten. Für Kontrollkarten sind mehrere Außerkontrollsituationen (AKS) definiert worden. Abbildung 10.1 zeigt eine AKS-freie relative SpannweitenKontrollkarte. Wurde der Erwartungsrahmen statisch (unter Annahme eines vorgegebenen festen Rahmens) festgelegt, können sog. Zielwertkarten (mit vorgegebenen Toleranzgrenzen = obere und untere Ziel(wert)grenze) geführt werden. Eine AKS tritt hierbei auf, wenn die obere Zielgrenze überschritten bzw. die untere Zielgrenze unterschritten wurde. Abbildung 10.2 zeigt eine AKS-freie MittelwertZielwertkarte. Der abgehackte Verlauf der Konzentrationen in den Abb. 10.1 und 10.2 („diskrete“ Konzentrationsstufen) hat seine Ursache in den von den Analytiknormen vorgegebenen Rundungsregeln. In der Umweltanalytik finden die in den Tabellen 10.1 und 10.2 dargestellten jeweils vier Typen von Kontroll- und Zielwertkarten praktische Anwendung. Mit dem novellierten LAWA-Merkblatt A-2 [4] wurde es möglich, den geeigneten Kartentyp flexibel für die jeweilige Analysensituation (Parameter, Prüfverfahren, Matrix) auszuwählen. Auch ein Wechsel zwischen den korrespondierenden Kontroll- und Zielwertkartentypen ist jetzt jederzeit möglich. Während die o. g. AKS relativ zeitnah festgestellt werden und zu kurzfristigen Korrekturmaßnahmen Anlass geben, muss auch auf langfristige Qualitäts-
317
Blindwert-Kontrollkarte
Mittelwert-Kontrollkarte
Linien: x Sollwert x ZO und ZU
Mittelwert-Zielwertkarte
Blindwert-Zielwertkarte
Shewhart-Karten mit folgenden Linien: x Mittellinie x KO, KU x WO, WU x ggf. AO, AU
Blindwert (geräteabhängiger Informationswert)
Einzelwert/Mittelwert (conc.)
R oder Rrel = mittlere absolute oder relative Spannweite KO, KU = Kontrollober/untergrenze WO, WU = Warnober/untergrenze AO, AU = Ausschlussober/untergrenze ZO, ZU = Ziel(wert)ober/untergrenze
Keine Gauß-Verteilung, nicht ausreichendes Datenkollektiv, Rahmendaten von außen gesetzt, Standardabweichung nicht benötigt
Annähernd Gauß-Verteilung, ausreichendes Datenkollektiv, selbstregulierendes System, Standardabweichung wird benötigt
Kontrollwert
Rahmenbedingungen
WiederfindungsZielwertkarte
WiederfindungsKontrollkarte
Wiederfindungsrate [%]
Tabelle 10.1 Auflistung der wichtigsten in der Umweltanalytik verwendeten Kontroll- und Zielwertkarten.
Spannweiten (Range)Zielwertkarte
Linien: x R oder Rrel x KO x ggf. AO
Spannweiten (Range)Kontrollkarte
Spannweite = größter-kleinster Wert (conc. oder %)
318
10 Beurteilung von analytischen Daten aus Behördensicht
Die Aussagen in dieser Zeile gelten nur für Kontrollkarten (nicht für Zielwertkarten), sofern statistisch abgeleitete Größen (Kalibrierung, Präzision, Messunsicherheit usw.) angesprochen sind.
x Karte über alle Matrices oder für einzelne Matrices getrennt führen? x Auswahl repräsentativer Proben x Folgemaßnahmen bei AKS? x Geeignete Probenauswahl x Folgemaßnahmen bei AKS?
x Blindwert-Kontrollkarten funktionieren bei modernen Gerätesystemen (GC, ICP, IC) kaum noch (keine Signale!) x Folgemaßnahmen bei AKS?
x Stabilität des Standards x Folgemaßnahmen bei AKS?
Probleme, Fragen
a)
x Driftkontrolle der Kalibrierung x Abschätzung der Präzision unter Einbeziehung der Matrix x Baustein zur Abschätzung der Messunsicherheit
x Abschätzung der Richtigkeit (bei zertifizierten Standards!) x Allgemein: Abschätzung von proportional-systematischen Abweichungen
Reale Probe
Aufdeckung von systematischen Fehlern des Messsystems (Verunreinigungen, Gerätedrifts)
Reale Probe (aufgestockt und nicht aufgestockt)
Blindprobe
Spannweiten-Kontroll-/ Zielwertkarte
x Kontrolle der Kalibrierung x Abschätzung der Richtigkeit (mit zertifizierten Standards) x Abschätzung der Präzision x Bausteine zur Abschätzung der Messunsicherheit
Wiederfindungs-Kontroll-/ Zielwertkarte
Blindwert-Kontroll-/ Zielwertkarte
Ziel der Kartea)
Mittelwert-Kontroll-/ Zielwertkarte
(zertifizierter) Standard Stabile reale Probe
Details
Kontrollprobe(n)
Kartentyp
Tabelle 10.2 Details zu den wichtigsten in der Umweltanalytik verwendeten Kontroll-/Zielwertkarten.
10.2 Werkzeuge und Definitionen für die AQS 319
320
10 Beurteilung von analytischen Daten aus Behördensicht
änderungen des Messsystems geprüft werden. Die Dokumente [4–6] sehen für Kontrollkarten zwei Varianten vor: x das sog. 60-Tage-Revisionsmodell, x Vergleich zweier aufeinander folgender Kontrollkarten. Details zur Vorgehensweise sind in den genannten Dokumenten beschrieben. 10.2.3 Objektbezogene AQS
Objektbezogene AQS ist grundsätzlich diejenige, die an jeder einzelnen realen Probe (Kontrollprobe = die jeweilige Analysenprobe) praktiziert wird, was aber aus ökonomischen Gründen meist unpraktikabel sein dürfte. 10.2.4 Stichproben-AQS
In der Massenanalytik fokussieren sich AQS-Maßnahmen auf eine repräsentative Auswahl („Stichprobe“) realer Proben. Die Stichprobe erfordert ein Clustern des zu analysierenden Probenspektrums: Proben mit vergleichbarer Matrixzusammensetzung und ähnlichen Analytgehalten (z. B. innerhalb einer Konzentrationsdekade) werden zu einem Block zusammengestellt. Eine Probe des Blocks dient als Kontrollprobe (z. B. für eine Spannweiten-Kontrollkarte); die daraus abgeleiteten Verfahrenskenngrößen werden auf die übrigen Proben des Blocks übertragen. Ein passendes Beispiel für diese Art AQS sind Trinkwasseranalysen mit engen Konzentrationsbereichen einzelner Untersuchungsparameter. 10.2.5 Stellvertreterproben-AQS
Für die Massenanalytik ist es auch typisch, auf Proben mit anderer Zusammensetzung als die untersuchten Proben („Stellvertreterproben“) zurückzugreifen. Um die Leistungsfähigkeit (Empfindlichkeit, Robustheit) des analytischen Grundverfahrens ohne den Einfluss der Matrix zu testen, können als Stellvertreterproben z. B. (zertifizierte) Standards für Mittelwert-Kontrollkarten verwendet werden. Eine Sonderform der Stellvertreterproben (matrix- und analytfrei!) sind „Blindproben“, mit denen man u. a. die Konstanz eines Messsystems prüfen (siehe Tabelle 10.2) bzw. Nachweis- und Bestimmungsgrenze ermitteln kann [10]. 10.2.6 Validierung von Analysenverfahren
Nach dem Verständnis der LAWA (siehe Merkblatt A-5 [4]) existiert eine Validierungshierarchie:
10.2 Werkzeuge und Definitionen für die AQS
x Bei der Entwicklung einer Norm oder eines Hausverfahrens wird eine Primäroder Basisvalidierung durchgeführt. Ziel: Feststellung der Leistungsfähigkeit des Verfahrens. x Bei der Laboreinführung eines Verfahrens findet die sekundäre Validierung statt. Fragestellung: Eignet sich das Verfahren für spezielle Proben? x Die Zuverlässigkeit des Verfahrens in der Routine wird mit der tertiären Validierung (Routine-AQK) geprüft. Eine detaillierte Zusammenstellung der Validierungskriterien findet sich in Tabelle 10.3. Bei der Entwicklung und Einführung eines Analysenverfahrens sollen dessen Fähigkeiten und Grenzen objektiv beschrieben werden, um es „fit zu machen für die Routine“.
Tabelle 10.3 Bestandteile der Validierung von Analysenverfahren und deren Einsatz für die primäre, sekundäre und tertiäre Validierung (nach LAWA AQS-Merkblatt A-5 [4]). Nr.
Kriterien für die Primär-Validierung nach DEV A0-2a)
Sek./tert. Validierungb)
1
Anwendungsbereich Erfasste Parameter, geprüfte Matrices, geprüfter und kalibrierter Konzentrationsbereich, Erweiterungsmöglichkeiten des Verfahrens
2
Grundlagen des Verfahrens Reaktionsprinzipien, Reaktionsgleichungen, Trennprinzipien; bei biologischen Verfahren Beschreibung der physiologischen Prinzipien, auch unter Hinweis auf Sekundärliteratur
3
Störungen Darstellung der Störungen (Matrixeinflüsse, Querempfindlichkeiten, Hinweise auf falsch positive/negative Befunde, „Memory“-Effekte, Peaküberlappungen, Störung bei photometrischen Verfahren), Vermeidung und Behebung von Störungen
4
Reagenzien, Testorganismen, Geräte Blindwerte, Anforderungen an die Reinheit von Reagenzien, Verfügbarkeit und Haltbarkeit von Reagenzien, Standard- und Referenzmaterialien, Testorganismen mit Hersteller- und Bezugsnachweis, Trennphasen für die Chromatographie, Geräte, Arbeitssicherheit und Umweltschutz
Jac)
5
Probenahme und Probenvorbehandlung Probenahme, Probenstabilität und -konservierung, Arbeitssicherheit, Umweltschutz
Ja
321
322
10 Beurteilung von analytischen Daten aus Behördensicht Tabelle 10.3 (Fortsetzung) Nr.
a)
b)
c) d) e) f) g) h)
Kriterien für die Primär-Validierung nach DEV A0-2a)
Sek./tert. Validierungb)
6
Durchführung Probenvorbereitung, Probenmessung
Jaf)
7
Ermittlung der Verfahrenskenndaten Varianzenhomogenität, Linearitätsprüfung, Art der Kalibrierung, Kalibriersubstanzen, Kalibrierdaten und -funktion, Nachweis-, Erfassungs- und Bestimmungsgrenzen (DIN 32 645), Rekalibrierung
Jae)
8
Untersuchungen zur Richtigkeit Referenzmaterial, Aufstockverfahren, Wiederfindungsraten, Vergleich mit Ergebnissen anderer Analysenverfahren
Jad), f), g)
9
Untersuchungen zur Präzision Art der verwendeten Proben, statistische Auswertung
Jad), h)
10
Robustheit Stabilität, Erkenntnisse aus der Verfahrensentwicklung, Ergebnisse aus gezielten Untersuchungen mit systematischer Variation bestimmter Einflussgrößen
11
Verfahrenskenndaten aus Ringversuchen (nur für zu normende Verfahren) Rahmendaten, analysierte Parameter, verwendete Referenzmaterialien, untersuchte Matrices und Konzentrationsniveaus, Soll-Wert und mittlerer Ist-Wert, Ausreißerquote, Wiederholund Vergleichsvariationskoeffizient, Vergleich der Ergebnisse verschiedener Verfahrensvarianten
12
Messunsicherheit Art der Ermittlung, Beispielergebnis
Ja
13
Auswertung Identifizierungskriterien, Berechnung und Angabe des Ergebnisses
Ja
14
Literatur
Bestandteile des Validierungsprogrammes nach LAWA Merkblatt A-5 [4] (abgeleitet von DEV A0-2 [7]). Für die sekundäre und tertiäre Validierung wird dieser Bereich des Validierungsprogrammes ebenfalls (ganz oder teilweise) eingesetzt. Zum Beispiel mit Hilfe von Blindwertkontrollkarten. Zum Beispiel mit Hilfe von Mittelwertkontrollkarten. Siehe LAWA AQS-Merkblatt A-7 [4]. Mit Hilfe von Wiederfindungsratenkontrollen. Mit Hilfe erfolgreicher Teilnahmen an Ringversuchen. Zum Beispiel mit Hilfe von Spannweitenkontrollkarten.
10.2 Werkzeuge und Definitionen für die AQS
Anmerkung 1: Ein Labor, welches an der Entwicklung (Normung) eines Verfahrens beteiligt ist, prüft dieses in der Phase der primären bzw. Basisvalidierung auch an seinem eigenen Probenspektrum „auf Herz und Nieren“ und entscheidet abschließend, ob das Verfahren in die Routine gehen kann. Die übrigen Laboratorien müssen in der Einführungsphase („Sekundäre Validierung“) versuchen, die Basisvalidierungsdaten (sind bei DIN-Normen kostenlos erhältlich bei DIN e.V. NAW, 10772 Berlin) zu verifizieren. Validieren heißt „gültig“ machen (s. DEV A0-2 [7]), d. h., das Verfahren x muss genügend „robust“ sein, x sein Anwendungsbereich und seine Grenzen (z. B. Bestimmungsgrenze) und mögliche Störungen müssen bekannt sein und x die Präzision und Richtigkeit der Ergebnisse müssen abgeschätzt werden (Ziel: Messunsicherheit der Ergebnisse). 10.2.7 Messunsicherheit
Die Messunsicherheit ist „ein dem Messergebnis zugeordneter Parameter, der die Streuung der Werte kennzeichnet, die vernünftigerweise der Messgröße zugeordnet werden können, z. B. in Form einer Standardabweichung oder eines Vertrauensbereichs“ [9]. Die Messunsicherheit repräsentiert einen Konzentrationsbereich, in welchem sich der wahre Analysenwert mit einer vorgegebenen statistischen Sicherheit (meist 95%) befinden sollte. Der DEV-Leitfaden A0-4 [8] geht bei der Abschätzung der Messunsicherheit von einem „Worst case“-Szenario aus. Dabei werden zufällige und systematische Messabweichungen wie in Abb. 10.3 dargestellt zunächst getrennt abgeschätzt und anschließend zur kombinierten Messunsicherheit u mit Hilfe der Fehleraddition zusammengefasst. Aus der kombinierten Messunsicherheit lässt sich die
Abb. 10.3 Ablauf der Messunsicherheitsabschätzung gemäß DEV A0-4 [8].
323
324
10 Beurteilung von analytischen Daten aus Behördensicht
erweiterte Messunsicherheit errechnen (U = k · uC). Im Messunsicherheitsbereich (= Konzentrationsbereich von –U bis +U) befindet sich nach dem zugrunde liegenden Ansatz mit einer Aussagewahrscheinlichkeit P (P = meist 95%; k = 2) der wahre – aber unbekannte – Wert des Ergebnisses. Dies lässt sich durch Gl. (10.1) wie folgt ausdrücken: Messwert – U d wahrer Wert d Messwert + U
(10.1)
Zur Zusammenfassung werden die einzelnen Messabweichungen (Messunsicherheitskomponenten) ohne Vorzeichen verwendet. Man setzt also voraus, dass sich alle berücksichtigten Unsicherheitskomponenten gegenseitig verstärken. Die nach diesem Leitfaden errechneten erweiterten Unsicherheiten führen zu teilweise recht hohen Zahlenwerten (20% und mehr) bzw. Messunsicherheitsbereichen (40% und mehr), was bei den Kunden zu großer Verunsicherung über die Qualität der Analysenergebnisse geführt hat. Hier ist noch viel Aufklärungsarbeit zu leisten, um dem Kunden klar zu machen, dass die ermittelte Messunsicherheit nicht identisch sein muss mit dem wahren – aber leider unbekannten! – Analysenfehler. Letzterer sollte in den meisten Fällen kleiner ausfallen (Gl. 10.2). Analysenungenauigkeit (unbekannt) = Gesamtfehler (unbekannt) d Messunsicherheit
(10.2)
Insofern hat das o. g. Messunsicherheitskonzept eine „erzieherische Aufgabe“, da es zu mehr Ergebnissicherheit und damit zu einer Qualitätssteigerung der Analyse führen sollte. Anmerkung 2: Entfernt ist die Vorgehensweise mit dem Sicherheitsdenken bei Atomkraftwerken zu vergleichen. Auch dort geht man bei der Definition eines GAUS davon aus, dass alle potentiell möglichen Unfälle, Naturereignisse (Erdbeben) usw. gleichzeitig passieren und sich in ihrer Auswirkung addieren. Durch Optimierung der Komponenten, die den größten Einfluss auf die Messunsicherheit haben, kann letztere deutlich reduziert werden. Den größten Effekt erzielt man dabei durch Optimierung der Standardunsicherheiten, welche mindestens ein Drittel der größten Standardunsicherheit betragen. 10.2.8 Zusammengefasste AQS-Werkzeuge
Fassen wir die gebräuchlichsten unter den bisher genannten Werkzeuge zusammen (s. Tabellen 10.4 bis 10.6). Als AQS-Aufwand definiert wurden Messvorgänge, die zusätzlich zu den in den Fachnormen vorgeschriebenen Messvorgängen durchzuführen sind.
Mittelwert-Kontrollkarte/ Stellvertreter-AQS
c)
b)
a)
Reale Proben aus dem jeweiligen Tagesprogramm
Spannweiten-Kontrollkarte/ Stichproben-AQS
2 Messungen
Präzision des Messsystems (matrixbezogen) (z. B. für Messunsicherheit)a), b)
Einmal pro Serie und Matrix
Stabile reale Probe mit vergleichbarer Zusammensetzung wie die Messproben (Sollwert nicht erforderlich)
Wenn wegen des Fehlens geeigneter stabiler Standards keine MittelwertKontrollkarten geführt werden können, muss die Unpräzision zwischen den Serien (von Tag zu Tag) geschätzt werden (z. B. durch Variation bei der Kalibrierung) und mit der Standardabweichung der SpannweitenKontrollkarte kombiniert werden.
1 Messung
Präzision des Messsystems (matrixfrei) (z. B. für Messunsicherheit)a), c), d)
Einmal pro Serie
Stabile synthetische Standards
d)
0–2 Messungen
Matrixspezifische Präzision (z. B. für Messunsicherheit)a), c), d)
Eine x-fach Bestimmung pro Serie und Matrix
Abschätzung der Messunsicherheit gemäß DEV-Leitfaden A0-4 [8]. Die Wiederholstandardabweichung (aus Wiederholmessungen oder der Mittelwert-Kontrollkarte) genügt für die Abschätzung des zufälligen Anteiles der Messunsicherheit. Die Standardabweichungen aus Spannweiten-Kontrollkarten und MittelwertKontrollkarten können zur Abschätzung des zufälligen Anteiles der Messunsicherheit kombiniert werden.
0–1 Messungen
Präzision über alle Matrices (z. B. für Messunsicherheit)a)
Eine x-fach Bestimmung pro Serie
2–10 Messungen
10–50 Messungen
Pro Matrixtyp und Serie eine Probe x-fach
Ermittlung der Präzision (z. B. für Messunsicherheit)a)
AQS-Aufwand für Serie von 10 Proben verteilt auf 2 Matrices
5–25 Messungen
Alle Proben x-fach
Reale Proben
Mehrfachbestimmungen/ Objektbezogene AQS
Verwendungszweck
Jede 2. Probe x-fach
Wie angewandt?
Kontrollproben
AQS-Werkzeug/Werkzeugtyp
Tabelle 10.4 AQS-Werkzeuge für die Abschätzung der Präzision.
10.2 Werkzeuge und Definitionen für die AQS 325
10 Messungen (Diese Zahl reduziert sich entsprechend, wenn die Wiederfindungsexperimente nicht in jeder Serie durchgeführt werden) 2 Messungen
Bias (relative systematische Abweichung) vom Sollwert (z. B. für Messunsicherheit)a), d)
Proportional-systematische Abweichung
Mindestens 5 Proben pro Matrixtyp
Einmal pro Matrix
Reale Proben, mit und ohne Aufstockung mit Standards
Wiederfindungsexperimente/ Stichproben-AQS
b)
Abschätzung der Messunsicherheit gemäß DEV-Leitfaden A0-4 [8]. Hierbei werden neben Bias-Werten auch Standardabweichungen (Präzisionswerte) benötigt, hier: die Standardabweichungen des Sollwertes und des Bias (letzteres nur bei einem Referenzstandard).
d)
c)
Hierbei werden neben Bias-Werten auch Standardabweichungen (Präzisionswerte) benötigt, hier: die Standardabweichung des Sollwertes und die Vergleichsstandardabweichungen aus den Ringversuchen. Hierbei werden neben Bias-Werten auch Standardabweichungen (Präzisionswerte) benötigt, hier: die Streuungen bei Aufstockvolumen und -konzentration.
< 1 Messung (bei 5 Ringversuchsproben in 3 Jahren)
Bias (systematische Abweichung) vom Sollwert (z. B. für Messunsicherheit)a), c)
Teilnahme an mindestens 5 Ringversuchen in z. B. 3 Jahren
Proben (real/synthetisch) mit Sollwert
Ringversuche/ Stellvertreter-AQS
a)
1 Messung
Bias (systematische Abweichung) des mittleren Messwertes vom Sollwert (z. B. für Messunsicherheit)a), b)
In mindestens 5 Serien mitanalysieren
Zertifiziertes Referenzmaterial mit Sollwert
Bias ermitteln (auch als Kontrollkarte)/ Stellvertreter-AQS
WiederfindungsKontrollkarten/ Stichproben-AQS
0 Messungen
Systematische Abweichung des Messsystems (Verunreinigungen, Gerätedrifts)
n-mal pro Serie
Blindprobe
Blindwertkontrollkarten/ Stellvertreter-AQS
1 Messung
Richtigkeit (matrixfrei bzw. matrixbezogen)
Einmal pro Serie
Zertifizierte Standards (synthetische, reale)
MittelwertKontrollkarte/ Stellvertreter-AQS
AQS-Aufwand für Serie von 10 Proben verteilt auf 2 Matrices
Verwendungszweck
Wie angewandt?
Kontrollproben
AQS-Werkzeug/Werkzeugtyp
Tabelle 10.5 AQS-Werkzeuge für die Abschätzung der Richtigkeit. 326
10 Beurteilung von analytischen Daten aus Behördensicht
b)
a)
Keine zusätzliche AQS-Maßnahme, sondern Verfahrensbestandteil. Die Kalibriervorschriften der Fachnormen sind leider sehr unterschiedlich.
0 Messungen
Arbeitstäglich gemäß Fachnorm bzw. in Analogie zu modernen DIN-Normen aus den Bereichen Chromatographie und Fließanalytik
2–3 Kalibrierstandards
Arbeitskalibrierung/ Stellvertreter- AQS
Arbeitstägliche Auswertefunktion, Konstanz der Kalibrierung prüfen
Einmal pro Serie
Kalibrierstandard
MittelwertKontrollkarte/ Stellvertreter-AQS
1 Messung
< 1 Messung (Die bis zu 28 Messungen pro Basiskalibrierung verteilen sich auf mindestens 3 Monate)
Direkt: Auswertefunktion, Verfahrensstandardabweichung/ -variationskoeffizient Indirekt: Bestimmungsgrenze (gemäß DIN 32 645)
1 bis 4 mal pro Jahr gemäß DIN 38 402-A51 (ISO 8466-1) Forderung der LAWA AQS-Merkblätter [4]
5–10 Kalibrierstandards
Basiskalibrierung/ Stellvertreter-AQS
Überprüfung der Konstanz der Kalibrierung
0 Messungen
Für Auswertefunktion
Arbeitstäglich gemäß Fachnormb)
Kalibrierstandards bzw. Aufstockstandards
Kalibriervorschrift für externe oder interne Kalibrierunga)
Zusätzlicher AQS-Aufwand pro Arbeitstag
Verwendungszweck
Wie angewandt?
Kontrollproben
AQS-Werkzeug/Werkzeugtyp
Tabelle 10.6 AQS-Werkzeuge für die Kalibrierung.
10.2 Werkzeuge und Definitionen für die AQS 327
328
10 Beurteilung von analytischen Daten aus Behördensicht
10.3 Praxis der AQS
Die sog. „Fachmodule“ Wasser, Abfall, Boden/Altlasten [12] sowie die LAWAAQS-Merkblätter [4] in Verbindung mit DIN V EN V ISO 13 530 – A60 [5] und dem DEV-Strategiepapier [6] regeln in restriktiver Weise die AQS-Maßnahmen für die Notifizierung, Akkreditierung und alle Analysen im gesetzlich geregelten Umweltbereich. 10.3.1 Hierarchisch aufgebaute AQS
Generell baut sich im Anwenderlabor (!) die AQS für Analysenverfahren chronologisch wie folgt auf (vgl. Abschn. 10.2.6 und Tabelle 10.3): In der Phase „Einführungsphase von Analysenverfahren“ (sekundäre Validierung) werden die vorläufigen Verfahrenskenngrößen (wie Verfahrensstandardabweichung und Bestimmungsgrenze), die Präzision und Richtigkeit durch Einsatz verschiedener Kontrollproben (Stichproben, Stellvertreterproben) abgeschätzt. Die Bestimmungsgrenze wird gemäß DIN 32 645 [10] nach der Leerwert- oder Kalibriergeradenmethode ermittelt. Für die Ermittlung der Präzision sind mindestens 10fach-Bestimmungen erforderlich (s. Tabelle 10.4). Die systematischen Messabweichungen erhält man aus Ringversuchen, Wiederfindungsexperimenten bzw. – wenn möglich – mit Hilfe zertifizierter Standards. Diese Eingangstests zur Erstellung der Kenndaten werden so lange fortgeführt, bis sich ein optimaler Zustand des Messsystems eingependelt hat. Die Ergebnisse der Leistungsprüfung sind dann die Basis für die Routine-AQS. Die Tests zur Leistungsprüfung eines Analysenverfahrens werden einheitlich vorgenommen, unabhängig von der Häufigkeit des späteren Einsatzes des Verfahrens in der Routine. Ist das Verfahren in das Routineprogramm des Labors übernommen worden, kommt es in der Phase der tertiären Validierung darauf an, den erreichten Leistungsstandard zu halten bzw. zu verbessern. Zum Einsatz kommen Methoden, welche die Zuverlässigkeit (= dauerhafte Qualität) des Messsystems belegen. Geprüft wird dies anhand x Stabilität der Kalibrierung, x aktueller Bestimmungsgrenzen (aus der Kalibrierung und/oder Blindwert(kontrollkart)en), x aktueller Präzisions- und Richtigkeitswerte (z. B. aus Kontrollkarten) und x daraus abgeleiteter aktueller Messunsicherheitswerte. Letzten Endes dienen alle ermittelten Kenngrößen zur Abschätzung der Messunsicherheit als objektives Qualitätsmerkmal für das Produkt Analytik. Die Domäne der AQS im Routineprogramm sind die Kontrollkarten.
10.3 Praxis der AQS
So können Wiederfindungsraten-Kontrollkarten oder Mittelwert-Kontrollkarten mit zertifizierten Standards als Kontrollproben Aussagen über den zeitlichen Verlauf der Richtigkeit der Ergebnisse machen. Spannweiten-Kontrollkarten (s. Abb. 10.2) sowie Mittelwert-Kontrollkarten (s. Abb. 10.1) mit selbst hergestellten oder realen Kontrollproben dienen der Präzisionskontrolle. Mit Blindwert-Kontrollkarten kann man Gerätedrifts erkennen, insbesondere Drifts der Basislinie von chromatographischen Verfahren, die durch unerwünschte Veränderungen des Messsystems hervorgerufen werden. Anmerkung 3: Gerade die modernen chromatographischen Verfahren zeigen heutzutage meist keine bzw. keine normalverteilten Blindwertsignale mehr. Als Ausweg bieten sich hier Blindwert-Zielwertkarten an, in die auch Nullsignale eingetragen werden. Als objektbezogene Maßnahmen zur Sicherung der Präzision sind Mehrfachbestimmungen und Standardadditionsverfahren zu nennen. Bei kalibrierbedürftigen Verfahren (z. B. Chromatographie und Spektralphotometrie) ist zusätzlich noch die Beständigkeit der Kalibrierfunktionen von Bedeutung. Hierzu werden in periodischen Abständen sog. „Basiskalibrierungen“ nach DIN 38 402 A51 bzw. ISO 8466-1 [2] durchgeführt, deren abgeleitete Verfahrenskenngrößen vorgegebene Qualitätsziele einhalten müssen. So fordern z. B. die LAWA-AQS-Merkblätter [4] für die Verfahrensvariationskoeffizienten Werte nicht größer als 3,33%. Die „Ochsentour“ dieser Basiskalibrierung wird dadurch „belohnt“, dass die Verfahrensstandardabweichung der Kalibrierung sx0 für die Ermittlung der Nachweisgrenze XNG und Bestimmungsgrenze XBG herangezogen wird (Kalibriergeradenmethode, Schnellschätzverfahren; P = 99%, k = 3; gemäß [10]): X NG = 4 ⋅ s x0
X BG = 11 ⋅ s x0
(10.3)
Für chromatographische Verfahren ist auch das gebräuchliche S/N-Verfahren zulässig: X NG = x (S / N = 3)
X BG = 3 ⋅ x (S / N = 3)
(10.4)
mit: x (S/N = 3) – Analytkonzentration, bei welcher das Signal/Rausch-Verhältnis 3 beträgt. Anmerkung 4: Die Schnellschätzverfahren der Norm DIN 32 645 [10] sowie das o. g. S/N-Verfahren sollen durch die derzeit laufende Revision der Vornorm DIN V EN V ISO 13 530 – A60 [5] zu einer ISO-Norm [13] künftig weltweit verbindlich werden. Moderne chromatographische und photometrische Normen propagieren eine zweistufige Kalibrierstrategie. Dazu werden an den Arbeitstagen des Messsystems
329
330
10 Beurteilung von analytischen Daten aus Behördensicht
Abb. 10.4 Arbeiten mit „Arbeitskalibrierungen“ (visuelle Prüfung der Stabilität der Basisvalidierung). Qualitätsziel: die Arbeitskalibrierfunktion muss in den Vertrauensbändern der Basiskalibrierung liegen.
sog. „Arbeitskalibrierungen“ mit wenigen (2 oder 3) Kalibrierstandards durchgeführt. Wenn die dabei resultierenden Kalibriergeraden sich nicht signifikant von den Basiskalibriergeraden unterscheiden (s. hierzu Abb. 10.4), d. h., die Kalibrierung stabil geblieben ist, kann mit der aktuellen Arbeitskalibrierung ausgewertet werden. Andernfalls ist die in der jeweiligen Fachnorm vorgeschriebene komplette Kalibrierprozedur exakt anzuwenden. 10.3.2 Praxis bei selten angewandten und zeitaufwändigen Analysenverfahren
Ist es in der Massenanalytik relativ einfach, die o. g. Werkzeuge in geeigneter Weise einzusetzen, ergeben sich Probleme bei zeitaufwändigen oder selten angewandten Analysenverfahren. Erleichtert wird der Einsatz für die Massenanalytik noch dadurch, dass im gesetzlich geregelten Wasseranalytikbereich durch die LAWA-AQS-Merkblätter [4] genau vorgeschrieben wird, welche Werkzeuge wie und wann einzusetzen sind. Zeitaufwändig sind Analysenverfahren, die relativ wenig Ergebnisse pro Arbeitstakt liefern. Längere Rüstzeiten für die Messapparaturen, aufwändige Vorbereitungen (Clean-ups), lange Analysendauer und die Auswertung der Rohwerte sind dafür verantwortlich, dass die Abarbeitung einer Analysenserie mehrere Tage dauern kann. AQS-Messungen, welche zusätzlich zu dem arbeitstäglichen Untersuchungsprogramm durchgeführt werden müssen, schmälern den Analysenoutput und damit auch den Gewinn des Labors.
10.3 Praxis der AQS
Analysenverfahren, die nicht kontinuierlich eingesetzt werden (selten angewandte Analysenverfahren), erfordern eine spezielle Qualitätssicherung. GC- bzw. HPLC-Systeme, die einmal pro Monat oder saisonweise eingesetzt werden, zählen hierzu. Es ist davon auszugehen, dass über die langen Standzeiten hinweg das Messsystem nicht konstant bleibt, sondern an den Messtagen aufwändig in Betrieb genommen werden muss. Entsprechend hoch ist auch der Anteil der AQS am Analysenaufwand. Es ist nicht möglich, bei relativ wenigen Analysenserien den „Status statistischer Sicherheit“ aufrechterhalten. Bei diesen selten angewandten Analysen sollte ernsthaft darüber nachgedacht werden, ob organisatorische Maßnahmen, wie Untervergabe oder Arbeitsteilung, nicht ökonomischer sind als das Aufrechterhalten eines Messsystems für nur wenige Proben. Der relative AQS-Aufwand für zeitaufwändige und selten angewandte Analysenverfahren wird mit Sicherheit höher sein müssen als für die Massenanalytik. Die Vornorm DIN V EN V ISO 13 530 – A60 [5] sagt – in ihrer englischen Fassung – hierzu aus: „The maxim that relative few results of known and adequate accuracy are better than many results of unknown and probably inadequate accuracy remains true“. 10.3.2.1 AQS-Vorgehensweise für selten angewandte Analysenverfahren
Die Verhältnisse sind vergleichbar mit dem Einfahren eines neuen Analysensystems. Zwischen den Messzeiten liegen längere Standzeiten. Es fallen relativ lange Wartungs- und Einarbeitungszeiten an. Deshalb muss in der Phase der Eingangsprüfung (sekundäre Validierung) ein hoher AQS-Aufwand betrieben werden (vgl. Abschn. 10.2), damit dieser sich in der Routine auf ein vertretbares Maß reduzieren lässt. Vorgehensweise bei der Kalibrierung (s. Tabelle 10.6): x Grundsätzlich ist an allen Arbeitstagen eine vollständige Kalibrierung gemäß Fachnorm durchzuführen. Mit der Mittelwert-Kontrollkarte, geführt zu einem Kalibrierstandard, kann geprüft werden, wie lange eine Kalibrierfunktion stabil bleibt. x Falls durch das jeweilige LAWA-AQS-Merkblatt [4] Basiskalibrierungen gemäß DIN 38 402-A51 [2] vorgeschrieben sind und nur wenige (z. B. 1–4) Messtage im Jahr anfallen, kann die Basiskalibrierung mit den Messtagen zeitlich verknüpft werden. In diesem Falle wird mit der Basiskalibrierfunktion ausgewertet. Diese Vorgehensweise ist auch analog anwendbar auf Parameter, zu denen (noch) kein LAWA-Merkblatt existiert (z. B. kann das Merkblatt P-4 für alle photometrischen Verfahren analog angewandt werden). Anmerkung 5: In Abhängigkeit von den analysierten Proben kann dabei ggf. auf den Varianzenhomogenitätstest verzichtet werden – wenn nur im mittleren Bereich der Kalibrierfunktion ausgewertet wird. Auch einige LAWA-AQS-Merkblätter [4], wie z. B. P-3/4 (Quecksilberbestimmung) und P-11 (Ionenchromatographie),
331
Umgerechnet < 1 Analyse pro Serie
t 5 Proben in d 3 Jahren bei Ringversuchen analysieren Keine zusätzlichen Messungen
Synthetische oder reale Proben des Ringversuchsorganisators Keine zusätzlichen Proben
Keine zusätzlichen Proben
Verfahrenskenngrößen (Nachweis-/Bestimmungsgrenze)
Messunsicherheit
a)
Umgerechnet 1–2 Analysen pro Serie
Verknüpft mit den Messtagen 5 Aufstockanalysen (nicht häufiger als einmal pro Quartal)
Reale Proben aus dem täglichen Programm
Systematische Messabweichung: (a) Wiederfindungsexperimente oder: (b) Teilnahme an Ringversuchen
Aus messtechnischen Gründen werden Proben des gleichen/ähnlichen Matrixtyps einer Serie zusammengestellt.
Keine zusätzlichen Messungen
12 bis 1 Analyse
Bei neuen Verfahren an 1 bis 2 Proben Sechsfachbestimmungen durchführen, auf Doppelbestimmungen reduzieren. Dann Spannweiten-Kontrollkarte führen.
Reale Proben aus dem täglichen Programm
Zufällige Messabweichung: Mehrfachbestimmungen oder Spannweiten-Kontrollkarte
Keiner (nur Rechenoperationen)
Keiner (nur Rechenoperationen)
Keiner
Gemäß Fachnorm oder nach dem Konzept Basiskalibrierung – Arbeitskalibrierung
5–10 Kalibrierstandards
Zusätzlicher AQS-Aufwand bei einer Messserie pro Monata)
Kalibriervorschrift
Wie angewandt?
Kontrollproben
AQS-Werkzeug
Tabelle 10.7 Beispiele für AQS-Aufwand bei selten angewandten Analysenverfahren in der Routine.
332
10 Beurteilung von analytischen Daten aus Behördensicht
10.3 Praxis der AQS
verzichten auf diesen Test. Der Linearitätstest ist entbehrlich, wenn die Fachnorm auch eine parabolische Kalibrierfunktion vorsieht. Durch den Wegfall der beiden statistischen Tests wird das Kalibrierverfahren wesentlich abgekürzt. x Wenn die Arbeitstage die Zahl der vorgeschriebenen Basiskalibrierungen übersteigt (z. B. zwei Arbeitstage pro Monat) kann auch das oben beschriebene Konzept der Arbeitskalibrierung angewandt werden (s. Abb. 10.4). Annähernd normalverteilte Blindwerte vorausgesetzt, wird die Konstanz des (matrix- und analytfreien) Analysengrundsystems mit Blindwert-Kontrollkarten bzw. mit Blindwert-Zielwertkarten geprüft. Systematische Messabweichungen werden mit Wiederfindungsexperimenten an zertifizierten Referenzmaterialien (sofern erhältlich) oder realen Proben (mit und ohne Aufstockung, s. Tabelle 10.5) und Korrektur der Analysenwerte um den berechneten Bias ermittelt. Zufällige Messabweichungen (s. Tabelle 10.4) werden durch Mehrfachbestimmungen (N = 6) an repräsentativen Proben geschätzt. Bei relativ konstanter Präzision wird die Zahl der Replikate schrittweise auf letztlich zwei (Doppelbestimmung) zurückgefahren. Anschließend werden relative Spannweiten-Kontrollkarten mit den Ergebnissen jeweils einer Doppelbestimmung geführt. Als Maß für die zufällige Abweichung dient die Größe uRw (Unpräzision s. DEV Leitfaden A0-4 [8]). Anmerkung 6: Wenn keine geeignete Mittelwertkontrollkarte geführt werden kann, kann die zufällige Abweichung uRw nach folgender Formel aus der Standardabweichung der Spannweiten-Kontrollkarte – sR – abgeschätzt werden (die Streuungen in den Serien und zwischen den Serien werden gleichgesetzt). uRw =
sR2 + sR2 ≈ 1,4 ⋅ sR
(10.5)
Erforderlich für den Start einer Spannweiten-Kontrollkarte sind aber für die Dauer von zwei Wochen Messungen von realen Proben mit dem Analysensystem. Falls dies aus logistischen Gründen nicht möglich ist, bleibt es bei den o. g. Mehrfachbestimmungen an Stichproben. Tabelle 10.7 ermöglicht die Abschätzung des AQS-Aufwandes anhand des individuellen Untersuchungspaketes. 10.3.2.2 AQS-Vorgehensweise für zeitaufwändige Analysenverfahren
Die oberste Maxime ist hierbei, die Anzahl der Messvorgänge so klein wie vertretbar zu halten. Das Konzept der Arbeitskalibrierung ist hier die Kalibriermethode der Wahl (s. Tabelle 10.6). Sie führt zur Verringerung des Arbeitsaufwandes. Die Arbeitskalibrierungen werden hierbei mit der Basiskalibrierung (wenn gemäß den LAWAMerkblättern [4] eine Basiskalibrierung gemäß DIN 38 402-A51 [2] vorgeschrieben ist) oder mit der aufwändigeren Kalibrierung gemäß Fachnorm verglichen. Bezüglich der Basiskalibrierung gilt auch hier die Anmerkung 5.
333
334
10 Beurteilung von analytischen Daten aus Behördensicht
Abb. 10.5 Beispiel für interne Kalibrierung: GC-MS-Bestimmung von fünf HCH-Verbindungen. Als interner Standard wird die – in der Umwelt nicht vorkommende – Verbindung 3.5-Dibrom-4-methylbenzoesäuremethylester (siehe unterstes Chromatogramm) verwendet.
Für spezielle Verfahren – wie z. B. die Bestimmung der HCH mit GC-MS – kommt auch die interne Kalibrierung zur Anwendung. Die Abb. 10.5 zeigt hierzu ein entsprechendes Chromatogramm. Die Unsicherheit dieser „Einpunktskalibrierung“ sollte einen großen Einfluss auf die gesamte Messunsicherheit der Ergebnisse haben. Hierzu kann mit den internen Standards (deuterierte Verbindungen, 13 C-Verbindungen oder Modellsubstanzen) eine Mittelwert-Kontrollkarte geführt werden, deren Standardabweichung als zufällige Messabweichungskomponente (s. u.) berücksichtigt werden kann. Die Konstanz des (matrix- und analytfreien) Analysengrundsystems wird mit Blindwert-Kontrollkarten bei annähernd normalverteilten Blindwerten bzw. mit Blindwert-Zielwertkarten geprüft. Ein AQS-bezogener Messaufwand ist hierfür nicht erforderlich, da die Blindwertmessung Verfahrensbestandteil ist. Zufällige Messabweichungen (s. Tabelle 10.4) können mit Mittelwert-Kontrollkarten geschätzt werden, bei denen geeignete haltbare reale Proben – die den Analyten enthalten – als Kontrollproben eingesetzt werden. Andernfalls müssen (relative) Spannweiten-Kontrollkarten für ausgesuchte reale Proben geführt werden, wobei auch hier – mangels anderer Vorschläge – die Gleichung (10.5) in Anmerkung 6 verwendet werden kann.
Umgerechnet < 1 Analyse pro Serie
t 5 Proben in d 3 Jahren bei Ringversuchen analysieren Keine zusätzlichen Messungen
Synthetische oder reale Proben des Ringversuchsorganisators Keine zusätzlichen Proben
Keine zusätzlichen Proben
Verfahrenskenngrößen (Nachweis-/Bestimmungsgrenze)
Messunsicherheit
a)
Umgerechnet d 1 Analyse pro Serie
Einmal im Quartal: 5 Aufstockanalysen
Reale Proben aus dem täglichen Programm
Systematische Messabweichung: (a) Wiederfindungsexperimente oder: (b) Teilnahme an Ringversuchen
Aus messtechnischen Gründen werden Proben des gleichen/ähnlichen Matrixtyps zu einer Serie zusammengestellt.
Keine zusätzlichen Messungen
1 Analyse pro Messtag
Spannweiten-Kontrollkarte führen
Reale Proben aus dem täglichen Programm
Zufällige Messabweichung: Spannweiten-Kontrollkarte
Keiner (nur Rechenoperationen)
Keiner (nur Rechenoperationen)
Keiner
Gemäß Fachnorm oder nach dem Konzept Basiskalibrierung – Arbeitskalibrierung
Kalibrierstandards
Zusätzlicher AQS-Aufwand pro Serie (1–2 Messtage pro Woche) von 10 Proben einer Matrixa)
Kalibriervorschrift
Wie angewandt?
Kontrollproben
AQS-Werkzeug
Tabelle 10.8 Beispiele für AQS-Aufwand bei zeitaufwändigen Analysenverfahren in der Routine.
10.3 Praxis der AQS 335
336
10 Beurteilung von analytischen Daten aus Behördensicht
Systematische Messabweichungen werden mit Wiederfindungsexperimenten an zertifizierten Referenzmaterialien (sofern erhältlich) oder realen Proben (mit und ohne Aufstockung, s. Tabelle 10.5) und Korrektur der Analysenwerte um den ermittelten Bias erhalten. Auf die internen Wiederfindungsexperimente kann verzichtet werden, sofern das Labor an einschlägigen Ringversuchen mit Erfolg teilnimmt (nach DEV A0-4 [8] sollen vom Labor innerhalb von drei Jahren von dem betroffenen Parameter mindestens fünf Proben in Ringversuchen erfolgreich analysiert werden). Tabelle 10.8 ermöglicht die Abschätzung des AQS-Aufwandes anhand des individuellen Untersuchungspaketes.
10.4 Beurteilung der Analysenergebnisse
In Abhängigkeit von dem vorgegebenen Untersuchungsziel werden die erhaltenen Analysenergebnisse mit der geschätzten erweiterten Messunsicherheit (U) verbunden: 2 x ± U = x ± 2 ⋅ uC = x ± 2 ⋅ uRw + u 2bias
(10.6)
mit: x = Analysenergebnis, U = erweiterte Messunsicherheit, uC = kombinierte Messunsicherheit, uRw = gesamte zufällige Messabweichung, u2bias = gesamte systematische Messabweichung. Der wahre Wert des Ergebnisses befindet sich nach diesem statistischen Ansatz mit 95%iger Wahrscheinlichkeit im Bereich x – U bis x + U. Bei einer Grenzwertüberwachung muss der Grenzwert außerhalb dieses Bereiches liegen, soll eine Grenzwertüberschreitung bzw. -unterschreitung zweifelsfrei festgestellt werden.
Abb. 10.6 Konzept der Grenzwertüberwachung (z. B. beim Vollzug der Abwasserverordnung) [11]. Die maximal tolerable Messunsicherheit ist in den Grenzwert „eingebaut“. Jede nominelle Überschreitung des (neuen) Grenzwertes ist deshalb eine Rechtsverletzung.
10.5 Fazit und Ausblick
Dieses Konzept birgt aber eine Gefahr für die Überwachungsbehörden. Je größer der o. g. Bereich ausgedehnt wird (was man z. B. durch unsauberes Arbeiten „hinbekommt“!), umso schwieriger wird der Nachweis einer Grenzwertverletzung. Aus diesem Grunde werden z. B. in der bundesdeutschen Abwasserverordnung [11] maximal tolerierbare Messunsicherheiten (Sicherheitszuschläge) festgelegt und zu den (alten) Grenzwerten hinzuaddiert. Eine nominelle Überschreitung dieser neuen Grenzen stellt dann eine Rechtsverletzung dar (s. Abb. 10.6). Das Labor wird durch dieses Konzept gezwungen, seine Arbeitsweise so zu optimieren, dass seine Messunsicherheitswerte im gewünschten Bereich (der Sicherheitszuschläge) liegen.
10.5 Fazit und Ausblick
Umweltbehörden benötigen zur Kontrolle der Umwelt analytische Daten in der Regel zweckgerichtet, d. h. zur Beantwortung einer gesetzlichen Fragestellung. Es geht dabei meist um das Einhalten von Grenzwerten, welche in gesetzlichen Regeln festgesetzt wurden. Die Behörden benötigen justitiable Ergebnisse, die auch einem Verwaltungsgerichtsverfahren Stand halten können. Dem gegenüber steht aber die weit verbreitete falsche Einstellung von Politik und öffentlicher Verwaltung, dass man die Kontrolle der Umwelt mit immer weniger Analysenergebnissen sicherstellen kann. Man schließt von der derzeitigen – gegenüber früher – besseren Umweltsituation darauf, dass auch im Einzelfall weniger „gesündigt“ wird. Was eine ähnliche Einstellung im Verbraucherschutz bewirkt hat, zeigen die vielen Lebensmittelskandale (Gammelfleisch, Salmonellen). Die wenigen zur Umweltkontrolle herangezogenen Analysenergebnisse müssen „wasserdicht“ sein. Zum einen akzeptieren die Behörden nur – für den jeweiligen Untersuchungsbereich – kompetenzgeprüfte (d. h. akkreditierte und/oder notifizierte Laboratorien) sowie vorgegebene und exakt einzuhaltende Referenzverfahren, die im Umweltbereich in den sog. Fachmodulen [12] festgelegt sind. Zum anderen müssen die ausgewählten Laboratorien zur Absicherung der Analysenergebnisse eine AQS (z. B. gemäß den LAWA-AQS-Merkblättern [4]) betreiben, die ebenfalls vorgeschrieben und ohne Abweichungen einzuhalten ist. Die wichtigste Kenngröße zur Absicherung des Analysenergebnisses ist die Messunsicherheit. Die Behörden als Konsumenten der Analysenergebnisse müssen sich selbstverständlich ebenfalls an vorgegebene „Spielregeln“ halten, z. B. zur Feststellung einer Grenzwertüberschreitung. Das hierfür herangezogene Konzept darf nicht willkürlich geändert werden. Diese sehr weitgehenden Reglementierungen sind notwendig, um eine Gleichbehandlung aller Umweltdelikte zu erreichen. Alle Beteiligten müssen sich aber im Klaren sein, dass alle Abweichungen von diesen Reglementierungen – auch formeller Art – zu Lasten der Umweltbehörden gehen, denn mit nicht justitiablen Werten kann man keine Umweltdelikte nachweisen.
337
338
10 Beurteilung von analytischen Daten aus Behördensicht
Literatur 1 DIN EN ISO/IEC 17 025, August 2005: Allgemeine Anforderungen an die Kompetenz von Prüf- und Kalibrierlaboratorien. 2 DIN 38 402-A51, Mai 1986: Deutsche Einheitsverfahren zur Wasser-, Abwasser- und Schlammuntersuchung – Allgemeine Angaben (Gruppe A) – Kalibrierung von Analysenverfahren, Auswertung von Analysenergebnissen und lineare Kalibrierfunktionen für die Bestimmung von Verfahrenskenngrößen (ISO 8466-1: März 1990). 3 DIN ISO 8466-2 (A44), Juni 2004: Wasserbeschaffenheit – Kalibrierung und Auswertung analytischer Verfahren und Beurteilung von Verfahrenskenndaten – Teil 2: Kalibrierstrategie für nichtlineare Kalibrierfunktionen zweiten Grades (ISO 8466-2:2001). 4 Rahmenempfehlungen der Länderarbeitsgemeinschaft Wasser (LAWA) für Wasser-, Abwasser- und Schlammuntersuchungen und zugehörige Merkblätter; Verlag E. Schmidt, Berlin. Die zweite Ausgabe des LAWA-Merkblattes A-2 „Kontrollkarten“ ist mit Stand September 2004 publiziert worden. Das LAWAMerkblatt A-5 „Validierung“ liegt im Entwurf vor. Merkblatt A-7 wurde 2003 publiziert. 5 DIN V EN V ISO 13 530 – A60, 1998: Wasserbeschaffenheit – Richtlinie zur analytischen Qualitätssicherung in der Wasseranalytik. ISO/TR13530:1997). Beuth Verlag, Berlin. 6 „Strategien für die Wasseranalytik: Verfahrensentwicklung, Validierung und Qualitätssicherung in der Routine“. DEV 1997. Beuth Verlag, Berlin.
7 DEV A0-2, 59. Lieferung 2004: Verfahrensentwicklung, Validierung und Qualitätssicherung in der Routine. Beuth Verlag, Berlin. 8 DEV A0-4. Lieferung 2006: Leitfaden zur Abschätzung der Messunsicherheit aus Validierungsdaten. Beuth Verlag, Berlin. 9 EURACHEM/CITAC Guide Quantifying Uncertainty in Analytical Measurement, 2. Auflage, 2000; Deutsche Übersetzung: Ermittlung der Messunsicherheit bei analytischen Messungen, 2. Auflage, Februar 2004, http://www.eurolab-d. bam.de/dokumente.html). 10 DIN 32 645, Mai 1994: Chemische Analytik – Nachweis-, Erfassungs- und Bestimmungsgrenze – Ermittlung unter Wiederholbedingungen, Begriffe, Verfahren, Auswertung. 11 Abwasserverordnung – AbwV (Neufassung vom 17.6.2004). 12 Fachmodul Wasser gemäß § 4 Abs. 1 der Verwaltungsvereinbarung über den Kompetenznachweis und die Notifizierung von Prüflaboratorien und Messstellen im gesetzlich geregelten Umweltbereich, Fachmodul Boden und Altlasten – Bereichsspezifische Anforderungen an die Kompetenz von Untersuchungsstellen im Bereich Boden und Altlasten, Fachmodul Abfall – Kompetenznachweis und Notifizierung von Prüflaboratorien und Messstellen im abfallrechtlich geregelten Umweltbereich, Modul Immissionsschutz – Fachkundenachweis für Ermittlungen im Bereich des Immissionsschutzes. 13 ISO 13 530: Befindet sich derzeit (Stand Nov. 2007) im Entwurfsstadium (ISO/DIN 13 530).
339
11 Auswertung Chromatographischer Daten nach den Arzneibüchern – Kontrolle von Verunreinigungen Ulrich Rose
11.1 Problemstellung
Die Arzneibücher sind eine Sammlung von allgemeinen und speziellen Texten (Monographien), deren Zweck es ist, allgemeinverbindliche Qualitätsnormen zur qualitativen und quantitativen Analyse von Arzneistoffen und Wirkstoffen festzulegen. Im Falle des Europäischen Arzneibuchs [1] stellen diese Normen die obligatorischen Standards in den zurzeit 36 Mitgliedsstaaten der Europäischen Arzneibuchkommission dar. Wesentliche Bestandteile der Arzneibücher sind der allgemeine Teil mit den Kapiteln zur Beschreibung der Analysenmethoden und der spezielle Teil mit den Monographien über Wirk- und Hilfsstoffe. Die amerikanische Pharmakopöe (USP) [2] beinhaltet zusätzlich auch Monographien für Fertigarzneimittel. In den speziellen Monographien wird die Kontrolle der Verunreinigungen meist durch chromatographische Verfahren gewährleistet, wobei HPLC die Methode der Wahl darstellt. Um einen Rahmen für die Durchführung der Chromatographie in den einzelnen Monographien zu definieren, liefern die Arzneibücher in entsprechenden allgemeinen Kapiteln Definitionen, Berechnungsformeln allgemeiner Parameter und generell gültige Anforderungen für Systemeignungstests. Dies sind in der United States Pharmacopeia (USP) das Kapitel 621 „Chromatography“ [3] und in der Europäischen Pharmakopöe (Ph. Eur.) das Kapitel 2.2.46 „Chromatographic Separation Techniques“ [4], welches gegenwärtig revidiert wird und in einer überarbeiteten Version in Pharmeuropa publiziert wurde [5]. Nachfolgend soll im Wesentlichen auf die hier vorgegebenen Empfehlungen und Richtlinien zur Durchführung der Chromatographie und Auswertung chromatographischer Daten eingegangen werden.
340
11 Auswertung Chromatographischer Daten nach den Arzneibüchern
11.2 Auswertung qualitativer Daten
In der Ausarbeitung eines allgemein anwendbaren Pharmakopöe-Reinheitstests durch HPLC besteht eines der Hauptprobleme in der Definition eines geeigneten chromatographischen Systems, welches reproduzierbare Ergebnisse liefert. Dies wird durch die Vielzahl kommerziell erhältlicher stationärer Phasen, insbesondere im Bereich der Reverse-Phase-Materialien, erschwert, da hier nicht nur die Verwendung unterschiedlicher Typen, sondern zum Teil auch Batch-zu-BatchVariationen der gleichen Phase die Auftrennung oder Elutionsfolge beeinflussen können. Die Standardisierung im Sinne der Erzielung qualitativ und quantitativ reproduzierbarer Ergebnisse stellt daher die Hauptaufgabe bei der Ausarbeitung einer Arzneibuchmethode dar. Beispielsweise werden im Kapitel 2.2.46 „Chromatographic Separation Techniques“ des Europäischen Arzneibuchs qualitative chromatographische Parameter aufgeführt, die zur Beschreibung der Retentionsdaten dienen: Dazu zählen die Retentionszeit und das -volumen, die Massenverteilung (Kapazitätsfaktor bzw. Retentionsfaktor) und der Verteilungskoeffizient. Ein wichtiger Faktor zur Beschreibung der Peakform ist der Symmetriefaktor, der sich wie folgt berechnet: As = W0.05/2 d, wobei W0.05 die Peakbreite bei einem Zwanzigstel der Höhe und d die Distanz zwischen der vom Peakmaximum gezogenen Senkrechten und dem Peakanfang bei einem Zwanzigstel Peakhöhe bedeutet. Ein Wert von 1,0 bedeutet ideale Symmetrie. Ein weiterer, in neueren Monographien weniger häufig benutzter Parameter, um die Säulenleistung zu beschreiben, ist die Anzahl theoretischer Böden, die berechnet wird nach: N = 5,54 · (tR/Wh)2, wobei tR gleichbedeutend ist mit Retentionszeit oder -volumen und Wh die Breite des Peaks bei halber Höhe darstellt (s. auch Kapitel 1). Heutzutage oft verwendete Kriterien zur Charakterisierung chromatographischer Trennungen zweier Substanzen sind die Resolution (Auflösung) oder die sog. „Peak-to-Valley-Ratio“. Nach dem Europäischen Arzneibuch berechnet sich die Auflösung zwischen zwei Komponenten nach der Formel Rs = 1,18 · (tR2 – tR1)/(Wh1 + Wh2), wobei tR = Retentionszeit und Wh = Breite bei halber Peakhöhe bedeuten. Die frühere Anforderung des Ph. Eur., dass diese Berechnung an Peaks gleicher Höhe vorgenommen werden muss, gilt heute nicht mehr. Dies ermöglicht dem Autor einer Monographie, Systemeignungstests zu beschreiben, die eine „real-life“-Situation darstellen, d. h. z. B. die Trennung zwischen der Untersuchungssubstanz und einer Verunreinigung, die in einer Referenzlösung in einem realistischen Konzentrationsverhältnis vorliegen, z. B. von 100 : 1. Die Voraussetzung dafür ist allerdings, dass die Hauptkomponente in einer Konzentration vorliegt, die nicht zu einer Detektorüberladung führt, da sonst eine Messung der Peakbreite bei halber Höhe nicht oder nur schätzungsweise möglich ist. Die USP lässt die Auflösung insofern unterschiedlich berechnen, als dass die Breite des Peaks nicht bei halber Höhe, sondern an der Basis gemessen wird und anstelle von 1,18 ein Faktor von 2 im Zähler verwendet wird, was letzt-
11.2 Auswertung qualitativer Daten
endlich dazu führt, dass die berechnete Auflösung in der gleichen Größenordnung liegt wie bei Ph. Eur. Alternativ wird in der USP bei Verwendung elektronischer Integratoren folgende Formel angeboten: R = 2 · (t2 – t1)/1,70 · (W1,h/2 + W2,h/2). Bei genauerer Betrachtung ergibt sich hier exakt die gleiche Formel wie in der Europäischen Pharmakopöe verwendet. In solchen Fällen, wo Verunreinigungs- und Hauptpeak sehr dicht beieinander liegen und nicht basisliniengetrennt sind, kann die Auflösung eventuell nicht wie oben berechnet werden. In diesem Fall kommt die in der Europäischen Pharmakopöe beschriebene „Peak-to-Valley-Ratio“ im Systemeignungstest zur Anwendung, die im entsprechenden USP-Kapitel nicht aufgeführt ist. Es wird hier das Verhältnis zwischen Peakhöhe des Verunreinigungspeaks (Hp) und dem niedrigsten Punkt („valley“) zwischen Verunreinigungs- und Hauptpeak berechnet (p/v = Hp/Hv) und als Systemeignungskriterium verwendet (Abb. 11.1). Ein bedeutender Punkt im Hinblick auf die qualitative Auswertung chromatographischer Daten ist die Identifizierung von Komponenten im chromatographischen System. Die Angabe von Retentionszeiten als Charakteristikum ist hier oft hilfreich, aber auch unzureichend, da abhängig von der jeweils verwendeten stationären Phase eine hohe Variabilität besteht. Eine etwas genauere Hilfe ist die in Ph. Eur. und USP verwendete Angabe der relativen Retention, die sich berechnet nach r = (tR2 – tM)/(tR1 – tM). Da jedoch tM, die Retentionszeit einer nicht zurückgehaltenen Substanz, in der Praxis nicht bei jeder Analyse experimentell bestimmt wird, verwendet Ph. Eur. der Einfachheit halber auch den Begriff der
Abb. 11.1 Hauptsubstanz mit einer unvollständig abgetrennten Verunreinigung. Hp: Höhe des Verunreinigungspeaks, gemessen von der extrapolierten Basislinie. Hv: Höhe des niedrigsten Punktes der Kurve, die den Neben- vom Hauptpeak trennt. Peak-to-valley ratio: p/v = Hp/Hv .
341
342
11 Auswertung Chromatographischer Daten nach den Arzneibüchern
„unadjusted relative retention rG“, die sich als Quotient aus tR2, der Retentionszeit des interessierenden Peaks, und tR1, der Retentionszeit eines Referenzpeaks, meist der Hauptsubstanz, errechnet. Die Erfahrung zeigt jedoch, dass auch relative Retentionen nur bedingt reproduzierbar sind und daher nicht allein zur Identifizierung von Peaks in chromatographischen Systemen verwendet werden können: Der Referenzpeak unterliegt auch chromatographischen Einflüssen (Eluentenzusammensetzung, pH-Wert etc.) und stellt selbst eine Variable dar, anders als eine inerte Komponente. Nach dem Technical Guide [6] des Europäischen Arzneibuchs ist die bevorzugte Option zur Identifizierung von Verunreinigungspeaks die Verwendung von Referenzsubstanzen (Chemical Reference Substance, CRS) [7]. Diese Referenzsubstanzen können sowohl die zu untersuchende Hauptsubstanz, Verunreinigungen als auch Mischungen der zu identifizierenden Verunreinigungen mit der Hauptsubstanz sein (Systemeignungs- oder Peak-Identifizierungsmischungen). Aufgrund der limitierten Verfügbarkeit von Verunreinigungen als isolierte Substanzen ist die Verwendung dieser Mischungen, die zusammen mit einem Typchromatogramm ausgeliefert werden, in neueren Monographien der Ph. Eur. die bevorzugte Option zur Identifizierung von Verunreinigungen und zur Durchführung des Systemeignungstests (Abb. 11.2). Eine interessante Alternative zur Verwendung von Referenzsubstanzen zur Identifizierung von Verunreinigungen im chromatographischen System stellt die Methode der „In-situ-Degradierung“ dar, bei der unter kontrollierten Bedingungen gezielt eine bestimmte Verunreinigung durch Abbau der Testsubstanz, z. B. durch Oxidation oder Hydrolyse, produziert wird und die gewonnene Referenzlösung ohne Isolierung der Substanz direkt chromatographiert wird >8@.
Abb. 11.2 Hauptsubstanz mit 4 Verunreinigungen. Anforderung: Mindestauflösung der jeweiligen Verunreinigungspaare: Rs > 2.5. Gefunden: jeweils Rs = 2.9.
11.2 Auswertung qualitativer Daten
11.2.1 Systemeignungstest
Um eine adäquate Leistung des chromatographischen Systems zu sichern, sollte am Anfang, aber auch während der analytischen Prozedur, ein Systemeignungstest durchgeführt werden. Zu diesem Zweck bietet sich eine Überprüfung der oben genannten Parameter an. Grundsätzlich sind im Europäischen Arzneibuch nach Kapitel 2.2.46 im Test auf verwandte Verbindungen per HPLC folgende Kriterien zu erfüllen: x Die Peaksymmetrie im Chromatogramm einer Referenzlösung sollte zwischen 0,8 und 1,5 liegen, wenn in der Monographie nicht anders definiert. x Das LOQ (Limit of Quantification) ist höchstens so groß wie das Disregard-Limit (nach ICH Reporting Threshold). x Die in der Monographie vorgegebenen Anforderungen an die minimale Peaktrennung, z. B. durch Bestimmung der Auflösung oder „Peak-to-Valley-Ratio“, müssen erfüllt werden. Neuere Monographien, in denen eine größere Anzahl von Verunreinigungen identifiziert und voneinander getrennt werden sollen, können auch mehr als ein Kriterium für die Auflösung aufführen, z. B. die revidierte Monographie für Norfloxacin [9], die eine Mindestauflösung von 1,5 zwischen Verunreinigung E und Norfloxacin und von mindestens 3,0 zwischen den Verunreinigungen A und H vorschreibt. Für diese Art von Tests bieten sich besonders kritische Trennungen, d. h. im Chromatogramm dicht aufeinanderfolgende Peaks, die eventuell koeluieren können, zum Systemeignungstest an. Als Ergebnis des Tests soll schließlich sichergestellt werden, dass bei Analyse der Testsubstanz alle eventuell vorkommenden Verunreinigungen voneinander und von der Hauptsubstanz abgetrennt werden. x Retentionszeit und relative Retention: Diese werden üblicherweise in den Arzneibüchern zur Information aufgeführt, aber nicht als Systemeignungskriterium. x Wiederholbarkeit, relative Standardabweichung der Peakresponse einer Referenzlösung: Dies ist in der Ph. Eur. ein neues Systemeignungskriterium, welches erstmals im revidierten Kapitel 2.2.46 [10] auftaucht. Es besagt, dass die RSD der Peakfläche bei wiederholter Einspritzung der Referenzlösung nicht größer als 5,0% sein sollte, wenn die Konzentration der Untersuchungssubstanz größer als 0,2% im Verhältnis zur Testlösung ist, und nicht größer als 10,0% sein sollte, wenn die Konzentration kleiner als 0,2% ist. x Anpassung chromatographischer Bedingungen: Dem Analytiker stellt sich häufig die Frage, in welchem Rahmen die chromatographischen Bedingungen angepasst werden können, um die Systemeignungsanforderungen zu erfüllen. Hier gibt das Europäische Arzneibuch klare Richtlinien vor. Umso mehr ist es erstaunlich, dass der vorgegebene Spielraum von Pharmaunternehmen selten genutzt wird. Nach der revidierten Fassung des Kapitels 2.2.46, die zurzeit allerdings noch nicht offiziell ist, beziehen sich die erlaubten Modifikationen nur auf isokratische Systeme (s. auch Tabelle 13.2 in Kapitel 13):
343
344
11 Auswertung Chromatographischer Daten nach den Arzneibüchern
– Mobile Phase: Menge der kleineren Lösungsmittelkomponente kann um ± 30% relativ oder ± 2% absolut verändert werden. – pH-Wert: ± 0,2 pH des wässrigen Anteils der mobilen Phase. – Konzentration von Salzen in der Pufferkomponente der mobilen Phase: ± 10%. – Detektionswellenlänge: keine Änderung erlaubt. – Stationäre Phase/Säule: Säulenlänge ± 70%, Innendurchmesser ± 25%, Partikelgröße maximale Reduktion 50%. – Durchflussrate ± 50%. – Säulentemperatur ± 5 K. Wie bereits erwähnt, ist die Veränderung der oben genannten Parameter nicht zulässig bei Gradientensystemen. Eine Veränderung der chromatographischen Bedingungen ist hier kritischer als bei isokratischen Systemen, da dies zu Verschiebung von Peaks in andere Gradientenstufen führen kann, sich damit das chromatographische Profil ändert und die Zuordnung von Peaks erschwert oder verfälscht wird. Auch besteht das Risiko, dass spät eluierende Verunreinigungen eventuell nicht mehr innerhalb des Gradienten detektiert werden. Bei isokratischen Systemen besteht diese Gefahr nicht, da hier die Dauer der Chromatographie meist als Funktion der Retentionszeit des Hauptpeaks (z. B. zweimal die Retentionszeit des Hauptpeaks) angegeben wird und so auch bei Verlängerung der Retentionszeiten kein Peak „verloren“ geht. Daher wird im revidierten Kapitel 2.2.46 bei Gradientensystemen generell von einer Veränderung der Zusammensetzung der mobilen Phase abgeraten [10] und – falls die Systemeignungsanforderungen nicht erfüllt werden können – es wird empfohlen, die Säule zu wechseln und das „Dwell-Volume“ (Verweilvolumen) zu beachten. Eine Formel zur Korrektur der Gradientenzeiten in Abhängigkeit vom Dwell-Volume wird angegeben. Formel für die Berechnung der Gradientenzeiten t in Abhängigkeit vom Dwell volume (nach [10]): tc = t – (D – Do) / f D = Dwell volume, in ml Do = Dwell volume, in ml, so wie bei der Methodenentwicklung verwendet (1 ml, wenn nicht anders angegeben) F = Flow rate in ml/min t = angegebene Gradientenzeit tc = korrigierte Gradientenzeit Der Technical Guide des Ph. Eur. empfiehlt bei Gradientensystemen einen Systemeignungstest in jeder kritischen Gradientenstufe durchzuführen. Hier empfehlen sich natürlich besonders oben genannte „Systemeignungsmischungen“, die bevorzugt Komponenten enthalten sollten, die früh, in der Mitte und am Ende des Gradientensystems eluieren, um so einerseits Selektivität und andererseits die komplette Eluierung aller zu kontrollierenden Verunreinigungen zu garantieren.
11.3 Auswertung quantitativer Daten
11.3 Auswertung quantitativer Daten
Ziel der in den Arzneibüchern beschriebenen chromatographischen Analyse von Verunreinigungen ist natürlich deren quantitative Erfassung bzw. ihre Limitierung in der zu untersuchenden Testsubstanz. Zu diesem Zweck sind oben genannte qualitative Parameter beschrieben, die zunächst eine ausreichende Abtrennung und eindeutige Zuordnung bzw. Identifizierung der zu bestimmenden Verunreinigungen ermöglichen sollen. Neben den hier genannten qualitativen Systemeignungskriterien führt die Europäische Pharmakopöe im Kapitel 2.2.46 auch ein quantitatives Kriterium auf [11], welches erfüllt werden muss: Das Quantifikationslimit (LOQ = Limit of Quantification) darf maximal so groß sein wie das sog. „Disregard-Limit“ (Reporting threshold), unterhalb dessen detektierte Peaks zu vernachlässigen sind. In der Regel beträgt dieses Disregard-Limit 0,05%, bezogen auf die Testsubstanz. Ausnahmen können aber in den Monographien beschrieben sein. In der USP fehlt ein solches Kriterium, soll aber wie kürzlich von Pappa et al. [12] beschrieben, nach dem Vorbild der Ph. Eur. eingeführt werden. In der Literatur sind zahlreiche Methoden zur Berechnung des Quantifikationslimit beschrieben [13, 14], auch im Abschnitt zur Validierung analytischer Methoden nach dem Technical Guide der Ph. Eur. finden sich Berechnungsmöglichkeiten. Die im Kapitel 2.2.46 beschriebene Methode basiert auf einer Auswertung des Signal/Rausch-Verhältnisses (S/N ratio = Signal-to-Noise Ratio), welches mindestens 10 : 1 sein sollte, um Peaks korrekt und reproduzierbar erfassen zu können. Nach Kapitel 2.2.46 berechnet sich dieses Verhältnis wie folgt: S/N = 2 H/h, wobei H die Höhe des Peaks einer Referenzlösung bedeutet und h die Höhe des Basislinienrauschens, erhalten mit dem Chromatogramm einer Blindlösung; hier sollte der Analytiker über eine Distanz messen, die zwanzig Mal der Breite des Peaks bei halber Höhe entspricht, und dies, wenn möglich, auch in dem Bereich des Chromatogramms, in dem der Peak später auch gefunden wird. Die Bezeichnung „wenn möglich“ soll dem Analytiker eine gewisse Freiheit bei der Messung einräumen und unterstreichen, dass bei allen Arzneibuchvorgaben auch immer der analytische Sachverstand gefordert ist und manchmal individuelle Lösungen gesucht werden müssen. Die Art der Bestimmung der Verunreinigungen in den Arzneibüchern entspricht zurzeit einem Limittest, soll aber in der Europäischen Pharmakopöe für die 6. Ausgabe in einen quantitativen Test umgewandelt werden. Generell werden zur quantitativen Erfassung der Verunreinigungen zwei Methoden verwendet, die der Normalisierung oder die Methode des externen Standards. Bei der seltener verwendeten Methode der Peakflächennormalisierung wird die Fläche des Verunreinigungspeaks im Chromatogramm der Testlösung direkt mit der Fläche des Hauptpeaks verglichen und auf diesen bezogen. Dies ist zwar eine einfache, schnell durchführbare Prozedur, erfordert aber eine Linearität der Detektorresponse über den gesamten Bereich, d. h. von Konzentrationen von häufig um 0,1% der Verunreinigungen bis zu 100% der Testsubstanz. Da im Test auf verwandte Verbindungen oft sehr konzentrierte Lösungen verwendet werden,
345
346
11 Auswertung Chromatographischer Daten nach den Arzneibüchern
um Verunreinigungen auch in niedrigen Konzentrationen noch detektieren zu können, ist diese Linearität häufig nicht gegeben, da es durch den Hauptpeak zur Detektorsättigung kommt. Sie ist auch stark vom jeweils verwendeten Detektor abhängig. Das Europäische Arzneibuch empfiehlt daher eher die Methode des externen Standards [6], wobei die Linearität lediglich im Bereich von 50 bis 120% der Spezifikation der jeweiligen Verunreinigung gegeben sein muss. Dies ist bei der Validierung der analytischen Methode zu verifizieren. Generell können bei der Verwendung dieser Methode verdünnte Lösungen der zu bestimmenden Verunreinigungen oder auch eine verdünnte Lösung der Testsubstanz als externer Standard verwendet werden, wobei die Konzentration dieser Referenzlösung im Bereich der jeweils zu bestimmenden Verunreinigung liegen sollte, d. h. häufig zwischen 0,1 und 1,0%, bezogen auf die Testlösung. Der Verunreinigungspeak im Chromatogramm der Testlösung wird dann direkt mit dem Peak im Chromatogramm der Referenzlösung verglichen. Der Idealfall liegt sicher vor, wenn eine Lösung der Referenzsubstanz der zu bestimmenden Verunreinigung als externer Standard verwendet werden kann, da hier jegliches Problem eventuell unterschiedlicher Detektorresponse von Haupt- und Nebensubstanz ausgeschlossen wird. Da aus den oben genannten Gründen dies jedoch nicht immer möglich ist, behilft man sich häufig mit einer verdünnten Testlösung als externem Standard. Hier muss natürlich bei der Validierung der Methode sichergestellt werden, dass die Verunreinigung eine ähnliche Detektorresponse aufweist wie die Hauptsubstanz. Während die USP hier keine näheren Angaben macht, aber eine Annäherung an die Ph. Eur. diskutiert [15], erlaubt das Europäische Arzneibuch im Kapitel 2.2.46 einen Bereich von 0,8 bis 1,2, innerhalb dessen die Response der Verunreinigung in Bezug auf die Hauptsubstanz vernachlässigt, d. h., gleich eins gesetzt werden kann. Außerhalb dieses Bereichs muss in der Monographie ein Responsefaktor bzw. ein Korrekturfaktor angegeben sein. Wie in [15] gut dargestellt, werden mitunter die Begriffe Response- und Korrekturfaktor teilweise unterschiedlich angewendet. Nach Ph. Eur. drückt der Begriff des Reponsefaktors das Verhältnis von Detektorresponse der Verunreinigung zu Detektorresponse der Hauptsubstanz aus; der in der Monographie angegebene Korrekturfaktor stellt den Reziprokwert des Responsefaktors dar: mit diesem Faktor ist die Peakfläche der Verunreinigung im Chromatogramm der Testlösung zu multiplizieren. Zu der Art und Weise, wie der Responsefaktor bestimmt wird, sind in den Arzneibüchern keine Angaben gemacht. In jedem Fall sollte eine gewisse Überprüfung der Linearität im Bereich um die Spezifikation der Verunreinigung stattfinden. Nach Auffassung des Autors sollte auch eine Bestimmung der Reinheit der Verunreinigung und des Wasser- bzw. Restlösemittelsgehalts durchgeführt werden, um den „Gehalt“ der Verunreinigung zu ermitteln. Prinzipiell sollte sie also ähnlichen Untersuchungen wie bei der Etablierung einer CRS [16] unterworfen werden; das Gleiche gilt natürlich auch für die Hauptsubstanz. Es ist klar, dass z. B. ein hoher Wassergehalt, der nicht in die Berechnung einbezogen wird, zu falschen Werten bei der Kalkulation des Responsefaktors führen kann. Da die Menge der zur Verfügung stehenden Verunreinigung häufig begrenzt ist, bleibt
Literatur
es letztendlich dem Analytiker überlassen, Methoden auszuwählen, die nur kleine Substanzmengen verbrauchen und trotzdem ein in wissenschaftlicher Hinsicht zuverlässiges Resultat liefern.
Literatur 1 European Pharmacopoeia, 5th ed., Council of Europe, Strasbourg, 2005. 2 United States Pharmacopeia (USP) 29, Rockville, USA, 2006. 3 United States Pharmacopeia (USP) 29, General Chapter 621 Chromatography, Rockville, USA, 2006. 4 2.2.46, Chromatographic Separation Techniques, European Pharmacopoeia, 5th ed. (5.0, Volume 1), 2005. 5 Kapitel 2.2.46, Chromatographic Separation Techniques, Pharmeuropa 2006, 18.3, 410–416. 6 Technical Guide for the elaboration of monographs (European Pharmacopoeia), 4th ed., 2005, 31 pp. 7 J. H. McB. Miller, A. Artiges, U. Rose, V. Egloff, E. Charton, Reference substances and spectra for pharmaceutical analysis, 172–195, in Reference Materials for Chemical Analysis, M. Stoeppler, W. R. Wolf, P. J. Jenks (Eds.), Wiley-VCH, Weinheim, 2001.
8 U. Rose, J. Pharm. Biol. Anal. 1998, 18, 1–14. 9 Monograph 1246, Norfloxacin, Pharmeuropa 18.4, 2006, 645–647 10 2.2.46 Chromatographic Separation Techniques, Pharmeuropa 2006, 18.3, 413–414. 11 2.2.46 Chromatographic Separation Techniques, Pharmeuropa 2006, 18.3, 414. 12 T. J. DiFeo, O. A. Quattrocchi, H. Pappa, Pharmacopeial Forum 2006, 32 (6), 1862–1864. 13 J. P. Foley, J. G. Dorsey, Chromatographia, 1984, 9, 503–511. 14 M. Zorn, R. Gibbons, W. Sonzogni, Environ. Sci. Technol. 1999, 33, 2291–2295. 15 L. Bhattacharyya, H. Pappa, K. A. Russo, E. Sheinin, R. L. Williams, Pharmacopeial Forum, 2005, 31 (3), 960–966. 16 Kapitel 5.12, Reference Standards, European Pharmacopoeia, 5th ed., 5.6, 2007.
347
349
12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung Susanne Keitel
12.1 Einführung
Analytische, speziell chromatographische Prüfverfahren sind im Rahmen der Arzneimittelzulassung insbesondere im Qualitätsdossier von großer Bedeutung. Entsprechend der durch das Common Technical Document (CTD) vorgegebenen Struktur werden Angaben zu Prüfverfahren und deren Validierung im Modul 3 sowohl im Teil „S“ (Wirkstoff) als auch im Teil „P“ (Arzneimittel) erwartet [1–3]. Darüber hinaus sind chromatographische Prüfverfahren aber auch im Bereich der Bioanalytik von Relevanz, die gemäß der CTD-Struktur in den Modulen 4 und 5 beschrieben wird. Unter bioanalytischen Methoden sind die analytischen Prüfverfahren zu verstehen, die in klinischen (humanpharmakologischen, Bioverfügbarkeits- bzw. Bioäquivalenzstudien) und/oder in präklinischen Studien (pharmakologische und toxikologische Studien am Tier) eingesetzt worden sind. Die Beschreibung dieser Prüfverfahren und ihrer Validierung sollte in den Modulteilen erfolgen, die auch die entsprechenden Studien enthalten, d. h. im Modul 4, Abschn. 4.2.2.1 für Prüfverfahren und Validierungsberichte für präklinische Studien sowie im Modul 5, Abschn. 5.3.1.4 für Prüfverfahren und Validierungsberichte für in klinischen Studien eingesetzte Verfahren [2, 3]. Die folgenden Ausführungen sind besonders auf die Anforderungen im Qualitätsdossier ausgerichtet, jedoch im Allgemeinen auch auf die Beschreibung und Validierung von bioanalytischen Prüfverfahren anwendbar.
12.2 Beschreibung chromatographischer Prüfverfahren im Zulassungsdossier
Angaben zur pharmazeutischen Qualität finden sich im Zulassungsdossier im Modul 2, Quality Overall Summary, und im Modul 3, Body of Data. Beide Module sind analog aufgebaut und in separate Abschnitte für Wirkstoff und Arzneimittel
350
12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung Tabelle 12.1 Lokalisation von Angaben zu analytischen Prüfverfahren im Qualitätsdossier. Modulabschnitt
Inhalt
3.2.S.2.3 Materialkontrollen
Angaben zu Qualität und Prüfverfahren der in der Herstellung des Wirkstoffes eingesetzten Materialien
3.2.S.2.4 Kontrollen kritischer Herstellungsschritte und Zwischenprodukte
Prüfungen und Akzeptanzkriterien (inkl. experimenteller Daten) für die Kontrolle kritischer Herstellungsschritte. Angaben zu Qualität und Prüfung der Zwischenprodukte, die während des Herstellungsprozesses isoliert werden. Daten zu den Prüfverfahren einschließlich Validierung sind in 3.2.S.4.2 bzw. 3.2.S.4.3 anzugeben
3.2.S.3.2 Verunreinigungen
Angaben zur strukturellen Charakterisierung. Daten zu den Prüfverfahren zur Charakterisierung von Verunreinigungen einschließlich Validierung sind in den Abschnitten 3.S.4.2 und 3.2.S.4.3 anzugeben
3.2.S.4.2 Analytische Verfahren
Beschreibung der analytischen Verfahren, die für die Prüfung des Wirkstoffes eingesetzt werden (einschließlich Verfahren für die Prüfung von Verunreinigungen)
3.2.S.4.3 Validierung der analytischen Verfahren
Angaben zur Validierung, einschließlich Untersuchungsergebnisse, für die analytischen Verfahren, die für die Prüfung des Wirkstoffes einschließlich seiner Verunreinigungen eingesetzt werden
3.2.S.6 Behältnis und Verschlusssystem
Angaben zu den Prüfverfahren für die Qualitätskontrolle des Behältnisses und des Verschlusssystems, die nicht im Arzneibuch beschrieben sind, einschließlich Validierung
3.2.S.7.3 Stabilität
Angaben zu den analytischen Verfahren für die Erhebung von Stabilitätsdaten (sofern sie von den für die Freigabeprüfung eingesetzten, im Abschn. 3.2.S.4.2 beschriebenen Verfahren abweichen)
3.2.P.2 Pharmazeutische Entwicklung 3.2.P.2.1.1 Bestandteile des Arzneimittels – Wirkstoff
Angaben zu den Prüfverfahren für die Untersuchung der Kompatibilität von Wirk- und Hilfsstoffen, einschließlich Daten zu deren Validierung (sofern sie von den im Abschn. 3.2.P.5.2 beschriebenen Verfahren abweichen)
3.2.P.2.2.1 Arzneimittel – Entwicklung der Formulierung
Angaben zu den Prüfverfahren, die während der Formulierungsentwicklung eingesetzt wurden (sofern sie von den im Abschn. 3.2.P.5.2 beschriebenen Verfahren abweichen)
3.2.P.2.4 Behältnis und Verschlusssystem
Angaben zu den Prüfverfahren für die Prüfung der Kompatibilität und Eignung des Behältnis und Verschlusssystems mit dem Arzneimittel einschließlich Validierung
3.2.P.2.6 Kompatibilität
Kompatibilität des Arzneimittels mit Rekonstitutionslösungen oder Applikationshilfen, soweit zutreffend. Angaben zu den Prüfverfahren sind in den Abschnitten 3.2.P.5.2 und 3.2.P.5.3 aufzuführen
12.2 Beschreibung chromatographischer Prüfverfahren im Zulassungsdossier Tabelle 12.1 (Fortsetzung) Modulabschnitt
Inhalt
3.2.P.3.4 Kontrollen kritischer Herstellungsschritte und Zwischenprodukte
Angaben zu Prüfungen an kritischen Herstellungsschritten und zur Kontrolle von Zwischenprodukten, die während des Herstellungsverfahrens isoliert werden, einschließlich von Daten zur analytischen Validierung
3.2.P.3.5 Prozessvalidierung und/oder -bewertung
Soweit Ergebnisse der Prozessvalidierung und/oder -bewertung für das Zulassungsdossier erforderlich sind, Angaben zu den Verfahren für zusätzliche Prüfungen, die für die Prozessvalidierung eingesetzt wurden, einschließlich entsprechender Daten zur analytischen Validierung
3.2.P.4 Kontrolle der Hilfsstoffe 3.2.P.4.2 Analytische Verfahren
Angaben zu den analytischen Verfahren, die für die Kontrolle der Hilfsstoffe eingesetzt werden (soweit für die Hilfsstoffe auf keine Arzneibuchmonographie Bezug genommen werden kann)
3.2.P.4.3 Validierung der analytischen Verfahren
Angaben zur Validierung der analytischen Verfahren für die Kontrolle der Hilfsstoffe, einschließlich Ergebnisse experimenteller Untersuchungen (soweit auf keine Arzneibuchmonographie Bezug genommen werden kann)
3.2.P.5 Kontrolle der Fertigarzneimittel 3.2.P.5.2 Analytische Verfahren
Angaben zu den analytischen Verfahren für die Qualitätsprüfung des Arzneimittels
3.2.P.5.3 Validierung analytischer Verfahren
Angaben zur Validierung der analytischen Verfahren für die Prüfung des Arzneimittels, einschließlich Ergebnisse experimenteller Untersuchungen
3.2.P.5.5 Charakterisierung der Verunreinigungen
Angaben zur Charakterisierung von Verunreinigungen im Arzneimittel, soweit sie von den in 3.2.S.3.2 beschriebenen Verunreinigungen im Wirkstoff abweichen. Angaben zu entsprechenden Prüfverfahren und analytischer Validierung in 3.2.P.5.2 bzw. 3.2.P.5.3
3.2.P.7 Behältnis und Verschlusssystem
Angaben zu nicht im Arzneibuch beschriebenen Verfahren (einschließlich Validierung), die für die Qualitätsprüfung des Behältnis und Verschlusssystems eingesetzt werden
3.2.P.8.3 Haltbarkeit
Angaben zu den analytischen Verfahren für die Erhebung von Stabilitätsdaten einschließlich Validierung (sofern sie von den für die Routineprüfung eingesetzten Verfahren abweichen)
351
352
12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung
unterteilt. Die Quality Overall Summary soll die wesentlichen Qualitätsaspekte von Wirkstoff und Arzneimittel zusammenfassen und dabei insbesondere kritische Aspekte diskutieren, z. B. Abweichungen von Anforderungen der einschlägigen Qualitätsleitlinien darstellen und begründen. Diese Zusammenfassung sollte die Größenordnung von ca. 40 Seiten nicht wesentlich überschreiten. Für biotechnologisch hergestellte Arzneimittel ist der Umfang der Quality Overall Summary aufgrund der besonderen Komplexizität dieser Produkte mit ca. 80 Seiten vorgesehen. Modul 3 – das eigentliche Qualitätsdossier – enthält die detaillierten Angaben zur Entwicklung, Herstellung, Charakterisierung, Qualitätsprüfung und Stabilität von Wirkstoff und Arzneimittel. Analytische Prüfverfahren sind daher für alle genannten Dokumente und Dokumententeile gleichermaßen relevant. Tabelle 12.1 fasst die Dossierabschnitte zusammen, in denen entsprechende Angaben erwartet werden [2, 3]. Alle im Rahmen der Arzneimittelentwicklung und -herstellung eingesetzten Prüfverfahren müssen entsprechend Art. 23 der Richtlinie 2001/83/EG, die durch die Arzneimittelprüfrichtlinie in deutsches Recht umgesetzt ist, dem Stand von Wissenschaft und Technik entsprechen und für den jeweiligen Zweck geeignet sein [4–6]. Die Beschreibung muss ausreichend detailliert erfolgen, um die Prüfung durch ein unabhängiges oder offizielles Prüflabor zu ermöglichen (Official Medicinal Control Laboratory, OMCL). Die jeweils zu verwendenden Gerätschaften und Materialien sind zu beschreiben, ggf. einschließlich Konstruktionszeichnungen. Die Zusammensetzung der Reagenzien ist, wenn erforderlich, durch eine Beschreibung der jeweiligen Herstellung zu ergänzen. Wie aus obiger Tabelle zu entnehmen ist, werden insbesondere für alle Prüfverfahren, die im Rahmen der Routinequalitätsprüfung von Bestandteilen des Arzneimittels bzw. der Freigabeprüfung des Arzneimittels sowie in der Stabilitätsprüfung von Wirkstoffen und Arzneimittel eingesetzt werden, ausführliche Unterlagen über die Validierung erwartet. Der gleiche Umfang von Daten ist für die Angaben zu den In-ProzessKontrollen erforderlich, die eine Prüfung am Arzneimittel ersetzen.
12.3 Arzneibuchverfahren
Für im Europäischen Arzneibuch (Ph. Eur.) oder in einem Arzneibuch eines EU-Mitgliedsstaates beschriebene Prüfverfahren, die entsprechend dem dort beschriebenen Zweck eingesetzt werden, ist keine Validierung erforderlich, die Verifizierung, d. h. die Bestätigung, dass das Labor in der Lage ist, dieses Prüfverfahren richtig anzuwenden, ist ausreichend. Der Beleg der Verifizierung monographierter Prüfverfahren durch dokumentierte Untersuchungen ist jedoch nicht Teil der Zulassungsdokumentation, sondern sollte vor Ort beim pharmazeutischen Unternehmer vorhanden sein, um für eine entsprechende Überprüfung im Rahmen einer GMP-Inspektion zur Verfügung zu stehen. Entsprechend ist jedoch bei Verwendung eines in der Ph. Eur. für die Qualitätskontrolle eines Wirkstoffes beschriebenen Prüfverfahrens dann eine eigene
12.3 Arzneibuchverfahren
Validierung erforderlich, wenn es abweichend vom im Arzneibuch beschrieben Zweck eingesetzt werden soll. Wird z. B. ein für die Prüfung eines Wirkstoffes monographiertes Verfahren für die Prüfung eines entsprechenden Arzneimittels vorgesehen, liegt der Fokus insbesondere auf der Untersuchung des möglichen Einflusses der sonstigen im Arzneimittel enthaltenen Stoffe auf das Ergebnis (Matrixeffekte). Es ist wichtig darauf hinzuweisen, dass es gemäß Richtlinie 2001/83/EG im Ermessen der Zulassungsbehörde liegt, inwieweit in Arzneibüchern von Drittstaaten beschriebene analytische Prüfverfahren ohne weitere Angaben zur Validierung akzeptiert werden (z. B. United States Pharmacopoeia (USP), Japanese Pharmacopoeia (JP)), da diese in der Europäischen Union keine rechtliche Verbindlichkeit besitzen. Im Normalfall kann jedoch davon ausgegangen werden, dass in Abwesenheit einer entsprechenden Monographie in der Ph. Eur. auch die in den genannten Arzneibüchern beschriebenen Prüfverfahren für Wirk- und Hilfsstoffe von den EU-Zulassungsbehörden ohne umfangreiche Daten zur Validierung akzeptiert werden. Für Wirkstoffe ist jedoch nachzuweisen, dass die in der Monographie vorgesehenen Prüfverfahren in der Lage sind, alle im Wirkstoff tatsächlich vorhandenen Verunreinigungen zu erfassen. Dieses ist insofern von besonderer Relevanz, als der Entwicklung einer Arzneibuchmonographie in der Regel nur eine begrenzte Anzahl unterschiedlicher Herstellungsverfahren und damit Wirkstoffqualitäten zu Grunde liegen. Die in der Monographie beschriebenen Prüfverfahren und Akzeptanzkriterien sind deshalb auch nur in der Lage, eine Aussage über die Qualität eines nach diesen Verfahren hergestellten Wirkstoffs zu machen. Im Rahmen der Globalisierung werden Wirkstoffe heute allerdings in vielen Fällen aus Quellen im außereuropäischen Raum bezogen, Wirkstoffhersteller entsprechend dem Marktangebot häufig gewechselt. Für Wirkstoffe, die nach anderen oder modifizierten Synthesen hergestellt werden, ist daher zusätzlich nachzuweisen, dass das eingesetzte (in der Monographie beschriebene) Prüfverfahren in der Lage ist, alle im Wirkstoff enthaltenen Verunreinigungen zu erfassen. Um dieses Ziel zu erreichen muss das in der Monographie beschriebene Prüfverfahren ggf. modifiziert oder durch eine zusätzliche Prüfung ergänzt werden. Auch die Einschränkungen der regulatorischen Akzeptanz von in speziellen Arzneimittelmonographien beschriebenen Prüfverfahren im Rahmen von Zulassungsverfahren sind zu beachten. Im Gegensatz zur Ph. Eur. enthalten z. B. USP und die British Pharmacopoeia (BP) spezielle Arzneimittelmonographien, z. B. Furosemide Tablets. Da beide Arzneibücher keine konkrete Formulierung vorgeben, sondern lediglich Art und Menge der Wirkstoffe im Arzneimittel festlegen, ist für die in der Monographie aufgeführten Prüfverfahren im Rahmen der Zulassungsunterlagen die Eignung und Validität für das konkret beantragte Arzneimittel zu belegen, eine alleinige Bezugnahme auf die jeweilige Arzneibuchmonographie ist nicht ausreichend. Ebenso kann ggf. im Zulassungsverfahren eine abweichende Einschränkung der in der Monographie aufgeführten Spezifikationen auf den Stand von Wissenschaft und Technik gefordert werden, z. B. der Akzeptanzkriterien für den Wirkstoffgehalt von 90–110% auf die in der EU im Normalfall üblichen 95–105%.
353
354
12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung
Insbesondere für international tätige Firmen können die zum Teil unterschiedlichen Monographien in den diversen Arzneibüchern logistische Probleme hervorrufen bzw. Kosten verursachen. Zusätzlich zu den internationalen Bestrebungen nach Harmonisierung der Arzneibuchanforderungen im Rahmen der International Conference on Harmonization of Technical Requirements for Registration of Pharmaceuticals for Human Use (ICH) besteht daher die Möglichkeit, den Nachweis der Äquivalenz von Prüfverfahren im konkreten Zulassungsantrag zu erbringen [7]. So ist zum Beispiel für eine in der Ph. Eur. monographierte Substanz der Einsatz des in der USP beschriebenen Prüfverfahrens möglich, wenn die Vergleichbarkeit dieser Methode mit der Methode der Ph. Eur. in den Zulassungsunterlagen belegt wird (Kreuzvalidierung). Dieses heißt, dass im Ergebnis die Qualität in jedem Fall der in der Ph. Eur. beschriebenen – rechtlich verbindlichen – Qualität entsprechen muss, auch wenn ein anderes als das monographierte Prüfverfahren eingesetzt wird. Integraler Bestandteil der Beschreibung von Prüfverfahren sind auch die Angaben zur Qualität bzw. Charakterisierung eingesetzter Referenzsubstanzen. Hierbei ist besonders zu beachten, dass offizielle Primärstandards, z. B. Controlled Reference Standards (CRS) der Europäischen Arzneibuchbehörde European Directorate for the Quality of Medicines & Health Care (EDQM) nur für den angegebenen Zweck qualifiziert sind. So erfordert z. B. der Einsatz eines durch die EDQM für eine Identitätsprüfung freigegebenen CRS für eine Gehaltsbestimmung die Vorlage entsprechender Unterlagen zur Eignung im jeweiligen Kapitel 3.2.S.5 bzw. 3.2.P.6 „Referenzstandards oder -materialien“ des Qualitätsdossiers. Für HPLC-Verfahren, die in der Ph. Eur. beschrieben sind, erlaubt die allgemeine Monographie 2.2.46 „Chromatographische Trennungsmethoden“ bestimmte Abweichungen von den in der jeweiligen Monographie beschriebenen Parametern. Für die Zusammensetzung der mobilen Phase kann der Anteil des geringeren Lösungsmittelbestandteils um ± 30% relativ oder ± 2% absolut verändert werden, wobei die Grenze durch den jeweils größeren Wert definiert wird („whichever is larger“). Voraussetzung hierbei ist jedoch, dass kein anderer Bestandteil der mobilen Phase um mehr als 10% absolut variiert wird. Der pH-Wert des wässrigen Anteils kann um ± 0,2 pH verändert werden, bei neutralen Analyten um ± 1,0 pH. Für die Variabilität der Salzkonzentration in Pufferbestandteilen ist eine Grenze von ± 10% definiert. Die Wellenlänge des Detektors, die in der Monographie angegeben wird, ist verbindlich, es darf nicht von den Vorgaben abgewichen werden. Demgegenüber sind Modifizierungen an der Säule durchaus möglich, z. B. kann die Säulenlänge um ± 70% variiert werden, der innere Durchmesser um ± 25%. Die Partikelgröße des Säulenmaterials kann um bis zu 50% verkleinert werden, eine Vergröberung ist jedoch unzulässig. Die Fließgeschwindigkeit kann um 50% reduziert, die Temperatur um ± 10% variiert werden. Zusätzlich kann das Injektionsvolumen unter der Voraussetzung reduziert werden, dass Detektion und Wiederholbarkeit unbeeinflusst bleiben. Für das Injektionsvolumen gibt die Arzneibuchmonographie also keine Grenzen vor, sondern verknüpft den Veränderungsspielraum mit den gleichbleibenden Parametern. Diese erlaubten Veränderungen sind in Kapitel 13 in Form einer Tabelle zusammengefasst.
12.4 Anforderungen an die Validierung und Bewertung durch die Zulassungsbehörde
Die Möglichkeit der Bezugnahme auf eine für den angestrebten Prüfzweck in der Ph. Eur. beschriebene Methode ist in der Regel der einfachste Weg, ein analytisches Prüfverfahren und seine Validierung im Zulassungsverfahren zu beschreiben. Es muss jedoch darauf hingewiesen werden, dass dieses für Wirkstoffe nur dann anwendbar ist, wenn der Nachweis der Eignung des im Arzneibuch beschriebenen Prüfverfahrens für die Beschreibung der Qualität des Stoffes aus der im Zulassungsdossier beschriebenen Synthese/Herstellung erbracht ist [8]. Diese Unterlagen können im Zulassungsdossier selber oder als Teil einer Wirkstoffstammdatei (Active Substance Master File) vorgelegt werden, auf die im Rahmen des Zulassungsverfahrens Bezug genommen wird. Alternativ kann bei der EDQM die Erteilung einer sog. Konformitätsbescheinigung (Certificate of Suitability, CEP) beantragt werden, die mit den Zulassungsunterlagen an Stelle eigener Daten vorgelegt wird. Die drei genannten Möglichkeiten unterscheiden sich lediglich im Verfahrensablauf, inhaltlich werden in allen Fällen die gleichen Anforderungen gestellt. Ferner ist zu berücksichtigen, dass die Ph. Eur. zu diesem Zeitpunkt noch eine Reihe sog. „alter“ Monographien enthält, die noch nicht die Anforderungen der allgemeinen Monographie „Substanzen für die pharmazeutische Verwendung“ bzw. der ICH-Leitlinie zu Verunreinigungen in neuen Stoffen berücksichtigen [9]. Diese „alten“ Monographien sehen in der Regel im Abschnitt „Verwandte Substanzen“ eine Prüfung mittels Dünnschichtchromatographie vor und begrenzen alle Verunreinigungen auf < 0,5%. „Neue“ Monographien enthalten quantitative Verfahren für die Prüfung von Verunreinigungen, spezifizieren Verunreinigungen als einzeln identifiziert bzw. qualifiziert sowie andere Verunreinigungen und enthalten eine Aufstellung möglicher Verunreinigungen, die mit dem beschriebenen Prüfverfahren erfasst werden können (Transparenzliste). Eine alleinige Bezugnahme auf eine „alte“ Monographie wird im Zulassungsverfahren bzw. bei der Erteilung eines CEP nicht akzeptiert, es wird die Entwicklung eines quantitativen Verfahrens für die Erfassung der Verunreinigungen erwartet, das die Anforderungen der o. g. allgemeinen Monographie erfüllt [10, 11]. Ergebnisse dieser vom Antragsteller vorzulegenden Untersuchungen werden bei der Überarbeitung der jeweiligen Arzneibuchmonographie berücksichtigt.
12.4 Anforderungen an die Validierung und Bewertung durch die Zulassungsbehörde
Die wesentlichen Anforderungen an die Validierung von analytischen Prüfverfahren sind in der Leitlinie „Note for Guidance on Validation of Analytical Procedures: Text and Methodology“ [12] beschrieben. Diese Leitlinie spiegelt die Erwartungen der Zulassungsbehörden in der ICH-Triade EU, Japan und USA wider und wird auch von den Beobachtern der ICH, d. h. derzeit Kanada, Schweiz und Weltgesundheitsorganisation (WHO), anerkannt. Darüber hinaus werden ICH-Leitlinien auch von vielen weiteren nationalen und regionalen Zulassungsbehörden als Beschreibung des Standes von Wissenschaft und Technik akzeptiert und eigenen Zulassungsentscheidungen zu Grunde gelegt (z. B. Australien, Neuseeland).
355
356
12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung
Typische in der Leitlinie aufgeführte Parameter für die Validierung analytischer Prüfverfahren umfassen Richtigkeit (Accuracy), Präzision (Precision), Spezifität (Specificity), Nachweisgrenze (Detection Limit), Bestimmungsgrenze (Quantitation Limit), Linearität (Linearity) und Arbeitsbereich (Range). Die jeweils relevanten Parameter sind entsprechend dem Zweck eines Prüfverfahrens zu validieren (s. Tabelle 12.2). Einmal durchgeführte und dokumentierte Validierungsstudien entheben den pharmazeutischen Unternehmer jedoch nicht von der Pflicht, ggf. Revalidierungen vorzunehmen. Dieses kann insbesondere im Fall von Änderungen, z. B. an der Wirkstoffsynthese, der Zusammensetzung des Arzneimittels oder am Prüfverfahren an sich, erforderlich werden. Der Aufwand, der im Rahmen der Revalidierung eines Prüfverfahrens zu erbringen ist, hängt jedoch wesentlich vom Änderungstatbestand ab und lässt sich nicht pauschal beschreiben. Unter der Spezifität wird die Fähigkeit eines Prüfverfahrens verstanden, den Analyten eindeutig in der Anwesenheit anderer Bestandteile, z. B. anderer Verunreinigungen/Abbauprodukte, Matrixbestandteile, zu erfassen. Für die Identitätsprüfung bedeutet dies, dass das Verfahren zwischen Stoffen mit sehr ähnlichen Strukturen differenzieren können muss, deren Anwesenheit wahrscheinlich ist. Es wird jedoch nicht in allen Fällen eine vollständige Unterscheidung möglich sein. Dieses kann durch eine Kombination von zwei oder mehreren Prüfverfahren ausgeglichen werden, mit denen der erforderlichen Diskriminierungsgrad erreicht Tabelle 12.2 Typische Validierungsparameter nach Prüfziel (s. Note for Guidance on Validation of Analytical Procedures [12]). Identitätsprüfung
Prüfung auf Verunreinigungen Quantitativ
Grenzprüfung
Gehaltsbestimmung
Richtigkeit
–
+
–
+
Präzision x Wiederholpräzision x Laborpräzision
– –
+ +
– –
+ +a)
Spezifitätb)
–
+
+
+
Nachweisgrenze
–
–c)
+
–
Bestimmungsgrenze
–
+
–
–
Linearität
–
+
–
+
Arbeitsbereich
–
+
–
+
– normalerweise nicht bestimmt, + normalerweise bestimmt. a) Wenn Reproduzierbarkeit bestimmt wurde, nicht erforderlich. b) Mangelnde Spezifität eines Prüfverfahrens kann ggf. durch den Einsatz eines weiteren Prüfverfahrens ausgeglichen werden. c) Kann ggf. erforderlich sein.
12.4 Anforderungen an die Validierung und Bewertung durch die Zulassungsbehörde
wird. Für Gehaltsbestimmungen und Prüfungen auf Verunreinigungen sollten repräsentative Chromatogramme zum Beleg der Spezifität vorgelegt werden, insbesondere sollten alle individuellen Bestandteile entsprechend gekennzeichnet werden. Zum Nachweis der Diskriminierfähigkeit des Prüfverfahrens wird die zu untersuchende Probe in der Regel mit entsprechenden Anteilen von Verunreinigungen oder Hilfsstoffen gespikt. Die Linearität eines Prüfverfahrens ist die Fähigkeit, Prüfergebnisse zu erhalten, die der Konzentration des Analyten in der Prüflösung innerhalb eines angegebenen Bereichs direkt proportional sind. Linearität kann direkt am Wirkstoff und/oder getrennten Einwaagen einer Mischung von Bestandteilen nachgewiesen werden. Für den Nachweis der Linearität sollten mindestens fünf unterschiedliche Konzentrationen bestimmt, der Korrelationskoeffizient, Ordinatenschnittpunkt, Steigung der Regressionsgraden und die Fehlerquadratsumme vorgelegt werden. Die Ergebnisse sollten auch graphisch dargestellt werden. Zusätzlich kann eine Bewertung der Abweichung der tatsächlichen Ergebnisse von der Regressionsgraden hilfreich sein. Unter dem Arbeitsbereich wird das Intervall zwischen der höchsten und niedrigsten Konzentration des Analyten verstanden, für welche das Prüfverfahren nachweislich einen angemessenen Grad an Präzision, Richtigkeit und Linearität aufweist. Der Arbeitsbereich wird normalerweise aus den Untersuchungen zur Linearität abgeleitet, er hängt vom Prüfzweck des Verfahrens ab. Typische Anforderungen an den zu validierenden Arbeitsbereich umfassen ± 20% für die Gehaltsbestimmung (80–120%), ± 30% für den Nachweis der Gleichförmigkeit des Gehaltes (70–130%), ± 20% über den spezifizierten Bereich für die In-vitroWirkstofffreisetzung und bis 120% des spezifizierten Wertes für die Berichtsgrenze von Verunreinigungen. Die Richtigkeit eines Prüfverfahrens drückt den Grad der Übereinstimmung zwischen einem akzeptierten wahren oder als Referenzwert akzeptierten Wert und dem gefundenen Wert aus. Die Richtigkeit kann durch die Prüfung eines Analyten mit bekanntem Gehalt, z. B. Referenzstandard, den Vergleich der Ergebnisse des vorgeschlagenen Prüfverfahrens mit denen eines zweiten, gut charakterisierten Verfahrens mit nachgewiesener Richtigkeit oder durch Ableitung aus den Ergebnissen der Prüfung auf Präzision, Linearität und Spezifität erfolgen, d. h., es bedarf nicht zwingend zusätzlicher Untersuchungen. Im Fall eines Methodenvergleichs ist für die mit beiden Prüfverfahren ermittelten Analysenserien die Äquivalenz mittels eines geeigneten statistischen Tests nachzuweisen (s. Kapitel 3). Die Richtigkeit ist über den gesamten spezifizierten Arbeitsbereich eines Prüfverfahrens zu belegen. Es sollten mindestens 9 Messungen unabhängiger Einwaagen bei mindestens drei Konzentrationen innerhalb des spezifizierten Arbeitsbereichs durchgeführt werden (z. B. drei Konzentrationen mit jeweils dreimaliger Wiederholung des gesamten Prüfverfahrens). Die Richtigkeit sollte als Prozent Wiederfindung oder als Differenz zwischen Mittelwert und dem akzeptierten wahren Wert einschließlich der Konfidenzintervalle angegeben werden. Die Präzision eines Prüfverfahrens drückt den Grad der Übereinstimmung zwischen einer Reihe von Messungen aus, die durch multiple Probennahme
357
358
12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung
aus derselben homogenen Probe unter definierten Bedingungen durchgeführt wurden. Die Präzision wird als Streuung, Standardabweichung und Variationskoeffizient einer Reihe von Messungen angegeben. Sie wird anhand der Wiederhol- und der Laborpräzision bewertet. Die Wiederholpräzision sollte entweder mit mindestens neun Bestimmungen über den spezifizierten Arbeitsbereich des Prüfverfahrens, z. B. drei Konzentrationen mit dreimaliger Wiederholung des Prüfverfahrens, oder auf Basis von mindestens sechs Bestimmungen bei 100% der Prüfkonzentration erfolgen. Für die Bestimmung der Laborpräzision ist maßgeblich, unter welchen Bedingungen das Prüfverfahren angewendet werden soll. Auf jeden Fall ist jedoch zu belegen, in welchem Ausmaß zufällige Ereignisse die Präzision des Prüfverfahrens beeinflussen können. Typischerweise wird hierfür z. B. der Einfluss unterschiedlicher Tage, Laboranten, Gerätschaften untersucht. Es ist jedoch nicht erforderlich, den Einfluss dieser Parameter einzeln zu prüfen, sinnvollerweise sollte die Prüfung auf Basis statistischer Versuchsplanung erfolgen. Nicht im Rahmen des Zulassungsdossiers zu berichten ist die Prüfung der Vergleichspräzision (reproducibility) eines Prüfverfahrens. Diese Prüfung beinhaltet den Nachweis der Standardisierung eines Prüfverfahrens und ist insbesondere bei der Entwicklung von Prüfverfahren für das Arzneibuch von großer Relevanz. Die Nachweisgrenze gibt die geringste Konzentration eines Analyten in der Probe an, die noch zuverlässig nachgewiesen aber nicht als exakter Wert quantifiziert werden kann. Der Nachweis erfolgt bei instrumentellen Methoden in der Regel durch Bestimmung des Signal/Rausch-Verhältnisses durch den Vergleich von in Proben mit bekannten niedrigen Konzentrationen gemessenen Signalen mit denen von Placeboproben. Normalerweise sind Signal/Rausch-Verhältnisse von 3 : 1 oder 2 : 1 für die Abschätzung der Nachweisgrenze akzeptabel. Für die Berechnung der Nachweisgrenze auf Basis des Signal/Rausch-Verhältnisses wird die Vorlage von entsprechenden Chromatogrammen in den Zulassungsunterlagen erwartet. Die ICH-Leitlinie zur Validierung von Prüfverfahren führt darüber hinaus alternative Methoden zur Bestimmung der Nachweisgrenze auf, z. B. durch visuelle Bewertung oder die Berechnung der Standardabweichung des Blindwertes oder aus der Kalibriergerade im Bereich der Nachweisgrenze. Verbreitet ist ebenfalls die Berechnung aus der Bestimmungsgrenze (Nachweisgrenze = 0,3 · Bestimmungsgrenze). Die Bestimmungsgrenze gibt die niedrigste Konzentration des Analyten in einer Probe an, die mit ausreichender Präzision und Richtigkeit quantitativ erfasst werden kann. Ähnlich wie für die Nachweisgrenze sind auch für die Berechnung der Bestimmungsgrenze verschiedene Verfahren möglich. In jedem Fall ist es jedoch erforderlich, den berechneten Wert nachfolgend durch die Prüfung einer angemessenen Anzahl von Proben nahe oder an der Bestimmungsgrenze zu validieren. Die Bestimmungsgrenze für Verunreinigungen sollte in der Regel bei 50% des in der ICH-Leitlinie zu Verunreinigungen in neuen Stoffen definierten Schwellenwertes für die Berichtung liegen [9]. Für nicht identifizierte Verunreinigungen sollte die Nachweis- bzw. Bestimmungsgrenze des geprüften Wirkstoffs herangezogen werden.
12.4 Anforderungen an die Validierung und Bewertung durch die Zulassungsbehörde Tabelle 12.3 Verfahrensabhängige Parameter der Validierung (nach Aide mémoire „Inspektion von Qualifizierung und Validierung in pharmazeutischer Herstellung und Qualitätskontrolle“ [13]). Validierungsparameter
HPLC
GC bzw. GC/MS
DC
Linearität
+
+
ggf.
Linearer Bereich
+
+
ggf.
Nachweisgrenze
ggf.
ggf.
+
Präzision
+
+
ggf.
Richtigkeit
+
+
ggf.
Robustheit
+
+
+
Selektivität
+
+
+
Reproduzierbarkeit
+
+
–
Konfidenzintervall
+
+
–
Wiederfindung
+
+
ggf.
Wiederholbarkeit
+
+
ggf.
Ebenso wie das Prüfziel (z. B. Identitätsprüfung vs. Gehaltsbestimmung) hat jedoch auch die Prüfmethode selber einen Einfluss auf die Relevanz der unterschiedlichen Validierungsparameter (Tabelle 12.3). Vor Durchführung der eigentlichen Validierung ist ein Validierungsplan zu erstellen – mehrere Validierungskriterien können gleichzeitig erfasst werden –, in dem neben der detaillierten Beschreibung des geplanten Vorgehens der Zweck der Methode, ihre Leistungscharakteristika (method performance characteristics) und die Akzeptanzkriterien für eine erfolgreiche Validierung aufgeführt sind. Die Validierungsergebnisse sind in einem entsprechenden Bericht zusammenzufassen, in dem die erhaltenen Ergebnisse bewertet und mögliche Abweichungen diskutiert werden. Eine Vorlage von Validierungsplan und -bericht im Zulassungsdossier ist jedoch nicht zwingend erforderlich. Relevant für das Zulassungsverfahren ist die Einreichung entsprechender Validierungsdaten. Das Vorhandensein eines formalen Validierungsplans und -berichts ist jedoch eine GMP-Forderung und kann ggf. im Rahmen der GMP-Inspektion überprüft werden. Detaillierte Angaben zur Validierung finden sich in [14, 15].
359
360
12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung
12.5 Anforderungen der Zulassungsbehörde im Rahmen von Anträgen auf Genehmigung klinischer Prüfungen
Im Gegensatz zu Zulassungsanträgen, in denen der Nachweis einer angemessenen Qualität, Sicherheit und Wirksamkeit entsprechend dem Stand von Wissenschaft und Technik erbracht werden muss, liegt der Fokus der Bewertung von Anträgen auf Genehmigung klinischer Prüfungen auf der Bewertung des Risikos für die beteiligten Probanden bzw. Patienten. Die Anforderungen, die die Zulassungsbehörden an die mit dem Antrag im Investigational Medicinal Product Dossier (IMPD) vorzulegenden Unterlagen stellen, variieren in Abhängigkeit von Faktoren wie z. B. Entwicklungsstand bzw. klinische Prüfphase, Indikation, Patientenpopulation. Die detaillierten Anforderungen an den Nachweis der Qualität klinischer Prüfpräparate sind in der Guideline on the Requirements to the Chemical and Pharmaceutical Quality Documentation Concerning Investigational Medicinal Products in Clinical Trials beschrieben [16]. Die o. g. Leitlinie verweist in der Einleitung auf die Differenzierung zwischen der Prüfmethode (d. h. allgemeine Prinzipien) und dem Prüfverfahren (d. h. Beschreibung der eigentlichen Durchführung einer Prüfung), wie in der ICHValidierungsleitlinie definiert. In Bezug auf die Beschreibung analytischer Verfahren im IMPD ist es für Genehmigungsanträge ausreichend, die Prüfmethode zu beschreiben, z. B. Reverse-Phase-HPLC, Head-Space-GC. Detaillierte Angaben zum Prüfverfahren sind nicht erforderlich. Im Gegensatz zum Zulassungsdossier, in dem das Prüfverfahren detailliert genug beschrieben sein muss, um ggf. eine Prüfung in einem OMCL zu ermöglichen (s. o.), ist es im IMPD ausreichend, die Eignung eines Prüfverfahrens für einen bestimmten Zweck zu bestätigen. Bezüglich der Validierung der Analysenverfahren werden die Anforderungen phasenabhängig differenziert. Für Phase-I-Prüfungen ist es ausreichend, dass der Antragsteller die Eignung der Prüfverfahren für den beabsichtigten Zweck bestätigt. Zusätzlich wird die Angabe der Akzeptanzkriterien und Prüfparameter, die bei der Validierung der Prüfverfahren zum Einsatz kommen werden, gefordert. Die Festlegung, welche Parameter validiert werden, trifft der Antragsteller. Es ist nicht erforderlich, die Validierung zum Zeitpunkt der Einreichung des Genehmigungsantrages abgeschlossen zu haben. Es ist ausreichend, wenn diese Daten dem Antragsteller zum Zeitpunkt des Beginns der klinischen Prüfung vorliegen. Für Phase-II- und Phase-III-Studien wird neben der Angabe der eingesetzten Prüfmethoden der Nachweis der Eignung des Prüfverfahrens für den beabsichtigten Zweck gefordert. Dazu ist mindestens eine tabellarische Zusammenfassung der Validierungsergebnisse vorzulegen, die generiert worden sind. Auch für diese Prüfphasen ist für den Genehmigungsantrag keine vollständige Validierung aller Parameter gemäß der ICH-Leitlinie erforderlich.
12.5 Anforderungen der Zulassungsbehörde im Rahmen von Anträgen
12.5.1 Häufige Mängel
Die Abschnitte im Zulassungsdossier, in denen analytische Prüfverfahren beschrieben bzw. ihre Validierung zusammengefasst wird, gehören zweifelsohne zu den Dossierteilen, die am häufigsten zu Nachfragen der Zulassungsbehörden beim Antragsteller führen. Die meisten dieser Fehler sind jedoch bei Kenntnis und Berücksichtigung der einschlägigen Leitlinien vermeidbar. Beispiele solcher Fehler sollen im Folgenden zunächst für allgemeine Anforderungen beschrieben werden. 1. Prüfverfahren sind nicht validiert (z. B. Gehaltsbestimmung im Rahmen der In-vitro-Wirkstofffreisetzung). 2. Angegebenes Prüfverfahren und validiertes Prüfverfahren sind nicht identisch. 3. Daten für die individuellen Validierungscharakteristika werden nicht vorgelegt. 4. Beschreibung des Prüfverfahrens ist nicht ausreichend detailliert (Nachvollziehbarkeit durch OMCL muss gegeben sein!). 5. Die Zusammenfassung der Bewertung der Eignung des Prüfverfahrens fehlt. 6. Die Qualität der eingesetzten Referenzsubstanzen ist nicht ausreichend belegt bzw. Referenzsubstanz wird für einen anderen als den ausgewiesenen Zweck eingesetzt. 7. Kreuzvalidierung zwischen einem Arzneibuchverfahren und einem hausinternen Verfahren fehlt. 8. Validierungsdaten werden nicht vorgelegt, da auf eine Arzneibuchmonographie für ein spezielles Arzneimittel Bezug genommen wird, z. B. Furosemide Tablets USP. 9. Validierungsdaten für die Bestimmung des Gehaltes an Lösungsmittelresten werden nicht vorgelegt, da Bezug auf die in der Ph. Eur. beschriebene GCMethode genommen wird. 12.5.2 Spezielle Mängel
Auf die jeweiligen Validierungscharakteristika bezogen seien folgende häufige Mängel beispielhaft aufgeführt. x Spezifität: Die Spezifität eines Prüfverfahrens für die für den Wirkstoff oder das Arzneimittel relevanten Verunreinigungen wird nicht belegt, Beispielchromatogramme fehlen, die Peakreinheit wird nicht belegt. Die Peakreinheit kann z. B. durch Einsatz eines Diodenarray-Detektors oder besser durch Massenspektroskopie bestimmt werden.
361
362
12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung
x Arbeitsbereich/Linearität: Die Linearität wird nicht über den gesamten Arbeitsbereichs des Prüfverfahrens belegt, die Herstellung der Stammlösung wird nicht beschrieben, es wird keine graphische Darstellung der Ergebnisse vorgelegt. Die Linearität wird nicht ausreichend belegt, da es signifikante Unterschiede zwischen den einzelnen Datenpunkten gibt oder der Schnittpunkt mit der yAchse signifikant von null abweicht. x Richtigkeit: Die Richtigkeit ist nicht ausreichend belegt, da die Qualität des Referenzmaterials nicht ausreichend beschrieben ist, Richtigkeit wird nicht über den gesamten Arbeitsbereich beschrieben. Andererseits werden die Daten nicht ausreichend ausgewertet (Fehlen bestimmter statistischer Parameter), Methodenvergleich kann nicht angewendet werden, da die Referenzmethode nicht akzeptabel ist, die vorgelegten Daten weisen signifikante Abweichungen auf. x Präzision: Präzision wird nicht über den gesamten Arbeitsbereich belegt, die Prüfungen zur Bestimmung der Präzision sind nicht ausreichend beschrieben, die Präzision wird nur bezüglich der eingesetzten Gerätschaften untersucht, Wiederholpräzision ist nicht nachgewiesen, die bestimmte relative Standardabweichung ist zu groß, z. B. RSD > Toleranzbereich/6. x Nachweis- und Bestimmungsgrenze: Nachweis- und Bestimmungsgrenze werden für relevante Verunreinigungen nicht bestimmt, die Untersuchung von Nachweis- oder Bestimmungsgrenze wird nicht beschrieben, Nachweis- und Bestimmungsgrenze sind nicht im erforderlichen Arbeitsbereich untersucht worden. x Robustheit: Die Robustheit eines Prüfverfahrens ist nicht notwendiger Teil der Zulassungsdokumentation, ihre Bestimmung ist jedoch integraler Bestandteil der analytischen Entwicklung und kann im Rahmen von GMP-Inspektionen überprüft werden. Typische Defizite in der Bestimmung der Robustheit sind fehlender Nachweis der Stabilität der Prüf- oder Referenzlösung oder die fehlende Untersuchung des Einflusses relevanter Verfahrensparameter auf das Prüfergebnis. 12.5.3 Fallbeispiele
Im Folgenden sollen detaillierte Mängel an Hand von Fallbeispielen beschrieben werden. Fall 1: Der Wirkstoffgehalt einer Tablette ist bei der Freigabe bei einer relativen Standardabweichung des Prüfverfahrens von 2,5% mit 95–105% spezifiziert worden. Ist das Prüfverfahren für die Gehaltsbestimmung angemessen? Die Antwort ist nein, da die berechnete Streuung höher als die akzeptierten 10% ist (6 · s = 6 · 2,5 = 15). Schlussfolgerung: Das Prüfverfahren ist bezüglich seiner Präzision zu überarbeiten (Zielgröße 6 · s < 10, in diesem Fall s < 1,67%).
12.5 Anforderungen der Zulassungsbehörde im Rahmen von Anträgen
Fall 2: Beschreibung einer GC-Methode zur Bestimmung des Gehaltes an Lösungsmittelresten im Wirkstoff; angegebene Parameter: mobile Phase (einschließlich Flussrate), Detektor; stationäre Phase: Länge und innerer Durchmesser der eingesetzten Säule, mobile Phase, Injektionsvolumen; keine Beschreibung der Probenaufbereitung und des eingesetzten Referenzstandards. Schlussfolgerung: Detaillierte Angaben zur Probenaufbereitung und zum eingesetzten Referenzmaterial sind zwingend erforderlich. Fall 3: Der Gehalt einer Reihe von Tabletten mit unterschiedlichen Dosisstärken (5/10/40 mg) wird mit 95–105% spezifiziert, während der Stabilitätsprüfung wird für die mittlere Stärke eine Gehaltsabnahme von bis zu 2% beobachtet, der durch eine Zunahme einer bekannten Verunreinigung begleitet wird (Spezifikation: 1,5%, gefundene Werte bis 0,9%). Für die niedrigste Stärke wird lediglich eine geringfügige Zunahme an Verunreinigungen beobachtet, die jedoch mit einer Gehaltsabnahme um 2,5% einhergeht. Schlussfolgerung: Unter Berücksichtigung der Tatsache, dass für die 5-mg-Tablette nicht annähernd eine Massebilanz zwischen Gehaltsabnahme und der Zunahme an Zersetzungsprodukten gefunden wird, sollte das Verfahren zu Bestimmung von Gehalt und Verunreinigungen überarbeitet werden. Fehlende Massebilanz wird insbesondere dann von den Zulassungsbehörden kritisch beurteilt, wenn unklar ist, welche Zersetzungsprodukte gebildet werden, d. h., eine Aussage über Ausmaß und Toxizität nicht möglich ist. Bei der Berechnung der Massebilanz ist selbstverständlich die Variabilität des Prüfverfahrens zu berücksichtigen, so dass nicht zwingend eine 100%ige Übereinstimmung zwischen Gehaltsabnahme und Zunahme an Zersetzungsprodukten erwartet wird. Fall 4: Ein Antragsteller benutzt die in der USP beschriebene Methode für die Bestimmung von Verunreinigungen für einen Wirkstoff, der in der Ph. Eur. monographiert ist. Schlussfolgerung: Trotz der unterschiedlichen rechtlichen Verbindlichkeit von USP und Ph. Eur. kann dieses akzeptiert werden, wenn der Nachweis der Kreuzvalidierung der USP- zur Ph. Eur.-Methode erbracht wird. Kreuzvalidierung kann durch den Vergleich von Ergebnissen, die mit beiden Methoden erhoben wurden, nachgewiesen werden. Zusätzlich ist durch geeignete Untersuchungsergebnisse zu belegen, dass die USP-Monographie in der Lage ist, die in der Transparenzliste der Ph. Eur. aufgeführten Verunreinigungen zu erfassen. Dieses kann z. B. durch den Einsatz der entsprechenden Referenzsubstanzen erfolgen.
363
364
12 Anforderungen an analytische Prüfverfahren im Rahmen der Arzneimittelzulassung
Literatur 1 ICH Harmonised Tripartite Guideline Organisation of the Common Technical Document for the Registration of Pharmaceuticals for Human Use (ICH M4), January 2004. 2 ICH Harmonised Tripartite Guideline The Common Technical Document for the Registration of Pharmaceuticals for Human Use: Quality – M4Q(R1); Quality Overall Summary of Module 2; Module 3: Quality; September 2002. 3 ICH M4Q Implementation Working Group Questions & Answers (R1). 4 Richtlinie 2001/83/EG des Europäischen Parlaments und des Rates zur Schaffung eines Gemeinschaftskodexes für Humanarzneimittel vom 6. November 2001. 5 Richtlinie 2003/63/EG der Kommission vom 25. Juni 2003 zur Änderung der Richtlinie 2001/83/EG des Europäischen Parlaments und des Rates zur Schaffung eines Gemeinschaftskodexes für Humanarzneimittel vom 6. November 2001. 6 Zweite Allgemeine Verwaltungsvorschrift zur Änderung der Allgemeinen Verwaltungsvorschrift zur Anwendung der Arzneimittelprüfrichtlinien, 11. Oktober 2004, BAnz. Nr. 197 vom 16. Oktober 2004. 7 Note for Guidance on Regulatory Acceptance of Analytical Procedures and/or Acceptance Criteria (RAAPAC) (EMEA/CHMP/ICH/222007/2006). 8 Note for Guidance on Summary of Requirements for Active Substances in the Quality Part of the Dossier (CHMP/QWP/297/97 Rev. 1). 9 Guideline Impurities in New Drug Substances (ICH Q3A(R2)).
10 Certification of Suitability of Monographs of the European Pharmacopoeia: Content of the Dossier for Chemical Purity and Microbiological Quality (Revision of Annex I Resolution AP-CSP (93) 5 as amended) PA/PH/CEP (04) 1 3R, January 2005. 11 Guideline on Control of Impurities of Pharmacopoeial Substances: Compliance with the European Pharmacopoeia General Monograph „Substances for Pharmaceutical Use“ and General Chapter „Control of Impurities in Substances for Pharmaceutical Use“ (CPMP/QWP/1529/04). 12 Note for Guidance on Validation of Analytical Procedures: Text and Methodology (ICH Q2(R1). 13 Aide mémoire „Inspektion von Qualifizierung und Validierung in pharmazeutischer Herstellung und Qualitätskontrolle“ der Zentralstelle der Länder für Gesundheitsschutz bei Arzneimitteln und Medizinprodukten, Dokumenten-Nr. 07121103. 14 St. Kromidas, Handbuch Validierung in der Analytik. Wiley-VCH, Weinheim, 2001. 15 J. Ermer, J. Miller (Eds.) „Method Validation in Pharmaceutical Analysis“. Wiley-VCH, Weinheim, 2004. 16 Guideline on the Requirements to the Chemical and Pharmaceutical Quality Documentation Concerning Investigational Medicinal Products in Clinical Trials (CHMP/QWP/185401/2004/final, veröffentlicht in den Rules Governing Medicinal Products in the European Union (Eudralex), Vol. 10: Clinical Trials).
365
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik Joachim Ermer
In den Arzneibüchern gibt es verbindliche Vorgaben zur Behandlung und Beurteilung von Daten zur Überprüfung der Eignung von Methode und Messinstrument, in Form von sog. Systemeignungstests. Die in den entsprechenden Kapiteln des Europäischen und US-Amerikanischen Arzneibuchs beschriebenen chromatographischen Kennzahlen und Systemtestparameter werden im folgenden Abschnitt erläutert. In der pharmazeutischen Qualitätskontrolle wird die Verwendbarkeit der analysierten Materialien über Konformität mit definierten Akzeptanzgrenzen (Spezifikationsgrenzen) beurteilt. Diese müssen – natürlich unter Gewährleistung der Patientensicherheit – auch die Variabilität der Herstellung und der Analytik einschließen. In Abschn. 13.2 werden statistische Möglichkeiten diskutiert, letzteres zu überprüfen. In Abschn. 13.3 wird auf den Inhalt eines allgemeinen Informationskapitels des US-Arzneibuchs eingegangen, welches Orientierung zur Beurteilung und Bewertung analytischer Daten liefert.
13.1 Systemeignungstests
Die Überprüfung, ob das eingesetzte Gesamtsystem aus Messgerät, Zubehör und Analyseverfahren die erforderliche Leistungsfähigkeit aufweist, wird in der pharmazeutischen Analytik als integraler Bestandteil des Prüfverfahrens betrachtet [1, 2]. Einzelheiten zu Systemtestparametern sind in Arzneibüchern [3, 4] sowie in Guidelines [5] beschrieben. Im Unterschied zur (Basis-) Validierung, in welcher die grundsätzliche Eignung eines Analyseverfahrens gezeigt wird, sollen die Systemeignungstests die aktuelle Eignung des Gesamtsystems, d. h. zum Zeitpunkt der Analyse, bestätigen. Sie stellen damit eine wichtige Komponente in der Sicherstellung der analytischen Datenqualität dar (Abb. 13.1) und sind Bestandteil des Validierungs-Lebenszyklus [6, 7].
366
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik
Abb. 13.1 Komponenten der Datenqualität (nach [9], * ergänzt).
In der pharmazeutischen Analytik (Qualitätskontrolle) kann die jeweilige Matrix als konstant vorausgesetzt werden, deshalb fokussieren sich die Eignungstests auf Analysengerät sowie -methode. Änderungen in der Matrix, z. B. in der Zusammensetzung des Arzneimittels, unterliegen strikter Kontrolle (Change Control). Die Auswirkungen auf das Prüfverfahren müssen vor Umsetzung der Änderung beurteilt und im Bedarfsfall untersucht und revalidiert werden. Analysenergebnisse sind nur gültig, wenn die festgelegten Systemtestkriterien erfüllt werden. Oft wird die Frage nach dem Zeitpunkt bzw. der Wiederholung von Systemeignungstests diskutiert. Die Arzneibücher überlassen Einzelheiten dem Anwender, stellen jedoch klar, dass die Eignung des Systems während der gesamten Analyse sichergestellt sein muss [8, 4]. Unstrittig ist sicherlich, dass alle Systemtestlösungen am Anfang der Analysenserie injiziert werden, um die initiale Eignung festzustellen. Aber wie oft und wann müssen welche Systemtests wiederholt werden? Die flexiblen Vorgaben der Arzneibücher sind sehr sinnvoll, da das Zeitintervall stark von der jeweiligen Methode (z. B. Robustheit, Zeitbedarf usw.) abhängt. Man sollte sich bei Wiederholungen auch auf diejenigen Systemtests konzentrieren, die Leistungsparameter erfassen, die sich graduell ändern können, beispielsweise Trennfaktor, Peaksymmetrie oder Signal/Rausch-Verhältnis. Diese sollten zumindest am Ende der Serie, in Abhängigkeit der Gesamtanalysenzeit ggf. auch zwischendurch, injiziert werden. Bei der Systempräzision ist demgegenüber eine Wiederholung nicht notwendig, da hier keine kurzfristige Leistungsverschlechterung zu erwarten ist. Einzelnes Versagen des Injektionssystems darf hier nicht betrachtet werden, da so etwas auch in den Probeninjektionen vorkommen kann, üblicherweise deutlich identifizierbar ist (offensichtlicher Fehler) und auch durch einen erfolgreichen Systemtest nicht ausgeschlossen werden kann. Natürlich muss so etwas ein seltenes Ereignis bleiben, ansonsten wäre auch keine Systemeignung gegeben. Die Praxis, die Systempräzision aus Standardinjektionen, die über die Analysenserie verteilt sind (Bracketing), zu berechnen, ist natürlich auch akzeptabel: „… may be made before the injection of samples or may be interspersed among sample injections.“ [4]. Dadurch wird allerdings die modulweise Betrachtung von Analyseabschnitten schwieriger und im Ernstfall muss die gesamte Serie wiederholt werden. Die Auswertung der Systemtests kann beliebig gestaltet werden,
13.1 Systemeignungstests
entweder vor dem Start der Proben oder nach Abschluss der Analysenserie. Im ersteren Fall ist man auf der sicheren Seite (sofern die Tests am Ende der Serie auch erfolgreich sind), im letzteren geht man das Risiko ein, dass die gesamte Serie wiederholt werden muss. 13.1.1 Europäisches Arzneibuch (EP)
Im Kapitel 2.2.46 „Chromatographische Trenntechniken“ [3], welches sich zurzeit in einem Aktualisierungsprozess befindet [8], werden chromatographische Parameter diskutiert und verbindliche Systemtests vorgeschrieben, sofern nicht in den individuellen Monographien anderweitige Regelungen beschrieben sind. In einem gesonderten Abschnitt („Adjustment of Chromatographic Conditions“) werden Möglichkeiten diskutiert, die im Arzneibuch beschriebene Methode anzupassen, um die Systemtestanforderungen zu erfüllen (Tabelle 13.1). Dies ist insbesondere für Arzneibuchmonographien essentiell, da dort keine exakte Vorgabe zu Trennsäulen zu finden ist. Im Aktualisierungsentwurf wird eine getrennte Behandlung von isokratischen und Gradientenmethoden vorgeschlagen, was gut geeignet ist, der unterschiedlichen Komplexität Rechnung zu tragen. Tabelle 13.1 Zulässige Anpassungsbereiche chromatographischer Methoden [3]. Methodenparameter 1
Maximal zulässiger Anpassungsbereich
LC, isokratische Elution Mobile Phasen
1A 1A1 1A2 1A3
Zusammensetzung x geringere Lösungsmittelkomponente x andere Komponenten
± 30% relativ oder ± 2% absoluta) ± 10% absolut
1B1 1B2
pH des wässrigen Anteils Bei neutralen Analyten
± 0,2 pH, ± 1,0 pH
1C
Salzkonzentration im Puffer
± 10%
1D
Detektorwellenlänge
Keine Anpassung erlaubt
1E 1E1 1E2 1E3
Stationäre Phase x Säulenlänge x interner Säulendurchmesser x Partikelgröße
1F
Flussgeschwindigkeit
± 50%
1G
Temperatur
± 5 °C
1H
Injektionsvolumen
Kann verringert werden, sofern akzeptable Detektion und Präzision
± 70% ± 25% Maximale Verminderung 50%, keine Vergrößerung
367
368
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik Tabelle 13.1 (Fortsetzung) Methodenparameter
Maximal zulässiger Anpassungsbereich
2
LC, Gradientenelutionb)
2A
Mobile Phasen
Anpassungen nicht empfohlen, eher bei Verweilvolumen oder Säule
2B
Verweilvolumen (Gradienten-Totvolumen)
Anpassung des isokratischen Teils vor Start des Gradienten, um unterschiedliche Verweilvolumina der LC-Geräte zu kompensieren; in den entsprechenden Monographien sind bis zu 1 ml berücksichtigt
2C
Flussgeschwindigkeit
Anpassung nach Gl. (13.1), wenn Säulendimensionen geändert werden
3
Gas-Chromatographie
3A 3A1 3A2 3A3
Stationäre Phase x Säulenlänge x interner Säulendurchmesser x Partikelgröße
3A4
x Filmdicke
± 70% ± 50% Maximale Verminderung 50%, keine Vergrößerung –50% bis +100%
3B
Flussgeschwindigkeit
± 50%
3C
Temperatur
Keine Anpassung erlaubtb)
3E
Injektionsvolumen
Kann verringert werden, sofern akzeptable Detektion und Präzision
4
Superkritische Fluidchromatographie (SFC)
4A
Zusammensetzung der mobilen Phase
4A1
Gepackte Säulen x geringere Lösungsmittelkomponente
± 30% relativ oder ± 2% absoluta)
4A2
Kapillarsäulen
Keine Anpassung erlaubt
4B
Detektorwellenlänge
Keine Anpassung erlaubt
4C 4C1 4C2 4C3
Stationäre Phase x Säulenlänge x interner Säulendurchmesser x Partikelgröße
4D
Flussgeschwindigkeit
± 50%
4E
Temperatur
± 5 °Cb)
4F
Injektionsvolumen
Kann verringert werden, sofern akzeptable Detektion und Präzision
a) b)
Die jeweils größere Anpassung ist ausschlaggebend. Entwurf [8].
± 70% ± 25% (gepackte Säulen) ± 50% (Kapillarsäulen) Maximale Verminderung 50%, keine Vergrößerung (gepackte Säulen)
13.1 Systemeignungstests
Bei Änderung der Säulendimensionen muss die Flussgeschwindigkeit angepasst werden, so dass Q = konstant [8]: Q =
tg ⋅ f
(13.1)
l ⋅ d2
mit: tg = Gesamtlaufzeit in [min]; f = Flussgeschwindigkeit in [ml/min]; l = Säulenlänge in [mm], d = innerer Säulendurchmesser in [mm]. Außerhalb der beschriebenen Bereiche liegt formal eine veränderte Methode vor, d. h., eine Revalidierung wäre erforderlich. 13.1.1.1 Chromatographische Parameter
Als Parameter werden Retentionskennzahlen (Retentionszeit und -volumen, Retentionsfaktor, Verteilungskoeffizient), chromatographische Kennzahlen (Symmetriefaktor (Gl. 13.2) und scheinbare Bodenzahl) sowie Parameter der Trennung (Trennfaktor (Gl. 13.3), Peak-Tal-Verhältnis (Abb. 13.2), relative Retention) behandelt. Symmetriefaktor:
AS =
w 0,05 2d
(13.2)
Trennfaktor:
RS =
1,18 ⋅ (t2 − t1 ) w1; 0,5 − w2; 0,5
(13.3)
mit: w0,05/0,5 = Peakbreite in 5%/50% der Peakhöhe; d = horizontaler Abstand zwischen Peakmaximum und Peakfront in 5% Peakhöhe; t1,2 = Retentionszeit zweier benachbarter Peaks, mit t2 > t1.
Abb. 13.2 Peak-Tal-Verhältnis (p/v) für nicht basisliniengetrennte Peaks [3]. p/v = Hp/Hv mit H = Höhe des kleineren Peaks (p) bzw. im Minimum zwischen den Peaks („Tal“, v) über der extrapolierten Basislinie.
369
370
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik
In der überwiegenden Zahl der LC-Monographiemethoden wird ein MindestTrennfaktor vorgeschrieben, in wenigen Fällen – bei nicht basisliniengetrennten Peaks – ein Peak-Tal-Verhältnis. In den allgemeinen Systemtestanforderungen, die ggf. zusätzlich zu den spezifischen Anforderungen der individuellen Monographie erfüllt werden müssen, wird ein Symmetriefaktor zwischen 0,8 und 1,5 vorgeschrieben, sofern in der individuellen Monographie nicht anders festgelegt. Die Bestimmung soll mit der Referenzlösung zur Quantifizierung vorgenommen werden [8]. Dies ist eine wichtige Klarstellung für Nebenproduktbestimmungen, da hier die Form des Hauptpeaks in der Testlösung in manchen Fällen auf Grund von Überladungseffekten beeinträchtigt sein kann. Andere Kennzahlen werden nur in Spezialfällen verwendet, z. B. die Bodenzahl in einer SEC-Anwendung der Alteplase-Monographie. 1.3.1.2
Signal/Rausch-Verhältnis
Das Signal/Rausch-Verhältnis ist mit der Präzision der Quantifizierung verknüpft und damit ein wichtiger Parameter für die Bestimmung von Nebenprodukten (Gl. 13.4). Die Bestimmungsgrenze eines Analyten entspricht derjenigen Konzentration, die ein Signal/Rausch-Verhältnis von 10 aufweist, die Nachweisgrenze einem Verhältnis von 2 bis 3 [1]. In den allgemeinen Systemtestkriterien ist vorgeschrieben, dass die Bestimmungsgrenze für den betreffenden Analyten gleich oder geringer sein muss als die in der Monographie festgelegte Quantifizierungsschwelle (disregard limit, im Normalfall 0,05%). Signal/Rausch-Verhältnis: S / N =
2⋅H h
(13.4)
mit: H = Höhe des betreffenden Peaks im Chromatogramm der vorgeschriebenen Referenzlösung, gemessen vom Maximum zur extrapolierten Basislinie; h = Bereich (Amplitude, d. h. Minimum zu Maximum des Basisliniensignals) des Hintergrund-Rauschens in einem Blank-Chromatogramm, beobachtet über eine Distanz, die dem 20fachen der Peakbreite in halber Höhe (aus der Referenzlösung) entspricht, möglichst symmetrisch um die Position des Referenzpeaks. Es ist kritisch anzumerken, dass das beschriebene Verfahren zur Ermittelung des Rauschens nicht mehr zeitgemäß ist. Von den verschiedenen Arten des Rauschens, wie z. B. Kurzzeit- und Langzeitrauschen, Basislinienirregularitäten und -drifts, Spikes usw. [10] ist nur ersteres von Bedeutung für die Quantifizierung. Rauschen kann nur stören, wenn die Frequenz („Peakbreite“) in derselben Größenordnung oder darunter liegt wie für die zu erfassenden Analytpeaks. Das Langzeitrauschen kann demgegenüber im (extrapolierten) Basislinienverlauf „herausgefiltert werden“. Andere der oben beschriebenen Ereignisse können natürlich auch die Integration stören, sind aber als diskrete Ereignisse leicht erkennbar und bergen nicht die Gefahr einer schleichenden, unerkannten Verschlechterung der Leistungsfähigkeit des Analysensystems. Übliche Peakbreiten
13.1 Systemeignungstests
Abb. 13.3 Ermittlung des Rauschens nach EP (gepunktete Linien, [3]) und nach dem ASTM-Verfahren (gestrichelte Linien, [10]). Nach EP erhält man 0,21 mAU, nach ASTM einen mittleren Wert von 0,13 mAU, mit einzelnen Segmenten zwischen 0,10 und 0,16 mAU.
in halber Höhe liegen zwischen 0,2 und 0,5 min, so dass nach dem EP-Verfahren ein Bereich von 4–10 min in Betracht gezogen wird. Dies kann sicherlich nicht mehr als Kurzzeitrauschen bezeichnet werden! (Dieses Verfahren dürfte aus Zeiten stammen, in denen das Kurzzeitrauschen des Detektors, einschließlich elektronischer Beiträge, deutlich größer war als bei heutigen Geräten und alle anderen Effekte überlagert hat.) Zur Erfassung des relevanten Kurzzeitrauschens existiert ein ASTM-Standard [10] zur umfassenden Testung von LC-Detektoren. Das Chromatogramm wird in Abschnitte von 0,5–1,0 min geteilt, in denen dann jeweils die maximale vertikale Differenz der Basisliniensignale bestimmt wird (Abb. 13.3). Danach wird aus allen Segmenten ein Mittelwert berechnet. Selbst im recht moderaten Beispiel in Abb. 13.3 kommt es zu einer deutlichen Überbestimmung des Rauschens nach EP, um das 1,6fache. Da das ASTM-Verfahren zur detaillierten Leistungscharakterisierung von Detektoren dient, sollten bei einer Überprüfung des Analysensystems im Systemeignungstest ein bis drei Segmente genügen. 13.1.1.3 Systempräzision
Für Gehaltsbestimmungen ist eine maximal akzeptable relative Standardabweichung wiederholter Injektionen, in Abhängigkeit von deren Anzahl und von der oberen Spezifikationsgrenze, festgelegt (Gl. (13.5), Tabelle 13.2). Die Differenz (B) zwischen oberer Grenze und 100% entspricht dem Teil des Spezifikationsbereichs, der für die analytische Variabilität zur Verfügung steht (da der wahre
371
372
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik Tabelle 13.2 Anforderungen an die Injektionspräzision nach EP [3]. Erläuterungen siehe Text. B [%]
Maximal zulässige relative Standardabweichung n=3
n=4
n=5
n=6
2,0
0,41
0,59
0,73
0,85
2,5
0,52
0,74
0,92
1,06
3,0
0,62
0,89
1,10
1,27
Gehalt eines Feststoffes maximal 100% betragen kann). Der Anwender kann – bei entsprechendem Vertrauen in das LC-Gerät – die Anzahl der Injektionen verringern, muss dann aber schärfere Akzeptanzgrenzen für die Injektionspräzision in Kauf nehmen. Dies ist notwendig, um die höhere Unsicherheit der Standardabweichung bei geringer Anzahl der Werte (s. Abb. 3.2 b) zu kompensieren. Die strikte Begrenzung der Systempräzision in Abhängigkeit von den Anforderungen (repräsentiert durch die obere Spezifikationsgrenze) ist sinnvoll, da sich die Gesamtvariabilität für jede weitere Präzisionsebene erhöht (s. Abschn. 13.3). Die Bezeichnung „repeatability“ ist missverständlich, da damit laut ICH-Guideline die Wiederholpräzision gemeint ist, d. h. eine andere Präzisionsebene, als im Systemeignungstest adressiert wird. Zumindest sollte der Ausdruck durch den Zusatz „injection“ präzisiert werden. Dies erscheint umso wichtiger, da die beiden Präzisionsebenen in nicht wenigen Publikationen durcheinander gebracht werden. Wie in Abschn. 13.3 diskutiert, kann es dadurch zu falschen Bewertungen kommen. Maximale Injektionspräzision [3]: RSDmax =
K ⋅B ⋅ n t90%, n − 1
(13.5)
mit:
⎛ 0,6 t90%, 5 ⎞ ⋅ , wobei der erste Term die erforderliche K = Konstante ⎜ 0,349 = ⎝ 2 6 ⎟⎠ relative Standardabweichung nach sechs Injektionen für B = 1,0 beschreibt; B = obere Grenze des in der jeweiligen Monographie spezifizierten Gehaltsbereiches; n = Anzahl der wiederholten Injektionen der Referenzlösung (zwischen 3 und 6); t90%, n − 1 = Student-t-Faktor mit 90% statistischer Sicherheit (zweiseitig) und (n – 1) Freiheitsgraden. Systempräzision für Nebenprodukte?
Nach dem Aktualisierungsentwurf [8] soll die Systempräzision ebenfalls für Tests auf Nebenprodukte limitiert werden, und zwar bei Konzentrationen der Referenzlösungen über 0,2% (bezogen auf den Wirkstoff in der Testlösung) auf d 5,0% relative Standardabweichung und bei Konzentrationen d 0,2% auf d 10,0% relative Standardabweichung. Hintergrund dieser Forderung ist, die Präzision
13.1 Systemeignungstests
des Analysensystems auch bei Nebenproduktbestimmungen zu überprüfen. Dafür ist ein solcher Test aber nicht geeignet bzw. bringt keinen Zusatznutzen. Im Konzentrationsbereich der Gehaltsbestimmung ist die Injektionsvariabilität der dominierende Beitrag zur Systempräzision (s. Abb. 3.10 b), so dass die Leistungsfähigkeit des Injektionssystems mit der erforderlichen Schärfe und Zuverlässigkeit, wie in Tabelle 13.2 beschrieben, überprüft werden kann. Demgegenüber dominiert im vorgeschlagenen Konzentrationsbereich für Nebenproduktprüfungen die Detektions- und Integrationsvariabilität (s. Abb. 3.10 b). Dies wird aber bereits mit dem Signal/Rausch-Verhältnis überprüft, während eine Eignung des Injektionssystems mit den vorgeschlagenen Grenzen nicht sinnvoll sichergestellt werden kann. 13.1.2 US-Arzneibuch
Im Kapitel <621> [4] werden dieselben chromatographischen Parameter wie in der EP beschrieben, glücklicherweise wurden inzwischen auch die Gleichungen harmonisiert. Als Systemeignungstest-Parameter werden Trennfaktor, Bodenzahl, Injektionspräzision und Tailingfaktor beschrieben. Dabei wird die Bodenzahl als weniger geeignet eingeschätzt, jedoch als akzeptabel für den Fall eines Einzelpeaks im Chromatogramm. Die Injektionspräzision soll bei fünf Injektionen 2,0% relative Standardabweichung nicht überschreiten, bei mehr als 2,0% relativer Standardabweichung sind sechs Injektionen zu verwenden. Hier klingt zwar die Abhängigkeit der Zuverlässigkeit der berechneten Standardabweichung von der Anzahl der Werte an (s. Kapitel 3), was die Akzeptanzgrenze aber nicht sinnvoller werden lässt, zumindest bezüglich Gehaltsbestimmungen. Bei einem minimalen Faktor von 1,5 pro Präzisionsebene würde sich eine maximale Vergleichspräzision von 4,5% ergeben, was sicher für die meisten Anwendungen inakzeptabel wäre. Dies würde einen 95% Streubereich der Einzelwerte einer Analyse von 91–109% (bezogen auf einen wahren Wert von 100%) bedeuten. Von Eignung kann hier wohl kaum gesprochen werden! Im Unterschied zur EP wird kein genereller Akzeptanzbereich für den Tailingfaktor definiert. Die Einhaltung eines Signal/Rausch-Verhältnisses kleiner als 10 für eine Lösung zur Überprüfung der Bestimmungsgrenze (0,05% für Wirkstoffe, 0,1% für Arzneiformen) ist zwar im Text formuliert (seit USP 29), aber weder gültig gesetzt, noch (für USP 30) geplant („postponed indefinitely“, was immer das heißen mag). Auch das USP-Kapitel <621> befindet sich im Revisionsprozess. Die bisher an anderer Stelle vorhandenen Äußerungen zu den Anpassungsbereichen sollen nun in den Abschnitt Systemeignung eingefügt werden. Im Unterschied zur EP wird SFC nicht betrachtet, Gradientenelution nicht separat. Für LC und GC sind die meisten Festlegungen mit denen der EP identisch, bis auf folgende (vgl. Tabelle 13.1):
373
374
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik
x Die Anpassungen 1A2 und 1B2 sind nicht beschrieben (bzw. sollen gestrichen werden). x Bei 1G und 3C ist eine weitere Temperaturanpassung von ±10 °C zulässig. Es sind auch einige zusätzliche Bedingungen definiert: x Bei der Konzentrationsänderung der Puffersalze (1C) muss gleichzeitig der in 1B1 festgelegte pH-Bereich eingehalten werden. x Im Fall von ternären Mischungen darf nur eine der geringeren Lösungsmittelkomponenten angepasst werden (1A1). x Der Fehler der Wellenlänge des UV-Vis-Detektors darf maximal ±3 nm betragen. x Bei GC-Temperaturprogrammen ist eine Zeitanpassung von bis zu ±20% erlaubt. Im Sinne einer Harmonisierung der Arzneibuchanforderungen wäre hier eine vollständige Angleichung wünschenswert. 13.1.3 FDA Reviewer Guidance
Diese Guidance [5] soll die FDA-Gutachter bei der Beurteilung eingereichter LC-Methoden unterstützen. Es geht im Wesentlichen um die Validierung, aber auch um das Design der Prüfverfahren. Dabei wird mehrfach auf die Bedeutung von aussagefähigen Systemtests für die Sicherstellung der Methodeneignung über deren gesamten Lebenszyklus hingewiesen. In Abschnitt J werden die in Tabelle 13.3 aufgeführten Parameter inklusive Empfehlungen für Akzeptanzkriterien diskutiert. Tabelle 13.3 Systemtestparameter nach [5]. Systemtestparameter
Empfohlene Akzeptanzkriterien
Kapazitäts(Retentions)faktor (kc)
>2
Injektionswiederholpräzision (für Gehalt)
RSD d 1% für n t 5
Relative Retention (D)
Nicht essentiell, sofern Rs festgelegt
Auflösung (Rs)
> 2 für kritisches Peakpaar
Tailingfaktor (T)
d2
Theoretische Bodenzahl (N)
Abhängig von Elutionszeit, im allg. > 2000
Standardlösung bei Bestimmungsgrenzea)
Überprüfung der Bestimmungsgrenze unklar, Signal/Rausch-Verhältnis von 10 wird erwähnt, aber als nicht sehr praktikabel bewertet (keine Erläuterung warum)
a)
Im Text diskutiert (nach [5], Abschnitt B).
13.2 Spezifikationsgrenzen und Präzision
Der Umfang der Systemtests hängt von der Anwendung des jeweiligen Prüfverfahrens ab. Für Freisetzungsmethoden werden als Minimum kc, T und Injektionspräzision empfohlen, für Gehalts- und Nebenproduktbestimmungen sowie Stabilität zusätzlich Rs. In Bezug auf die Systempräzision wird für geringe Nebenproduktkonzentrationen eine höhere Variabilität eingeräumt, aber keine konkreten Empfehlungen ausgesprochen. Zur Diskussion des Nutzens eines solchen Tests s. Abschn. 13.1.1.3.
13.2 Spezifikationsgrenzen und Präzision
Spezifikationsgrenzen müssen sowohl die Variabilität der Proben (bzw. der Herstellung) als auch die des Analyseverfahrens einschließen, vorausgesetzt beide befinden sich innerhalb des normalen und akzeptablen Bereiches (Gl. 13.6). Die folgenden Ausführungen beschränken sich auf Verfahren zur Abschätzung des analytisch erforderlichen Teils des Spezifikationsbereiches. Spezifikationsgrenzen, allgemein: SGo/u = 100% ± BGo/u ± AV
(13.6)
mit: SGo/u = obere/untere Akzeptanzgrenze der Spezifikation, in Bezug auf den normierten Soll- oder Zielwert von 100%; BGo/u = obere/untere Basisgrenzen, ergeben sich aus der (akzeptablen) Proben- oder Herstellungsvariabilität in [%], bezogen auf den Soll- oder Zielwert; AV = analytische Variabilität des (gesamten) Prüfverfahrens. 13.2.1 Gehaltsbestimmungen 13.2.1.1 Auf Grundlage des Methodenfähigkeitsindex
Nach Daas und Miller [11] wird die analytische Variabilität mit dem Dreifachen der Ziel-Standardabweichung (TSD) angesetzt, in Analogie zum Methodenfähigkeitsindex (s. Kapitel 3.1). Die Ziel-Standardabweichung wird als mittlere Wiederholpräzision aus Ringversuchen zur Überprüfung von Monographiemethoden berechnet (Gl. 3.9). Bei Arzneistoffen ergibt sich die untere Basisgrenze aus der Spezifikationsgrenze für die Summe der Nebenprodukte, nach oben ist die BG natürlich null. Für ein Beispiel mit TSD = 0,6% und Summe der Nebenprodukte = 0,5% ergibt sich eine untere Spezifikationsgrenze von 97,7% und eine obere von 101,8%. Wie in Abschn. 13.3.4 diskutiert, ist der Variabilitätsbeitrag der Vergleichspräzision nicht berücksichtigt. Bei Arzneistoffen sollte dieser im Wesentlichen durch den Referenzstandard bestimmt sein und damit dieselbe Größe wie der der Probe haben, so dass die Standardabweichung um den Faktor
375
376
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik
2 erhöht wird. Da die TSD aus Ringversuchen stammt, kann man davon ausgehen, dass in diesem Fall ein solcher Faktor eingeschlossen ist. 13.2.1.2 Auf Grundlage des 95-%-Prognosebereiches (DPhG-Verfahren)
In einem Positionspapier der Fachgruppe Arzneimittelkontrolle/Pharmazeutische Analytik der Deutschen Pharmazeutischen Gesellschaft (DPhG) [12] wird ein Verfahren vorgeschlagen, das sowohl die Gesamtvariabilität als auch die Anzahl der Bestimmungen einbezieht. Die entsprechende Gleichung ist hier mit Gl. (3.12) kombiniert, so dass eine exakte Berücksichtigung aller Variabilitätskomponenten unter den Bedingungen der Routineanalyse möglich wird (Gl. 13.7). Wenn die einzelnen Komponenten nicht (zuverlässig) bekannt sind, müssen die zusammengefassten Beiträge verwendet werden, z. B. ergeben die ersten beiden Terme in der Wurzel die Wiederholvarianz, geteilt durch n. Bei geringem Beitrag der inter-seriellen Varianz reduziert sich der Wurzelterm zur Gesamtvarianz (s. Gl. 3.11), geteilt durch n. Mathematisch gesehen beschreibt Gl. (13.7) einen Prognosebereich für künftige Chargenprüfungen, was ja auch der Anwendung entspricht. Im Beispiel aus Abb. 3.8 b mit einer Herstellvariabilität von 2,0% sowie m = 1 und n = 3 ergibt sich eine analytische Variabilität von 3,0% und damit (Mindest-) Spezifikationsgrenzen von 95,0–105,0% (bei df = 20). Analytische Variabilität nach DPhG: AV = t (95%, df ) ⋅
s 2p si2 + + s 2g m⋅n n
(13.7)
mit: t(P,df ) = Student-t-Faktor für eine statistische Sicherheit P von 95% und Anzahl der Freiheitsgrade df, bezogen auf die Studien zur Bestimmung der Varianzen; si2 , s 2p , s 2g = Systemvarianz, Varianz der Probenaufarbeitung und inter-serielle Varianz, entweder direkt als quadrierte relative Standardabweichung oder als Normierung des Wurzelterms; m = Anzahl der Mehrfachinjektionen im Routineverfahren; n = Anzahl der Probenaufarbeitungen im Routineverfahren, falls der Mittelwert das Endergebnis (reportable result, s. Abschn. 13.3.3) darstellt. Wenn jeder Einzelwert mit den Spezifikationsgrenzen verglichen werden soll, muss n = 1 gesetzt werden. Sofern Mittelwerte betrachtet werden, ist es nach Gl. (13.7) möglich, die Gesamtvariabilität (und damit die Spezifikationsgrenzen) über die Erhöhung der Anzahl der Bestimmungen zu minimieren. Dies darf allerdings kein Selbstzweck sein, sondern muss sich an den Sicherheitsanforderungen an das betreffende Arzneimittel orientieren. Aus diesem Grund wird im Positionspapier auch vorgeschlagen, die traditionellen Freigabegrenzen für Arzneimittel von 95,0–105,0% im Normalfall beizubehalten. Eine Diskussion über Nachkommastellen ist auch im Angesicht der statistischen Unsicherheit der berechneten Variabilitäten nicht sinnvoll. Die Gl. (13.7) erlaubt aber zumindest eine Abschätzung, ob die Standard-
13.2 Spezifikationsgrenzen und Präzision
grenzen mit der Variabilität des Prüfverfahrens kompatibel sind. Darüber hinaus kann dieses objektive und nachvollziehbare Verfahren der Spezifikationssetzung eingesetzt werden, wenn – begründet – eine höhere Herstellungs- oder analytische Variabilität vorliegt. Das könnten beispielsweise sehr komplexe Arzneiformen (s. Kapitel 3.3.4) oder sehr geringe Konzentrationen (s. Kapitel 3.3.6) sein. 13.2.2 Nebenproduktbestimmungen
Bei Nebenprodukten existiert natürlich nur eine obere Spezifikationsgrenze, die nicht über der toxikologisch qualifizierten Konzentration liegen darf [13]. Nach der ICH-Guideline ([13], Decision Tree #1) soll der Nebenproduktgehalt in Chargen aus Entwicklung, Pilotanlagen und Scale-up bestimmt werden, die Spezifikationsgrenze ergibt sich aus der oberen Grenze des Vertrauensbereiches des Mittelwertes. Problematisch an einem solchen Vorgehen ist die Unterstellung eines „wahren“ Wertes bei Chargen, die nicht aus demselben Herstellprozess stammen. Auf Grund der Verminderung des Vertrauensbereiches mit zunehmender Datenzahl (s. Abb. 3.2 a) wird außerdem derjenige mit weiteren Grenzen „belohnt“, der möglichst wenige Chargen einbezieht. Im DPhG-Positionspapier [12] wird, analog zum Konzept von Daas und Miller [11], vorgeschlagen, die Spezifikationsgrenze aus dem Mittelwert der Chargenprüfungen zuzüglich dem Dreifachen der Standardabweichung zu berechnen. Mittelwert und Standardabweichung sollten aus mindestens fünf repräsentativen, möglichst aufeinanderfolgenden Chargen aus den klinischen Phasen II und III bestimmt werden. Für die Eignung der Spezifikationsgrenze von Nebenprodukten ist es ebenfalls wichtig, dass der Abstand zur Bestimmungsgrenze mit der analytischen Variabilität kompatibel ist. Eine pauschale Eignung kann angenommen werden, wenn die Bestimmungsgrenze (maximal) 50% der Spezifikationsgrenze beträgt, wie in der ICH-Guideline für die Berichtsgrenze von 0,05% und eine Grenze für unbekannte Nebenprodukte von 0,10% [14]. Für Fälle, in denen eine engere Begrenzung erforderlich ist, kann Gl. (13.7) zur Abschätzung der Variabilität verwendet werden. Auf Grund der Dominanz des ersten Wurzelterms bei geringen Konzentrationen (s. Kapitel 1.3.6) ist eine Auftrennung der Varianzbeiträge nicht erforderlich (Gl. 13.8). Eignung der Nebenprodukt-Spezifikationsgrenze: SG − QL > AV =
t (95%, df ) ⋅ s nPV
(13.8)
mit: s, t = Standardabweichung und Student-t-Faktor aus Präzisionsstudie(n); nPV = Anzahl der Bestimmungen im Routineprüfverfahren; QL = Bestimmungsgrenze des Nebenproduktes.
377
378
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik
13.2.3 (Be)Merkenswertes
x Akzeptanz- oder Spezifikationsgrenzen müssen mindestens die (normale) Variabilität des Prüfobjektes (unter dem Primat der Sicherheitsanforderungen) sowie der Analytik einschließen. x In den meisten Fällen ist dies durch die traditionsbasierten Grenzen gewährleistet, jedoch sollte die Kompatibilität mit der analytischen Variabilität zumindest verifiziert werden. x Bei einer objektiv begründbaren erhöhten analytischen Variabilität, wie beispielsweise sehr geringe Konzentrationen oder sehr komplexe Proben, sollte der analytisch erforderliche Spezifikationsbereich berechnet werden.
13.3 Interpretation und Behandlung analytischer Daten (USP <1010>)
Das allgemeine Informationskapitel <1010> der USP [15] beschreibt akzeptable statistische Verfahren zur Analyse und konsistenten Bewertung von Messdaten. Dies umfasst die Berechnung von statistischen Parametern, die Behandlung von Ausreißern und den Vergleich analytischer Methoden. Es handelt sich um eine Auswahl zur Orientierung, nicht um verbindliche Vorgaben. Die Gliederung dieses Abschnitts entspricht den Hauptteilen des USP-Kapitels. Bemerkungen des Autors zum USP-Text sind eingerückt dargestellt. Sofern die im USP-Kapitel vorkommenden Gleichungen mit den bereits behandelten identisch oder ihnen äquivalent sind, wird nur auf letztere verwiesen. 13.3.1 Voraussetzungen
Eine vernünftige Bewertung von Analysenergebnissen ist an verschiedene Grundvoraussetzungen geknüpft, die kurz erläutert werden, wie z. B. eine gründliche und vollständige Dokumentation, die Verwendung geeigneter, nachvollziehbarer Referenzstandards, eine geeignete Gerätequalifizierung und natürlich validierte Analyseverfahren. Eine entscheidende Bedeutung hat auch die Probennahme. 13.3.2 Messprinzipien und Variabilität
Die Streuung und Verteilung analytischer Daten sowie die entsprechenden Parameter wie Mittelwert, Standardabweichung, relative Standardabweichung und Vertrauensbereich des Mittelwertes werden diskutiert (s. Kapitel 3). Es wird ausgeführt, dass die Variabilität durch die Mittelwertbildung reduziert werden kann. Die Entscheidung, ob Einzel- oder Mehrfachmessungen angemessen sind, hängt von der Fragestellung und der konkreten Variabilität ab.
13.3 Interpretation und Behandlung analytischer Daten (USP <1010>)
Bemerkung: Die geforderte Überprüfung der Normalverteilung ist allerdings bei der geringen Anzahl der normalerweise in der pharmazeutischen Analytik zur Verfügung stehenden Werte kaum möglich. Bei physiko-chemischen Analysen kann „normaler“weise von einer Gauß-Verteilung der Werte ausgegangen werden, sofern keine systematischen Effekte auftreten. Diese können aber auch durch einfache graphische Darstellung und visuelle Prüfung auf systematische Muster, wie z. B. Trends, identifiziert werden. Die Verwendung von Kontrollproben zur Beobachtung der Methodenvariabilität oder als Bestandteil des Systemeignungstests wird beschrieben und in Appendix A ein Beispiel für eine Einzelwert-Kontrollkarte gegeben. In Appendix B wird das Beispiel einer Präzisionsstudie (fünf Serien mit jeweils drei Bestimmungen) beschrieben, ausgewertet über eine Varianzanalyse (s. Kapitel 3.3.4). Es wird eine Analyse der Varianzkomponenten empfohlen und die berechneten Standardabweichung des Prüfverfahrens betrachtet (hier als relative Standardabweichung des Mittelwertes oder reportable value) zur Optimierung der Gesamtvariabilität. Dies entspricht Gl. (3.12) ohne Aufspaltung der Wiederholvarianz in Injektions- und Probenaufarbeitungsvarianz. Bemerkung: In Tabelle 1 in Appendix B von USP <1010> wurden Standardabweichungen für die drei Wiederholbestimmungen je Serie berechnet. Dies ist auf Grund der Unsicherheit wenig aussagefähig (vgl. Abb. 3.2 b). 13.3.3 Ausreißer
In diesem Abschnitt werden ausführlich abweichende Werte (Ausreißer) und deren Behandlung diskutiert. Solche Werte können Extremwerte sein, die dennoch zur jeweiligen Verteilung gehören, oder auf Fehler zurückgeführt werden, entweder analytische oder Produktfehler. In jedem Fall muss eine systematische Untersuchung der Ursache erfolgen. Es wird klar zwischen Identifizierung (outlier labeling) und Entfernung (outlier rejection) unterschieden. Letzteres ist jedoch nur erlaubt, wenn eine analytische Ursache für das abweichende Ergebnis auf Grund einer Laboruntersuchung identifiziert (oder zumindest wahrscheinlich gemacht) werden kann (assignable cause), wie z. B. Bedienfehler, Geräteversagen, falsche Reagenzien, Fehler in der Probenaufarbeitung usw. „An outlier test can never take the place of a thorough laboratory investigation“ [15]. Damit entspricht die Grundaussage den Anforderungen der FDA-Guidance zur Behandlung von Analysenergebnissen außerhalb der Spezifikationsgrenzen (Out-of Specification, OOS) [16]. Sehr hilfreich, u. a. für die im OOS-Rahmen oft kontrovers diskutierte Mittelwertbildung, ist die eindeutige Definition des Endergebnisses (reportable result) [15]. „When assessing conformance to a particular acceptance criterion, it is important to define whether the reportable result (the result that is compared to the limits) is an average value, an individual measurement, or something else. If, for example, the acceptance criterion was derived for an average, then it would not be statistically
379
380
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik
appropriate to require individual measurements to also satisfy the criterion.“ Damit wird sehr klar, dass es OOS nur in Bezug auf das Endergebnis geben kann. Bemerkung: Wenn der Mittelwert als Endergebnis definiert wurde, sollte jedoch die Messwertvariabilität zuvor geprüft werden, z. B. über Akzeptanzgrenzen für die Spannweite oder Standardabweichung, um dem Argument entgegenzuwirken, dass eine nicht akzeptable Streuung übersehen oder ignoriert wird. Dies ist auch als Forderung in der FDA-Guidance [16] enthalten. Auf Probleme und Randbedingungen der statistischen Ausreißertests sowie die eingeschränkte Verwendung der Ergebnisse wird detailliert eingegangen. In Appendix C werden (trotzdem) die Tests nach Grubbs (hier bezeichnet als ESD, generalized extreme studentized deviate test), nach Dixon und nach Hampel beschrieben. Da die ersten beiden Tests recht bekannt sind, möchte ich mich hier auf die Beschreibung von letzterem konzentrieren. Ausreißertest nach Hampel
Zunächst werden die Werte der Größe nach geordnet und der Median ermittelt, d. h. der Wert in der Mitte der geordneten Sequenz. Danach erfolgt ebenso wie im Grubbs-Test eine Normalisierung der Werte. Allerdings wird hier die absolute Differenz zwischen Median und jedem Wert gebildet und durch den Median der absoluten Differenzen (MAD) geteilt. Der MAD ist der Median der geordneten absoluten Differenzen, multipliziert mit 1,483. Wenn ein auf diese Weise normalisierter Wert die Grenze von 3,5 übersteigt, liegt ein Ausreißer vor (Gl. 13.9). Ausreißer nach Hampel: xi − xM xi − xM = > 3,5 MAD Median x i − x M ⋅ 1,483
(13.9)
mit: xi = Einzelwert; xM = Median der nach Größe geordneten Einzelwerte. 13.3.4 Vergleich von Analysenergebnissen
Hier werden statistische Verfahren beschrieben, die zum Nachweis der Äquivalenz von zwei Analyseverfahren herangezogen werden können. 13.3.5 Präzision
Die Präzision der Alternativmethode darf nicht schlechter als die der aktuellen sein. Die obere Grenze des Vertrauensbereiches des Verhältnisses der Varianzen von Alternativ- und aktueller Methode wird mit einem zuvor festgelegten Akzeptanzkriterium verglichen (Gl. 13.10). Auf Grund der großen Variabilität von
13.3 Interpretation und Behandlung analytischer Daten (USP <1010>) Tabelle 13.4 Beispiel eines Vergleichs zwischen einer Gehaltsbestimmung mittels LC und über Stickstoffbestimmung nach Dumas. Bei Letzterem wird der gefundene Stickstoffgehalt zum theoretischen (auf Grund der Summenformel) ins Verhältnis gesetzt (s. auch Vergleich.xls auf der Begleit-CD). Nr.
LC-Gehalt
N-Bestimmung
1 2 3 4 5 6 7 8 9
92,93 91,32 92,66 93,50 92,41 92,58 91,27 93,00 91,56
94,18 93,22 92,84 92,77 92,58 92,77 93,03 92,96 92,96
Verwendung der Werte
1–3
1–6
1–9
1–3
1–6
1–9
Mittelwert
92,30
92,57
92,36
93,41
93,06
93,03
Varianz
0,743
0,518
0,636
0,477
0,345
0,218
RSD
0,93%
0,78%
0,86%
0,74%
0,63%
0,50%
Anzahl
3
6
9
F-Test
1,56
1,50
2,92
x Kritischer Wert (95%)
19,00
5,05
3,44
x Signifikanz
Nein
Nein
Nein
Äquivalenztest VBV, oben
12,19
3,37
1,18
1,11
0,49
0,68
–0,25 bis 2,47
–0,19 bis 1,18
0,14 bis 1,21
t-Test
1,74
1,30
2,19
x Kritischer Wert (95%)
2,78
2,23
2,12
x Signifikanz
Nein
Nein
Ja
Präzision
Richtigkeit Differenz Äquivalenztest (95% VB der Differenz)
381
382
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik
Standardabweichungen ist jedoch zu beachten, dass eine ausreichende Datenzahl gewählt wird (s. Beispiel in Tabelle 13.4, Berechnung mit drei gegenüber neun Werten). Obere Vertrauensbereichesgrenze des Varianzenverhältnisses: VBV, oben =
2 salt ⋅ F (0,05; df alt ; df akt ) 2 sakt
(13.10)
mit: 2 salt/akt = Varianz der Alternativ-/aktuellen Methode; F (0,05; df alt ; df akt ) = Fisher’s F-Wert für eine Fehlerwahrscheinlichkeit von 5% und die zur Bestimmung der Varianzen von Alternativ- und aktueller Methode gehörenden Freiheitsgrade. Der beschriebene Äquivalenztest ist gegenüber dem traditionellen F-Test zu bevorzugen, da dort nur auf einen statistisch signifikanten Unterschied der Varianzen geprüft wird. Aber auch wenn ein solcher nicht gefunden wird, d. h., wenn das Verhältnis der Varianzen geringer ist als der kritische F-Wert, heißt das noch nicht, dass die Präzision beider Methoden äquivalent ist. Bemerkung: Außerdem würde auch ein signifikanter Unterschied gefunden werden, wenn die Alternativmethode eine wesentlich geringe Variabilität aufweisen würde, sicherlich kein Grund zur Ablehnung. 13.3.6 Richtigkeit
Die Richtigkeit wird als akzeptable Differenz der Mittelwerte belegt. Der vorgeschlagene Äquivalenztest prüft, ob der Vertrauensbereich der Differenz (Gl. 13.11) vollständig innerhalb eines vom Anwender festgelegten Akzeptanzintervalls (± G) liegt (Gl. 13.12). Im Gegensatz dazu ist die Fragestellung des traditionellen t-Tests, ob der Vertrauensbereich der Differenz den Wert null einschließt. Dies kann leicht zu Situationen führen, in denen entweder ein signifikanter Unterschied keine praktische Bedeutung hat (Abb. 13.4, Szenario 1, Beispiel: Tabelle 13.4 mit 9 Werten) oder in denen auf Grund zu großer Variabilität ein praktisch nicht akzeptabler Unterschied nicht erkannt wird (Abb. 13.4, Szenario 3). Der Vorteil von Äquivalenztests besteht darin, dass der Anwender selbst ein Maß für die praktische Relevanz definieren kann. Die Variabilität der Ergebnisse geht in die Äquivalenztests ein, und zwar zu Lasten des Anwenders (Abb. 13.4, Szenario 3), ebenso eine geringe Anzahl an Daten (Beispiel: Tabelle 13.4 mit drei Werten). Demgegenüber steigt mit der Zunahme der Datenzahl die Chance eines positiven Ergebnisses des Äquivalenztests, aber eines negativen des Signifikanztests (Beispiel: Tabelle 13.4 mit 9 Werten), was aus praktischer Sicht nicht gerade sinnvoll ist. Die geeignete Anzahl an Bestimmungen kann auch berechnet werden. Dies, sowie eine Berechnungsmöglichkeit für das Akzeptanzintervall, wird in Appendix E beschrieben. (Zu weiteren Anwendungen und Beschreibungen von Äquivalenztests im pharmazeutischen Bereich siehe [17–20].)
13.3 Interpretation und Behandlung analytischer Daten (USP <1010>)
Abb. 13.4 Schematische Darstellung von Signifikanz (Mittelwerts-t-Test) und Äquivalenztest. Die Differenz der Mittelwerte ist als Quadrat symbolisiert, die Vertrauensbereiche als Doppelpfeile. Die akzeptable Differenz G für den Äquivalenztest wurde mit ± 2 festgelegt. Der „Erfolg“ der statistischen Tests
bezüglich des Vergleichs ist mit „ja/nein“ für die verschiedenen Szenarien dargestellt. Für den t-Test bedeutet „nein“, dass ein statistisch signifikanter Unterschied zwischen beiden Mittelwerten besteht, für den Äquivalenztest, dass beide Methoden nicht äquivalent sind.
Vertrauensbereich der Differenz zweier Mittelwerte: VBD = ± t (P , n1 + n2 − 2) ⋅ s p ⋅
sp =
1 1 + n1 n 2
(n1 − 1) ⋅ s12 + (n2 − 1) ⋅ s22 n1 + n 2 − 2
− G ≤ (x1 − x2 ) − VBD ∧ (x1 − x2 ) + VBD ≤ + G
(13.11a)
(13.11b)
(13.12)
mit: n1, 2 ; x1, 2 ; s1,2 2 = Anzahl der Werte, Mittelwert und Varianz der beiden Serien 1 und 2; t (P , df ) = Student-t-Faktor für ein statistisches Signifikanzniveau P und Anzahl an Freiheitsgraden df. Da für die Äquivalenztests die einseitige Fragestellung relevant ist, muss für ein Signifikanzniveau von 95% eine Irrtumswahrscheinlichkeit D von 0,10 gewählt werden; ± G = obere und untere Grenze des Äquivalenzintervalls. 13.3.7 (Be)Merkenswertes
x Zur Berechnung der Präzision wird eine Varianzanalyse empfohlen. x Es wird klargestellt, dass Spezifikationsgrenzen und das Endergebnis des jeweiligen Prüfverfahrens (reportable result) verknüpft sind und nur letzteres für OOS-Beurteilungen herangezogen werden darf.
383
384
13 Anforderungen an (chromatographische) Daten in der pharmazeutischen Analytik
x Statistische Ausreißertests sind nur für Informationszwecke verwendbar, nicht jedoch zur Invalidierung von Daten, da sie die Ursache der Abweichung nicht adressieren. x Für den Vergleich von Methoden (oder Daten) sind Äquivalenztests wesentlich besser geeignet als die herkömmlichen Signifikanztests (z. B. F- und t-Test). Letztere prüfen nur auf eine statistische Signifikanz, nicht jedoch, ob diese auch von praktischer Bedeutung ist. Im Fall der Äquivalenztests legt der Anwender eine praktisch akzeptable Differenz fest.
Literatur 1 ICH Q2(R1): Validation of Analytical Procedures: Text and Methodology, 2005. 2 FDA. Guidance for Industry: Analytical procedures and methods validation, 2000. 3 European Pharmacopeia, 2.2.46 Chromatographic Separation Techniques, 28–32. 4 United States Pharmacopeia, National Formulary, Chapter <621> „Chromatography“, United States Pharmacopeial Convention, Rockville, 2006. 5 FDA. Validation of chromatographic methods (Reviewer Guidance), 1994. 6 G. C. Hokanson, Pharm. Technol., 18, 118–130, 1994. 7 J. Ermer, Chapter 1: Analytical Validation within the Pharmaceutical Environment, in Method Validation in Pharmaceutical Analysis. A Guide to Best Practice, J. Ermer and J. H. M. Miller (Eds.). Wiley-VCH, Weinheim, 2005. 8 Revision of Chapter 2.2.46 Chromatographic Separation Techniques, Pharmeuropa, 18, 410–416, 2006. 9 United States Pharmacopeia, Draft Chapter <1058> „Analytical Instrument Qualification“, United States Pharmacopeial Convention, Rockville, 2006. 10 ASTM. Standard practice for testing fixed-wavelength photometric detectors used in liquid chromatography. Designation: E685-93 (Reapproved 2000).
11 A. G. J. Daas, J. H. M. Miller, Pharmeuropa, 1999, 11, 571–577. 12 H. Wätzig, J. Ermer, Pharm. UZ, 32, 254–256, 2005. 13 ICH Q6A, Specifications: Test Procedures and Acceptance Criteria for New Drug Substances and New Drug Products, Chemical Substances, 1999. 14 ICH Q3A(R), Impurities in New Drug Substances, 2002. 15 USP. United States Pharmacopeia, National Formulary, Chapter <1010> „Analytical Data – Interpretation and treatment“, United States Pharmacopeial Convention, Rockville, 2006. 16 FDA. Guidance for Industry: Investigating out of specification (OOS) test results for pharmaceutical production, October 2006. 17 R. Kringle, R. Khan-Malek, F. Snikeris, P. Munden, C. Agut and M. Bauer, Drug Information J., 35, 1271–1288, 2001. 18 ISPE. Good Practice Guide: Technology Transfer, 2003. 19 J. Ermer, Chapter 2: Performance parameters, calculations and tests, in Method Validation in Pharmaceutical Analysis. A Guide to Best Practice, J. Ermer and J. H. M. Miller (Eds.). Wiley-VCH, Weinheim, 2005. 20 M. Broughton and J. Ermer, Chapter 7: Transfer of Analytical Procedures, in Method Validation in Pharmaceutical Analysis. A Guide to Best Practice, J. Ermer and J. H. M. Miller (Eds.). Wiley-VCH, Weinheim, 2005.
385
14 Über Bewertung und Wertung chromatographischer Daten Stavros Kromidas
14.1 Einleitung
Als Dienstleister ist mir Folgendes durchaus bewusst: Bei einer physischen oder virtuellen Zusammenkunft sollte der letzte Eindruck ein positiver sein – damit ist man der Zufriedenheit der Adressaten gewiss. So kritzelt man keinesfalls am letzten Tag eines Seminars um 16:15 Uhr noch schnell eine neue Differentialgleichung an die Tafel – mag sie auch noch so fundamental sein. Nein, man lässt das Ganze eher mit einem „Spielchen“ oder einer Gruppenarbeit ausklingen, die die Teilnehmer erfolgreich absolvieren können. So auch in einem Buch. Probleme, Schwierigkeiten usw. gehören in die vorderen Kapitel. Man schließt vernünftigerweise mit einem eher doch positiven Ausblick ab nach dem Motto „es gibt Probleme wie überall, aber irgendwie klappt es doch“ – das zustimmende Nicken der Leser ist dem Schreibenden recht sicher. Oder man fasst wenigstens das vorher Gesagte schlicht zusammen. Ich werde diese „ungefährliche“, motivierende und letzten Endes oft sinnvolle Praxis hier nicht anwenden. Vielmehr werde ich nachfolgend versuchen, vereinfacht und wertfrei die Situation zu schildern, wie ich sie vor Ort in den Labors erlebe – auch auf die Gefahr hin, dass Unangenehmes zur Sprache kommt. Das ist weder Eigensinn noch ein Marketingtrick. Mir liegt auch nichts ferner als lediglich Kritik zu üben oder den Zeigefinger zu heben. Es geht vielmehr um eine – sicherlich subjektive – Darstellung der von mir erfahrbaren Alltagspraxis analytischer Labors, um daraus einige Rückschlüsse ziehen zu können.
14.2 Die Situation – oder warum ändert sich so wenig?
Wenn im Privaten die Rede von „Bewertung“ eines Ergebnisses ist (ich habe seit gestern neue Fliesen in meinem Bad) geht es um eine kritische Stellungsnahme zum „Wert“, d. h. um die Qualität des Ergebnisses, um jenes beurteilen zu können.
386
14 Über Bewertung und Wertung chromatographischer Daten
Und ich berücksichtige bewusst oder erfasse zumindest intuitiv mehrere Aspekte des Ergebnisses (Preis, Farbe, saubere Fugen etc.). Aus dieser Erkenntnis heraus komme ich zu einem abschließenden Urteil, es könnte sich dabei evtl. auch ein Handlungsbedarf ergeben (z. B: Die Fliesen um die Badewanne herum sind noch einmal neu zu verlegen). Nun, wir wissen alle, dass im Berufsleben diese natürliche Haltung – in der Natur instinktiv vorhanden und damit im wörtlichen Sinne „natürlich“ – selten möglich ist bzw. geduldet wird. So reduziert sich in der Analytik die Bewertung oft auf eine „ja/nein“-Entscheidung eines Zahlenwertes. Es geht also nicht um den „Wert“ sondern lediglich um einen Zahlenwert. „Passt“ nun die Zahl oder „passt“ sie nicht? Ferner wissen wir alle, dass es kein Problem ist, sie passend zu machen: Es kann jener Zahlenwert für die Totzeit in den Rechner eingegeben werden, um den in der PV geforderten k-Wert zu erhalten, Messungen werden wiederholt, damit der Wert hoffentlich wieder „in spec“ ist oder es kann manuell so integriert werden, dass die Peakfläche der Nebenkomponente gerade unter den geforderten 0,05% der Hauptkomponente liegt. Das ist zuweilen frustrierend oder hinterlässt – vor allem bei den Anwendern direkt am Gerät – ein schales Bauchgefühl, das man irgendwann als unvermeidlich akzeptiert. Man ist auch unsicher, ob und was überhaupt „schlimm“ ist, auch die Strenge der Vorgaben ist nicht immer nachvollziehbar, z. B: An den Methodenparametern darf man kaum etwas ändern, aber bei der Integration ist man fast völlig frei, wie kritisch ist wirklich dieser kleine Peak usw.? Warum ist die Situation so wie sie ist? Das heißt, warum beschäftigen wir uns so stark mit der Bewertung eines Zahlenwertes im Sinne der Übereinstimmung mit Vorgaben und so wenig mit der Wertung des Ergebnisses im Sinne einer analytischen Beurteilung? Stark vereinfacht können wir wie folgt festhalten: In einer globalisierten, stark Wettbewerbs-orientierten Berufswelt fungieren Zahlen als einfache, nachvollziehbare und von allen Beteiligten akzeptierten Größen, ja, gar als Beweise für eine klar definierte „Qualität“. Wettbewerb fordert Vergleichbarkeit. Vergleichbarkeit verlangt nach objektiven Kriterien. Dazu eignen sich eben Zahlenwerte hervorragend. Je stärker nun der Wettbewerb ist, umso mehr gewichtet man maßstabsgetreue Werte. Dadurch wird unvermeidlich einer wirklichen, analytischen Beurteilung entgegengewirkt. Woher die Zahlen stammen, ob sie repräsentativ sind, ob sie überhaupt eine Relevanz haben usw., ist oft sekundär und wird selten hinterfragt. Das ist ein großes Manko. In einer auf Vergleichbarkeit bedachten Analytik (Gesellschaft) herrscht schnell Zahlengläubigkeit. Deswegen steht weiter oben „Qualität“ und nicht Qualität, weil vor allem formale Aspekte zur Definition herangezogen werden. Die Wiederholbarkeit, das reproduzierbare Finden von Zahlenwerten wird als Beweis für gleichbleibende Qualität angesehen, es handelt sich jedoch bestenfalls um den Beweis von gleichbleibenden Eigenschaften – aber auch nur derjenigen, die überprüft werden. Anmerkung: Jahrelang wurde im Labor dank GLP und anderen QM-Systemen auf Nachvollziehbarkeit und auf sture Befolgung von formalen Vorgaben getrimmt, deren Einhaltung gleich mit Qualität gesetzt. Man hat sich intensiv
14.3 Wie kann sich etwas ändern und wann ist es überhaupt notwendig?
mit Qualitätssicherung statt mit Qualität befasst. Dass dies selbstverständlich langfristig nur ein Irrweg sein kann, hat die FDA längst erkannt und in den letzten Jahren einen vorsichtigen, aber klar erkennbaren Kurswechsel eingeleitet: Statt einer „Any change is bad“-, „Compliance, not science“- und „Blind compliance“-Haltung soll nun die Ära von „Science and risk based compliance“ und „Continous improvement“ eingeläutet werden. Stichworte dazu: PAT, keine GMP-Checklisten, sondern Qualitätssysteme, weniger Qualitätskontrolle, mehr Qualitätssicherung. Kommen wir zurück zu dem was ist und nicht was sein könnte oder was irgendwann vielleicht sein wird. Im heutigen Umfeld – vor allem in stark reglementierten Bereichen – kann von Wertung gar keine Rede sein. Das ist auch gar nicht beabsichtigt und wird auch nicht verlangt. Also wird – obwohl wir alle wohl wissen, wie es geht – nicht unbedingt versucht, etwas Besseres, Sinnvolleres zu machen. Und im Leben, im Berufsleben insbesondere, machen wir selten etwas deswegen, weil wir es an für sich gut erachten. Wir sind nur dann bereit, etwas Festeingefahrenes zu ändern, wenn entweder unsere Sicherheit merklich erhöht oder das Belohnungszentrum im Gehirn aktiviert wird (Anerkennung, Freude, Lob etc. erfahren). Ansonsten lassen wir es lieber sein, schließlich wollen wir ja keine Revoluzzer sein. Und da heute „Fehler machen“ gleich mit Schwäche gesetzt wird, ist die Angst vor Fehlern bis in die höheren Ränge von Politik, Wirtschaft und Gesellschaft sehr groß. Und wir leben bekanntlich nicht in einer Zeit, in der Helden hoch im Kurs sind. In einer Zeit fast permanenten Zeitdrucks, starker Betonung von Formalien, Beweisbarkeit und Alibimentalität usw., ist man froh, dass das Ganze einigermaßen „läuft“. Und es bleibt alles wie es ist.
14.3 Wie kann sich etwas ändern und wann ist es überhaupt notwendig?
Am Anfang einer Entscheidung sollte „Können“ und „Wissen“ stehen. Erst wenn ich kann und weiß, erkenne ich Handlungsbedarf und kann Realisierungschancen und Wege beurteilen. Zum „Lernen“ und „Können“ sei hier nur Folgendes angemerkt: Es sollte möglichst ein Klima geschaffen werden, in dem jene möglich sind. Von der Neurophysiologie wissen wir: Menschen lernen und arbeiten nicht unter Druck am besten, sondern wenn sie sich wohl fühlen. In dieser (glücklichen) Situation wird der Neurotransmitter Dopamin aktiv; die Aufmerksamkeit steigt, das Gehirn ist bereit zu lernen. Ist diese Voraussetzung geschaffen, kann Wissen erlangt und gespeichert werden. Die Intention des vorliegenden Buches ist es, das Wissen um die Auswertung in der Chromatographie und die Bewertung der erhaltenen Ergebnisse im Sinne einer analytischen Beurteilung ein wenig zu erweitern. Nachdem Wissen um den Wahrheitsgehalt von Zahlenwerten vorliegt und eine Wertung möglich ist, wird entschieden – vorausgesetzt die Ziele sind allen Beteiligten unmissverständlich
387
388
14 Über Bewertung und Wertung chromatographischer Daten
klar –, ob Handlungsbedarf besteht und ob Handlungsspielraum vorhanden ist. Dazu vier Beispiele: x Der F-Test ist recht weit verbreitet; Für einen tatsächlichen Vergleich der Streuung zweier Messreihen ist er denkbar ungeeignet, da beim F-Test Varianzen (also Standardabweichung) und nicht relative Standardabweichungen – wo die Streuung in Bezug zum Mittelwert steht – verwendet werden. Wird er „expressis verbis“ vom Kunden oder von einer Behörde verlangt, ist er natürlich anzugeben. Es ist kein Zynismus, sondern Realität, wenn wir festhalten: Das eine ist Analytik, das andere ist „Geschäft“. x Ähnlich verbreitet und allgemein akzeptiert ist der Korrelationskoeffizient: Man muss sich nun sehr „anstrengen“, um im Falle von sauberen Proben keine zwei oder drei „9“ nach dem Komma zu bekommen. Was bedeutet das? Mögliche Ausreißer und Matrixeffekte beeinflussen ihn kaum. Die relative Verfahrensstandardabweichung dagegen reagiert sehr empfindlich auf derartige Veränderungen. Möchte (muss?) ich mir beim Routinebetrieb unabhängig vom Wissensstand der Anwender und sonstigen Variablen keine Probleme und Reklamationen einhandeln, bin ich froh, dass der Korrelationskoeffizient als Kriterium für die Linearität gefordert wird. Bezüglich dieses Punktes werde ich ein ruhiges Leben führen. Geht es tatsächlich um Wissen über die Qualität einer kalibrierbedürftigen Methode (Einfluss der Matrix auf die Empfindlichkeit, Streuung einzelner Werte), wäre die relative Verfahrensstandardabweichung zweifelsohne das bessere Kriterium. x Eine HPLC-Methode, in der vier Nebenkomponenten abgetrennt werden, wurde 1984 in mehreren Ländern eingereicht und registriert. In der Zwischenzeit kann man durch den Einsatz von selektiveren Säulen neun Nebenkomponenten abtrennen, deren toxische Relevanz unbekannt ist. Die noch geltenden Anforderungen von 1984 werden weiterhin eingehalten, es besteht also kein akuter Handlungsbedarf. Es passiert auch tatsächlich nichts. Welches Wort ist hier angebracht: Bewertung, Beurteilung, Qualitäts(!)kontrolle? x Führe ich die Validierung unter optimalen und nicht unter realen Bedingungen durch und berücksichtige dabei nicht alle Einflussfaktoren, erhalte ich natürlich kleine VK-Werte. Was ist nun meine Intention oder anders gefragt, woran wird die „Qualität“ meiner Arbeit gemessen? Erwartet mein Chef drei Validierungen in sechs Wochen, da Termine vorher vom Management festgelegt werden? Kann es sein, dass ich de facto gar keine Möglichkeit habe, das Testen gründlich(er) zu machen? Muss (will) ich aus welchen Gründen auch immer mit kleinen VK’s aufwarten? Dann ist die „Validierung“ wie oben beschrieben so durchzuführen. Die vorprogrammierten Probleme beim Methodentransfer, die unweigerlichen „OOS“-Situationen im späteren Routinebetrieb und die damit verbundenen recht hohen Kosten aus gesamtbetrieblicher Sicht usw. werden hingenommen und sie belasten schließlich die Qualitätskontrolle – nicht uns …
14.3 Wie kann sich etwas ändern und wann ist es überhaupt notwendig?
Die Beispiele lassen sich beliebig fortführen. Eine bewährte Strategie zur Effektivitäts- und Effizienzsteigerung im Labor besteht aus drei Schritten. Zuerst kommt das völlig objektive, rationale, emotional nicht belegte Wissen. Dies führt zur Kenntnis von Fakten. Dann gilt es, Ziele zu definieren, zu erfragen bzw. zu vermitteln. Anschließend sollte man bei Bedarf die analytische Praxis unter Berücksichtigung der Möglichkeiten optimieren. In diesem dritten Teil der Kette sehe ich persönlich das größere Potential. Auch hier einige Beispiele: x Bei der Bewertung einer Methode sollte man daran denken, dass deren „Wert“ durch Kosten- und Zeitersparnis erhöht wird. Oft reichen simple, de jure erlaubte Maßnahmen, um eine Methode zu verbessern, z. B: Wenn schon nicht bei der Trennung, sollte wenigstens beim Spülen einer HPLC-Säule der Fluss von 1 ml/min auf 2 ml/min erhöht werden. Oder: Statt einer 4-mm-Säule könnte eine 3-mm-Säule verwendet werden. In beiden Fällen ergibt sich eine Ersparnis an Zeit bzw. an Eluentenverbrauch um ca. 50%. x Man sollte den vorgegebenen Spielraum nutzen und dem heute allgemeinen Trend „aus Angst, preußischer als die Preußen zu sein “ entgegentreten. Die Behörden lassen es zu, ja sie fördern es teilweise sogar. Verkrustete Strukturen sind oft die eigenen. So sollten die erlaubten Modifikationen bei USP- und EP-Methoden tatsächlich genutzt werden (s. Kapitel 11 bis 13), im Falle von unbekannten Einflussfaktoren auf mein Ergebnis sollte (muss) ich jenes mit dem Erweiterungsfaktor k multiplizieren und diese Zahl als die in der Routine erwartete/erlaubte angeben (s. Kapitel 4). x In der klassischen Statistik spielt der Faktor „Zeit“ keine Rolle. So wird im Alltag üblicherweise überprüft, ob sich der VK unter einem Schwellenwert und der Mittelwert innerhalb der vorgegebenen Grenze befinden. Also eine „ja/nein“Entscheidung. Wird nun darüber hinaus der Mittelwert in Abhängigkeit von der Zeit mit Hilfe einer Kontrollkarte verfolgt, kann erkannt werden, ob eine zeitliche Abhängigkeit des Mittelwertes vorliegt oder nicht. Sollte dies der Fall sein, handelt es sich entweder um Alterungsprozesse bei der analytischen Methode (Chemikalien, Säule) oder um eine zeitliche Änderung des Gehaltes bedingt durch den Produktionsprozess (Vergiftung von Reaktanten, Zersetzungen etc.). Mit Hilfe von Kontrollproben kann dies unterschieden werden. Sollte es an der Produktion liegen, ergibt sich womöglich ein großes Optimierungspotential, das durch ein einfaches analytisches Tool erkannt worden wäre. x Man sollte sich in „Worst case“-Mentalität und Hinterfragen üben, um zu realistischen Anforderungen zu gelangen. Wenn beispielsweise der VK meiner Methode 0,8% beträgt und die Spezifikationsanforderungen für den Gehalt mit 98–102% festgelegt wurden, ist völlig klar, dass einzelne Werte „OOS“ sein werden: Die Streuung der Methode ist zu groß im Vergleich zu den Spezifikationsanforderungen. In diesem Fall wäre – das wird übrigens von der FDA in den letzten Jahren immer mehr propagiert – die Anforderung 95–105%
389
390
14 Über Bewertung und Wertung chromatographischer Daten
angebracht. Oder man nimmt in einem solchen Fall „Ausreißer“ nicht ernst, die Spezifikationsanforderung sollte nur für den Mittelwert gelten. Ferner ist eindeutig zu belegen, um wie viel schlechter (belegbarer Qualitätsverlust und konkrete monitäre Einbuße) das betreffende Produkt bei einer Forderung für die Streuung von z. B. VK = 1,5% statt der aktuell geforderten 1% wird. Fehlt dieser Beleg, sollte man solche Anforderungen etwas großzügiger handhaben. Es gilt Folgendem entgegen zu wirken: Durch unbedachte Anforderungen wird die Analytik teuerer, ohne dass die Qualität des Produktes und damit sein Vermarktungswert um diesen Betrag zunimmt. Die immense Schwierigkeit allerdings, einmal formulierte Anforderungen durch inhaltlich richtige Argumente zu revidieren, ist mir geläufig.
14.4 Wer kann etwas ändern?
Wird bei der Beurteilung einer Methode oder generell bei der Beurteilung der aktuellen analytischen Praxis ein Handlungsbedarf erkannt, wäre eine echte Änderung nur durch das obere Management möglich. Die Chance erachte ich jedoch als eher gering. Warum? Das Management ist weit weg von der Praxis, für dieses ist das Labor eine kostenintensive Notwendigkeit, die Zahlen zu liefern hat, um das Produkt/die Dienstleistung verkaufen zu können. Das Labor soll bitte schön solche Zahlen/Ergebnisse liefern, die gebraucht werden – nach dem Motto: „Sorgt dafür, dass es klappt“. Für das Management sind dies lediglich Zahlen, ähnlich wie andere Zahlen, mit denen es sich herumschlagen muss: Verkaufszahlen, Cash-Flow, Aktienkurse usw. Ich zitiere einen Abteilungsleiter: „Ich sehe schon ein, dass die Höhenauswertung genauer ist, aber wir werden an unserer Praxis nichts ändern. Bringen Sie lieber meinen Leuten bei, wie sie vernünftig(!) über die Fläche auswerten können, damit das Ganze so bleibt, wie es immer war. Wenn es nicht anders geht, sollen sie die Analyse halt wiederholen. Das Einsetzen für die Höhenauswertung in allen Standorten würde mich sehr viel Zeit kosten – die habe ich nicht und schließlich habe ich bei Gott wichtigeres zu tun“. Keine befriedigende, aber eine durchaus nachvollziehbare Haltung. Viele Anwender am Gerät wissen in aller Regel recht genau, was schief läuft – nur sie haben selten eine Entscheidungsbefugnis. Veränderungen obliegen meist dem altgedienten Laborpersonal und dem Labormanagement: Diese Kollegen haben das fachliche Wissen und häufig auch mit etwas Mut, Kreativität und guten Argumenten die Möglichkeit, wenigstens kleine Veränderungen herbeizuführen. Dazu gehört das Überdenken von Spezifikationen bzw. von Kriterien abhängig davon, ob bei der aktuellen Methode formale Anforderungen oder eben analytische „Wahrheit“ im Vordergrund steht, siehe Beispiele weiter oben. Lohnt es sich nun beim heutigen Arbeitspensum und Zeitdruck sich für etwas einzusetzen, wenn das Ganze mehr oder weniger doch läuft? Es liegt auf der Hand, dass die Antwort nur eine individuelle sein
14.4 Wer kann etwas ändern?
kann. Aus meiner Erfahrung würde ich vielleicht Folgendes vorschlagen: Der erste, wichtige Schritt ist das Klarstellen von Fakten: Anzahl von Proben, vorhandene Ressourcen, warum braucht wer, bis wann, welches Ergebnis, mit welcher Präzision usw. Daraus wird eindeutig ersichtlich, ob ein Handlungsbedarf besteht und wenn ja, zu welchem Grad dieser umsetzbar ist. Man sollte anschließend nur dann zur Tat schreiten, wenn damit persönliche Vorteile einhergehen: Verstärkung der eigenen Position bzw. des Selbstbewusstseins, Anerkennung, persönliche Genugtuung, Schaffensfreude, Motivationsschub für die ganze Gruppe usw. Ist es so, sind die Chancen auf Erfolg nicht einmal schlecht.
391
393
Stichwortverzeichnis a Abwasserverordnung 337 Abweichungen 117 Acetophenon 208 Aciclovir 278 Affinitätschromatographie 3 ff. Aflatoxine 306, 308 Aminosäuren 195 Analyse 205 – Fingerprint-Analyse 205 Analyseverfahren 365 analytische Daten 145 ff. – Akzeptanzgrenze 151 – Beurteilung 145 – Erwartungsbereich 151 – Freiheitsgrade 148 – Gauß’sche Normalverteilung 145 – Gesamtstreuung 153 – Histogramm 145 – Ishikawa-Diagramm 153 f. – Mittelwert 147, 151 – Obergrenze 149 – pharmazeutische Analytik 153 – Präzision 153 – Simulation 149 – Spannweite 151 – Spannweitengrenze 152 – Standardabweichung 147, 149, 151 – Stichprobe 149 – Unsicherheit 147, 152 – Variabilität 153 – Verteilung 145 – Vertrauensbereich 147, 149 – Zuverlässigkeit 148 Ansprechzeit 35 APCI (Atmospheric Pressure Chemical Ionization Interface) 267 ApexTrack™ 43 AQS 315 f., 328, 331
– Ablauf 328 f. – Analysenungenauigkeit 324 – AQS-Messungen 330 – AQS-Werkzeuge 324 ff. – AQS für Analysenverfahren 328 – Aufwand 331 – Beurteilung der Analysenergebnisse 336 – für spezielle Verfahren 334 – Grenzwert 336 – Kalibrierprozedur 330 – Kontrollkarten 316 ff. – Messabweichungen 333 – Messunsicherheit 323 f. – objektbezogene AQS 320 – Praxis 328 – Qualitätsmanagement 315 – Schnellschätzverfahren 329 – Stellvertreterproben-AQS 320 – Stichproben-AQS 320 – Validierung 320 f. – Vorgehensweise 331 – Wasseranalytik 330 – Wiederfindungsexperiment 333, 336 – Zielwertkarten 316 ff. Arbeitsbereich (Range) 356 f., 362 Arzneibücher 339, 365 Arzneibuchverfahren 352 Arzneimittelmonographie 353 Arzneimittelrückstände 288 Arzneimittelzulassung 349 Arzneistoffe 339 Auflösung 9 ff., 16, 340 Auflösungsgrößen 9 ff. Ausreißertest nach Hampel 380 Auswertemethoden 129 Auswertung 55, 171, 193, 206, 248, 345, 387 – Achsenabschnitt 134 – Ausreißertest nach Hampel 380
394
Stichwortverzeichnis – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – –
Auswerteparameter 260, 263 Auswertesoftware 282 Bestimmungsgrenze 282 CDS 252 Datenbearbeitungsprozess 243 Datendichte 253 Datenevaluation 235 Datenprozessierung 235 ff. Datenverarbeitung 236 Detektor-Rauschen 250 Detektordrift 252 direkte Kalibration 248 Eichkurvenverfahren 302 Einpunkteichung 130 Ergebnisgenauigkeit 249 Ergebnisgröße 178 Ergebnisunsicherheit 178 erweiterte Messunsicherheit 175 erweiterte Unsicherheit 181 F-Test 388 F-Wert 136 Flussmarker 259 Flussrate 259 Gauß’sches Fehlerfortpflanzungsgesetz 180 Genauigkeit 250, 252 f. Geräteeigenschaften 259 Gesamtgleichung 129 Gewichtsmittelwert 240 Gewichtung 139 GPC-Datenanalyse 238 GPC-Normen 251 GPC-Software 241, 243 Grenzwertvergleich 185 GUM (Guide to the Expression of Uncertainty in Measurement) 174, 183 Inkrementsystem 222 Integrationsgrenze 251 Johnsson-Tabelle 133 Kalibration 255 Kalibrationskurve 256 Kalibrationsstandard 256 Kalibrationsverfahren 255 Kalibrier-Fitfunktion 257 Kalibrierkurve 239 kombinierte Messunsicherheit 304 kombinierte Standardunsicherheit 175 kombinierte Unsicherheit 180 Korrekturfaktoren 222 Korrelationskoeffizient 388 lineare Regression 130 mathematische Methoden 171 Messergebnis 174 Messgröße 174
– – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – –
Messunsicherheit 173 f., 181 Messunsicherheitsermittlung 184 Metrologie 171 Molmassen-Kalibration 245 Molmassenmittelwerte 238 Molmassenverteilung 239, 243, 245 ff. Mutual Recognition Agreement 172 Normen 236, 241 Nullpunktsgerade 130 pharmazeutische Analytik 183 Probenkonzentration 260 Qualifizierung 244 Quotientenbildung 141 Rauschen 250 Referenzobjekte 184 Regressionskoeffizient (Bestimmtheitsmaß) 256 relativer Retentionswert 206 Reproduzierbarkeit 248, 280 Residualstandardabweichung (RSD) 132 Residuum 132 Retentionswert 206 Richtigkeit 245 Richtlinien 241 Rohdaten 244 RSD 132 Rückführbarkeit 186 Rückführbarkeit von Messungen 172 Signal/Rausch-Verhältnis 250 ff. Signalqualität 248 Signifikanztest 303 Standardabweichung 175 Standardunsicherheit 177, 179, 182 statistische Methoden 171 Streifenmethode 238 Traceability 186 Unsicherheit 173, 177, 182 Unsicherheitsquelle 178 Validierung 244 Varianzquotienten (F-Wert) 138 Verfahrensstandardabweichung (VSD) 132 Verfahrensvariationskoeffizienten (VVK) 133 Vergleichbarkeit 186 Vergleichspräzision 265 Verifikationsverfahren 243 Viskositätskopplung 249 Viskositätsmittelwert 240 Volumendifferenz 260 Wichtungsexponenten (WE) 137 Wiederholbarkeit 265 z-Mittelwert 240 Zahlenmittelwert 240
Stichwortverzeichnis – Zertifizierungen Autosampler 128
241
b Basislinie 39, 44, 48, 124 f. Behältnis 350 Benzamidin 208 Berührungszeit 195 Bestimmungsgrenze (BG) 98, 300, 302, 358, 362 Bestimmungsgrenze (Limit of Quantification) 13 Bestimmungsgrenze (Quantitation Limit) 356 Bewertung 355 Blindprobe 14 Bodenzahl 10, 69, 71, 81 – Bodenzahlberechnung 81 – theoretische 5 Body of Data 349 British Pharmacopoeia (BP) 353 Bruttoretentionszeit 5
c CDS 68, 83, 86 f., 89, 119, 123, 125, 127 ff. – LCSolution 89 chemisches Gleichgewicht 194 ChemStation – Initial Area Reject 48 – Initial Height Reject 48 – Initial Peak Width 48 – Initial Slope Sensitivity 48 – Shoulders (on/off) 48 Chromatogramm 3, 5, 57, 61, 103, 113, 123 f., 128, 269, 343, 345 – 2-D-/3-D-Chromatogramm 28 f. – äußeres 28 – Auswertung 128 – Gradienten-Chromatogramm 107 – inneres 28 – Integrationsfehler 57 – isokratisch 103 – isotherm 103 – simuliert 123 Chromatogramm-Simulation 66, 68 – Excel 68 Chromatographie 3, 268, 329, 339 – Affinitätschromatographie 3 ff. – analoge 4 – digitale 4 – Gelfiltrationschromatographie (GFC) 3 ff., 235 ff. – Gelpermeationschromatographie (GPC) 3 ff., 235 ff.
– Größenausschlusschromatographie 3 ff. – HPLC 236 ff. – Ionenaustauschchromatographie 3 ff. – isokratische Chromatographie 272 – Kapillargaschromatographie 75 – Normalphasenchromatographie 3 ff. – präparative 4 – Size Exclusion Chromatography (SEC) 3 ff., 235 ff. – Umkehrphasenchromatographie 3 ff. – Verteilungschromatographie 3 ff. Chromatographie-Daten-System „CDS“ 55 ff. chromatographische Bedingungen 29 chromatographische Kenngrößen 5 – Bruttoretentionszeit 5 – Retentionsgröße 5 f. – Totzeit 5 chromatographische Parameter 369 – Retentionsfaktor 369 – Retentionszeit 369 – Symmetriefaktor 369 – Trennfaktor 369 – Verteilungskoeffizient 369 chromatographischer Prozess 3 Chromatographisches System 340, 343 chromatographische Trennung 3, 19 Chromeleon 45 – Data Collection Rate (Datenerfassungsrate) 45 – Peak Slice 47 – Sampling Rate (Datenaufnahmerate) 45 – Sensitivity 47 Clonidin 278 Clotrimazol 276 CO2 227 Common Technical Document (CTD) 349 Controlled Reference Standards (CRS) 354
d Daten 385 – Analogsignal 23 – Bewertung 385 f. – Chromatogramm-Simulation 66 – Data Collection Rate (Datenerfassungsrate) 45 – Datenaufnahme 19, 19 ff., 45, 47 – Datenaufnahme und -integration mit ChemStation 47 – – Data Rate 47 – – Minimum Peak Width 48 – Datenaufnahme und -integration mit Chromeleon 45
395
396
Stichwortverzeichnis – Datenaufnahme und -integration mit EZChrom Elite 47 – Datenauswertung 19, 24, 37 – Datenpunktabstand 81 – Datenpunkte 21 – Datenpunktintervall 78, 83 – Datensammelrate 21 ff., 37 ff. – Detektorsignal 22 – Integrationsfehler 55 ff. – Peak Width 23 – Qualität 386 – Sampling Period 23 – Sampling Rate (Datenaufnahmerate) 22 ff., 45 – Schrittweite 23 – Step 23 – Wertung 385 Datenaufnahme – Beispiele 24 ff. Datenpunktabstand 83 Datenqualität 366 Derivate 196 Detektionssystem 30 Detektor 18 f., 34 f., 201 – Abtastfrequenz 203 – Ansprechzeit 35 – Aufnahmerate 203 – Charakterisierung 30 – Detektorempfindlichkeit 33 f. – Detektorresponse 346 – Driftverhalten 253 – dynamischer Bereich 35 f. – Elektroneneinfangdetektor (ECD) 223 – konzentrationsabhängig 31 – Leitfähigkeits-Detektion 225, 227 – Leitfähigkeits-Messzelle 228 – Lichtstreudetektoren 262 – Lichtstreudetektortyp 262 – linearer Bereich 34 f. – Linearität 202 – massenstromabhängig 31 – Response 201 – Responsefaktor 346 – selektiv 31 – selektiver Detektor 202 – spezifisch 31 – Universaldetektor 202 – Universaldetektor (FID, TIC) 222 – universell 31 – Zeitkonstante (Time Constant, Rise Time, Response) 35 ff., 202 – zerstörend 31 Deutsche Pharmazeutische Gesellschaft (DPhG) 376
Dichlofluanid 217 Diffusivität 194 Dimethylformamid 222 Dimethylsulfoxid 221 2,4-Dinitrophenylhydrazin (DNPH) 197 Dinitrophenylhydrazone 197 Directorate for the Quality of Medicines (EDQM) 354 Drift 72 f., 104, 123
e Eddy-Diffusion 15 Effizienz 4 f., 9, 11, 16 – theoretische Bodenhöhe 12 f. – theoretische Bodenzahl 11 f. – Trennstufenhöhe 12 f. – Trennstufenzahl 11 f. Eichkurvenverfahren 302 Elektrospray-Ionisierung 273 Empower™ 43 Entgasen 226 Entscheidungsgrenze (Limit of Decision) 13, 296 Erfassungsgrenze (EG) 301 f. Erfassungsgrenze (Limit of Inclusion) 12 ESI (Electrospray Interface) 267 Ethylenglykolmonomethylether 222 Ethyltoluol 208 Europäische Pharmakopöe (Ph. Eur.) 339, 345 Europäisches Arzneibuch (EP) 367 – chromatographische Trenntechniken 367 – Systemtestanforderungen 367 Europäisches Arzneibuch (Ph. Eur.) 352 externer Standard 346 EZChrom Elite 47 – Sampling Frequency 47 – Sampling Period 47 – Threshold 47
f FDA Reviewer Guidance 374 – Systemtestparameter 374 – Validierung 374 Fertigarzneimittel – Kontrolle 351 Festphasenextraktion (SPE) 268 Fettsäuren 273 Flüchtigkeit 195 Flüssigchromatographie 194 Flüssigkeitschromatographie (LC) – APCI (Atmospheric Pressure Chemical Ionization Interface) 267
Stichwortverzeichnis – ESI (Electrospray Interface) 267 Fronting 8 Fusarientoxine 308
g Gaschromatogramm 75 – GC 75 – HPLC 75 Gaschromatographie (GC) 15, 193 ff., 203, 368 – Autosampler 199 – Dampfraumanalyse 197 – Dosiertechnik 197 – Extraktionstechnik 197 – Gas-Liquid-Chromatographie (GLC) 194 – Gas-Solid-Chromatographie (GSC) 194 – Gasgeschwindigkeit 16 – GC-Analyse 197 – GC/MS-Kopplung 208 – isotherme GC 200 – Kapillar-GC 16, 193 f., 197 – KGC-Kopplungstechnik 205 – Probeninjektion 199 – Retentionsindex 207 – Retentionszeit 207 – Retention Time Locking (RTL) 207 – Säulenbluten (Column Bleed) 200, 211 – schnelle Gaschromatographie 203 – Solid Phase Dynamic Extraction (SPDE) 197 – Solid Phase Micro Extraction (SPME) 197 – Stir Bar Sorptive Extraction (SBSE) 197 – temperaturprogrammierte GC 201 – Totalionenstrom-Chromatogramm (Total Ion Current, TIC) 209 f. – Trennsäule 200 Gauß-Peak 113 Gaußfunktion 69 GC 75, 197 GC/MS 209 – Ähnlichkeitsindex (Similarity Index, SI) 211 – Blindproben (Blanks) 219 – Chemische Ionisation (CI) 217 – Extracted Ion Chromatogram 219 – Fragmentierungsmuster 210 – Headspace-GC 221 – Interpretation von Massenspektren 212 – Isotopenverdünnungsanalyse (IVA) 219 – Kalibrierstandards 219 – Massenfragmentographie (Reconstructed Ion Chromatogramm) 215 – Matrixeffekte 220
– – – – – – – – –
MID (Multiple Ion Recording) 216 Multiple Headspace-Extraktion 222 qualifier ions 217 quantitative Analyse 218 SIM (Single Ion Monitoring) 216, 219 Spektren-Deconvolution 213 Spektrenbibliothek 210 Spurenanalytik 220 Stabilisotopenverdünnungsanalyse (SIVA) 219 – Verweilzeit (Dwell Time) 217 Gehaltsbestimmung 375 – analytische Variabilität 376 – DPhG-Verfahren 376 – Gesamtvariabilität 376 – Methodenfähigkeitsindex 375 – Prognosebereich 376 Gelfiltrationschromatographie (GFC) 3 ff., 235 Gelpermeationschromatographie (GPC) 3 ff., 235 – Flussrate 254 – Kalibration 254 – Polydispersität 254 – Resultate 254 – Richtigkeit 254 – Vergleichspräzision 265 – Verlässlichkeit 254 – Wiederholbarkeit 265 Geräteeigenschaften 259 gewichtete Regression 140 Golay-Gleichung 15 – erweiterte 16 Gradient 107 Gradienten-Chromatogramm 107 Gradienten-Elution 269 Gradientensystem 344 Grenzwert 294, 299, 311 Größenausschlusschromatographie 3 ff.
h Haltbarkeit 351 Head-Space-GC 360 Horwitz-Gleichung 298 HPLC 69, 75, 196 f., 236, 340
i ICH-Guideline 377 Immunsuppressiva 274 Injektion 66 Integration 39, 43, 58 ff., 75, 83, 97, 118 f., 127 ff. – Apex-Track-Integration 94 ff. – ApexTrack-Verfahren 44
397
398
Stichwortverzeichnis – Basislinie 58 – Chromatographie-Daten-System „CDS“ 55 ff. – Chromeleon 92, 96, 103, 107 – Einzelvarianzen 66 – EMG-Funktion 118 – Empower 61 ff. – EZChrom 61 ff., 92, 96 – Gesamtfehler 66 – Integrationsalgorithmen 64 – Integrationsfehler 97, 97 f., 127 – Integrationsparameter 43, 61, 97 – Integrationssysteme 61, 107 – Integrationstest 92 – Kalibrierung 98 – klassische Integration 44 – Korrekturfaktor 98 – LCSolution 103, 117 – Lotfällung 119, 122 – manuelle Nachintegration 66 – Slope 58 ff. – Tangentenmethode 119, 122 – Tangent Skim 127 – Threshold 96 – Valley to Valley 127 Integrationsarten 56 – Lotfällung 56 – Tangentenmethode 56 Integrationsfehler 55 ff. – Literatur 55 Integrationsprogramm 48 – Integrationsparameter 48 – Vergleich 48 f. Interne Qualitätskontrolle (Internal Quality Control, IQC) 310 interner Standard 67, 97 Internes Qualitätsmanagement (IQC) 309 Interpretation analytischer Daten 378 – Äquivalenztest 382 – Ausreißer 379 – Ausreißertest nach Hampel 380 – Endergebnis (reportable result) 379 – Messprinzipien 378 – Mittelwert 383 – Prüfverfahren (reportable result) 383 – Richtigkeit 382 – t-Test 382 – Variabilität 378 – Varianz 383 – Vergleich von Analysenergebnissen 380 – Voraussetzungen 378 Investigational Medicinal Product Dossier (IMPD) 360 Ionenaustauschchromatographie 3 ff.
Ionenchromatographie (IC) 225, 227, 230 – Anionenaustausch-Chromatographie 226 – Anionenaustauscher 228 – Eluenten 226 – hydrophobe Harze 226 – Ionenausschlusschromatographie 225 – Ionenaustauschchromatographie 225 – Ionenaustauschersäule 232 – Ionenpaarbildner 226 – Ionenpaarchromatographie 225 – Kalibrierfunktion 232 – Kieselgel-Umkehrphasen 226 – Kontamination 230 f. – Lösemittelpeak 229 – Reinigungslösung 232 – RFIC (Reagent Free IC) 227 – Säulengift 231 – Selektivität 225 – Suppressor 231 – Temperatureinfluss 228 – Void Volume Treatment 230 – Wasserdip 227, 229 IQC (Internal Quality Control) 291 f. – Qualitätsregelkarte 292
j Japanese Pharmacopoeia (JP)
353
k Kalibrierung 14, 98, 129, 131, 136, 187 – Standard 187 Kapazitätsfaktor 6 Kapillargaschromatographie 16, 75, 196 Kenngrößen 88 Konformitätsbescheinigung (Certificate of Suitability, CEP) 355 Kontaminanten 288, 294 Kontrollkarte 316 f. – Außerkontrollsituationen 317 – Blindwert-Kontrollkarte 329 – Erwartungsrahmen 317 – Mittelwert-Kontrollkarte 329, 334 – Spannweiten-Kontrollkarte 334 – Umweltanalytik 317 – Wiederfindungsraten-Kontrollkarte 329 Kritische Differenz 299
l Laborqualitätsmanagement 295 Laborvergleichsuntersuchung (LVU) – Z-Score 292 Laborvergleichsuntersuchungen (Proficiency Tests) 289
291 f.
Stichwortverzeichnis LC – Gradientenelution 368 – isokratische Elution 367 LC-MS 267 – Abweichung 278 – Auswertesoftware 282 – Bestimmungsgrenze 282 – Festphasenextraktion (SPE) 268 – interne Standards 276 – isokratische Chromatographie 272 – Kontrolle 276 – Matrixeffekt 268, 272 – Messfehler 277 – Präzision 277 f. – Probenaufarbeitung 268 – Qualifier 274 – Quantifier 274 – Retentionszeit 277 f. – Standards 268 Leading 8 Lebensmittelanalytik 287 Lebensmittelchemische Gesellschaft 290 – Arbeitsgruppe „Pestizide“ 290 Lebensmittelüberwachung 287, 309 Leitlinien 287 Leitlinien zum Qualitätsmanagement 309 ff. Lichtstreudetektion 262 – Brechungsindexinkrement 263 – Kalibration 263 Lichtstreuung 251 lineare Regression 131 ff., 140 – gewichtet 136 Linearität (Linearity) 356 f., 362 LOQ (Limit of Quantification) 343, 345
m Massenübergang (dwell time) 280 Materialkontrollen 350 Messergebnis 174 Messgröße 174 Messunsicherheit 91, 174, 297, 312 – Ishikawa-Diagramm 91 Metalle 230 Mineralsäuren 228 mobile Phase 344 MRM (Multiple Reaction Monitoring) Mykotoxine 288, 294, 305
267
n Nachweisgrenze 301, 358, 362 Nachweisgrenze (Detection Limit) 356 Nachweisgrenze (Limit of Detection) 12 Nachweisgrenze (NWG) 302
Nachweisvermögen 296 Natrium 274 Nebenproduktanalyse 113, 122 – Hauptpeak 113, 120 – Hauptproduktpeak 114 f. – Nebenpeak 120 – Nebenproduktpeak 113 ff. – Tailing 113 – Tailingfaktor 114 Nebenproduktbestimmung 377 – Bestimmungsgrenze 377 – Spezifikationsgrenze 377 Nettoretentionszeit 6 4-n-Nonylphenole 216 Norfloxacin 343 Normalphasenchromatographie 3 ff. Normalverteilung 146 Nullpunktsgerade 140
o Ochratoxin 293 Ochratoxin A 306, 308 Official Medicinal Control Laboratory (OMCL) 352 Offset 72 f.
p Patulin 306, 308 Peak-to-Valley-Ratio 341 Peakerkennung 41 f., 44 f., 48 – Methoden 41 f. Peakfläche 39 Peakform 6 ff., 340 – Basispeakbreite 6 – freistehende Peaks 104 – freistehender Peak 83 – Fronting 8 – Gaußfunktion 69 – kleiner Peak 104 – Leading 8 – Peak-Ausdehnung 6 ff. – Peakbeginn 41 f. – Peakbreite 7, 86 – Peakende 41 – Peakerkennung 44 f. – Peakfläche 19, 39, 87 – Peakhöhe 7, 19, 39, 44, 87, 107 f., 120 – Peakleading 8 – Peakspitze 41 f., 44 – Peaksymmetrie 343 – Peaktailing 8 – Substanzmenge 39 – Symmetriefaktor 340 – Tailing 8
399
400
Stichwortverzeichnis – Tailingfaktor 7 – verschmolzene Peaks 77, 83 Peakhöhe 39 Peak Width 23 Pestizid-Grenzwertüberwachung 311 Pestizide 308 Pflanzenschutzmittel 288 Pflanzenschutzmittelrückstände 289 – Analytische Qualitätskontrolle (AQC) 289 pharmakologisch wirksame Stoffe 295 Pharmazeutische Analytik 365 f. Pharmazeutische Qualität 349 Phase – mobile 4 – stationäre 3 Phasengleichgewicht 194 Polarität 195 Polydispersität 251 Präzision (Precision) 158, 160, 162, 164 ff., 168, 184, 356 f., 362, 380 f. – Bestimmungsgrenze 167 – CRM 188 – Fehlerfortpflanzung 156 – Gesamtvarianz 162 – Horwitz-Funktion 165 ff. – ICH-Guideline 157, 160 – Injektionspräzision 156 – inter-serielle Varianz 162, 164 – Intermediate Precision 155 ff., 159 – interner Standard 168 – intra-serielle Varianz 160 – Kalibrierung 187 – Konzentrationsabhängigkeit 165 f. – Laborvergleichspräzision 155 ff., 159 – lineare Regression 158 – Literatur 162 – Messunsicherheit 184 ff. – Nebenproduktbestimmung 168 – Optimierung 163 – Präzisionsebenen 155 ff. – Probenaufarbeitung 164 – Prüfverfahren 157, 163 f. – Referenzverfahren 188 – Ringversuchsbedingungen 166 – RSD 165 – Spezifikationsgrenze 158 – Standardabweichung 155 ff. – Standardunsicherheit 176 – systematische Abweichungen 184 – Systempräzision 155 f. – Systemvarianz 164 – Validierung 157, 187 – Variabilität 168
– Varianz 166 – Varianzanalyse 157, 160 – Varianzbeiträge 156 – Varianz der Probenaufarbeitung 164 – Vergleichspräzision 159 – Vergleichsstandardabweichung 184 – Verteilungsobergrenze 159 – Wiederholpräzision 155 ff., 358 Primärmethode 188 Probennahme 306 – Einzelprobe 307 – Laborprobe 307 – Sammelprobe 307 – Teilprobe 307 Probennahme-Vorschriften 307 Probenvorbereitung 66 Problemstellung – Europäische Pharmakopöe (Ph. Eur.) 339 – United States Pharmacopeia (USP) 339 Produktanmeldung 246 Prozessvalidierung 351 Prüfmethode 359 – Leistungscharakteristika (method performance characteristics) 359 – Prüfziel 359 Prüfverfahren 163 f., 349, 353 f., 357, 360 – Äquivalenz 354 – bioanalytische Prüfverfahren 349 – chromatographische Prüfverfahren 349 – HPLC-Verfahren 354 Punktdiagramm 62 Pyridin 208 Pyrolyse-GC 196
q qualitative Analyse 204 – Identifizierung 204 – Non-Target-Analysis 204 – Target-Analysis 204 Qualitätsdossier 349 Qualitätskontrolle 365 f. – pharmazeutische 365 Qualitätsmanagement 315 Qualitätssicherung 309 – Gremien 309 Quality Overall Summary 349, 352
r Rauschen 72, 370 – Kurzzeit 371 – Kurzzeitrauschen
371
Stichwortverzeichnis – Langzeitrauschen 370 Rechtsvorschriften 295 Referenzpeak 342 Referenzsubstanzen (Certified Reference Substance, CRS) 342 Regression – gewichtet 140 – linear 140 Reinheit 346 Reproduzierbarkeit 248, 311 Retention 3 Retentionsfaktor 6 Retentionsgröße 5 f. – Kapazitätsfaktor 6 – Nettoretentionszeit 6 – Retentionsfaktor 6 – Retentionsvolumen 5 – Retentionszeit 5 Retentionszeit 10, 19, 44, 66, 70, 115, 277 f., 340, 342 f. Reverse-Phase 340 Reverse-Phase-HPLC 360 Richtigkeit (Accuracy) 356 f., 362, 381 Ringversuch (Method Performance Study) 310 Risperidon 269, 273, 280, 282 Robustheit 362 Rückführbarkeit 186 Rückstände 287 f., 308 Rückstandskontrollplan 295
s Schadstoffe 288, 294 Schulter 125 Selektivität 4, 9 f. – Trennfaktor 11 Signal/Rausch-Verhältnis (S/N) 13, 250 ff., 370 Simulation 89 ff., 98 ff., 107, 113, 117, 119, 124 f., 145 – EMG-Funktion 113 – Excel 115, 132 – Excel-Simulation 89 – Exponentialmethode 119 – Gauß-Peak 113 – Gaussian-Skim-Methode 119 – Gaussian Skim 108 – Kalibrierung 91 – Losef-Funktion 113 – Smoothing 108 – Tangentenmethode 125 Size Exclusion Chromatography (SEC) 3 ff., 235 Spezifikation 294
Spezifikationsgrenzen 375 Spezifität (Specificity) 356, 361 Spurenanalyse 195 Spurenelemente 305 Standardabweichung 155 stationäre Phase 194, 344 sterischer Effekt 194 Steroide 273 Substanzmenge 39 Superkritische Fluidchromatographie (SFC) 368 Systemeignungstest 365 Systempräzision 371 f. – Injektionspräzision 372 – Injektionsvariabilität 373 – Spezifikationsgrenze 371 – Standardabweichung 371 f.
t Tailing 8, 87, 103, 113 f., 118, 123, 127 Tandem-Massenspektrometer 267, 280 Terbinafin 277 Tizanidin 278 Totzeit 5, 10 Totzeitbestimmung 17, 26 Toxizität 246 Trennfaktor 11 Triglyceride 195
u Überwachungsbehörde 289 Umkehrphasenchromatographie 3 ff. Umweltanalytik 317 Umweltkontrolle 337 United States Pharmacopeia (USP) 339 United States Pharmacopoeia (USP) 353 US-Arzneibuch 373 – Chromatographische Parameter 373 – Systemeignungstest-Parameter 373 UV-Chromatogramm 268, 279
v Validierung 14, 187, 350 f., 355 f., 359 f., 388 – Parameter 356, 359 Validierungsstudie (Method Performance Study) 291, 293 – Vergleichbarkeit 293 – Wiederholbarkeit 293 van Deemter-Gleichung 15 Varianz 155 Verbraucherrisiko 307 Vergleichbarkeit 186 Vergleichsstandardabweichung 298
401
402
Stichwortverzeichnis Verteilungschromatographie 3 ff. Vertrauensbereich 147, 298 Verunreinigungen 345, 350 Verweilzeit 195 Vinclozolin 291 Viskosität 249, 251
w Wanderungsgeschwindigkeit 3 ff. – relative 3 Wanderungswege 3 Weltgesundheitsorganisation (WHO) 355 Wiederfindung 303 f. – Fehlerquellen 304 f. – kombinierte Messunsicherheit 304 – Korrekturfaktoren 306 – Signifikanztest 303 – Unsicherheit 304
Wirkstoff 339, 350 Wirkstoffstammdatei (Active Substance Master File) 355
z Zeitkonstante (Time Constant, Rise Time, Response) 35 ff. – Einfluss 50 f. Zielwertkarte 316 Zinn 306, 308 Zucker 195 Zulassungsbehörde 355, 360 – Anträge auf Genehmigung klinischer Prüfungen 360 – Fallbeispiele 362 – Mängel bei Anträgen 361 – Zulassungsdossier 361 Zulassungsdossier 349