Kalibrierung, Linearität und Korrelation (Teil 2)

  • Abb. 1: x/y-Diagramm einer Kalibrierung und der dazugehörige Residuenplot.Abb. 1: x/y-Diagramm einer Kalibrierung und der dazugehörige Residuenplot.
  • Abb. 1: x/y-Diagramm einer Kalibrierung und der dazugehörige Residuenplot.
  • Abb. 2: Akzeptable lineare Regression, x/y-Diagramm und Residuenplot.
  • Abb. 3: Akzeptable Strategie mit Ausreißer im Kollektiv.
  • Abb. 4: Verwendung der falschen Strategie, Trend der Residuen.
  • Abb. 5: Akzeptable Strategie mit Varianzeninhomogenität.

Im ersten Teil des Artikels in der Ausgabe 10/13 der GIT Labor-Fachzeitschrift wurde gezeigt, dass der Korrelationskoeffizient R ein unverzichtbarer und wichtiger Parameter zur Beurteilung der Kalibrierqualität anlässlich einer Validierung ist, aber er sollte nur mit Vorsicht benutzt und interpretiert werden. Vor allem zu der Unterscheidung, ob systematische oder zufällige Einflüsse die Kalibrierung beeinflussen, müssen andere Kriterien beachtet werden.

Im Vordergrund einer Kalibrierung stehen immer die Fragen:

  • Ist das angenommene mathematische Modell (meistens lineare Regression) akzeptabel?
  • Enthält das Datenkollektiv Ausreißer und
  • ist die Qualität der Kalibrierung über den gesamten Arbeitsbereich gewährleistet?

Die folgenden Kriterien können, neben dem Korrelationskoeffizient R, zur Beurteilung der Kalibrierqualität sinnvoll angewandt werden.

  • Die optische Residualanalyse mit dem Residuenplot (Streuung, Strategie, Varianzhomogenität)
  • Die relative Verfahrensstandardabweichung Vxo (Streuung)
  • Die Signifikanz des Terms c (Strategie)

Vor- und Nachteile
Letztendlich beruhen die ersten beiden Methoden auf einer Untersuchung bzw. Interpretation der Residuengröße und der Lage. Dabei versteht man unter einer Residue den Abstand eines gemessenen Signals und dem eines aus dem gesamten Datenkollektiv berechneten Signals, z. B. nach einer linearen Regression. Für jedes Konzentrationsniveau gibt es daher eine separate Residue. In Abb. 1 sind ein x/y-Diagramm und der zugehörige Residuenplot zu erkennen.

Für den Analytiker sind die Größen der Residuen und die Lage der Residuen zur Beurteilung der Kalibrierqualität von Wichtigkeit. Im Idealfall beim richtigen Rechenansatz streuen kleine Residuen „normalverteilt“ um den Wert „Null“, so auch in Abb. 1. Bei einem Ausreißer ragt dessen Residue aus den anderen deutlich heraus (siehe dazu Abb. 3), bei einem falschen rechnerischen Ansatz gibt es einen Trend in den Residuen (siehe dazu Abb.

4). Eine Varianzeninhomogenität, z. B. durch einen zu großen Arbeitsbereich, kann man daran erkennen, dass die Streuung der Residuen an einem Rand oder sogar an beiden Rändern zunimmt (siehe dazu Abb. 5).

Der Nachteil des Verfahrens der optischen Residualanalyse besteht darin, dass es subjektiv ist. Man kann z. B. gut erkennen, dass eine Residue aus den anderen herausragt, aber ab welcher Abweichung die Residue (Ausreißer) als eher „zufällig“ oder als „signifikant“ bezeichnet wird, bleibt dem Analytiker überlassen. Trotzdem können erfahrene Analytiker recht zuverlässig mit dieser Methode die Qualität der Kalibrierung beurteilen, sie sollte Bestandteil jeder Kalibrierungsauswertung sein.

Wie bewerte ich meine Kalibrierung?
Die meisten Analytiker wollen jedoch noch zusätzlich einen statistischen Beurteilungswert verwenden, der mit einem Grenzwert verglichen werden kann. Genau aus diesem Grund wird bei Kalibrierungen häufig der Korrelationskoeffizient berechnet und verwendet (siehe dazu Teil 1 dieses Artikels). Die Nachteile des Korrelationskoeffizienten R können zum Teil durch die Verwendung der „relativen Verfahrensstandardabweichung Vxo“ vermieden werden. Zunächst wird für die Ermittlung dieser Größe die „Reststandardabweichung sy“ berechnet. Dazu werden die Residuen quadriert, die Quadrate aufsummiert und die Quadratsumme durch den Freiheitsgrad f (bei Annahme einer linearen Strategie f = N – 2, N = Anzahl der Residuen) dividiert. Aus dem Quotienten wird die Quadratwurzel gezogen. In Excel kann der Wert durch die Funktion =STFEHLERXY (y-Bereich; x-Bereich) berechnet werden.

Diese Reststandardabweichung sy be-schreibt die Streuung der Residuen, daraus kann aber z. B. nicht entnommen werden, ob ein Trend in den Residuen enthalten ist. Die Frage, ob die „richtige“ Strategie verwendet worden ist, ist damit nicht zu beurteilen. Ausreißer jedoch, die den Streuungswert sy ungünstig beeinflussen, erhöhen sofort und deutlich die Größe des Wertes. Noch sinnvoller ist zusätzlich zur Reststandardabweichung sy die Einbeziehung der Steigung b (= Empfindlichkeit E) und der mittleren Konzentration des Kalibrierungsumfanges. Dann erhält man nach Gl. (1) die recht aussagefähige Größe „relative Verfahrensstandabweichung Vxo“.

Vxo > sy / b x 100% (1)

Mit dieser Größe kann man vorzüglich die Streuung der Kalibrierung in Abhängigkeit von der Empfindlichkeit b = E beurteilen. Werte unterhalb von Vxo = 2 % gelten bei mittleren Konzentrationsverhältnissen als akzeptabel. Bei Kalibrierungen mit niedrigeren Konzentrationsbereichen bis zur Bestimmungsgrenze gelten andere Erfahrungswerte. Den Nachteil der Verfahrenstandardabweichung Vxo, dass damit die Richtigkeit des mathematischen Ansatzes nicht geprüft wird, kann man durch die Berechnung des „Vertrauensbereiches des Terms c“ kompensieren. Dazu wird von dem gesamten x/y-Datenkollektiv probeweise eine Regression 2. Grades durchgeführt, man erhält die Gl (2).

Y= c ∙ x2 + b ∙ x+a (2)

Danach wird mit Gl. (3) der „Vertrauensbereich VBc des Terms c“ in Gl. (2) auf dem Signifikanzniveau P = 95 % berechnet.

VBc = t(95%, N-3) ∙ sc (3)

Zur Berechnung der Polynomregression 2. Grades und des „Vertrauensbereichs VBc des Terms c“ werden am besten Statistik-Pakete wie z. B. Validat (iCD, Frechen) oder MVA (Novia, Frankfurt) verwendet. Schließt der „Vertrauensbereich VBc des Terms c“ den Wert „Null“ mit ein, dann ist der Wert von „c“ statistisch nicht von „Null“ verschieden. Unter dieser Bedingung kann c statistisch mit „Null“ gleich gesetzt werden, d. h., die Gl. (2) reduziert sich dann auf die einer Gerade: y = b ∙ x + a. Einer linearen Regression kann der Vorzug gegeben werden. Bei dem Einsatz solcher Signifikanztests sollte aber immer bedacht werden, dass durch eine (evtl. künstlich) vergrößerte Streuung (Standardabweichung) der Vertrauensbereich VBc größer wird und damit der Wert „Null“ eher eingeschlossen wird. Es ist also immer die realistische, dem Verfahren eigene Streuung zu ermitteln.

Der in der Wasseranalytik (DIN 38402, Teil 51) häufig noch zur Strategiebeurteilung verwendete „Anpassungstest nach Mandel“ soll hier nicht genauer beschrieben werden. Nach Ansicht des Autors eignet sich dieser Test nicht so gut zur Beurteilung der Strategie, weil in den meisten Branchen eine zu geringe Anzahl von Datenpaaren verwendet wird.

Beispiele
Abschließend folgt die exemplarische Auswertung dreier Kalibrierungen. Es liegen vor:

  • eine Kalibrierung mit akzeptabler linearen Regression,
  • eine Kalibrierung, bei der das Datenkollektiv einen Ausreißer enthält,
  • eine Kalibrierung, bei der eine falschen Strategie verwendet wurde und
  • eine Kalibrierung, bei der Varianzeninhomogenität vorliegt.

Berechnet werden für jede Kalibrierung unter a. bis d. der Korrelationskoeffizient R, die Verfahrensstandardabweichung Vxo, der „Vertrauensbereich VBc des Terms c (P = 95 %)“, dazu das jeweilige x/y-Diagramm und der Residuenplot.

Beispiel a: akzeptable lineare Regression

  • Korrelationskoeffizient R = 0,999; Verfahrensstandardabweichung Vxo = 0,95 %
  • Vertrauensbereich des Terms c: -0,005331 bis +0,005432, schließt „Null“ mit ein.

Beispiel b: Datenkollektiv enthält einen Ausreißer

  • Korrelationskoeffizient R = 0,987; Verfahrensstandardabweichung Vxo = 4,60 %
  • Vertrauensbereich des Terms c: -0,01808 bis +0,0333, schließt „Null“ mit ein.

Beispiel c: Verwendung einer falschen Strategie

  • Korrelationskoeffizient R = 0,977; Verfahrensstandardabweichung Vxo = 6,26 %
  • Vertrauensbereich des Terms c: +0,04082 bis +0,07841, schließt „Null“ nicht mit ein.

Beispiel d: Vorhandensein einer Varianzeninhomogenität

  • Korrelationskoeffizient R = 0,998; Verfahrensstandardabweichung Vxo = 1,75 %
  • Vertrauensbereich des Terms c: -0,007381 bis +0,01361, schließt „Null“ mit ein.

(Die Vertrauensbereiche VBc des Terms c wurde mit MVA 2.1, Novia, berechnet)

Fazit
Erst durch Berechnung und Beurteilung aller 4 Kriterien erhält man eine Chance, Ausreißer, falsche Strategien und Varianzeninhomogenitäten anlässlich einer Validierungsprozedur zu erkennen. Doch auch dazu benötigt man – wie immer in der Analytik – eine große Portion Erfahrung.

 

Teil 1 des Beitrags online: http://bit.ly/Novia-Kalibrierung
Mehr Informationen zur Qualitätskontrolle: http://bit.ly/Qualitätskontrolle
Novia Workshop im November: http://bit.ly/Qualitätssicherung

Autor(en)

Kontaktieren

Novia Chromatographie- und Messverfahren GmbH
Industriepark Höchst, B 845 Geb.
65926 Frankfurt am Main
Germany
Telefon: +49 69 30 543843
Telefax: +49 69 30 9159

Jetzt registrieren!

Die neusten Informationen direkt per Newsletter.

To prevent automated spam submissions leave this field empty.