Telechargé par Marouane Sbai

Validation des méthodes d’analyse

publicité
See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/285745781
Validation interne des méthodes d'analyse
Article · January 2001
CITATIONS
READS
38
7,567
1 author:
Max H. Feinberg
45 PUBLICATIONS 314 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Method validation & Uncertainty View project
All content following this page was uploaded by Max H. Feinberg on 12 June 2018.
The user has requested enhancement of the downloaded file.
Validation interne des méthodes
d’analyse
par
Max FEINBERG
Docteur ès sciences
Directeur de recherche à l’Institut national de la recherche
agronomique (INRA) – Laboratoire de chimie analytique
Professeur à l’Institut national agronomique Paris-Grignon (INAPG)
1.
1.1
1.2
Qualité des méthodes d’analyse..........................................................
Logique de l’assurance qualité...................................................................
Organisation de la traçabilité des mesures ...............................................
P 224 – 3
—
3
—
3
2.
2.1
2.2
2.3
Principes de validation d’une méthode .............................................
Objectifs et moyens.....................................................................................
Cycle de vie d’une méthode d’analyse ......................................................
Critères de validation ..................................................................................
—
—
—
—
5
5
5
6
3.
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
3.10
Méthodes statistiques de validation ..................................................
Caractéristiques d’étalonnage ....................................................................
Limites de détection et de quantification ..................................................
Recherche des limites du domaine de linéarité ........................................
Contrôle de la qualité d’un étalonnage......................................................
Incertitude, fidélité et justesse....................................................................
Capacité de mesure .....................................................................................
Justesse d’une méthode .............................................................................
Spécificité .....................................................................................................
Robustesse ...................................................................................................
Cartes de contrôle........................................................................................
—
—
—
—
—
—
—
—
—
—
—
7
7
8
9
10
11
15
15
17
18
19
4.
4.1
4.2
Procédures formalisées de validation des méthodes....................
Guides pour l’industrie pharmaceutique...................................................
Normes .........................................................................................................
—
—
—
20
20
20
5.
Informatisation des calculs...................................................................
—
21
6.
Conclusion .................................................................................................
—
23
Pour en savoir plus...........................................................................................
Doc. P 224
vec la mise en place des systèmes d’assurance qualité dans les laboratoires,
la validation des méthodes d’analyse est aujourd’hui un objectif important.
Elle est souvent perçue comme une contrainte car elle fait appel à des démarches
statistiques mal maîtrisées par les analystes. Il faut regretter cette attitude car, le
laboratoire a tout à gagner en utilisant des méthodes qui fournissent des résultats dans lesquels leurs « clients » peuvent avoir confiance. C’est une conséquence du passage de méthodes d’analyse qualitatives à des méthodes
quantitatives. Ainsi, trop souvent on associe l’achat d’un nouvel appareil plus
« performant » à un progrès, sans se soucier si cette performance est réelle au
niveau du rendu du résultat.
C’est pourquoi, il existe encore de nombreuses zones d’ombre dans la définition, et en conséquence l’évaluation, des critères de performance des méthodes.
A
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
P 224 − 1
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
Le meilleur exemple est celui de la limite de détection qui est abondamment
employé (en particulier par les constructeurs d’appareils) alors qu’il existe plusieurs dizaines de mode de calcul qui conduisent tous sur des valeurs différentes. Ces critères soulèvent aussi des problèmes statistiques complexes qui
n’ont pas toujours reçu de solutions satisfaisantes. C’est aux analystes qu’il
incombe de poser correctement ces questions afin d’obtenir des réponses claires. C’est pourquoi, nous pensons que la normalisation des modes de calcul des
critères de validation des méthodes représente une approche qui, à l’heure
actuelle, permettra de mieux poser ces problèmes.
Principales notations
Principales notations
Symbole
Définition
Symbole
a0
blanc-ordonnée à l’origine de la droite de régression
SPE
a1
sensibilité-pente de la droite de régression
b0
ordonnée à l’origine de la droite d’ajouts
v
teneur ajoutée
b1
pente de la droite d’ajouts
w
teneur après ajout
Ce
concentration corrigée d’échantillon
x
concentration de la solution
CV
coefficient de variation
x
teneur avant ajout
di
différence des moyennes entre une méthode
alternative et une méthode de référence
x
moyenne des xi
y
réponse instrumentale mesurée
e
bruit de fond, résidu
y
moyenne sur les i et j de yij
p
nombre de solutions étalons
coefficient de corrélation
yi
moyenne des valeurs yij sur les répétitions j
r
yˆi
valeur théorique de la réponse
r
limite de répétabilité ou répétabilité
εij
erreur expérimentale
r
teneur retrouvée
θ1
valeur vraie de a1
R
limite de reproductibilité ou reproductibilité
θ2
valeur vraie de a0
se
écart-type résiduel
2
se
estimateur de la variance résiduelle
sa
0
écart-type de a0
sa
1
2
sa
0
2
sa
1
SCE
Somme des Produits des Écarts aux moyennes
SPExy =
∑ ( xi – x ) ( yi – y )
i
Liste des indices
écart-type de a1
variance du blanc a0
0
ordonnée à l’origine
LD
limite de détection
variance de la sensibilité a1
1
pente
NC
niveau critique
Hor
Horwitz
bl
blanc
Lim
limite
LQ
limite de
quantification
Somme des Carrés des Écarts à la moyenne
SCEx =
∑ ( xi – x )
i
P 224 − 2
Définition
2
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
__________________________________________________________________________________________
1. Qualité des méthodes
d’analyse
Le lecteur pourra se reporter aux articles suivants :
—
—
Qualité et assurance qualité en chimie analytique [P 280] ;
Matériaux de référence [P 240].
1.1 Logique de l’assurance qualité
La qualité d’une analyse n’existe pas dans l’absolu mais se définit
à partir des besoins explicites ou implicites des utilisateurs ou des
clients du laboratoire. Elle s’exprime donc à plusieurs niveaux.
■ La qualité métrologique. Un besoin évident est que le résultat
soit juste et qu’il reflète exactement le contenu de l’échantillon. À
travers cette exigence de justesse, il apparaît qu’il faut mettre en
place des systèmes de contrôle assurés par des structures indépendantes du laboratoire.
■ La qualité technique ou de capacité de mesure. Les analyses sont
faites pour prendre des décisions, il faut donc que la fidélité de la
méthode soit adaptée au type d’échantillon à contrôler.
■ La qualité commerciale. C’est une exigence de rapidité dans la
fourniture du résultat et une recherche de prestations au coût le plus
faible possible.
■ La qualité d’usage social. Ce dernier besoin s’est exprimé à la
suite de considérations d’hygiène et de sécurité. Ainsi, on peut exiger l’innocuité d’une technique vis-à-vis de l’utilisateur ou de l’environnement.
Pour être sûr d’atteindre ces objectifs, une logique commune a
servi à élaborer les différents modèles et référentiels d’assurance de
la qualité. En effet, leur but final est de mettre en place et de faire
fonctionner un système qui garantisse au client les différents
niveaux de qualité du résultat d’analyse. Il faut donc que les différentes opérations qui ont permis de produire le résultat soient identifiables à tout moment : elles doivent être traçables. La figure 1
schématise la logique des systèmes d’assurance qualité.
Par définition, le point de départ est le besoin du client. Pour être
opérationnel celui-ci doit être traduit sous la forme de spécifications
techniques propres, comme : une limite de détection, un temps de
réponse ou un domaine d’application. Ensuite, le laboratoire pourra
mettre en œuvre des moyens techniques (les instruments et les
réactifs) et un mode opératoire (la procédure) qui permettront
d’atteindre ces spécifications. Enfin, pour être, parfaitement sûr que
les spécifications sont atteintes, il faut valider la procédure, c’est-àdire apporter les preuves formelles que les résultats sont conformes
aux objectifs.
Besoin
Spécification
Documentation
Moyens et procédure
Archivage
Documentation
Validation de la procédure
Archivage
Preuves
Figure 1 – Logique de l’assurance qualité
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
Sur la figure 1 apparaissent deux opérations qui étaient généralement peu prises en compte dans les laboratoires, à savoir la documentation et l’archivage. En effet, l’assurance de la qualité exige
qu’à tout moment on puisse retrouver les éléments qui ont servi à la
production d’un résultat : numéros de lot des réactifs, données
d’étalonnage, conditions de fonctionnement des appareils… C’est
ce qu’on appelle la traçabilité des mesures.
Exemple : un laboratoire de l’industrie pharmaceutique qui applique les Bonnes pratiques de laboratoire (BPL) doit garder pendant au
moins 10 ans les traces des mesures effectuées dans le cadre de
l’étude d’un nouveau médicament. Cette obligation réglementaire est
lourde, surtout si le système d’archivage est informatisé et doit suivre
l’évolution des systèmes informatiques.
Cette nouvelle organisation du travail des laboratoires peut avoir
des conséquences techniques intéressantes car elle montre qu’il
n’est pas toujours nécessaire d’appliquer une méthode sophistiquée et onéreuse pour répondre correctement à une demande.
Ainsi, à partir des spécifications, le laboratoire doit pouvoir établir
les moyens analytiques optimaux à utiliser.
Exemple : l’analyse du calcium dans un verre, avec une incertitude
de 1,0 µg.kg– 1, ne requiert pas la même approche que l’analyse du calcium à 0,2 g.kg– 1 dans un échantillon de terre.
Une autre conséquence de la logique qualité est de considérer
que la production des résultats d’analyse implique trois acteurs : un
producteur et un client mais aussi un organisme de contrôle qui
intervient pour vérifier que la logique qualité est bien respectée. Son
rôle est particulièrement net dans les domaines de la traçabilité et
de la métrologie.
Exemple : l’organisme de contrôle enverra des auditeurs qui vérifieront si le laboratoire utilise un système d’étalonnage reconnu,
archive ses résultats et gère correctement ses documents.
1.2 Organisation de la traçabilité
des mesures
Établir la traçabilité consiste à fournir à tout moment les informations et les documents qui permettent de savoir comment un résultat a été obtenu. On doit pouvoir remonter de proche en proche et
sans interruption jusqu’à des systèmes d’étalonnage qui auront été
certifiés par des organismes officiels. Ainsi, tout équipement utilisé
pour effectuer des essais ou des étalonnages doit être étalonné ou
vérifié avant d’être mis en service. Le laboratoire doit disposer d’un
programme et d’une procédure établis pour l’étalonnage et la vérification de son équipement, y compris l’utilisation des matériaux de
référence et des étalons de référence (encadré 1).
■ La traçabilité du mesurage doit être assurée en ayant recours aux
services d’étalonnage de laboratoires qui peuvent apporter la
preuve de la traçabilité et de leur compétence. Les certificats d’étalonnage délivrés par ces laboratoires doivent montrer qu’il existe un
lien avec un étalon primaire ou une constante naturelle reliée à
l’unité SI (Système International d’unités) (encadré 1) par une
chaîne continue d’étalonnages. Les certificats doivent contenir les
résultats de mesure, y compris l’incertitude de mesure ou une déclaration de conformité à une spécification métrologique identifiée.
Lorsqu’il est impossible d’établir la traçabilité aux unités de
mesure SI ou lorsqu’elle n’est pas pertinente, d’autres moyens
d’obtenir la confiance dans les résultats doivent être appliqués,
comme :
— la participation à un programme approprié de comparaisons
inter-laboratoires ou d’essais d’aptitude ;
— l’utilisation de matériaux de référence appropriés, certifiés et
caractérisés ;
— un essai ou un étalonnage par une méthode alternative ;
— des mesurages fondés sur les rapports et la réciprocité ;
— des normes ou des méthodes d’accord clairement spécifiées et
convenues par toutes les parties concernées.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
P 224 − 3
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
Encadré 1 : étalons et matériaux de référence
■ Système international d’unités ou système SI : il fut créé en
1960 par la Conférence Générale des Poids et Mesures. Dans le
système SI, on distingue trois classes d’unités : les sept unités
de base ; les unités dérivées et les unités supplémentaires. Les
unités de base sont : le mètre, le kilogramme, la seconde,
l’ampère, le kelvin, la candela et la mole.
■ Étalons primaires : étalons matériels conservés par le Bureau
International des Poids et Mesures (BIEM) qui servent à matérialiser, quand c’est possible, les unités de mesure. Par exemple, la
masse en platine iridié du Pavillon de Breteuil sert à étalonner
toutes les masses de 1 kg utilisées dans le monde, à travers un
ensemble d’étalons secondaires traçables. Toutes les unités de
mesure ne possèdent pas une forme matérialisée.
■ Étalons de référence : ils doivent être étalonnés par un organisme capable de fournir la traçabilité de leur valeur de référence, à partir d’étalons de référence primaires. C’est pourquoi
on les appelle aussi étalons secondaires extérieurs. Par exemple, ce sont des masses qui serviront, à intervalle régulier, à vérifier l’exactitude des balances. Ces masses pourront aussi faire
l’objet d’un étalonnage régulier, réalisé par un organisme compétent. Les étalons de mesure de référence doivent être utilisés
seulement pour l’étalonnage et à nulle autre fin, sauf si l’on peut
montrer que leur performance en tant qu’étalons de référence
ne sera pas invalidée.
■ Matériaux de référence certifiés (MRC) : matériaux de référence dont la valeur est établie par un organisme compétent
comme le Bureau National de Métrologie (BNM), le Bureau
Communautaire de Référence (BCR) ou le National Institute for
Sciences and Technology (NIST). Ils servent à matérialiser, pour
un analyste et une matrice donnés, la mole. Une procédure classique consiste à déterminer la valeur de référence au moyen de
méthodes d’analyse basées sur des principes variés, afin d’éviter les biais systématiques. Par exemple, on utilisera la spectrométrie d’absorption atomique, la polarographie impulsionnelle,
l’activation neutronique et la spectrométrie d’émission plasma
pour certifier la teneur en nickel ou en fer d’un acier.
■ Matériaux de référence : ils sont utilisés par les laboratoires
d’analyse comme étalons de référence pour établir indirectement la traçabilité de la plupart des analytes vis-à-vis de la mole,
pour laquelle il n’existe pas d’étalon matériel. En général, leur
valeur de référence est établie par consensus, si plusieurs laboratoires ont participé à son élaboration, mais elle peut aussi être
obtenue par des répétitions multiples. Chaque fois que possible,
les matériaux de référence doivent être raccordés à des unités
de mesure SI ou à des matériaux de référence certifiés internationaux ou nationaux. Lorsque des matériaux de référence traçables ne sont pas disponibles, les matériaux de référence
interne doivent être vérifiés dans toute la mesure des possibilités techniques et économiques.
Le laboratoire doit avoir un programme et une procédure pour
l’étalonnage et la vérification de ses étalons de référence. Plusieurs
situations peuvent alors se présenter, en fonction du type de matrice
ou de l’analyte recherché :
— si des étalons de référence (cf. encadré 1) peuvent être obtenus auprès d’organismes de métrologie compétents qui peuvent
fournir la traçabilité jusqu’aux étalons de référence universels, ils
doivent être utilisés seulement pour l’étalonnage et à nulle autre
fin ;
— lorsque des matériaux de référence (cf. encadré 1) traçables ne
sont pas disponibles ou si l’on est en présence d’étalons internes
(préparés par le laboratoire) ou extérieurs (par exemple, utilisés
dans un essai d’aptitude), il convient de montrer que ces matériaux
sont vérifiés dans toute la mesure des possibilités techniques et
économiques.
P 224 − 4
D’une façon générale, le laboratoire doit avoir rédigé des procédures qui décrivent la manutention, le transport, le stockage et l’utilisation des étalons de référence, tels que les poids, et matériaux de
référence afin de prévenir toute contamination ou détérioration.
Dans le cas où on ne pourrait utiliser que des matériaux de référence,
comme lors d’un étalonnage d’une méthode en fluorescence X, ils
doivent, si possible, être raccordés à des unités de mesure SI ou à
des matériaux de référence certifiés internationaux ou nationaux.
■ Le laboratoire doit établir un système coordonné pour identifier
les échantillons d’essai et d’étalonnage. L’identification doit être
conservée durant toute la durée de vie de l’échantillon dans le laboratoire. Le système doit être conçu et géré de façon à garantir
l’impossibilité de confondre les échantillons, physiquement ou
lorsqu’il y est fait référence dans les enregistrements ou autres
documents. Le cas échéant, le système doit prévoir comment se fera
la subdivision ou le transfert des échantillons à l’intérieur ou hors du
laboratoire lorsque plusieurs mesures doivent être effectuées sur
des prises d’essai différentes.
Dans ce but, l’étape de réception d’un échantillon prend un rôle
prépondérant. Ainsi, à la réception de l’objet d’essai, toute anomalie
ou écart par rapport aux conditions normales, telles qu’elles sont
spécifiées dans la méthode d’essai ou d’étalonnage pertinente, doit
être enregistré. S’il y a le moindre doute quant à l’adéquation d’un
échantillon ou s’il n’est pas conforme à la description fournie ou
encore si l’essai demandé n’est pas spécifié avec une précision suffisante, le laboratoire doit consulter le client pour obtenir de nouvelles instructions avant de procéder à l’essai. Le laboratoire doit
établir si l’objet a été convenablement préparé ou si le client exige
que la préparation soit réalisée par le laboratoire. Il n’est donc pas
surprenant que la mise en place d’un système qualité commence
souvent par une réorganisation de la salle de réception des échantillons.
Le laboratoire doit disposer de procédures et d’installations
appropriées pour éviter la détérioration ou l’endommagement de
l’échantillon de travail lors de son stockage, de sa manutention, de
sa préparation et de l’essai. Lorsqu’il est nécessaire de stocker ou de
conditionner des objets dans des conditions ambiantes spécifiées,
ces dernières doivent être maintenues, surveillées et enregistrées.
Lorsqu’un échantillon ou une partie de cet objet doit être mis en
sécurité (par exemple pour des raisons d’enregistrement, de sécurité ou pour permettre des essais ultérieurs), le laboratoire doit prévoir des dispositions de stockage qui protègent la condition et
l’intégrité de l’objet ou des parties de l’objet.
■ La traçabilité doit devenir un souci permanent des analystes et du
personnel du laboratoire. Il est alors évident que les moyens informatiques permettront de simplifier ces différentes opérations.
Exemple : il n’est pas rare d’utiliser un système d’étiquettes à
code-barres pour identifier un échantillon. Dès réception, le nombre
convenable d’étiquettes est imprimé en fonction de la demande qui
accompagne l’échantillon et à tout moment on peut savoir l’état
d’avancement des analyses d’après les enregistrements réalisés par
chaque cellule analytique.
C’est pourquoi, lorsque des ordinateurs ou un équipement automatisé sont utilisés pour la saisie, le traitement, l’enregistrement, le
rapport, le stockage ou la recherche de données d’essai ou d’étalonnage, le laboratoire doit s’assurer que :
— les logiciels sont documentés avec une précision suffisante et
convenablement validés ou vérifiés quant à leur aptitude à l’emploi ;
— des procédures sont mises en place et appliquées pour protéger l’intégrité des données ; de telles procédures doivent inclure,
mais non exclusivement, l’intégrité de la saisie ou du recueil des
données, leur stockage, leur transmission et leur traitement ;
— les ordinateurs et appareils automatisés sont entretenus afin
de garantir un bon fonctionnement et disposent des conditions
ambiantes et opérationnelles nécessaires à la préservation de l’intégrité des données.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
__________________________________________________________________________________________
2. Principes de validation
d’une méthode
2.1 Objectifs et moyens
■ Il est assez facile de se mettre d’accord sur une définition de la
validation d’une méthode d’analyse. Comme l’indique la norme
ISO/IEC 17025 [1] : « Le laboratoire doit valider des méthodes […]
pour confirmer [qu’elles] conviennent à l’emploi prévu. La validation
doit être aussi étendue que l’impose la réponse aux besoins dans
l’application ou le domaine d’application donné ». Valider, c’est
apporter des preuves que la méthode est adaptée à ses objectifs.
■ En fait, on ne va pas s’intéresser à la validation en tant que telle
mais à la procédure qui permettra de conduire cette démonstration.
Comme l’indique le même texte [1] « le laboratoire doit enregistrer
les résultats obtenus et la procédure utilisée pour la validation ». Et
c’est là que les désaccords vont apparaître car on confond souvent
validation et procédure de validation. Cette confusion apparaît dans
une définition de la Pharmacopée américaine [2] : « La validation
d’une méthode d’analyse est une procédure permettant d’établir,
par des études expérimentales, que les critères de performance de
la méthode satisfont aux exigences prévues par les applications
analytiques de la méthode. Les critères de performance sont exprimés en termes de caractéristiques analytiques. Les caractéristiques
classiques qui devraient être prises en compte pour la validation des
types d’essais décrits dans ce document sont […] la précision,
l’exactitude, la limite de détection, la limite de quantification, la
sélectivité, l’intervalle de linéarité, la robustesse » (traduction de
l’auteur).
C’est pourquoi dans la norme Afnor V 03-100 on propose de définir le processus de validation d’une méthode d’analyse comme
« l’action de confirmer par examen et apport de preuves tangibles
obtenues par des études statistiques intralaboratoires et/ou interlaboratoires que les exigences particulières pour un usage spécifique prévu de la méthode d’analyse sont satisfaites. En général, les
exigences particulières portent sur le domaine d’application, la
linéarité, la spécificité, la fidélité et la justesse ». Derrière cette définition vient une note qui précise que « le processus de validation
d’une méthode d’analyse peut s’appuyer sur : une étude interlaboratoire… ; une étude intralaboratoire menée par comparaison à une
méthode de référence… ; une étude intralaboratoire basée sur l’utilisation de matériaux de référence ».
Par contre si on s’inspirait de la procédure proposée pour la production des logiciels, la validation d’une méthode d’analyse consisterait à valider séparément chacun de ses éléments : l’échantillonnage, le mode opératoire, l’équipement, et enfin le résultat [3].
Ainsi la procédure de validation consisterait en une somme de procédures intermédiaires de validation.
L’intérêt de cette dernière approche – bien qu’elle soit moins
classique – est de montrer qu’une procédure de validation peut
conduire à deux types d’obligations : une obligation de moyens
lorsque l’on décrira la méthode d’échantillonnage ou le mode opératoire et une obligation de résultats lorsque l’on calculera des critères quantitatifs de performance. Cette dualité apparaît si l’on
s’intéresse aux diverses implémentations de la norme sur l’accréditation (EN 45001) en Europe. Dans un pays de droit latin, comme la
France, la Comité français d’accréditation (Cofrac) a subdivisé
l’accréditation en « programmes » qui se réfèrent à des normes et
conduit son contrôle en vérifiant si le laboratoire possède les
moyens pour appliquer les méthodes de référence normalisées
(verrerie, réactifs, équipement) sans toujours se soucier des résultats. Par contre, dans les pays du Nord de l’Europe, l’accréditation
consiste à vérifier que les résultats de la méthode employée (qui est
quelconque) permettent bien d’atteindre un niveau de performance
donné. Aujourd’hui, il y a une certaine convergence des deux approches mais l’attachement aux méthodes dites de référence reste une
obligation forte pour les laboratoires français.
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
Concrètement, la validation va se solder par la préparation d’un
dossier qui contiendra deux types d’information :
— une description écrite des moyens (appareils et réactifs) et du
mode opératoire à mettre en œuvre pour appliquer la méthode
d’analyse ;
— les résultats numériques d’un ensemble d’expériences et de
calculs statistiques qui serviront à établir que ces moyens et ce
mode opératoire sont efficaces.
Cependant, avant de s’intéresser plus en détail aux différents
outils statistiques qui pourront être utilisés pour traiter les données
expérimentales, il est utile de replacer la procédure de validation par
rapport au cycle de vie d’une méthode d’analyse.
2.2 Cycle de vie d’une méthode d’analyse
On a trop souvent tendance à décrire les méthodes d’analyse
comme des procédures immuables et figées. C’est un peu l’impression que donnent les manuels et autres recueils de normes techniques. Or, comme tout procédé de production, les méthodes
d’analyse naissent, évoluent et meurent. Pour clairement comprendre le rôle et la place de la validation dans la vie d’une méthode
d’analyse, il est intéressant de décrire son cycle de vie depuis le
moment où elle est choisie jusqu’au moment où on l’abandonne.
■ La figure 2 résume les différentes étapes de ce cycle.
● D’abord on va sélectionner la méthode, c’est-à-dire de choisir
parmi toutes les méthodes physico-chimiques connues ou maîtrisées par le laboratoire celle qui doit permettre de déterminer un ou
plusieurs analytes représentatifs du problème analytique à traiter.
● Ensuite, il convient de développer la méthode, c’est-à-dire mettre au point le mode opératoire et adapter la méthode aux conditions pratiques où elle va être utilisée.
Exemple : il peut être nécessaire d’automatiser une méthode
manuelle ou bien d’améliorer ses performances pour qu’elles soient
compatibles avec le problème analytique à traiter. En général, le développement d’une méthode est synonyme d’optimisation.
Lorsque la mise au point est terminée, on dispose de ce que l’on
appelle dans le cadre BPL un mode opératoire normalisé ou Standard Operating Procedure (SOP). En particulier, il faut préciser le
domaine d’application de la méthode, c’est-à-dire l’ensemble des
matrices auxquelles elle s’applique ainsi que la gamme de concentrations utilisables.
● C’est à ce moment, et seulement à ce moment, que doit intervenir la validation. On a aujourd’hui pris l’habitude de distinguer la
validation intralaboratoire de la validation interlaboratoires. La première est universelle et obligatoire pour toutes les méthodes. La
seconde – souvent plus lourde – n’intéresse en principe que les
méthodes qui seront utilisées par plusieurs laboratoires ou dont les
résultats peuvent servir à des décisions économiques.
Sélection
Développement
Revalidation
Utilisation
en routine
Validation
intralaboratoire
Validation
interlaboratoires
Figure 2 – Cycle de vie d’une méthode d’analyse
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
P 224 − 5
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
Exemple : dans l’industrie pharmaceutique, il sera inutile (voire
impossible) de procéder à la validation interlaboratoires d’une méthode
qui sert, en interne, à l’étude d’une molécule non encore mise sur le
marché. Par contre, dans les industries agroalimentaires, il faudra toujours procéder à une validation interlaboratoire pour une méthode qui
servira à mesurer la conformité d’une denrée. Dans ce cas, il peut y
avoir une contre-expertise et, pour interpréter son résultat, il importe
de savoir selon quelle amplitude deux résultats fournis par deux laboratoires indépendants peuvent « normalement » différer (cf. § 3.5.1).
● Si la validation se révèle conforme, le cycle de vie va se poursuivre par une utilisation de la méthode en routine. Au bout d’un certain temps, on peut être amené à abandonner la méthode et à
entamer un autre cycle car elle est devenue obsolescente. Dans
d’autres cas, on peut simplement faire des modifications et, selon
leur importance, appliquer une procédure plus ou moins complète
de revalidation de la méthode. En effet, on doit effectuer une revalidation toutes les fois où l’on introduit une modification « mineure »
de la méthode. Par contre, si l’on fait une modification « majeure »,
il faut appliquer à nouveau la procédure complète de validation. Il
est délicat de définir une échelle exacte d’importance des
modifications : cette appréciation peut être laissée au savoir-faire de
l’analyste. Toutefois, les organismes d’accréditation ont-ils tendance
à juger mineur un changement de réglage, comme laisser « 20 min
au bain-Marie » au lieu de « 15 min », et majeure toute modification
qui affecte le principe de la méthode. Mais la question peut être délicate. Ainsi, un changement de solvant d’extraction doit-il être considéré comme mineur ou majeur ? C’est selon le contexte.
2.3 Critères de validation
Si on entre plus dans le détail du contenu des diverses étapes de
la figure 2, il est possible de mieux appréhender ce que l’on attend
des deux types de validation [4]. La figure 3 précise un ensemble de
critères ou de procédures propres à chaque étape du cycle de vie.
Plans
d'expériences
Optimisation
Sélection
Développement
Choix des analytes
Type de méthode
Type de signal
Réglages instrumentaux
optimisés
Mode opératoire
normalisé
Savoir-faire
Test de
robustesse
Utilisation
en routine
Plan de contrôle
Plan d'échantillonnage
Capacité de mesurage
Procédure
de validation
Cartes de contrôle
Essai d'aptitude
Validation
interlaboratoires
Validation
intralaboratoire
Justesse
Spécificité
Linéarité
Répétabilité interne
Sensibilité
Limite de détection
Limite de quantification
Reproductibilité
Répétabilité
Analyse
interlaboratoires
Figure 3 – Critères et procédures de validation liés au cycle de vie
d’une méthode d’analyse (les sujets traités dans cet article sont en gras)
P 224 − 6
■ Lors de la sélection, on va d’abord poser clairement le problème
analytique à résoudre. Il s’agit de le transformer en une recherche
d’un ou plusieurs analytes, ce qui peut être une opération difficile.
Exemple : pour appréhender le niveau de pollution d’une rivière, il
faut choisir un ou plusieurs analytes qui mesurent la qualité de l’eau
sous différents aspects, comme la concentration en carbone organique
total, la demande biologique en oxygène ou l’oxydabilité au KMnO4.
Les résultats de ces déterminations pourront être combinés en un
indice global ou utilisés séparément.
Pour sélectionner une méthode d’analyse, la littérature spécialisée propose des solutions plus ou moins pratiques : il faudra en
choisir une qui réalise un bon compromis technique et économique.
Exemple : ainsi, il existe plusieurs centaines de publications sur la
détermination des vitamines dans les aliments, alors que seulement
quelques méthodes sont aujourd’hui reconnues comme pouvant être
utilisables en routine.
Dans tous les cas, l’analyste procédera en fonction de son savoirfaire et du matériel dont il peut disposer, quitte à investir dans un
nouvel appareillage. C’est cette notion de savoir-faire qui est indiquée sur la figure 3.
■ Ensuite intervient l’étape de mise au point qui permettra d’adapter et de stabiliser le mode opératoire ; on va optimiser le mode opératoire et le réglage de l’instrument de mesure en recherchant les
meilleures conditions de fonctionnement. L’optimisation conduit à
un mode opératoire normalisé.
Les diverses techniques en relation avec la méthodologie de la
surface de réponse, comme les plans d’expériences ou le simplexe,
sont sûrement les moyens les plus efficaces – bien que peu utilisés
– pour conduire cette étape. À ce propos, il faut signaler le test de
robustesse qui est une application de la méthode des plans d’expériences (cf. § 3.8). Il est parfois présenté comme partie intégrante de
l’étape de validation ce qui est une erreur. En effet, si la méthode se
révèle non robuste, on ne peut pas la valider. Le test de robustesse
doit donc intervenir dans la phase finale du développement ou
comme procédure efficace de revalidation.
■ Les critères qui seront calculés lors des étapes de validation
intra- ou interlaboratoires présentés en caractères gras figure 3
seront définis en détail dans la suite du texte (§ 3).
Pratiquement, il faut que la fidélité de la méthode permette de
mettre en évidence les variations naturelles de l’objet de l’analyse.
Exemple : si on accepte une tolérance de 1 g/100g dans la fabrication de steak haché à 5 g/100g de matières grasses, il faut que la capacité de mesurage de la méthode de contrôle, soit au moins de 1 g/100g.
Avant de décrire quelques procédures de validation qui ont fait
l’objet d’une harmonisation (§ 4), nous présenterons les principaux
critères pour lesquels il existe des méthodes relativement bien établies de calcul (§ 3).
■ Enfin, lors de l’utilisation en routine de la méthode, il faudra mettre en œuvre des outils de contrôle de la qualité. On sait qu’un grand
principe méthodologique du contrôle de qualité est la Maîtrise Statistique des Procédés ou MSP (Statistical Process Control ou SPC). Il
conduit à l’établissement de cartes de contrôle et concerne la fidélité
[5]. Mais il existe aussi une autre technique pour maîtriser la justesse
qui consiste, pour le laboratoire, à participer à un test d’aptitude
aussi appelé essai d’aptitude ou test de compétence (proficiency testing). Cette méthode sera évoquée à propos des différentes analyses
interlaboratoires (cf. § 3.5.2).
C’est en confrontant les performances de la méthode aux exigences du plan d’échantillonnage proposé par le client qu’on pourra
vérifier la capacité de mesure (§ 3.6). Ce critère, bien connu dans
l’industrie est directement lié à la technique des cartes de contrôle.
Il est défini de façon assez abstraite dans la norme ISO/IEC 17025 [1]
comme « la capacité du meilleur mesurage … normalement inférieure à l’incertitude de mesure réelle en raison du comportement
non idéal de l’objet étalonné ».
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
__________________________________________________________________________________________
3. Méthodes statistiques
de validation
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
Réponse y
Observée
Le lecteur pourra aussi se reporter aux articles suivants :
—
—
—
yi
Plans d’expériences [P 230] ;
Modélisation et calcul de l’incertitude d’un résultat [P 260] ;
Limite de détection [P 262].
^
y
i
Prédite
^
Distance : yi – y
i
a1
3.1 Caractéristiques d’étalonnage
Pente (sensibilité)
3.1.1 Sensibilité et blanc
Les méthodes quantitatives d’analyse nécessitent un étalonnage
dont le but est de construire un modèle mathématique qui sert à
prédire les concentrations d’échantillons. Dans ce cas, l’instrument
de mesure est vu comme une boîte noire dont l’entrée est l’analyte
pur, souvent introduit sous la forme d’une solution étalon. La fonction de réponse de l’instrument le transforme en un signal électrique qui représente la sortie du système. Ce système subit des
perturbations aléatoires dues à son environnement, comme les
variations de température, les pollutions externes, l’instabilité de la
tension électrique, les vibrations… L’ensemble de ces perturbations
forment le bruit de fond. On va ainsi pouvoir proposer un modèle
mathématique dans lequel on désigne par :
x la concentration de la solution étalon ;
y la réponse instrumentale mesurée ;
e le bruit de fond ;
ƒ la fonction de réponse de l’instrument.
Une partie du modèle est déterministe et peut s’écrire y = ƒ(x).
Mais pour tenir compte du bruit de fond, on doit lui ajouter une
variable aléatoire e, supposée normale. Ainsi, pour une solution étalon de concentration xi , la réponse observée yi est modélisée de la
façon suivante :
yi = ƒ(xi) + ei
•
•
•
•
Pour différencier les deux parties de ce modèle, on note ŷ i la
valeur théorique fournie par la partie déterministe. La différence
entre yi et ŷ i s’appelle le résidu et elle est égale à ei :
yi = ŷ i + ei
ei = yi – ŷ i
Le point de départ d’un étalonnage repose sur le choix d’un
modèle correct. Dans la majorité des cas, les méthodes s’appuient
sur des phénomènes physico-chimiques qui peuvent se ramener à
un modèle linéaire, au moins pour une certaine gamme de concentration. Mais, pour certains types de détermination, les mécanismes
sont moins bien connus et on doit utiliser des modèles plus compliqués non linéarisables. Finalement, le modèle le plus fréquemment
utilisé est du type :
yi = a0 + a1 xi + ei
(1)
Ordonnée à l'origine
(blanc)
a0
La figure 4 illustre l’interprétation physique des deux coefficients : a0 le blanc qui correspond à la réponse en absence d’analyte et a1 la sensibilité ou la pente du modèle d’étalonnage. Le problème de l’étalonnage revient à calculer a0 et a1 à l’aide des
réponses de p solutions étalons xi (1 < i < p). Pour cela on utilise
la méthode de régression linéaire selon le critère des moindres carrés [6]. Elle est bien adaptée à ce problème car il existe une relation
de causalité entre les deux variables. On dit que y est une variable
expliquée ou dépendante et que x est une variable explicative ou
indépendante.
Concentration x
Figure 4 – Principe de la méthode des moindres carrés
Le principe de la méthode des moindres carrés consiste à calculer
les coefficients a0 et a1 en minimisant la somme S des carrés des
distances entre valeurs observées yi et les valeurs prédites ŷ i . Cette
condition – qui a donné son nom à la méthode – est posée sous la
forme :
S = Σ (yi – ŷ i )2 → minimum
Pour conduire les calculs, on suppose que les valeurs aléatoires du bruit de fond ei sont distribuées selon des lois normales
de moyennes nulles et de même variance théorique σ2. Elles
sont indépendantes, ce qui signifie qu’elles ne sont pas liées
entre elles et que, par exemple, on a préparé chaque solution
étalon indépendamment les unes des autres. Cette remarque est
importante car il peut arriver que les solutions étalons soient
préparées par dilutions successives, à partir d’une seule solution, ce qui est en contradiction avec ces hypothèses [6][7][8].
Finalement, le calcul des estimations des coefficients se ramène
aux deux formules suivantes :
avec x
La valeur théorique devient :
ŷ i = a0 + a1xi
xi
0
y
SPE xy
a 1 = ----------------SCE x
(2)
a0 = y – a1 x
(3)
1
moyenne des xi : x = --p
1
moyenne des yi : y = --p
p
∑ xi ,
i=1
p
∑ yi ,
i=1
SCE Somme des Carrés des Écarts à la moyenne :
p
SCE x =
∑ ( xi – x )
2
,
i=1
SPE Somme des Produits des Écarts à la moyenne :
p
SPE xy =
∑ ( xi – x ) ( yi – y ) .
i=1
Dans ces formules, p représente le nombre de solutions étalons.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
P 224 − 7
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
■ Il est aussi possible de fournir un estimateur de la variance rési2
duelle σ2, noté s e et calculé à partir de la formule suivante :
p
2
se
∑ ( yi – ŷi )
2
2
SCE y – a 1 SPE xy
= --------------------------------- = -------------------------------------------p–2
p–2
i=1
2
se
2
s a = -------------1
SCE x
(5)
2
2
2 1
x 
s a = s e  --- + ---------------
0
 p SCE x
(6)
■ Puisque l’on peut calculer des variances, on va pouvoir calculer
des intervalles de confiance. Ils font intervenir une variable de Student à ν = p – 2 degrés de liberté pour un niveau de confiance réparti
de chaque côté de l’intervalle 1 – α/2, notée t1 – α/2, ν. Si on appelle θ1
et θ0 les valeurs vraies de la pente et de l’intersection :
a0 – t1 – α/2, ν sa0 < θ0 < a0 + t1 – α/2, ν sa0
(7)
a1 – t1 – α/2, ν sa1 < θ1 < a1 + t1 – α/2, ν sa1
(8)
Avec l’intervalle de confiance du blanc, on peut vérifier très facilement si la droite passe par le zéro. Si la valeur 0 est contenue dans
cet intervalle, on peut accepter l’hypothèse que la droite passe effectivement par le blanc. Il serait alors possible de se ramener à un
modèle plus simple, du type yi = a0 + a1xi . Mais avant de prendre
cette décision, il ne faut pas perdre de vue que le blanc est souvent
une mesure aléatoire, liée à une remise à zéro volontaire de l’instrument de mesure. Le bruit de fond peut donc modifier sa valeur,
même si, en moyenne, il est égal à 0.
Nota : d’un point de vue pratique, il ne sera pas nécessaire de développer ces différentes formules car de nombreux moyens de calcul informatisés contiennent les fonctions
nécessaires. Ainsi, le tableur Microsoft Excel® propose une fonction DROITEREG qui permet d’obtenir tous les résultats d’un seul coup comme on va le voir au paragraphe 5.
3.1.2 Étalonnage inverse
La procédure qui a été décrite est utilisable pour ce que l’on
appelle l’étalonnage direct d’une méthode. L’étalonnage inverse
consiste à prédire la concentration xk , d’un échantillon inconnu k
qui donne une réponse mesurée yk . Pour faire cette prédiction, on
va utiliser les mêmes coefficients que ceux de la formule (1) mais en
les combinant dans un modèle différent :
yk – a0
x k = ----------------+ e k′
a1
L’erreur e k′ est plus grande que le bruit de fond ei, utilisé dans la
méthode des moindres carrés, puisqu’elle contient le bruit de fond
et l’erreur sur l’échantillon ; ce qui pose un problème délicat si on
veut estimer l’intervalle de confiance xk . Une solution consiste à
répéter les mesures de yk . On va noter ykj ces répétitions avec
1< j < m. En général, on peut prendre m = 3. On peut alors calculer
une réponse moyenne y k :
m
∑ ykj
j=1
y k = ----------------m
se  1 1 ( y k – y ) 
-
s x ≈ ------  ---- + ----- + -------------------------a 1  N m a 2 ⋅ SCE 
1
x
(4)
■ La variance résiduelle sert ensuite à calculer les variances de la
sensibilité et du blanc. En effet, les coefficients a0 et a1 ne sont pas
des constantes mais bien des variables aléatoires ; si on répète l’étalonnage on ne trouvera pas deux fois les mêmes valeurs :
P 224 − 8
On peut ainsi calculer une approximation de l’écart-type de la
valeur prédite xk en appliquant la formule suivante qui fait intervenir
l’écart-type résiduel se déjà décrit (4) :
Un intervalle de confiance de la valeur vraie de la concentration
de l’échantillon ξk, s’écrit alors :
y k – a0
y k – a0
------------------- – t 1 – α ⁄ 2 s x < ξ k < ------------------- + t1 – α ⁄ 2 sx
a1
a1
avec t1 – α/2 variable de Student à N – 2 degrés de liberté,
N
nombre de solutions étalons utilisées pour calculer a0
et a1.
Au premier abord, cette méthode pour calculer l’incertitude d’un
résultat d’analyse semble simple mais elle présente l’inconvénient
d’obliger à multiplier les mesures, puisqu’il faut faire des répétitions
sur l’échantillon inconnu et connaître le nombre de solutions étalons qui ont été utilisées. C’est pourquoi, cette approche n’a jamais
connu un grand succès dans les laboratoires. Nous verrons comment il est possible de proposer une approche plus globale à partir
de la notion de répétabilité.
3.2 Limites de détection
et de quantification
Le lecteur pourra aussi se reporter à l’article Limite de détection [P 262] du présent
traité.
■ Bien que la limite de détection (LD) soit un critère très utilisé en
chimie analytique, on rencontre malheureusement de très nombreuses définitions qui créent des confusions [9]. Celle proposée par
la norme FD V 01-000 est la suivante :
« La limite de détection est la plus petite concentration de l’analyte pouvant être détectée, mais non quantifiée, dans les conditions
expérimentales décrites de la méthode. »
On peut essayer de traduire la définition de la LD en termes statistiques en disant qu’elle correspond à la concentration au-dessus de
laquelle on a une faible probabilité de se tromper en acceptant
l’hypothèse qu’un échantillon qui ne contient pas l’analyte (blanc
échantillon) contient en fait l’analyte. Ce risque d’erreur (dit type I)
est habituellement noté α dans les livres statistiques.
De même, il est aussi possible d’introduire le risque d’erreur (dit
type II) noté β pour définir ce que l’on appelle généralement le
niveau critique (NC). C’est la concentration au-dessous de laquelle
on a peu de risque d’affirmer qu’un échantillon qui contient réellement l’analyte est un échantillon blanc. Le niveau critique est, bien
sûr, plus élevé que la limite de détection. La figure 5 illustre ces
deux concepts complémentaires.
Pratiquement, le calcul de la limite de détection revient à faire un
test d’égalité entre la valeur de la réponse instrumentale et la
réponse pour un échantillon blanc. Puis on recherche la limite,
notée yLD, à partir de laquelle on rejetterait l’hypothèse au niveau de
confiance 1 – α. Finalement, on obtient les deux formules
suivantes :
yLD = t1 – α sbl
yNC = yLD + t1 – β sbl = (t1 – α + t1 – β) sbl
avec sbl
écart-type d’un blanc,
t1 – α et t1 – β variables de Student.
Dans ce cas, le nombre de degrés de liberté de la variable de Student est égal à n – 1 ou n représente le nombre de mesures effectuées pour calculer sbl. Cependant, les valeurs yLD et yNC sont
exprimées dans les mêmes unités que la réponse. Il faut donc les
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
__________________________________________________________________________________________
■ En conclusion, ces recommandations restent délicates d’application dans bien des cas. En fait, elles posent la notion de « blanc ».
On peut en distinguer plusieurs types :
— le blanc instrumental qui correspond au bruit de fond moyen
de l’appareil de mesure et est souvent non mesurable sur les instruments modernes qui subissent un lissage très énergique du signal ;
— le blanc réactif qui peut être très important pour les méthodes
de recherche des traces et qui viendra fausser le calcul de la LD ou
de la LQ ;
— le blanc matrice ou blanc échantillon qui est censé représenter
l’effet de matrice et dont l’écart-type prend en compte la variabilité
naturelle des échantillons.
Réponse
1 – β = 99 %
α = 1%
xLD
Limite de détection
xNC
Concentration
Niveau critique
Figure 5 – Limite de détection et niveau critique
3.3 Recherche des limites du domaine
de linéarité
diviser par la sensibilité a1, afin d’avoir une expression de la limite
de détection et du niveau critique dans la même unité que la
concentration, soit :
(9)
y NC
( t 1 – α + t 1 – β ) s bl
x NC = --------- = -----------------------------------------a1
a1
(10)
L’application pratique des formules (9) et (10) soulève deux problèmes :
— le choix d’un échantillon pour calculer sbl l’écart-type du blanc ;
— le nombre de mesures qui sert à calculer le nombre de degrés
de liberté.
Pour simplifier les formules, on peut supposer qu’on a fait beaucoup de mesures (n > 20) et que α = β = 1 % et ainsi remplacer t1 – α
= t1 – β ≈ 3,0 ou une valeur approchante. En ce qui concerne sbl on
peut utiliser l’écart-type du blanc obtenu lors de l’étalonnage et
fourni par la formule (6). Cette solution très commode est d’autant
plus exacte que l’étalonnage a été réalisé, comme c’est parfois le
cas, en présence d’une matrice, par ajouts dosés (§ 3.7). On obtient
ainsi les formules (11) et (12) :
a0 + 3 sa
x LD = -----------------------0a1
(11)
a0 + 6 sa
x NC = -----------------------0a1
(12)
■ En outre, on rencontre dans la littérature une autre caractéristique, appelée limite de quantification (LQ), définie de la manière suivante dans la norme FD V 01-000 :
« La limite de quantification est la plus petite concentration de
l’analyte pouvant être quantifiée avec une incertitude acceptable,
dans les conditions expérimentales décrites de la méthode. »
Selon [10], il s’agit de la plus petite concentration que l’on peut
quantifier avec sûreté comme étant différente du blanc. Elle n’a pas
de signification statistique mais correspond plutôt à une pratique
des analystes qui font la différence entre un échantillon réellement
blanc et un échantillon non quantifiable. Selon les mêmes notations
sa valeur est :
a 0 + 10 s a
x LQ = --------------------------0a1
Selon la norme FD V 01-000 la « linéarité est la capacité d’une
méthode d’analyse, à l’intérieur d’un certain intervalle à fournir une
réponse instrumentale ou des résultats proportionnels à la quantité
en analyte à doser dans l’échantillon pour laboratoire. Cette proportionnalité s’exprime au travers d’une expression mathématique
définie a priori ». En outre, « les limites de linéarité sont les limites
expérimentales de concentrations entre lesquelles un modèle d’étalonnage linéaire peut être appliqué avec un risque d’erreur connu
(généralement pris égal à 1 %) ».
■ La méthode proposée pour réaliser cette vérification utilise des
concepts introduits par la méthode des moindres carrés. La recherche de la limite de linéarité met en œuvre un test d’erreur d’adéquation du modèle (lack-of-fit test), basé sur l’analyse de variance. Ce
test consiste à décomposer la somme des carrés des écarts des
réponses, notée SCEy , selon l’équation suivante :
∑ ∑ ( yij – y )
i
j
2







y LD
t 1 – α s bl
x LD = -------- = ------------------a1
a1
Le lecteur pourra se reporter utilement à la référence [4].
■ Pour la grande majorité des méthodes, le choix d’un modèle
linéaire est souvent correct mais pour une gamme de concentration
donnée ; au-delà d’une certaine limite, cette hypothèse est fausse.
Une des premières étapes de validation d’une méthode va donc
consister à définir le domaine de concentration où on peut affirmer,
avec un faible risque d’erreur, que le modèle d’étalonnage est bien
linéaire. Si on observe une courbure, il sera indispensable de
réduire la gamme étalon de façon à obtenir un véritable domaine de
linéarité. Cette limite deviendra une frontière que l’on s’interdira
absolument de franchir et qui sera un des éléments fondamental du
domaine d’application de la méthode. Pour certaines méthodes, il
peut arriver qu’on choisisse un modèle d’étalonnage plus
complexe : nous ne traiterons pas ce cas de figure.
SCE y
avec i
=
∑ ∑ ( yij – yi )
i
2
j
+
∑ ni ( yi – ŷi )
i
2
+
∑ ni ( ŷi – y )
i
2







Échantillon 0
blanc
Devant cette situation complexe et mal maîtrisé sur le plan statistique, les procédures formalisées de validation proposent généralement plusieurs solutions et l’analyste doit appliquer celle qui est la
mieux adaptée à la méthode employée, c’est-à-dire celle qui donne
une mesure de LD ou LQ la plus en rapport avec sa propre évaluation subjective des capacités de détection.







yLD







yNC
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
SCE e
SCE em
SCE reg
(14)
numéro du niveau d’étalonnage, varie de 1 à p,
j
numéro de répétition, varie selon le niveau d’étalonnage
de 1 à ni,
y
moyenne sur i et j des yij,
y i moyenne sur j des yij,
(13)
ŷ i valeur théorique de yi .
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
P 224 − 9
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
Si on utilise la notation SCE, on peut réécrire la formule (14) sous
une forme plus condensée :
SCEy = SCEe + SCEem + SCEreg
SCEreg représente la somme de carrés des écarts due à la régression et SCEem celle due à une erreur de modèle. Dans ce cas, SCEem
sera interprétée comme une mesure de la non-linéarité puisque le
modèle choisi est une droite mais ce test est applicable à tout type
de modèle. SCEe désigne la somme de carrés des écarts due à
l’erreur pure.
Ainsi, on construit le tableau 1 où N désigne le nombre total de
mesures, soit :
p
N =
∑ ni
(15)
i=1
(0)
Tableau 1 – Test de linéarité
Somme
Sources
Degrés
de carrés
de variation
de liberté
des écarts
Régression
SCEreg
1
Erreur de
modèle
SCEem
p–2
Erreur pure
SCEe
N–p
Total
SCEy
N–1
Variances
F de Fisher
Vreg = SCEreg
V reg
F reg = ---------Ve
SCE em
= -----------------p–2
V em
= ---------Ve
V em
F em
SCE
V e = --------------eN–p
Ce tableau va permettre de vérifier deux hypothèses :
— si la valeur de Freg définie dans le tableau 1 est supérieure à la
valeur limite lue dans la table de Fisher pour F1 %, 1, N – p, on peut
conclure que la régression explique bien une grande partie de la
variation. C’est une conclusion normale puisque les variations de x
sont censées expliquer celle de y ;
— si la valeur de Fem est inférieure à la valeur limite lue dans la
table de Fisher pour F1 %, p – 2, N – p, on peut conclure qu’il n’y a pas
de courbure et accepter la gamme étalon choisie comme domaine
de linéarité.
Nota : les calculs, apparemment compliqués, sont en fait simples à conduire si on utilise
un tableur comme le décrit le paragraphe 5.
3.4 Contrôle de la qualité d’un étalonnage
Ce critère a été développé pour mesurer la corrélation, c’està-dire la liaison entre deux variables et non pas la qualité de la
régression. Le coefficient de corrélation est toujours compris
entre –1 et +1. Un test permet de montrer s’il est significativement différent de 0 : on dit alors que les deux variables sont corrélées. Mais en aucun cas ce test ne permet de dire s’il est
significativement égal à 1 ! C’est donc une grave erreur que de
l’utiliser pour ce type de conclusion.
Dans le cas d’un modèle d’étalonnage, la forte corrélation entre la
réponse et la concentration ne peut pas être mise en doute
puisqu’elle est à la base théorique de la méthode d’analyse
employée. C’est pourquoi, le coefficient de corrélation r est en général (et heureusement) très élevé ; il est encore plus élevé si les solutions étalons, choisies par l’expérimentateur, sont regroupées aux
deux extrémités du domaine d’étalonnage : il est plus facile de faire
passer une droite par deux points. Mais on ne peut pas déduire que
de légères variations de r soient représentatives de la qualité de
l’étalonnage, car ce critère est très peu sensible à des variations
aléatoires. Il est donc tout à fait illusoire de penser qu’une baisse ou
une augmentation du coefficient de corrélation permettra de vérifier
si l’étalonnage est correct.
■ Par contre, une approche plus intéressante consiste à calculer
l’intervalle de confiance joint du blanc et de la sensibilité. Dans les
formules (7) et (8) on avait proposé de calculer des intervalles de
confiance séparés pour le blanc et la sensibilité. La formule de
l’intervalle de confiance joint est la suivante :
n ( a 0 – θ 0 ) + 2 ∑ x i ( a 0 – θ 0 ) ( a 1 – θ 1 ) + ∑ x i ( a 1 – θ 1 ) = 2 s e F 2, n ′, α (16)
2
2
i
2
2
i
avec θ0 et θ1 valeurs vraies de la sensibilité et du blanc, valeurs
qu’on obtiendrait en faisant un nombre infini de
mesures,
F2, n’, α valeur d’une variable de Fisher au risque α, pour 2 et
n’ = N – 2 degrés de liberté,
N
nombre total de couples de mesures.
Lorsque θ0 et θ1 varient, on obtient une ellipse centrée sur le point
de coordonnées a0, a1. Cette ellipse est un peu délicate à dessiner
mais elle donne un moyen très efficace pour vérifier si un nouvel
étalonnage est conforme à ceux obtenus précédemment.
À titre d’exemple, l’ellipse de confiance jointe de la sensibilité et
du blanc d’un étalonnage est présentée sur la figure 6. Elle représente la zone d’acceptation d’un nouveau couple sensibilité, blanc.
Les valeurs situées en dehors, comme le rond, indiquent que l’étalonnage n’a pas donné les résultats attendus et une action correctrice doit être entreprise pour rectifier cette erreur. Par contre, si un
couple de valeurs est situé à l’intérieur de l’ellipse, comme celui
symbolisé par une étoile, on considère que les résultats d’étalonnage obtenus sont acceptables et traçables par rapport à des résultats antérieurs.
Blanc θ0 3,5
3,0
2,5
La méthode des moindres carrés permet aussi de proposer une
procédure pour contrôler la qualité d’un étalonnage à chaque fois
qu’on utilisera la méthode d’analyse.
■ Avant d’aller plus loin, il est intéressant d’évoquer un critère souvent présenté comme très efficace pour contrôler un étalonnage : le
coefficient de corrélation noté r et dont la formule de calcul est la
suivante :
SPE xy
∑ ( xi – x ) ( yi – y ) r = ---------------------------------- = ----------------------------------------------------------------2
2
SCE x SCE y
∑ ( xi – x ) ∑ ( yi – y )
P 224 − 10
Acceptable
2,0
1,5
1,0
Inacceptable
0,5
0
40,4
40,5
40,6
40,7
40,8
Sensibilité θ1
Figure 6 – Contrôle de qualité d’une droite étalon
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
40,9
41
__________________________________________________________________________________________
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
3.5 Incertitude, fidélité et justesse
Le lecteur pourra se reporter à l’article Modélisation et calcul de l’incertitude d’un
résultat [P 260].
3.5.1 Incertitude de mesure
Le fait qu’un résultat varie, si on répète les mesures, est un problème connu de tous les expérimentateurs. Pour caractériser cette
variabilité, on a introduit la notion d’incertitude. Ce terme doit être
préféré à celui de précision qui a été utilisé dans trop d’acceptions
différentes pour être encore clairement compris.
Selon une définition récente, l’incertitude est un « paramètre
associé à une mesure ou à un résultat pour caractériser la dispersion raisonnable que l’on peut associer au mesurande » [11]. En
outre, les textes les plus récents sur l’assurance qualité prévoient
que le laboratoire doit disposer d’une procédure pour estimer
l’incertitude de mesure « chaque fois que le client demande les
incertitudes de mesure se rapportant à des essais spécifiques ou
lorsqu’il est probable que l’incertitude compromettra la conformité
à une spécification ».
Il est facile de voir que cette définition est proche de celle de
l’intervalle de confiance. En effet, ce critère permet de calculer un
intervalle de variation où il est vraisemblable que se trouve la valeur
vraie d’une statistique (moyenne, sensibilité, blanc…) en prenant le
risque noté α que l’intervalle ainsi formé ne la contienne pas. Les
formules (7) et (8) montrent comment le calcul d’un intervalle de
confiance revient à multiplier l’écart-type d’une statistique par un
coefficient qui tient compte de α.
La préparation d’une procédure pour l’expression de l’incertitude
va principalement porter sur le calcul de l’écart-type. Une approche
métrologique traditionnelle consiste à décomposer les différentes
sources d’erreur et à la combiner de façon à prévoir l’incertitude du
résultat. On l’utilise le plus souvent pour les mesures physiques.
Elle part du principe que la variable aléatoire x est une fonction quelconque de deux variables aléatoires u et v (ou plus). Sa variance est
obtenue par la formule (17) :
∂x 2 2
∂x ∂x
∂x 2 2
2
x = ƒ ( u, v ) ⇒ s x =  ------- s u +  ------ s v + 2cov ( u, v )  -------  ------
∂u
∂v
∂u ∂v
(17)
∂x
avec ------dérivée partielle de x par rapport à u,
∂u
cov(u, v) covariance entre les deux variables.
Dans la pratique, il est rare qu’on connaisse la fonction qui lie x à
u et v et on ne peut pas calculer les termes de cette somme. C’est
pourquoi, on a introduit une autre approche plus statistique de
l’estimation de l’incertitude qui sera toujours applicable aux mesures de la chimie analytique. Pour en comprendre les fondements, on
peut utiliser la comparaison du tir à la carabine sur une cible. Chaque impact de balle représente une mesure et le centre de la cible
est la valeur vraie de l’échantillon.
Plusieurs situations se présentent :
— un tireur peut utiliser une arme réglée et systématiquement
rater le centre : on dit que son tir n’est pas juste ;
— il peut être maladroit et disperser les différents impacts : on dit
que son tir n’est pas fidèle ;
— ces deux types d’erreur peuvent se combiner.
La figure 7 illustre les quatre situations auxquelles ces défauts
conduisent.
Mais une différence fondamentale entre l’analyse chimique et le
modèle du tir sur cible est qu’on connaît rarement le centre de la
cible et qu’il faudra l’estimer. Finalement, on retient la définition de
deux critères de validation très importants [12] :
— la fidélité qui est « l’étroitesse d’accord entre des résultats
d’essai indépendants obtenus sous des conditions stipulées ». La
mesure de fidélité est une mesure de la dispersion des mesures et
Ni juste ni fidèle
Fidèle mais pas juste
Juste mais pas fidèle
Juste et fidèle
Figure 7 – Image pratique de la justesse et de la fidélité
se calcule à partir d’un écart-type. Une fidélité moindre est reflétée
par un grand écart-type. Les résultats d’essai sont indépendants s’ils
sont obtenus sur le même matériau d’essai d’une façon non influencée par un résultat précédent ou similaire ;
— la justesse qui mesure « l’étroitesse de l’accord entre la valeur
moyenne obtenue à partir d’une large série de résultats d’essais et
une valeur de référence acceptée ». La mesure de la justesse est
généralement exprimée en termes de biais ou d’écart à une
moyenne.
La valeur de référence acceptée – aussi appelée la valeur conventionnellement vraie de l’échantillon – est fournie par consensus à
partir des valeurs de mesures répétées. Ça peut être une valeur
théorique ou établie, fondée sur des principes scientifiques, une
valeur assignée ou certifiée, fondée sur les travaux expérimentaux
d’une organisation nationale ou internationale, une valeur de
consensus ou certifiée, fondée sur un travail expérimental en collaboration et placé sous les auspices d’un groupe scientifique ou technique ou, encore, la moyenne d’une population spécifiée de
mesures.
Cette nécessité de recourir à une valeur de consensus va justifier
l’organisation des analyses interlaboratoires. En effet, la traçabilité
des mesures chimiques ne permet pas de remonter simplement à
l’étalon primaire qu’est la mole. Par contre, comme le prévoit les
normes et comme on l’a décrit au paragraphe 1.2, lorsqu’il est
impossible d’établir la traçabilité aux unités de mesure SI, le laboratoire doit soit participer à un programme approprié de comparaisons interlaboratoires ou d’essais d’aptitude, soit utiliser des
matériaux de référence appropriés ou certifiés.
3.5.2 Analyses interlaboratoires
Nous désignerons par analyses interlaboratoires toute étude
expérimentale qui implique la participation de plusieurs laboratoires. Cependant, il faut distinguer plusieurs situations en fonction
des objectifs recherchés.
■ Les analyses interlaboratoires, au sens de la norme NF ISO 5725,
doivent réunir au moins huit laboratoires qui vont recevoir un ou
plusieurs échantillons sur lesquels ils feront de deux à quatre répétitions. L’objectif principal est alors de mesurer la répétabilité et la
reproductibilité de la méthode comme nous le verrons au paragraphe 3.5.3. Ces études sont généralement lourdes et coûteuses et ne
sont entreprise que pour une validation interlaboratoires de la
méthode. Elles peuvent être organisées par n’importe quelle structure, par exemple, un laboratoire ou une entreprise qui veut promouvoir une méthode et publier ses caractéristiques dans la
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
P 224 − 11
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
littérature. La normalisation est un contexte très classique d’organisation d’analyses interlaboratoires puisque les méthodes normalisées doivent être accompagnées de valeurs de reproductibilité.
■ Les essais d’aptitude, comme ceux décrits dans la norme
X 06-049 ou le Guide ISO/IEC 43 [13], réunissent de nombreux laboratoires, parfois plusieurs milliers. Les participants n’auront pas à
faire de répétition sur le ou les échantillon(s) qu’ils reçoivent car le
but est de calculer par consensus une valeur de référence acceptée
qui servira à vérifier si un laboratoire est compétent pour exécuter
un type de détermination. Ce bilan d’aptitude se fera après avoir
classé les laboratoires d’après leurs résultats et en vérifiant quels
sont ceux qui se trouvent en dehors de limites de tolérance, elles
aussi consensuelles. Les tests d’aptitude sont généralement organisés par des structures interprofessionnelles et les laboratoires y participent de façon volontaire en fonction d’un programme analytique
propre à une branche d’activité.
Exemple : on trouve des tests d’aptitude pour les produits céréaliers, les liants hydrauliques, l’analyse œnologique, les analyses de biologie clinique, etc.
■ Les études collaboratives pour préparer des matériaux de référence certifiés ou non suivent des protocoles très variés qui peuvent
s’inspirer des analyses interlaboratoires classiques. Cependant,
d’une part, on va utiliser plusieurs types de méthodes d’analyse afin
de détecter un principe analytique qui générerait un biais systématique, d’autre part, les laboratoires participants ne seront pas choisis
au hasard mais d’après leur haut niveau de compétence (a priori).
Les matériaux de référence certifiés pourront être assimilés à des
étalons primaires et servir à vérifier la justesse d’une méthode
interne. Malheureusement, il n’existe pas encore de matériau de
référence certifié pour chaque domaine d’application.
Ces deux concepts ont été introduits pour des raisons économiques afin de comparer des mesures faites par deux laboratoires différents qui représentent chacun les intérêts de deux partenaires
commerciaux. C’est pourquoi, à partir de ces deux notions, on définit deux caractéristiques de la fidélité :
— la limite de répétabilité ou répétabilité (notée r) qui est l’écarttype maximal au niveau de confiance de 95 % entre deux résultats
obtenus selon des conditions de répétabilité ;
— la limite de reproductibilité ou reproductibilité (notée R) qui
est l’écart-type maximal au niveau de confiance de 95 % entre deux
résultats obtenus sur un échantillon commun par deux opérateurs
ou deux laboratoires différents selon des conditions de reproductibilité.
Le modèle mathématique utilisé pour mesurer les écarts-types de
répétabilité et de reproductibilité d’une analyse interlaboratoires est
le suivant :
xij = µ + Li + εij
où chaque répétition xij est la somme de trois éléments :
µ la valeur vraie de l’échantillon,
Li le biais aléatoire du laboratoire,
εij l’erreur expérimentale.
Dans ce modèle, l’indice i repère le laboratoire et j le numéro de
répétition.
Puisque chaque laboratoire a fait des répétitions, on peut calculer
2
une variance intralaboratoire notée s i . Si on suppose que les
variances intralaboratoires ne sont pas statistiquement différentes
les unes des autres (§ 3.5.5), on peut calculer une variance com2
Étant donné que la fidélité mesure la dispersion des mesures et
que cette dispersion dépend de diverses sources de variation, on a
proposé deux situations extrêmes dans lesquelles deux répétitions
peuvent être réalisées sur un échantillon commun : à savoir les
conditions de répétabilité et les conditions de reproductibilité. Elles
sont définies de la façon suivante dans [12] :
— les conditions de répétabilité sont réalisées lorsque « les résultats d’essai indépendants sont obtenus par la même méthode sur
des individus d’essai identiques dans le même laboratoire, par le
même opérateur, utilisant le même équipement et pendant un court
intervalle de temps » ;
— les conditions de reproductibilité sont réalisées lorsque « les
résultats d’essai sont obtenus par la même méthode sur des individus d’essais identiques dans différents laboratoires, avec différents
opérateurs et utilisant des équipements différents ».
Les conditions de répétabilité vont donc caractériser la plus petite
dispersion possible des mesures puisque toutes les modalités de
réalisation sont constantes, alors que les conditions de reproductibilité intègrent la plupart des sources de variation.
P 224 − 12
les estimations des biais L i = x i – x , où x est la moyenne générale.
La figure 8 résume ces concepts et on peut remarquer que, même
si les variances intralaboratoires sont assez différentes, on va les
ramener à une variance unique, la variance de répétabilité.
En supposant, en outre, que les distributions sont normales et
que le nombre de résultats est suffisant, on peut alors démontrer
2
que la variance de reproductibilité, notée s R , est égale à la somme
de la variance interlaboratoires et de la variance de répétabilité :
2
2
2
sR = sL + sr
(18)
Pour estimer ces différentes variances, on va s’appuyer sur
l’équation suivante, obtenue par une analyse de variance à un seul
facteur à effet aléatoire :
p
ni
∑ ∑ ( xij – x )
i=1 j=1
p
2
=
∑ (x i – x )
i=1
p
2
+
ni
∑ ∑ ( xij – x i )
i=1 j=1
2









3.5.3 Répétabilité et reproductibilité
selon la norme NF ISO 5725
2
loi normale dont la variance est notée s L . Elle est appelée variance
interlaboratoire car elle représente aussi la façon dont se dispersent







Exemple : pour les matrices biologiques, on utilise de préférence
des matériaux séchés ou lyophilisés ; si l’analyte est sensible à la
lumière ou à l’oxygène le conditionnement sera opaque ou étanche,
sous atmosphère contrôlée ; si c’est une poudre, elle est répartie grain
par grain dans chaque flacon, à l’aide d’un distributeur spécial.
mune qu’on appelle variance de répétabilité : on la note s r . Si, au
contraire, les variances intralaboratoires sont assez différentes, on
peut également définir une variance de répétabilité selon la
formule (21). Par ailleurs, on peut calculer les moyennes des laboratoires, notées x i . On va supposer qu’elles se distribuent selon une









Quel que soit le type d’étude, chaque participant reçoit un prélèvement d’un échantillon homogène. Sur le plan technique, la préparation d’un tel échantillon – parfois en grande quantité – exige un savoirfaire et un soin bien spécifique. On peut regretter qu’il n’existe pas
encore de procédure normalisée pour vérifier la qualité d’un matériau
qui servira à une analyse interlaboratoires. En outre, le mode de conditionnement devra prendre en compte la stabilité de l’analyte et/ou
de la matrice : cette remarque est particulièrement importante pour
les matériaux biologiques qui se dégradent facilement.
SCE t
SCE L
SCE r
avec x i
moyenne du laboratoire i,
p
N =
ni
x
∑ ni
i=1
nombre total de mesures,
nombre de répétitions par laboratoire,
moyenne générale.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
(19)
__________________________________________________________________________________________
Si les mesures suivent une loi normale, les différences se distribuent selon une loi de Student à N – p degrés de liberté. Comme N
est généralement grand, pour un risque de 5 % on prend t0,975 ≈ 2,0.
Puisque 2 2 = 2, 83 , on obtient finalement :
Laboratoire 1
sr
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
r = 2,83 sr
sr
R = 2,83 sR
Laboratoire 2
sr
3.5.4 Conformité d’un écart-type
de reproductibilité
Laboratoire p
Le mode de calcul de la norme NF ISO 5725 s’applique à un seul
échantillon. Cependant, comme la validation d’une méthode d’analyse doit porter sur l’ensemble de son domaine d’application, il est
classique de faire parvenir aux participants plusieurs échantillons
avec des niveaux de concentration couvrant tout le domaine. Ces
résultats vont permettre de vérifier si la fidélité est une constante ou
si elle dépend du niveau de concentration de l’échantillon.
sL
Exemple : le tableau 2 présente les mesures de fidélité d’une
méthode de détermination de l’azote Kjeldahl utilisant une technique
de minéralisation par micro-ondes [14]. En fait, cinq analyses interlaboratoires sont présentées pour des matrices dont la concentration
moyenne varie entre 0,4 g/100 g et 8 g/100 g d’azote. On peut noter
que, dans tous les cas, l’écart-type de reproductibilité est plus élevé
que celui de la répétabilité. Ce résultat est logique si on se réfère à la
formule (18).
Moyenne générale
Répétion
moyenne du laboratoire
Figure 8 – Modèle théorique de l’analyse interlaboratoire
L’équation (19) peut être réécrite en utilisant la notation SCE
(sommes de carrés d’écarts) :
(0)
SCEt = SCEL + SCEr
avec SCEt somme totale des carrés des écarts à la moyenne
générale,
SCEL somme des carrés des écarts interlaboratoires,
SCEr somme des carrés des écarts de répétabilité.
2
2
Ensuite, les variances interlaboratoires s L et de répétabilité s r
sont obtenues en divisant les sommes de carrés des écarts par des
nombres de degrés de liberté appropriés. Pour cela, il est nécessaire
d’introduire le nombre moyen corrigé de répétitions par cellule, que
l’on note N ’ :
p
∑ ni
2
=1
N ′ = N – i--------------N
(20)
SCE
2
s r = --------------r
N–p
(21)
Tableau 2 – Analyses interlaboratoires
pour l’azote Kjeldahl
(g/100 g)
Niveau
p
x
sR
sr
CVR
CVLim
Lait
11
0,484
0,013
0,011
2,60 %
4,46 %
Farine
11
1,773
0,038
0,023
2,13 %
3,67 %
Dactyle
11
2,060
0,056
0,029
2,70 %
3,59 %
Viande
11
2,997
0,078
0,052
2,59 %
3,39 %
Œuf
11
7,609
0,173
0,111
2,27 %
2,95 %
On obtient :
SCE
2
( p – 1 )  --------------L- – s r 
p–1

= --------------------------------------------------(22)
N′
Lorsque les résultats de l’analyse interlaboratoires doivent faire
l’objet d’un dossier officiel de validation, la norme NF ISO 5725 propose un mode de calcul des limites de répétabilité r et de reproductibilité R. Pour cela on va considérer la variance de la différence
entre deux mesures. Si s2 désigne la variance d’une mesure, la
variance de la différence vaut 2s2. Par conséquent son écart-type est
égal à 2 s . D’après la définition des limites de répétabilité et de
reproductibilité, on recherche la différence maximale entre deux
mesures pour un risque d’erreur de 5 %. On calcule ainsi les deux
critères de fidélité :
2
sL
r = k 2 ⋅ sr
R = k 2 ⋅ sR
où k est un coefficient qui rend compte du risque d’erreur.
Pour illustrer les variations de la reproductibilité, on va projeter les
écarts-types en fonction de la moyenne comme l’indique la figure 9.
On voit ainsi que la fidélité d’une méthode n’est pas constante mais
varie avec la concentration de l’échantillon analysé : cette observation est générale.
Deux conclusions importantes s’imposent :
— il est donc fondamental de valider une méthode sur tout
son domaine d’application, sinon on peut obtenir une estimation fausse pour un niveau de concentration qu’on n’a pas étudié ;
— on ne doit pas exprimer la fidélité d’une méthode sans se
référer à une concentration.
Une façon de synthétiser ces résultats peut consister à calculer le
coefficient de validation (CV ). Il s’agit de l’écart-type relatif à une
moyenne exprimé en % et calculé selon la formule :
s
CV = 100 ----x
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
(23)
P 224 − 13
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
Par ailleurs, Horwitz a montré que la grande majorité des CVR ne
dépassent pas une valeur limite CVLim calculée ainsi :
Écart-type de reproductibilité
sR (g/100g)
CV Lim = 2
0,25
lg ( x )
2 – ---------------2
(26)
Les valeurs obtenues à partir des modèles (25) et (26) pour des
concentrations allant de 10 – 9 kg.kg– 1 (soit 1 µg.kg –1 ou 1 ppb) à
0,1 kg.kg– 1 (soit 10 %) sont présentées dans le tableau 3.
0,20
0,15
(0)
Tableau 3 – Coefficients de variation (en %) donnés
par les modèles de Horwitz pour
quelques concentrations caractéristiques
0,10
0,05
0,00
0,0
1,0
2,0
3,0
4,0
5,0
6,0
7,0
8,0
Moyenne x (g/100g)
Reproductibilité sR
Valeur limite de Horwitz sR Lim
Figure 9 – Relation entre la moyenne et la fidélité pour l’azote
Kjeldahl (§ 3.5.4)
Ce critère présente un inconvénient car c’est une mesure relative
qui dépend de deux valeurs : le numérateur et le dénominateur. On
constate que :
— si l’écart-type est constant lorsque la moyenne varie, le coefficient de variation n’est pas constant. La courbe obtenue est une
hyperbole ;
— si l’écart-type varie avec la moyenne – comme sur la figure 9 –
le coefficient de variation est constant. Il peut alors être utile pour
exprimer simplement la fidélité.
Le coefficient de variation de la reproductibilité, (CVR) reporté
dans le tableau 2 a ainsi été calculé selon la formule :
sR
(24)
CV R = 100 ---------x
■ Dans l’exemple de l’azote Kjeldahl (tableau 2), on constate que
les CVR sont relativement constants puisqu’ils varient entre 2,6 % et
2,7 % et on pourrait proposer d’exprimer la fidélité de cette méthode
sous la forme d’un pourcentage. Cependant, son domaine d’application est relativement étroit et on peut se demander si le CVR reste
constant lorsque le domaine d’application de la méthode est plus
large. Par exemple, on sait que le CVR d’une méthode d’analyse de
traces est généralement plus élevé que celui d’une méthode pour
les macroéléments. C’est-à-dire qu’il y a aussi une relation entre le
coefficient de variation de la reproductibilité et le niveau de concentration [15].
Plusieurs modèles ont été proposés pour décrire cette relation
mais celui qui a connu le plus de succès est celui de Horwitz [16]. Il
l’a construit à partir de plusieurs milliers d’analyses interlaboratoires, d’abord en calculant les sR selon le protocole de la norme
NF ISO 5725, puis en ajustant un modèle par la méthode des moindres carrés.
Il a pu ainsi montrer que, sur une large gamme de concentrations,
de CVR observé se situe, en moyenne, autour d’une valeur CVHor
calculée selon la formule suivante :
CV Hor = 2
lg ( x )
1 – ---------------2
(25)
Concentration
CVHor
(kg.kg– 1)
(%)
CVLim
(%)
10– 1
2,83
5,66
10– 2
4,00
8,00
10– 3
5,66
11,31
10– 4
8,00
16,00
10– 5
11,31
22,63
10– 6
16,00
32,00
10– 7
22,63
45,25
10– 8
32,00
64,00
10– 9
45,25
90,51
Il est important de noter que les concentrations doivent être
exprimées avec les unités SI pour que le résultat soit directement exprimé en %.
Exemple : pour une concentration de 1 g/100 g, on a 10– 2 kg.kg– 1,
ce qui donne :
–2
CV Hor = 2
lg ( 10 )
1 – -----------------------2
= 2
2
1 –  – ---
 2
On s’aperçoit aussi que CVLim est le double de CVHor. C’est pourquoi, on a proposé, comme méthode de contrôle de la conformité
d’une reproductibilité pour une concentration donnée, de vérifier si
le rapport HorRat :
CV R
HorRat = --------------CV Hor
aussi appelé Horwitz Ratio, est bien inférieur à 2,0 [17].
Les conclusions fournies par ce critère doivent toujours être prises à titre indicatif, car ce modèle reste empirique et n’a pas été
retenu dans la norme NF ISO 5725.
Pour illustrer les données du tableau 3, on a pris l’habitude d’utiliser une échelle logarithmique pour la moyenne afin qu’une large
gamme de concentrations puisse être portée sur le même graphique. La figure 10 illustre l’allure des deux modèles.
Si on compare ces valeurs à celles obtenues lors de l’étude sur
l’azote Kjeldahl (tableau 2), on voit que les valeurs de CVR sont toujours compatibles avec celles proposées par le modèle d’Horwitz.
Une autre façon de visualiser cette conclusion consiste à utiliser les
formules (25) et (26) pour calculer les valeurs limites de l’écart-type
de reproductibilité en posant :
avec x concentration moyenne exprimée en unité SI (kg.kg– 1).
Il est important de noter que ce modèle est empirique car il résulte
d’un traitement statistique d’observations expérimentales. Il ne peut
en aucun cas être mis en relation avec une théorie de l’incertitude
ou de la fidélité.
P 224 − 14
2
= 2 = 4%
s R Lim = 0, 01 ⋅ x ⋅ 2
lg ( x )
2 – ---------------2
Les valeurs de sRLim ainsi obtenues sont représentées par la
courbe en noir sur la figure 9.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
__________________________________________________________________________________________
CVR (%)
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
Valeur
mesurée
50
Incertitude faible
capabilité de 10 %
Incertitude élevée
capabilité de 75 %
5
4
Tolérance
25
3
0
10+0 10– 1 10– 2 10– 3 10– 4 10– 5 10– 6 10– 7
1
Moyenne (kg . kg– 1)
CVHor
2
CVLim
0
1
6
11
16
Numéro
de l'échantillon
du lot
Figure 10 – Illustration des modèles proposés par Horwitz
3.5.5 Recherche des données non conformes
Pour démontrer les formules (19), (20), (21) et (22), il a fallu faire
les assertions suivantes :
— les répétitions d’un laboratoire doivent suivre une loi normale ;
2
— les variances intralaboratoires s i doivent être statistiquement
égales ;
— les moyennes des laboratoires x i doivent être statistiquement
égales ;
— les moyennes des laboratoires doivent suivre une loi normale.
Il est donc nécessaire de contrôler si elles sont vérifiées avant de
valider une valeur de répétabilité ou de reproductibilité. C’est pourquoi différents tests sont proposés dans la norme NF ISO 5725 qui
vont permettre de conduire cette étude préliminaire. Ils ne consistent pas à vérifier si les données se distribuent effectivement selon
une loi normale mais plutôt à repérer celles qui sont aberrantes. Ces
tests vont donc permettre d’éliminer, soit une répétition aberrante,
soit une variance aberrante, soit une moyenne aberrante. D’une
façon générale, lorsqu’on applique un test, si on voit qu’il est significatif au niveau de risque de 5 %, on dit que la donnée est suspecte.
S’il est encore significatif au niveau de risque de 1 %, on dit qu’elle
est aberrante.
Il n’est pas rare que l’étape d’élimination des aberrants pose des
problèmes : on ne détecte pas un résultat visiblement aberrant, on
élimine trop de laboratoires, on sous-estime la fidélité… Et finalement, l’estimation de la répétabilité et de la reproductibilité n’est
pas satisfaisante. C’est pourquoi, la dernière partie de la norme propose un ensemble d’estimateurs robustes qui, comme la médiane,
présentent l’intérêt de ne pas être influencés par la présence de données aberrantes. Ils reviennent à transformer de manière itérative
les données et à utiliser des estimateurs de position et de dispersion
robustes. Ensuite, il est possible de calculer les trois paramètres
caractéristiques d’une analyse – à savoir x , r et R – sous des formes
robustes.
Nous ne développerons pas ces méthodes mais on peut se reporter aux travaux de la Royal Society of Chemistry qui a publié des
méthodes tout à fait comparables [18]. L’expérience montre qu’il
est, en général, intéressant de comparer les valeurs obtenues par le
mode de calcul classique, avant et après élimination des aberrants,
avec ceux du mode de calcul robuste. On obtient des valeurs intermédiaires qui reflètent sans doute mieux la réalité. Nous avons
signalé cette évolution car elle marque l’introduction des méthodes
robustes en chimie analytique ainsi que leur intérêt pratique.
3.6 Capacité de mesure
Une façon d’appréhender l’utilité d’une méthode d’analyse
consiste à vérifier si les résultats qu’elle fournit permettent effective-
Figure 11 – Rôle de la capacité de mesure sur l’aptitude
d’une méthode à contrôler un lot
ment de prendre une décision. C’est le concept de capacité de
mesure (ou capabilité de mesure) qui permet d’atteindre ce but en
intégrant la variabilité du phénomène ou du lot qu’on veut contrôler
et l’incertitude des mesurages. Il se définit comme le rapport suivant :
Tolérance acceptée
Capacité = ------------------------------------------------------ × 100
Incertitude
La figure 11 illustre comment des valeurs faibles de la capacité de
mesure (10 %) permettent de prendre des décisions alors qu’une
capacité de mesure de 75 % ne le permet pas. Elle illustre les variations réelles d’un lot. Les limites de tolérance sont représentées par
deux traits en pointillés et les mesures sont encadrées par leur
incertitude. On a simulé des variations de l’incertitude pour montrer
comment des mesures avec une incertitude élevée ne permettent
pas de détecter une non-conformité.
3.7 Justesse d’une méthode
■ Comme l’indique sa définition (cf. § 3.5.1), la justesse est mesurée en comparant le résultat obtenu avec la méthode en cours de
validation et la valeur vraie de l’échantillon. Il faut donc disposer de
cette valeur. On a déjà vu (§ 3.5.1) comment deux techniques particulières permettent de le faire.
● L’utilisation de matériaux de référence certifiés (MRC) est la
méthode la plus simple. Il suffit d’en acheter un similaire ou proche
du type d’échantillon auquel la méthode s’applique. Il existe une
norme qui décrit comment procéder à la comparaison entre la
valeur certifiée et la valeur trouvée (19).
De nombreux distributeurs vendent quelques-uns des 10 000 MRC
disponibles sur le marché et proposés par différents organismes
internationaux [5]. Même s’il est élevé, le nombre de MRC est limité
et il n’est pas toujours possible d’obtenir celui ou ceux qui correspondent à la méthode qu’on veut valider.
● C’est pourquoi, l’autre méthode consiste à fabriquer un matériau de référence en commun avec d’autres laboratoires, en participant à un essai d’aptitude. Les essais d’aptitude vont donc avoir un
double intérêt :
— d’une part, pour la validation de la méthode, ils permettent de
se procurer des matériaux de référence (non certifiés) qui serviront
à vérifier la justesse ;
— d’autre part, lors de l’utilisation en routine, on pourra contrôler la
justesse de la méthode dans le temps, comme l’indique la figure 3.(0)
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
P 224 − 15
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
Tableau 4 – Organisation des essais pour vérifier la justesse et la fidélité d’une méthode de substitution
par rapport à une méthode de référence
Méthode alternative
Répétitions
Effectifs
Moyennes
Variances
Échantillons
1
2
…
ni
xi
si ( x )
1
x11
x12
…
n1
x1
s1 ( x )
…
…
…
…
…
xij
…
…
xi, ni
…
i
…
xi
2
si ( x )
…
…
xp 1
…
xp 2
…
…
np
…
…
xp
2
sp ( x )
p
…
2
2
Différences des
moyennes
Méthode de référence
Effectifs
Moyennes
Variances
Échantillons
1
Répétitions
2
…
mi
zi
si ( z )
1
z11
z12
…
z1, m1
z1
s1 ( z )
…
…
…
…
…
…
zij
…
…
zi, mi
…
i
…
zi
2
si ( z )
xi – zi
…
…
zp 1
…
zp 2
…
…
zp, mp
…
…
…
zp
2
sp ( z )
xp – zp
p
…
2
xi – zi
2
x 1 – z1
Étant donné leur importance pour assurer la qualité d’une
méthode, une exigence classique des organismes d’accréditation
est que le laboratoire participe régulièrement à un essai d’aptitude.
— si s r ( x ) < s r ( z ), il est possible de conclure que la méthode alternative présente une fidélité au moins aussi bonne que la méthode de
référence ;
■ Il existe un cas particulier, traité par la norme NF V 03-110, où le
laboratoire peut évaluer la justesse d’une méthode en cours de
validation : c’est lorsque l’on compare une méthode alternative (ou
de substitution) à une méthode de référence [20]. La procédure
consiste à effectuer une série de mesures avec la méthode alternative et la méthode de référence. Le même plan d’expérience permettra de comparer des écarts-types de fidélité et des moyennes
(justesse). Dans ce but, on va sélectionner au moins dix échantillons
représentatifs du domaine d’application et effectuer ni répétitions
pour chaque échantillon avec la méthode alternative et mi répétitions avec la méthode de référence (il se peut que ni soit différent de
mi), de façon à construire le tableau 4.
sr ( x )
2
2
- et on le compare
— si s r ( x ) > s r ( z ) , on calcule le rapport q = ------------2
sr ( z )
à une valeur critique d’une variable de Fisher au niveau de confiance
1 – α, avec N (x) – p et N (z) – p degrés de liberté. Dans ce cas, N (x)
et N (z) représentent les nombres totaux de répétitions.
La règle de décision est la suivante :
— si q est inférieur ou égal à la valeur critique au risque 1 %, il est
possible de conclure que la méthode alternative présente une fidélité compatible avec la méthode de référence ;
— si q est supérieur à la valeur critique au risque 1 %, la fidélité
n’est pas satisfaisante.
● En ce qui concerne la justesse, on va comparer les différences
d i = x i – z i entre les moyennes obtenues pour chaque échantillon.
On obtient ainsi le rapport w défini par :
Le nombre d’échantillons p et le nombre moyen de répétitions n
ou m recommandés sont p > 10 et m = n > 2. Si les échantillons
choisis ont déjà été utilisés dans des analyses interlaboratoires, des
essais d’aptitude, ou sont des matériaux de référence, leurs valeurs
de référence peuvent être utilisées pour remplir la partie du tableau
relative à la méthode de référence, sans avoir à refaire les mesures.
De même si le laboratoire estime qu’il maîtrise mal la méthode de
référence, il peut faire appel à un laboratoire extérieur pour réaliser
les mesures par la méthode de référence. Cependant, la traçabilité
de ces mesures doit être assurée et leur origine indiquée.
2
2
2
d
w = -------sd
avec sd écart-type des écarts des différences,
∑ ( di – d )
On va d’abord calculer une variance de répétabilité, selon le
principe de la norme NF ISO 5725, séparément sur chaque série de
données, ce qui donne les deux variances de répétabilité, notées
●
2
2
s r ( x ) et s r ( z ) respectivement pour la méthode alternative et la
méthode de référence.
2
2
Ensuite, on peut comparer s r ( x ) à s r ( z ) afin de vérifier si les
deux méthodes ont la même fidélité. Deux cas se présentent :
●
P 224 − 16
sd =
et
d
2
i
------------------------------p–1
moyenne des différences,
∑ di
i
d = ----------p
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
__________________________________________________________________________________________
La règle de décision est la suivante :
— si w est inférieur ou égal à 3,0, il est possible de conclure que
les deux méthodes ont la même justesse, avec un risque d’erreur
α=1%;
— si w est supérieur à 3,0, il est possible de conclure que la
méthode alternative n’est pas juste par rapport à la méthode de
référence, avec un risque d’erreur α = 1 %.
En fait, cette procédure permet de démontrer que la justesse (et
en même temps la fidélité) d’une méthode alternative est statistiquement équivalente à celle d’une méthode de référence. Mais on
ne montre pas que la méthode est juste, dans l’absolu. On part du
principe que la méthode de référence fournit la valeur vraie et, dans
bien des cas, c’est parfaitement suffisant.
■ La comparaison de méthodes est une technique classique pour
détecter le biais éventuel d’une méthode. On utilise une approche
expérimentale similaire à celle décrite par le tableau 4, c’est-à-dire
qu’on applique deux méthodes (ou plus) à une série d’échantillons.
Ensuite, on essaye de trouver une relation entre les mesures x et z
de la forme de l’équation (27) ou b0 désigne un biais constant et b1
un biais proportionnel :
x = b0 + b1 z + e
(27)
Une difficulté dans cette approche est de choisir une méthode
pour calculer b0 et b1 car la méthode des moindres carrés, comme
elle est décrite au paragraphe 3.1.1 ne peut pas s’appliquer. En effet
on ne peut pas décider quelle variable est explicative et quelle variable est expliquée. On peut donc écrire un deuxième modèle qui donnera d’autres valeurs du biais constant et du biais proportionnel :
z = b0′ + b1′ x + e ′
(28)
La solution – délicate du point de vue des calculs – consiste à
rechercher une relation fonctionnelle entre x et z qui prend en
compte les erreurs sur les deux variables. Une étude assez complète
sur cette question peut être trouvée dans les références [21] et [22].
3.8 Spécificité
Le manque de spécificité d’une méthode peut être d’origine physique, comme on l’a décrit avec l’élargissement des raies d’absorption en spectrophotométrie d’absorption atomique, mais la plupart
du temps il est dû à la présence d’analytes indésirables qui vont
« répondre » comme l’analyte recherché ou, au contraire, gêner sa
réponse. Ces analytes sont divers constituants de la matrice et/ou
les réactifs utilisés pour préparer l’échantillon : on peut donc parler
d’effets de matrice. Les effets de matrice viennent brouiller le signal
et entraînent deux conséquences néfastes :
— soit, une surestimation de la concentration de l’échantillon car
la réponse est plus élevée que ce qu’elle devrait être ;
— soit, une sous-estimation car le signal est partiellement masqué.
Exemple : en chromatographie, une mauvaise séparation de l’analyte peut induire une interférence. En spectrophotométrie d’absorption
atomique, on a décrit de nombreuses interférences pour le calcium
dues à d’autres éléments qui absorbent à la même longueur d’onde.
Lorsque l’on ne peut pas évaluer l’influence de chaque constituant
de la matrice, comme c’est le cas dans la recherche pharmaceutique
où on connaît parfaitement l’excipient, une technique globale et
commode de mise en évidence est la méthode des ajouts dosés. Elle
consiste à additionner dans l’échantillon avant, pendant ou après sa
préparation, des quantités connues de l’analyte pur. En quelque
sorte, on construit une courbe d’étalonnage dans un milieu équivalent à celui où se fait la mesure et non plus dans le seul solvant.
On trouve dans la littérature plusieurs protocoles possibles
d’ajouts dosés. Ce qui les différencie c’est un volume final constant
ou variable, un nombre d’ajouts unique ou multiple, une matrice
unique ou multiple. Le mode opératoire le plus classique consiste à
faire un ou deux ajouts à une prise d’essai constante de l’échantillon
et à ajouter au même volume final la solution préparée.
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
Réponse y
Droite d'ajout
4
Droite étalon
3 b
0
Teneur
extrapolée
Ce
a1
b1
2
a0
Ce = – b0 /b1
1
0
Concentration x
Figure 12 – Méthode des ajouts dosés classique
■ Ainsi, la méthode des ajouts dosés classique est constituée de
quatre essais :
— 1. un blanc sans matrice ni analyte qui ne contient que les solvants et les réactifs purs ;
— 2. un étalon de concentration connue ;
— 3. un échantillon de concentration inconnue ;
— 4. le même échantillon auquel on ajoute une quantité connue
de l’étalon.
On peut ainsi construire deux droites, l’une mesurée avec l’étalon
pur (la droite étalon) et l’autre en présence de la matrice (la droite
d’ajout). Si les deux droites sont parallèles, on dit qu’il n’y a pas
d’interférences, comme l’illustre la figure 12. Par simple jeu de
règles de trois on va pouvoir calculer la pente b1 et l’ordonnée
à l’origine b0 de la droite d’ajout et obtenir par extrapolation la
concentration corrigée Ce de l’échantillon :
b
C e = – -----0b1
Cependant, cette technique a plusieurs inconvénients, si on veut
s’en servir pour valider une méthode. D’abord, elle ne s’applique
qu’à un seul échantillon et il faudrait faire une série de droites
d’ajout pour couvrir le domaine d’application. Ensuite, l’extrapolation est peu recommandée car elle engendre toujours de très fortes
erreurs : l’incertitude sur Ce est très grande. Enfin, elle ne donne pas
une réponse globale sur la spécificité.
■ Une approche plus globale de la recherche des effets de matrice
est décrite dans la norme NF V 03-110 [20]. Elle consiste à effectuer
p ajouts dosés sur des échantillons choisis de façon à couvrir le
domaine d’application de la méthode et dont les teneurs xi sont déjà
connues. Ça peut être des matériaux de référence ou des échantillons ayant servi à établir la justesse de la méthode, comme ceux
du tableau 4. Le plan d’expérience est décrit au tableau 5.
(0)
Tableau 5 – Organisation des essais pour vérifier
la spécificité d’une méthode
Échantillon
1
…
i
…
p
Teneur
avant ajout
Teneur
ajoutée
Teneur
après ajout
Teneur
retrouvée
(x )
(v)
(w)
x1
…
xi
…
xp
v1
…
vi
…
vp
w1
…
wi
…
wp
( r)
r1 = w 1 – x 1
…
ri = w i – xi
…
rp = w p – x p
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
P 224 − 17
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
Les ajouts sont réalisés avec une solution étalon pure. Il est
conseillé de choisir le niveau des ajouts du même ordre de grandeur
que la teneur de l’échantillon sur lequel ils sont effectués. C’est
pourquoi les échantillons les plus concentrés doivent être dilués
pour rester dans le domaine d’application de la méthode. Là encore,
le nombre d’échantillons p doit être au moins de 10.
Ensuite, on va calculer une droite globale de recouvrement
d’ajout, en portant sur un diagramme les valeurs d’ajouts v et les
valeurs retrouvées w, ce qui revient à calculer la droite des moindres carrés :
7,0
Teneur
retrouvée r
6,0
(mg/g)
5,0
4,0
3,0
2,0
1,0
ri = c0 + c1 vi + ei
(29)
Le principe de la vérification de la spécificité consiste à tester
l’hypothèse que la pente c1 est égale à 1 et que l’ordonnée à l’origine c0 est égale à 0. En généralisant les notations introduites dans
les formules (2) et (3) du paragraphe 3.1.1, on a :
SPE vr
c 1 = ---------------SCE v
c0 = r – c1 v
et
0,0
0,0
1,0
2,0
3,0
4,0
5,0
6,0
7,0
Teneur ajoutée v (mg/g)
Droite d'ajout globale d'équation r = 0,904 v – 0,031
Droite de pente 1
Figure 13 – Exemple d’étude de la spécificité selon la procédure
proposée par la norme NF V 03-110 [20] (sur cette figure, les unités
sont les mêmes pour r et v)
De même, les formules (4), (5) et (6) fournissent la variance rési2
duelle s e et les variances des deux coefficients :
2
2
se
s c = --------------1
SCE v
2
2
2 1
v 
s c = s e  --- + ---------------
0
 p SCE v
et
Pour vérifier si la pente de la droite d’ajout globale est égale à 1,
on va effectuer un test en calculant le critère tobs qui suit une loi de
Student à p – 2 degrés de liberté :
●
c1 – 1
t obs = ----------------sc
1
— Si tobs est inférieur ou égal à la valeur critique lue dans la table
de Student au risque 1 – α/2 avec p – 2 degrés de liberté, il est possible de conclure à l’absence d’interférences et que la spécialité est
acceptable.
— Si tobs est supérieur à la valeur critique, la méthode n’est pas
spécifique.
● Pour vérifier si l’ordonnée à l’origine est égale à 0, on calcule le
critère t ′obs qui suit une loi de Student à p – 2 degrés de liberté :
c0
t ′obs = ------sc
0
— Si t ′obs est inférieur ou égal à la valeur critique lue dans la table
de Student au risque 1 – α/2 avec p – 2 degrés de liberté, il est possible de conclure que l’ordonnée à l’origine n’est pas différente de 0.
— Si t ′obs est supérieur à la valeur critique, il est possible de
conclure que l’ordonnée à l’origine est différente de 0 et que la
méthode n’est pas spécifique.
● À partir de ces résultats, on pourrait calculer un taux de
recouvrement moyen permettant de quantifier la spécificité.
Cependant, en aucun cas, il ne doit être employé pour
« corriger » les résultats. En effet, si un biais significatif est mis
en évidence, la méthode ne peut pas être validée.
● Puisque le principe du test consiste à calculer une droite, il
est important de prendre au moins 3 niveaux d’ajout et de choisir correctement leur valeur afin d’obtenir un étalement optimal
des points.
P 224 − 18
Exemple : la figure 13 illustre les résultats d’une étude de spécificité pour une méthode de détermination des sucres totaux dans les
produits carnés (en mg/g), tels que les pâtés, le jambon ou le produits
de charcuterie. La pente est égale à 0,904 et statistiquement non différent de 1,0 et l’ordonnée à l’origine (– 0,031) n’est pas différente de 0 :
on peut donc conclure que la méthode est spécifique.
3.9 Robustesse
La robustesse d’une méthode d’analyse peut être définie comme
une mesure de sa capacité à ne pas être affectée par de petites variations des conditions opératoires. Ces variations doivent refléter celles qu’on rencontre lorsque l’on transfère la méthode d’un
laboratoire à un autre ou lorsque on la remet en route. Son intérêt
est de fournir une indication sur la stabilité des mesures dans des
conditions normales d’utilisation.
Le principe du test de robustesse est donc de créer de légères
modifications des valeurs sélectionnées pour le mode opératoire
normalisé et de vérifier si elles ont une influence sur le résultat. Ces
modifications sont définies en fonction des difficultés classiques de
contrôle des paramètres opératoires.
Exemple : si on dit que la réaction doit être effectuée au bain-marie
à 35 °C et si on suppose que le système de thermostat peut varier de
± 1 °C, on va vérifier que le résultat reste inchangé lorsque la température varie entre 34 et 36 °C : en d’autres termes on va vérifier que la
température n’a pas d’effet sur la réponse.
Les paramètres ainsi étudiés dépendent du type de méthode.
Classiquement, on trouve la température, le pH, un volume ou un
débit, comme paramètres quantitatifs. Mais on peut aussi considérer des paramètres qualitatifs, comme une marque de réactif ou
d’appareil de mesure, au cas où la méthode doit être employée par
des laboratoires ayant des équipements variés.
Comme le nombre de paramètres à vérifier peut être important
(souvent proche de 10) et qu’une vérification paramètre par paramètre demanderait beaucoup d’essais, on va s’appuyer sur la méthode
des plans d’expériences pour réduire le nombre de mesures [23].
C’est pourquoi on parlera de facteurs plutôt que de paramètres. En
général, on utilise des plans factoriels fractionnaires saturés car :
— on ne cherche pas à évaluer les interactions entre facteurs ;
— chaque facteur ne prend que deux niveaux, seulement.
Exemple : le premier test de robustesse décrit dans la littérature
consistait à évaluer les effets de 7 facteurs à l’aide d’un plan factoriel
saturé 27–4 comportant 8 essais [24].
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
__________________________________________________________________________________________
Le résultat d’un test de robustesse consiste en un tableau qui indique si tel ou tel facteur a un effet significatif. On n’a donc pas une
mesure globale de la robustesse mais des mesures par rapport à différents facteurs.
Un point important à considérer est l’interprétation finale qu’on
fournit à l’issue d’un test de robustesse. Si un seul facteur a un effet
significatif, la méthode ne peut pas être validée et il est inutile de
mesurer les autres caractéristiques de validation. En effet, si un facteur n’est pas robuste cela signifie que la méthode n’est pas robuste
et ne peut pas être appliquée en routine puisque les niveaux sont
choisis de façon à refléter les légères variations que va « normalement » subir la méthode. Il faut alors recommencer l’étape d’optimisation pour mieux contrôler le facteur gênant. C’est pourquoi, il
apparaît que le test de robustesse se situe à l’interface entre le développement et la validation – comme l’indique la figure 3 – et doit
précéder toute validation.
De ce fait nous pensons que la description du test de robustesse
s’intègre mieux à la présentation des plans d’expériences et nous
conseillons aux lecteurs de se reporter à des textes plus complets
comme les références [23] et [25]. Cependant, comme ce test est
évoqué par plusieurs normes ou procédures normalisées il fallait le
présenter, dans son principe.
3.10 Cartes de contrôle
Le lecteur pourra se reporter à l’article Maîtrise statistique des processus (MSP). Utilisation des cartes de contrôle [R 290] dans le traité Mesures et Contrôle.
■ Les cartes de contrôle sont des outils utilisés pour contrôler la
stabilité d’une méthode d’analyse dans le temps. Ce ne sont donc
pas des outils de validation mais des outils de contrôle de la qualité.
Elles sont conceptuellement simples : un matériau étalon, dont on
a défini la teneur moyenne, est analysé régulièrement et les réponses obtenues sont reportées, dans l’ordre chronologique sur un graphique (cf. figure 14). Si la carte montre qu’il y a des variations
autres que celles liées au hasard, autour de la valeur moyenne, on
peut supposer que le système de mesure est perturbé. Pour faciliter
cette prise de décision, des limites de contrôle sont dessinées de
chaque côté de la valeur attendue. Il faut que les réponses restent
entre ces limites. En complément, on définit les règles qui permettent de décider si la répartition n’est plus aléatoire et les actions correctrices à entreprendre pour revenir à une situation normale.
Initialement, les cartes de contrôle ont été proposées vers 1920
par Shewart pour le contrôle des processus industriels de fabrication. Le point de départ de ces travaux consiste à supposer qu’un
système de mesure est stable s’il ne présente que des variations
aléatoires autour d’une valeur de référence et que l’amplitude de
ces variations, mesurées en nombre d’écarts-types, reste entre des
limites fixées. On dit alors qu’il est sous contrôle statistique.
La théorie sous-jacente aux cartes de contrôle est que les mesures
obtenues sous maîtrise statistique doivent se répartir selon la loi
normale. Celles qui sont en dehors des limites de contrôle sont des
mesures qui ont une très faible probabilité d’existence et sont équivalentes à des données aberrantes.
D’un point de vue pratique, on prend comme valeur cible la
moyenne arithmétique x du matériau de référence, calculée sur un
grand nombre de répétitions (n > 30). On peut aussi utiliser un matériau ayant servi dans un essai d’aptitude. Les limites de contrôle
supérieure et inférieure (LCS et LCI) vont être calculées de façon
différentes si chaque point est obtenu à l’aide d’une seule mesure
ou de m répétitions. En effet, il est souvent conseillé d’utiliser un
contrôle basé sur des mesures répétées, plutôt que sur des mesures
isolées.
■ Pour un contrôle basé sur une mesure isolée on définit les limites
de contrôle et d’alarme de la façon suivante :
LCS = x + 3 s
LCI = x – 3 s
LAS = x + 2 s
LAI = x – 2 s
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
∑ ( xi – x )
-----------------------------(n – 1)
2
avec s écart-type défini par s =
■ Pour un contrôle basé sur m répétitions les limites de contrôle
sont définies par :
s
s
LCS = x + 3 --------LCI = x + 3 --------m
m
n
m
∑ ∑ xij
=1 j=1
avec x moyenne définie par x = i--------------------------,
n⋅m
m
n
∑ ( xij – x i )
2
∑ ---------------------------------(m – 1)
i=1
--------------------------------------------- .
n
Il est évident qu’un contrôle basé sur des répétitions sera plus efficace mais aussi plus coûteux. Il n’est justifié que dans le cas où les
mesures sont rapides et simples, c’est pourquoi on le met en place
pour des mesures physiques, telles que des mesures de température ou des pesées.
j=1
s écart-type s =
On a aussi proposé d’utiliser l’écart-type de répétabilité pour éviter d’avoir à calculer s mais les limites ainsi construites sont très
étroites, ce qui peut conduire à de fréquentes actions correctrices. Il
serait préférable d’utiliser un écart-type de reproductibilité interne.
Un point délicat est de prévoir la fréquence de passage du matériau
de contrôle. Afin d’économiser le nombre d’analyses, on peut rédiger une procédure évolutive qui permet de diminuer la fréquence
aussi longtemps que le système de mesure reste stable. Il est en
effet classique de constater une amélioration de la stabilité au bout
de quelque temps qui indique une meilleure maîtrise, il est donc
logique d’en tenir compte. De toute façon, il faut prévoir au moins
un contrôle, toutes les fois qu’on utilise la méthode.
■ Les règles pour décider si un système de mesure doit être corrigé
varient d’un contexte à l’autre. Souvent on prend comme bases les
règles utilisées par la société Ford qui se résument ainsi.
Entreprendre une action correctrice dès que :
• une mesure sort des limites de contrôle,
• 7 mesures successives sont situées toutes au-dessus ou toutes au-dessous de la valeur cible,
• 8 mesures successives indiquent une tendance systématique
vers le haut ou vers le bas,
• toute répartition des mesures fait suspecter un comportement
non aléatoire.
La norme NF X 06-031 présente l’ensemble des tables qui permettent de calculer les limites de contrôle pour les cartes sur intervalles,
de même que les cartes utilisant d’autres lois de probabilité que la
loi normale, comme les comptages bactériens. Les cartes de
contrôle sont une application directe des principes statistiques des
lois de probabilité théoriques. Elles sont de plus en plus exigées par
les auditeurs des organismes de certification, au même titre que les
résultats des tests d’aptitude.
Exemple : la figure 14 représente une carte de contrôle pour le
dosage de l’azote Kjeldahl dans de la farine de blé. La ligne centrale
représente la valeur cible définie par la moyenne du matériau étalon,
les lignes pleines extérieures symbolisent les limites de contrôle et
deux autres, en tireté, ont été ajoutées, appelées limites d’alarme.
Sur cet exemple, on voit que la méthode d’analyse n’est pas sous
maîtrise statistique puisque vers le onzième point, on obtient une
valeur largement supérieure à la limite de contrôle. Une action correctrice est, par exemple, de refaire l’étalonnage du système de mesure.
En appliquant les règles de la société Ford aux données de la
figure 14, on voit que le système de mesure n’est plus stable à partir
du 14ème contrôle, puisque 7 mesures successives se situent du
même côté de la valeur cible. De même, entre les points 27 et 34, les
mesures sont toujours croissantes.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
P 224 − 19
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
Encadré 2 : place de la validation analytique
dans l’autorisation de mise sur le marché
des médicaments (1)
Concentration
(g/100g d'azote)
1,95
1,90
LCS
LAS
1,85
Valeur cible
1,80
1,75
LAI
1,70
Limite d'alarme
LCI
1,65
Limite de contrôle
1,60
0
5
10
15
20
25
30
35
40 Analyse
Numéro de
répétition
de la mesure
Figure 14 – Carte de contrôle de l’azote Kjeldahl
dans une farine de blé
Dans cet exemple la valeur cible vaut 1,77 g.kg– 1 et l’écart-type
s = 0,04 g.kg– 1. À partir de là on obtient les limites supérieures et inférieures d’alarme et de contrôle.
LCS
1, 89
LCI
1, 65
LAS
1, 85
LAI
1, 69
4. Procédures formalisées
de validation des méthodes
4.1 Guides pour l’industrie
pharmaceutique
Depuis quelques années, des structures de normalisation françaises ont entrepris de rédiger des guides qui définissent l’organisation des procédures de validation intralaboratoire. Historiquement,
la première tentative a été faite en 1986 par la Société Française de
Biologie Clinique à l’intention des laboratoires d’analyse médicale
[26]. Ce travail n’a pas connu un très grand retentissement car il
n’intégrait pas les notions d’assurance qualité et que le référentiel
Guide de Bonne Exécution des Analyses (GBEA) n’existait pas
encore.
Ensuite, en 1992, la Société des Sciences et Techniques Pharmaceutiques a développé un guide de validation à l’intention des laboratoires de l’industrie pharmaceutique contraints de conduire les
études des nouveaux médicaments sous BPL [27]. Cette proposition
a connu un succès beaucoup plus vaste puisqu’il a servi de support
pour le développement du logiciel AVA (Qualilab, Orléans) et a été
largement repris par l’International Conference on Harmonization
(ICH) (encadré 2). Cette structure internationale, créée par plusieurs
compagnies pharmaceutiques, a publié en 1996 un document qui
décrit comment rédiger un dossier de validation pour une méthode
d’analyse en conformité avec la Directive européenne 75 318 [28]
(encadré 3).
On peut voir que, pour certains critères, plusieurs approches
expérimentales alternatives sont proposées. Pour chacune de ces
propositions, on définit des nombres minimaux de mesures. C’est
donc un guide relativement précis qui est disponible. Son défaut
P 224 − 20
Les demandes d’Autorisation de Mise sur le Marché (AMM)
des médicaments sont régies par les directives européennes
75.318 et 75.319 et plusieurs règlements, juridiquement opposables. Ils sont complétés par des « Notes explicatives » et « Avis
aux demandeurs » dont l’objectif est de guider les demandeurs
pour la constitution de leur dossier ; ces documents ne présentent pas un caractère réglementaire obligatoire. Il est vivement
conseillé de les suivre pour faciliter l’élaboration des dossiers et
leur agrément par les Autorités. Lorsque les firmes ne sont pas
en mesure de les appliquer il leur appartient de justifier leur
position.
En vue de l’harmonisation internationale des dossiers
d’AMM, l’International Conference on Harmonization (ICH) a
repris les textes de la Communauté européenne (Agence européenne des médicaments), des États-Unis (Food and Drug
Administration) et du Japon (Ministry of Health and Welfare)
pour élaborer de nouveaux textes harmonisés, applicables dans
ces trois régions. Ces nouveaux textes harmonisés ont été élaborés conjointement par les autorités réglementaires et les partenaires industriels. À la fin du processus de négociation ICH
(étape 1), les textes sont mis en application par les autorités
d’enregistrement nationales (étape 5) ; ces documents remplacent alors les réglementations antérieures.
Dans le cadre de l’analyse des médicaments, les directives
européennes prescrivent la validation analytique des techniques de contrôle. Une première note explicative européenne a
été publiée. Cette note a été remplacée par deux notes explicatives issues d’ICH. Ces deux notes ont été publiées en anglais
par l’Agence européenne des médicaments et sont respectivement applicables depuis juin 1995 et juin 1997. Une traduction
française a été effectuée par la Pharmacopée Européenne et
publiée dans Pharmeuropa. Ces notes sont également disponibles sur Internet (cf. [Doc. P 224]).
(1) Cet encadré a été rédigé par F. Pellerin, Professeur honoraire à la
Faculté de pharmacie de l’université Paris-XI.
majeur, pour qu’il soit applicable à tout type de laboratoire d’analyse tient au fait que les analytes sont, en général, parfaitement
connus – ce sont des molécules de synthèse – ce qui simplifie l’évaluation de la justesse et de la spécificité.
C’est pourquoi, parallèlement, des groupes de travail AFNOR ont
proposé diverses normes qui s’adressent à des laboratoires spécialisés dans d’autres branches d’activité.
4.2 Normes
■ Un exemple très intéressant de propositions pour la validation des
méthodes est représenté par une série de normes destinées aux
laboratoires des industries agroalimentaires : NF V03-110 et V03-111.
En effet, ces laboratoires doivent faire appel à l’accréditation pour
développer un système d’assurance qualité. Or, la solution imposée
en France par le Cofrac consiste à être accrédité pour un programme
de méthodes dites de référence. Cependant, ces méthodes ont
comme caractéristiques communes d’être lourdes, anciennes et
onéreuses. C’est pourquoi, de nombreux laboratoires veulent
employer des méthodes alternatives et doivent procéder à une validation d’une méthode alternative par rapport à une méthode de
référence.
Pour simplifier le travail des laboratoires, la norme de validation
V03-110 [20] a été organisée autour de trois plans d’expérience très
formalisés afin de leur associer des méthodes statistiques clairement définies et réalisables dans tous les laboratoires avec un
tableur. En outre, cette approche permet de proposer une présentation normalisée des résultats.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
__________________________________________________________________________________________
Encadré 3
Le plan du guide ICH indique comment peut être organisée
une procédure de validation pour l’industrie pharmaceutique.
1. Spécificité
1.1 Identification
1.2 Essai et test(s) d’impureté
1.2.1 Discrimination des analytes lorsqu’il y a des
impuretés
1.2.2 Discrimination des analytes lorsqu’il n’y a pas
d’impuretés
2. Linéarité
3. Domaine d’application
4. Justesse
4.1 Essai
4.1.1 Substance active
4.1.2 Produit médical
4.2 Impuretés (quantification)
4.3 Données souhaitables
5. Fidélité
5.1 Répétabilité
5.2 Fidélité intermédiaire
5.3 Reproductibilité
5.4 Données souhaitables
6. Limite de détection
6.1 Obtenue par évaluation visuelle
6.2 Mesurée par le rapport signal sur bruit
6.3 Mesurée par l’écart-type de la réponse et de la pente
6.3.1 Mesurée par l’écart-type du blanc
6.3.2 Mesurée à partir d’une courbe d’étalonnage
6.4 Données souhaitables
7. Limite de quantification
7.1 Obtenue par évaluation visuelle
7.2 Mesurée par le rapport signal sur bruit
7.3 Mesurée par l’écart-type de la réponse et de la pente
7.3.1 Mesurée par l’écart-type du blanc
7.3.2 Mesurée à partir d’une courbe d’étalonnage
7.4 Données souhaitables
8. Robustesse
9. Vérification de la capabilité du système
● Le plan A permet de vérifier le domaine de linéarité. Il consiste
en une série de 25 mesures formées de 5 répétitions pour 5 niveaux
de concentration. Les données sont soumises à un test d’adéquation au modèle (ou de linéarité), comme celui qui est décrit au paragraphe 3.3. La méthode statistique employée s’appuie donc sur la
méthode des moindres carrés et reste accessible à tous.
● Le plan B sert à contrôler la spécificité et est organisé comme
au tableau 5. Il s’agit donc d’effectuer des ajouts dosés sur une série
d’échantillons représentatifs du domaine d’application. Là encore la
méthode des moindres carrés sert à calculer la droite de régression
entre les teneurs ajoutées et les teneurs retrouvées, comme on l’a
décrit au paragraphe 3.8.
● Enfin, le plan C permet de voir si la justesse et la fidélité de la
méthode alternative sont acceptables, en comparaison de la
méthode de référence. L’organisation et la démarche employée ont
été intégralement décrites au paragraphe 3.7.
■ Il existe, parmi les normes AFNOR, d’autres documents qui présentent des procédures de validation analogues. Par exemple la
norme XP V 03-111 sert à la « validation des méthodes qualitatives
(microbiologie) ». Elle s’intéresse donc à des mesures qualitatives –
de type présence/absence – comme on les rencontre dans la recherche des polluants microbiens. Elle consiste d’abord en une étude de
caractérisation de la méthode alternative, puis en une comparaison
des deux méthodes. Les critères classiques de justesse, de fidélité
ou de spécificité sont redéfinis à partir de comptages de mesures
discordantes et concordantes et de comptages de faux négatifs et
faux positifs.
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
■ Enfin, récemment, on a développé la norme FD V 03-115 pour
conduire une « validation avec des matériaux de référence ». Elle
s’applique au cas où le domaine d’application est bien couvert par
des matériaux de référence ou lorsqu’il n’existe pas de méthode de
référence.
■ Pour être complet, il faut signaler qu’il existe plusieurs propositions de guides de validation provenant de diverses structures de
normalisation, comme le Nordic method Council (NMKL), mais ces
textes restent souvent au niveau des principes, sans proposer une
méthodologie d’utilisation très élaborée. Enfin, l’Association of Official Analytical Chemists (AOAC) a proposé une approche méthodologique qui revient à une vérification par tierce partie (Peer-Verified Method) en dix étapes :
— le laboratoire demandeur évalue les performances de la
méthode en interne ;
— il rédige un mode opératoire normalisé ;
— il propose un protocole d’évaluation pour un autre laboratoire
indépendant ;
— il choisit ce laboratoire indépendant ;
— le laboratoire indépendant réalise des essais selon le protocole
d’évaluation proposé ;
— il transmet les résultats au laboratoire demandeur ;
— le laboratoire analyse ces données et les envoie à l’AOAC ;
— l’AOAC les transmet à l’un de ses auditeurs techniques ;
— l’auditeur technique choisit deux experts pour valider ;
— l’AOAC décide de valider ou non la méthode d’après le rapport
d’expertise.
En général, ce type de validation est plutôt proposé aux producteurs de kits d’analyse qui veulent offrir une garantie d’efficacité
minimale à leurs clients.
5. Informatisation des calculs
Pour illustrer le fait que les calculs présentés dans ce texte – apparemment complexes pour des non-statisticiens – sont en fait simples à effectuer avec des outils logiciels présents dans tous les
laboratoires, on va montrer comment les fonctions internes du
tableur Microsoft Excel® permettent de réaliser les calculs du test
de linéarité (cf. § 3.3). Pour cela, on va utiliser des données obtenues
pour étalonner une méthode d’analyse du nickel par spectrophotométrie d’absorption atomique.
Pour vérifier le domaine de linéarité, on a choisi cinq niveaux de
concentration et pour chacun on a fait cinq répétitions (p = 5 et
ni = 5). En fait, il est important de signaler qu’on a préparé 25 solutions étalons indépendantes et non pas 5 solutions sur lesquelles on
aurait répété les mesures. Ce nombre de mesures est celui qui est
recommandé pour avoir une conclusion fiable (cf. § 3.10).
Les données sont rassemblées dans le tableau 6 selon la disposition d’une feuille Excel®, avec des repères de lignes (numéros) et de
colonnes (lettres). Pour pouvoir appliquer les fonctions, elles sont
disposées sur deux colonnes :
— A4 à A28 pour les valeurs des 25 solutions étalons x ;
— B4 à B28 pour les 25 réponses y.
Pour commencer, on va calculer les diverses statistiques de la
droite des moindres carrés qui relient ces deux variables. L’ensemble des résultats des formules (2), (3), (4), (5) et (6) peut s’obtenir à
l’aide de la seule fonction DROITEREG. C’est une fonction matricielle
qui renvoie un ensemble de résultats sous la forme d’un tableau.
Pour l’appliquer, on va sélectionner la zone E4 à G8, soit dix cellules,
et saisir la formule unique =DROITEREG(B4:B28;A4:A28;VRAI;VRAI).
Cependant, au lieu de terminer cette opération en frappant sur la
seule touche {Entrée} comme on fait habituellement, on va simultanément appuyer sur les trois touches {Entrée} + {Majuscules} +
{Contrôle}. La formule va ainsi être automatiquement recopiée dans
les dix cellules et chacune contiendra un résultat différent, comme
décrit dans le tableau 7.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
P 224 − 21
VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________
(0)
Tableau 6 – Feuille Excel® : étalonnage du nickel.
Résultats de l’étude de linéarité
A
B
C
Le tableau 8 illustre les résultats ainsi obtenus. Pour plus de
détails sur les arguments utilisés par cette fonction, il est nécessaire
de regarder dans l’Aide Excel à propos de la fonction DROITEREG.(0)
D
Tableau 8 – Statistiques de régression calculées
avec la fonction DROITEREG (feuille Excel®) (1)
1 Test de linéarité
2 Nombre de niveaux
3
Étalon
5
Réponse SCE(i)
F
a1
3
Formules Excel
G
a0
4
0,0
– 0,1
4
37,647
5
0,0
1,4
5
0,640
4,701
6
0,0
1,6
8
0,993
13,571
7
0,0
2,8
8
0,0
3,3
9
3,0
122,4
10
3,0
123,7
11
3,0
124,0
12
3,0
124,8
13
3,0
125,1
14
6,0
244,7
15
6,0
244,9
16
6,0
245,2
17
6,0
245,8
18
6,0
246,9
19
9,0
366,3
20
9,0
367,5
21
9,0
368,8
10 Limite de détection
0,6645 =(G4+3*G5)/F4
22
9,0
369,9
11 Limite de quantification
1,2487 =(G2+10*G5)/F4
23
9,0
369,1
24
12,0
442,5
25
12,0
443,2
26
12,0
444,0
27
12,0
445,6
12,0
446,4 10,632 =SOMME.CARRES.ECARTS(B24:B28)
28
29
Erreur pure
7,060 =SOMME.CARRES.ECARTS(B4:B8)
7
3463,127
23
9
637772,180
4235,698
(1) La présentation des données est précisée dans le tableau 7.
4,500 =SOMME.CARRES.ECARTS(B9:B13)
3,140 =SOMME.CARRES.ECARTS(B14:B18)
À partir de cet ensemble de statistiques intermédiaires on va pouvoir calculer la limite de détection (LD) et la limite de quantification
(LQ) selon les formules (11) et (13), comme l’indique le tableau 9.
Pour clairement montrer comment les formules doivent être introduites dans le tableur, elles sont recopiées dans la colonne G. (Les
numéros de cellules font référence aux données du tableau 8). Les
valeurs ainsi trouvées, à savoir une limite de détection de
0,6645 mg.L – 1 et une limite de quantification de 1,2487, présentées
dans la colonne F (tableau 9), sont plausibles avec ce qu’on observe
habituellement.
(0)
Tableau 9 – Calcul des limites de détection et quantification
à partir d’une régression
E
F
G
8,088 =SOMME.CARRES.ECARTS(B19:B23)
33,420 =SOMME(C4:C28)
(0)
Tableau 7 – Présentation des statistiques renvoyées
par la fonction DROITEREG
Colonne 1
Colonne 2
Ligne 1
Sensibilité a1
Blanc a0
Ligne 2
Écart-type sa1
Écart-type sa0
Ligne 3
Non utilisé
Écart-type résiduel se
Ligne 4
Non utilisé
Non utilisé
Ligne 5
SCE Régression SCEy
SCE Résiduelle SCEr
P 224 − 22
10,912
De la même façon, on va combiner les données du tableau 8 pour
construire le tableau du test de linéarité selon le modèle du tableau 1.
Le résultat obtenu est représenté dans le tableau 10. Les formules
employées dans la zone de cellules F18 à J21 ont été écrites dessous,
en un seul bloc : dans la case F25 apparaît la formule de la cellule F19,
et ainsi de suite. La fonction SOMME.CARRES.ECARTS, telle qu’elle
est écrite dans la colonne D du tableau 6, a permis d’obtenir SCEi de
chaque laboratoire et leur somme est égale à SCEe comme dans la
formule (14).
En ce qui concerne l’interprétation de ce test, on vérifie d’abord
que le modèle de régression explique la variabilité observée. On
voit ainsi que la valeur du Freg (cellule I18) vaut 381670,96 et est bien
supérieure à la valeur critique correspondante (cellule J18) qui est
8,096 ; on peut donc garder l’hypothèse que ces données sont fortement corrélées. Ensuite, on constate qu’il y a une erreur de modèle
(une courbure) puisque la valeur du Fem est supérieure à la valeur
critique, respectivement 838,28 (en I19) et 4,938 (en J19). Le niveau
de risque du test apparaît lorsque l’on entre la fonction qui permet
de calculer les valeurs critiques, à savoir, =INVERSE.LOI.F. Le premier argument est ce niveau de risque, en l’occurrence 0,01 pour
1 %.
Si on effectue les mêmes calculs en se limitant aux 20 premières
solutions étalons, le test de non-linéarité n’est plus significatif et on
peut accepter un domaine de linéarité entre 0 et 9 mg.L – 1. Pour
cela, il suffit de remplacer dans la fonction DROITEREG, les zones de
cellules BA:B28 ; A4:A28 par BA:B23 ; A4:A23 et le reste des calculs
s’enchaîne automatiquement.
(0)
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
__________________________________________________________________________________________
VALIDATION INTERNE DES MÉTHODES D’ANALYSE
Tableau 10 – Étalonnage du nickel. Test de linéarité (feuille Excel®)
E
17 Source
F
G
H
I
J
SCE
Degrés de
liberté
V : Variances
F de Fisher
limites
18 Régression
637772,180
19 Erreur de modèle
20 Résiduelle
21 Total
1
637772,180
381670,96
8,096
4202,278
3
1400,759
838,28
4,938
33,420
20
1,671
642007,878
24
22
23
Formules Excel dans la zone F18 à J21
24
=F8
25
=F21-F18-F20
=C2-2
26
=C29
=G21-G19-G18 =F20/G20
27
=SOMME.CARRES.ECA
=NB(B4:B28)–1
6. Conclusion
Un premier apport de la validation sera de fournir une réponse
objective à cette question : « la méthode utilisée permet-elle vraiment de contrôler le phénomène étudié ? ».
Cependant, la validation n’est qu’une première étape dans
l’emploi des méthodes chimiométriques au laboratoire. Lorsque les
=F18/G18
=H18/$H$20
=INVERSE.LOI.F(0,01;G18;$G$20)
=F19/G19
=H19/$H$20
=INVERSE.LOI.F(0,01;G19;$G$20)
laboratoires sauront garantir ce niveau de qualité, on pourra développer des techniques d’interprétation des résultats plus sophistiquées. Les acquis de la recherche en chimiométrie fournissent déjà
des voies de réflexion. On sait, par exemple, que la combinaison de
mesures provenant de plusieurs méthodes d’analyse, à l’aide de
méthodes statistiques à variables multiples comme l’analyse en
composantes principales, facilite la mise en évidence de mécanismes complexes invisibles à des mesures isolées.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Analyse et Caractérisation
View publication stats
P 224 − 23
Téléchargement