See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/285745781 Validation interne des méthodes d'analyse Article · January 2001 CITATIONS READS 38 7,567 1 author: Max H. Feinberg 45 PUBLICATIONS 314 CITATIONS SEE PROFILE Some of the authors of this publication are also working on these related projects: Method validation & Uncertainty View project All content following this page was uploaded by Max H. Feinberg on 12 June 2018. The user has requested enhancement of the downloaded file. Validation interne des méthodes d’analyse par Max FEINBERG Docteur ès sciences Directeur de recherche à l’Institut national de la recherche agronomique (INRA) – Laboratoire de chimie analytique Professeur à l’Institut national agronomique Paris-Grignon (INAPG) 1. 1.1 1.2 Qualité des méthodes d’analyse.......................................................... Logique de l’assurance qualité................................................................... Organisation de la traçabilité des mesures ............................................... P 224 – 3 — 3 — 3 2. 2.1 2.2 2.3 Principes de validation d’une méthode ............................................. Objectifs et moyens..................................................................................... Cycle de vie d’une méthode d’analyse ...................................................... Critères de validation .................................................................................. — — — — 5 5 5 6 3. 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 3.10 Méthodes statistiques de validation .................................................. Caractéristiques d’étalonnage .................................................................... Limites de détection et de quantification .................................................. Recherche des limites du domaine de linéarité ........................................ Contrôle de la qualité d’un étalonnage...................................................... Incertitude, fidélité et justesse.................................................................... Capacité de mesure ..................................................................................... Justesse d’une méthode ............................................................................. Spécificité ..................................................................................................... Robustesse ................................................................................................... Cartes de contrôle........................................................................................ — — — — — — — — — — — 7 7 8 9 10 11 15 15 17 18 19 4. 4.1 4.2 Procédures formalisées de validation des méthodes.................... Guides pour l’industrie pharmaceutique................................................... Normes ......................................................................................................... — — — 20 20 20 5. Informatisation des calculs................................................................... — 21 6. Conclusion ................................................................................................. — 23 Pour en savoir plus........................................................................................... Doc. P 224 vec la mise en place des systèmes d’assurance qualité dans les laboratoires, la validation des méthodes d’analyse est aujourd’hui un objectif important. Elle est souvent perçue comme une contrainte car elle fait appel à des démarches statistiques mal maîtrisées par les analystes. Il faut regretter cette attitude car, le laboratoire a tout à gagner en utilisant des méthodes qui fournissent des résultats dans lesquels leurs « clients » peuvent avoir confiance. C’est une conséquence du passage de méthodes d’analyse qualitatives à des méthodes quantitatives. Ainsi, trop souvent on associe l’achat d’un nouvel appareil plus « performant » à un progrès, sans se soucier si cette performance est réelle au niveau du rendu du résultat. C’est pourquoi, il existe encore de nombreuses zones d’ombre dans la définition, et en conséquence l’évaluation, des critères de performance des méthodes. A Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation P 224 − 1 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ Le meilleur exemple est celui de la limite de détection qui est abondamment employé (en particulier par les constructeurs d’appareils) alors qu’il existe plusieurs dizaines de mode de calcul qui conduisent tous sur des valeurs différentes. Ces critères soulèvent aussi des problèmes statistiques complexes qui n’ont pas toujours reçu de solutions satisfaisantes. C’est aux analystes qu’il incombe de poser correctement ces questions afin d’obtenir des réponses claires. C’est pourquoi, nous pensons que la normalisation des modes de calcul des critères de validation des méthodes représente une approche qui, à l’heure actuelle, permettra de mieux poser ces problèmes. Principales notations Principales notations Symbole Définition Symbole a0 blanc-ordonnée à l’origine de la droite de régression SPE a1 sensibilité-pente de la droite de régression b0 ordonnée à l’origine de la droite d’ajouts v teneur ajoutée b1 pente de la droite d’ajouts w teneur après ajout Ce concentration corrigée d’échantillon x concentration de la solution CV coefficient de variation x teneur avant ajout di différence des moyennes entre une méthode alternative et une méthode de référence x moyenne des xi y réponse instrumentale mesurée e bruit de fond, résidu y moyenne sur les i et j de yij p nombre de solutions étalons coefficient de corrélation yi moyenne des valeurs yij sur les répétitions j r yˆi valeur théorique de la réponse r limite de répétabilité ou répétabilité εij erreur expérimentale r teneur retrouvée θ1 valeur vraie de a1 R limite de reproductibilité ou reproductibilité θ2 valeur vraie de a0 se écart-type résiduel 2 se estimateur de la variance résiduelle sa 0 écart-type de a0 sa 1 2 sa 0 2 sa 1 SCE Somme des Produits des Écarts aux moyennes SPExy = ∑ ( xi – x ) ( yi – y ) i Liste des indices écart-type de a1 variance du blanc a0 0 ordonnée à l’origine LD limite de détection variance de la sensibilité a1 1 pente NC niveau critique Hor Horwitz bl blanc Lim limite LQ limite de quantification Somme des Carrés des Écarts à la moyenne SCEx = ∑ ( xi – x ) i P 224 − 2 Définition 2 Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation __________________________________________________________________________________________ 1. Qualité des méthodes d’analyse Le lecteur pourra se reporter aux articles suivants : — — Qualité et assurance qualité en chimie analytique [P 280] ; Matériaux de référence [P 240]. 1.1 Logique de l’assurance qualité La qualité d’une analyse n’existe pas dans l’absolu mais se définit à partir des besoins explicites ou implicites des utilisateurs ou des clients du laboratoire. Elle s’exprime donc à plusieurs niveaux. ■ La qualité métrologique. Un besoin évident est que le résultat soit juste et qu’il reflète exactement le contenu de l’échantillon. À travers cette exigence de justesse, il apparaît qu’il faut mettre en place des systèmes de contrôle assurés par des structures indépendantes du laboratoire. ■ La qualité technique ou de capacité de mesure. Les analyses sont faites pour prendre des décisions, il faut donc que la fidélité de la méthode soit adaptée au type d’échantillon à contrôler. ■ La qualité commerciale. C’est une exigence de rapidité dans la fourniture du résultat et une recherche de prestations au coût le plus faible possible. ■ La qualité d’usage social. Ce dernier besoin s’est exprimé à la suite de considérations d’hygiène et de sécurité. Ainsi, on peut exiger l’innocuité d’une technique vis-à-vis de l’utilisateur ou de l’environnement. Pour être sûr d’atteindre ces objectifs, une logique commune a servi à élaborer les différents modèles et référentiels d’assurance de la qualité. En effet, leur but final est de mettre en place et de faire fonctionner un système qui garantisse au client les différents niveaux de qualité du résultat d’analyse. Il faut donc que les différentes opérations qui ont permis de produire le résultat soient identifiables à tout moment : elles doivent être traçables. La figure 1 schématise la logique des systèmes d’assurance qualité. Par définition, le point de départ est le besoin du client. Pour être opérationnel celui-ci doit être traduit sous la forme de spécifications techniques propres, comme : une limite de détection, un temps de réponse ou un domaine d’application. Ensuite, le laboratoire pourra mettre en œuvre des moyens techniques (les instruments et les réactifs) et un mode opératoire (la procédure) qui permettront d’atteindre ces spécifications. Enfin, pour être, parfaitement sûr que les spécifications sont atteintes, il faut valider la procédure, c’est-àdire apporter les preuves formelles que les résultats sont conformes aux objectifs. Besoin Spécification Documentation Moyens et procédure Archivage Documentation Validation de la procédure Archivage Preuves Figure 1 – Logique de l’assurance qualité VALIDATION INTERNE DES MÉTHODES D’ANALYSE Sur la figure 1 apparaissent deux opérations qui étaient généralement peu prises en compte dans les laboratoires, à savoir la documentation et l’archivage. En effet, l’assurance de la qualité exige qu’à tout moment on puisse retrouver les éléments qui ont servi à la production d’un résultat : numéros de lot des réactifs, données d’étalonnage, conditions de fonctionnement des appareils… C’est ce qu’on appelle la traçabilité des mesures. Exemple : un laboratoire de l’industrie pharmaceutique qui applique les Bonnes pratiques de laboratoire (BPL) doit garder pendant au moins 10 ans les traces des mesures effectuées dans le cadre de l’étude d’un nouveau médicament. Cette obligation réglementaire est lourde, surtout si le système d’archivage est informatisé et doit suivre l’évolution des systèmes informatiques. Cette nouvelle organisation du travail des laboratoires peut avoir des conséquences techniques intéressantes car elle montre qu’il n’est pas toujours nécessaire d’appliquer une méthode sophistiquée et onéreuse pour répondre correctement à une demande. Ainsi, à partir des spécifications, le laboratoire doit pouvoir établir les moyens analytiques optimaux à utiliser. Exemple : l’analyse du calcium dans un verre, avec une incertitude de 1,0 µg.kg– 1, ne requiert pas la même approche que l’analyse du calcium à 0,2 g.kg– 1 dans un échantillon de terre. Une autre conséquence de la logique qualité est de considérer que la production des résultats d’analyse implique trois acteurs : un producteur et un client mais aussi un organisme de contrôle qui intervient pour vérifier que la logique qualité est bien respectée. Son rôle est particulièrement net dans les domaines de la traçabilité et de la métrologie. Exemple : l’organisme de contrôle enverra des auditeurs qui vérifieront si le laboratoire utilise un système d’étalonnage reconnu, archive ses résultats et gère correctement ses documents. 1.2 Organisation de la traçabilité des mesures Établir la traçabilité consiste à fournir à tout moment les informations et les documents qui permettent de savoir comment un résultat a été obtenu. On doit pouvoir remonter de proche en proche et sans interruption jusqu’à des systèmes d’étalonnage qui auront été certifiés par des organismes officiels. Ainsi, tout équipement utilisé pour effectuer des essais ou des étalonnages doit être étalonné ou vérifié avant d’être mis en service. Le laboratoire doit disposer d’un programme et d’une procédure établis pour l’étalonnage et la vérification de son équipement, y compris l’utilisation des matériaux de référence et des étalons de référence (encadré 1). ■ La traçabilité du mesurage doit être assurée en ayant recours aux services d’étalonnage de laboratoires qui peuvent apporter la preuve de la traçabilité et de leur compétence. Les certificats d’étalonnage délivrés par ces laboratoires doivent montrer qu’il existe un lien avec un étalon primaire ou une constante naturelle reliée à l’unité SI (Système International d’unités) (encadré 1) par une chaîne continue d’étalonnages. Les certificats doivent contenir les résultats de mesure, y compris l’incertitude de mesure ou une déclaration de conformité à une spécification métrologique identifiée. Lorsqu’il est impossible d’établir la traçabilité aux unités de mesure SI ou lorsqu’elle n’est pas pertinente, d’autres moyens d’obtenir la confiance dans les résultats doivent être appliqués, comme : — la participation à un programme approprié de comparaisons inter-laboratoires ou d’essais d’aptitude ; — l’utilisation de matériaux de référence appropriés, certifiés et caractérisés ; — un essai ou un étalonnage par une méthode alternative ; — des mesurages fondés sur les rapports et la réciprocité ; — des normes ou des méthodes d’accord clairement spécifiées et convenues par toutes les parties concernées. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation P 224 − 3 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ Encadré 1 : étalons et matériaux de référence ■ Système international d’unités ou système SI : il fut créé en 1960 par la Conférence Générale des Poids et Mesures. Dans le système SI, on distingue trois classes d’unités : les sept unités de base ; les unités dérivées et les unités supplémentaires. Les unités de base sont : le mètre, le kilogramme, la seconde, l’ampère, le kelvin, la candela et la mole. ■ Étalons primaires : étalons matériels conservés par le Bureau International des Poids et Mesures (BIEM) qui servent à matérialiser, quand c’est possible, les unités de mesure. Par exemple, la masse en platine iridié du Pavillon de Breteuil sert à étalonner toutes les masses de 1 kg utilisées dans le monde, à travers un ensemble d’étalons secondaires traçables. Toutes les unités de mesure ne possèdent pas une forme matérialisée. ■ Étalons de référence : ils doivent être étalonnés par un organisme capable de fournir la traçabilité de leur valeur de référence, à partir d’étalons de référence primaires. C’est pourquoi on les appelle aussi étalons secondaires extérieurs. Par exemple, ce sont des masses qui serviront, à intervalle régulier, à vérifier l’exactitude des balances. Ces masses pourront aussi faire l’objet d’un étalonnage régulier, réalisé par un organisme compétent. Les étalons de mesure de référence doivent être utilisés seulement pour l’étalonnage et à nulle autre fin, sauf si l’on peut montrer que leur performance en tant qu’étalons de référence ne sera pas invalidée. ■ Matériaux de référence certifiés (MRC) : matériaux de référence dont la valeur est établie par un organisme compétent comme le Bureau National de Métrologie (BNM), le Bureau Communautaire de Référence (BCR) ou le National Institute for Sciences and Technology (NIST). Ils servent à matérialiser, pour un analyste et une matrice donnés, la mole. Une procédure classique consiste à déterminer la valeur de référence au moyen de méthodes d’analyse basées sur des principes variés, afin d’éviter les biais systématiques. Par exemple, on utilisera la spectrométrie d’absorption atomique, la polarographie impulsionnelle, l’activation neutronique et la spectrométrie d’émission plasma pour certifier la teneur en nickel ou en fer d’un acier. ■ Matériaux de référence : ils sont utilisés par les laboratoires d’analyse comme étalons de référence pour établir indirectement la traçabilité de la plupart des analytes vis-à-vis de la mole, pour laquelle il n’existe pas d’étalon matériel. En général, leur valeur de référence est établie par consensus, si plusieurs laboratoires ont participé à son élaboration, mais elle peut aussi être obtenue par des répétitions multiples. Chaque fois que possible, les matériaux de référence doivent être raccordés à des unités de mesure SI ou à des matériaux de référence certifiés internationaux ou nationaux. Lorsque des matériaux de référence traçables ne sont pas disponibles, les matériaux de référence interne doivent être vérifiés dans toute la mesure des possibilités techniques et économiques. Le laboratoire doit avoir un programme et une procédure pour l’étalonnage et la vérification de ses étalons de référence. Plusieurs situations peuvent alors se présenter, en fonction du type de matrice ou de l’analyte recherché : — si des étalons de référence (cf. encadré 1) peuvent être obtenus auprès d’organismes de métrologie compétents qui peuvent fournir la traçabilité jusqu’aux étalons de référence universels, ils doivent être utilisés seulement pour l’étalonnage et à nulle autre fin ; — lorsque des matériaux de référence (cf. encadré 1) traçables ne sont pas disponibles ou si l’on est en présence d’étalons internes (préparés par le laboratoire) ou extérieurs (par exemple, utilisés dans un essai d’aptitude), il convient de montrer que ces matériaux sont vérifiés dans toute la mesure des possibilités techniques et économiques. P 224 − 4 D’une façon générale, le laboratoire doit avoir rédigé des procédures qui décrivent la manutention, le transport, le stockage et l’utilisation des étalons de référence, tels que les poids, et matériaux de référence afin de prévenir toute contamination ou détérioration. Dans le cas où on ne pourrait utiliser que des matériaux de référence, comme lors d’un étalonnage d’une méthode en fluorescence X, ils doivent, si possible, être raccordés à des unités de mesure SI ou à des matériaux de référence certifiés internationaux ou nationaux. ■ Le laboratoire doit établir un système coordonné pour identifier les échantillons d’essai et d’étalonnage. L’identification doit être conservée durant toute la durée de vie de l’échantillon dans le laboratoire. Le système doit être conçu et géré de façon à garantir l’impossibilité de confondre les échantillons, physiquement ou lorsqu’il y est fait référence dans les enregistrements ou autres documents. Le cas échéant, le système doit prévoir comment se fera la subdivision ou le transfert des échantillons à l’intérieur ou hors du laboratoire lorsque plusieurs mesures doivent être effectuées sur des prises d’essai différentes. Dans ce but, l’étape de réception d’un échantillon prend un rôle prépondérant. Ainsi, à la réception de l’objet d’essai, toute anomalie ou écart par rapport aux conditions normales, telles qu’elles sont spécifiées dans la méthode d’essai ou d’étalonnage pertinente, doit être enregistré. S’il y a le moindre doute quant à l’adéquation d’un échantillon ou s’il n’est pas conforme à la description fournie ou encore si l’essai demandé n’est pas spécifié avec une précision suffisante, le laboratoire doit consulter le client pour obtenir de nouvelles instructions avant de procéder à l’essai. Le laboratoire doit établir si l’objet a été convenablement préparé ou si le client exige que la préparation soit réalisée par le laboratoire. Il n’est donc pas surprenant que la mise en place d’un système qualité commence souvent par une réorganisation de la salle de réception des échantillons. Le laboratoire doit disposer de procédures et d’installations appropriées pour éviter la détérioration ou l’endommagement de l’échantillon de travail lors de son stockage, de sa manutention, de sa préparation et de l’essai. Lorsqu’il est nécessaire de stocker ou de conditionner des objets dans des conditions ambiantes spécifiées, ces dernières doivent être maintenues, surveillées et enregistrées. Lorsqu’un échantillon ou une partie de cet objet doit être mis en sécurité (par exemple pour des raisons d’enregistrement, de sécurité ou pour permettre des essais ultérieurs), le laboratoire doit prévoir des dispositions de stockage qui protègent la condition et l’intégrité de l’objet ou des parties de l’objet. ■ La traçabilité doit devenir un souci permanent des analystes et du personnel du laboratoire. Il est alors évident que les moyens informatiques permettront de simplifier ces différentes opérations. Exemple : il n’est pas rare d’utiliser un système d’étiquettes à code-barres pour identifier un échantillon. Dès réception, le nombre convenable d’étiquettes est imprimé en fonction de la demande qui accompagne l’échantillon et à tout moment on peut savoir l’état d’avancement des analyses d’après les enregistrements réalisés par chaque cellule analytique. C’est pourquoi, lorsque des ordinateurs ou un équipement automatisé sont utilisés pour la saisie, le traitement, l’enregistrement, le rapport, le stockage ou la recherche de données d’essai ou d’étalonnage, le laboratoire doit s’assurer que : — les logiciels sont documentés avec une précision suffisante et convenablement validés ou vérifiés quant à leur aptitude à l’emploi ; — des procédures sont mises en place et appliquées pour protéger l’intégrité des données ; de telles procédures doivent inclure, mais non exclusivement, l’intégrité de la saisie ou du recueil des données, leur stockage, leur transmission et leur traitement ; — les ordinateurs et appareils automatisés sont entretenus afin de garantir un bon fonctionnement et disposent des conditions ambiantes et opérationnelles nécessaires à la préservation de l’intégrité des données. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation __________________________________________________________________________________________ 2. Principes de validation d’une méthode 2.1 Objectifs et moyens ■ Il est assez facile de se mettre d’accord sur une définition de la validation d’une méthode d’analyse. Comme l’indique la norme ISO/IEC 17025 [1] : « Le laboratoire doit valider des méthodes […] pour confirmer [qu’elles] conviennent à l’emploi prévu. La validation doit être aussi étendue que l’impose la réponse aux besoins dans l’application ou le domaine d’application donné ». Valider, c’est apporter des preuves que la méthode est adaptée à ses objectifs. ■ En fait, on ne va pas s’intéresser à la validation en tant que telle mais à la procédure qui permettra de conduire cette démonstration. Comme l’indique le même texte [1] « le laboratoire doit enregistrer les résultats obtenus et la procédure utilisée pour la validation ». Et c’est là que les désaccords vont apparaître car on confond souvent validation et procédure de validation. Cette confusion apparaît dans une définition de la Pharmacopée américaine [2] : « La validation d’une méthode d’analyse est une procédure permettant d’établir, par des études expérimentales, que les critères de performance de la méthode satisfont aux exigences prévues par les applications analytiques de la méthode. Les critères de performance sont exprimés en termes de caractéristiques analytiques. Les caractéristiques classiques qui devraient être prises en compte pour la validation des types d’essais décrits dans ce document sont […] la précision, l’exactitude, la limite de détection, la limite de quantification, la sélectivité, l’intervalle de linéarité, la robustesse » (traduction de l’auteur). C’est pourquoi dans la norme Afnor V 03-100 on propose de définir le processus de validation d’une méthode d’analyse comme « l’action de confirmer par examen et apport de preuves tangibles obtenues par des études statistiques intralaboratoires et/ou interlaboratoires que les exigences particulières pour un usage spécifique prévu de la méthode d’analyse sont satisfaites. En général, les exigences particulières portent sur le domaine d’application, la linéarité, la spécificité, la fidélité et la justesse ». Derrière cette définition vient une note qui précise que « le processus de validation d’une méthode d’analyse peut s’appuyer sur : une étude interlaboratoire… ; une étude intralaboratoire menée par comparaison à une méthode de référence… ; une étude intralaboratoire basée sur l’utilisation de matériaux de référence ». Par contre si on s’inspirait de la procédure proposée pour la production des logiciels, la validation d’une méthode d’analyse consisterait à valider séparément chacun de ses éléments : l’échantillonnage, le mode opératoire, l’équipement, et enfin le résultat [3]. Ainsi la procédure de validation consisterait en une somme de procédures intermédiaires de validation. L’intérêt de cette dernière approche – bien qu’elle soit moins classique – est de montrer qu’une procédure de validation peut conduire à deux types d’obligations : une obligation de moyens lorsque l’on décrira la méthode d’échantillonnage ou le mode opératoire et une obligation de résultats lorsque l’on calculera des critères quantitatifs de performance. Cette dualité apparaît si l’on s’intéresse aux diverses implémentations de la norme sur l’accréditation (EN 45001) en Europe. Dans un pays de droit latin, comme la France, la Comité français d’accréditation (Cofrac) a subdivisé l’accréditation en « programmes » qui se réfèrent à des normes et conduit son contrôle en vérifiant si le laboratoire possède les moyens pour appliquer les méthodes de référence normalisées (verrerie, réactifs, équipement) sans toujours se soucier des résultats. Par contre, dans les pays du Nord de l’Europe, l’accréditation consiste à vérifier que les résultats de la méthode employée (qui est quelconque) permettent bien d’atteindre un niveau de performance donné. Aujourd’hui, il y a une certaine convergence des deux approches mais l’attachement aux méthodes dites de référence reste une obligation forte pour les laboratoires français. VALIDATION INTERNE DES MÉTHODES D’ANALYSE Concrètement, la validation va se solder par la préparation d’un dossier qui contiendra deux types d’information : — une description écrite des moyens (appareils et réactifs) et du mode opératoire à mettre en œuvre pour appliquer la méthode d’analyse ; — les résultats numériques d’un ensemble d’expériences et de calculs statistiques qui serviront à établir que ces moyens et ce mode opératoire sont efficaces. Cependant, avant de s’intéresser plus en détail aux différents outils statistiques qui pourront être utilisés pour traiter les données expérimentales, il est utile de replacer la procédure de validation par rapport au cycle de vie d’une méthode d’analyse. 2.2 Cycle de vie d’une méthode d’analyse On a trop souvent tendance à décrire les méthodes d’analyse comme des procédures immuables et figées. C’est un peu l’impression que donnent les manuels et autres recueils de normes techniques. Or, comme tout procédé de production, les méthodes d’analyse naissent, évoluent et meurent. Pour clairement comprendre le rôle et la place de la validation dans la vie d’une méthode d’analyse, il est intéressant de décrire son cycle de vie depuis le moment où elle est choisie jusqu’au moment où on l’abandonne. ■ La figure 2 résume les différentes étapes de ce cycle. ● D’abord on va sélectionner la méthode, c’est-à-dire de choisir parmi toutes les méthodes physico-chimiques connues ou maîtrisées par le laboratoire celle qui doit permettre de déterminer un ou plusieurs analytes représentatifs du problème analytique à traiter. ● Ensuite, il convient de développer la méthode, c’est-à-dire mettre au point le mode opératoire et adapter la méthode aux conditions pratiques où elle va être utilisée. Exemple : il peut être nécessaire d’automatiser une méthode manuelle ou bien d’améliorer ses performances pour qu’elles soient compatibles avec le problème analytique à traiter. En général, le développement d’une méthode est synonyme d’optimisation. Lorsque la mise au point est terminée, on dispose de ce que l’on appelle dans le cadre BPL un mode opératoire normalisé ou Standard Operating Procedure (SOP). En particulier, il faut préciser le domaine d’application de la méthode, c’est-à-dire l’ensemble des matrices auxquelles elle s’applique ainsi que la gamme de concentrations utilisables. ● C’est à ce moment, et seulement à ce moment, que doit intervenir la validation. On a aujourd’hui pris l’habitude de distinguer la validation intralaboratoire de la validation interlaboratoires. La première est universelle et obligatoire pour toutes les méthodes. La seconde – souvent plus lourde – n’intéresse en principe que les méthodes qui seront utilisées par plusieurs laboratoires ou dont les résultats peuvent servir à des décisions économiques. Sélection Développement Revalidation Utilisation en routine Validation intralaboratoire Validation interlaboratoires Figure 2 – Cycle de vie d’une méthode d’analyse Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation P 224 − 5 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ Exemple : dans l’industrie pharmaceutique, il sera inutile (voire impossible) de procéder à la validation interlaboratoires d’une méthode qui sert, en interne, à l’étude d’une molécule non encore mise sur le marché. Par contre, dans les industries agroalimentaires, il faudra toujours procéder à une validation interlaboratoire pour une méthode qui servira à mesurer la conformité d’une denrée. Dans ce cas, il peut y avoir une contre-expertise et, pour interpréter son résultat, il importe de savoir selon quelle amplitude deux résultats fournis par deux laboratoires indépendants peuvent « normalement » différer (cf. § 3.5.1). ● Si la validation se révèle conforme, le cycle de vie va se poursuivre par une utilisation de la méthode en routine. Au bout d’un certain temps, on peut être amené à abandonner la méthode et à entamer un autre cycle car elle est devenue obsolescente. Dans d’autres cas, on peut simplement faire des modifications et, selon leur importance, appliquer une procédure plus ou moins complète de revalidation de la méthode. En effet, on doit effectuer une revalidation toutes les fois où l’on introduit une modification « mineure » de la méthode. Par contre, si l’on fait une modification « majeure », il faut appliquer à nouveau la procédure complète de validation. Il est délicat de définir une échelle exacte d’importance des modifications : cette appréciation peut être laissée au savoir-faire de l’analyste. Toutefois, les organismes d’accréditation ont-ils tendance à juger mineur un changement de réglage, comme laisser « 20 min au bain-Marie » au lieu de « 15 min », et majeure toute modification qui affecte le principe de la méthode. Mais la question peut être délicate. Ainsi, un changement de solvant d’extraction doit-il être considéré comme mineur ou majeur ? C’est selon le contexte. 2.3 Critères de validation Si on entre plus dans le détail du contenu des diverses étapes de la figure 2, il est possible de mieux appréhender ce que l’on attend des deux types de validation [4]. La figure 3 précise un ensemble de critères ou de procédures propres à chaque étape du cycle de vie. Plans d'expériences Optimisation Sélection Développement Choix des analytes Type de méthode Type de signal Réglages instrumentaux optimisés Mode opératoire normalisé Savoir-faire Test de robustesse Utilisation en routine Plan de contrôle Plan d'échantillonnage Capacité de mesurage Procédure de validation Cartes de contrôle Essai d'aptitude Validation interlaboratoires Validation intralaboratoire Justesse Spécificité Linéarité Répétabilité interne Sensibilité Limite de détection Limite de quantification Reproductibilité Répétabilité Analyse interlaboratoires Figure 3 – Critères et procédures de validation liés au cycle de vie d’une méthode d’analyse (les sujets traités dans cet article sont en gras) P 224 − 6 ■ Lors de la sélection, on va d’abord poser clairement le problème analytique à résoudre. Il s’agit de le transformer en une recherche d’un ou plusieurs analytes, ce qui peut être une opération difficile. Exemple : pour appréhender le niveau de pollution d’une rivière, il faut choisir un ou plusieurs analytes qui mesurent la qualité de l’eau sous différents aspects, comme la concentration en carbone organique total, la demande biologique en oxygène ou l’oxydabilité au KMnO4. Les résultats de ces déterminations pourront être combinés en un indice global ou utilisés séparément. Pour sélectionner une méthode d’analyse, la littérature spécialisée propose des solutions plus ou moins pratiques : il faudra en choisir une qui réalise un bon compromis technique et économique. Exemple : ainsi, il existe plusieurs centaines de publications sur la détermination des vitamines dans les aliments, alors que seulement quelques méthodes sont aujourd’hui reconnues comme pouvant être utilisables en routine. Dans tous les cas, l’analyste procédera en fonction de son savoirfaire et du matériel dont il peut disposer, quitte à investir dans un nouvel appareillage. C’est cette notion de savoir-faire qui est indiquée sur la figure 3. ■ Ensuite intervient l’étape de mise au point qui permettra d’adapter et de stabiliser le mode opératoire ; on va optimiser le mode opératoire et le réglage de l’instrument de mesure en recherchant les meilleures conditions de fonctionnement. L’optimisation conduit à un mode opératoire normalisé. Les diverses techniques en relation avec la méthodologie de la surface de réponse, comme les plans d’expériences ou le simplexe, sont sûrement les moyens les plus efficaces – bien que peu utilisés – pour conduire cette étape. À ce propos, il faut signaler le test de robustesse qui est une application de la méthode des plans d’expériences (cf. § 3.8). Il est parfois présenté comme partie intégrante de l’étape de validation ce qui est une erreur. En effet, si la méthode se révèle non robuste, on ne peut pas la valider. Le test de robustesse doit donc intervenir dans la phase finale du développement ou comme procédure efficace de revalidation. ■ Les critères qui seront calculés lors des étapes de validation intra- ou interlaboratoires présentés en caractères gras figure 3 seront définis en détail dans la suite du texte (§ 3). Pratiquement, il faut que la fidélité de la méthode permette de mettre en évidence les variations naturelles de l’objet de l’analyse. Exemple : si on accepte une tolérance de 1 g/100g dans la fabrication de steak haché à 5 g/100g de matières grasses, il faut que la capacité de mesurage de la méthode de contrôle, soit au moins de 1 g/100g. Avant de décrire quelques procédures de validation qui ont fait l’objet d’une harmonisation (§ 4), nous présenterons les principaux critères pour lesquels il existe des méthodes relativement bien établies de calcul (§ 3). ■ Enfin, lors de l’utilisation en routine de la méthode, il faudra mettre en œuvre des outils de contrôle de la qualité. On sait qu’un grand principe méthodologique du contrôle de qualité est la Maîtrise Statistique des Procédés ou MSP (Statistical Process Control ou SPC). Il conduit à l’établissement de cartes de contrôle et concerne la fidélité [5]. Mais il existe aussi une autre technique pour maîtriser la justesse qui consiste, pour le laboratoire, à participer à un test d’aptitude aussi appelé essai d’aptitude ou test de compétence (proficiency testing). Cette méthode sera évoquée à propos des différentes analyses interlaboratoires (cf. § 3.5.2). C’est en confrontant les performances de la méthode aux exigences du plan d’échantillonnage proposé par le client qu’on pourra vérifier la capacité de mesure (§ 3.6). Ce critère, bien connu dans l’industrie est directement lié à la technique des cartes de contrôle. Il est défini de façon assez abstraite dans la norme ISO/IEC 17025 [1] comme « la capacité du meilleur mesurage … normalement inférieure à l’incertitude de mesure réelle en raison du comportement non idéal de l’objet étalonné ». Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation __________________________________________________________________________________________ 3. Méthodes statistiques de validation VALIDATION INTERNE DES MÉTHODES D’ANALYSE Réponse y Observée Le lecteur pourra aussi se reporter aux articles suivants : — — — yi Plans d’expériences [P 230] ; Modélisation et calcul de l’incertitude d’un résultat [P 260] ; Limite de détection [P 262]. ^ y i Prédite ^ Distance : yi – y i a1 3.1 Caractéristiques d’étalonnage Pente (sensibilité) 3.1.1 Sensibilité et blanc Les méthodes quantitatives d’analyse nécessitent un étalonnage dont le but est de construire un modèle mathématique qui sert à prédire les concentrations d’échantillons. Dans ce cas, l’instrument de mesure est vu comme une boîte noire dont l’entrée est l’analyte pur, souvent introduit sous la forme d’une solution étalon. La fonction de réponse de l’instrument le transforme en un signal électrique qui représente la sortie du système. Ce système subit des perturbations aléatoires dues à son environnement, comme les variations de température, les pollutions externes, l’instabilité de la tension électrique, les vibrations… L’ensemble de ces perturbations forment le bruit de fond. On va ainsi pouvoir proposer un modèle mathématique dans lequel on désigne par : x la concentration de la solution étalon ; y la réponse instrumentale mesurée ; e le bruit de fond ; ƒ la fonction de réponse de l’instrument. Une partie du modèle est déterministe et peut s’écrire y = ƒ(x). Mais pour tenir compte du bruit de fond, on doit lui ajouter une variable aléatoire e, supposée normale. Ainsi, pour une solution étalon de concentration xi , la réponse observée yi est modélisée de la façon suivante : yi = ƒ(xi) + ei • • • • Pour différencier les deux parties de ce modèle, on note ŷ i la valeur théorique fournie par la partie déterministe. La différence entre yi et ŷ i s’appelle le résidu et elle est égale à ei : yi = ŷ i + ei ei = yi – ŷ i Le point de départ d’un étalonnage repose sur le choix d’un modèle correct. Dans la majorité des cas, les méthodes s’appuient sur des phénomènes physico-chimiques qui peuvent se ramener à un modèle linéaire, au moins pour une certaine gamme de concentration. Mais, pour certains types de détermination, les mécanismes sont moins bien connus et on doit utiliser des modèles plus compliqués non linéarisables. Finalement, le modèle le plus fréquemment utilisé est du type : yi = a0 + a1 xi + ei (1) Ordonnée à l'origine (blanc) a0 La figure 4 illustre l’interprétation physique des deux coefficients : a0 le blanc qui correspond à la réponse en absence d’analyte et a1 la sensibilité ou la pente du modèle d’étalonnage. Le problème de l’étalonnage revient à calculer a0 et a1 à l’aide des réponses de p solutions étalons xi (1 < i < p). Pour cela on utilise la méthode de régression linéaire selon le critère des moindres carrés [6]. Elle est bien adaptée à ce problème car il existe une relation de causalité entre les deux variables. On dit que y est une variable expliquée ou dépendante et que x est une variable explicative ou indépendante. Concentration x Figure 4 – Principe de la méthode des moindres carrés Le principe de la méthode des moindres carrés consiste à calculer les coefficients a0 et a1 en minimisant la somme S des carrés des distances entre valeurs observées yi et les valeurs prédites ŷ i . Cette condition – qui a donné son nom à la méthode – est posée sous la forme : S = Σ (yi – ŷ i )2 → minimum Pour conduire les calculs, on suppose que les valeurs aléatoires du bruit de fond ei sont distribuées selon des lois normales de moyennes nulles et de même variance théorique σ2. Elles sont indépendantes, ce qui signifie qu’elles ne sont pas liées entre elles et que, par exemple, on a préparé chaque solution étalon indépendamment les unes des autres. Cette remarque est importante car il peut arriver que les solutions étalons soient préparées par dilutions successives, à partir d’une seule solution, ce qui est en contradiction avec ces hypothèses [6][7][8]. Finalement, le calcul des estimations des coefficients se ramène aux deux formules suivantes : avec x La valeur théorique devient : ŷ i = a0 + a1xi xi 0 y SPE xy a 1 = ----------------SCE x (2) a0 = y – a1 x (3) 1 moyenne des xi : x = --p 1 moyenne des yi : y = --p p ∑ xi , i=1 p ∑ yi , i=1 SCE Somme des Carrés des Écarts à la moyenne : p SCE x = ∑ ( xi – x ) 2 , i=1 SPE Somme des Produits des Écarts à la moyenne : p SPE xy = ∑ ( xi – x ) ( yi – y ) . i=1 Dans ces formules, p représente le nombre de solutions étalons. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation P 224 − 7 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ ■ Il est aussi possible de fournir un estimateur de la variance rési2 duelle σ2, noté s e et calculé à partir de la formule suivante : p 2 se ∑ ( yi – ŷi ) 2 2 SCE y – a 1 SPE xy = --------------------------------- = -------------------------------------------p–2 p–2 i=1 2 se 2 s a = -------------1 SCE x (5) 2 2 2 1 x s a = s e --- + --------------- 0 p SCE x (6) ■ Puisque l’on peut calculer des variances, on va pouvoir calculer des intervalles de confiance. Ils font intervenir une variable de Student à ν = p – 2 degrés de liberté pour un niveau de confiance réparti de chaque côté de l’intervalle 1 – α/2, notée t1 – α/2, ν. Si on appelle θ1 et θ0 les valeurs vraies de la pente et de l’intersection : a0 – t1 – α/2, ν sa0 < θ0 < a0 + t1 – α/2, ν sa0 (7) a1 – t1 – α/2, ν sa1 < θ1 < a1 + t1 – α/2, ν sa1 (8) Avec l’intervalle de confiance du blanc, on peut vérifier très facilement si la droite passe par le zéro. Si la valeur 0 est contenue dans cet intervalle, on peut accepter l’hypothèse que la droite passe effectivement par le blanc. Il serait alors possible de se ramener à un modèle plus simple, du type yi = a0 + a1xi . Mais avant de prendre cette décision, il ne faut pas perdre de vue que le blanc est souvent une mesure aléatoire, liée à une remise à zéro volontaire de l’instrument de mesure. Le bruit de fond peut donc modifier sa valeur, même si, en moyenne, il est égal à 0. Nota : d’un point de vue pratique, il ne sera pas nécessaire de développer ces différentes formules car de nombreux moyens de calcul informatisés contiennent les fonctions nécessaires. Ainsi, le tableur Microsoft Excel® propose une fonction DROITEREG qui permet d’obtenir tous les résultats d’un seul coup comme on va le voir au paragraphe 5. 3.1.2 Étalonnage inverse La procédure qui a été décrite est utilisable pour ce que l’on appelle l’étalonnage direct d’une méthode. L’étalonnage inverse consiste à prédire la concentration xk , d’un échantillon inconnu k qui donne une réponse mesurée yk . Pour faire cette prédiction, on va utiliser les mêmes coefficients que ceux de la formule (1) mais en les combinant dans un modèle différent : yk – a0 x k = ----------------+ e k′ a1 L’erreur e k′ est plus grande que le bruit de fond ei, utilisé dans la méthode des moindres carrés, puisqu’elle contient le bruit de fond et l’erreur sur l’échantillon ; ce qui pose un problème délicat si on veut estimer l’intervalle de confiance xk . Une solution consiste à répéter les mesures de yk . On va noter ykj ces répétitions avec 1< j < m. En général, on peut prendre m = 3. On peut alors calculer une réponse moyenne y k : m ∑ ykj j=1 y k = ----------------m se 1 1 ( y k – y ) - s x ≈ ------ ---- + ----- + -------------------------a 1 N m a 2 ⋅ SCE 1 x (4) ■ La variance résiduelle sert ensuite à calculer les variances de la sensibilité et du blanc. En effet, les coefficients a0 et a1 ne sont pas des constantes mais bien des variables aléatoires ; si on répète l’étalonnage on ne trouvera pas deux fois les mêmes valeurs : P 224 − 8 On peut ainsi calculer une approximation de l’écart-type de la valeur prédite xk en appliquant la formule suivante qui fait intervenir l’écart-type résiduel se déjà décrit (4) : Un intervalle de confiance de la valeur vraie de la concentration de l’échantillon ξk, s’écrit alors : y k – a0 y k – a0 ------------------- – t 1 – α ⁄ 2 s x < ξ k < ------------------- + t1 – α ⁄ 2 sx a1 a1 avec t1 – α/2 variable de Student à N – 2 degrés de liberté, N nombre de solutions étalons utilisées pour calculer a0 et a1. Au premier abord, cette méthode pour calculer l’incertitude d’un résultat d’analyse semble simple mais elle présente l’inconvénient d’obliger à multiplier les mesures, puisqu’il faut faire des répétitions sur l’échantillon inconnu et connaître le nombre de solutions étalons qui ont été utilisées. C’est pourquoi, cette approche n’a jamais connu un grand succès dans les laboratoires. Nous verrons comment il est possible de proposer une approche plus globale à partir de la notion de répétabilité. 3.2 Limites de détection et de quantification Le lecteur pourra aussi se reporter à l’article Limite de détection [P 262] du présent traité. ■ Bien que la limite de détection (LD) soit un critère très utilisé en chimie analytique, on rencontre malheureusement de très nombreuses définitions qui créent des confusions [9]. Celle proposée par la norme FD V 01-000 est la suivante : « La limite de détection est la plus petite concentration de l’analyte pouvant être détectée, mais non quantifiée, dans les conditions expérimentales décrites de la méthode. » On peut essayer de traduire la définition de la LD en termes statistiques en disant qu’elle correspond à la concentration au-dessus de laquelle on a une faible probabilité de se tromper en acceptant l’hypothèse qu’un échantillon qui ne contient pas l’analyte (blanc échantillon) contient en fait l’analyte. Ce risque d’erreur (dit type I) est habituellement noté α dans les livres statistiques. De même, il est aussi possible d’introduire le risque d’erreur (dit type II) noté β pour définir ce que l’on appelle généralement le niveau critique (NC). C’est la concentration au-dessous de laquelle on a peu de risque d’affirmer qu’un échantillon qui contient réellement l’analyte est un échantillon blanc. Le niveau critique est, bien sûr, plus élevé que la limite de détection. La figure 5 illustre ces deux concepts complémentaires. Pratiquement, le calcul de la limite de détection revient à faire un test d’égalité entre la valeur de la réponse instrumentale et la réponse pour un échantillon blanc. Puis on recherche la limite, notée yLD, à partir de laquelle on rejetterait l’hypothèse au niveau de confiance 1 – α. Finalement, on obtient les deux formules suivantes : yLD = t1 – α sbl yNC = yLD + t1 – β sbl = (t1 – α + t1 – β) sbl avec sbl écart-type d’un blanc, t1 – α et t1 – β variables de Student. Dans ce cas, le nombre de degrés de liberté de la variable de Student est égal à n – 1 ou n représente le nombre de mesures effectuées pour calculer sbl. Cependant, les valeurs yLD et yNC sont exprimées dans les mêmes unités que la réponse. Il faut donc les Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation __________________________________________________________________________________________ ■ En conclusion, ces recommandations restent délicates d’application dans bien des cas. En fait, elles posent la notion de « blanc ». On peut en distinguer plusieurs types : — le blanc instrumental qui correspond au bruit de fond moyen de l’appareil de mesure et est souvent non mesurable sur les instruments modernes qui subissent un lissage très énergique du signal ; — le blanc réactif qui peut être très important pour les méthodes de recherche des traces et qui viendra fausser le calcul de la LD ou de la LQ ; — le blanc matrice ou blanc échantillon qui est censé représenter l’effet de matrice et dont l’écart-type prend en compte la variabilité naturelle des échantillons. Réponse 1 – β = 99 % α = 1% xLD Limite de détection xNC Concentration Niveau critique Figure 5 – Limite de détection et niveau critique 3.3 Recherche des limites du domaine de linéarité diviser par la sensibilité a1, afin d’avoir une expression de la limite de détection et du niveau critique dans la même unité que la concentration, soit : (9) y NC ( t 1 – α + t 1 – β ) s bl x NC = --------- = -----------------------------------------a1 a1 (10) L’application pratique des formules (9) et (10) soulève deux problèmes : — le choix d’un échantillon pour calculer sbl l’écart-type du blanc ; — le nombre de mesures qui sert à calculer le nombre de degrés de liberté. Pour simplifier les formules, on peut supposer qu’on a fait beaucoup de mesures (n > 20) et que α = β = 1 % et ainsi remplacer t1 – α = t1 – β ≈ 3,0 ou une valeur approchante. En ce qui concerne sbl on peut utiliser l’écart-type du blanc obtenu lors de l’étalonnage et fourni par la formule (6). Cette solution très commode est d’autant plus exacte que l’étalonnage a été réalisé, comme c’est parfois le cas, en présence d’une matrice, par ajouts dosés (§ 3.7). On obtient ainsi les formules (11) et (12) : a0 + 3 sa x LD = -----------------------0a1 (11) a0 + 6 sa x NC = -----------------------0a1 (12) ■ En outre, on rencontre dans la littérature une autre caractéristique, appelée limite de quantification (LQ), définie de la manière suivante dans la norme FD V 01-000 : « La limite de quantification est la plus petite concentration de l’analyte pouvant être quantifiée avec une incertitude acceptable, dans les conditions expérimentales décrites de la méthode. » Selon [10], il s’agit de la plus petite concentration que l’on peut quantifier avec sûreté comme étant différente du blanc. Elle n’a pas de signification statistique mais correspond plutôt à une pratique des analystes qui font la différence entre un échantillon réellement blanc et un échantillon non quantifiable. Selon les mêmes notations sa valeur est : a 0 + 10 s a x LQ = --------------------------0a1 Selon la norme FD V 01-000 la « linéarité est la capacité d’une méthode d’analyse, à l’intérieur d’un certain intervalle à fournir une réponse instrumentale ou des résultats proportionnels à la quantité en analyte à doser dans l’échantillon pour laboratoire. Cette proportionnalité s’exprime au travers d’une expression mathématique définie a priori ». En outre, « les limites de linéarité sont les limites expérimentales de concentrations entre lesquelles un modèle d’étalonnage linéaire peut être appliqué avec un risque d’erreur connu (généralement pris égal à 1 %) ». ■ La méthode proposée pour réaliser cette vérification utilise des concepts introduits par la méthode des moindres carrés. La recherche de la limite de linéarité met en œuvre un test d’erreur d’adéquation du modèle (lack-of-fit test), basé sur l’analyse de variance. Ce test consiste à décomposer la somme des carrés des écarts des réponses, notée SCEy , selon l’équation suivante : ∑ ∑ ( yij – y ) i j 2 y LD t 1 – α s bl x LD = -------- = ------------------a1 a1 Le lecteur pourra se reporter utilement à la référence [4]. ■ Pour la grande majorité des méthodes, le choix d’un modèle linéaire est souvent correct mais pour une gamme de concentration donnée ; au-delà d’une certaine limite, cette hypothèse est fausse. Une des premières étapes de validation d’une méthode va donc consister à définir le domaine de concentration où on peut affirmer, avec un faible risque d’erreur, que le modèle d’étalonnage est bien linéaire. Si on observe une courbure, il sera indispensable de réduire la gamme étalon de façon à obtenir un véritable domaine de linéarité. Cette limite deviendra une frontière que l’on s’interdira absolument de franchir et qui sera un des éléments fondamental du domaine d’application de la méthode. Pour certaines méthodes, il peut arriver qu’on choisisse un modèle d’étalonnage plus complexe : nous ne traiterons pas ce cas de figure. SCE y avec i = ∑ ∑ ( yij – yi ) i 2 j + ∑ ni ( yi – ŷi ) i 2 + ∑ ni ( ŷi – y ) i 2 Échantillon 0 blanc Devant cette situation complexe et mal maîtrisé sur le plan statistique, les procédures formalisées de validation proposent généralement plusieurs solutions et l’analyste doit appliquer celle qui est la mieux adaptée à la méthode employée, c’est-à-dire celle qui donne une mesure de LD ou LQ la plus en rapport avec sa propre évaluation subjective des capacités de détection. yLD yNC VALIDATION INTERNE DES MÉTHODES D’ANALYSE SCE e SCE em SCE reg (14) numéro du niveau d’étalonnage, varie de 1 à p, j numéro de répétition, varie selon le niveau d’étalonnage de 1 à ni, y moyenne sur i et j des yij, y i moyenne sur j des yij, (13) ŷ i valeur théorique de yi . Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation P 224 − 9 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ Si on utilise la notation SCE, on peut réécrire la formule (14) sous une forme plus condensée : SCEy = SCEe + SCEem + SCEreg SCEreg représente la somme de carrés des écarts due à la régression et SCEem celle due à une erreur de modèle. Dans ce cas, SCEem sera interprétée comme une mesure de la non-linéarité puisque le modèle choisi est une droite mais ce test est applicable à tout type de modèle. SCEe désigne la somme de carrés des écarts due à l’erreur pure. Ainsi, on construit le tableau 1 où N désigne le nombre total de mesures, soit : p N = ∑ ni (15) i=1 (0) Tableau 1 – Test de linéarité Somme Sources Degrés de carrés de variation de liberté des écarts Régression SCEreg 1 Erreur de modèle SCEem p–2 Erreur pure SCEe N–p Total SCEy N–1 Variances F de Fisher Vreg = SCEreg V reg F reg = ---------Ve SCE em = -----------------p–2 V em = ---------Ve V em F em SCE V e = --------------eN–p Ce tableau va permettre de vérifier deux hypothèses : — si la valeur de Freg définie dans le tableau 1 est supérieure à la valeur limite lue dans la table de Fisher pour F1 %, 1, N – p, on peut conclure que la régression explique bien une grande partie de la variation. C’est une conclusion normale puisque les variations de x sont censées expliquer celle de y ; — si la valeur de Fem est inférieure à la valeur limite lue dans la table de Fisher pour F1 %, p – 2, N – p, on peut conclure qu’il n’y a pas de courbure et accepter la gamme étalon choisie comme domaine de linéarité. Nota : les calculs, apparemment compliqués, sont en fait simples à conduire si on utilise un tableur comme le décrit le paragraphe 5. 3.4 Contrôle de la qualité d’un étalonnage Ce critère a été développé pour mesurer la corrélation, c’està-dire la liaison entre deux variables et non pas la qualité de la régression. Le coefficient de corrélation est toujours compris entre –1 et +1. Un test permet de montrer s’il est significativement différent de 0 : on dit alors que les deux variables sont corrélées. Mais en aucun cas ce test ne permet de dire s’il est significativement égal à 1 ! C’est donc une grave erreur que de l’utiliser pour ce type de conclusion. Dans le cas d’un modèle d’étalonnage, la forte corrélation entre la réponse et la concentration ne peut pas être mise en doute puisqu’elle est à la base théorique de la méthode d’analyse employée. C’est pourquoi, le coefficient de corrélation r est en général (et heureusement) très élevé ; il est encore plus élevé si les solutions étalons, choisies par l’expérimentateur, sont regroupées aux deux extrémités du domaine d’étalonnage : il est plus facile de faire passer une droite par deux points. Mais on ne peut pas déduire que de légères variations de r soient représentatives de la qualité de l’étalonnage, car ce critère est très peu sensible à des variations aléatoires. Il est donc tout à fait illusoire de penser qu’une baisse ou une augmentation du coefficient de corrélation permettra de vérifier si l’étalonnage est correct. ■ Par contre, une approche plus intéressante consiste à calculer l’intervalle de confiance joint du blanc et de la sensibilité. Dans les formules (7) et (8) on avait proposé de calculer des intervalles de confiance séparés pour le blanc et la sensibilité. La formule de l’intervalle de confiance joint est la suivante : n ( a 0 – θ 0 ) + 2 ∑ x i ( a 0 – θ 0 ) ( a 1 – θ 1 ) + ∑ x i ( a 1 – θ 1 ) = 2 s e F 2, n ′, α (16) 2 2 i 2 2 i avec θ0 et θ1 valeurs vraies de la sensibilité et du blanc, valeurs qu’on obtiendrait en faisant un nombre infini de mesures, F2, n’, α valeur d’une variable de Fisher au risque α, pour 2 et n’ = N – 2 degrés de liberté, N nombre total de couples de mesures. Lorsque θ0 et θ1 varient, on obtient une ellipse centrée sur le point de coordonnées a0, a1. Cette ellipse est un peu délicate à dessiner mais elle donne un moyen très efficace pour vérifier si un nouvel étalonnage est conforme à ceux obtenus précédemment. À titre d’exemple, l’ellipse de confiance jointe de la sensibilité et du blanc d’un étalonnage est présentée sur la figure 6. Elle représente la zone d’acceptation d’un nouveau couple sensibilité, blanc. Les valeurs situées en dehors, comme le rond, indiquent que l’étalonnage n’a pas donné les résultats attendus et une action correctrice doit être entreprise pour rectifier cette erreur. Par contre, si un couple de valeurs est situé à l’intérieur de l’ellipse, comme celui symbolisé par une étoile, on considère que les résultats d’étalonnage obtenus sont acceptables et traçables par rapport à des résultats antérieurs. Blanc θ0 3,5 3,0 2,5 La méthode des moindres carrés permet aussi de proposer une procédure pour contrôler la qualité d’un étalonnage à chaque fois qu’on utilisera la méthode d’analyse. ■ Avant d’aller plus loin, il est intéressant d’évoquer un critère souvent présenté comme très efficace pour contrôler un étalonnage : le coefficient de corrélation noté r et dont la formule de calcul est la suivante : SPE xy ∑ ( xi – x ) ( yi – y ) r = ---------------------------------- = ----------------------------------------------------------------2 2 SCE x SCE y ∑ ( xi – x ) ∑ ( yi – y ) P 224 − 10 Acceptable 2,0 1,5 1,0 Inacceptable 0,5 0 40,4 40,5 40,6 40,7 40,8 Sensibilité θ1 Figure 6 – Contrôle de qualité d’une droite étalon Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation 40,9 41 __________________________________________________________________________________________ VALIDATION INTERNE DES MÉTHODES D’ANALYSE 3.5 Incertitude, fidélité et justesse Le lecteur pourra se reporter à l’article Modélisation et calcul de l’incertitude d’un résultat [P 260]. 3.5.1 Incertitude de mesure Le fait qu’un résultat varie, si on répète les mesures, est un problème connu de tous les expérimentateurs. Pour caractériser cette variabilité, on a introduit la notion d’incertitude. Ce terme doit être préféré à celui de précision qui a été utilisé dans trop d’acceptions différentes pour être encore clairement compris. Selon une définition récente, l’incertitude est un « paramètre associé à une mesure ou à un résultat pour caractériser la dispersion raisonnable que l’on peut associer au mesurande » [11]. En outre, les textes les plus récents sur l’assurance qualité prévoient que le laboratoire doit disposer d’une procédure pour estimer l’incertitude de mesure « chaque fois que le client demande les incertitudes de mesure se rapportant à des essais spécifiques ou lorsqu’il est probable que l’incertitude compromettra la conformité à une spécification ». Il est facile de voir que cette définition est proche de celle de l’intervalle de confiance. En effet, ce critère permet de calculer un intervalle de variation où il est vraisemblable que se trouve la valeur vraie d’une statistique (moyenne, sensibilité, blanc…) en prenant le risque noté α que l’intervalle ainsi formé ne la contienne pas. Les formules (7) et (8) montrent comment le calcul d’un intervalle de confiance revient à multiplier l’écart-type d’une statistique par un coefficient qui tient compte de α. La préparation d’une procédure pour l’expression de l’incertitude va principalement porter sur le calcul de l’écart-type. Une approche métrologique traditionnelle consiste à décomposer les différentes sources d’erreur et à la combiner de façon à prévoir l’incertitude du résultat. On l’utilise le plus souvent pour les mesures physiques. Elle part du principe que la variable aléatoire x est une fonction quelconque de deux variables aléatoires u et v (ou plus). Sa variance est obtenue par la formule (17) : ∂x 2 2 ∂x ∂x ∂x 2 2 2 x = ƒ ( u, v ) ⇒ s x = ------- s u + ------ s v + 2cov ( u, v ) ------- ------ ∂u ∂v ∂u ∂v (17) ∂x avec ------dérivée partielle de x par rapport à u, ∂u cov(u, v) covariance entre les deux variables. Dans la pratique, il est rare qu’on connaisse la fonction qui lie x à u et v et on ne peut pas calculer les termes de cette somme. C’est pourquoi, on a introduit une autre approche plus statistique de l’estimation de l’incertitude qui sera toujours applicable aux mesures de la chimie analytique. Pour en comprendre les fondements, on peut utiliser la comparaison du tir à la carabine sur une cible. Chaque impact de balle représente une mesure et le centre de la cible est la valeur vraie de l’échantillon. Plusieurs situations se présentent : — un tireur peut utiliser une arme réglée et systématiquement rater le centre : on dit que son tir n’est pas juste ; — il peut être maladroit et disperser les différents impacts : on dit que son tir n’est pas fidèle ; — ces deux types d’erreur peuvent se combiner. La figure 7 illustre les quatre situations auxquelles ces défauts conduisent. Mais une différence fondamentale entre l’analyse chimique et le modèle du tir sur cible est qu’on connaît rarement le centre de la cible et qu’il faudra l’estimer. Finalement, on retient la définition de deux critères de validation très importants [12] : — la fidélité qui est « l’étroitesse d’accord entre des résultats d’essai indépendants obtenus sous des conditions stipulées ». La mesure de fidélité est une mesure de la dispersion des mesures et Ni juste ni fidèle Fidèle mais pas juste Juste mais pas fidèle Juste et fidèle Figure 7 – Image pratique de la justesse et de la fidélité se calcule à partir d’un écart-type. Une fidélité moindre est reflétée par un grand écart-type. Les résultats d’essai sont indépendants s’ils sont obtenus sur le même matériau d’essai d’une façon non influencée par un résultat précédent ou similaire ; — la justesse qui mesure « l’étroitesse de l’accord entre la valeur moyenne obtenue à partir d’une large série de résultats d’essais et une valeur de référence acceptée ». La mesure de la justesse est généralement exprimée en termes de biais ou d’écart à une moyenne. La valeur de référence acceptée – aussi appelée la valeur conventionnellement vraie de l’échantillon – est fournie par consensus à partir des valeurs de mesures répétées. Ça peut être une valeur théorique ou établie, fondée sur des principes scientifiques, une valeur assignée ou certifiée, fondée sur les travaux expérimentaux d’une organisation nationale ou internationale, une valeur de consensus ou certifiée, fondée sur un travail expérimental en collaboration et placé sous les auspices d’un groupe scientifique ou technique ou, encore, la moyenne d’une population spécifiée de mesures. Cette nécessité de recourir à une valeur de consensus va justifier l’organisation des analyses interlaboratoires. En effet, la traçabilité des mesures chimiques ne permet pas de remonter simplement à l’étalon primaire qu’est la mole. Par contre, comme le prévoit les normes et comme on l’a décrit au paragraphe 1.2, lorsqu’il est impossible d’établir la traçabilité aux unités de mesure SI, le laboratoire doit soit participer à un programme approprié de comparaisons interlaboratoires ou d’essais d’aptitude, soit utiliser des matériaux de référence appropriés ou certifiés. 3.5.2 Analyses interlaboratoires Nous désignerons par analyses interlaboratoires toute étude expérimentale qui implique la participation de plusieurs laboratoires. Cependant, il faut distinguer plusieurs situations en fonction des objectifs recherchés. ■ Les analyses interlaboratoires, au sens de la norme NF ISO 5725, doivent réunir au moins huit laboratoires qui vont recevoir un ou plusieurs échantillons sur lesquels ils feront de deux à quatre répétitions. L’objectif principal est alors de mesurer la répétabilité et la reproductibilité de la méthode comme nous le verrons au paragraphe 3.5.3. Ces études sont généralement lourdes et coûteuses et ne sont entreprise que pour une validation interlaboratoires de la méthode. Elles peuvent être organisées par n’importe quelle structure, par exemple, un laboratoire ou une entreprise qui veut promouvoir une méthode et publier ses caractéristiques dans la Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation P 224 − 11 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ littérature. La normalisation est un contexte très classique d’organisation d’analyses interlaboratoires puisque les méthodes normalisées doivent être accompagnées de valeurs de reproductibilité. ■ Les essais d’aptitude, comme ceux décrits dans la norme X 06-049 ou le Guide ISO/IEC 43 [13], réunissent de nombreux laboratoires, parfois plusieurs milliers. Les participants n’auront pas à faire de répétition sur le ou les échantillon(s) qu’ils reçoivent car le but est de calculer par consensus une valeur de référence acceptée qui servira à vérifier si un laboratoire est compétent pour exécuter un type de détermination. Ce bilan d’aptitude se fera après avoir classé les laboratoires d’après leurs résultats et en vérifiant quels sont ceux qui se trouvent en dehors de limites de tolérance, elles aussi consensuelles. Les tests d’aptitude sont généralement organisés par des structures interprofessionnelles et les laboratoires y participent de façon volontaire en fonction d’un programme analytique propre à une branche d’activité. Exemple : on trouve des tests d’aptitude pour les produits céréaliers, les liants hydrauliques, l’analyse œnologique, les analyses de biologie clinique, etc. ■ Les études collaboratives pour préparer des matériaux de référence certifiés ou non suivent des protocoles très variés qui peuvent s’inspirer des analyses interlaboratoires classiques. Cependant, d’une part, on va utiliser plusieurs types de méthodes d’analyse afin de détecter un principe analytique qui générerait un biais systématique, d’autre part, les laboratoires participants ne seront pas choisis au hasard mais d’après leur haut niveau de compétence (a priori). Les matériaux de référence certifiés pourront être assimilés à des étalons primaires et servir à vérifier la justesse d’une méthode interne. Malheureusement, il n’existe pas encore de matériau de référence certifié pour chaque domaine d’application. Ces deux concepts ont été introduits pour des raisons économiques afin de comparer des mesures faites par deux laboratoires différents qui représentent chacun les intérêts de deux partenaires commerciaux. C’est pourquoi, à partir de ces deux notions, on définit deux caractéristiques de la fidélité : — la limite de répétabilité ou répétabilité (notée r) qui est l’écarttype maximal au niveau de confiance de 95 % entre deux résultats obtenus selon des conditions de répétabilité ; — la limite de reproductibilité ou reproductibilité (notée R) qui est l’écart-type maximal au niveau de confiance de 95 % entre deux résultats obtenus sur un échantillon commun par deux opérateurs ou deux laboratoires différents selon des conditions de reproductibilité. Le modèle mathématique utilisé pour mesurer les écarts-types de répétabilité et de reproductibilité d’une analyse interlaboratoires est le suivant : xij = µ + Li + εij où chaque répétition xij est la somme de trois éléments : µ la valeur vraie de l’échantillon, Li le biais aléatoire du laboratoire, εij l’erreur expérimentale. Dans ce modèle, l’indice i repère le laboratoire et j le numéro de répétition. Puisque chaque laboratoire a fait des répétitions, on peut calculer 2 une variance intralaboratoire notée s i . Si on suppose que les variances intralaboratoires ne sont pas statistiquement différentes les unes des autres (§ 3.5.5), on peut calculer une variance com2 Étant donné que la fidélité mesure la dispersion des mesures et que cette dispersion dépend de diverses sources de variation, on a proposé deux situations extrêmes dans lesquelles deux répétitions peuvent être réalisées sur un échantillon commun : à savoir les conditions de répétabilité et les conditions de reproductibilité. Elles sont définies de la façon suivante dans [12] : — les conditions de répétabilité sont réalisées lorsque « les résultats d’essai indépendants sont obtenus par la même méthode sur des individus d’essai identiques dans le même laboratoire, par le même opérateur, utilisant le même équipement et pendant un court intervalle de temps » ; — les conditions de reproductibilité sont réalisées lorsque « les résultats d’essai sont obtenus par la même méthode sur des individus d’essais identiques dans différents laboratoires, avec différents opérateurs et utilisant des équipements différents ». Les conditions de répétabilité vont donc caractériser la plus petite dispersion possible des mesures puisque toutes les modalités de réalisation sont constantes, alors que les conditions de reproductibilité intègrent la plupart des sources de variation. P 224 − 12 les estimations des biais L i = x i – x , où x est la moyenne générale. La figure 8 résume ces concepts et on peut remarquer que, même si les variances intralaboratoires sont assez différentes, on va les ramener à une variance unique, la variance de répétabilité. En supposant, en outre, que les distributions sont normales et que le nombre de résultats est suffisant, on peut alors démontrer 2 que la variance de reproductibilité, notée s R , est égale à la somme de la variance interlaboratoires et de la variance de répétabilité : 2 2 2 sR = sL + sr (18) Pour estimer ces différentes variances, on va s’appuyer sur l’équation suivante, obtenue par une analyse de variance à un seul facteur à effet aléatoire : p ni ∑ ∑ ( xij – x ) i=1 j=1 p 2 = ∑ (x i – x ) i=1 p 2 + ni ∑ ∑ ( xij – x i ) i=1 j=1 2 3.5.3 Répétabilité et reproductibilité selon la norme NF ISO 5725 2 loi normale dont la variance est notée s L . Elle est appelée variance interlaboratoire car elle représente aussi la façon dont se dispersent Exemple : pour les matrices biologiques, on utilise de préférence des matériaux séchés ou lyophilisés ; si l’analyte est sensible à la lumière ou à l’oxygène le conditionnement sera opaque ou étanche, sous atmosphère contrôlée ; si c’est une poudre, elle est répartie grain par grain dans chaque flacon, à l’aide d’un distributeur spécial. mune qu’on appelle variance de répétabilité : on la note s r . Si, au contraire, les variances intralaboratoires sont assez différentes, on peut également définir une variance de répétabilité selon la formule (21). Par ailleurs, on peut calculer les moyennes des laboratoires, notées x i . On va supposer qu’elles se distribuent selon une Quel que soit le type d’étude, chaque participant reçoit un prélèvement d’un échantillon homogène. Sur le plan technique, la préparation d’un tel échantillon – parfois en grande quantité – exige un savoirfaire et un soin bien spécifique. On peut regretter qu’il n’existe pas encore de procédure normalisée pour vérifier la qualité d’un matériau qui servira à une analyse interlaboratoires. En outre, le mode de conditionnement devra prendre en compte la stabilité de l’analyte et/ou de la matrice : cette remarque est particulièrement importante pour les matériaux biologiques qui se dégradent facilement. SCE t SCE L SCE r avec x i moyenne du laboratoire i, p N = ni x ∑ ni i=1 nombre total de mesures, nombre de répétitions par laboratoire, moyenne générale. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation (19) __________________________________________________________________________________________ Si les mesures suivent une loi normale, les différences se distribuent selon une loi de Student à N – p degrés de liberté. Comme N est généralement grand, pour un risque de 5 % on prend t0,975 ≈ 2,0. Puisque 2 2 = 2, 83 , on obtient finalement : Laboratoire 1 sr VALIDATION INTERNE DES MÉTHODES D’ANALYSE r = 2,83 sr sr R = 2,83 sR Laboratoire 2 sr 3.5.4 Conformité d’un écart-type de reproductibilité Laboratoire p Le mode de calcul de la norme NF ISO 5725 s’applique à un seul échantillon. Cependant, comme la validation d’une méthode d’analyse doit porter sur l’ensemble de son domaine d’application, il est classique de faire parvenir aux participants plusieurs échantillons avec des niveaux de concentration couvrant tout le domaine. Ces résultats vont permettre de vérifier si la fidélité est une constante ou si elle dépend du niveau de concentration de l’échantillon. sL Exemple : le tableau 2 présente les mesures de fidélité d’une méthode de détermination de l’azote Kjeldahl utilisant une technique de minéralisation par micro-ondes [14]. En fait, cinq analyses interlaboratoires sont présentées pour des matrices dont la concentration moyenne varie entre 0,4 g/100 g et 8 g/100 g d’azote. On peut noter que, dans tous les cas, l’écart-type de reproductibilité est plus élevé que celui de la répétabilité. Ce résultat est logique si on se réfère à la formule (18). Moyenne générale Répétion moyenne du laboratoire Figure 8 – Modèle théorique de l’analyse interlaboratoire L’équation (19) peut être réécrite en utilisant la notation SCE (sommes de carrés d’écarts) : (0) SCEt = SCEL + SCEr avec SCEt somme totale des carrés des écarts à la moyenne générale, SCEL somme des carrés des écarts interlaboratoires, SCEr somme des carrés des écarts de répétabilité. 2 2 Ensuite, les variances interlaboratoires s L et de répétabilité s r sont obtenues en divisant les sommes de carrés des écarts par des nombres de degrés de liberté appropriés. Pour cela, il est nécessaire d’introduire le nombre moyen corrigé de répétitions par cellule, que l’on note N ’ : p ∑ ni 2 =1 N ′ = N – i--------------N (20) SCE 2 s r = --------------r N–p (21) Tableau 2 – Analyses interlaboratoires pour l’azote Kjeldahl (g/100 g) Niveau p x sR sr CVR CVLim Lait 11 0,484 0,013 0,011 2,60 % 4,46 % Farine 11 1,773 0,038 0,023 2,13 % 3,67 % Dactyle 11 2,060 0,056 0,029 2,70 % 3,59 % Viande 11 2,997 0,078 0,052 2,59 % 3,39 % Œuf 11 7,609 0,173 0,111 2,27 % 2,95 % On obtient : SCE 2 ( p – 1 ) --------------L- – s r p–1 = --------------------------------------------------(22) N′ Lorsque les résultats de l’analyse interlaboratoires doivent faire l’objet d’un dossier officiel de validation, la norme NF ISO 5725 propose un mode de calcul des limites de répétabilité r et de reproductibilité R. Pour cela on va considérer la variance de la différence entre deux mesures. Si s2 désigne la variance d’une mesure, la variance de la différence vaut 2s2. Par conséquent son écart-type est égal à 2 s . D’après la définition des limites de répétabilité et de reproductibilité, on recherche la différence maximale entre deux mesures pour un risque d’erreur de 5 %. On calcule ainsi les deux critères de fidélité : 2 sL r = k 2 ⋅ sr R = k 2 ⋅ sR où k est un coefficient qui rend compte du risque d’erreur. Pour illustrer les variations de la reproductibilité, on va projeter les écarts-types en fonction de la moyenne comme l’indique la figure 9. On voit ainsi que la fidélité d’une méthode n’est pas constante mais varie avec la concentration de l’échantillon analysé : cette observation est générale. Deux conclusions importantes s’imposent : — il est donc fondamental de valider une méthode sur tout son domaine d’application, sinon on peut obtenir une estimation fausse pour un niveau de concentration qu’on n’a pas étudié ; — on ne doit pas exprimer la fidélité d’une méthode sans se référer à une concentration. Une façon de synthétiser ces résultats peut consister à calculer le coefficient de validation (CV ). Il s’agit de l’écart-type relatif à une moyenne exprimé en % et calculé selon la formule : s CV = 100 ----x Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation (23) P 224 − 13 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ Par ailleurs, Horwitz a montré que la grande majorité des CVR ne dépassent pas une valeur limite CVLim calculée ainsi : Écart-type de reproductibilité sR (g/100g) CV Lim = 2 0,25 lg ( x ) 2 – ---------------2 (26) Les valeurs obtenues à partir des modèles (25) et (26) pour des concentrations allant de 10 – 9 kg.kg– 1 (soit 1 µg.kg –1 ou 1 ppb) à 0,1 kg.kg– 1 (soit 10 %) sont présentées dans le tableau 3. 0,20 0,15 (0) Tableau 3 – Coefficients de variation (en %) donnés par les modèles de Horwitz pour quelques concentrations caractéristiques 0,10 0,05 0,00 0,0 1,0 2,0 3,0 4,0 5,0 6,0 7,0 8,0 Moyenne x (g/100g) Reproductibilité sR Valeur limite de Horwitz sR Lim Figure 9 – Relation entre la moyenne et la fidélité pour l’azote Kjeldahl (§ 3.5.4) Ce critère présente un inconvénient car c’est une mesure relative qui dépend de deux valeurs : le numérateur et le dénominateur. On constate que : — si l’écart-type est constant lorsque la moyenne varie, le coefficient de variation n’est pas constant. La courbe obtenue est une hyperbole ; — si l’écart-type varie avec la moyenne – comme sur la figure 9 – le coefficient de variation est constant. Il peut alors être utile pour exprimer simplement la fidélité. Le coefficient de variation de la reproductibilité, (CVR) reporté dans le tableau 2 a ainsi été calculé selon la formule : sR (24) CV R = 100 ---------x ■ Dans l’exemple de l’azote Kjeldahl (tableau 2), on constate que les CVR sont relativement constants puisqu’ils varient entre 2,6 % et 2,7 % et on pourrait proposer d’exprimer la fidélité de cette méthode sous la forme d’un pourcentage. Cependant, son domaine d’application est relativement étroit et on peut se demander si le CVR reste constant lorsque le domaine d’application de la méthode est plus large. Par exemple, on sait que le CVR d’une méthode d’analyse de traces est généralement plus élevé que celui d’une méthode pour les macroéléments. C’est-à-dire qu’il y a aussi une relation entre le coefficient de variation de la reproductibilité et le niveau de concentration [15]. Plusieurs modèles ont été proposés pour décrire cette relation mais celui qui a connu le plus de succès est celui de Horwitz [16]. Il l’a construit à partir de plusieurs milliers d’analyses interlaboratoires, d’abord en calculant les sR selon le protocole de la norme NF ISO 5725, puis en ajustant un modèle par la méthode des moindres carrés. Il a pu ainsi montrer que, sur une large gamme de concentrations, de CVR observé se situe, en moyenne, autour d’une valeur CVHor calculée selon la formule suivante : CV Hor = 2 lg ( x ) 1 – ---------------2 (25) Concentration CVHor (kg.kg– 1) (%) CVLim (%) 10– 1 2,83 5,66 10– 2 4,00 8,00 10– 3 5,66 11,31 10– 4 8,00 16,00 10– 5 11,31 22,63 10– 6 16,00 32,00 10– 7 22,63 45,25 10– 8 32,00 64,00 10– 9 45,25 90,51 Il est important de noter que les concentrations doivent être exprimées avec les unités SI pour que le résultat soit directement exprimé en %. Exemple : pour une concentration de 1 g/100 g, on a 10– 2 kg.kg– 1, ce qui donne : –2 CV Hor = 2 lg ( 10 ) 1 – -----------------------2 = 2 2 1 – – --- 2 On s’aperçoit aussi que CVLim est le double de CVHor. C’est pourquoi, on a proposé, comme méthode de contrôle de la conformité d’une reproductibilité pour une concentration donnée, de vérifier si le rapport HorRat : CV R HorRat = --------------CV Hor aussi appelé Horwitz Ratio, est bien inférieur à 2,0 [17]. Les conclusions fournies par ce critère doivent toujours être prises à titre indicatif, car ce modèle reste empirique et n’a pas été retenu dans la norme NF ISO 5725. Pour illustrer les données du tableau 3, on a pris l’habitude d’utiliser une échelle logarithmique pour la moyenne afin qu’une large gamme de concentrations puisse être portée sur le même graphique. La figure 10 illustre l’allure des deux modèles. Si on compare ces valeurs à celles obtenues lors de l’étude sur l’azote Kjeldahl (tableau 2), on voit que les valeurs de CVR sont toujours compatibles avec celles proposées par le modèle d’Horwitz. Une autre façon de visualiser cette conclusion consiste à utiliser les formules (25) et (26) pour calculer les valeurs limites de l’écart-type de reproductibilité en posant : avec x concentration moyenne exprimée en unité SI (kg.kg– 1). Il est important de noter que ce modèle est empirique car il résulte d’un traitement statistique d’observations expérimentales. Il ne peut en aucun cas être mis en relation avec une théorie de l’incertitude ou de la fidélité. P 224 − 14 2 = 2 = 4% s R Lim = 0, 01 ⋅ x ⋅ 2 lg ( x ) 2 – ---------------2 Les valeurs de sRLim ainsi obtenues sont représentées par la courbe en noir sur la figure 9. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation __________________________________________________________________________________________ CVR (%) VALIDATION INTERNE DES MÉTHODES D’ANALYSE Valeur mesurée 50 Incertitude faible capabilité de 10 % Incertitude élevée capabilité de 75 % 5 4 Tolérance 25 3 0 10+0 10– 1 10– 2 10– 3 10– 4 10– 5 10– 6 10– 7 1 Moyenne (kg . kg– 1) CVHor 2 CVLim 0 1 6 11 16 Numéro de l'échantillon du lot Figure 10 – Illustration des modèles proposés par Horwitz 3.5.5 Recherche des données non conformes Pour démontrer les formules (19), (20), (21) et (22), il a fallu faire les assertions suivantes : — les répétitions d’un laboratoire doivent suivre une loi normale ; 2 — les variances intralaboratoires s i doivent être statistiquement égales ; — les moyennes des laboratoires x i doivent être statistiquement égales ; — les moyennes des laboratoires doivent suivre une loi normale. Il est donc nécessaire de contrôler si elles sont vérifiées avant de valider une valeur de répétabilité ou de reproductibilité. C’est pourquoi différents tests sont proposés dans la norme NF ISO 5725 qui vont permettre de conduire cette étude préliminaire. Ils ne consistent pas à vérifier si les données se distribuent effectivement selon une loi normale mais plutôt à repérer celles qui sont aberrantes. Ces tests vont donc permettre d’éliminer, soit une répétition aberrante, soit une variance aberrante, soit une moyenne aberrante. D’une façon générale, lorsqu’on applique un test, si on voit qu’il est significatif au niveau de risque de 5 %, on dit que la donnée est suspecte. S’il est encore significatif au niveau de risque de 1 %, on dit qu’elle est aberrante. Il n’est pas rare que l’étape d’élimination des aberrants pose des problèmes : on ne détecte pas un résultat visiblement aberrant, on élimine trop de laboratoires, on sous-estime la fidélité… Et finalement, l’estimation de la répétabilité et de la reproductibilité n’est pas satisfaisante. C’est pourquoi, la dernière partie de la norme propose un ensemble d’estimateurs robustes qui, comme la médiane, présentent l’intérêt de ne pas être influencés par la présence de données aberrantes. Ils reviennent à transformer de manière itérative les données et à utiliser des estimateurs de position et de dispersion robustes. Ensuite, il est possible de calculer les trois paramètres caractéristiques d’une analyse – à savoir x , r et R – sous des formes robustes. Nous ne développerons pas ces méthodes mais on peut se reporter aux travaux de la Royal Society of Chemistry qui a publié des méthodes tout à fait comparables [18]. L’expérience montre qu’il est, en général, intéressant de comparer les valeurs obtenues par le mode de calcul classique, avant et après élimination des aberrants, avec ceux du mode de calcul robuste. On obtient des valeurs intermédiaires qui reflètent sans doute mieux la réalité. Nous avons signalé cette évolution car elle marque l’introduction des méthodes robustes en chimie analytique ainsi que leur intérêt pratique. 3.6 Capacité de mesure Une façon d’appréhender l’utilité d’une méthode d’analyse consiste à vérifier si les résultats qu’elle fournit permettent effective- Figure 11 – Rôle de la capacité de mesure sur l’aptitude d’une méthode à contrôler un lot ment de prendre une décision. C’est le concept de capacité de mesure (ou capabilité de mesure) qui permet d’atteindre ce but en intégrant la variabilité du phénomène ou du lot qu’on veut contrôler et l’incertitude des mesurages. Il se définit comme le rapport suivant : Tolérance acceptée Capacité = ------------------------------------------------------ × 100 Incertitude La figure 11 illustre comment des valeurs faibles de la capacité de mesure (10 %) permettent de prendre des décisions alors qu’une capacité de mesure de 75 % ne le permet pas. Elle illustre les variations réelles d’un lot. Les limites de tolérance sont représentées par deux traits en pointillés et les mesures sont encadrées par leur incertitude. On a simulé des variations de l’incertitude pour montrer comment des mesures avec une incertitude élevée ne permettent pas de détecter une non-conformité. 3.7 Justesse d’une méthode ■ Comme l’indique sa définition (cf. § 3.5.1), la justesse est mesurée en comparant le résultat obtenu avec la méthode en cours de validation et la valeur vraie de l’échantillon. Il faut donc disposer de cette valeur. On a déjà vu (§ 3.5.1) comment deux techniques particulières permettent de le faire. ● L’utilisation de matériaux de référence certifiés (MRC) est la méthode la plus simple. Il suffit d’en acheter un similaire ou proche du type d’échantillon auquel la méthode s’applique. Il existe une norme qui décrit comment procéder à la comparaison entre la valeur certifiée et la valeur trouvée (19). De nombreux distributeurs vendent quelques-uns des 10 000 MRC disponibles sur le marché et proposés par différents organismes internationaux [5]. Même s’il est élevé, le nombre de MRC est limité et il n’est pas toujours possible d’obtenir celui ou ceux qui correspondent à la méthode qu’on veut valider. ● C’est pourquoi, l’autre méthode consiste à fabriquer un matériau de référence en commun avec d’autres laboratoires, en participant à un essai d’aptitude. Les essais d’aptitude vont donc avoir un double intérêt : — d’une part, pour la validation de la méthode, ils permettent de se procurer des matériaux de référence (non certifiés) qui serviront à vérifier la justesse ; — d’autre part, lors de l’utilisation en routine, on pourra contrôler la justesse de la méthode dans le temps, comme l’indique la figure 3.(0) Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation P 224 − 15 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ Tableau 4 – Organisation des essais pour vérifier la justesse et la fidélité d’une méthode de substitution par rapport à une méthode de référence Méthode alternative Répétitions Effectifs Moyennes Variances Échantillons 1 2 … ni xi si ( x ) 1 x11 x12 … n1 x1 s1 ( x ) … … … … … xij … … xi, ni … i … xi 2 si ( x ) … … xp 1 … xp 2 … … np … … xp 2 sp ( x ) p … 2 2 Différences des moyennes Méthode de référence Effectifs Moyennes Variances Échantillons 1 Répétitions 2 … mi zi si ( z ) 1 z11 z12 … z1, m1 z1 s1 ( z ) … … … … … … zij … … zi, mi … i … zi 2 si ( z ) xi – zi … … zp 1 … zp 2 … … zp, mp … … … zp 2 sp ( z ) xp – zp p … 2 xi – zi 2 x 1 – z1 Étant donné leur importance pour assurer la qualité d’une méthode, une exigence classique des organismes d’accréditation est que le laboratoire participe régulièrement à un essai d’aptitude. — si s r ( x ) < s r ( z ), il est possible de conclure que la méthode alternative présente une fidélité au moins aussi bonne que la méthode de référence ; ■ Il existe un cas particulier, traité par la norme NF V 03-110, où le laboratoire peut évaluer la justesse d’une méthode en cours de validation : c’est lorsque l’on compare une méthode alternative (ou de substitution) à une méthode de référence [20]. La procédure consiste à effectuer une série de mesures avec la méthode alternative et la méthode de référence. Le même plan d’expérience permettra de comparer des écarts-types de fidélité et des moyennes (justesse). Dans ce but, on va sélectionner au moins dix échantillons représentatifs du domaine d’application et effectuer ni répétitions pour chaque échantillon avec la méthode alternative et mi répétitions avec la méthode de référence (il se peut que ni soit différent de mi), de façon à construire le tableau 4. sr ( x ) 2 2 - et on le compare — si s r ( x ) > s r ( z ) , on calcule le rapport q = ------------2 sr ( z ) à une valeur critique d’une variable de Fisher au niveau de confiance 1 – α, avec N (x) – p et N (z) – p degrés de liberté. Dans ce cas, N (x) et N (z) représentent les nombres totaux de répétitions. La règle de décision est la suivante : — si q est inférieur ou égal à la valeur critique au risque 1 %, il est possible de conclure que la méthode alternative présente une fidélité compatible avec la méthode de référence ; — si q est supérieur à la valeur critique au risque 1 %, la fidélité n’est pas satisfaisante. ● En ce qui concerne la justesse, on va comparer les différences d i = x i – z i entre les moyennes obtenues pour chaque échantillon. On obtient ainsi le rapport w défini par : Le nombre d’échantillons p et le nombre moyen de répétitions n ou m recommandés sont p > 10 et m = n > 2. Si les échantillons choisis ont déjà été utilisés dans des analyses interlaboratoires, des essais d’aptitude, ou sont des matériaux de référence, leurs valeurs de référence peuvent être utilisées pour remplir la partie du tableau relative à la méthode de référence, sans avoir à refaire les mesures. De même si le laboratoire estime qu’il maîtrise mal la méthode de référence, il peut faire appel à un laboratoire extérieur pour réaliser les mesures par la méthode de référence. Cependant, la traçabilité de ces mesures doit être assurée et leur origine indiquée. 2 2 2 d w = -------sd avec sd écart-type des écarts des différences, ∑ ( di – d ) On va d’abord calculer une variance de répétabilité, selon le principe de la norme NF ISO 5725, séparément sur chaque série de données, ce qui donne les deux variances de répétabilité, notées ● 2 2 s r ( x ) et s r ( z ) respectivement pour la méthode alternative et la méthode de référence. 2 2 Ensuite, on peut comparer s r ( x ) à s r ( z ) afin de vérifier si les deux méthodes ont la même fidélité. Deux cas se présentent : ● P 224 − 16 sd = et d 2 i ------------------------------p–1 moyenne des différences, ∑ di i d = ----------p Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation __________________________________________________________________________________________ La règle de décision est la suivante : — si w est inférieur ou égal à 3,0, il est possible de conclure que les deux méthodes ont la même justesse, avec un risque d’erreur α=1%; — si w est supérieur à 3,0, il est possible de conclure que la méthode alternative n’est pas juste par rapport à la méthode de référence, avec un risque d’erreur α = 1 %. En fait, cette procédure permet de démontrer que la justesse (et en même temps la fidélité) d’une méthode alternative est statistiquement équivalente à celle d’une méthode de référence. Mais on ne montre pas que la méthode est juste, dans l’absolu. On part du principe que la méthode de référence fournit la valeur vraie et, dans bien des cas, c’est parfaitement suffisant. ■ La comparaison de méthodes est une technique classique pour détecter le biais éventuel d’une méthode. On utilise une approche expérimentale similaire à celle décrite par le tableau 4, c’est-à-dire qu’on applique deux méthodes (ou plus) à une série d’échantillons. Ensuite, on essaye de trouver une relation entre les mesures x et z de la forme de l’équation (27) ou b0 désigne un biais constant et b1 un biais proportionnel : x = b0 + b1 z + e (27) Une difficulté dans cette approche est de choisir une méthode pour calculer b0 et b1 car la méthode des moindres carrés, comme elle est décrite au paragraphe 3.1.1 ne peut pas s’appliquer. En effet on ne peut pas décider quelle variable est explicative et quelle variable est expliquée. On peut donc écrire un deuxième modèle qui donnera d’autres valeurs du biais constant et du biais proportionnel : z = b0′ + b1′ x + e ′ (28) La solution – délicate du point de vue des calculs – consiste à rechercher une relation fonctionnelle entre x et z qui prend en compte les erreurs sur les deux variables. Une étude assez complète sur cette question peut être trouvée dans les références [21] et [22]. 3.8 Spécificité Le manque de spécificité d’une méthode peut être d’origine physique, comme on l’a décrit avec l’élargissement des raies d’absorption en spectrophotométrie d’absorption atomique, mais la plupart du temps il est dû à la présence d’analytes indésirables qui vont « répondre » comme l’analyte recherché ou, au contraire, gêner sa réponse. Ces analytes sont divers constituants de la matrice et/ou les réactifs utilisés pour préparer l’échantillon : on peut donc parler d’effets de matrice. Les effets de matrice viennent brouiller le signal et entraînent deux conséquences néfastes : — soit, une surestimation de la concentration de l’échantillon car la réponse est plus élevée que ce qu’elle devrait être ; — soit, une sous-estimation car le signal est partiellement masqué. Exemple : en chromatographie, une mauvaise séparation de l’analyte peut induire une interférence. En spectrophotométrie d’absorption atomique, on a décrit de nombreuses interférences pour le calcium dues à d’autres éléments qui absorbent à la même longueur d’onde. Lorsque l’on ne peut pas évaluer l’influence de chaque constituant de la matrice, comme c’est le cas dans la recherche pharmaceutique où on connaît parfaitement l’excipient, une technique globale et commode de mise en évidence est la méthode des ajouts dosés. Elle consiste à additionner dans l’échantillon avant, pendant ou après sa préparation, des quantités connues de l’analyte pur. En quelque sorte, on construit une courbe d’étalonnage dans un milieu équivalent à celui où se fait la mesure et non plus dans le seul solvant. On trouve dans la littérature plusieurs protocoles possibles d’ajouts dosés. Ce qui les différencie c’est un volume final constant ou variable, un nombre d’ajouts unique ou multiple, une matrice unique ou multiple. Le mode opératoire le plus classique consiste à faire un ou deux ajouts à une prise d’essai constante de l’échantillon et à ajouter au même volume final la solution préparée. VALIDATION INTERNE DES MÉTHODES D’ANALYSE Réponse y Droite d'ajout 4 Droite étalon 3 b 0 Teneur extrapolée Ce a1 b1 2 a0 Ce = – b0 /b1 1 0 Concentration x Figure 12 – Méthode des ajouts dosés classique ■ Ainsi, la méthode des ajouts dosés classique est constituée de quatre essais : — 1. un blanc sans matrice ni analyte qui ne contient que les solvants et les réactifs purs ; — 2. un étalon de concentration connue ; — 3. un échantillon de concentration inconnue ; — 4. le même échantillon auquel on ajoute une quantité connue de l’étalon. On peut ainsi construire deux droites, l’une mesurée avec l’étalon pur (la droite étalon) et l’autre en présence de la matrice (la droite d’ajout). Si les deux droites sont parallèles, on dit qu’il n’y a pas d’interférences, comme l’illustre la figure 12. Par simple jeu de règles de trois on va pouvoir calculer la pente b1 et l’ordonnée à l’origine b0 de la droite d’ajout et obtenir par extrapolation la concentration corrigée Ce de l’échantillon : b C e = – -----0b1 Cependant, cette technique a plusieurs inconvénients, si on veut s’en servir pour valider une méthode. D’abord, elle ne s’applique qu’à un seul échantillon et il faudrait faire une série de droites d’ajout pour couvrir le domaine d’application. Ensuite, l’extrapolation est peu recommandée car elle engendre toujours de très fortes erreurs : l’incertitude sur Ce est très grande. Enfin, elle ne donne pas une réponse globale sur la spécificité. ■ Une approche plus globale de la recherche des effets de matrice est décrite dans la norme NF V 03-110 [20]. Elle consiste à effectuer p ajouts dosés sur des échantillons choisis de façon à couvrir le domaine d’application de la méthode et dont les teneurs xi sont déjà connues. Ça peut être des matériaux de référence ou des échantillons ayant servi à établir la justesse de la méthode, comme ceux du tableau 4. Le plan d’expérience est décrit au tableau 5. (0) Tableau 5 – Organisation des essais pour vérifier la spécificité d’une méthode Échantillon 1 … i … p Teneur avant ajout Teneur ajoutée Teneur après ajout Teneur retrouvée (x ) (v) (w) x1 … xi … xp v1 … vi … vp w1 … wi … wp ( r) r1 = w 1 – x 1 … ri = w i – xi … rp = w p – x p Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation P 224 − 17 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ Les ajouts sont réalisés avec une solution étalon pure. Il est conseillé de choisir le niveau des ajouts du même ordre de grandeur que la teneur de l’échantillon sur lequel ils sont effectués. C’est pourquoi les échantillons les plus concentrés doivent être dilués pour rester dans le domaine d’application de la méthode. Là encore, le nombre d’échantillons p doit être au moins de 10. Ensuite, on va calculer une droite globale de recouvrement d’ajout, en portant sur un diagramme les valeurs d’ajouts v et les valeurs retrouvées w, ce qui revient à calculer la droite des moindres carrés : 7,0 Teneur retrouvée r 6,0 (mg/g) 5,0 4,0 3,0 2,0 1,0 ri = c0 + c1 vi + ei (29) Le principe de la vérification de la spécificité consiste à tester l’hypothèse que la pente c1 est égale à 1 et que l’ordonnée à l’origine c0 est égale à 0. En généralisant les notations introduites dans les formules (2) et (3) du paragraphe 3.1.1, on a : SPE vr c 1 = ---------------SCE v c0 = r – c1 v et 0,0 0,0 1,0 2,0 3,0 4,0 5,0 6,0 7,0 Teneur ajoutée v (mg/g) Droite d'ajout globale d'équation r = 0,904 v – 0,031 Droite de pente 1 Figure 13 – Exemple d’étude de la spécificité selon la procédure proposée par la norme NF V 03-110 [20] (sur cette figure, les unités sont les mêmes pour r et v) De même, les formules (4), (5) et (6) fournissent la variance rési2 duelle s e et les variances des deux coefficients : 2 2 se s c = --------------1 SCE v 2 2 2 1 v s c = s e --- + --------------- 0 p SCE v et Pour vérifier si la pente de la droite d’ajout globale est égale à 1, on va effectuer un test en calculant le critère tobs qui suit une loi de Student à p – 2 degrés de liberté : ● c1 – 1 t obs = ----------------sc 1 — Si tobs est inférieur ou égal à la valeur critique lue dans la table de Student au risque 1 – α/2 avec p – 2 degrés de liberté, il est possible de conclure à l’absence d’interférences et que la spécialité est acceptable. — Si tobs est supérieur à la valeur critique, la méthode n’est pas spécifique. ● Pour vérifier si l’ordonnée à l’origine est égale à 0, on calcule le critère t ′obs qui suit une loi de Student à p – 2 degrés de liberté : c0 t ′obs = ------sc 0 — Si t ′obs est inférieur ou égal à la valeur critique lue dans la table de Student au risque 1 – α/2 avec p – 2 degrés de liberté, il est possible de conclure que l’ordonnée à l’origine n’est pas différente de 0. — Si t ′obs est supérieur à la valeur critique, il est possible de conclure que l’ordonnée à l’origine est différente de 0 et que la méthode n’est pas spécifique. ● À partir de ces résultats, on pourrait calculer un taux de recouvrement moyen permettant de quantifier la spécificité. Cependant, en aucun cas, il ne doit être employé pour « corriger » les résultats. En effet, si un biais significatif est mis en évidence, la méthode ne peut pas être validée. ● Puisque le principe du test consiste à calculer une droite, il est important de prendre au moins 3 niveaux d’ajout et de choisir correctement leur valeur afin d’obtenir un étalement optimal des points. P 224 − 18 Exemple : la figure 13 illustre les résultats d’une étude de spécificité pour une méthode de détermination des sucres totaux dans les produits carnés (en mg/g), tels que les pâtés, le jambon ou le produits de charcuterie. La pente est égale à 0,904 et statistiquement non différent de 1,0 et l’ordonnée à l’origine (– 0,031) n’est pas différente de 0 : on peut donc conclure que la méthode est spécifique. 3.9 Robustesse La robustesse d’une méthode d’analyse peut être définie comme une mesure de sa capacité à ne pas être affectée par de petites variations des conditions opératoires. Ces variations doivent refléter celles qu’on rencontre lorsque l’on transfère la méthode d’un laboratoire à un autre ou lorsque on la remet en route. Son intérêt est de fournir une indication sur la stabilité des mesures dans des conditions normales d’utilisation. Le principe du test de robustesse est donc de créer de légères modifications des valeurs sélectionnées pour le mode opératoire normalisé et de vérifier si elles ont une influence sur le résultat. Ces modifications sont définies en fonction des difficultés classiques de contrôle des paramètres opératoires. Exemple : si on dit que la réaction doit être effectuée au bain-marie à 35 °C et si on suppose que le système de thermostat peut varier de ± 1 °C, on va vérifier que le résultat reste inchangé lorsque la température varie entre 34 et 36 °C : en d’autres termes on va vérifier que la température n’a pas d’effet sur la réponse. Les paramètres ainsi étudiés dépendent du type de méthode. Classiquement, on trouve la température, le pH, un volume ou un débit, comme paramètres quantitatifs. Mais on peut aussi considérer des paramètres qualitatifs, comme une marque de réactif ou d’appareil de mesure, au cas où la méthode doit être employée par des laboratoires ayant des équipements variés. Comme le nombre de paramètres à vérifier peut être important (souvent proche de 10) et qu’une vérification paramètre par paramètre demanderait beaucoup d’essais, on va s’appuyer sur la méthode des plans d’expériences pour réduire le nombre de mesures [23]. C’est pourquoi on parlera de facteurs plutôt que de paramètres. En général, on utilise des plans factoriels fractionnaires saturés car : — on ne cherche pas à évaluer les interactions entre facteurs ; — chaque facteur ne prend que deux niveaux, seulement. Exemple : le premier test de robustesse décrit dans la littérature consistait à évaluer les effets de 7 facteurs à l’aide d’un plan factoriel saturé 27–4 comportant 8 essais [24]. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation __________________________________________________________________________________________ Le résultat d’un test de robustesse consiste en un tableau qui indique si tel ou tel facteur a un effet significatif. On n’a donc pas une mesure globale de la robustesse mais des mesures par rapport à différents facteurs. Un point important à considérer est l’interprétation finale qu’on fournit à l’issue d’un test de robustesse. Si un seul facteur a un effet significatif, la méthode ne peut pas être validée et il est inutile de mesurer les autres caractéristiques de validation. En effet, si un facteur n’est pas robuste cela signifie que la méthode n’est pas robuste et ne peut pas être appliquée en routine puisque les niveaux sont choisis de façon à refléter les légères variations que va « normalement » subir la méthode. Il faut alors recommencer l’étape d’optimisation pour mieux contrôler le facteur gênant. C’est pourquoi, il apparaît que le test de robustesse se situe à l’interface entre le développement et la validation – comme l’indique la figure 3 – et doit précéder toute validation. De ce fait nous pensons que la description du test de robustesse s’intègre mieux à la présentation des plans d’expériences et nous conseillons aux lecteurs de se reporter à des textes plus complets comme les références [23] et [25]. Cependant, comme ce test est évoqué par plusieurs normes ou procédures normalisées il fallait le présenter, dans son principe. 3.10 Cartes de contrôle Le lecteur pourra se reporter à l’article Maîtrise statistique des processus (MSP). Utilisation des cartes de contrôle [R 290] dans le traité Mesures et Contrôle. ■ Les cartes de contrôle sont des outils utilisés pour contrôler la stabilité d’une méthode d’analyse dans le temps. Ce ne sont donc pas des outils de validation mais des outils de contrôle de la qualité. Elles sont conceptuellement simples : un matériau étalon, dont on a défini la teneur moyenne, est analysé régulièrement et les réponses obtenues sont reportées, dans l’ordre chronologique sur un graphique (cf. figure 14). Si la carte montre qu’il y a des variations autres que celles liées au hasard, autour de la valeur moyenne, on peut supposer que le système de mesure est perturbé. Pour faciliter cette prise de décision, des limites de contrôle sont dessinées de chaque côté de la valeur attendue. Il faut que les réponses restent entre ces limites. En complément, on définit les règles qui permettent de décider si la répartition n’est plus aléatoire et les actions correctrices à entreprendre pour revenir à une situation normale. Initialement, les cartes de contrôle ont été proposées vers 1920 par Shewart pour le contrôle des processus industriels de fabrication. Le point de départ de ces travaux consiste à supposer qu’un système de mesure est stable s’il ne présente que des variations aléatoires autour d’une valeur de référence et que l’amplitude de ces variations, mesurées en nombre d’écarts-types, reste entre des limites fixées. On dit alors qu’il est sous contrôle statistique. La théorie sous-jacente aux cartes de contrôle est que les mesures obtenues sous maîtrise statistique doivent se répartir selon la loi normale. Celles qui sont en dehors des limites de contrôle sont des mesures qui ont une très faible probabilité d’existence et sont équivalentes à des données aberrantes. D’un point de vue pratique, on prend comme valeur cible la moyenne arithmétique x du matériau de référence, calculée sur un grand nombre de répétitions (n > 30). On peut aussi utiliser un matériau ayant servi dans un essai d’aptitude. Les limites de contrôle supérieure et inférieure (LCS et LCI) vont être calculées de façon différentes si chaque point est obtenu à l’aide d’une seule mesure ou de m répétitions. En effet, il est souvent conseillé d’utiliser un contrôle basé sur des mesures répétées, plutôt que sur des mesures isolées. ■ Pour un contrôle basé sur une mesure isolée on définit les limites de contrôle et d’alarme de la façon suivante : LCS = x + 3 s LCI = x – 3 s LAS = x + 2 s LAI = x – 2 s VALIDATION INTERNE DES MÉTHODES D’ANALYSE ∑ ( xi – x ) -----------------------------(n – 1) 2 avec s écart-type défini par s = ■ Pour un contrôle basé sur m répétitions les limites de contrôle sont définies par : s s LCS = x + 3 --------LCI = x + 3 --------m m n m ∑ ∑ xij =1 j=1 avec x moyenne définie par x = i--------------------------, n⋅m m n ∑ ( xij – x i ) 2 ∑ ---------------------------------(m – 1) i=1 --------------------------------------------- . n Il est évident qu’un contrôle basé sur des répétitions sera plus efficace mais aussi plus coûteux. Il n’est justifié que dans le cas où les mesures sont rapides et simples, c’est pourquoi on le met en place pour des mesures physiques, telles que des mesures de température ou des pesées. j=1 s écart-type s = On a aussi proposé d’utiliser l’écart-type de répétabilité pour éviter d’avoir à calculer s mais les limites ainsi construites sont très étroites, ce qui peut conduire à de fréquentes actions correctrices. Il serait préférable d’utiliser un écart-type de reproductibilité interne. Un point délicat est de prévoir la fréquence de passage du matériau de contrôle. Afin d’économiser le nombre d’analyses, on peut rédiger une procédure évolutive qui permet de diminuer la fréquence aussi longtemps que le système de mesure reste stable. Il est en effet classique de constater une amélioration de la stabilité au bout de quelque temps qui indique une meilleure maîtrise, il est donc logique d’en tenir compte. De toute façon, il faut prévoir au moins un contrôle, toutes les fois qu’on utilise la méthode. ■ Les règles pour décider si un système de mesure doit être corrigé varient d’un contexte à l’autre. Souvent on prend comme bases les règles utilisées par la société Ford qui se résument ainsi. Entreprendre une action correctrice dès que : • une mesure sort des limites de contrôle, • 7 mesures successives sont situées toutes au-dessus ou toutes au-dessous de la valeur cible, • 8 mesures successives indiquent une tendance systématique vers le haut ou vers le bas, • toute répartition des mesures fait suspecter un comportement non aléatoire. La norme NF X 06-031 présente l’ensemble des tables qui permettent de calculer les limites de contrôle pour les cartes sur intervalles, de même que les cartes utilisant d’autres lois de probabilité que la loi normale, comme les comptages bactériens. Les cartes de contrôle sont une application directe des principes statistiques des lois de probabilité théoriques. Elles sont de plus en plus exigées par les auditeurs des organismes de certification, au même titre que les résultats des tests d’aptitude. Exemple : la figure 14 représente une carte de contrôle pour le dosage de l’azote Kjeldahl dans de la farine de blé. La ligne centrale représente la valeur cible définie par la moyenne du matériau étalon, les lignes pleines extérieures symbolisent les limites de contrôle et deux autres, en tireté, ont été ajoutées, appelées limites d’alarme. Sur cet exemple, on voit que la méthode d’analyse n’est pas sous maîtrise statistique puisque vers le onzième point, on obtient une valeur largement supérieure à la limite de contrôle. Une action correctrice est, par exemple, de refaire l’étalonnage du système de mesure. En appliquant les règles de la société Ford aux données de la figure 14, on voit que le système de mesure n’est plus stable à partir du 14ème contrôle, puisque 7 mesures successives se situent du même côté de la valeur cible. De même, entre les points 27 et 34, les mesures sont toujours croissantes. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation P 224 − 19 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ Encadré 2 : place de la validation analytique dans l’autorisation de mise sur le marché des médicaments (1) Concentration (g/100g d'azote) 1,95 1,90 LCS LAS 1,85 Valeur cible 1,80 1,75 LAI 1,70 Limite d'alarme LCI 1,65 Limite de contrôle 1,60 0 5 10 15 20 25 30 35 40 Analyse Numéro de répétition de la mesure Figure 14 – Carte de contrôle de l’azote Kjeldahl dans une farine de blé Dans cet exemple la valeur cible vaut 1,77 g.kg– 1 et l’écart-type s = 0,04 g.kg– 1. À partir de là on obtient les limites supérieures et inférieures d’alarme et de contrôle. LCS 1, 89 LCI 1, 65 LAS 1, 85 LAI 1, 69 4. Procédures formalisées de validation des méthodes 4.1 Guides pour l’industrie pharmaceutique Depuis quelques années, des structures de normalisation françaises ont entrepris de rédiger des guides qui définissent l’organisation des procédures de validation intralaboratoire. Historiquement, la première tentative a été faite en 1986 par la Société Française de Biologie Clinique à l’intention des laboratoires d’analyse médicale [26]. Ce travail n’a pas connu un très grand retentissement car il n’intégrait pas les notions d’assurance qualité et que le référentiel Guide de Bonne Exécution des Analyses (GBEA) n’existait pas encore. Ensuite, en 1992, la Société des Sciences et Techniques Pharmaceutiques a développé un guide de validation à l’intention des laboratoires de l’industrie pharmaceutique contraints de conduire les études des nouveaux médicaments sous BPL [27]. Cette proposition a connu un succès beaucoup plus vaste puisqu’il a servi de support pour le développement du logiciel AVA (Qualilab, Orléans) et a été largement repris par l’International Conference on Harmonization (ICH) (encadré 2). Cette structure internationale, créée par plusieurs compagnies pharmaceutiques, a publié en 1996 un document qui décrit comment rédiger un dossier de validation pour une méthode d’analyse en conformité avec la Directive européenne 75 318 [28] (encadré 3). On peut voir que, pour certains critères, plusieurs approches expérimentales alternatives sont proposées. Pour chacune de ces propositions, on définit des nombres minimaux de mesures. C’est donc un guide relativement précis qui est disponible. Son défaut P 224 − 20 Les demandes d’Autorisation de Mise sur le Marché (AMM) des médicaments sont régies par les directives européennes 75.318 et 75.319 et plusieurs règlements, juridiquement opposables. Ils sont complétés par des « Notes explicatives » et « Avis aux demandeurs » dont l’objectif est de guider les demandeurs pour la constitution de leur dossier ; ces documents ne présentent pas un caractère réglementaire obligatoire. Il est vivement conseillé de les suivre pour faciliter l’élaboration des dossiers et leur agrément par les Autorités. Lorsque les firmes ne sont pas en mesure de les appliquer il leur appartient de justifier leur position. En vue de l’harmonisation internationale des dossiers d’AMM, l’International Conference on Harmonization (ICH) a repris les textes de la Communauté européenne (Agence européenne des médicaments), des États-Unis (Food and Drug Administration) et du Japon (Ministry of Health and Welfare) pour élaborer de nouveaux textes harmonisés, applicables dans ces trois régions. Ces nouveaux textes harmonisés ont été élaborés conjointement par les autorités réglementaires et les partenaires industriels. À la fin du processus de négociation ICH (étape 1), les textes sont mis en application par les autorités d’enregistrement nationales (étape 5) ; ces documents remplacent alors les réglementations antérieures. Dans le cadre de l’analyse des médicaments, les directives européennes prescrivent la validation analytique des techniques de contrôle. Une première note explicative européenne a été publiée. Cette note a été remplacée par deux notes explicatives issues d’ICH. Ces deux notes ont été publiées en anglais par l’Agence européenne des médicaments et sont respectivement applicables depuis juin 1995 et juin 1997. Une traduction française a été effectuée par la Pharmacopée Européenne et publiée dans Pharmeuropa. Ces notes sont également disponibles sur Internet (cf. [Doc. P 224]). (1) Cet encadré a été rédigé par F. Pellerin, Professeur honoraire à la Faculté de pharmacie de l’université Paris-XI. majeur, pour qu’il soit applicable à tout type de laboratoire d’analyse tient au fait que les analytes sont, en général, parfaitement connus – ce sont des molécules de synthèse – ce qui simplifie l’évaluation de la justesse et de la spécificité. C’est pourquoi, parallèlement, des groupes de travail AFNOR ont proposé diverses normes qui s’adressent à des laboratoires spécialisés dans d’autres branches d’activité. 4.2 Normes ■ Un exemple très intéressant de propositions pour la validation des méthodes est représenté par une série de normes destinées aux laboratoires des industries agroalimentaires : NF V03-110 et V03-111. En effet, ces laboratoires doivent faire appel à l’accréditation pour développer un système d’assurance qualité. Or, la solution imposée en France par le Cofrac consiste à être accrédité pour un programme de méthodes dites de référence. Cependant, ces méthodes ont comme caractéristiques communes d’être lourdes, anciennes et onéreuses. C’est pourquoi, de nombreux laboratoires veulent employer des méthodes alternatives et doivent procéder à une validation d’une méthode alternative par rapport à une méthode de référence. Pour simplifier le travail des laboratoires, la norme de validation V03-110 [20] a été organisée autour de trois plans d’expérience très formalisés afin de leur associer des méthodes statistiques clairement définies et réalisables dans tous les laboratoires avec un tableur. En outre, cette approche permet de proposer une présentation normalisée des résultats. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation __________________________________________________________________________________________ Encadré 3 Le plan du guide ICH indique comment peut être organisée une procédure de validation pour l’industrie pharmaceutique. 1. Spécificité 1.1 Identification 1.2 Essai et test(s) d’impureté 1.2.1 Discrimination des analytes lorsqu’il y a des impuretés 1.2.2 Discrimination des analytes lorsqu’il n’y a pas d’impuretés 2. Linéarité 3. Domaine d’application 4. Justesse 4.1 Essai 4.1.1 Substance active 4.1.2 Produit médical 4.2 Impuretés (quantification) 4.3 Données souhaitables 5. Fidélité 5.1 Répétabilité 5.2 Fidélité intermédiaire 5.3 Reproductibilité 5.4 Données souhaitables 6. Limite de détection 6.1 Obtenue par évaluation visuelle 6.2 Mesurée par le rapport signal sur bruit 6.3 Mesurée par l’écart-type de la réponse et de la pente 6.3.1 Mesurée par l’écart-type du blanc 6.3.2 Mesurée à partir d’une courbe d’étalonnage 6.4 Données souhaitables 7. Limite de quantification 7.1 Obtenue par évaluation visuelle 7.2 Mesurée par le rapport signal sur bruit 7.3 Mesurée par l’écart-type de la réponse et de la pente 7.3.1 Mesurée par l’écart-type du blanc 7.3.2 Mesurée à partir d’une courbe d’étalonnage 7.4 Données souhaitables 8. Robustesse 9. Vérification de la capabilité du système ● Le plan A permet de vérifier le domaine de linéarité. Il consiste en une série de 25 mesures formées de 5 répétitions pour 5 niveaux de concentration. Les données sont soumises à un test d’adéquation au modèle (ou de linéarité), comme celui qui est décrit au paragraphe 3.3. La méthode statistique employée s’appuie donc sur la méthode des moindres carrés et reste accessible à tous. ● Le plan B sert à contrôler la spécificité et est organisé comme au tableau 5. Il s’agit donc d’effectuer des ajouts dosés sur une série d’échantillons représentatifs du domaine d’application. Là encore la méthode des moindres carrés sert à calculer la droite de régression entre les teneurs ajoutées et les teneurs retrouvées, comme on l’a décrit au paragraphe 3.8. ● Enfin, le plan C permet de voir si la justesse et la fidélité de la méthode alternative sont acceptables, en comparaison de la méthode de référence. L’organisation et la démarche employée ont été intégralement décrites au paragraphe 3.7. ■ Il existe, parmi les normes AFNOR, d’autres documents qui présentent des procédures de validation analogues. Par exemple la norme XP V 03-111 sert à la « validation des méthodes qualitatives (microbiologie) ». Elle s’intéresse donc à des mesures qualitatives – de type présence/absence – comme on les rencontre dans la recherche des polluants microbiens. Elle consiste d’abord en une étude de caractérisation de la méthode alternative, puis en une comparaison des deux méthodes. Les critères classiques de justesse, de fidélité ou de spécificité sont redéfinis à partir de comptages de mesures discordantes et concordantes et de comptages de faux négatifs et faux positifs. VALIDATION INTERNE DES MÉTHODES D’ANALYSE ■ Enfin, récemment, on a développé la norme FD V 03-115 pour conduire une « validation avec des matériaux de référence ». Elle s’applique au cas où le domaine d’application est bien couvert par des matériaux de référence ou lorsqu’il n’existe pas de méthode de référence. ■ Pour être complet, il faut signaler qu’il existe plusieurs propositions de guides de validation provenant de diverses structures de normalisation, comme le Nordic method Council (NMKL), mais ces textes restent souvent au niveau des principes, sans proposer une méthodologie d’utilisation très élaborée. Enfin, l’Association of Official Analytical Chemists (AOAC) a proposé une approche méthodologique qui revient à une vérification par tierce partie (Peer-Verified Method) en dix étapes : — le laboratoire demandeur évalue les performances de la méthode en interne ; — il rédige un mode opératoire normalisé ; — il propose un protocole d’évaluation pour un autre laboratoire indépendant ; — il choisit ce laboratoire indépendant ; — le laboratoire indépendant réalise des essais selon le protocole d’évaluation proposé ; — il transmet les résultats au laboratoire demandeur ; — le laboratoire analyse ces données et les envoie à l’AOAC ; — l’AOAC les transmet à l’un de ses auditeurs techniques ; — l’auditeur technique choisit deux experts pour valider ; — l’AOAC décide de valider ou non la méthode d’après le rapport d’expertise. En général, ce type de validation est plutôt proposé aux producteurs de kits d’analyse qui veulent offrir une garantie d’efficacité minimale à leurs clients. 5. Informatisation des calculs Pour illustrer le fait que les calculs présentés dans ce texte – apparemment complexes pour des non-statisticiens – sont en fait simples à effectuer avec des outils logiciels présents dans tous les laboratoires, on va montrer comment les fonctions internes du tableur Microsoft Excel® permettent de réaliser les calculs du test de linéarité (cf. § 3.3). Pour cela, on va utiliser des données obtenues pour étalonner une méthode d’analyse du nickel par spectrophotométrie d’absorption atomique. Pour vérifier le domaine de linéarité, on a choisi cinq niveaux de concentration et pour chacun on a fait cinq répétitions (p = 5 et ni = 5). En fait, il est important de signaler qu’on a préparé 25 solutions étalons indépendantes et non pas 5 solutions sur lesquelles on aurait répété les mesures. Ce nombre de mesures est celui qui est recommandé pour avoir une conclusion fiable (cf. § 3.10). Les données sont rassemblées dans le tableau 6 selon la disposition d’une feuille Excel®, avec des repères de lignes (numéros) et de colonnes (lettres). Pour pouvoir appliquer les fonctions, elles sont disposées sur deux colonnes : — A4 à A28 pour les valeurs des 25 solutions étalons x ; — B4 à B28 pour les 25 réponses y. Pour commencer, on va calculer les diverses statistiques de la droite des moindres carrés qui relient ces deux variables. L’ensemble des résultats des formules (2), (3), (4), (5) et (6) peut s’obtenir à l’aide de la seule fonction DROITEREG. C’est une fonction matricielle qui renvoie un ensemble de résultats sous la forme d’un tableau. Pour l’appliquer, on va sélectionner la zone E4 à G8, soit dix cellules, et saisir la formule unique =DROITEREG(B4:B28;A4:A28;VRAI;VRAI). Cependant, au lieu de terminer cette opération en frappant sur la seule touche {Entrée} comme on fait habituellement, on va simultanément appuyer sur les trois touches {Entrée} + {Majuscules} + {Contrôle}. La formule va ainsi être automatiquement recopiée dans les dix cellules et chacune contiendra un résultat différent, comme décrit dans le tableau 7. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation P 224 − 21 VALIDATION INTERNE DES MÉTHODES D’ANALYSE ___________________________________________________________________________________________ (0) Tableau 6 – Feuille Excel® : étalonnage du nickel. Résultats de l’étude de linéarité A B C Le tableau 8 illustre les résultats ainsi obtenus. Pour plus de détails sur les arguments utilisés par cette fonction, il est nécessaire de regarder dans l’Aide Excel à propos de la fonction DROITEREG.(0) D Tableau 8 – Statistiques de régression calculées avec la fonction DROITEREG (feuille Excel®) (1) 1 Test de linéarité 2 Nombre de niveaux 3 Étalon 5 Réponse SCE(i) F a1 3 Formules Excel G a0 4 0,0 – 0,1 4 37,647 5 0,0 1,4 5 0,640 4,701 6 0,0 1,6 8 0,993 13,571 7 0,0 2,8 8 0,0 3,3 9 3,0 122,4 10 3,0 123,7 11 3,0 124,0 12 3,0 124,8 13 3,0 125,1 14 6,0 244,7 15 6,0 244,9 16 6,0 245,2 17 6,0 245,8 18 6,0 246,9 19 9,0 366,3 20 9,0 367,5 21 9,0 368,8 10 Limite de détection 0,6645 =(G4+3*G5)/F4 22 9,0 369,9 11 Limite de quantification 1,2487 =(G2+10*G5)/F4 23 9,0 369,1 24 12,0 442,5 25 12,0 443,2 26 12,0 444,0 27 12,0 445,6 12,0 446,4 10,632 =SOMME.CARRES.ECARTS(B24:B28) 28 29 Erreur pure 7,060 =SOMME.CARRES.ECARTS(B4:B8) 7 3463,127 23 9 637772,180 4235,698 (1) La présentation des données est précisée dans le tableau 7. 4,500 =SOMME.CARRES.ECARTS(B9:B13) 3,140 =SOMME.CARRES.ECARTS(B14:B18) À partir de cet ensemble de statistiques intermédiaires on va pouvoir calculer la limite de détection (LD) et la limite de quantification (LQ) selon les formules (11) et (13), comme l’indique le tableau 9. Pour clairement montrer comment les formules doivent être introduites dans le tableur, elles sont recopiées dans la colonne G. (Les numéros de cellules font référence aux données du tableau 8). Les valeurs ainsi trouvées, à savoir une limite de détection de 0,6645 mg.L – 1 et une limite de quantification de 1,2487, présentées dans la colonne F (tableau 9), sont plausibles avec ce qu’on observe habituellement. (0) Tableau 9 – Calcul des limites de détection et quantification à partir d’une régression E F G 8,088 =SOMME.CARRES.ECARTS(B19:B23) 33,420 =SOMME(C4:C28) (0) Tableau 7 – Présentation des statistiques renvoyées par la fonction DROITEREG Colonne 1 Colonne 2 Ligne 1 Sensibilité a1 Blanc a0 Ligne 2 Écart-type sa1 Écart-type sa0 Ligne 3 Non utilisé Écart-type résiduel se Ligne 4 Non utilisé Non utilisé Ligne 5 SCE Régression SCEy SCE Résiduelle SCEr P 224 − 22 10,912 De la même façon, on va combiner les données du tableau 8 pour construire le tableau du test de linéarité selon le modèle du tableau 1. Le résultat obtenu est représenté dans le tableau 10. Les formules employées dans la zone de cellules F18 à J21 ont été écrites dessous, en un seul bloc : dans la case F25 apparaît la formule de la cellule F19, et ainsi de suite. La fonction SOMME.CARRES.ECARTS, telle qu’elle est écrite dans la colonne D du tableau 6, a permis d’obtenir SCEi de chaque laboratoire et leur somme est égale à SCEe comme dans la formule (14). En ce qui concerne l’interprétation de ce test, on vérifie d’abord que le modèle de régression explique la variabilité observée. On voit ainsi que la valeur du Freg (cellule I18) vaut 381670,96 et est bien supérieure à la valeur critique correspondante (cellule J18) qui est 8,096 ; on peut donc garder l’hypothèse que ces données sont fortement corrélées. Ensuite, on constate qu’il y a une erreur de modèle (une courbure) puisque la valeur du Fem est supérieure à la valeur critique, respectivement 838,28 (en I19) et 4,938 (en J19). Le niveau de risque du test apparaît lorsque l’on entre la fonction qui permet de calculer les valeurs critiques, à savoir, =INVERSE.LOI.F. Le premier argument est ce niveau de risque, en l’occurrence 0,01 pour 1 %. Si on effectue les mêmes calculs en se limitant aux 20 premières solutions étalons, le test de non-linéarité n’est plus significatif et on peut accepter un domaine de linéarité entre 0 et 9 mg.L – 1. Pour cela, il suffit de remplacer dans la fonction DROITEREG, les zones de cellules BA:B28 ; A4:A28 par BA:B23 ; A4:A23 et le reste des calculs s’enchaîne automatiquement. (0) Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation __________________________________________________________________________________________ VALIDATION INTERNE DES MÉTHODES D’ANALYSE Tableau 10 – Étalonnage du nickel. Test de linéarité (feuille Excel®) E 17 Source F G H I J SCE Degrés de liberté V : Variances F de Fisher limites 18 Régression 637772,180 19 Erreur de modèle 20 Résiduelle 21 Total 1 637772,180 381670,96 8,096 4202,278 3 1400,759 838,28 4,938 33,420 20 1,671 642007,878 24 22 23 Formules Excel dans la zone F18 à J21 24 =F8 25 =F21-F18-F20 =C2-2 26 =C29 =G21-G19-G18 =F20/G20 27 =SOMME.CARRES.ECA =NB(B4:B28)–1 6. Conclusion Un premier apport de la validation sera de fournir une réponse objective à cette question : « la méthode utilisée permet-elle vraiment de contrôler le phénomène étudié ? ». Cependant, la validation n’est qu’une première étape dans l’emploi des méthodes chimiométriques au laboratoire. Lorsque les =F18/G18 =H18/$H$20 =INVERSE.LOI.F(0,01;G18;$G$20) =F19/G19 =H19/$H$20 =INVERSE.LOI.F(0,01;G19;$G$20) laboratoires sauront garantir ce niveau de qualité, on pourra développer des techniques d’interprétation des résultats plus sophistiquées. Les acquis de la recherche en chimiométrie fournissent déjà des voies de réflexion. On sait, par exemple, que la combinaison de mesures provenant de plusieurs méthodes d’analyse, à l’aide de méthodes statistiques à variables multiples comme l’analyse en composantes principales, facilite la mise en évidence de mécanismes complexes invisibles à des mesures isolées. Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Analyse et Caractérisation View publication stats P 224 − 23