ANNEXE Meilleur estimateur de x Montrons que le meilleur estimateur de x lorsque la densité de probabilité est une gaussienne est 1 N x ∗ = ∑ xi . N i =1 On a réalisé N mesures de X donnant les valeurs xi . ème La probabilité d’obtenir la valeur xi (à dx près) effectivement obtenue lors de la i mesure est − ( x i − x )2 2 proportionnelle à e 2σ . La probabilité P d’obtenir l’ensemble des valeurs xi (événements indépendants) est donc N 2 ∑ ( xi − x ) N − 2 proportionnelle à ∏ e 2σ = exp − i =1 2σ2 i =1 On applique alors le principe du maximum de vraisemblance : la valeur cherchée x (inconnue) est estimée en cherchant, parmi toutes les valeurs possibles de x , celle x ∗ qui rend maximale la probabilité P d’obtenir l’ensemble des valeurs xi . En effet, la probabilité d’avoir cet ensemble de mesures est un produit de lois gaussiennes : il y a beaucoup de combinaisons possibles, donc beaucoup de résultats expérimentaux possibles, mais tous correspondent pratiquement à la probabilité maximale, et ce d’autant plus que N est grand. ( xi − x )2 d Ceci entraîne dx N 1 N N ∗ 2 x = x = ∑ xi ∑ ( xi − x ) = −2 ∑ ( xi − x ) = 0 soit N i =1 i =1 i =1 Justification de σ x = ∗ σ N Réalisons une série de N mesures indépendantes de la grandeur X : elle fournit des résultats xi N avec i ∈ [1, N ] . On en déduit la valeur moyenne de la série x ∗ = ∑ xi i =1 . N Les mesures xi sont distribuées selon une loi normale dont l’écart-type est σ. La formule de propagation des incertitudes fournit : N ∑ σ2 σ N σ = . N N N Plus on réalise de mesures, plus l’incertitude sur la valeur moyenne est faible. σ x∗ = i =1 = 1 N ( x i − x ∗ )2 Justification de σ = ∑ N − 1 i =1 ∗ (ou : pourquoi N − 1 et pas N au dénominateur ?) On peut recommencer un très grand nombre de fois (en théorie une infinité) des séries de N N mesures x i ,k : pour la k Soit Ak = Or Ak = Ak = N N ∑ ( x i ,k − x k ème série, on obtient x k ∗ = ∑ x i ,k i =1 N . ∗ 2 ) . On veut donc montrer que A = Ak = (N − 1)σ2 i =1 N N N i =1 i =1 i =1 N 2 2 2 ∗ ∗ 2 ∗ ∗ ∑ xi ,k − 2 ∑ xi ,k xk + ∑ xk = ∑ xi ,k − 2Nxk + Nxk ∑ x i ,k 2 i =1 − Nxk ∗2 = 2 soit : i =1 2 N ∑ x i ,k i =1 2 N N 1 N 1 N − ∑ x i ,k = ∑ x i ,k 2 − ∑ x i ,k ∑ x j ,k N i =1 N i =1 i =1 j =1 1 N 1N 2 Ak = ∑ xi ,k − ∑ xi ,k − ∑ xi ,k x j ,k N i =1 i =1 N i , j i ≠ j N −1 N 1N 2 D’où Ak = ∑ x i ,k − ∑ x i ,k x j ,k N i =1 N i , j i ≠ j N 2 2 2 2 2 Or σ2 = ( x i − x )2 = xi − x ⇒ xi ,k = x i = σ2 + x 2 D’autre part, les mesures étant indépendantes, 2 ( xi − x )( x j − x ) = 0 ⇔ ( xi x j − xi x − x j x + x ) = 0 2 2 2 2 soit x i x j − x − x + x = x i x j − x = 0 d’où x i ,k x j ,k = xi x j = x On a finalement bien A = 2 2 2 N −1 1 N (σ2 + x ) − N (N − 1)x , soit : N N 2 2 A = (N − 1)(σ2 + x ) − (N − 1)x = (N − 1)σ2 Propagation des incertitudes La mesure d’une grandeur X fournit un résultat x avec une incertitude ∆x . Supposons que la grandeur X ne soit pas directement accessible par la mesure mais liée à des mesures indépendantes de deux grandeurs elles-mêmes indépendantes X1 et X 2 dont les valeurs mesurées sont x1 (avec un écart-type σ1 , ou une incertitude élargie ∆x1 ) et x 2 (avec un écart-type σ2 , ou une incertitude élargie ∆x2 ) : X = f ( X1, X 2 ) . Si les incertitudes sont supposées petites, on peut effectuer un développement limité à l’ordre 1 de la fonction f autour du point ( x1 , x2 ) : x = f ( x1, x2 ) = f ( x1, x2 ) + ( x1 − x1) où ∂f ∂f ( x1, x2 ) + ( x2 − x2 ) ( x1, x2 ) ∂X1 ∂X 2 ∂f ∂f ( x1, x2 ) et ( x1, x2 ) sont les dérivées partielles de X par rapport à X1 et X 2 , calculées au ∂X1 ∂X 2 point ( x1 , x2 ). Prenons la valeur moyenne de cette expression : x = f ( x1, x2 ) + ( x1 − x1) ∂f ∂f ( x1, x2 ) + ( x2 − x2 ) ( x1, x2 ) = f ( x1, x2 ) , puisque : ( x1 − x1) = x1 − x1 = 0 et ∂X1 ∂X 2 ( x 2 − x 2 ) = x 2 − x 2 = 0 , les valeurs mesurées étant par définition les valeurs moyennes. On a donc : x = f ( x1, x2 ) Il reste à déterminer l’incertitude sur x (due aux incertitudes sur x1 et x2 ). [ ]2 d’où : Par définition de l’écart type, on a σ2 = ( x − x )2 = x − f ( x1, x2 ) 2 ∂f ∂f σ = ( x1 − x1) ( x1, x2 ) + ( x2 − x2 )2 ( x1, x2 ) ∂X1 ∂X 2 2 2 + 2( x1 − x1)( x2 − x2 ) 2 ∂f ∂f ( x1, x2 ) ( x1, x2 ) ∂X1 ∂X 2 Les variables X1 et X 2 étant indépendantes, on a ( x1 − x1)( x2 − x2 ) = 0 (corrélation nulle). Comme par définition ( x1 − x1)2 = σ12 et ( x 2 − x2 )2 = σ22 , on a : 2 ∂f ∂f σ = σ12 ( x1, x 2 ) + σ22 ( x1, x 2 ) ∂X1 ∂X 2 2 L’incertitude élargie étant proportionnelle à l’écart-type, on obtient la relation fondamentale permettant de calculer l’incertitude sur X : 2 ∂f ∂f ∆x = ( ∆x1) ( x1, x2 ) + ( ∆x 2 )2 ( x1, x2 ) ∂X1 ∂X 2 2 2 Écart-type d’un densité de probabilité rectangulaire. La densité de probabilité est supposée uniforme, égale à a, entre x1 et x2 , et nulle hors de cet intervalle. x2 On a donc ∫ adx = 1 ⇒ a = x1 1 x2 − x1 On en déduit la valeur moyenne x = x2 a ∫ axdx = 2 ( x2 2 − x12 ) = x1 σ2 = x2 ∫ a( x − x )2 dx = x1 2 x2 ∫ ax 2 2 dx − x = x1 2 2 x1 + x2 et l’écart-type : 2 2 a ( x 23 − x13 ) − x 3 2 2 = x1 + x1x 2 + x 2 x + 2 x1x 2 + x 2 x − 2 x1x 2 + x2 − 1 = 1 3 4 12 = ( x 2 − x1)2 12 D’où σ = 2 x 2 − x1 12 Bibliographie sommaire : TAYLOR John, Incertitudes et analyse des erreurs dans les mesures physiques, Dunod, 2000, 318 p. BELORIZKY Elie, Probabilités et statistiques dans les sciences expérimentales, Nathan Université, collection 128, 1998, 130 p. VENTZEL Hélène, Théorie des probabilités, Editions Mir, 1982, 572 p. MOREAU René, Mesures, erreurs et incertitudes en Physique-Chimie, Université d’Angers [en ligne]. Disponible (et également sur d’autres sites) http://ead.univ-angers.fr/~capespc/physique/generalites/mesureserreursincertitudes_moreau2.pdf Groupe des Sciences physiques et chimiques de l’IGEN, Nombres, mesures et incertitudes en sciences physiques et chimiques, EDUSCOL [en ligne]. Disponible http://media.eduscol.education.fr/file/PC/66/3/Ressources_PC_nombres_mesures_incertitudes_144 663.pdf