Le principe possibiliste de maximum de spécificité comme fondement de l’expression de l’incertitude de mesure Gilles MAURIS LISTIC, Université de Savoie 1 Vision métrologique (Guide ISO et VIM) I- Représentation de l’incertitude par un paramètre qui caractérise la dispersion des valeurs attribuées à un mesurande (écart-type, demi largeur d’un intervalle d’incertitude) II- Fournir un intervalle d’incertitude du mesurande correspondant à une probabilité donnée (dès N. Bernouilli 1753) Intervalle de dispersion d’une variable aléatoire Intervalle de confiance d’un paramètre fixe mais inconnu III- L’incertitude doit pouvoir facilement être propagée 2 Intervalle de dispersion L’intervalle de dispersion Iβ est défini par: P(X appartient à Iβ)=β Il dépend de la fonction de répartition F associée à la variable aléatoire X modélisant le mesurande ou les observations associées I β = F − 1 ((1 − β ) / 2), F − 1 (1 − (1 − β ) / 2) Mais F n’est pas toujours connue -Faire l’hypothèse que F est gaussienne (TCL) -Utiliser la distribution maximale entropique (GUM Sup1) 3 Pourquoi? Aspects historiques Considérer le problème du manque d’information sur la distribution remonte à l’origine des probabilités •Principe d’indifférence (J. Bernouilli 1713) Si l’on est ignorant de la manière dont les événements se produisent alors chaque événement a la même probabilité de se produire •Principe d’indifférence (S. Laplace 1813) Les alternatives équi-possibles ont la même probabilité • Principe de la raison insuffisante (J. Keynes 1921) Quand il n’y a aucune raison de distinguer les alternatives alors elles ont la même probabilité Distribution de probabilité uniforme 4 Objections à ignorance=équi-probabilité • Pas possible de faire des prédictions à partir de l’ignorance: ex nihilo nihil [Ellis 1850] •Paradoxe de Bertrand (1889) si y=x2 alors si l’on est ignorant de x on l’est tout autant de y • Circularité de la définition de probabilité [Reichenbach 1935] Les cas équi-possibles sont en fait équiprobables Le principe a été discrédité au 20ième siècle par Fisher, Von Mises, Neyman, Pearson,…, Shafer, Dubois-Prade 5 Principe de Maximum d’Entropie (PME) Introduit par Jaynes in 1957 comme une extension du principe de la raison insuffisante When faced with partial or incomplete probability knowledge (e.g. moment or percentile constraints) leading to a family of probability distributions, the MEP provides a way to select a single one, i.e. the one having the maximum information content in the Shannon sense b f max ent ( x) = arg max f ( x ) (− ∫ f ( x) ln( f ( x))dx a b Sous contraintes : ∫ h ( x) f ( x)dx = i µ i , i = 1,..., n a où hi(x) est une puissance de x (contrainte de moment) ou une fonction indicatrice (contrainte de percentile) 6 Exemples de distribution maximale entropique •Uniquement le support connu Loi uniforme •Moyenne et écart-type connus Loi gaussienne • Support positif et moyenne connue Loi exponentielle • Ecart absolu moyen connu Loi de Laplace •…. 7 Mais quelques remarques troublantes • Les distributions précédentes sont unimodales bien que l’unimodalité ne soit pas imposée •La distribution maximale entropique n’existe pas toujours (ex:uniquement moyenne connue sur R) • Pour des variables continues, seules des propositions du type x − ε ≤ X ≤ x + ε ont un sens P(X=x)=0. L’entropie est définie à partir de la densité! Le principe du maximum d’entropie n’est pas adapté à l’expression de l’incertitude de mesure 8 Distribution de possibilité [Zadeh 78][Dubois-Prade] π 1 0.8 0 R x π(x) est un sous ensemble flou ave une sémantique d’incertitude sup (π(x)/x appartient à R)=1(au lieu int(π(x)dx)=1) π(x) représente la possibilité (au lieu de la probabilité) que la valeur de la variable aléatoire X soit x π(x) exprime de manière intuitive l’incertitude de mesure 9 Spécificité d’une distribution de possibilité π Ignorance totale 1 π3 π1 π2 R 0 Connaissance certaine Pour tout x : π1(x) < π2(x) < π3(x) π1 est plus spécifique que π2 elle même plus spécifique que π3 (le plus spécifique le moins dispersé) La spécificité renseigne sur le contenu informationnel 10 Liens probabilité/possibilité Une distribution de possibilité est un empilement d’intervalles emboîtés d’incertitude πα(x): α-coupe de π (c’est un intervalle) π 1 π(x)=supα(α.πα(x)) α 0 x x* Intervalle d’incertitude 11 Transformations probabilité/possibilité Les α-coupes de π sont identifiées aux intervalles de dispersion de niveau β=1-α de la densité p différents types d’intervalles de dispersion I β = xinf ( β ), xsup ( β ) / P ( I β ) = β e.g. symétriques autour de la médiane I β = F − 1 ((1 − β ) / 2), F − 1 (1 − (1 − β ) / 2) π ( x) = 1 − 2 F ( x) − 0.5 = min(2 F ( x), 2(1 − F ( x)) π est reliée à la répartition F associée à la densité p L’ordre de spécificité implique les ordres classiques: variance, entropie,…[Mauris IFSA 09] 12 Exemples de transformation [Mauris 2001] x ∀ x ∈ [ − ∞ , m ] , π m ( x) = 2 ∫ p( y )dy = 2 F ( x) −∞ ∀ x ∈ [ m, + ∞ ] , π ( x) = 2(1 − F ( x)) m Distributions de possibilités 1 0.9 Distributions de probabilités 0.8 0.8 0.7 0.7 0.6 0.6 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.1 0.1 0 m -6σ m -4σ m -2σ m m +2σ m + 4σ m + 6σ 0 m -2σ m m +2σ 13 Famille de distributions de probabilité Une distribution de possibilité π définit aussi une famille de distributions de probabilité P (π) ={P/ ∀ A ⊆ Ω , P( A) ≤ Π ( A) } • Π(A)=sup (P(A)/ P appartient P (π) ) • Ν(A)=inf (P(A)/ P appartient à P (π) ) Utile pour les cas d’information partielle sur la distribution de probabilité: Uniquement le support, le mode, ..., Evite le problème de la sélection d’une seule («la meilleure») distribution de probabilité comme il est 14 proposé dans le principe du maximum d’entropie Principe de maximum de spécificité Etant donné une famille de distributions de probabilité (par exemple définie par des moments ou percentiles), quelle est la distribution de possibilité π dominant toutes les distributions de probabilité de la famille, i.e. Π(Α)>P(A) π (t ) = max X ∈ P Pr( X − m ≥ t ) Sous contraintes: b ∫ h ( x) f ( x)dx = i µ i , i = 1,..., n a Liens avec les inégalités probabilistes: P X − x0 > t ≤ C ( F , r ) EF X − x0 tr l’inégalité de Bienaymé (1853)-Chebyshev (1867) correspond à la famille des distributions de moyenne et écart type fixés. l’inégalité de Gauss (1821)-Winckler (1866) correspond à la famille des 15 distributions unimodales de moyenne et écart type fixés r Avantages de la vision possibiliste • L’ignorance n’est pas modélisée par l’équiprobabilité • Pour Y=X2 par le principe d’extension de Zadeh l’ignorance sur X conduit bien à l’ignorance sur Y • Pas de circularité dans la définition: possible n’est pas identique à probable • La distribution de possibilité est relié à distribution et pas directement à la densité • La distribution maximale spécifique existe toujours et devient de plus en plus spécifique quand on ajoute de l’information (par exemple unimodalité) Pas d’objections au principe du maximum de spécificité 16 Comparison Max Entropie/Max Spécificité Exemples de variables à support fini Uniquement support connu -> loi uniforme/dis. de possibilité rectangulaire Unimodalité -> loi uniforme/dis. de possibilité triangulaire Symétrie -> loi uniforme/dis. de possibilité triangulaire symétrique Intervalles de dispersion autour du mode de la distribution maximale entropique sont égaux aux α-coupes de la distribution maximale spécifique 17 Comparaison Max Entropie/Max Spécificité Exemples de variables à support infini BT(m,σ) GW(us,m,σ) Gauss σ 2 π (m − t ) = π (m + t ) = P X − m > t = min(1, 2 ) t 2 t 4σ π (m − t ) = π (m + t ) = min(1, max(1 − , 2 )) 3σ 9t π (m − t ) = π (m + t ) = 1 − 2 FG (0,σ ) (t ) − 0.5 18 Bornes de spécificité de famille de probabilités Famille des lois unimodales à support borné Uniforme de chaque coté du mode Famille des lois unimodales de même moyenne et écart-type f GW ( µ + t ) = f GW ( µ − t ) = 1 2 3σ 4σ 2 f GW ( µ + t ) = f GW ( µ − t ) = 9t 3 si 2 t≤ si t≥ 3 2 3 σ σ Cette distribution de probabilité a un écart type infini Famille des lois unimodales de même moyenne et écart absolu moyen 1 f Nar ( µ + t ) = f Nar ( µ − t ) = 4δ δ f Nar ( µ + t ) = f Nar ( µ − t ) = 8t 2 si t≤δ si t≥δ Cette distribution de probabilité a un écart absolu moyen infini 19 Conclusion • La distribution de possibilité maximale spécifique contient toujours les intervalles de dispersion de la distribution de probabilité maximale entropique. • Egalité pour le cas à support fini (loi uniforme) et proche pour le cas à support infini symétrique de moyenne et écart-type connus (loi de Gauss/inégalité Gauss-Winkler) Le principe possibiliste de maximum de spécificité est mieux fondé que le principe du maximum d’entropie pour l’expression de l’incertitude de mesure Ceteris incognitis vs Ceteris paribus L’approche possibiliste est compatible avec les recommandations du Guide ISO et du VIM et les résultats sont assez souvent peu différents de ceux obtenus par les approches conventionnelles 20 Comparaison calculs b f max ent ( x) = arg max f ( x ) (− ∫ f ( x) ln( f ( x))dx a b ∫ h ( x) f ( x)dx = Sous contraintes : i µ i , i = 1,..., n a f max ent ( x) = e − a0 − 1− a1h1 ( x ) − a2 h2 ( x ) − ...− ahn ( x ) Les ai sont obtenus par résolution d’un système d’équations non linéaires Pour support fini et moyenne fixée il faut faire une approximation numérique π (t ) = max X ∈ P Pr( X − m ≥ t ) b Sous contraintes: ∫ h ( x) f ( x)dx = i µ i , i = 1,..., n a π obtenue par programmation semi définie et optimisation convexe Une solution analytique pour bon nombre de cas 21