Le principe possibiliste de maximum de spécificité comme fondement de

publicité
Le principe possibiliste de maximum de
spécificité comme fondement de
l’expression de l’incertitude de mesure
Gilles MAURIS
LISTIC, Université de Savoie
1
Vision métrologique (Guide ISO et VIM)
I- Représentation de l’incertitude par un paramètre qui
caractérise la dispersion des valeurs attribuées à un mesurande
(écart-type, demi largeur d’un intervalle d’incertitude)
II- Fournir un intervalle d’incertitude du mesurande
correspondant à une probabilité donnée (dès N. Bernouilli 1753)
Intervalle de dispersion d’une variable aléatoire
Intervalle de confiance d’un paramètre fixe mais inconnu
III- L’incertitude doit pouvoir facilement être propagée
2
Intervalle de dispersion
L’intervalle de dispersion Iβ est défini par:
P(X appartient à Iβ)=β
Il dépend de la fonction de répartition F associée à la
variable aléatoire X modélisant le mesurande ou les
observations associées
I β =  F − 1 ((1 − β ) / 2), F − 1 (1 − (1 − β ) / 2) 
Mais F n’est pas toujours connue
-Faire l’hypothèse que F est gaussienne (TCL)
-Utiliser la distribution maximale entropique (GUM
Sup1)
3
Pourquoi?
Aspects historiques
Considérer le problème du manque d’information sur
la distribution remonte à l’origine des probabilités
•Principe d’indifférence (J. Bernouilli 1713)
Si l’on est ignorant de la manière dont les événements se produisent alors
chaque événement a la même probabilité de se produire
•Principe d’indifférence (S. Laplace 1813)
Les alternatives équi-possibles ont la même probabilité
• Principe de la raison insuffisante (J. Keynes 1921)
Quand il n’y a aucune raison de distinguer les alternatives alors elles ont
la même probabilité
Distribution de probabilité uniforme
4
Objections à ignorance=équi-probabilité
• Pas possible de faire des prédictions à partir de
l’ignorance: ex nihilo nihil [Ellis 1850]
•Paradoxe de Bertrand (1889)
si y=x2 alors si l’on est ignorant de x on l’est
tout autant de y
• Circularité de la définition de probabilité
[Reichenbach 1935]
Les cas équi-possibles sont en fait équiprobables
Le principe a été discrédité au 20ième
siècle par Fisher, Von Mises, Neyman,
Pearson,…, Shafer, Dubois-Prade
5
Principe de Maximum d’Entropie (PME)
Introduit par Jaynes in 1957 comme une extension du
principe de la raison insuffisante
When faced with partial or incomplete probability knowledge (e.g.
moment or percentile constraints) leading to a family of probability
distributions, the MEP provides a way to select a single one, i.e. the
one having the maximum information content in the Shannon sense
b
f max ent ( x) = arg max f ( x ) (− ∫ f ( x) ln( f ( x))dx
a
b
Sous contraintes :
∫ h ( x) f ( x)dx =
i
µ i , i = 1,..., n
a
où hi(x) est une puissance de x (contrainte de moment) ou une
fonction indicatrice (contrainte de percentile)
6
Exemples de distribution maximale entropique
•Uniquement le support connu
Loi uniforme
•Moyenne et écart-type connus
Loi gaussienne
• Support positif et moyenne connue
Loi exponentielle
• Ecart absolu moyen connu
Loi de Laplace
•….
7
Mais quelques remarques troublantes
• Les distributions précédentes sont unimodales
bien que l’unimodalité ne soit pas imposée
•La distribution maximale entropique n’existe pas
toujours (ex:uniquement moyenne connue sur R)
• Pour des variables continues, seules des
propositions du type x − ε ≤ X ≤ x + ε ont un sens
P(X=x)=0.
L’entropie est définie à partir de la densité!
Le principe du maximum d’entropie n’est pas
adapté à l’expression de l’incertitude de mesure 8
Distribution de possibilité [Zadeh 78][Dubois-Prade]
π
1
0.8
0
R
x
π(x) est un sous ensemble flou ave une sémantique d’incertitude
sup (π(x)/x appartient à R)=1(au lieu int(π(x)dx)=1)
π(x) représente la possibilité (au lieu de la probabilité)
que la valeur de la variable aléatoire X soit x
π(x) exprime de manière intuitive l’incertitude de mesure
9
Spécificité d’une distribution de possibilité
π
Ignorance totale
1
π3
π1
π2
R
0
Connaissance certaine
Pour tout x : π1(x) < π2(x) < π3(x)
π1 est plus spécifique que π2 elle même plus spécifique que π3
(le plus spécifique le moins dispersé)
La spécificité renseigne sur le contenu informationnel
10
Liens probabilité/possibilité
Une distribution de possibilité est un
empilement d’intervalles emboîtés d’incertitude
πα(x): α-coupe de π (c’est un intervalle)
π
1
π(x)=supα(α.πα(x))
α
0
x
x*
Intervalle d’incertitude
11
Transformations probabilité/possibilité
Les α-coupes de π sont identifiées aux intervalles de
dispersion de niveau β=1-α de la densité p
différents types d’intervalles de dispersion
I β =  xinf ( β ), xsup ( β )  / P ( I β ) = β
e.g. symétriques autour de la médiane
I β =  F − 1 ((1 − β ) / 2), F − 1 (1 − (1 − β ) / 2) 
π ( x) = 1 − 2 F ( x) − 0.5 = min(2 F ( x), 2(1 − F ( x))
π est reliée à la répartition F associée à la densité p
L’ordre de spécificité implique les ordres classiques:
variance, entropie,…[Mauris IFSA 09]
12
Exemples de transformation [Mauris 2001]
x
∀ x ∈ [ − ∞ , m ] , π m ( x) = 2 ∫ p( y )dy = 2 F ( x)
−∞
∀ x ∈ [ m, + ∞ ] , π ( x) = 2(1 − F ( x))
m
Distributions de possibilités
1
0.9
Distributions de probabilités
0.8
0.8
0.7
0.7
0.6
0.6
0.5
0.5
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1
0
m -6σ
m -4σ
m -2σ
m
m +2σ
m + 4σ
m + 6σ
0
m -2σ
m
m +2σ
13
Famille de distributions de probabilité
Une distribution de possibilité π définit aussi une famille
de distributions de probabilité
P (π) ={P/ ∀ A ⊆ Ω , P( A) ≤ Π ( A) }
• Π(A)=sup (P(A)/ P appartient P (π) )
• Ν(A)=inf (P(A)/ P appartient à P (π) )
Utile pour les cas d’information partielle sur la
distribution de probabilité:
Uniquement le support, le mode, ...,
Evite le problème de la sélection d’une seule («la
meilleure») distribution de probabilité comme il est
14
proposé dans le principe du maximum d’entropie
Principe de maximum de spécificité
Etant donné une famille de distributions de probabilité (par
exemple définie par des moments ou percentiles), quelle est la
distribution de possibilité π dominant toutes les distributions
de probabilité de la famille, i.e. Π(Α)>P(A)
π (t ) = max X ∈ P Pr( X − m ≥ t )
Sous contraintes:
b
∫ h ( x) f ( x)dx =
i
µ i , i = 1,..., n
a
Liens avec les inégalités probabilistes: P 
X − x0 > t  ≤ C ( F , r )
EF X − x0
tr
l’inégalité de Bienaymé (1853)-Chebyshev (1867) correspond à la famille
des distributions de moyenne et écart type fixés.
l’inégalité de Gauss (1821)-Winckler (1866) correspond à la famille des 15
distributions unimodales de moyenne et écart type fixés
r
Avantages de la vision possibiliste
• L’ignorance n’est pas modélisée par l’équiprobabilité
• Pour Y=X2 par le principe d’extension de Zadeh
l’ignorance sur X conduit bien à l’ignorance sur Y
• Pas de circularité dans la définition: possible n’est pas
identique à probable
• La distribution de possibilité est relié à distribution et
pas directement à la densité
• La distribution maximale spécifique existe toujours et
devient de plus en plus spécifique quand on ajoute de
l’information (par exemple unimodalité)
Pas d’objections au principe du maximum de spécificité
16
Comparison Max Entropie/Max Spécificité
Exemples de variables à support fini
Uniquement support connu -> loi uniforme/dis. de possibilité rectangulaire
Unimodalité -> loi uniforme/dis. de possibilité triangulaire
Symétrie -> loi uniforme/dis. de possibilité triangulaire symétrique
Intervalles de dispersion autour du mode de la distribution maximale
entropique sont égaux aux α-coupes de la distribution maximale
spécifique
17
Comparaison Max Entropie/Max Spécificité
Exemples de variables à support infini
BT(m,σ)
GW(us,m,σ)
Gauss
σ 2
π (m − t ) = π (m + t ) = P  X − m > t  = min(1, 2 )
t
2
t
4σ
π (m − t ) = π (m + t ) = min(1, max(1 −
, 2 ))
3σ 9t
π (m − t ) = π (m + t ) = 1 − 2 FG (0,σ ) (t ) − 0.5
18
Bornes de spécificité de famille de
probabilités
Famille des lois unimodales à support borné
Uniforme de chaque coté du mode
Famille des lois unimodales de même moyenne et écart-type
f GW ( µ + t ) = f GW ( µ − t ) =
1
2 3σ
4σ 2
f GW ( µ + t ) = f GW ( µ − t ) =
9t 3
si
2
t≤
si
t≥
3
2
3
σ
σ
Cette distribution de probabilité a un écart type infini
Famille des lois unimodales de même moyenne et écart
absolu moyen
1
f Nar ( µ + t ) = f Nar ( µ − t ) =
4δ
δ
f Nar ( µ + t ) = f Nar ( µ − t ) =
8t 2
si
t≤δ
si
t≥δ
Cette distribution de probabilité a un écart absolu moyen infini
19
Conclusion
• La distribution de possibilité maximale spécifique contient
toujours les intervalles de dispersion de la distribution de
probabilité maximale entropique.
• Egalité pour le cas à support fini (loi uniforme) et proche
pour le cas à support infini symétrique de moyenne et
écart-type connus (loi de Gauss/inégalité Gauss-Winkler)
Le principe possibiliste de maximum de spécificité est
mieux fondé que le principe du maximum d’entropie
pour l’expression de l’incertitude de mesure
Ceteris incognitis vs Ceteris paribus
L’approche possibiliste est compatible avec les recommandations du
Guide ISO et du VIM et les résultats sont assez souvent peu
différents de ceux obtenus par les approches conventionnelles 20
Comparaison calculs
b
f max ent ( x) = arg max f ( x ) (− ∫ f ( x) ln( f ( x))dx
a
b
∫ h ( x) f ( x)dx =
Sous contraintes :
i
µ i , i = 1,..., n
a
f max ent ( x) = e − a0 − 1− a1h1 ( x ) − a2 h2 ( x ) − ...− ahn ( x )
Les ai sont obtenus par résolution d’un système d’équations non linéaires
Pour support fini et moyenne fixée il faut faire une approximation numérique
π (t ) = max X ∈ P Pr( X − m ≥ t )
b
Sous contraintes:
∫ h ( x) f ( x)dx =
i
µ i , i = 1,..., n
a
π obtenue par programmation semi définie et optimisation convexe
Une solution analytique pour bon nombre de cas
21
Téléchargement