Un exemple introductifHistorique L`approche

publicité
Un exemple introductif
Un exemple introductif
Historique
Historique
L'approche bayésienne
L'approche bayésienne
Application à l'ergonomie
Application à l'ergonomie
Sommaire
Probabilité des données vs. probabilité du modèle
Deux approches de la décision statistique
1
2
Yvonnick Noël
Université de Rennes 2
3
Evry, le 28 mars 2008
4
Yvonnick Noël
Un exemple introductif
Historique
La théorie de Fisher (1925, 1935)
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
L'approche bayésienne
Le facteur de Bayes
L'approximation BIC
Application à l'ergonomie
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
Une expérience de télékinésie
Modélisation
Quelqu'un arme pouvoir faire sortir le côté pile d'une
pièce plus souvent que le hasard ne le laisserait attendre, par la
force de sa pensée .
Vous le mettez à l'épreuve : sur 200 lancers d'une pièce
équilibrée, à l'aide d'une machine, 113 sont tombés sur le côté
pile .
Diriez-vous que cette personne dispose d'un pouvoir
psychique ?
On ne peut répondre à cette question qu'en construisant un
modèle de probabilité pour la situation.
Le modèle le plus simple consiste à considérer que le sujet n'a
pas de pouvoir. La probabilité de voir le côté pile sortir à
chaque essai est alors connue : π0 = 12 .
Si ce modèle est vrai, la probabilité que le nombre X
d'apparitions de pile soit k (k = 0, ..., 200) est binomiale :
P (X
ou en abrégé X
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
Probabilité des données vs. probabilité du modèle
= k |π0 ) = CNk π0k (1 − π0 )N −k
∼ B (N , π0 ).
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Un exemple introductif
Historique
Historique
L'approche bayésienne
L'approche bayésienne
Application à l'ergonomie
Application à l'ergonomie
Notion de valeur p
Conclusion
Pour mettre à l'épreuve ce modèle, il est classique de calculer
la valeur p : c'est la probabilité d'observer un résultat au
moins aussi élevé, selon ce modèle.
On a ici :
p = P (X
= P (X
=
200
X
≥ 113|π0 )
= 113|π0 ) + P (X = 114|π0 ) + ... + P (X = 200|π0 )
200
k =113
k
C200
1
2
Cette valeur est plutôt petite si on la juge par rapport à un
seuil arbitraire de α = 0.05 par exemple.
Dans cette situation, on rejette l'hypothèse de départ
(équiprobabilité des faces), avec moins de 5 chances sur 100
de se tromper.
Je suis quand même un peu perturbé d'avoir à donner du
crédit au pouvoir psychique ...
≈ 0.038419
Yvonnick Noël
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
Probabilité des données vs. probabilité du modèle
La théorie de Fisher (1925, 1935)
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
Les tests de signicativité Historique
L'approche bayésienne
Probabilité des données vs. probabilité du modèle
La théorie de Fisher (1925, 1935)
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
La notion d'hypothèse nulle
Les tests de signication ont envahi la plupart des domaines
scientiques.
Un résultat signicatif au seuil fatidique de 0.05 est
pratiquement devenu une norme de publication en
psychologie.
Cette approche a des origines historiques qu'il faut rappeler1 si
l'on veut comprendre à quel point elle est limitative.
1
Yvonnick Noël
Un exemple introductif
Application à l'ergonomie
C'est Fisher (1925, 1935) qui cristallise et formalise la pratique
de la valeur p déjà en vigueur (Pearson publie le principe du
test de χ2 en 1900).
Elle s'appuie sur la dénition d'une hypothèse nulle,
c'est-à-dire celle qui doit être nulliée (rejetée). C'est en
général la négation de l'hypothèse à laquelle s'intéresse le
chercheur.
Le résultat de la procédure est soit le rejet de l'hypothèse
nulle, soit la suspension du jugement, l'hypothèse nulle ne
pouvant être acceptée positivement.
Poitevineau, J. (2004). L'usage des tests statistiques par les chercheurs en psychologie : aspect
normatif, descriptif et prescriptif.
Mathématiques et Sciences Humaines, 167,
Yvonnick Noël
5-25.
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
La théorie de Fisher (1925, 1935)
Un exemple introductif
Historique
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
Notion d'erreur de décision
L'approche bayésienne
Application à l'ergonomie
La théorie de Fisher (1925, 1935)
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
La notion de valeur p
Une fois les données échantillonnées, on calcule la valeur p :
probabilité d'avoir des données au moins aussi extrêmes si
l'hypothèse nulle est vraie.
Dans cette approche shérienne, il n'y a donc qu'un seul type
d'erreur : l'erreur de rejet de l'hypothèse nulle alors qu'elle
était vraie.
La valeur obtenue est considérée comme indicatrice du
caractère improbable des données observées, d'après
l'hypothèse nulle.
On note que cette valeur a aussi le sens de la probabilité de
se tromper si on décide de rejeter l'hypothèse nulle.
On juge de ce que cette valeur est grande ou petite en
référence à un seuil de décision arbitrairement choisi (par
exemple α = 0.05).
Yvonnick Noël
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
La théorie de Fisher (1925, 1935)
Un exemple introductif
Historique
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
Une erreur sur le long terme
L'approche bayésienne
Application à l'ergonomie
Probabilité des données vs. probabilité du modèle
La théorie de Fisher (1925, 1935)
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
Erreurs de type I et II
Pour Fisher, la valeur p est essentiellement un indice de
décision pour rejeter ou non une hypothèse nulle sur un jeu de
données particulier.
Neyman & Pearson (1933) proposent un cadre de réexion
plus fréquentiste sur les tests : il s'agit de minimiser la
probabilité de se tromper à long terme, sur un grand
nombre d'essais du même type.
Neyman & Pearson dénissent une hypothèse de référence,
qui est celle qui intéresse le chercheur et qu'ils notent H0 (ce
n'est donc pas l'hypothèse nulle shérienne !).
La procédure de test doit mener à l'une ou l'autre des deux
décisions : rejeter ou accepter cette hypothèse de référence.
Il y a donc deux types d'erreur de décision, inversement liés :
rejeter H0 alors qu'elle est vraie (erreur de type I ou de type α),
accepter H0 alors qu'elle est fausse (erreur de type II ou de
type β ).
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
Dans l'approche de Neyman & Pearson :
on cherche à opposer et confronter plusieurs hypothèses
(souvent deux)
on accepte l'une ou l'autre, selon l'appartenance ou non
d'une statistique à un intervalle critique (par exemple [0; 0.05]
pour la valeur p).
Yvonnick Noël
Historique
L'approche bayésienne
La théorie de Fisher (1925, 1935)
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
Au fait, dans notre exemple du lancer de pièce, quelle est
notre hypothèse de référence ?
Si je suis un adepte des sciences occultes, mon hypothèse est
de référence est que la probabilité π de voir pile apparaître
est supérieure à 21 : π > π0 .
Le cadre shérien me convient : je cherche assidûment tout
élément de contradiction quel qu'il soit avec l'hypothèse
nulle...
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
La théorie de Fisher (1925, 1935)
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
Dénir l'hypothèse de référence (II)
Si je suis rationaliste, l'hypothèse de référence est
l'équiprobabilité des faces :
le cadre shérien me pose un problème car je ne peux pas
valider l'hypothèse nulle !
le cadre Neyman-Pearson me conduit à :
xer un seuil de décision élevé (α = 0.20 par exemple),
exiger d'avoir une valeur p supérieure au seuil pour donner du
crédit à ma théorie (en minimisant ainsi, sans la connaître, la
probabilité de me tromper).
Yvonnick Noël
L'approche bayésienne
Application à l'ergonomie
Dénir l'hypothèse de référence (I)
Dans l'approche shérienne, on cherche à cumuler des preuves
contre l'hypothèse nulle, sans égard pour la nature de
l'alternative.
Un exemple introductif
Historique
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
Une approche comparative
Application à l'ergonomie
Un exemple introductif
La théorie de Fisher (1925, 1935)
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
Probabilité des données vs. probabilité du modèle
La théorie de Fisher (1925, 1935)
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
Pratiques actuelles
Les pratiques actuelles semblent mêler les deux approches
sans plus les distinguer :
on ne distingue plus dans le choix des termes H0
(Neyman-Pearson) et hypothèse nulle (Fisher).
on dénit son hypothèse de référence par négation de
l'hypothèse nulle (Fisher), mais on évoque parfois l'erreur de
type II (Neyman-Pearson).
la valeur p utilisée comme statistique de décision (Fisher) est
parfois appelée risque (Neyman-Pearson).
...
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
La théorie de Fisher (1925, 1935)
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
Limites des théories classiques (I)
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
La théorie de Fisher (1925, 1935)
L'approche de Neyman et Pearson (1928, 1933)
Limites des théories classiques
Limites de théories classiques (II)
L'approche par valeur p a suscité, et depuis longtemps, de
nombreuses critiques :
Le choix de la valeur seuil α est arbitraire dans l'approche
shérienne (voir aussi la distinction unilatérale ou bilatérale).
C'est une approche qui mène à une décision binaire :
accepter ou rejeter l'un ou l'autre de deux modèles.
La valeur p ne permet pas de mesurer le degré de désaccord
avec l'hypothèse nulle (eet taille d'échantillon).
Biais de publication : les études à eets non signicatifs ont
Calculer la probabilité d'un résultat au moins aussi extrême
revient à utiliser des évènements qui ne se sont pas produits !
Décision par la négative : l'hypothèse d'intérêt est souvent
Le raisonnement est peu intuitif : plutôt que de calculer
P (D |M ), on préférerait calculer la probabilité que le modèle
soit vrai, au vu des données P (M |D ).
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
peu de chances d'être publiées.
représentée comme la négation de l'hypothèse nulle. Parfois,
c'est l'absence d'eet qui est attendue théoriquement !
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Le facteur de Bayes
L'approximation
BIC
Application à l'ergonomie
Historique
L'approche bayésienne
Le facteur de Bayes
L'approximation
BIC
Application à l'ergonomie
Comparaison de deux modèles
Notion de vraisemblance
Dans l'exemple du lancer du dé, nous souhaitons comparer
deux modèles :
1
M0 :X ∼ B (N , )
2
1
M1 :X ∼ B (N , π), π 6=
2
Nous souhaitons sélectionner le meilleur des deux, sans en
privilégier un a priori.
Dénition
On appelle vraisemblance d'un modèle statistique M la probabilité
P (D |M ) d'obtenir les données empiriques telles qu'elles sont
d'après ce modèle.
La vraisemblance est un indice naturel de la qualité
d'ajustement d'un modèle aux données.
Nous allons chercher à calculer P (M0 |D ) et P (M1 |D ), ou
P (M |D ) .
P (M |D )
1
0
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Un exemple introductif
Le facteur de Bayes
L'approximation
Historique
BIC
Application à l'ergonomie
Le facteur de Bayes
L'approche bayésienne
L'approximation
BIC
Application à l'ergonomie
Rappels de probabilité
Calcul de la probabilité a posteriori
Pour deux évènements A et B , probabilité conditionnelle,
conjointe et marginale, sont liées par les formules :
P (A ∩ B )
P (A|B ) =
P (B )
P (A ∩ B )
P (B |A) =
P (A)
Nous ne connaissons pas P (Mm |D ), m ∈ {0, 1}.
Par conséquent :
P (A|B )P (B )
avec :
P (D |Mm ) est la vraisemblance du modèle,
P (Mm ) est la probabilité a priori que le modèle m soit
=
P (B |A)P (A)
et (formule d'inversion de Bayes) :
P (B |A)P (A)
P (A|B ) =
P (B )
Yvonnick Noël
Mais nous savons par la formule d'inversion de Bayes que :
P (Mm |D ) =
correct.
P (D ) est la probabilité marginale d'observer les données
telles qu'elles sont.
P (Mm |D ) est la probabilité a posteriori du modèle.
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Un exemple introductif
Historique
L'approche bayésienne
L'approximation
=
L'approximation
BIC
Rapport de vraisemblances
P (D |M1 )P (M1 )/P (D )
P (D |M0 )P (M0 )/P (D )
P (D |M1 ) P (M1 )
×
P (D |M0 ) P (M0 )
P (M1 )
B10 ×
P (M0 )
Incertitude sur les modèles :
P (M1 ) = P (M0 ) =
Probabilité des données vs. probabilité du modèle
1
2
On a alors :
P (M1 |D )
P (M0 |D )
=
P (D |M1 )
P (D |M0 )
Nous déciderons donc de rejeter M0 si :
B10 =
Yvonnick Noël
Le facteur de Bayes
L'approche bayésienne
Application à l'ergonomie
Le choix de modèle s'appuie sur le rapport des probabilités a
posteriori :
=
Historique
BIC
Rapport a posteriori
=
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Le facteur de Bayes
Application à l'ergonomie
P (M1 |D )
P (M0 |D )
P (D |Mm )P (Mm )
P (D )
Yvonnick Noël
P (D |M1 )
>1
P (D |M0 )
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Un exemple introductif
Historique
Le facteur de Bayes
L'approche bayésienne
L'approximation
BIC
Application à l'ergonomie
Vraisemblance de M0
P (D |M0 ) = CNk π0k (1 − π0 )N −k
avec :
1
2
N = 200
k = 113
200
1
2
Yvonnick Noël
Z
Yvonnick Noël
Le facteur de Bayes
L'approximation
BIC
Distribution a priori sur le paramètre
La distribution f sur π peut être dénie dans certains cas en
utilisant une connaissance théorique préalable sur le
phénomène étudié.
En situation d'ignorance, on choisit une distribution aussi peu
informative que possible :
f (π) = 1, π ∈ [0; 1]
On a alors :
1
0
= CNk
P (D |M1 , π)f (π)d π
Z
1
1
0
π k (1 − π)N −k d π
N +1
Yvonnick Noël
P (D |M1 ) =
0
1
P (D |M1 , π)f (π)d π
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
=
Par dénition de la binomiale, la vraisemblance de M1
s'écrirait :
P (D |M1 ) = CNk πk (1 − π)N −k
si π, paramètre inconnu, était xé.
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Z
BIC
On a alors, par le théorème des probabilités totales :
≈ 0.010436
Application à l'ergonomie
P (D |M1 ) =
L'approximation
Dans l'approche bayésienne, on traite un paramètre inconnu
comme une variable aléatoire, en dénissant sur lui une
densité de probabilité f (π).
π0 =
113
P (D |M0 ) = C200
Le facteur de Bayes
Vraisemblance de M1
Par dénition de la binomiale, la vraisemblance de M0 est :
soit
Historique
L'approche bayésienne
Application à l'ergonomie
Probabilité des données vs. probabilité du modèle
Historique
L'approche bayésienne
Le facteur de Bayes
L'approximation
BIC
Application à l'ergonomie
Rapport de vraisemblance
On peut donc calculer le rapport des vraisemblances ou
facteur de Bayes :
P (D |M0 )
B01 =
P (D |M1 )
C k πk (1 − π0 )N −k
= N 0
1/(N + 1)
0.010436
=
0.004975
≈ 2.10
Interprétation : le rapport de probabilité a augmenté d'un
facteur de 2.10 en faveur de M0 en prenant connaissance
des données.
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Un exemple introductif
Le facteur de Bayes
L'approximation
Historique
BIC
L'approche bayésienne
Application à l'ergonomie
Probabilités a posteriori
Conclusions
Pour chaque modèle (m = 0, 1), on peut calculer les
probabilités a posteriori :
P (D |Mm )P (Mm )
P (Mm |D ) =
P (D )
P (D |Mm )P (Mm )
=
P (D |M0 )P (M0 ) + P (D |M1 )P (M1 )
P (D |Mm )
=
P (D |M0 ) + P (D |M1 )
Soit :
0.01043595
P (M0 |D ) =
≈ 0.68
0.01043595 + 0.004975124
0.004975124
P (M1 |D ) =
≈ 0.32
0.01043595 + 0.004975124
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Le facteur de Bayes
L'approximation
BIC
Application à l'ergonomie
On note qu'il s'agit bien de la probabilité que le modèle
soit vrai.
S'il faut choisir entre les deux modèles, nous dirons donc que
M0 est plus probablement vrai.
Dans cet exemple, le poids de l'évidence, représenté par le
facteur de Bayes, n'est pas très important (inférieur à 3,
Jereys, 1961).
Néanmoins, nous ne sommes en aucune manière conduits à
privilégier l'existence d'un pouvoir psychique !
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Le facteur de Bayes
L'approximation
Historique
BIC
L'approche bayésienne
Application à l'ergonomie
Le facteur de Bayes
L'approximation
BIC
Application à l'ergonomie
Quelle méthode choisir ?
Approximations du facteur de Bayes
Fonctions puissance (N=1000)
0.6
0.4
De nombreux auteurs ont cherché à simplier la procédure de
décision par facteur de Bayes en proposant des indices
approximatifs faciles à calculer (par exemple : GBIC, Berger,
Ghoshb & Mukhopadhyay, 2003 ; ABF, Bollen, Ray & Zavisca,
2005 ; BIC, Schwartz, 1977).
Facteur de Bayes
Valeur p
0.2
Probabilité de rejet de π =
2
Les calculs d'intégrales multiples demandent des logiciels
spécialisés.
0.0
1
0.8
1.0
En pratique, les comparaisons portent souvent sur plus de
deux modèles.
0.50
0.52
0.54
0.56
0.58
0.60
π
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Un exemple introductif
Le facteur de Bayes
Historique
BIC
Estimation d'un paramètre inconnu
L'approximation
BIC
Fonction de vraisemblance
Pour établir une bonne estimation du paramètre π, on
cherche sa valeur notée π̂ qui donne la plus grande
vraisemblance.
0.04
0.05
^ ) = 0.05683
L(π
0.01
k
N
Vraisemblance binomiale
Vraisemblance
En dérivant la fonction de vraisemblance
L(π) = CNk πk (1 − π)N −k (ou son logarithme), pour N et k
xés, on trouve simplement :
On appelle vraisemblance maximisée la valeur
L(π̂) = CNk π̂k (1 − π̂)N −k .
^=
π
113
= 0.565
200
0.00
π̂ =
Le facteur de Bayes
L'approche bayésienne
Application à l'ergonomie
0.03
L'approximation
0.02
Historique
L'approche bayésienne
Application à l'ergonomie
0.0
0.2
0.4
0.6
0.8
1.0
π
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
L'approximation
BIC
Historique
L'approche bayésienne
Le facteur de Bayes
L'approximation
L'approximation BIC
Pour un modèle M de vecteur de paramètres
θ = (θ1 , θ2 , ..., θt )0 , la vraisemblance intégrée s'écrit :
θ
La vraisemblance du modèle atteint son maximum
de
BIC
L(π̂) = 0.05683 pour une valeur π̂ = 0.565.
Application à l'ergonomie
L'approximation BIC
Z
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Le facteur de Bayes
Application à l'ergonomie
P (D |M ) =
Yvonnick Noël
P (D |M , θ)P (θ|M )d θ
Schwartz (1977) obtient, en utilisant une approximation de
Laplace pour l'intégrale :
t
ln P (D |M ) ≈ ln L(θ̂) − ln N
2
avec :
L(θ̂) la vraisemblance maximisée du modèle,
t le nombre de paramètres du modèle,
N le nombre d'observations empiriques indépendantes
La règle de décision pour rejeter M0 devient :
ln P (D |M1 ) − ln P (D |M0 )
t1
⇔ ln L1 (θ̂1 ) − ln N
2
⇔ −2 ln L1 (θ̂1 ) + t1 ln N
|
{z
}
BIC1
>
>
<
0
t
ln L0 (θ̂0 ) − 0 ln N
2
−2 ln L0 (θ̂0 ) + t0 ln N
|
{z
}
BIC0
disponibles.
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Un exemple introductif
Le facteur de Bayes
L'approximation
Historique
BIC
L'approche bayésienne
Application à l'ergonomie
Propriétés
Exemple
Le facteur de Bayes
L'approximation
BIC
Application à l'ergonomie
Sur nos données :
Cet indice est d'autant plus faible que la vraisemblance est
élevée et le nombre de paramètres peu élevé.
BIC0 = −2 ln L0 (π0 ) + t0 ln N = −2 ln 0.01043595 ≈ 9.125
BIC1 = −2 ln L1 (π̂) + t1 ln N = −2 ln 0.05682912 + ln 200 ≈ 11.034
Il intègre donc automatiquement une évaluation de la qualité
Sélection : M0 est le meilleur modèle pour ces données.
d'ajustement et de la parcimonie du modèle.
De plusieurs modèles, on choisira celui dont le BIC est le plus
faible.
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Probabilités a posteriori :
P (D |M0 )
P (D |M0 ) + P (D |M1 )
exp − 12 BIC0
= 0.72
≈
exp − 21 BIC0 + exp − 12 BIC1
P (M0 |D ) =
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Le facteur de Bayes
L'approximation
Historique
BIC
L'approche bayésienne
Application à l'ergonomie
Application à l'ergonomie
Fonctions puissance
Apprentissage de pilotage d'un robot
Fonctions puissance (N=1000)
2
0.6
Probabilité de rejet de π =
0.4
0.2
Facteur de Bayes
BIC
0.0
1
0.8
1.0
Données du TER (2007) de Gilles Deguillard sous la direction
de Jean-Pierre Gaillard.
PHASE I : des sujets apprennent à piloter un robot pour
réaliser une certaine tâche : i) soit sur un simulateur (virtuel),
ii) soit avec le robot lui-même (réel).
PHASE II : on étudie leur comportement en phase de test : i)
soit en virtuel, ii) soit en réel.
Pour l'illustration, on n'examine ici que les deux groupes
REEL1-REEL2 et VIRTUEL1-REEL2.
0.50
0.52
0.54
0.56
0.58
0.60
π
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
Construction des modèles
Modèle de distribution : la variable dépendante est continue,
positive. On choisit la loi Gamma.
Modèles structuraux :
On prend la durée de réalisation de la tâche avec le système
comme variable dépendante.
Dans cette situation, on cherche à répondre aux deux questions
suivantes :
Y a-t-il apprentissage dans la tâche ? Si oui, la durée de
réalisation de la tâche doit diminuer au cours des essais (6
essais d'apprentissage, 6 essais de test).
M0 : la durée de réalisation moyenne reste constante au cours
des essais (modèle constant).
M1 : la durée de réalisation moyenne diminue au cours des
essais, de la même manière pour tout le monde (modèle de
l'apprentissage homogène).
M2 : la durée de réalisation moyenne diminue au cours des
essais, de façon diérente en PHASE I, mais de façon identique
en PHASE II (modèle du transfert d'apprentissage).
M3 : la durée de réalisation moyenne diminue au cours des
essais, de manière diérente selon les conditions et les phases
(modèle de l'apprentissage diérencié avec eet de rupture
interphase).
1
La courbe d'apprentissage est-elle comparable en phase test
entre groupe réel et groupe virtuel ? Si oui, on pourra parler de
transfert d'apprentissage.
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
Modèle de l'apprentissage
Modèle de l'apprentissage diérencié
4
6
8
10
12
Essais
200000
250000
BIC0 = 6100.890, BIC1 = 6035.125
Valeurs observées
8e+05
8e+05
6e+05
2e+05
Durée
2e+05
150000
2
4
Valeurs prévues
Yvonnick Noël
Qualité de la prédiction
R−R Phase1
R−R Phase2
V−R Phase1
V−R Phase2
4e+05
6e+05
2e+05
4e+05
Valeurs observées
6e+05
4e+05
2e+05
Durée
Régression
8e+05
Qualité de la prédiction
8e+05
Régression
2
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Historique
L'approche bayésienne
Application à l'ergonomie
6e+05
1
4e+05
Questions
Historique
L'approche bayésienne
Application à l'ergonomie
6
8
10
12
Essais
100000
200000
300000
400000
Valeurs prévues
BIC3 = 5991.974
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Un exemple introductif
Un exemple introductif
Historique
Historique
L'approche bayésienne
L'approche bayésienne
Application à l'ergonomie
Application à l'ergonomie
Modèle du transfert d'apprentissage
Régression
Qualité de la prédiction
6e+05
8e+05
Modèle
BIC
4e+05
1
2e+05
4e+05
Valeurs observées
6e+05
8e+05
Apprentissage réel
Apprentissage virtuel
2e+05
Durée
Conclusions
2
4
6
8
10
12
Essais
2
100000
200000
300000
M0
M1
M2
M3
6100.890
6035.125
5981.076
5991.974
Le rejet de M0 permet d'armer qu'il y a bien eet
d'apprentissage.
Le rejet de M3 au prot de M2 permet d'armer que les
performances des sujets en phase II ne se distinguent pas selon
les conditions VIRTUEL/REEL.
Valeurs prévues
BIC2 = 5981.076
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Yvonnick Noël
Probabilité des données vs. probabilité du modèle
Téléchargement