Un exemple introductif Un exemple introductif Historique Historique L'approche bayésienne L'approche bayésienne Application à l'ergonomie Application à l'ergonomie Sommaire Probabilité des données vs. probabilité du modèle Deux approches de la décision statistique 1 2 Yvonnick Noël Université de Rennes 2 3 Evry, le 28 mars 2008 4 Yvonnick Noël Un exemple introductif Historique La théorie de Fisher (1925, 1935) L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques L'approche bayésienne Le facteur de Bayes L'approximation BIC Application à l'ergonomie Probabilité des données vs. probabilité du modèle Yvonnick Noël Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie Une expérience de télékinésie Modélisation Quelqu'un arme pouvoir faire sortir le côté pile d'une pièce plus souvent que le hasard ne le laisserait attendre, par la force de sa pensée . Vous le mettez à l'épreuve : sur 200 lancers d'une pièce équilibrée, à l'aide d'une machine, 113 sont tombés sur le côté pile . Diriez-vous que cette personne dispose d'un pouvoir psychique ? On ne peut répondre à cette question qu'en construisant un modèle de probabilité pour la situation. Le modèle le plus simple consiste à considérer que le sujet n'a pas de pouvoir. La probabilité de voir le côté pile sortir à chaque essai est alors connue : π0 = 12 . Si ce modèle est vrai, la probabilité que le nombre X d'apparitions de pile soit k (k = 0, ..., 200) est binomiale : P (X ou en abrégé X Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie Probabilité des données vs. probabilité du modèle = k |π0 ) = CNk π0k (1 − π0 )N −k ∼ B (N , π0 ). Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Un exemple introductif Historique Historique L'approche bayésienne L'approche bayésienne Application à l'ergonomie Application à l'ergonomie Notion de valeur p Conclusion Pour mettre à l'épreuve ce modèle, il est classique de calculer la valeur p : c'est la probabilité d'observer un résultat au moins aussi élevé, selon ce modèle. On a ici : p = P (X = P (X = 200 X ≥ 113|π0 ) = 113|π0 ) + P (X = 114|π0 ) + ... + P (X = 200|π0 ) 200 k =113 k C200 1 2 Cette valeur est plutôt petite si on la juge par rapport à un seuil arbitraire de α = 0.05 par exemple. Dans cette situation, on rejette l'hypothèse de départ (équiprobabilité des faces), avec moins de 5 chances sur 100 de se tromper. Je suis quand même un peu perturbé d'avoir à donner du crédit au pouvoir psychique ... ≈ 0.038419 Yvonnick Noël Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie Probabilité des données vs. probabilité du modèle La théorie de Fisher (1925, 1935) L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques Les tests de signicativité Historique L'approche bayésienne Probabilité des données vs. probabilité du modèle La théorie de Fisher (1925, 1935) L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques La notion d'hypothèse nulle Les tests de signication ont envahi la plupart des domaines scientiques. Un résultat signicatif au seuil fatidique de 0.05 est pratiquement devenu une norme de publication en psychologie. Cette approche a des origines historiques qu'il faut rappeler1 si l'on veut comprendre à quel point elle est limitative. 1 Yvonnick Noël Un exemple introductif Application à l'ergonomie C'est Fisher (1925, 1935) qui cristallise et formalise la pratique de la valeur p déjà en vigueur (Pearson publie le principe du test de χ2 en 1900). Elle s'appuie sur la dénition d'une hypothèse nulle, c'est-à-dire celle qui doit être nulliée (rejetée). C'est en général la négation de l'hypothèse à laquelle s'intéresse le chercheur. Le résultat de la procédure est soit le rejet de l'hypothèse nulle, soit la suspension du jugement, l'hypothèse nulle ne pouvant être acceptée positivement. Poitevineau, J. (2004). L'usage des tests statistiques par les chercheurs en psychologie : aspect normatif, descriptif et prescriptif. Mathématiques et Sciences Humaines, 167, Yvonnick Noël 5-25. Probabilité des données vs. probabilité du modèle Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie La théorie de Fisher (1925, 1935) Un exemple introductif Historique L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques Notion d'erreur de décision L'approche bayésienne Application à l'ergonomie La théorie de Fisher (1925, 1935) L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques La notion de valeur p Une fois les données échantillonnées, on calcule la valeur p : probabilité d'avoir des données au moins aussi extrêmes si l'hypothèse nulle est vraie. Dans cette approche shérienne, il n'y a donc qu'un seul type d'erreur : l'erreur de rejet de l'hypothèse nulle alors qu'elle était vraie. La valeur obtenue est considérée comme indicatrice du caractère improbable des données observées, d'après l'hypothèse nulle. On note que cette valeur a aussi le sens de la probabilité de se tromper si on décide de rejeter l'hypothèse nulle. On juge de ce que cette valeur est grande ou petite en référence à un seuil de décision arbitrairement choisi (par exemple α = 0.05). Yvonnick Noël Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie Yvonnick Noël Probabilité des données vs. probabilité du modèle La théorie de Fisher (1925, 1935) Un exemple introductif Historique L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques Une erreur sur le long terme L'approche bayésienne Application à l'ergonomie Probabilité des données vs. probabilité du modèle La théorie de Fisher (1925, 1935) L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques Erreurs de type I et II Pour Fisher, la valeur p est essentiellement un indice de décision pour rejeter ou non une hypothèse nulle sur un jeu de données particulier. Neyman & Pearson (1933) proposent un cadre de réexion plus fréquentiste sur les tests : il s'agit de minimiser la probabilité de se tromper à long terme, sur un grand nombre d'essais du même type. Neyman & Pearson dénissent une hypothèse de référence, qui est celle qui intéresse le chercheur et qu'ils notent H0 (ce n'est donc pas l'hypothèse nulle shérienne !). La procédure de test doit mener à l'une ou l'autre des deux décisions : rejeter ou accepter cette hypothèse de référence. Il y a donc deux types d'erreur de décision, inversement liés : rejeter H0 alors qu'elle est vraie (erreur de type I ou de type α), accepter H0 alors qu'elle est fausse (erreur de type II ou de type β ). Yvonnick Noël Probabilité des données vs. probabilité du modèle Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie Dans l'approche de Neyman & Pearson : on cherche à opposer et confronter plusieurs hypothèses (souvent deux) on accepte l'une ou l'autre, selon l'appartenance ou non d'une statistique à un intervalle critique (par exemple [0; 0.05] pour la valeur p). Yvonnick Noël Historique L'approche bayésienne La théorie de Fisher (1925, 1935) L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques Au fait, dans notre exemple du lancer de pièce, quelle est notre hypothèse de référence ? Si je suis un adepte des sciences occultes, mon hypothèse est de référence est que la probabilité π de voir pile apparaître est supérieure à 21 : π > π0 . Le cadre shérien me convient : je cherche assidûment tout élément de contradiction quel qu'il soit avec l'hypothèse nulle... Yvonnick Noël Probabilité des données vs. probabilité du modèle La théorie de Fisher (1925, 1935) L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques Dénir l'hypothèse de référence (II) Si je suis rationaliste, l'hypothèse de référence est l'équiprobabilité des faces : le cadre shérien me pose un problème car je ne peux pas valider l'hypothèse nulle ! le cadre Neyman-Pearson me conduit à : xer un seuil de décision élevé (α = 0.20 par exemple), exiger d'avoir une valeur p supérieure au seuil pour donner du crédit à ma théorie (en minimisant ainsi, sans la connaître, la probabilité de me tromper). Yvonnick Noël L'approche bayésienne Application à l'ergonomie Dénir l'hypothèse de référence (I) Dans l'approche shérienne, on cherche à cumuler des preuves contre l'hypothèse nulle, sans égard pour la nature de l'alternative. Un exemple introductif Historique L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques Une approche comparative Application à l'ergonomie Un exemple introductif La théorie de Fisher (1925, 1935) Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie Probabilité des données vs. probabilité du modèle La théorie de Fisher (1925, 1935) L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques Pratiques actuelles Les pratiques actuelles semblent mêler les deux approches sans plus les distinguer : on ne distingue plus dans le choix des termes H0 (Neyman-Pearson) et hypothèse nulle (Fisher). on dénit son hypothèse de référence par négation de l'hypothèse nulle (Fisher), mais on évoque parfois l'erreur de type II (Neyman-Pearson). la valeur p utilisée comme statistique de décision (Fisher) est parfois appelée risque (Neyman-Pearson). ... Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie La théorie de Fisher (1925, 1935) L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques Limites des théories classiques (I) Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie La théorie de Fisher (1925, 1935) L'approche de Neyman et Pearson (1928, 1933) Limites des théories classiques Limites de théories classiques (II) L'approche par valeur p a suscité, et depuis longtemps, de nombreuses critiques : Le choix de la valeur seuil α est arbitraire dans l'approche shérienne (voir aussi la distinction unilatérale ou bilatérale). C'est une approche qui mène à une décision binaire : accepter ou rejeter l'un ou l'autre de deux modèles. La valeur p ne permet pas de mesurer le degré de désaccord avec l'hypothèse nulle (eet taille d'échantillon). Biais de publication : les études à eets non signicatifs ont Calculer la probabilité d'un résultat au moins aussi extrême revient à utiliser des évènements qui ne se sont pas produits ! Décision par la négative : l'hypothèse d'intérêt est souvent Le raisonnement est peu intuitif : plutôt que de calculer P (D |M ), on préférerait calculer la probabilité que le modèle soit vrai, au vu des données P (M |D ). Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne peu de chances d'être publiées. représentée comme la négation de l'hypothèse nulle. Parfois, c'est l'absence d'eet qui est attendue théoriquement ! Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Le facteur de Bayes L'approximation BIC Application à l'ergonomie Historique L'approche bayésienne Le facteur de Bayes L'approximation BIC Application à l'ergonomie Comparaison de deux modèles Notion de vraisemblance Dans l'exemple du lancer du dé, nous souhaitons comparer deux modèles : 1 M0 :X ∼ B (N , ) 2 1 M1 :X ∼ B (N , π), π 6= 2 Nous souhaitons sélectionner le meilleur des deux, sans en privilégier un a priori. Dénition On appelle vraisemblance d'un modèle statistique M la probabilité P (D |M ) d'obtenir les données empiriques telles qu'elles sont d'après ce modèle. La vraisemblance est un indice naturel de la qualité d'ajustement d'un modèle aux données. Nous allons chercher à calculer P (M0 |D ) et P (M1 |D ), ou P (M |D ) . P (M |D ) 1 0 Yvonnick Noël Probabilité des données vs. probabilité du modèle Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Un exemple introductif Le facteur de Bayes L'approximation Historique BIC Application à l'ergonomie Le facteur de Bayes L'approche bayésienne L'approximation BIC Application à l'ergonomie Rappels de probabilité Calcul de la probabilité a posteriori Pour deux évènements A et B , probabilité conditionnelle, conjointe et marginale, sont liées par les formules : P (A ∩ B ) P (A|B ) = P (B ) P (A ∩ B ) P (B |A) = P (A) Nous ne connaissons pas P (Mm |D ), m ∈ {0, 1}. Par conséquent : P (A|B )P (B ) avec : P (D |Mm ) est la vraisemblance du modèle, P (Mm ) est la probabilité a priori que le modèle m soit = P (B |A)P (A) et (formule d'inversion de Bayes) : P (B |A)P (A) P (A|B ) = P (B ) Yvonnick Noël Mais nous savons par la formule d'inversion de Bayes que : P (Mm |D ) = correct. P (D ) est la probabilité marginale d'observer les données telles qu'elles sont. P (Mm |D ) est la probabilité a posteriori du modèle. Probabilité des données vs. probabilité du modèle Yvonnick Noël Un exemple introductif Historique L'approche bayésienne L'approximation = L'approximation BIC Rapport de vraisemblances P (D |M1 )P (M1 )/P (D ) P (D |M0 )P (M0 )/P (D ) P (D |M1 ) P (M1 ) × P (D |M0 ) P (M0 ) P (M1 ) B10 × P (M0 ) Incertitude sur les modèles : P (M1 ) = P (M0 ) = Probabilité des données vs. probabilité du modèle 1 2 On a alors : P (M1 |D ) P (M0 |D ) = P (D |M1 ) P (D |M0 ) Nous déciderons donc de rejeter M0 si : B10 = Yvonnick Noël Le facteur de Bayes L'approche bayésienne Application à l'ergonomie Le choix de modèle s'appuie sur le rapport des probabilités a posteriori : = Historique BIC Rapport a posteriori = Probabilité des données vs. probabilité du modèle Un exemple introductif Le facteur de Bayes Application à l'ergonomie P (M1 |D ) P (M0 |D ) P (D |Mm )P (Mm ) P (D ) Yvonnick Noël P (D |M1 ) >1 P (D |M0 ) Probabilité des données vs. probabilité du modèle Un exemple introductif Un exemple introductif Historique Le facteur de Bayes L'approche bayésienne L'approximation BIC Application à l'ergonomie Vraisemblance de M0 P (D |M0 ) = CNk π0k (1 − π0 )N −k avec : 1 2 N = 200 k = 113 200 1 2 Yvonnick Noël Z Yvonnick Noël Le facteur de Bayes L'approximation BIC Distribution a priori sur le paramètre La distribution f sur π peut être dénie dans certains cas en utilisant une connaissance théorique préalable sur le phénomène étudié. En situation d'ignorance, on choisit une distribution aussi peu informative que possible : f (π) = 1, π ∈ [0; 1] On a alors : 1 0 = CNk P (D |M1 , π)f (π)d π Z 1 1 0 π k (1 − π)N −k d π N +1 Yvonnick Noël P (D |M1 ) = 0 1 P (D |M1 , π)f (π)d π Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne = Par dénition de la binomiale, la vraisemblance de M1 s'écrirait : P (D |M1 ) = CNk πk (1 − π)N −k si π, paramètre inconnu, était xé. Probabilité des données vs. probabilité du modèle Un exemple introductif Z BIC On a alors, par le théorème des probabilités totales : ≈ 0.010436 Application à l'ergonomie P (D |M1 ) = L'approximation Dans l'approche bayésienne, on traite un paramètre inconnu comme une variable aléatoire, en dénissant sur lui une densité de probabilité f (π). π0 = 113 P (D |M0 ) = C200 Le facteur de Bayes Vraisemblance de M1 Par dénition de la binomiale, la vraisemblance de M0 est : soit Historique L'approche bayésienne Application à l'ergonomie Probabilité des données vs. probabilité du modèle Historique L'approche bayésienne Le facteur de Bayes L'approximation BIC Application à l'ergonomie Rapport de vraisemblance On peut donc calculer le rapport des vraisemblances ou facteur de Bayes : P (D |M0 ) B01 = P (D |M1 ) C k πk (1 − π0 )N −k = N 0 1/(N + 1) 0.010436 = 0.004975 ≈ 2.10 Interprétation : le rapport de probabilité a augmenté d'un facteur de 2.10 en faveur de M0 en prenant connaissance des données. Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Un exemple introductif Le facteur de Bayes L'approximation Historique BIC L'approche bayésienne Application à l'ergonomie Probabilités a posteriori Conclusions Pour chaque modèle (m = 0, 1), on peut calculer les probabilités a posteriori : P (D |Mm )P (Mm ) P (Mm |D ) = P (D ) P (D |Mm )P (Mm ) = P (D |M0 )P (M0 ) + P (D |M1 )P (M1 ) P (D |Mm ) = P (D |M0 ) + P (D |M1 ) Soit : 0.01043595 P (M0 |D ) = ≈ 0.68 0.01043595 + 0.004975124 0.004975124 P (M1 |D ) = ≈ 0.32 0.01043595 + 0.004975124 Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Le facteur de Bayes L'approximation BIC Application à l'ergonomie On note qu'il s'agit bien de la probabilité que le modèle soit vrai. S'il faut choisir entre les deux modèles, nous dirons donc que M0 est plus probablement vrai. Dans cet exemple, le poids de l'évidence, représenté par le facteur de Bayes, n'est pas très important (inférieur à 3, Jereys, 1961). Néanmoins, nous ne sommes en aucune manière conduits à privilégier l'existence d'un pouvoir psychique ! Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Le facteur de Bayes L'approximation Historique BIC L'approche bayésienne Application à l'ergonomie Le facteur de Bayes L'approximation BIC Application à l'ergonomie Quelle méthode choisir ? Approximations du facteur de Bayes Fonctions puissance (N=1000) 0.6 0.4 De nombreux auteurs ont cherché à simplier la procédure de décision par facteur de Bayes en proposant des indices approximatifs faciles à calculer (par exemple : GBIC, Berger, Ghoshb & Mukhopadhyay, 2003 ; ABF, Bollen, Ray & Zavisca, 2005 ; BIC, Schwartz, 1977). Facteur de Bayes Valeur p 0.2 Probabilité de rejet de π = 2 Les calculs d'intégrales multiples demandent des logiciels spécialisés. 0.0 1 0.8 1.0 En pratique, les comparaisons portent souvent sur plus de deux modèles. 0.50 0.52 0.54 0.56 0.58 0.60 π Yvonnick Noël Probabilité des données vs. probabilité du modèle Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Un exemple introductif Le facteur de Bayes Historique BIC Estimation d'un paramètre inconnu L'approximation BIC Fonction de vraisemblance Pour établir une bonne estimation du paramètre π, on cherche sa valeur notée π̂ qui donne la plus grande vraisemblance. 0.04 0.05 ^ ) = 0.05683 L(π 0.01 k N Vraisemblance binomiale Vraisemblance En dérivant la fonction de vraisemblance L(π) = CNk πk (1 − π)N −k (ou son logarithme), pour N et k xés, on trouve simplement : On appelle vraisemblance maximisée la valeur L(π̂) = CNk π̂k (1 − π̂)N −k . ^= π 113 = 0.565 200 0.00 π̂ = Le facteur de Bayes L'approche bayésienne Application à l'ergonomie 0.03 L'approximation 0.02 Historique L'approche bayésienne Application à l'ergonomie 0.0 0.2 0.4 0.6 0.8 1.0 π Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne L'approximation BIC Historique L'approche bayésienne Le facteur de Bayes L'approximation L'approximation BIC Pour un modèle M de vecteur de paramètres θ = (θ1 , θ2 , ..., θt )0 , la vraisemblance intégrée s'écrit : θ La vraisemblance du modèle atteint son maximum de BIC L(π̂) = 0.05683 pour une valeur π̂ = 0.565. Application à l'ergonomie L'approximation BIC Z Probabilité des données vs. probabilité du modèle Un exemple introductif Le facteur de Bayes Application à l'ergonomie P (D |M ) = Yvonnick Noël P (D |M , θ)P (θ|M )d θ Schwartz (1977) obtient, en utilisant une approximation de Laplace pour l'intégrale : t ln P (D |M ) ≈ ln L(θ̂) − ln N 2 avec : L(θ̂) la vraisemblance maximisée du modèle, t le nombre de paramètres du modèle, N le nombre d'observations empiriques indépendantes La règle de décision pour rejeter M0 devient : ln P (D |M1 ) − ln P (D |M0 ) t1 ⇔ ln L1 (θ̂1 ) − ln N 2 ⇔ −2 ln L1 (θ̂1 ) + t1 ln N | {z } BIC1 > > < 0 t ln L0 (θ̂0 ) − 0 ln N 2 −2 ln L0 (θ̂0 ) + t0 ln N | {z } BIC0 disponibles. Yvonnick Noël Probabilité des données vs. probabilité du modèle Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Un exemple introductif Le facteur de Bayes L'approximation Historique BIC L'approche bayésienne Application à l'ergonomie Propriétés Exemple Le facteur de Bayes L'approximation BIC Application à l'ergonomie Sur nos données : Cet indice est d'autant plus faible que la vraisemblance est élevée et le nombre de paramètres peu élevé. BIC0 = −2 ln L0 (π0 ) + t0 ln N = −2 ln 0.01043595 ≈ 9.125 BIC1 = −2 ln L1 (π̂) + t1 ln N = −2 ln 0.05682912 + ln 200 ≈ 11.034 Il intègre donc automatiquement une évaluation de la qualité Sélection : M0 est le meilleur modèle pour ces données. d'ajustement et de la parcimonie du modèle. De plusieurs modèles, on choisira celui dont le BIC est le plus faible. Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Probabilités a posteriori : P (D |M0 ) P (D |M0 ) + P (D |M1 ) exp − 12 BIC0 = 0.72 ≈ exp − 21 BIC0 + exp − 12 BIC1 P (M0 |D ) = Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Le facteur de Bayes L'approximation Historique BIC L'approche bayésienne Application à l'ergonomie Application à l'ergonomie Fonctions puissance Apprentissage de pilotage d'un robot Fonctions puissance (N=1000) 2 0.6 Probabilité de rejet de π = 0.4 0.2 Facteur de Bayes BIC 0.0 1 0.8 1.0 Données du TER (2007) de Gilles Deguillard sous la direction de Jean-Pierre Gaillard. PHASE I : des sujets apprennent à piloter un robot pour réaliser une certaine tâche : i) soit sur un simulateur (virtuel), ii) soit avec le robot lui-même (réel). PHASE II : on étudie leur comportement en phase de test : i) soit en virtuel, ii) soit en réel. Pour l'illustration, on n'examine ici que les deux groupes REEL1-REEL2 et VIRTUEL1-REEL2. 0.50 0.52 0.54 0.56 0.58 0.60 π Yvonnick Noël Probabilité des données vs. probabilité du modèle Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie Construction des modèles Modèle de distribution : la variable dépendante est continue, positive. On choisit la loi Gamma. Modèles structuraux : On prend la durée de réalisation de la tâche avec le système comme variable dépendante. Dans cette situation, on cherche à répondre aux deux questions suivantes : Y a-t-il apprentissage dans la tâche ? Si oui, la durée de réalisation de la tâche doit diminuer au cours des essais (6 essais d'apprentissage, 6 essais de test). M0 : la durée de réalisation moyenne reste constante au cours des essais (modèle constant). M1 : la durée de réalisation moyenne diminue au cours des essais, de la même manière pour tout le monde (modèle de l'apprentissage homogène). M2 : la durée de réalisation moyenne diminue au cours des essais, de façon diérente en PHASE I, mais de façon identique en PHASE II (modèle du transfert d'apprentissage). M3 : la durée de réalisation moyenne diminue au cours des essais, de manière diérente selon les conditions et les phases (modèle de l'apprentissage diérencié avec eet de rupture interphase). 1 La courbe d'apprentissage est-elle comparable en phase test entre groupe réel et groupe virtuel ? Si oui, on pourra parler de transfert d'apprentissage. Yvonnick Noël Probabilité des données vs. probabilité du modèle Yvonnick Noël Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie Modèle de l'apprentissage Modèle de l'apprentissage diérencié 4 6 8 10 12 Essais 200000 250000 BIC0 = 6100.890, BIC1 = 6035.125 Valeurs observées 8e+05 8e+05 6e+05 2e+05 Durée 2e+05 150000 2 4 Valeurs prévues Yvonnick Noël Qualité de la prédiction R−R Phase1 R−R Phase2 V−R Phase1 V−R Phase2 4e+05 6e+05 2e+05 4e+05 Valeurs observées 6e+05 4e+05 2e+05 Durée Régression 8e+05 Qualité de la prédiction 8e+05 Régression 2 Probabilité des données vs. probabilité du modèle Un exemple introductif Historique L'approche bayésienne Application à l'ergonomie 6e+05 1 4e+05 Questions Historique L'approche bayésienne Application à l'ergonomie 6 8 10 12 Essais 100000 200000 300000 400000 Valeurs prévues BIC3 = 5991.974 Probabilité des données vs. probabilité du modèle Yvonnick Noël Probabilité des données vs. probabilité du modèle Un exemple introductif Un exemple introductif Historique Historique L'approche bayésienne L'approche bayésienne Application à l'ergonomie Application à l'ergonomie Modèle du transfert d'apprentissage Régression Qualité de la prédiction 6e+05 8e+05 Modèle BIC 4e+05 1 2e+05 4e+05 Valeurs observées 6e+05 8e+05 Apprentissage réel Apprentissage virtuel 2e+05 Durée Conclusions 2 4 6 8 10 12 Essais 2 100000 200000 300000 M0 M1 M2 M3 6100.890 6035.125 5981.076 5991.974 Le rejet de M0 permet d'armer qu'il y a bien eet d'apprentissage. Le rejet de M3 au prot de M2 permet d'armer que les performances des sujets en phase II ne se distinguent pas selon les conditions VIRTUEL/REEL. Valeurs prévues BIC2 = 5981.076 Yvonnick Noël Probabilité des données vs. probabilité du modèle Yvonnick Noël Probabilité des données vs. probabilité du modèle