4CHAPITRE 1. MODÉLISATION STATISTIQUE
qui maximise l’application
p%→ B(p)⊗n({x1,··· ,xn}) =
n
∏
i=1
B(p)({xi}) = p∑n
i=1xi(1−p)n−∑n
i=1xi.
C’est le principe de construction d’une valeur approchée -on parlera d’estimateur-
de p0par maximisation de la vraisemblance. Selon ce principe, la valeur qui
s’ajuste le mieux aux observations est la moyenne empirique des observations :
¯xn=1
n
n
∑
i=1
xi.
On retrouve ainsi la valeur ¯xn=0.52 du début.
L’introduction d’un modèle nous permet en plus de donner une erreur dans
l’approximation. Soit p∈]0,1[, et X1,··· ,Xndes v.a. i.i.d. sur l’espace probabilisé
(Ω,F,P)de loi commune B(p). On peut calculer le risque quadratique, c’est-
à-dire le carré de la distance L2entre la cible pet l’estimateur ¯
Xn= (1/n)∑n
i=1Xi
obtenu par le principe de maximisation de la vraisemblance :
E(¯
Xn−p)2=1
n
EX1(1−EX1) = 1
np(1−p).
Comme p(1−p)≤1/4, l’erreur quadratique moyenne commise est donc majo-
rée par 1/(2√n)≈0.016. Cependant, si le résultat donne des informations sur la
qualité de l’approximation, ce n’est qu’une évaluation en moyenne, qui ne dépend
donc pas des observations.
D’autres principes peuvent être envisagés pour préciser la qualité de l’approxi-
mation. Supposons que l’on veuille construire un intervalle dans lequel p0doit
se trouver, avec une probabilité de 0.95 par exemple. Pour chaque p∈]0,1[, on
cherche dans un premier temps un intervalle de confiance par excès I(X1,··· ,Xn)
construit avec la suite de v.a. X1,··· ,Xntel que
P(p∈I(X1,··· ,Xn)) ≥0.95.
On pourra donc conclure, avec les observations x1,··· ,xn, que p0∈I(x1,··· ,xn),
avec une probabilité de 95% au moins. D’après l’inégalité de Bienaymé-Tchebytchev,
on a pour tout ε>0 :
P(|¯
Xn−p|≥ε)≤var(¯
Xn)
ε2=var(X1)
nε2=p(1−p)
nε2≤1
4nε2.