Premiers éléments de statistique
I Introduction : le modèle statistique
Jusqu’à présent, la théorie que nous avons considérée s’intéressait à la construction d’un objet abstrait, la
probabilité, censée servir à quantifier la manière dont le hasard charge des événements liés à une expérience
aléatoire. Mais elle ne nous apprend pas de méthode à suivre pour choisir cette probabilité de la meilleure des
façons dans une situation concrète.
Le problème de la statistique est précisément celui du choix d’une probabilité en se fondant sur l’observation
de résultats de l’expérience aléatoire. Parmi les nombreuses situations possibles, nous nous concentrerons ici
sur l’étude de la statistique paramétrique, qui peut se décrire ainsi : on s’intéresse à une expérience aléatoire
donnée, pour laquelle on suppose que la loi de probabilité la gouvernant appartient à une famille de probabilités
dépendant d’un paramètre θélément d’un ensemble Θ(en général ce sera un sous ensemble de IR ou de IRp).
On ne connaît pas, a priori, la valeur effective du θqui convient et le but de l’opération est de déterminer cette
valeur θ0au vu de résultats de l’expérience, supposés numériques (c’est à dire à valeurs dans IR) pour simplifier.
Quand on réalise l’expérience, on peut considérer que son résultat constitue une variable aléatoire sur IR de
loi Pθ.Pθest donc ici une probabilité sur IR. Systématiquement, l’espérance d’une variable aléatoire Xde
l’espace de probabilités (IR, Pθ)sera notée Eθ(X)et la variance Varθ(X).
On réalise alors nfois l’expérience, de façon indépendante, et on donne la définition suivante
Définition 1 Un n-échantillon du modèle statistique (Pθ)θ∈Θest la donnée de nvariables aléatoires indépen-
dantes X1, . . . , Xnde loi Pθ.
Le but est alors, étant donné un échantillon, de fabriquer une technique pour choisir un θ∈Θqui ait de
bonnes chances d’être la véritable valeur du paramètre inconnu.
II Estimateurs
Commençons par cette définition très générale
Définition 2 Soit (X1, . . . , Xn)un n-échantillon du modèle statistique (Pθ)θ∈Θ, et f: Θ →IR. Un estima-
teur de f(θ)est une fonction ϕ:IRn→IR.
Formellement, on dit qu’on estime f(θ)par ϕ(X1, . . . , Xn). Naturellement, cette définition d’estimateur est
extrêmement vague. Une précision est donnée comme suit
Définition 3 L’estimateur ϕde f(θ)est dit sans biais si, pour tout θ∈Θ,
Eθ(ϕ(X1, . . . , Xn)) = f(θ).
Dire qu’un estimateur est sans biais (e.s.b.) revient donc à dire que quelle que soit la valeur du paramètre, la
moyenne de l’estimateur est égale à f(θ).
Remarque : Il peut se trouver que la classe des estimateurs sans biais soit très réduite. Par exemple, si on a un
1-échantillon de la loi B(n, θ)(θ∈[0,1], inconnu), X
nest l’unique e.s.b. de θ.
Pour mesurer la façon dont un estimateur de f(θ)“s’approche” d’être sans biais, on introduit
Définition 4 Soit ϕun estimateur de f(θ). On appelle risque quadratique de ϕle réel
Rθ(ϕ) = Eθ([ϕ(X1, . . . , Xn)−f(θ)]2).
1