S. Tisserant – Eléments de Statistique – 2009 2-1
Maximum de vraisemblance
A. Définition
La vraisemblance est utilisée pour construire des estimateurs de paramètres caractérisant une
loi de probabilité à partir d’un échantillon de mesures.
Considérons un échantillon x = {xi}i=1,…,n de n réalisations d’une variable aléatoire X. Nous
supposons que la loi de probabilité suivie par cette variable aléatoire dépend d’un ensemble
de paramètres que nous notons . Considérons la probabilité d’observer l’échantillon : P(x;).
L’échantillon étant fixé, c’est une fonction des paramètres que nous dénommons
vraisemblance :
Le principe consiste à estimer les paramètres en cherchant les valeurs de maximisant la
probabilité de l’échantillon donc la vraisemblance. C’est la méthode du maximum de
vraisemblance, proposée par R. Fisher dans les années 1920.
Si les réalisations sont indépendantes et que la densité de probabilité de la variable aléatoire
est p(x;), la vraisemblance s’écrit :
n
1i i);x(p);(P)( xθL
Dans la pratique on cherche souvent le maximum du logarithme de la vraisemblance. Le
logarithme étant monotone croissant c’est équivalent. Le produit précédent devient alors une
somme :
n
1i i);x(pln)(ln θL
L’intérêt de cette méthode réside dans le fait que sous des conditions générales peu
restrictives, un estimateur obtenu par maximum de vraisemblance possède les propriétés
suivantes :
- il est approximativement non biaisé ;
- il a approximativement la plus faible variance ;
- il suit approximativement une distribution normale.
D’autre part, si
est l’estimateur de obtenu par maximum de vraisemblance alors, pour
toute fonction h, la quantité
est estimateur par maximum de vraisemblance de h().
A titre d’exemple et comme référence nous commençons par appliquer la méthode du
maximum de vraisemblance à l’estimation des deux paramètres d’une loi normale.