9.3. CAS D’UNE LOI CONTINUE 45
9.3 Cas d’une loi continue
9.3.1 Heuristique et d´efinition
Si la loi L(θ) suivie par les Xiest une loi continue, comme U[a,b]ou N(µ, σ), on a Pθ({Xi=xi})=0,
et la vraisemblance que nous avons consid´er´ee jusqu’ici est tout bonnement (ou plutˆot “mauvaisement”)
nulle, et tous les θsont des extrema, ce qui ne nous avance gu`ere. L’id´ee est alors de remplacer Pθ({Xi=
xi}) par Pθ({|Xi−xi|≤ε}) pour une ε>0 suffisamment petit, puis de rechercher θεmaximisant
Qn
i=1 Pθ({|Xi−xi|≤ε}). On peut se d´ebarasser du εqui est arbitraire par la remarque suivante dans le
cas o`u la densit´e x7→ fθ(x) caract´erisant la loi L(θ) est une fonction continue au point xi: dans ce cas
le th´eor`eme de la moyenne assure l’existence de fonctions ε7→ αi,θ(ε) telles que Pθ({|Xi−xi|≤ε})=
2ε(fθ(xi)+αi,θ(ε)), avec limε→0αi,θ(ε) = 0 ; le (ou les) θεrendant maximal Qn
i=1 Pθ({|Xi−xi|≤ε})
sont les mˆeme que ceux maximisant
n
Y
i=1
1
2εPθ({|Xi−xi|≤ε})=
n
Y
i=1
(fθ(xi)+αi,θ(ε)) ;
en faisant tendre εvers 0, cette expression devient
Ln(x1,...,x
n;θ):=
n
Y
i=1
fθ(xi) (9.1)
que nous adoptons comme vraisemblance dans ce cas :
D´efinition : Si la loi L(θ) des Xiest une loi continue de densit´e fθ, on appelle vraisemblance de
l’´echantillon (x1,...,x
n) pour la loi continue L(θ) la fonction Ln(x1,...,x
n;θ):=Qn
i=1 fθ(xi) .
9.3.2 Exemples
Distribution uniforme
On suppose que l’´echantillon x1,...,xnest tir´e de mani`ere uniforme entre 0 et a, mais aet b
sont inconnus. On mod´elise donc le probl`eme par une loi uniforme U[a, b] dont la densit´e est f(a,b):=
1
b−aI[a,b]et on va chercher un estimateur de θ=(a, b) par la m´ethode du maximum de vraisemblance. La
vraisemblance de l’´echantillon x1,...,xnest donc Ln(x1,...,x
n;θ):=Qn
i=1 fθ(xi)=Qn
i=1 1
b−aI[a,b](xi)=
1
(b−a)nsi tous les xi∈[a, b] et vaut 0 si un des xi/∈[a, b]. On voit donc que Ln(x1,...,x
n;θ) est maximal
si θ=θ∗=(a∗,b
∗) = (Min {x1,...,x
n},Max {x1,...,x
n}), puisque ceci nous donne la plus petite valeur
de b−asans annuler la vraisemblance. Ceci nous conduit `a consid´erer l’estimateur
ˆ
θ=(ˆa, ˆ
b) = (Min {X1,...,X
n},Max {X1,...,X
n}).
Il reste `a montrer que si X1, ..., Xnest un n-´echantillon de loi U[a, b], alors Min {X1,...,X
n}converge
bien, en probabilit´e, vers aet que Max {X1,...,X
n}converge en probabilit´e vers b. Consid´erons par
exemple le cas de Min {X1,...,X
n}.Ona{a+ε<Min {X1,...,X
n}} ={a+ε<X
1,...,a+ε<X
n},
d’o`u, comme les Xisont ind´ependants, P({a+ε<Min {X1,...,X
n}})=P({a+ε<X
1}∩...∩{a+ε<
Xn})=P({a+ε<X
1})·...·P({a+ε<X
n})=b−a−ε
b−an
, qui tend bien vers 0 lorsque ntend vers
+∞. On montrerais de mˆeme que Max {X1,...,X
n}converge en probabilit´e vers b.
Variables normales
On suppose `a pr´esent que l’´echantillon x1,...,xnest tir´e de mani`ere normale avec une esp´erance µet
un ´ecart-type σ, mais µet σsont inconnus. On mod´elise donc le probl`eme par une loi normale N(µ, σ)
dont la densit´e est f(µ,σ)(x):= 1
√2πe−(x−µ)2
2σ2et on va chercher un estimateur de θ=(µ, σ) par la m´ethode
du maximum de vraisemblance. La vraisemblance de l’´echantillon x1, ..., xnest donc
Ln(x1,...,x
n;θ): =
n
Y
i=1
fθ(xi)=
n
Y
i=1
1
σ√2πe−(xi−µ)2
2σ2
=1
σ√2πn
e−Pn
i=1(xi−µ)2
2σ2.