L`estimation ponctuelle Références : Lecoutre, chap. VII, §1, 2, 3

Chapitre IV : L’estimation ponctuelle
Références : Lecoutre, chap. VII, §1, 2, 3 (p. 193-206) ;
Tassi, Chap. 5, 6, 8 ;
cours de Pradel (sur le site de Gwenn
Parent)
1. Définition d’un estimateur
Observations (x
1
,…, x
n
) loi de probabilité P :
Discrète :
P(x
1
,…, x
n
; θ)=P
θ
(X
1
=x
1
) P
θ
(X
2
=x
2
) … P
θ
(X
n
=x
n
)
Continue :
f(x
1
,…, x
n
; θ)=f(x
1
; θ) f(x
2
; θ) … f(x
n
; θ)
Non-paramétrique : toutes lois possibles
Paramétrique : (P
θ
, θ Θ), généralement Θ dans R
Donc fonction T
n
: (x
1
,…, x
n
) θ
Estimation ponctuelle : une valeur de θ.
Estimation par intervalle : plusieurs valeurs dans un
intervalle (fourchette pour le paramètre).
Exemples : * fréquence empirique d’anticipation d’une
inflation plus élevée ; de popularité d’un président ;
Nombre moyen de ménages endetté ; nombre
moyen de pannes.
Remarque :
* Estimateur est une v.a.
Estimation est un nombre certain
*L’estimateur peut être de dimension k>1 : θ=(m, σ)
pour une loi normale.
2. Qu’est-ce qu’un bon estimateur ?
a) Estimateur sans biais : E
θ
(T
n
) = θ qui est la « valeur
vraie » du paramètre.
Estimateur asymptotiquement sans biais : pour
tout θ de Θ, E
θ
(T
n
) θ quand n →∞
Exemples :
* Soit à estimer θ = E(X). La moyenne empirique
n
est un estimateur sans biais de la moyenne
théorique : E
θ
(
n
)=E(X)=
θ, quelle que soit la loi de
probabilité de la v.a.X.
*Estimons la variance de X : θ=V(X). L’estimateur
« naturel » est la variance empirique S
n2
= 1/N(X
i
-
n
)
2
mais on sait qu’elle est biaisée : E
θ
(S
n
)=[(n-1)/n] θ.
Par contre, cette formule montre qu’elle est
asymptotiquement non biaisée puisque (n-1)/n 1
quand n tend vers l’infini.
b) Estimateur convergent :
L’estimateur T
n
est convergent s’il converge en
probabilité vers la valeur vraie du paramètre θ :
Pour tout ε >0, Prob
θ
{| T
n
- θ |<ε} 1 quand n→∞
Remarques : (i) E
θ
(T
n
) = θ et V
θ
(T
n
) 0 => T
n
θ en
probabilité quand n→∞.
(ii) idem pour un estimateur
asymptotiquement sans biais :
E
θ
(T
n
) θ et V
θ
(T
n
) = 0 => T
n
θ en probabilité
quand n→∞.
Exemple : θ = E(X) est estimé sans biais par la moyenne
empirique
n
. Par ailleurs, V
θ
(T
n
) = V(X)/n 0 quand
n→∞. Donc l’estimateur T
n
=
n
est convergent quelle
que soit la loi de X.
c) Variance d’un estimateur : θ dépend de
l’échantillonnage des observations, donc est une
v.a. dont la dispersion est mesurée par sa variance.
L’estimateur est d’autant plus précis qu’elle est
faible.
3. Estimateur optimal :
Erreur quadratique moyenne :
E
θ
(T
n
θ)
2
= E
θ
{(T
n
– E
θ
(T
n
))+(E
θ
(T
n
) - θ)}
2
= V
θ
(T
n
)+[ E
θ
(T
n
) – θ]
2
car le terme croisé = 2 E
θ
{(T
n
– E
θ
(T
n
))+(E
θ
(T
n
) - θ)}
= 2 {( E
θ
(T
n
) - E
θ
(T
n
))+(E
θ
(T
n
) - θ)} = 0
[(E
θ
(T
n
) - θ)]
2
=erreur structurelle mesurant le biais
de l’estimateur
Définition : L’estimateur T’
n
est plus efficace que T
n
s’il
a une variance plus faible.
Question : Y a-t-il une borne inférieure à ces
variances ? Dans ce cas, on pourrait mesurer le degré
d’efficacité des estimateurs et savoir si un estimateur est
optimal (dans le cas où sa variance est égale à la
variance minimale).
1 / 17 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !