44
L’INEGALITE DE FRECHET –CRAMER-RAO POUR LES
VARIABLES ALEATOIRES DEPENDANTES
AZZOUZ Abderrezak
Maître de conférences « A », Enseignant Chercheur
à l’Ecole Nationale Supérieure de Management (ENSM)
azzouzdz@hotmail.com
RESUME :
Généralement, les études statistiques se font sur des variables aléatoires
supposées, à priori, indépendantes. Pratiquement tous les théorèmes utilisés
en statistique mathématique sont basés sur la condition de l’indépendance
des variables aléatoires.
Parmi ces théorèmes et ces résultats, on cite l’inégalité de Frechet-Rao-
Cramer dont on a l’habitude de l’utiliser avec les variables indépendantes.
Dans cette étude, on propose une version de cette inégalité pour les
variables statistiques dépendantes.
Le principe se base sur le passage des variables aléatoires indépendantes
vers des variables aléatoires dépendantes . La relation qui relit ces deux
types de variables est la suivante :
La distribution jointe des variables aléatoires dépendantes coïncide avec
la distribution jointe conditionnelle des variables aléatoires indépendantes
.
Mots clés : L’inégalité de Frechet, Cramer-Rao pour les variables
aléatoires dépendantes
Introduction
Soit une suite de variables aléatoires 1,2,, indépendantes et
identiquement distribuées avec une fonction de distribution( ; ; ),
connue avec précision jusqu’à 2 paramètres.
=1,2,,,1, est le paramètre informatif (peut être un
vecteur), Si la somme des variables est une statistique suffisante par
rapport à , alors il existe une variante d’une distribution jointe
conditionnelle de toutes les variables sous la condition :
=1 = (1)
: valeur de la statistique suffisante ne dépondant pas de .
Pour la vraisemblance conditionnelle, on utilisera le théorème de Naiman-
Pearson.
Dans le cas continu, la vraisemblance conditionnelle ressorte à travers la
densité conditionnelle.
Dans le cas discret, à travers la probabilité conditionnelle de l’évènement
=,= 1, , , en remplaçant dans la vraisemblance conditionnelle
des variables aléatoires par leurs valeurs , on obtient la valeur de la
vraisemblance conditionnelle.
45
Soit une suite de variables aléatoires 1,2,, dont la distribution
jointe coïncide avec la distribution jointe conditionnelle des variables
aléatoires (sous la condition (1)).
Désignons par l’espace des valeurs des 2 variables aléatoires et .
La variable aléatoire :
ζ=
=1 (2)
Est appelée statistique divisible si :
1- ,1 une suite de fonctions réelles de Borel, reflétant
l’ensemble  1 ;
2- Il existe une version
, de distribution conditionnelle du
vecteur = ( 1,2,,) sous la condition (1) on fixe la somme au
point
3- Il existe une version
de distribution conditionnelle sous la
condition (1) de la variable aléatoire :
ξ=
=1
Version de l’inégalité de Frechet-Rao-Cramer
Soit 1,2,, une suite de variables aléatoires dépendantes dont la
distribution jointe coïncide avec la distribution jointe conditionnelle ( sous la
condition (1)) des variables aléatoires 1,2,, indépendantes et
identiquement distribuées ayant comme fonction de répartition ( ; ; ) .
Ici =1,2,,,1, paramètre informatif inconnu d’un
ensemble ouvert , que nous voulons estimer à partir des valeurs
observées = (1,2,,) de l’échantillon 1,2,,.
Si (1) est une statistique suffisante (elle peut être vectorielle) par
rapport au paramètre , alors toute l’information sur le paramètre se trouve
dans l’échantillon Y .
Dans le cas classique des échantillons indépendants ,l’inégalité de Frechet
-Rao-Cramer donne la borne inférieure de la variance de l’estimateur sans
biais du paramètre (ou d’une fonction de paramètre).
On veut trouver une version de l’inégalité de Frechet -Rao Cramer dans
notre cas de variables dépendantes.
Soit la statistique arbitraire ,ù = 1,2,,.
Condition 1 :
Les conditions suivantes doivent être remplies :
a) La distribution des variables est absolument continue selon la
mesure de Lebesgue avec une densité ( ; ; ) ;
b) La variable :
46
=1,,, 1 , = 1,2,, est une
statistique suffisante par rapport à et se présente sous la forme d’un
vecteur avec des composantes réelles.
Selon la condition 1
a) La distribution du vecteur X est absolument continue avec comme
densité () :
=(
=1
;,), =1,2,,.
Supposons que la statistique peut être complétée par une
statistique : = (1,,)
Et supposons le changement de variable suivant :
1=1,,=,+1 =1,,=()
La densité de Z est donnée par la formule suivante
=det ,() (3)
:
=1,2,,  =1,2,,
() est l’image qui associe à chaque valeur du vecteur x une valeur du
vecteur z :=1,,,1,,,
, est la matrice Jacobienne .
La vraisemblance de l’échantillon Y ,en prenant en considération (3),
est définie pour chaque valeur par la formule :
; = ; ;
( ; ; ) (4)
: =
0
2
0=1
2
, 1=1 , 2=112
,
0 les densités des distributions des variables aléatoires 
0
respectivement. Puisque est une statistique suffisante par rapport au
paramètre (voir formule (1)) , la partie droite de la formule (4) ne dépond
pas de . Dans ce cas, on peut prendre T comme suit :
:1,2,,(,2,,)
Le dénominateur de la partie droite de la formule (4) est supposé non nul.
Pour obtenir la borne inférieure de notre variance, on utilisera le résultat
très connu comme théorème à la page 253 dans 09.
La démonstration de ce résultat est basée sur une relation très connue (voir
par exemple (1) dans 09, page 246), qui prend, dans notre cas, la forme
suivante :
;= 1 , (5)
47
: densité de distribution n-mesure de Lebesgue. Le théorème qu’on
a cité, nous donne la borne inférieure de la variance de l’estimateur sans
biais qui dépend de
ln ;.
D’un autre coté la matrice Jacobienne T ne dépend pas du paramètre (,)
.
Par conséquent, de la formule (4) et de la formule (3) on tire :
ln ;=
ln
0; (6)
:
0;= (;,)
=1
( ; ; ) (7)
Comme fonction de vraisemblance, on prendra la fonction
0.
Soit un estimateur sans biais de () une fonction du paramètre .
Supposons est un paramètre unidimensionnel.
Nous aurons besoin des conditions standards de régularité de la fonction de
vraisemblance (voir par exemple page 246 de 09).
Condition 2 :
a) L’ensemble : ;> 0 ne dépend pas de
b) La fonction est différentiable par rapport à et
() ; = ()
 ;

m est égale à 0 ou à 1.
Les conditions nécessaires pour la différentiation sous signe intégrale sont
données par exemple dans (09, page 247).
Remarque 1 :
Selon (3) et (7) la réalisation de la condition 2 a) pour la fonction
0 entraine
la réalisation de la fonction et vis versa.
Lemme 1 :
Si l’estimateur sans biais possède une variance finie et la condition 2
est réalisée, alors :
1
(

0;2
Pour toute valeur ξ , le dénominateur de la partie droite est positif.
Cette inégalité devient une égalité si et seulement si :
0;=()() presque par tout
Où g une fonction positive.
En utilisant le théorème (page 247 dans 09), nous obtenons :
48
Résultat 1 :
Si la fonction est deux fois différentiable et
2
2
;=2
2
;  ,
Alors , sous les conditions du lemme 1 pour toute variable ξ :
 
0;2
= 2
2ln
0;.
Et par conséquent :
2
2ln
0;
Ce résultat donne la borne inférieure de la variance de l’estimateur.
Passons maintenant à la version de l’inégalité de Frechet-Rao-Cramer pour
un paramètre multidimensionnelle ξ.
Condition 2’ :
Supposons que les conditions suivantes sont réunies :
a) L’ensemble ; > 0 ne dépond pas de ξ ;
b) La fonction de vraisemblance de l’échantillon est différentiable pour
chaque , = 1, ,
En plus pour = 0   = 1 , on a :
() ; = ()
;
 (8)
c) La fonction est différentiable pour chaque .
En utilisant le théorème dans la page 253 09, nous obtenons :
Lemme 1 :
Supposons que les conditions 1 et 2’ et un estimateur sans biais d’une
fonction réelle , alors :
,
,=1 (9)
,= (

0;(

0; ,
Et les coefficients vérifient le système d’équations :
,
=1 =
 = 1,2, ,
Si la matrice = ,    1=,
1 , alors :
,
1
,=1
(10)
Ce résultat donne la borne inférieure de la variance de l’estimateur pour le
cas multidimensionnel.
1 / 6 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !