L’INEGALITE DE FRECHET –CRAMER-RAO POUR LES VARIABLES ALEATOIRES DEPENDANTES AZZOUZ Abderrezak Maître de conférences « A », Enseignant Chercheur à l’Ecole Nationale Supérieure de Management (ENSM) [email protected] RESUME : Généralement, les études statistiques se font sur des variables aléatoires supposées, à priori, indépendantes. Pratiquement tous les théorèmes utilisés en statistique mathématique sont basés sur la condition de l’indépendance des variables aléatoires. Parmi ces théorèmes et ces résultats, on cite l’inégalité de Frechet-RaoCramer dont on a l’habitude de l’utiliser avec les variables indépendantes. Dans cette étude, on propose une version de cette inégalité pour les variables statistiques dépendantes. Le principe se base sur le passage des variables aléatoires indépendantes 𝑋𝑘 vers des variables aléatoires dépendantes 𝑌𝑘 . La relation qui relit ces deux types de variables est la suivante : La distribution jointe des variables aléatoires dépendantes 𝑌𝑘 coïncide avec la distribution jointe conditionnelle des variables aléatoires indépendantes 𝑋𝑘 . Mots clés : L’inégalité de Frechet, Cramer-Rao pour les variables aléatoires dépendantes Introduction Soit une suite de variables aléatoires 𝑋1 , 𝑋2 , … , 𝑋𝑛 indépendantes et identiquement distribuées avec une fonction de distribution𝑓(∙ ; 𝜃 ; 𝜉), connue avec précision jusqu’à 2 paramètres. 𝜉 = 𝜉1 , 𝜉2 , … , 𝜉𝑟 , 𝑟 ≥ 1, est le paramètre informatif (peut être un vecteur), Si 𝜂𝑛 la somme des variables 𝑋𝑖 est une statistique suffisante par rapport à 𝜃, alors il existe une variante d’une distribution jointe conditionnelle de toutes les variables 𝑋𝑘 sous la condition : 𝜂𝑛 ≡ 𝑛𝑘=1 𝑋𝑘 = 𝑎𝑛 (1) Où : 𝑎𝑛 valeur de la statistique suffisante ne dépondant pas de 𝜃. Pour la vraisemblance conditionnelle, on utilisera le théorème de NaimanPearson. Dans le cas continu, la vraisemblance conditionnelle ressorte à travers la densité conditionnelle. Dans le cas discret, à travers la probabilité conditionnelle de l’évènement 𝑋𝑘 = 𝑥𝑘 , 𝑘 = 1, … , 𝑛 , en remplaçant dans la vraisemblance conditionnelle des variables aléatoires 𝑋𝑘 par leurs valeurs 𝑥𝑘 , on obtient la valeur de la vraisemblance conditionnelle. 44 Soit une suite de variables aléatoires 𝑌1 , 𝑌2 , … , 𝑌𝑛 dont la distribution jointe coïncide avec la distribution jointe conditionnelle des variables aléatoires 𝑋𝑘 (sous la condition (1)). Désignons par 𝐺 l’espace des valeurs des 2 variables aléatoires 𝑋𝑘 et 𝑌𝑘 . La variable aléatoire : ζ𝑛 = 𝑛𝑘=1 𝑛 𝑌𝑘 (2) Est appelée statistique divisible si : 1𝑛 , 𝑛 ≥ 1 une suite de fonctions réelles de Borel, reflétant l’ensemble 𝐺 𝑑𝑎𝑛𝑠 𝑅1 ; 2Il existe une version 𝑄 𝑜, 𝑜 de distribution conditionnelle du vecteur 𝑋 = ( 𝑋1 , 𝑋2 , … , 𝑋𝑛 ) sous la condition (1) où on fixe la somme au point 𝑎𝑛 3Il existe une version 𝑄 de distribution conditionnelle sous la condition (1) de la variable aléatoire : 𝑛 ξ𝑛 = 𝑛 𝑋𝑘 𝑘=1 Version de l’inégalité de Frechet-Rao-Cramer Soit 𝑌1 , 𝑌2 , … , 𝑌𝑛 une suite de variables aléatoires dépendantes dont la distribution jointe coïncide avec la distribution jointe conditionnelle ( sous la condition (1)) des variables aléatoires 𝑋1 , 𝑋2 , … , 𝑋𝑛 indépendantes et identiquement distribuées ayant comme fonction de répartition 𝐹(∙ ; 𝜃 ; 𝜉) . Ici 𝜉 = 𝜉1 , 𝜉2 , … , 𝜉𝑟 , 𝑟 ≥ 1, paramètre informatif inconnu d’un ensemble ouvert 𝛯 ∈ 𝑅 𝑟 , que nous voulons estimer à partir des valeurs observées 𝑦 = (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) de l’échantillon 𝑌 ≡ 𝑌1 , 𝑌2 , … , 𝑌𝑛 . Si 𝜂𝑛 (1) est une statistique suffisante (elle peut être vectorielle) par rapport au paramètre 𝜃, alors toute l’information sur le paramètre 𝜉 se trouve dans l’échantillon Y . Dans le cas classique des échantillons indépendants ,l’inégalité de Frechet -Rao-Cramer donne la borne inférieure de la variance de l’estimateur sans biais du paramètre (ou d’une fonction de paramètre). On veut trouver une version de l’inégalité de Frechet -Rao –Cramer dans notre cas de variables dépendantes. Soit la statistique arbitraire 𝑡 𝑚 𝑋 , 𝑜ù 𝑋 = 𝑋1 , 𝑋2 , … , 𝑋𝑛 . Condition 1 : Les conditions suivantes doivent être remplies : a) La distribution des variables 𝑋𝑘 est absolument continue selon la mesure de Lebesgue avec une densité 𝑓(∙ ; 𝜃 ; 𝜉) ; b) La variable : 45 𝑡 𝑚 𝑋 = 𝑡1 𝑋 , … , 𝑡𝑚 𝑋 , 1 ≤ 𝑚 ≤ 𝑛 , 𝑋 = 𝑋1 , 𝑋2 , … , 𝑋𝑛 est une statistique suffisante par rapport à 𝜃 et se présente sous la forme d’un vecteur avec des composantes réelles. Selon la condition 1 a) La distribution du vecteur X est absolument continue avec comme densité 𝑓𝑋 (∙) : 𝑛 𝑓𝑋 𝑥 = 𝑓(𝑥𝑘 ; 𝜃, 𝜉), 𝑥 = 𝑥1 , 𝑥2 , … , 𝑥𝑛 . 𝑘=1 Supposons que la statistique 𝑡 𝑚 𝑋 peut être complétée par une statistique : 𝑔 𝑛−𝑚 𝑋 = (𝑔1 𝑋 , … , 𝑔𝑛−𝑚 𝑋 ) Et supposons le changement de variable suivant : 𝑧1 = 𝑡1 𝑥 , … , 𝑧𝑚 = 𝑡𝑚 𝑥 , 𝑧𝑚 +1 = 𝑔1 𝑥 , … , 𝑧𝑛 = 𝑔𝑛−𝑚 (𝑥) La densité de Z est donnée par la formule suivante 𝑓𝑍 𝑧 = det 𝑗 𝑇, 𝑥 𝑓𝑋 (𝑇 𝑥 ) (3) Où : 𝑥 = 𝑥1 , 𝑥2 , … , 𝑥𝑛 𝑒𝑡 𝑧 = 𝑧1 , 𝑧2 , … , 𝑧𝑛 𝑇(𝑥) est l’image qui associe à chaque valeur du vecteur x une valeur du vecteur z 𝑇: 𝑥 → 𝑧 = 𝑡1 𝑥 , … , 𝑡𝑚 𝑥 , 𝑔1 𝑥 , … , 𝑔𝑛−𝑚 𝑥 , 𝑗 𝑇, 𝑥 est la matrice Jacobienne . La vraisemblance 𝐿𝑛 de l’échantillon Y ,en prenant en considération (3), est définie pour chaque valeur 𝜉 ∈ 𝛯 par la formule : 𝐿𝑛 ∙ ; 𝜉 = 𝜂 0 𝑓𝑍 ∙ ; 𝜃 ; 𝜉 𝜂 𝑛 (𝑎 𝑛 ; 𝜃 ; 𝜉) (4) 𝜂 𝑛 = 𝑛𝜇𝑛 2 𝜂𝑛 − 𝑛𝜇1 0 𝜂𝑛 = , 𝜇1 = 𝐸 𝑋1 , 𝜇2 = 𝐸 𝑋1 − 𝜇1 2 𝑛𝜇2 𝜂 𝑛 , 𝜂 𝑛0 les densités des distributions des variables aléatoires 𝜂𝑛 𝑒𝑡 𝜂𝑛0 respectivement. Puisque 𝜂𝑛 est une statistique suffisante par rapport au paramètre 𝜃 (voir formule (1)) , la partie droite de la formule (4) ne dépond pas de 𝜃. Dans ce cas, on peut prendre T comme suit : 𝑇: 𝑥1 , 𝑥2 , … , 𝑥𝑛 → (𝜂𝑛 , 𝑥2 , … , 𝑥𝑛 ) Le dénominateur de la partie droite de la formule (4) est supposé non nul. Pour obtenir la borne inférieure de notre variance, on utilisera le résultat très connu comme théorème à la page 253 dans 09 . La démonstration de ce résultat est basée sur une relation très connue (voir par exemple (1) dans 09 , page 246), qui prend, dans notre cas, la forme suivante : Où : 𝑅𝑛 46 𝐿𝑛 𝑦; 𝜉 𝑑𝑦 = 1 ∀𝜉 ∈𝛯 , (5) Où 𝐿𝑛 : densité de distribution n-mesure de Lebesgue. Le théorème qu’on a cité, nous donne la borne inférieure de la variance de l’estimateur sans 𝜕 biais qui dépend de 𝜕𝜉 ln 𝐿𝑛 𝑌; 𝜉 . 𝑚 D’un autre coté la matrice Jacobienne T ne dépend pas du paramètre (𝜉, 𝜃) . Par conséquent, de la formule (4) et de la formule (3) on tire : 𝜕 𝜕 ln 𝐿𝑛 𝑦; 𝜉 = 𝜕𝜉 ln 𝐿0𝑛 𝑦; 𝜉 𝜕𝜉 𝑚 Où : 𝑚 𝐿0𝑛 𝑦; 𝜉 = 𝑛 𝑘=1 𝑓(𝑦 𝑘 ;𝜃,𝜉 ) (6) (7) 𝜂 𝑛 (𝑎 𝑛 ; 𝜃 ; 𝜉) Comme fonction de vraisemblance, on prendra la fonction 𝐿0𝑛 . Soit 𝑡𝑛 un estimateur sans biais de 𝜏(𝜉) une fonction du paramètre 𝜉. Supposons 𝜉 est un paramètre unidimensionnel. Nous aurons besoin des conditions standards de régularité de la fonction de vraisemblance (voir par exemple page 246 de 09 ). Condition 2 : a) L’ensemble 𝑦 ∈ 𝑅 𝑛 : 𝐿𝑛 𝑦; 𝜉 > 0 ne dépend pas de 𝜉 b) La fonction 𝐿𝑛 est différentiable par rapport à 𝜉 et 𝜕 𝜕 𝑡𝑛 (𝑦) 𝑚 𝐿𝑛 𝑦; 𝜉 𝑑𝑦 = 𝑡𝑛 (𝑦) 𝑚 𝐿 𝑦; 𝜉 𝑑𝑦 𝜕𝜉 𝑅 𝑛 𝜕𝜉 𝑛 𝑅𝑛 Où m est égale à 0 ou à 1. Les conditions nécessaires pour la différentiation sous signe intégrale sont données par exemple dans ( 09 , page 247 ). Remarque 1 : Selon (3) et (7) la réalisation de la condition 2 a) pour la fonction 𝐿0𝑛 entraine la réalisation de la fonction 𝐿𝑛 et vis versa. Lemme 1 : Si l’estimateur sans biais 𝑡𝑛 possède une variance finie 𝑉𝜉 𝑡𝑛 et la condition 2 est réalisée, alors : 𝑉𝜉 𝑡𝑛 ≥ 𝐸𝜉 ( 𝜕 𝜕𝜉 1 𝑙𝑛 𝐿0𝑛 𝑌;𝜉 2 Pour toute valeur ξ , le dénominateur de la partie droite est positif. Cette inégalité devient une égalité si et seulement si : 𝜕 𝜕𝜉 𝑙𝑛 𝐿0𝑛 𝑌; 𝜉 = 𝑔(𝜉) 𝑡𝑛 𝑌 − 𝜏(𝜉) presque par tout Où g une fonction positive. En utilisant le théorème (page 247 dans 09 ), nous obtenons : 47 Résultat 1 : Si la fonction 𝐿𝑛 est deux fois différentiable et 𝜕2 𝜕𝜉 2 𝑅 𝑟 𝐿𝑛 𝑦; 𝜉 𝑑𝑦 = 𝑅𝑟 𝜕2 𝜕𝜉 2 𝐿𝑛 𝑦; 𝜉 𝑑𝑦 , Alors , sous les conditions du lemme 1 pour toute variable ξ ∈ 𝛯 : 𝐸𝜉 2 𝜕 𝑙𝑛 𝐿0𝑛 𝑌; 𝜉 𝜕𝜉 𝜕2 ln 𝐿0𝑛 𝑌; 𝜉 . 𝜕𝜉 2 = − 𝐸𝜉 Et par conséquent : 𝜕2 𝑉𝜉 𝑡𝜉 ≥ − 𝐸𝜉 ln 𝐿0𝑛 𝑌; 𝜉 𝜕𝜉 2 Ce résultat donne la borne inférieure de la variance de l’estimateur. Passons maintenant à la version de l’inégalité de Frechet-Rao-Cramer pour un paramètre multidimensionnelle ξ. Condition 2’ : Supposons que les conditions suivantes sont réunies : a) L’ensemble 𝐿𝑛 𝑦; 𝜉 > 0 ne dépond pas de ξ ∈ 𝛯 ; b) La fonction de vraisemblance de l’échantillon est différentiable pour chaque 𝜉𝑚 , 𝑚 = 1, … , 𝑟 En plus pour = 0 𝑒𝑡 𝑝𝑜𝑢𝑟 𝑙 = 1 , on a : 𝜕 𝜕𝜉𝑚 𝑅 𝑛 𝑡𝑛 (𝑦) 𝑙 𝐿𝑛 𝑦; 𝜉 𝑑𝑦 = 𝑅𝑛 𝑡𝑛 (𝑦) 𝑙 𝜕 𝜕𝜉𝑚 𝐿𝑛 𝑦; 𝜉 𝑑𝑦 (8) c) La fonction 𝜏 𝜉 est différentiable pour chaque 𝜉𝑚 . En utilisant le théorème dans la page 253 09 , nous obtenons : Lemme 1’ : Supposons que les conditions 1 et 2’ et 𝑡𝑛 un estimateur sans biais d’une fonction réelle 𝜉 , alors : 𝑟 𝑖,𝑗 =1 𝑎𝑖,𝑗 𝑐𝑖 𝑐𝑗 𝜕 𝐸𝜉 (𝜕𝜉 𝑙𝑛 𝐿0𝑛 𝑌; 𝜉 𝑖 𝑉𝜉 𝑡𝜉 ≥ Où 𝑎𝑖,𝑗 = (9) 𝜕 (𝜕𝜉 𝑗 𝑙𝑛 𝐿0𝑛 𝑌; 𝜉 , Et les coefficients 𝑐𝑗 ≡ 𝑐𝑗 𝜉 vérifient le système d’équations : 𝑟 𝑎𝑖,𝑗 𝑐𝑗 = 𝑗 =1 Si la matrice 𝐴 = 𝑉𝜉 𝑡𝜉 ≥ 𝑎𝑖,𝑗 𝜕 𝜏 𝜉 𝜕𝜉𝑖 𝑖 = 1,2, … , 𝑟 −1 𝑒𝑠𝑡 𝑖𝑛𝑣𝑒𝑟𝑠𝑖𝑏𝑙𝑒 𝑒𝑡 𝐴−1 = 𝑎𝑖,𝑗 , alors : 𝑟 −1 𝑖,𝑗 =1 𝑎𝑖,𝑗 𝜕 𝜕𝜉 𝑖 𝜏 𝜉 𝜕 𝜕𝜉 𝑗 𝜏 𝜉 (10) Ce résultat donne la borne inférieure de la variance de l’estimateur pour le cas multidimensionnel. 48 Bibliographie 01 A.A.BOROVKOV, Statistique mathématique-estimation des paramètres-tests d’hypothèses, édition, Naouka, 1984. 02 A.A.BOROVKOV, Théorie des probabilités, édition, Naouka, 1986. 03 A.N.SHERIAEV, Probabilité, édition, Naouka, 1980. 04 B.A.SEVASTIANOV, Cours de théorie des probabilités, édition, Naouka, 1982 ; 05 D.A.FRASER, Nonparametric methods in statistics, New York, John Wiley and Sons, 1957. 06 E. LEMAN, Tests statistiques d’hypothèses, édition, Naouka, 1979. 07 G.I.IVCHENKO, U.I.MEDVEDOV, Statistique mathématique, édition , Naouka, 1984. 08 G.CRAMER, Statistique mathématique, édition, Mir, 1975. 09 G.P.KLIMOV, Théorie des probabilités et statistique mathématique, édition, MGU, 1983. 10 K.PARTASARATI, Introduction à la théorie des probabilités et la théorie des mesures, édition, Mir, 1983. 11 L.HOLST, Some conditional limit theorems in exponential families, édition, Probab v.9, 1981. 12 P.BILLINGSLEY, Statistical inferences for Markov processes, edition Chicago University Press, 1962. 13 S.R.PAO, Méthodes statistiques linéaires et leurs applications, édition, Naouka, 1968. 14 S.ZABELL, Continuous versions of regular conditional distributions, editions, The Annals of Probability, 1979. 15 V.FELLER, Introduction à la théorie des probabilités et ses applications, édition, Mir, 1984. 16 V.V.PETROV, Somme de variables aléatoires indépendantes, édition, Naouka, 1972. 49