L3 - 2016/2017 - TD 12 Mercredi 4 janvier Mathématiques discrètes Soit X une loi de probabilité dépendant d’un paramètre p qu’on cherche à estimer à l’aide d’un échantillon de valeurs prises par X : [x1 , ..., xn ]. On rappelle qu’un estimateur est une fonction f telle quelle f (X1 , ..., Xn ) détermine le paramètre p, les variables aléatoires X1 , ..., Xn étant des copies indépendantes de même loi que X. La valeur f (x1 , ..., xn ) sera utilisée comme estimation pour proposer une valeur de p. Il faut remarquer qu’un estimateur est défini pour toutes les valeurs de n, se qui permet de produire une estimation quelque soit la taille de l’échantillon, c’est donc plutôt une suite d’estimateurs (fn )n∈N . On dit que l’estimateur f est sans biais si pour tout entier naturel n, E(f (X1 , ..., Xn )) = p. Dans le cas contraire, l’estimateur est dit biaisé et on définit son biais comme la suite (Bn (f ))n∈N , où Bn (f ) = E(f (X1 , ..., Xn )) − p. Exercice 1. 1. On considère l’estimateur de la moyenne : µ(X1 , ..., Xn ) = biais. 1 n Pn i=1 Xi . Démontrer qu’il est sans Pn Pn 2. On considère l’estimateur de la variance : ν(X1 , ..., Xn ) = n1 i=1 (Xi − n1 j=1 Xj )2 . Démontrer qu’il est biasé. En déduire un facteur correctif αn tel que l’estimateur αn ν(X1 , ..., Xn ) est sans biais. Corrigé 1. Posons m = E(Xi ) et σ 2 = σ 2 (Xi ), pour tout i. Pn Pn 1. E(µ(X1 , ..., Xn )) = E( n1 i=1 Xi ) = n1 i=1 E(Xi ) = m. Pn Pn 2. Posons Sn = n1 i=1 Xi . Sa variance est : σ 2 (Sn ) = n12 i=1 σ 2 (Xi ) = E(ν(X1 , ..., Xn )) On pose αn = n n−1 . L’estimateur 1 2 nσ . Pn = n1 E(Pi=1 (Xi − Sn )2 ) n 2 2 = n1 E( Pn i=1 (Xi2 − 2Xi Sn +2 Sn )) 1 = n (Pi=1 E(Xi ) − 2nE(Sn ) + nE(Sn2 ) n = n1 ( i=1 E(Xi2 ) − nE(Sn2 ) 2 = E(X1 ) − E(Sn2 ) = E(X12 ) − m2 + m2 − E(Sn2 ) = σ 2 − n1 σ 2 2 = n−1 n σ n n−1 ν(X1 , ..., Xn ) est appelé l’estimateur de la variance corrigé . On dit que l’estimateur est convergent si la suite de variables aléatoires (f (X1 , ..., Xn )) converge en probabilités vers le paramètre p. Exercice 2. Démontrer que l’estimateur de la moyenne est convergent vers p = E(X). Corrigé 2. On applique la loi faible des grands nombres vue en cours. Exercice 3. Soit X une variable aléatoire suivant une loi de Bernouilli de paramètre p. On considère l’estimateur f (X1 , ..., Xn ) = Pn 1 n( i=1 (Xi ))(1 − n1 ( Pn i=1 (Xi ))) pour le paramètre p(1 − p). 1. Démontrer que f est un opérateur biaisé. Comment le corriger pour qu’il soit sans biais? J. Dubut, A. Lick, C. Picaronny 1 E.N.S. de Cachan L3 - 2016/2017 - TD 12 Mercredi 4 janvier Mathématiques discrètes 2. Démontrer que f ainsi que sa correction sont des estimateurs convergents. Corrigé 3. Posons Sn = 1 n Pn i=1 Xi . (calculs faits dans l’exercice 1). Donc 1. Sa moyenne est p et sa variance est : σ 2 (Sn ) = p(1−p) n 2 2 2 = n−1 E(Sn(1−Sn)) = E(Sn )−E(Sn ) = E(Sn )−E(Sn ) +E(Sn ) −E(Sn2 ) = p−p2 − p(1−p) n n p(1−p). P P n n 1 Donc f est biaisé et on peut le corriger en prenant f˜(X1 , ..., Xn ) = n−1 ( i=1 Xi )(1 − n1 ( i=1 Xi )). 2. La loi des grands nombres assure la convergence en probabilité de Sn vers p : ∀ > 0, ∀η > 0, ∃N,η ∈ N tel que n > N,η ⇒ P (|Sn − p| > η) < . Comme x → x(1 − x) est une application continue, ∀η > 0, ∃αη > 0 tel que |x − p| < αη ⇒ |x(1 − x) − p(1 − p)| < η. Donc ∀ > 0, ∀η > 0, pour n > N,αη , P (|Sn (1 − Sn ) − p(1 − p)| > η) < P (|Sn − p| > αη ) < . Pour la version corrigée, on modifie légèrement : ∀ > 0, ∀η > 0, ∃Mη ∈ N tel que n > Mη ⇒ n−1 1 n p(1 − p) < η/2. On prend alors ζ = η/2 et n > max(N,αζ , Mη , |Sn (1 − Sn ) − n p(1 − p)| 6 n |Sn (1 − Sn ) − p(1 − p)| + | p(1−p) | 6 |Sn (1 − Sn ) − p(1 − p)| + ζ. Donc P (| n−1 Sn (1 − Sn ) − p(1 − p)| > n n−1 n−1 η) = P (|Sn (1−Sn )− n p(1−p)| > n η) 6 P (|Sn (1−Sn )−p(1−p)| > ζ) < P (|Sn −p| > αζ ) < . On apprécie la convergence de l’estimateur f par son erreur quadratique définie comme la suite (EQn (f ))n∈N : ∀n ∈ N, EQn (f ) = E((f (X1 , ..., Xn ) − p)2 ). Exercice 4. Soit f un estimateur sans biais et p = E(X). Démontrer que ∀n ∈ N, EQn (f ) = σ 2 (f ). Plus généralement, exprimer EQn (f ) − σ 2 (f ) à l’aide du biais Bn (f ). Corrigé 4. ∀n ∈ N, EQn (f ) = E((f (X1 , ..., Xn ) − p)2 ) = E((f (X1 , ..., Xn )2 ) − 2pE(f (X1 , ..., Xn )) + p = E((f (X1 , ..., Xn )2 ) − p2 = σ 2 (f ). Dans le cas général, 2 EQn (f ) = = = = = E((f (X1 , ..., Xn ) − p)2 ) E((f (X1 , ..., Xn ) − E(f (X1 , ..., Xn )) + E(f (X1 , ..., Xn )) − p)2 ) E((f (X1 , ..., Xn ) − E(f (X1 , ..., Xn )) + Bn (f ))2 ) E(((f (X1 , ..., Xn ) − E(f (X1 , ..., Xn ))2 − 2Bn (f )((f (X1 , ..., Xn ) − E(f (X1 , ..., Xn )) + Bn (f )2 ) σ 2 (f ) − 2Bn (f ) E(f (X1 , ..., Xn ) − E(f (X1 , ..., Xn ))) +Bn (f )2 | {z } 0 Exercice 5. Soit X une variable aléatoire suivant une loi de Bernouilli de paramètre p. Pn On considère comme l’estimateur de la moyenne µ(X1 , ..., Xn ) = n1 i=1 Xi . Justifier l’utilisation de l’estimateur de la moyenne pour produire une estimation de p. Calculer EQn (f ). Démontrer que la suite des écarts quadratiques est décroissante et tend vers 0. Corrigé 5. E(X) = p donc l’estimateur de la moyenne est convergent vers p. EQn (µ) = σ 2 (µ) = n12 (σ 2 (Xi )) = p(p−1) . n J. Dubut, A. Lick, C. Picaronny 2 E.N.S. de Cachan L3 - 2016/2017 - TD 12 Mercredi 4 janvier Mathématiques discrètes On dit qu’un estimateur f1 est plus efficace qu’un estimateur f2 pour un même paramètre p si ∀n ∈ N, EQn (f2 ) 6 EQn (f1 ). On définit l’estimateur selon le maximum de vraisemblance pour le paramètre p la valeur du paramètre p0 qui maximise gn (p) = P (X1 = x1 , ..., Xn = xn ).. Soit : argmax[0,1] P (X1 = x1 , ..., Xn = xn ). Rappelons pour bien comprendre que l’on cherche à estimer le paramètre p d’une loi de probabilité X, à l’aide d’un échantillon de valeurs prises par X : [x1 , ..., xn ], considéré comme la valeur d’un n-uplet de variables aléatoires X1 , ..., Xn , copies indépendantes de même loi que X. Donc gn (p) = P (X1 = x1 , ..., Xn = xn ) = n Y P (Xi = xi ) = i=1 n Y P (X = xi ). i=1 Chaque terme P (X = xi ) est une fonction de p, ce qui ne se voit pas dans la notation! La fonction logarithme étant strictement croissante sur [0, 1], il peut être plus pratique de calculer le paramètre le plus vraisemblable en cherchant à maximiser ln gn (p). Exercice 6. On considère une X une variable aléatoire suivant une loi de Bernouilli de paramètre p. On cherche à estimer p selon le maximum de vraisemblance avec un échantillon de taille n. Démontrer que cet estimateur fournit la même valeur que l’estimateur de la moyenne. En déduire qu’il est non biaisé et convergent. Corrigé 6. Soit n la taille de l’échantillon et s le nombre de 1 dans l’échantillon. Alors gn (p) = ps (1 − p)n−s . Donc hn (p) = ln gn (p) = s ln(p) + (n − s) ln(1 − p). On cherche le maximum de cette fonction sur [0, 1) : h0n (p) = s/p − (n − s)/(1 − p) = (s(1 − p) − (n − s)p)/p(1 − p) = (s − np)/p(1 − p). Donc le maximum de gn (c’est bien un maximum vu les signes de la dérivée (> 0 avant s/n, < 0 après)) est atteint en p = s/n, exactement comme l’estimateur de la moyenne. Donc il est non biaisé et sa convergence relève donc de la loi des grands nombres. Exercice 7. On considère une variable aléatoire X qui suit une loi de Poisson de paramètre λ > 0. On cherche à estimer λ selon le maximum de vraisemblance avec un échantillon de taille n. Démontrer que cet estimateur fournit la même valeur que l’estimateur de la moyenne. En déduire qu’il est non biaisé et convergent. k Corrigé 7. Soit [x1 , ..., xn ] n l’échantillon. On rappelle que P (X = k) = e−λ λk! . gn (λ) = Qn i=1 P (X = xi ) = hn (λ) = ln(gn (λ)) = −nλ + ( Pn xi Qn i=1 Pn xi e−λ λxi ! = e−nλ λQni=1xi ! . i=1 i=1 xi ) ln(λ) − Pn i=1 ln(xi !). Pn Pn xi h0n (λ) = −n + ( i=1 xiP ) λ1 , h0n s’annule en λ0 = i=1 . C’est bien un maximun : si on dérive une n n seconde fois, h”n (λ) = −( i=1 xi ) λ12 < 0 , ce qui dit que la fonction hn est concave. On retrouve la valeur de l’estimateur de la moyenne. Donc il est non biaisé et convergent. Exercice 8. On considère une variable aléatoire X qui suit une loi géométrique de paramètre p (P (X = k) = pqk − 1, k > 1). On cherche à estimer p selon le maximum de vraisemblance avec un échantillon de taille n. P Qn n i xi −n ; Corrigé 8. Soit [x1 , ..., xn ] l’échantillon. g (p) = P (X = x ) = p q n i i=1 P P 0 hn (p) = Pln(gn (p)) = n ln(p) + ( i xi − Pn) ln(1 − p), donc hn (p) = n/p − ( i xi − n)/(1P− p) = (n(1 − p) − p( i xi − n))/p(1 − p) = (n − p( i xi ))/p(1 − p). Donc h0n s’annule pour p0 = n/( i xi ). Comme J. Dubut, A. Lick, C. Picaronny 3 E.N.S. de Cachan L3 - 2016/2017 - TD 12 Mercredi 4 janvier Mathématiques discrètes P h”n (p) = −n/p2−( i xiP −n)/(1−p)2 < 0, p0 est bien un maximum. Donc l’estimateur selon le maximum de vraisemblance est n/ i Xi . Exercice 9. On considère une variable aléatoire X qui suit une loi uniforme sur l’ensemble {0, 1, ..., p}. On cherche a estimer p. 1. Décrire précisément la loi de X. 2. Utiliser l’estimateur de la moyenne pour proposer un estimateur sans biais et convergent. 3. Justifier que l’estimateur selon le maximum de vraisemblance est max(X1 , ..., Xn ). 4. Est-il non biaisé ? Corrigé 9. 1. P (X = k) = 1/(p + 1), pour tout k dans {0, 1, ..., p}. Pn 1 2. On considère Pp comme l’estimateur de la moyenne µ(X1 , ..., Xn ) = n i=1 Xi . E(µ(X1 , ..., Xn )) = E(X) = k=0 k/(p+1) = p(p+1)/2(p+1) = p/2. Donc 2µ(X1 , ..., Xn ) est un estimateur Pp sans biais et convergent de p. L’erreur quadratique est : EQn (2µ) = 4σ 2 (µ) = 4σ 2 (X)/n = n4 ( k=0 k 2 )/(p+ 1 (p2 + p). 1) − p2 /4) = n4 (p(p + 1)(2p + 1))/6(p + 1) − p2 /4) = n4 (p(2p + 1))/6 − p2 /4) = 3n 3. Soit [x1 , ..., xn ] n l’échantillon. Alors gn (p) = P (X1 = x1 , ..., Xn = xn ) = 0, si p 6 max(x1 , ..., xn ) 1/(p + 1)n , sinon. Donc gn (p) est maximal pour p = max(x1 , ..., xn ). 4. Posons Tn = max(X1 , ..., Xn ). Alors pour tout k dans {0, 1, ..., p}, P (T 6 k) = P (X1 6 k, X2 6 Qn Pp−1 k, · · · , Xn 6 k) = i=1 P (Xi 6 k) = ((k + 1)/(p + 1))n . Donc E(Tn ) = i=0 P (Tn > i) = Pp−1 Pp n n (1 − ((i + 1)/(p + 1)) ) = (1 − ((i/(p + 1)) ). L’estimateur est biaisé mais non biaisé i=0 i=1 asymptotiquement. On peut montrer qu”il est plus efficace que le précédent, mais le calcul n’est pas facile. Exercice 10. On effectue un sondage pour estimer la proportion p de personnes qui trichent dans leur déclaration d’impôt. Pour garantir l’anonymat de la réponse, on utilise le protocole suivant: La personne sondée tire confidentiellement une boule dans une urne. Si la boule est blanche, elle répond honnêtement. Si la boule est noire, elle répond le contraire. Soit α la probabilité de tirer une boule blanche dans l’urne. On suppose α 6= 1/2. (a) Soit Y la variable aléatoire qui prend la valeur 1 si la réponse est oui et 0 sinon. Exprimer en fonction de p et α la probabilité de (y = 1). (b) En déduire un estimateur sans biais et convergent de p. (c) Y-a t’il un choix optimal de α? Corrigé 10. (a) Notons BB (resp. BN ) l’evènement " la boule tirée est blanche", (resp "noire") ; P (Y = 1) = P (Y = 1|BB)p(BB) + P (Y = 1|BN )p(BN ) = pα + (1 − p)(1 − α). (b) Y suit une loi de Bernouilli de paramètre q = pα + (1 − p)(1 − α) = (1 − α) + p(2α − 1). Donc p = (q + α − 1)/(2α − 1). On peut donc estimer p avec (T + α − 1)/(2α − 1), ou T est l’estimateur dela moyenne de q. E((T + α − 1)/(2α − 1)) = (q +a lpha − 1)/(2α − 1) = p, donc cet estimateur est sans biais. σ 2 ((T + α − 1)/(2α − 1)) = σ 2 (T + α − 1)/(2α − 1)2 = σ 2 (T ))/(2α − 1)2 = q(1 − q)/n(2α − 1)2 . J. Dubut, A. Lick, C. Picaronny 4 E.N.S. de Cachan L3 - 2016/2017 - TD 12 Mercredi 4 janvier Mathématiques discrètes (c) Non. Si on fait tendre α vers 0 ou 1, le protocole n’est plus confidentiel. Mais si on fait tendre α vers 1/2, la variance tend vers ∞. L’efficacité de l’estimateur diminue avec l’augmentation de la confidentialité. Exercice 11. Soit X une loi uniforme sur un intervalle [0, a], P (X ∈ [u, v]) = v−u On cherche à a estimer a. on considère deux estimateurs l’estimateur de la moyenne µ, et l’estimateur du maximum, noté t et défini par t(X1 , ..., Xn ) = max(X1 , ..., Xn ). (a) Déterminer l’espérance et la variance de µ. (b) Justifier que l’estimateur 2µ est convergent vers a. (c) Justifier que t(X1 , ..., Xn ) est de densité f (x)nxn−1 /an . (d) Déterminer l’espérance et la variance de t. (e) Modifier t en un estimateur t0 pour obtenir un estimateur sans biais. (f) Comparer alors t0 et µ en efficacité. Corrigé 11. (a) E(µ) = 1 a Ra 0 2 tdt = a1 [ t2 ]a0 = a 2 et σ 2 (µ) = 1 1 n(a Ra 0 t2 dt − ( a2 )2 ) = a2 12n . (b) L’estimateur 2µ est sans biais et convergent vers a par la loi des grands nombres. On obtient a2 son erreur quadratique par le calcul de la variance : 3n . (c) On calcule la fonction de répartition Qn de t(X1 , ..., Xn ) : Ft (x) = P (t(X1 , ..., Xn ) 6 x) = P (X1 6 x, X2 6 x, · · · , Xn 6 x) = i=1 P (Xi 6 x) = ( xa )n . Donc t(X1 , ..., Xn ) est de densité ft (x) = Ft0 (x) = nxn−1 /an . Ra ( n+1) a na ]0 = (n+1) . L’estimateur est biaisé mais (d) E(t(X1 , ..., Xn ) = a1n 0 u(nun−1 )du = ann [ u n+1 na a asymptotiquement non biaisé. Le biais se calcule : E(t(X1 , ..., Xn )) − a = | (n+1) − a| = (n+1) . σ 2 (t(X1 , ..., Xn ) Ra 2 1 na n−1 )du − ( (n+1) )2 , an 0 u (nu n+2 n u na a 2 an [ n+2 ]0 − ( (n+1) ) , 2 na na 2 n+2 − ( (n+1) ) , 2 na (n+1)2 (n+2)2 . = = = = L’erreur quadratique est alors na2 (n+1)2 (n+2)2 + a2 (n+1)2 = (n2 +5n+4)a2 (n+1)2 (n+2)2 donc ∼ a2 n2 . (e) On modifie t en un estimateur pour obtenir un estimateur sans biais en posant t0 (X1 , ..., Xn ) = n+1 n t(X1 , ..., Xn ). 2 2 (f) La variance de t0 est : σ 2 (t0 (X1 , ..., Xn )) = ( n+1 n ) σ (t(X1 , ..., Xn )) = quadratique est a2 n(n+2)2 J. Dubut, A. Lick, C. Picaronny ∼ a2 n3 a2 n(n+2)2 , Son erreur ce qui est mieux asymptotiquement que celui de t. 5 E.N.S. de Cachan