Convergence des variables aléatoires I) L’inégalité de Bienaymé – Tchebychev 1.1) L’inégalité de Markov dans le cas discret On considère une variable discrète non négative, d’espérance strictement positive. Soit λ un réel strictement positif. Puisque est non négative, on a Ω Appelons et les sous-ensembles de Ω définis par Ω, Ω, On a Ω Comme , on a 0, et donc D’autre part, , Donc 0 Donc Soit en divisant par 0, 1 Or On en déduit l’inégalité de Markov : Exemple Si # $ %'(, on a 3. & ! " 1 1 20 Donc si dans une urne il y a trois boules, deux noires et une blanche, indiscernables au toucher, la probabilité de devoir attendre plus de 60 tirages avec remise pour obtenir pour la première fois la boule blanche est inférieure ou égale à 5%. L’inégalité de Markov donne par exemple : 60 20 - 3 " Ce résultat est en fait assez imprécis, car 23 2 01& 1 60 . / . / 0.99999 3 3 04& 60 " 0,00001 Et donc 1.2) L’inégalité de Markov dans le cas continu Soit une variable de densité 6 nulle sur 1 , admettant une espérance strictement positive. Soit λ un nombre réel strictement positif. On a On peut écrire alors 7 7 19 9 68 7 : 9 68 ;< 6 8 7 : 9 La fonction = 6 est positive sur . Comme 0 " , on a 7 ;< : Donc 68 ;< 6 8 0 7 9 ;< 68 Sur l’intervalle >, ∞>, on a et donc 6 6 Les bornes étant dans le bon ordre, on a Et donc Ce qui donne en définitive : 7 9 68 7 ;< 7 9 9 68 7 ;< En divisant par , on obtient : Or On retrouve l’inégalité de Markov : 68 ;< 7 9 7 68 ;< ;< 9 9 68 9 1 7 68 ;< 68 ;< ! " 1 Exemple La durée d’une communication téléphonique en minutes est une variable aléatoire continue dont on supposera qu’elle suit une loi exponentielle de paramètre 1. 1 On a donc 1 10 Dans ce modèle, la probabilité qu’une communication dure plus de 10 minutes est inférieure à 0,1. Ce qui revient à dire qu’il y a moins de 10% des communications dont la durée dure plus de 10 minutes. Là encore le résultat est très imprécis : On a 10 10 - 1 " 10 7 9 @ 1 8 @ 1&: A 4.54 D 1012 &: Il y a donc en réalité moins de 5 chances sur 100000 qu’une communication dure plus de 10 minutes (ce qui en fait montre que ce modèle n’est pas très réaliste) 1.3) L’inégalité de Bienaymé – Tchebychev dans le cas discret On considère une variable discrète admettant une espérance mathématique et une variance E non nulle. Soit F un nombre réel strictement positif. On a Soit I la variable aléatoire définie par H E % G ! ( H I G ! I E 0 Donc dans le cas discret en appliquant l’inégalité de Markov en prenant : FH E On obtient On a donc JI Ce qui donne Or On en déduit que FH E IK " H E F H % G ! F H ( " H E FH L G ! F H M >| G | FO | G | F " E FH 1.4) L’inégalité de Bienaymé – Tchebychev dans le cas continu On considère une variable continue admettant une espérance mathématique et une variance E non nulle. Soit 6 une densité de probabilité de . On a H E % G ! ( 7 Considérons pour F 0, l’ensemble défini par 9 19 H G ! 68 H G ! F H G F P G " GF L’ensemble G F peut se décrire de la façon suivante : G F F De même G " GF " GF On a Ce qui revient à dire que G " GF 7 On a donc par incompatibilité G F 7 1Q< 19 9 68 68 Q< H % G ! F H ( G " GF G F On a E 7 1Q< 19 On a évidemment 7 68 7 19 H G ! 68 7 7 E 7 1Q< 19 Q< 1Q< Comme – F " F , alors Donc 1Q< 9 68 Q< H G ! 68 7 Q< H G ! 6 0 Q< 1Q< H H G ! 68 7 9 Q< H H G ! 68 G ! F H Donc H G ! 6 F H 6 Les bornes étant dans le bon ordre, on a : 7 1Q< 19 H G ! 68 7 De même, on a pour F , G F 0 Donc 1Q< 19 F H 68 H G ! F H Et donc H Les bornes étant dans le bon ordre 7 9 Q< G ! 6 F H 6 H G ! 68 7 9 F H 68 Q< H G ! 68 G ! 68 0 Pour " GF , on a G ! " GF. Ce nombre étant négatif, on a On a donc 9 7 1Q< 19 Donc G ! 68 7 Donc Donc Ce qui donne enfin On a H 9 Q< E F H 7 H G ! 68 7 1Q< 19 E F H S7 F 68 7 19 68 F H 7 9 Q< 1Q< 68 7 19 1Q< 9 H 9 F H 68 Q< 68 68T Q< H E F H % G ! F H ( H % G ! F H ( " H E FH L G ! F H M >| G | FO On en déduit l’inégalité dite de Bienaymé – Tchebychev : | G | F " E FH Applications : Si # U20; 0,2, on a 20 - 0.2 4 et E 20 - 0,2 - 0,8 3,2 On aura par exemple 1 " " 7 G3 " G 4 " 3 | G 4| " 3 Or d’après l’inégalité de Bienaymé – Tchebychev, on a 3.2 | G 4| 3 " 9 Donc | G 4| 3 " 0,356 Donc | G 4| " 3 0,644 Ou encore 1 " " 7 0,644 Deuxième exemple : Soit la variable aléatoire donnant la note en math au concours Ecricome. On sait que par construction 10 Y 4 On aura 5 " " 15 G5 " G 10 " 5 | G 10| " 5 Or 16 | G 10| 5 " 25 Donc 9 | G 10| " 5 25 On en déduit que 5 " " 15 0,36 L’inégalité de Bienaymé – Tchebychev n’est pas très précise, elle donne un résultat « à la louche » qui donne simplement une vague idée de la situation. Par contre, elle ne demande pas de connaître la loi de probabilité de la variable. Quand on connaît cette loi, on obtient des résultats bien meilleurs. Dans le dernier exemple, si l’on sait que # Z10,4, on pose alors G 10 [ 4 On sait que [ # Z0,1 On en déduit que 5 5 5 " " 15 .G " [ " / 2\1,25 G 1 A 0,79 4 4 Bien sûr le résultat retourné par l’inégalité de Bienaymé – Tchebychev est correct, mais bien peu précis. II. Convergence en probabilité – Loi faible des grands nombres 2.1) Convergence en probabilité Définition On considère une suite de variables aléatoires & , … , ^ , … discrètes ou continues, définies sur un espace probabilisé Ω, _, . Soit ` une variable aléatoire définie sur le même espace probabilisé. On dit que ^ converge vers ` en probabilité pour signifier que F 0, lim |I^ G `| F 0 On note 2.2) Moyenne empirique ^d9 e I^ d ` Définition Soit ^ ^f une suite de variables aléatoires définies sur un même espace probabilisé Ω, _, . On définit pour tout entier g, la moyenne empirique d’ordre g comme étant la variable hhh^h définie par : aléatoire ^ 1 h^ 0 g 04& 2.3) Loi faible des grands nombres Théorème Soit ^ ^f[ une suite de variables aléatoires deux à deux indépendantes et de même loi, avec pour tout i f[ , 0 j E0 Y H avec Y 0 On a h^ j YH h E^ g Et YH F 0, g 1, |h^ G j| F " H gF On a ^ ^ ^ 04& 04& 04& 1 1 1 1 h^ J 0 K 0 j gj j g g g g Nous admettrons le résultat suivant : Si & , … , ^ sont des variables deux à deux indépendantes, alors E& o ^ E& o E^ On a alors Donc par indépendance ^ ^ 04& 04& 1 H 1 Eh^ E J 0 K . / E J 0 K g g ^ ^ 1 1 YH 1 Eh^ H E0 H Y H H gY H g g g g 04& On a alors avec l’inégalité de Bienaymé – Tchebychev, Et donc 04& |h^ G h^ | F " |h^ G j| F " Eh^ FH YH gF H Loi faible des grands nombres Soit ^ ^f[ une suite de variables aléatoires deux à deux indépendantes et de même loi, avec pour tout i f[ , 0 j E0 Y H avec Y 0 Alors F 0, lim |h^ G j| F 0 ^d9 Ce qui prouve que la variable h^ converge en probabilité vers la variable constante j. h^ d j e On applique le résultat démontré à la question précédente. On a 0 " |h^ G j| F " YH 0 ^d9 gF H Or lim YH gF H Donc d’après le théorème des gendarmes, F 0, lim |h^ G j| F 0 ^d9 Exemple d’application On lance une pièce bien équilibrée un grand nombre de fois. Au i ième lancer, on associe la variable aléatoire 0 qui prend la valeur 0 si le lancer donne pile et 1 s’il donne face. On a donc 1 0 # U . / 2 & On a donc 0 H. En prenant ^ 1 h^ 0 g 04: On aura On a donc h^ 1 2 1 F 0, lim .qh^ G q F/ 0 ^d9 2 III. Convergence en loi 3.1) Convergence en loi Définition On considère une suite ^ ^f[ de variables aléatoires définies sur un même espace probabilisé Ω, _, . Soit une variable aléatoire définie sur ce même espace probabilisé. Si est une variable à densité, ^ converge en loi vers si : r , lim ^ " r " r ^d9 Si les variables ^ et la variable suivent des lois discrètes, la convergence en loi se définit de la façon suivante : Ω, lim ^ On écrit ^d9 s ^ d 3.2) Convergence de la loi binomiale vers la loi de Poisson Soit ^ une suite de variables aléatoires telles que ^ # Ug, t^ On suppose que lim gt^ 0 ^d9 On a pour tout i f et tout g i, On a g ^ i % ( t^0 1 G t^ ^10 i 01& g! 1 g % ( vg G w i i! g G i! i! Or pour i fixé, on a pour tout w " i G 1, gGw y g y ^d9 x4: g0 g % ( y i ^d9 i! Donc gt^ On a Donc On a donc On a également g % ( t^0 i t^ y ^d9 ^d9 g y ^d9 0 g0 0 . / g i! i! ln1 G t^ ^10 g G i ln1 G t^ t^ {|||} 0 Or ^d9 ln1 G t^ Donc Ou encore: On en déduit que Donc ln1 G t^ g G i ln1 G t^ Et donc par composition des limites : On en déduit que y G t^ ^d9 y G ^d9 y G ^d9 g g G i y G ^d9 g lim ln1 G t^ ^10 G ^d9 lim 1 G t^ ^10 @ 1; ^d9 lim ^ i ^d9 On reconnaît une loi de Poisson de paramètre λ. 0 @ 1; i! Théorème : Soit ^ une suite de variables aléatoires telles que ^ # Ug, t^ On suppose que lim gt^ 0 ^d9 Alors la suite ^ converge en loi vers une variable qui suit une loi de Poisson de paramètre λ. 3.3) Convergence de la loi hypergéométrique vers la loi binomiale On considère une suite ^ de variables telles que ^ # ~, g, t Rappelons que cela correspond à la situation standard : une urne contient boules blanches et rouges. Elle contient une proportion t de boules blanches et donc 1 G t de boules rouges. On extrait simultanément g boules de l'urne et l'on appelle ^ la variable aléatoire correspondant au nombre de boules blanches que nous avons parmi les g extraites. Pour simplifier, on considère que t est un entier r. On a 1 G t G t G r f On a ^ Ω 0, g On a r % (% ( i gGi ^ i % ( g Ce qui donne r! ! g! G g! ^ i i! r G i! g G i! G g i! ! 01& ^101& 4: x4: G g! g! vr G v G w i! g G i! ! r G t G On a Donc 01& vr G De même ^101& 4: v G w x4: En écrivant Et donc y d9 d9 t 0 t0 ^10 1 G t^10 ^1& ! v G w G g! x4: On a On en déduit que y y d9 01& ^101& 4: x4: ! y ^ G g! d9 G g! 0 t0 ^10 1 G t^10 y vr G v G w d9 ^ ! 01& ^101& 4: x4: vr G v G w G g! y t0 1 G t^10 d9 ! g! g t0 1 G t^10 % ( t0 1 G t^10 i d9 i! g G i! On reconnaît une loi binomiale de paramètres g et t. On a donc le théorème suivant Donc lim ^ i Théorème On considère une suite ^ de variables telles que ^ # ~, g, t Alors s ^ d Où # Ug, t 3.4) Le théorème Central Limite On sait que si Soit ^ une suite de variables mutuellement indépendantes et de même loi, admettant une espérance j et une variance E Y H , on a h^ j YH h E^ g On a donc Y Yh^ √g On a h^ G j Y 0 √g E h^ G j Y 1 √g Théorème (admis) Soit ^ une suite de variables mutuellement indépendantes et de même loi, admettant une espérance j et une variance E Y H . Soit h^ la suite des moyennes empiriques. Alors hhh^h G j s √g d _, avec _ # Z0,1 Y On écrit souvent Soit en posant hhh^h G j g hhh^h G j gh^ G gj √g Y Y √g Y √g ^ gh^ & o ^ ^ G gj Y √g s d _, avec _ # Z0,1 3.5) Approximation d'une loi binomiale par une loi normale Considérons une suite de variables ^ telles que ^ # Ug, t Pour tout g, on peut écrire ^ sous la forme d'une somme de variables de Bernoulli de paramètres t, indépendantes (et donc de même loi). On a ^ ^ I0 avec I0 # Ut 04& I0 t EI0 t1 G t D'après le théorème central limite appliqué aux variables I0 , on a s ^ G gt d _, avec _ # Z0,1 t1 G t√g On a donc ^ G gt s d _, avec _ # Z0,1 gt1 G t Ou encore ^ G ^ s d _, avec _ # Z0,1 Y^ On a donc Cette propriété permet de trouver des valeurs approchées d'une probabilité. On considère une variable # 1000; 0,3 On cherche " 320. Cette forme est compliquée à déterminer par le calcul direct. On a 300 E 210 On dira que G 300 20 20 " 320 . " / \. / \1,38 0,916 √210 √210 √210 On trouverait de la même façon " 319 0,905 On en déduit que 320 0,011 On a en fait 320 0,0105 …