ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 Chapitre 22 : Variables aléatoires réelles discrètes. 1 Variables aléatoires réelles 1.1 Définitions Définition 1.1.1 Soit (Ω, A) un espace probabilisable et X : Ω → R une application. Alors on dit que X est une variable aléatoires réelle lorsque ∀x ∈ R, [X 6 x] = {ω ∈ Ω, X(ω) 6 x} ∈ A} Remarque. On note comme on l’a déjà fait [X ∈ I] pour {ω ∈ Ω, X(ω) ∈ I}. Proposition 1.1.1 Soit X : (Ω, A) → R une variable aléatoire réelle. Alors pour tout intervalle I (de la forme [a, b], [a, b[, ]a, b], ]a, b[, [a, +∞[, ]a, +∞[, ] − ∞, b], ] − ∞, b[) on a [X ∈ I] ∈ A. Autrement dit toutes les parties du type [X ∈ I] sont des événements. Démonstration : Il suffit de monter que toute partie du type [X ∈ I] peut se décrire à l’aide de [X 6 x]. Par exemple on a déjà vu que [X ∈]a, b]] = [a < X 6 b] = [X 6 b] ∩ [X 6 a] ∈ A... Remarque. En particulier [X = x] = [X 6 x] ∩ [X < x] ∈ A. En général, les énoncés demandent d’admettre qu’une application X est bien une variable aléatoire, mais il faut savoir le vérifier si besoin. Exemple. On lance un dé, et on ne s’intéresse qu’à la parité du résultat. On note X = +1 si le résultat est pair, −1 si il est impair. Alors en choisissant par exemple la tribu A = {∅, {2, 4, 6}, {1, 3, 5}, Ω}, X est une variable aléatoire réelle : exercice ! Par contre si Y est le numéro de la face obtenue, Y n’est pas une variable aléatoire sur (Ω, A) mais l’est sur (Ω, P(Ω)). Remarque. Pour les variables aléatoires finies nous n’avions pas donné de condition car on prenait jusqu’à présent systématiquement A = P(Ω). Remarque. Si X(Ω) est fini, on le note {x1 , . . . , xn } avec x1 < x2 · · · < xn et on a pour tout x ∈ RS l’existence d’un unique k ∈ [[ 1 ; n − 1 ]] tel que x ∈ [xk , xk+1 [. On a alors [X 6 x] = ki=1 [X = xi ]. De nombreux exemples de manipulation d’événements associés à un variable aléatoire ont déjà été vus : Révisions ! J. Gärtner. 1 ECS3 Carnot 1.2 Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 Fonction de répartition et loi Définition 1.2.1 Soit (Ω, A, P ) un espace probabilisé et X une variable aléatoire réelle. L’application R −→ R FX : x 7−→ P (X 6 x) est appelée Fonction de répartition de X. Remarque. On va avoir besoin dans cette section de décrire les évènements [X 6 x] et [X < x] par \ [ 1 1 [X 6 x] = [X 6 x + ] [X < x] = [X 6 x − ] n n ∗ ∗ N N Théorème 1.2.1 La fonction de répartition FX d’une variable aléatoire réelle X est 1. Croissante sur R. 2. ∀x ∈ R, 0 6 FX (x) 6 1 et lim FX (x) = 0, lim FX (x) = 1. x→−∞ x→+∞ 3. FX est continue à droite : ∀x ∈ R, lim FX (t) = FX (x). t→x t>x 4. ∀x ∈ R, lim FX (t) = FX (x) − P (X = x) = P (X < x) t→x t<x 5. FX est continue en x si et seulement si P (X = x) = 0. La preuve de ce théorème est intéressante pour commencer à comprendre comment manipuler les variables aléatoires. Démonstration : 1. Soient x, y ∈ R tels que x 6 y. On a ] − ∞, x] ⊂] − ∞, y] donc (X 6 x) ⊂ (X 6 y) et P (X 6 x) 6 P (X 6 y). C’est donc que FX (x) 6 FX (y) et FX est croissante. 2. FX est croissante et minorée par 0 donc a une limite en −∞. Par caractérisation séquentielle, on a lim FX = lim FX (−n). La suite (X 6 −n) est une suite décrois−∞ sante le théorème de la limite monotone, lim P (X 6 −n) = T T d’évènements. D’après P ( n (X 6 −n)). Mais n (X 6 −n) = ∅. Donc lim P (X 6 −n) = 0. La fonction FX est croissante et majorée par 1. Elle a une limite en +∞, qui est égale à lim FX (n). La suite (X 6 n) est une suite croissante d’évènements. On conclut donc de même par le théorème de la limite monotone. 3. Soit x ∈ R. Puisque FX est croissante, elle admet une limite à droite en x et par 1 caractérisation séquentielle, lim FX = lim FX (x + ). La suite d’évènements (X 6 n x+ 1 x + ) est décroissante, d’intersection X 6 x. On applique alors le théorème de la n 1 limite monotone pour montrer que lim FX (x + ) = FX (x). n 4. Soit x ∈ R. Alors si t < x on a (X 6 t) ⊂ (X < x). Donc F( t) 6 FX (x) − P (X = x). Puisque FX est croissante, elle admet une limite à gauche en x et lim FX = lim FX (x− x− 1 1 ). La suite (X 6 x − ) est croissante et le théorème de la limite monotone donne n n lim P (X 6 x − J. Gärtner. +∞ [ 1 1 ) = P( (X 6 x − )) n n n=1 2 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 1 ) = (X < x). Comme P (X < x) = n P (X 6 x) − P (X = x) on peut conclure pour la fin de ce point, et pour le suivant. Ainsi lim FX = P (X < x) car x− S+∞ n=1 (X 6 x− Définition 1.2.2 Soit (Ω, A, P ) un espace probabilisé et X : Ω → R une variable aléatoire réelle. On appelle loi de X la donnée de toutes les probabilités P (X ∈ A) pour tout A dans la tribu borélienne (engendrée par les intervalles ouverts) de R. Théorème 1.2.2 (La fonction de répartition caractérise la Loi ) Si X et Y sont deux variables aléatoires réelles de même fonction de répartition, alors X et Y ont même loi de probabilité, i.e. X ֒→ Y . Démonstration : Ce résultat est admis. Proposition 1.2.1 Si a < b on a P (a < x 6 b) = FX (b) − FX (a). Démonstration : En effet, (a < X 6 b) = (X 6 B) r (X 6 a) et (X 6 a) ⊂ (X 6 b). 2 Variables aléatoires réelles discrètes 2.1 Définitions Définition 2.1.1 Soit (Ω, A) est un espace probabilisable. On appelle variable aléatoire réelle sur (Ω, A) toute application Ω −→ R X: ω 7−→ X(ω) telle que, pour tout x ∈ R, on ait (X 6 x) ∈ A Lorsque l’image X(Ω) est au plus dénombrable, on dit que la variable aléatoire X est une variable aléatoire réelle discrète. Remarque. Pour vérifier qu’une fonction Ω → {xi , i ∈ I} est une variable aléatoire discrète, il suffit de vérifier que pour tout i, (X = xi ) est un évènement. Toutes les autres caractérisations que l’on a déjà vu restent valables. Remarque. Lorsque X est une variable aléatoire réelle discrète, on a X(Ω) au plus dénombrable. On peut donc numéroter ses éléments, et on note souvent X(Ω) = {xi , i ∈ I} avec xi < xj si i < j et I est une partie (infinie ou non) de N ou de Z. Remarque. On peut être amené dans les exercices à considérer des variables aléatoires discrètes à valeurs dans R 1 . Ce sont des fonctions X : Ω → R, telles que X(Ω) = {xi , i ∈ I} est au plus dénombrable et tel que pour tout i ∈ I, (X = xi ) ∈ A. On ne manipulera de telles variables aléatoires que si elles sont presque-sûrement à valeurs réelles : P (X ∈ R) = 1. 1. Rappelons que cette notation est à la limite du programme J. Gärtner. 3 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 C’est une question de convention, mais il faudra toujours s’assurer que les évènements (X = +∞) et (X = −∞) sont quasi-impossibles. Exemple. On considère une urne composée de boules rouges et de boules blanches. On tire avec remise une boule jusqu’à l’obtention d’une boule rouge. Soit X l’application de Ω dans N ∪ {+∞} qui donne le nombre de tirages effectués, avec la convention X = +∞ si on ne tire jamais de boule rouge. On a vu en exercice que P (X = +∞) = 0 donc que X est presque-sûrement à valeurs réelles. En général, on n’a pas trop besoin de cette notation [X = +∞], il suffit de donner une valeur arbitraire, par exemple X = −1 si on ne tire jamais de boule rouge. Peu importe la valeur précise puisque c’est un événement négligeable ! Exemple. On effectue une succession de lancers d’un dé équilibré jusqu’à ce qu’on obtienne 6. Soit X le nombre de lancers effectués. A priori X est à valeurs dans N ∪ {+∞} mais vu qu’on effectue presque-sûrement un nombre fini de lancers P (X = +∞) = 0 et on peut considérer que X(Ω) = N∗ . 2.2 Tribu engendrée par X Proposition 2.2.1 Soit (Ω, A) un espace probabilisable. Pour toute variable aléatoire réelle discrète X sur (Ω, A), l’ensemble {(X = x), x ∈ X(Ω)} est un système complet d’évènements. On l’appelle le système complet d’évènements associés à X. Démonstration : On sait que (X = x) ∈ A par définition d’une variable aléatoire réelle. Si x 6= y ∈ X(Ω), il est clair que (X = S x) ∩ (X = y) = ∅ : les évènements (X = x) et (X = y) sont incompatibles. De plus x∈X(Ω) (X = x) = (X ∈ X(Ω)) = Ω. Ce qui montre le résultat attendu. Définition 2.2.1 Soit (Ω, A) un espace probabilisable. Pour toute variable aléatoire réelle discrète X sur (Ω, A), on appelle tribu engendrée par X, et on note AX la tribu engendrée par le système complet d’évènements associé à X. Remarque. Autrement dit AX est l’unique tribu incluse dans A telle que X soit une variable aléatoire réelle discrète sur (Ω, AX ) et pour toute sous tribu A′ de A telle que X est une variable aléatoire sur (Ω, A′ ) contient AX . Remarque. On a vu au chapitre précédent que la notion de tribu était liée à celle d’information. Les événements de la tribu AX sont exactement ceux que l’on peut connaître par X. La donnée de X ne peut pas donner d’information sur la réalisation d’événements qui ne sont pas dans AX . Proposition 2.2.2 La tribu engendrée par X est aussi AX = {(X ∈ A), A ⊂ X(Ω)} J. Gärtner. 4 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 Démonstration : S En effet si (Ei ) est un système complet d’évènements, la tribu engendrée par les Ei est { k∈K Ek , K ⊂ I}. Exemple. Une urne contient une infinité de boules numérotées. On tire simultanément deux boules de l’urne. L’univers Ω = {(i, j), 1 6 i < j} est muni de la tribu discrète. Soit X la variable aléatoire réelle discrète égale à la somme des numéros tirés. On a X(Ω) = {3, . . . , n, . . . , } et (X = k)k>3 est un système complet d’évènements. La tribu engendrée par X est alors {(X ∈ I, I ⊂ {3, . . . , n, . . . , }}. Proposition 2.2.3 Si X est une variable aléatoire réelle discrète sur (Ω, A), alors pour toute fonction g : X(Ω) → R on a Ag(X) ⊂ AX Démonstration : En effet, il suffit de monter que g(X) est une variable aléatoire sur (Ω, AX ) et d’utiliser la remarque qui suit la définition de tribu engendrée par une variable aléatoire. On sait que g(X) est une variable aléatoire sur (Ω, A) réelle discrète. Notons g(X)(Ω) = S {yi , i ∈ I} où I est une partie de N. On a (g(X) = yi ) = x∈g−1 (yi ) (X = x). Par définition tous les (X = x) sont des évènements de AX . En utilisant la stabilité par réunion dénombrable, on a (g(X) = yi ) ∈ AX , ce qui permet de conclure. Exemple. Revenons un moment sur la notion d’information de la tribu. On joue à Pile ou Face. On touche 1 euro si on tombe sur Pile et on perd un euro sur Face. Soit X le gain algébrique et Y = X 2 . Alors AX = {∅, [X = 1], [X = −1], Ω} autrement dit la connaissance de X nous permet (suivant que [X = 1] est réalisé ou non) de connaître le résultat du lancer. La connaissance de Y par contre ne nous donne rien d’interessant et pour cause Y est la variable aléatoire certaine égale à 1, on a donc AY = {∅, Ω} ce qui n’est pas une information très intéressante... 2.3 Lois de probabilité d’une variable aléatoire Soit (Ω, A, P ) un espace probabilisé et X une variables aléatoire réelle discrète sur (Ω, A). On a construit une algèbre a priori plus petite AX associée à X. La restriction de P à AX est une probabilité. Celle-ci est entièrement déterminée par la donnée des P (X = x), x ∈ X(Ω). En effet, l’ensemble {(X = x), x ∈ X(Ω)} est un système complet d’évènements qui engendre AX et une probabilité est entièrement définie si elle est donnée sur un système complet d’évènements par additivité dénombrable. Définition 2.3.1 Soit (Ω, A, P ) un espace probabilisé et X une variables aléatoire réelle discrète sur (Ω, A). La donnée de la loi de probabilité est équivalente à la donnée de l’ensemble X(Ω) et de {P (X = x), x ∈ X(Ω)} Théorème 2.3.1 Si X est une variable aléatoire réelle discrète et g : X(Ω) → R. La loi de Y = g(X) est donnée par X P (Y = y) = P (X = x) x∈g −1 ({y}) J. Gärtner. 5 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes Autrement dit X PY (y) = 2013/2014 PX (x) x∈g −1 (y) Remarque. On a déjà beaucoup manipulé ces notions, rien n’a changé : révisions ! 2.4 Fonction de répartition On reprend et on complète la première section. Définition 2.4.1 Soit (Ω, A, P ) un espace probabilisé et X une variable aléatoire réelle discrète. L’application R −→ R FX : x 7−→ P (X 6 x) est appelée Fonction de répartition de X. Remarque. On va avoir besoin dans cette section de décrire les évènements (X 6 x) et (X < x) par (X 6 x) = \ N∗ (X 6 x + 1 ) n (X < x) = [ N∗ (X 6 x − 1 ) n Théorème 2.4.1 La fonction de répartition FX d’une variable aléatoire réelle X est 1. Croissante sur R. 2. ∀x ∈ R, 0 6 FX (x) 6 1 et lim FX (x) = 0, lim FX (x) = 1. x→−∞ x→+∞ 3. FX est continue à droite : ∀x ∈ R, lim FX (t) = FX (x). t→x t>x 4. ∀x ∈ R, lim FX (t) = FX (x) − P (X = x) = P (X < x) t→x t<x 5. FX est continue en x si et seulement si P (X = x) = 0, i.e. x ∈ / X(Ω). La preuve de ce théorème est intéressante pour commencer à comprendre comment manipuler les variables aléatoires. Démonstration : 1. Soient x, y ∈ R tels que x 6 y. On a ] − ∞, x] ⊂] − ∞, y] donc (X 6 x) ⊂ (X 6 y) et P (X 6 x) 6 P (X 6 y). C’est donc que FX (x) 6 FX (y) et FX est croissante. 2. FX est croissante et minorée par 0 donc a une limite en −∞. Par caractérisation séquentielle, on a lim FX = lim FX (−n). La suite (X 6 −n) est une suite décrois−∞ sante le théorème de la limite monotone, lim P (X 6 −n) = T T d’évènements. D’après P ( n (X 6 −n)). Mais n (X 6 −n) = ∅. Donc lim P (X 6 −n) = 0. La fonction FX est croissante et majorée par 1. Elle a une limite en +∞, qui est égale à lim FX (n). La suite (X 6 n) est une suite croissante d’évènements. On conclut donc de même par le théorème de la limite monotone. R. Puisque FX est croissante, elle admet une limite à droite en x et par 1 caractérisation séquentielle, lim FX = lim FX (x + ). La suite d’évènements (X 6 n x+ 3. Soit x ∈ J. Gärtner. 6 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 1 ) est décroissante, d’intersection X 6 x. On applique alors le théorème de la n 1 limite monotone pour montrer que lim FX (x + ) = FX (x). n 4. Soit x ∈ R. Alors si t < x on a (X 6 t) ⊂ (X < x). Donc F( t) 6 FX (x) − P (X = x). Puisque FX est croissante, elle admet une limite à gauche en x et lim FX = lim FX (x− − x+ x 1 1 ). La suite (X 6 x − ) est croissante et le théorème de la limite monotone donne n n lim P (X 6 x − +∞ [ 1 1 ) = P( (X 6 x − )) n n n=1 1 ) = (X < x). Comme P (X < x) = x− n P (X 6 x) − P (X = x) on peut conclure pour la fin de ce point, et pour le suivant. Ainsi lim FX = P (X < x) car S+∞ n=1 (X 6 x− Théorème 2.4.2 (La fonction de répartition caractérise la Loi ) Si X et Y sont deux variables aléatoires réelles discrètes de même fonction de répartition, alors X et Y ont même loi de probabilité, i.e. X ֒→ Y . Démonstration : En effet la loi de X est la donnée pour tout x ∈ X(Ω) de P (X = x). Soit x ∈ R quelconque. D’après le théorème précédent, P (X = x) = FX (x) − lim FX (t). t→x t<x Mais FX = FY donc P (X = x) = FY (x) − lim FY (t) = P (Y = x). Ceci montre que t→x t<x X(Ω) = Y (Ω) et que X et Y ont même loi. Proposition 2.4.1 Si X est une variable aléatoire réelle discrète, avec X(Ω) = {xi , i ∈ I}, alors X P (X = xi ) ∀x ∈ R, FX (x) = xi 6x i∈I Démonstration : En effet, (X 6 x) = S xi 6x (X i∈I = xi ). On a une union d’évènements deux à deux incompatibles, on conclut par σ-additivité. Proposition 2.4.2 Si a < b on a P (a < x 6 b) = FX (b) − FX (a). Démonstration : En effet, (a < X 6 b) = (X 6 B) r (X 6 a) et (X 6 a) ⊂ (X 6 b). Proposition 2.4.3 Soit X une variable aléatoire réelle discrète sur (Ω, A, P ). On ordonne X(Ω) de manière croissante : X(Ω) = {xi , i ∈ I} avec xi < xj si i < j. Pour tout i ∈ I, FX est constante sur [xi , xi+1 [. Démonstration : Si y ∈ [xi , xi+1 [ alors P (X 6 y) = P (X 6 xi ) + P (xi < X 6 Y ). Mais ]xi , xi+1 [∩X(Ω) = ∅ donc P (xi < X 6 y) = 0 et FX (xi ) = FX (y). Exercice. Un sauteur tente de franchir des barres successives numérotées. Il n’essaye de franchir la barre de hauteur k qui si il a réussi à passer celle de hauteur k −1. La probabilité J. Gärtner. 7 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 1 de sauter la nième barre sachant qu’il a sauté les n − 1premières est . Soit X la variable n aléatoire égale au numéro de la dernière barre franchie correctement. Déterminer la loi de X. On prendra garde à vérifier que X est presque-sûrement finie. 3 Moments d’une variable aléatoire réelle finie 3.1 Espérance Définition 3.1.1 Soit X une variable aléatoire réelle discrète sur (Ω, A,P P ) et telle que X(Ω) = {xi , i ∈ I} (on a donc I au plus dénombrable). Si la série xi P (X = xi ) est absolument convergente, on dit que X admet une espérance mathématique. Dans ce cas, l’espérance (mathématique) de X est le réel X E(X) = xi P (X = xi ) i∈I Remarque. On n’a pas précisé d’ordre dans les xi . En effet si X admet une espérance, la convergence est absolue et on a vu que l’ordre des termes dans la sommation ne changeait pas la valeur de la somme. Ce qui est FAUX si la série n’est que semiconvergente. Remarque. Si X(Ω) = N, X admet une espérance si et seulement si la série de terme général nP (X = n) converge. Dans ce cas E(X) = +∞ X nP (X = n) n=0 Si P X(Ω) = Z, X admet une espérance si et seulement si les séries nP (X = −n) convergent. Dans ce cas on peut noter E(X) = +∞ X nP (X = n) = n=−∞ +∞ X nP (X = n) − +∞ X P nP (X = n) et nP (X = −n) n=1 n=0 Définition alternative : Définition 3.1.2 Soit X une variable aléatoire réelle discrète non finie sur (Ω, A, P ) et telle que X(Ω) = P {xi , i ∈ N}. Si la série xi P (X = xi ) est absolument convergente, on dit que X admet une espérance mathématique. Dans ce cas, l’espérance (mathématique) de X est le réel E(X) = +∞ X xn P (X = xn ) = n=0 X xP (X = x) x∈X(Ω) la deuxième égalité découlant de l’absolue convergence. Exemple. On reprend l’exemple du dé du début du chapitre. Montrer que X a une espérance, la déterminer. J. Gärtner. 8 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 Exemple. Une urne contient un nombre infini de boules numérotées par Z. La boule 1 numéro i est tirée avec probabilité . Soit X la variable aléatoire égale au numéro de 2 × 3|i| 1 . la boule tirée. On a X(Ω) = Z et la loi de X est donnée par P (X = k) = 2 × 3|k| k La série de terme général converge, donc X admet une espérance et E(X) = 2 × 3k P P k k + +∞ = 0. − +∞ k=1 k=1 k 2×3 2 × 3k 1 Considérons la variable Y = X 2 . Alors Y (Ω) = {k2 , k ∈ N}. P (Y = 0) = et 2 n2 1 P (Y = n2 ) = P (X = n) + P (X = −n) = n . La série de terme général positif n 3 3 P+∞ n2 P n(n − 1) + n) converge donc Y admet une espérance et E(Y ) = n=1 n = . On peut 3 3n P n(n − 1)) P n) 1 P n(n − 1) décomposer car les séries et convergent. On a E(Y ) = + n n 3 3 9 3n−2 2 1 1 1 1P n + 1.(1 − )2 car on reconnaît une série géométrique dérivée. = n−1 1 3 3 9 3 3 (1 − )3 3 Exemple. Il existe des variables aléatoires discrètes qui n’ont pas d’espérance. Par exemple 1 la variable d’univers image N∗ et de loi PX (n) = . n(n + 1) Proposition 3.1.1 (Positivité) Soit X une variable aléatoire discrète positive (i.e. X(Ω) ⊂ R+ ) admettant une espérance. Alors E(X) > 0 et si E(X) = 0, X est presque-sûrement nulle (i.e. P (X = 0) = 1). Démonstration : Par définition E(X) = P xP (X = x). C’est une somme de termes x∈X(Ω) positifs par hypothèse. Si cette somme est nulle, pour tout x ∈ X(Ω), xP (X = x) = 0 puisque c’est une somme de termes positifs. Si x 6= 0, alors P (X = x) = 0 d’où le résultat. Proposition 3.1.2 (Linéarité de l’espérance) Soient a, b ∈ R et X une variable aléatoire réelle discrète admettant une espérance. Alors aX + b admet une espérance et E(aX + b) = aE(X) + b. Démonstration : Posons Y = aX + b. Si a = 0, Y est la variable aléatoire certaine b qui est bien d’espérance b. Sinon, on a vu que Y (Ω) = {ax + b, x ∈ X(Ω)} et que P (Y = ax + b) = P (X = x). Donc la série de terme général (ax+b)P (Y = ax+b) = axP (X = x)+bP (X = x) est absolument convergente et X (ax + b)P (X = x) = aE(X) + b E(Y ) = x∈X(Ω) Définition 3.1.3 Soit X une variable aléatoire réelle discrète admettant une espérance. Si E(X) = 0 on dit que X est centrée. Dans le cas où X n’est pas d’espérance nulle, on peut considérer la variable aléatoire centrée associée à X ; c’est X − E(X). Démonstration : En effet, E(X −E(X)) = E(X)−E(X) = 0 d’après la proposition ci-dessus. J. Gärtner. 9 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 Proposition 3.1.3 (Linéarité de l’espérance) Soit X, Y deux variables aléatoires réelles discrètes définies sur un même espace probabilisé et admettant une espérance. Alors si a, b ∈ R, aX + bY a une espérance et E(aX + bY ) = aE(X) + bE(Y ) Démonstration : Admis Proposition 3.1.4 (Croissance) Si X et Y sont deux variables aléatoires discrètes définie sur un même espace probabilisé et admettant une espérance telles que ∀ω ∈ Ω, X(ω) 6 Y (ω), alors E(X) 6 E(Y ). Démonstration : Exercice. Exercice. Soit X une variable aléatoire réelle discrète telle que X(Ω) = N. Montrer que X admet une espérance si et seulement si la série de terme général P (X > n) est convergente P et que dans ce cas E(X) = +∞ P (X > n). n=1 Théorème 3.1.1 (Théorème de transfert ) Soit X une variable aléatoire réelle discrète. Soit g une application de X(Ω) dans R. P Alors g(X) a une espérance si et seulement si la série g(x)P (X = x) est x∈X(Ω) absolument convergente et dans ce cas X E(g(X)) = g(x)P (X = x) x∈X(Ω) Démonstration : Ce théorème est admis. Exemple. Soit X une variable aléatoire telle que X(Ω) = Z et P (X Posons Y = 2X . Alors puisque les séries de terme généraux positifs convergent, la variable Y a une espérance et E(Y ) = +∞ X k=1 1 . 2 × 3|k| 2−k et 2 × 3k = k) = 2k 2 × 3k +∞ X1 2 1 8 ( )k = + k 2×6 2 3 5 n=0 Par contre Z = 4X n’a pas d’espérance. Il faut absolument comprendre l’exemple ci-dessus pour ne pas se tromper dans le théorème de transfert. En particulier il ne faut pas croire que n’importe quel transfert admet une espérance ! 3.2 Moment d’ordre r Définition 3.2.1 Soit r ∈ N. On dit qu’une variable aléatoire réelle discrète admetP un moment d’ordre r lorsque X r admet une espérance. Ce qui revient à dire que xr P (X = x) est J. Gärtner. 10 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes absolument convergente. On note mr (X) = de X. r x∈X(Ω) x P (X P 2013/2014 = x) le moment d’ordre r Remarque. Le moment d’ordre 0 est 1, le moment d’ordre 1 est E(X) si il existe. Une variable finie a des moments de tout ordre. Proposition 3.2.1 Pour tout r ∈ N, une variable aléatoire discrète X admet un moment d’ordre r si et seulement si il admet un moment d’ordre k pour tout k 6 r. Démonstration : Supposons que X ait un moment d’ordre r. Soit X(Ω) = {xi , i ∈ I}. Alors k k r k r soit |xi | 6 1 donc |xi | 6 1, soit |xi | > 1 et |xi | 6 |xi | . On a donc |xi | 6 1 + |xi | dans k r tous les cas. Ainsi |xi | P (X = xi ) 6 (1 + |xi | )P (X = xi ) qui est le terme général d’une série convergente. Donc X a un moment d’ordre k 6 r. La réciproque est claire. La proposition suivante est maintenant à la limite du programme. Proposition 3.2.2 Si X admet un moment d’ordre r, Y = X − E(X) admet un moment d’ordre r et µr (X) = E((X − E(X))r ) est appelé moment centré d’ordre r. Démonstration que X a un moment d’ordre k pour tout k 6 r. Comme Y r = k : On sait Pr r r−k , Y a un moment d’ordre r par linéarité. k=0 k X (E(X)) Exercice. Soit X une variable aléatoire réelle discrète admettant un moment d’ordre r. Montrer que E(|X|r ) ∀α > 0, P (|X| > α) 6 αr 3.3 Variance Définition 3.3.1 Soit X une variable aléatoire réelle discrète admettant un moment d’ordre 2. La variance de X est le nombre réel V (X) = E((X − E(X))2 ) D’après le théorème de transfert, on a, en notant µ = E(X) X V (X) = (x − µ)2 P (X = x) x∈X(Ω) Remarque. D’après la proposition ci-dessus, si X a un moment d’ordre 2, X − E(X) aussi. Proposition 3.3.1 (Formule de Kœnig-Huygens) Soit X une variable aléatoire réelle discrète admettant un moment d’ordre 2. Alors V (X) = E(X 2 ) − (E(X))2 J. Gärtner. 11 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 Démonstration : En effet en utilisant la linéarité de l’espérance V (X) = E((X − E(X))2 ) = E(X 2 − 2XE(X) + (E(X)2 )) = E(X 2 ) − 2E(X)E(X) + E(X)2 = E(X 2 ) − (E(X))2 . Exemple. On reprend l’exemple du dé du début du chapitre. Montrer que X a une variance, la déterminer. Exemple. Soit X une variable aléatoire telle que X(Ω) = Z, P (X = k) = 1 . La 2 × 3|k| k2 converge donc X a un moment d’ordre 2. On a vu que 2 × 3|k| E(X) = 0 donc V (X) = E(X 2 ). De plus à l’aide des séries géométriques dérivées : série de terme général V (X) = 2 +∞ X k=1 +∞ +∞ k=1 k=1 1 X k(k − 1) 1 X k 3 k = + = k k−2 k−1 2×3 9 3 3 3 2 Exemple. Si X est une variable aléatoire d’univers image N∗ et telle que P (X = k) = c alors X a une espérance mais pas de variance. k(k + 1)(k + 2) Proposition 3.3.2 Soit X une variable aléatoire réelle discrète admettant une variance et a, b ∈ R. Alors 1. V (X) > 0. 2. V (X) = 0 ⇔ X = E(X) presque sûrement, i.e. X est une variable aléatoire certaine. 3. aX + b a une variance et V (aX + b) = a2 V (X) Démonstration : 1. En effet (X − E(X))2 > 0 donc E(X − E(X))2 ) > 0. 2. Si X est une v.a. certaine, alors X = E(X) presque sûrement et P (X−E(X) = 0) = 1. La variable (X − E(X))2 est nulle presque sûrement et son espérance est nulle. Réciproquement si V (X) = 0 alors la v.a. positive (X − E(X))2 est d’espérance nulle, donc nulle presque sûrement. P (X = E(X)) = 1. 3. On a (aX + b − E(aX + b))2 = (aX + b − aE(X) − b)2 = (aX − aE(X))2 = a2 (X − E(X))2 . Le résultat suit par linéarité de l’espérance. Définition 3.3.2 Soit X une variable aléatoire réelle discrète admettant une variance. On appelle écarttype de X le réel p σ(X) = V (X) Si E(X) = 0 et σ(X) = 1 on dit que X est centrée réduite. Proposition 3.3.3 Pour toute variable aléatoire réelle discrète X admettant une variance, la variable aléatoire réelle discrète X − E(X) X∗ = σ(X) est centrée réduite. On l’appelle variable aléatoire centrée réduite associée à X. Démonstration : On a E(X ∗ ) = 0 par linéarité et V (X ∗ ) = J. Gärtner. 12 1 V (X) = 1. σ(X)2 ECS3 Carnot 4 Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 Lois discrètes classiques 4.1 Révisions sur les lois finies Les lois finies classiques (uniforme, Bernoulli, Binomiale) se généralisent sur un espace probabilisé quelconque (Ω, A, P ) (on ne les a traité que dans le cas de Ω fini et A = P(Ω)). Il n’y a aucun obstacle : révision. 4.2 Loi géométrique On considère une répétition indépendante d’épreuves de Bernoulli de paramètre p de réussite. Soit X la variable aléatoire égale au nombre d’épreuves nécessaires pour obtenir un succès (on ne précise pas le modèle en vigueur, ce qui serait trop compliqué). On pose, ∗ si il y a une infinité d’échecs X = 0. Alors Q X(Ω) = N et si k ∈ N on a par indépendance P (X = k) = P (S1 ∩ · · · ∩ Sk−1 ∩ Sk ) = P (Sk )P (Sn ), où Sn est l’évènement « succès au temps n ». P (X = k) = p(1 − p)k−1 La variable X représente en quelque sorte le « temps d’attente » du succès. On a nécessairement P (X = 0) = 0. En effet, (X = 0) = (X > 0) et comme P (X > P p n−1 = = 1, on a P (X = 0) = 1 − 1 = 0. 0) = +∞ n=1 p(1 − p) 1 − (1 − p) Définition 4.2.1 Soit p ∈]0, 1[ et X une aléatoire réelle discrète telle que X(Ω) = N, P (X = 0) = 0 et ∀k ∈ N∗ , P (X = k) = p(1 − p)k−1 On dit que X suit la loi géométrique de paramètre p. On note X ֒→ G(p). Remarque. On peut parfois décider que X(Ω) = N∗ . On a alors une notion de loi géométrique sur N∗ . Dans ce cas, une infinité d’échecs est représenté par l’évènement presqueimpossible (X = +∞). Remarque. On reconnaît une loi géométrique lorsque l’on cherche le temps d’attente du premier succès dans une répétition d’épreuves de Bernoulli sans mémoire (indépendantes), et uniquement dans ce cas... Exemple. Une urne contient a boules blanches et b boules noires. On tire des boules avec remise jusqu’à obtenir une boule blanche. La variable aléatoire X égale au nombre de tirage a effectué suit une loi géométrique de paramètre . a+b La fonction de répartition d’une variable aléatoire suivant une loi géométrique de paramètre p est la fonction 0 si x < 1 x 7→ 1 − (1 − p)k si k 6 x < k + 1, k ∈ N∗ Proposition 4.2.1 Toute variable aléatoire qui suit une loi géométrique de paramètre p admet une espérance et une variance. On a 1−p 1 et V (X) = E(X) = p p2 J. Gärtner. 13 ECS3 Carnot Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 Démonstration : La série de terme général kp(1 − p)k−1 est une série géométrique dérivée donc convergente. X admet une espérance et E(X) = p +∞ X k(1 − p)k−1 = p k=1 1 1 = 2 (1 − (1 − p)) p Pour la variance, on remarque que k 2 P (X = k) = p(1 − p)k(k − 1)(1 − p)k−2 + pk(1 − p)k−1 La série de terme général k 2 P (X = k) est donc convergente (on reconnait des séries géométriques dérivées) : X admet un moment d’ordre 2 et E(X 2 ) = p(1 − p) 2 1 2−p + = (1 − (1 − p))3 p p2 Et on conclut par la formule de Kœnig-Huygens. Remarque. On dit parfois que la loi géométrique est sans mémoire. Ceci traduit le fait que l’on a la propriété suivante, si X suit la loi géométrique de paramètre p ∀k, l ∈ N∗ , P(X>l) (X > k + l) = P (X > k) Autrement dit la probabilité que le succès ait lieu après k tentatives est la même que la probabilité qu’il ait lieu après k + l tentatives, sachant qu’il n’a pas eu lieu lors des k premières. On montre cette propriété en remarquant que P (X > k) = (1 − p)k , et P(X>l) (X > (1 − p)k+l P (X > k + l, X > l) = = (1 − p)k . k + l) = P (X > l) (1 − p)l Exercice. Une urne contient n boules indiscernables dont b blanches et n − b rouges. On effectue des tirages successifs d’une boule avec remise jusqu’à l’obtention éventuelle de r boules blanches. On note Xr la variable aléatoire réelle égale au nombre de tirages effectués (on admet la valeur +∞) et Zr la variable aléatoire réelle donnant le nombre de boules rouges tirées à la fin du jeu. L’évènement (Zr = +∞) correspond à un tirage infini de boules exclusivement rouges. b 1. Déterminer la loi de Xr (cette loi est la Loi de Pascal de paramètres (r, )). En n déduire que +∞ X k − 1 k−r 1 ∀q ∈ [0, 1[, ∀r ∈ N∗ , q = (1 − q)r r−1 k=r 2. Montrer que Xr admet une espérance et une variance. Les calculer. 3. Donner une relation entre Xr et Zr . (la loi de Zr est la loi binomiale négative de b paramètres (r, )). n 4. En déduire la loi de Zr . Montrer que Zr a une espérance et une variance que l’on déterminera. Remarque : on aurait pu décider que les tirages infinis de boules rouges étaient représentés par les évènements (Xr = 0) et (Zr = 0). J. Gärtner. 14 ECS3 Carnot 4.3 Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 Loi de Poisson Nous ne donnerons pas de modèle pour cette loi, que l’on appelle aussi loi des évènements rares. (C’est une loi qui permet de modéliser le nombre d’arrivées dans une file d’attente en un temps donné, lorsque ce nombre ne dépend pas de l’histoire de cette file). Définition 4.3.1 Soit λ > 0 et X une variable aléatoire réelle discrète telle que X(Ω) = N et ∀k ∈ N, P (X = k) = λk −λ e k! Dans ce cas on dit que X suit une loi de Poisson de paramètre λ. On note X ֒→ P(λ). Exercice. Vérifier que la loi de Poisson est bien une loi de probabilités. La fonction de répartition d’une variable de Poisson est 0 si x < 0 i x 7→ Pk λ −λ e sik 6 x < k + 1, k ∈ N i=0 i! Proposition 4.3.1 Une variable aléatoire qui suit une loi de Poisson de paramètre λ admet un espérance et une variance. On a E(X) = V (X) = λ. Démonstration : La série de terme général kP (X = k) = λe−λ λk−1 est une série expo(k − 1)! nentielle qui converge. Donc X a une espérance et E(X) = λe−λ +∞ X λk−1 =λ (k − 1)! k=1 Pour k > 2, on a k 2 P (X = k) = λ2 e−λ λk−1 λk−2 + λe−λ (k − 2)! (k − 1)! qui est le terme général d’une série convergente. Donc X a un moment d’ordre 2 et E(X 2 ) = λ2 + λ. On conclut que V (X) = λ. J. Gärtner. 15 ECS3 Carnot 5 Chapitre 22 — Variables aléatoires réelles discrètes 2013/2014 Représentations graphiques des lois classiques Voici une représentation graphique des lois classiques (bâtons qui représentent P (X = k) pour des simulations de loi, croix qui représentent les valeurs théoriques, ainsi que des simulations de fonctions de répartition). J. Gärtner. 16