Variables aléatoires. Lois et moments. I Variables aléatoires Confrontés à une expérience aléatoire, on est souvent amené à préférer observer les résultats non directement mais à travers un effet produit. Par exemple, si l’expérience est constituée par la météo, on peut concevoir la température T comme résultant de l’expérience, au sens où T peut être vu comme l’action de la météo sur le thermomètre. C’est là la notion de variable aléatoire. Soit (Ω, P ) un espace de probabilités. Soit E un ensemble. Définition 1 On appelle variable aléatoire à valeurs dans E une application X : Ω → E. Dans cette définition, E peut être un ensemble quelconque, fini ou infini. Dans le cas où E est une partie de l’ensemble des nombres réels IR, on parle de variable aléatoire réelle. On utilisera systématiquement les abréviations v.a. pour variable aléatoire et v.a.r. pour variable aléatoire réelle. Quand on a une variable aléatoire, on s’intéresse à des événements indiquant que la v.a. prend certaines valeurs. D’où la notation Notation 1 Pour C ⊂ E, on note (X ∈ C) l’événement (X ∈ C) = {ω ∈ Ω, X(ω) ∈ C}. Dans le cas particulier où A = {x}, on écrira (X = x) au lieu de (X ∈ {x}). Un exemple important de variable aléatoire sont les indicatrices : si A ⊂ Ω est un événement, on définit la v.a.r. 1IA par 1 si ω∈A 1IA = 0 sinon On a la définition suivante concernant l’influence réciproque de variables aléatoires. Définition 2 Soient X1 , . . . , Xn n variables aléatoires à valeurs dans E. On dit que X1 , . . . , Xn sont indépendantes si et seulement si pour tous C1 , . . . , Cn inclus dans E, les événements (X1 ∈ C1 ), . . . , (Xn ∈ Cn ) sont indépendants. II Lois A l’aide de la variable aléatoire X, on “transporte” le hasard sur l’espace E en transformant cet ensemble en un espace de probabilités grâce à la définition suivante. Théorème et Définition 1 Soit X une variable aléatoire à valeurs dans E sur un espace de probabilités (Ω, P ). Pour C ⊂ E, on pose µX (C) = P (X ∈ C). µX définit une probabilité sur E appelée la loi de la v.a. X. Cas particulier important : on suppose ici que E est un ensemble fini E = {x1 , . . . , xn }. La loi µX est alors entièrement définie par la donnée des nombres µX ({xi }) = P (X = xi ). On la présente en général sous forme d’un tableau x x1 x2 ... xn Σ P (X = x) P (X = x1 ) P (X = x2 ) . . . P (X = xn ) 1 1 III Moments On suppose jusqu’à la fin de ce chapitre que Ω est un ensemble fini. Cette restriction sera levée progressivement dans la suite du cours. On suppose en outre que X est une variable aléatoire réelle. Définition 3 On appelle espérance de X (ou moment d’ordre 1) la quantité X E(X) = X(ω)P ({ω}) ω∈Ω Propriété 1 Soient X et Y deux variables aléatoires réelles et λ ∈ IR. On a (i) E(X + Y ) = E(X) + E(Y ) (ii) E(λX) = λE(X) (iii) Si X est à valeurs dans IR+ , E(X) ≥ 0 (iv) Si X est une variable aléatoire constante égale à α, E(X) = α. On a Proposition 1 Si X est une v.a.r. à valeurs dans {x1 , . . . , xn }, on a E(X) = n X xi µ({xi }). i=1 Plus généralement, Proposition 2 Si X est une v.a.r. à valeurs dans {x1 , . . . , xn }, et f une fonction de IR dans IR, on a E(f (X)) = n X f (xi )µ({xi }). i=1 Définition 4 Soit X une v.a.r. (i) Soit n ∈ IN . Le moment d’ordre n de X est E(X n ). (ii) On appelle variance de X le réel Var(X) = E((X − E(X))2 ) = E(X 2 ) − E(X)2 Proposition 3 Si X et Y sont deux variables aléatoires indépendantes, (i) E(XY ) = E(X)E(Y ) (ii) Var(X + Y ) = Var(X) + Var(Y ) IV Inégalités Proposition 4 (Inégalité de Markov) Si X est une v.a.r. à valeurs positives, si α > 0, on a P (X > α) ≤ 1 E(X) α Proposition 5 (Inégalité de Bienaymé-Tchebitcheff) Si X est une v.a.r., et si ε > 0, on a P (| X − E(X) |> ε) ≤ 2 1 Var(X). ε2