Séance 2 1 Variables aléatoires réelles 1.1 Loi de probabilité d’une v.a.r Le paradoxe de Bertrand (1888) Soit C un cercle de rayon 1. √Quelle est la probabilité qu’une corde du cercle, choisie au hasard, possède une longueur supérieure à 3? Que vaut la probabilité ? 1 1 ou 3 4 √ Le côté d’un triangle équilatéral inscrit dans ce cercle a pour longueur 3. C’est un exemple de problème mal-posé : la distribution du milieu de la corde est différente dans chacun des cas. Certes on choisit au hasard, mais suivant quelle loi ? −•− 1.1.1 Définition d’une v.a.r Soit (Ω, E, P) un espace probabilisé, une variable aléatoire réelle est une application : X: � Ω ω → � → R X(ω) ayant la propriété suivante : l’image réciproque de tout intervalle de type ]a, b] est un élément de la tribu E. ∀a < b, X −1 (]a, b]) ∈ E Remarque : notons qu’une variable aléatoire n’a finalement rien d’aléatoire : c’est une application parfaitement déterminée ! C’est un abus de langage, ce qui est aléatoire c’est X(ω) et non X. −•− 1.1.2 Loi de probabilité Soit (Ω, E, P) un espace probabilisé et X une variable aléatoire réelle. On appelle loi de probabilité de X la probabilité, notée PX , image de P par X : � � PX (]a, b]) = P X −1 (]a, b]) Remarque : on utilisera les notations suivantes : P(X ∈ A) := P({ω ∈ Ω | X(ω) ∈ A}) P(X = k) := P({ω ∈ Ω | X(ω) = k}) −•− 1 1.2 Fonction de répartition Soit (Ω, E, P) un espace probabilisé et X une variable aléatoire réelle. La fonction de répartition de X est la donnée de : FX : Quelques propriétés : � R y [0, 1] PX (] − ∞, y]) → � → – la fonction est croissante et continue à droite. – lim F = 1 et lim F = 0. +∞ −∞ – pour tout a < b PX (]a, b]) = FX (b) − FX (a) – Une fonction de répartition caractérise la loi. −•− 1.3 Définition d’une variable aléatoire discrète Rappelons que X(Ω) := {X(ω) | ω ∈ Ω} Définition 1. On dit qu’une variable aléatoire est discrète lorsque X(Ω) est fini ou dénombrable. Remarques et exemple – Si Ω est fini ou dénombrable, X est une v.a discrète. – Pour connaitre la loi, il suffit de la connaître sur les singletons {x} car P(X ∈ I) = – La Loi de Bernoulli P(X = 1) = p et – Loi uniforme discrète � P(X = x) x∈I P(X = 0) = 1 − p = q P(X = k) = 1 n −•− 1.4 Définition d’une variable aléatoire continue Définition 2. – Une densité de probabilité est une fonction positive d’intégrale 1. – Soit X une v.a.r et fX une densité de probabilité sur R. On dit que X est v.a continue de densité fX si pour tout intervalle [a, b] de R on a : � P(X ∈ [a, b]) = b fX (t) dt a La fonction de répartition d’une variable aléatoire continue est la primitive de la densité dont la limite en −∞ est nulle. FX (t) = P(X � t) = � t fX (u) du −∞ C’est une fonction continue sur R. En tout point t où fX est continue, FX est dérivable et d FX (t) = fX (t) dt Remarque. La formule précédente est encore vraie pour les variables aléatoires discrètes à la condition toutefois de considérer la dérivée au sens des distributions. Par exemple, pour la Loi de Bernoulli FX (t) = q H(t) + p H(t − 1) où H désigne la fonction de Heaviside. 2 ⇒ [FX ]� = q δ0 + p δ1 Interprétation graphique : −•− Exemples de v.a continues : – Loi uniforme continue fX = – Loi normale centrée réduite N (0, 1) : 1 1[a,b] b−a 1 2 fX (t) = √ e−t /2 2π −•− 1.5 Quantiles Définition 3. On appelle p-quantiles pour p ∈ N∗ , les valeurs xk,p pour lesquelles F (xk,p ) = k , p k ∈ [[1, p[[ Remarques : – Pour p = 2, on parle de médiane ; – Les 3-quantiles sont appelés terciles ; – Les 10-quantiles sont appelés déciles... – Il n’y a pas unicité de xk,p . Pour avoir unicité, on peut poser : xk,p = g � � k p où g est l’inverse généralisé de la fonction de répartition FX : g(u) := inf{x ∈ R | FX (x) � u} −•− 1.6 V.a de loi ϕ(X) Supposons connue la loi de X (de densité fX ), on veut déterminer la loi de Y = ϕ(X). – Cas où ϕ est strictement croissante dérivable. FY (y) = P[Y � y] = P[ϕ(X) � y] = P[X � ϕ−1 (y)] = FX (ϕ−1 (y)) La densité correspondante est : fY (y) = d 1 FY (y) = � −1 fX (ϕ−1 (y)) dy ϕ (ϕ (y)) 3 – Dans le cas général, il faut étudier les ensembles ϕ−1 (] − ∞, y])... −•− Exemples : Supposons que X ∼ N (0, 1) – ϕ une fonction affine ϕ(t) = σt + µ. Y ∼ N (µ, σ) ⇒ 2 – ϕ la fonction carrée ϕ(t) = t . 1 1 1 fY (y) = √ √ e− 2 y 1R+∗ (y) y 2π ⇒ est la loi du chi-deux à 1 degré de liberté X 2 (1). −•− 1.7 Indépendance de variable aléatoire Définition 4. X et Y sont indépendantes si pour tout couple (I, J) d’intervalles de R, on a : P ( (X ∈ I) ∩ (Y ∈ J) ) = P(X ∈ I) × P(Y ∈ J) Exercice : Donner un exemple et un contre-exemple dans le cas d’un lancer d’une paire de dés. −•− 1.8 1.8.1 Espérance, moments Définition et propriétés de l’espérance Soit X une variable aléatoire réelle, l’espérance mathématique de X est (si elle existe) définie par : – si X est une v.a.r discrète finie ou dénombrable � E(X) = x P(X = x) x∈X(Ω) – si X est une v.a.r à densité fX : E(X) = � t fX (t) dt R −•− Soient X1 et X2 deux v.a.r et λ ∈ R, alors – (Linéarité) E(X1 + λX2 ) = E(X1 ) + λE(X2 ) – (Positivité) |E(X)| � E(|X|) – Si X1 et X2 sont indépendantes : E(X1 × X2 ) = E(X1 ) × E(X2 ) – Pour tout A ∈ E : – Pour une fonction h : R �→ R P(X ∈ A) = PX (A) = E(1A (X)) E(h(X)) = C’est la formule de transfert. � h(x) P(X = x) en discret x∈X(Ω) � R h(t)fX (t) dt −•− 4 en continu 1.8.2 Définition et propriétés des moments Soit X une variable aléatoire réelle, – le moment d’ordre s de X est (s’il existe) défini par ms (X) := E(X s ) – si X est une v.a.r discrète finie ou dénombrable � ms (X) = xs P(X = x) x∈X(Ω) – si X est une v.a.r à densité f : � ms (X) := ts f (t) dt R – La variance est donnée par : � � Var(X) = E (X − E(X))2 � 0 – L’écart type est donné par : σX = � Var(X) −•− Soient X1 et X2 deux v.a.r et a ∈ R, alors – Var(aX + b) = a2 Var(X) – Si X1 et X2 sont indépendantes : Var(X1 + X2 ) = Var(X1 ) + Var(X2 ) – Var(X) = E(X 2 ) − E(X)2 = m2 (X) − m1 (X)2 . −•− 1.8.3 Inégalité de Bienaymé-Tchebyshev Théorème 1 (Inégalité de Markov et de Bienaymé-Tchebyshev). ∀ε > 0, P(Z � ε) � – Soit Z une v.a positive, alors : E(Z) ε – Soit X une v.a.r admettant un moment d’ordre 2 (E(X 2 ) < +∞) alors : ∀ε > 0, P(|X − E(X)| > ε) � 2 σX ε2 Preuve : il faut remarquer que Z � ε1{Z�ε} , puis prendre Z = |X − E(X)|. −•− 5