Chapitre 2 : Variables aléatoires et distributions I. Définitions et exemples Définition 1 Etant donnée une expérience aléatoire (Ω, F, P). Une variable aléatoire X est une quantité dont la valeur dépend du résultat de l’expérience aléatoire. X est une application de Ω −→ R ω 7−→ X(ω) telle que ∀B ⊂ R {ω ∈ Ω|X(ω) ∈ B} ∈ F Probabilités– A. YAACOUBI – Novembre 2011 – p. 1/44 Probabilités– A. YAACOUBI – Novembre 2011 – p. 2/44 Exemples Exemple 1 : Lancer une pièce de monnaie. X(P ) = 1 et X(F ) = 0 Exemple 2 : Lancer un Dè équilibré. √ X(k) = k Exemple 3 : Lancer deux Dès équilibrés. X((i, j)) = i + j Exemple 4 : Choisir un pointM au hasard de façon uniforme sur un disque de centre O et de rayon R. X = distance de M à O Probabilités– A. YAACOUBI – Novembre 2011 – p. 3/44 II-Loi ou distribution d’une variable aléatoire II.1-Le cas discret : Définition 2 Une variable aléatoire X est dite discrète si l’ensemble de ses valeurs possibles E est ou bien un ensemble fini, ou bien un ensemble infini dénombrable. Dans ce cas on définit la loi de X par p(x) = P{X = x} = P{ω ∈ Ω|X(ω) = x} l’application : p : E −→ [0, 1] ainsi définie S’appelle fonction de masse de la v.a.r X Probabilités– A. YAACOUBI – Novembre 2011 – p. 4/44 Fonction de masse Exemple 3 Lancer d’une pièce de monnaie p(1) = P{X = 1} = P{P } = 1/2 et p(0) = P{X = 1} = P{F } = 1/2 Exemple 4 Lancer deux Dès équilibrés. X(ω) = la somme des deux résultats. E = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12} X p(x) 2 3 4 5 6 7 8 9 10 11 12 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 Probabilités– A. YAACOUBI – Novembre 2011 – p. 5/44 Diagramme en bâtons Probabilités– A. YAACOUBI – Novembre 2011 – p. 6/44 Fonction de masse Exemple 5 Lancer une pièce de monnaie jusqu’à obtenir Face. X= nombres de lancers nécessaires pour obtenir face E = {1, 2, 3, . . .} = N∗ 1 p(k) = P{X = k} = P{P | P P{z. . . P} F } = 2k (k−1)f ois Proposition 6 Toute fonction de masse ou loi de probabilité d’une variable aléatoire X discrète prenant ses valeurs dans E vérifie : 1. p(x) ≥ 0 pour tout x ∈ E P 2. p(x) = 1 x∈E Probabilités– A. YAACOUBI – Novembre 2011 – p. 7/44 II.2- Le cas continu Définition 7 Une variable aléatoire X : Ω → R est dite continue, ou plus précisément absolument continue, s’il existe une fonction f (x) telle que pour tout B ⊂ R on ait Z P(X ∈ B) = f (x)dx B La fonction f : R → R+ s’appelle densité de probabilité de la variable aléatoire X. Probabilités– A. YAACOUBI – Novembre 2011 – p. 8/44 Exemples Exemple 8 Choisir un point M au hasard et de façon uniforme sur le disque D(O, 5) X = d(M, O) La variable X peut prendre n’importe quelle valeur de l’intervalle[0, 5]. La densité de probabilité de X est donnée par : ( 2x si 0 ≤ x ≤ 5 f (x) = 25 0 sinon Probabilités– A. YAACOUBI – Novembre 2011 – p. 9/44 densité de probabilité Proposition 9 Toute densité de probabilité d’une variable aléatoire X doit satisfaire aux conditions suivantes : • f (x) ≥ 0 pour tout x ∈ R R • R f (x)dx = 1 Probabilités– A. YAACOUBI – Novembre 2011 – p. 10/44 II.3-Fonction de répartition Définition 10 X est une variable aléatoire réelle quelconque. La fonction de répartition de X est la fonction F : R −→ [0, 1] x 7−→ F (x) définie par : F (x) = P{X ≤ x} = P{X ∈] − ∞, x]} Exemple 11 On lance à deux reprise un dé bien équilibré. On considère la v.a.r X= le maximum des résultats des deux lancers Déterminer la loi de probabilité de X et sa fonction de répartition. Probabilités– A. YAACOUBI – Novembre 2011 – p. 11/44 Graphe de F dans le cas discret Probabilités– A. YAACOUBI – Novembre 2011 – p. 12/44 Exemple : Cas continu Exemple 12 Choisir un point M au hasard et de façon uniforme sur le disque D(O, 5) X = d(M, O) La fonction de répartition est donnée par : 2 x si 0 ≤ x ≤ 5 25 F (x) = 0 si x≤0 1 si x≥5 Probabilités– A. YAACOUBI – Novembre 2011 – p. 13/44 Graphe de F dans le cas continu Probabilités– A. YAACOUBI – Novembre 2011 – p. 14/44 Propriétés de F La fonction de répartition d’une varaible aléatoire discrète X vérifie les proriétés suivantes. Propriété 13 : 1. F est croissante 2. F est continue à droite 3. lim F (x) = 1 x→+∞ 4. lim F (x) = 0 x→−∞ Probabilités– A. YAACOUBI – Novembre 2011 – p. 15/44 Propriétés de F La fonction de répartition d’une varaible aléatoire continue X vérifie les proriétés suivantes. Propriété 14 : 1. F est croissante 2. F est continue 3. lim F (x) = 1 x→+∞ 4. lim F (x) = 0 x→−∞ Probabilités– A. YAACOUBI – Novembre 2011 – p. 16/44 Fonction de répartition et fonction de masse Soit X une variable aléatoire discrète de fonction de masse p(x) et de fonction de répartition F . Proposition 15 : ∀x ∈ R on a : X F (x) = p(u) u≤x 1 p(x) = F (x) − lim F (x − ) n→+∞ n c’est à dire p(x) = grandeur de saut de la fonction F au point x Probabilités– A. YAACOUBI – Novembre 2011 – p. 17/44 Fonction de répartition et fonction densité Soit X une variable aléatoire continue de densité de probabilité f (x) et de fonction de répartition F . Proposition 16 : ∀x ∈ R on a : Z x F (x) = f (t)dt −∞ d f (x) = F (x) dx Probabilités– A. YAACOUBI – Novembre 2011 – p. 18/44 III-Espérance et moments d’une variable aléatoire : III.1-Espérance mathématique : P cas discrète x∈R xpX (x) E(X) = R +∞ xf (x)dx cas continue −∞ Exemple 17 Une urne contient 10 boules. Trois boules ont la valeur 1, quatre boules ont la valeur 2, deux boules ont la valeur 3 et une boule a la valeur 4. On tire une boule au hasard et on pose X = la valeur de la boule tirée. Calculer l’espérance de X. Probabilités– A. YAACOUBI – Novembre 2011 – p. 19/44 Exemple 18 On choisit au hasard et de façon uniforme un point M sur le disque de rayon 5 centré à l’origine et on pose X = d(O, M ). Calculer E(X). Probabilités– A. YAACOUBI – Novembre 2011 – p. 20/44 Propriétés de E(X) Théorème 1 : 1. X et Y deux variables aléatoires. Si Y = g(X) pour une certaine fonction g : R → R, alors E(Y ) = E(g(X)) = P g(x)pX (x) cas discrète = x∈R R +∞ g(x)f (x)dx cas continue X −∞ Probabilités– A. YAACOUBI – Novembre 2011 – p. 21/44 Propriétés de E(X) Théorème 2 : 1. E(X + Y ) = E(X) + E(Y ) 2. E(aX + b) = aE(X) + b Théorème 3 : X et Y sont deux v.a.r indépendantes si et seulement si une des deux assertions suivantes est vérifiée 1. E(XY ) = E(X)E(Y ) 2. E[h(X)g(Y )] = E(h(X))E(g(Y )) Probabilités– A. YAACOUBI – Novembre 2011 – p. 22/44 III.2-Variance Variance La variance de X est notée V ar(X). P 2 (x − E(X)) pX (x) cas discrète x∈R V ar(X) = R +∞ (x − E(X))2 f (x)dx cas continue −∞ Ecart type p σX = V ar(X) Probabilités– A. YAACOUBI – Novembre 2011 – p. 23/44 Propriétés de la variance 1. V ar(aX + b) = a2 V ar(X) 2. σ(aX+b) = |a| σX 3. Si X et Y sont indépendantes alors V ar(X + Y ) = V ar(X) + V ar(Y ) Probabilités– A. YAACOUBI – Novembre 2011 – p. 24/44 Inégalités Inégalité de Markov Pour tout variable aléatoire X positive et pour tout a > 0 on a E(X) P[X ≥ a] ≤ a Inégalité de Chebyshev V ar(X) P[|X − E(X)| ≥ a] ≤ a2 Probabilités– A. YAACOUBI – Novembre 2011 – p. 25/44 IV-Lois usuelles 1) Loi de Bernoulli Définition 19 X : Ω −→ {0, 1} obéit à la loi de bernoulli de paramètre p si P{X = 1} = p et P{X = 0} = 1 − p. X modélise une épreuve à deux issues possibles : {X = 1}=succès, {X = 0}=echec Probabilités– A. YAACOUBI – Novembre 2011 – p. 26/44 Lois usuelles 2) Loi binomiale Scénario d’application Soit une séquence d’épreuves de Bernoulli indépendantes les unes des autres et ayant toutes la même probabilité de succès p. X =nombres de succès obtenu parmi les n epreuves Fonction de masse n k P(X = k) = p (1 − p)n−k k On dit que X obéit à la loi binomiale et on note X ∼ B(n, p) Probabilités– A. YAACOUBI – Novembre 2011 – p. 27/44 Lois usuelles Propriété d’additivité Théorème 20 Si Xobéit à B(n1 , p) et Y obéit à B(n2 , p) et si X et Y sont indépendantes alors X + Y obéit à B(n1 + n2 , p) Probabilités– A. YAACOUBI – Novembre 2011 – p. 28/44 Lois usuelles 3) Loi géométrique Scénario Soit une séquence d’épreuves de Bernoulli indépendantes les unes des autres et ayant toute la même probabilité de succès p. N1 = nombre d’épreuves nécessaires pour obtenir le premier succès Fonction de masse P(N1 = k) = (1 − p)k−1 p Absence de mémoire : P(N1 > k + l|N1 > l) = P(N1 > k) Probabilités– A. YAACOUBI – Novembre 2011 – p. 29/44 Lois usuelles 4) Loi de Pascal Scénario Soit une séquence d’épreuves de Bernoulli indépendantes les unes des autres et ayant toute la même probabilité de succès p. Nm = nombre d’épreuves nécessaires pour obtenir le me succès Fonction de masse : P(Nm = k)= k−1 m (k−m) p (1 − p) si k ∈ {m, m + 1, ..., } m−1 0 sinon On note X ∼ BN (m, p) Probabilités– A. YAACOUBI – Novembre 2011 – p. 30/44 Lois usuelles Propriété d’additivité Théorème 21 Si X ∼ BN (m1 , p)et Y ∼ BN (m2 , p) et si X et Y sont indépendantes alors X + Y ∼ BN (m1 + m2 , p) Corollary 22 Si X1 , ..., Xk sont des var géométrique(p) indépendantes les unes des autres alors T = X1 + ... + Xk obéit àla loi BN (k, p) Probabilités– A. YAACOUBI – Novembre 2011 – p. 31/44 Lois usuelles 4) Loi Hypergéométrique Scénario : 1. Urne contenant N boules blanches et M boules noires 2. tirage sans remise de n boules. 3. X nombre de boules blanches parmi les n tirées. Fonction de masse P(X = k) = N M k n−k N +M n Probabilités– A. YAACOUBI – Novembre 2011 – p. 32/44 Lois usuelles 5) Loi de Poisson Définition 23 Une variable aléatoire entière X : Ω −→ N obéit à la loi de Poisson de paramètre λ si sa fonction de masse est donnée par : e−λ λk pX (k) = k! Caractéristiques 1. Espérance mathématique : E(X) = λ 2. Variance : V ar(X) = λ Probabilités– A. YAACOUBI – Novembre 2011 – p. 33/44 Loi de Poisson et Loi Binomiale Théorème 24 Soit λ > 0 et pn = nλ . Alors on a : −λ k e λ n k n−k = lim pn (1 − pn ) n−→∞ k k! Dans la pratique si n ≥ 50 et np < 10 alors B(n, p) ≈ P(λ) Probabilités– A. YAACOUBI – Novembre 2011 – p. 34/44 Lois usuelles 6) Loi Exponentielle Scénario : Modélisation des temps aléatoire −→ Durée de vie −→ Temps entre les arrivées successives de clients dans une file d’attente Fonction densité −λx λe si x ≥ 0 f (x) = 0 sinon Fonction de répartition : 1 − e−λx si x ≥ 0 F (x) = 0 sinon Probabilités– A. YAACOUBI – Novembre 2011 – p. 35/44 Lois usuelles Loi géométrique et Loi exponentielle : λ • Tn ∼ géométrique ( ) n Tn • −→ T n • T ∼ Exp(λ) Minimum de variables de loi Exp Théorème 25 oient X1 , ..., Xn des var indépendantes telles que Xi ∼ Exp(λi ) Alors T = M in(X1 , X2 , ..., Xn ) ∼ Exp(λ1 + ... + λn ) Probabilités– A. YAACOUBI – Novembre 2011 – p. 36/44 Lois usuelles 7) Loi gamma Fonction densité : α λ xα−1 e−λx si x ≥ 0 Γ(α) 0 sinon R ∞ α−1 −t où Γ(α) = 0 t e dt X ∼ gamma(α, λ) Probabilités– A. YAACOUBI – Novembre 2011 – p. 37/44 Lois usuelles Propriété d’additivité : X ∼ gamma(α1 , λ) et X ∼ gamma(α2 , λ) et si elles sont indépendantes alors X + Y ∼ gamma(α1 + α2 , λ) Corollary 26 Si X1 , ..., Xk sont des v.a.r de même loi Exp(λ) indépendantes les unes des autres alors T = X1 + ... + Xk obéit à la loi gamma(k, λ) Probabilités– A. YAACOUBI – Novembre 2011 – p. 38/44 Lois usuelles 8) Loi normale ou loi Gaussienne Fonction densité : ( 1 1 f (x) = √ exp − 2 σ 2π x−µ σ 2 ) X ∼ N (µ, σ) Probabilités– A. YAACOUBI – Novembre 2011 – p. 39/44 Lois usuelles Graphe de la densité de N (m, σ) Probabilités– A. YAACOUBI – Novembre 2011 – p. 40/44 Lois usuelles Probabilités– A. YAACOUBI – Novembre 2011 – p. 41/44 Lois usuelles Changement de variable : X −µ ∼ N (0, 1) X ∼ N (µ, σ) ⇔ Z = σ Propriété d’additivité : Si X1 ∼ N (µ1 , σ1 ) et X2 ∼ N (µ2 , σ2 ) et si X1 ,X2 sont indépendantes alors q X1 + X2 ∼ N (µ1 + µ2 , σ12 + σ22 ) Probabilités– A. YAACOUBI – Novembre 2011 – p. 42/44 Lois usuelles Calcul de probabilités : → Z ∼ N (0, 1) : Utilisation de la table de la loi N (0, 1). P(a < Z < b) = Φ(b) − Φ(a) → X ∼ N (µ, σ) : a−µ b−µ ) − Φ( ) P(a < X < b) = Φ( σ σ Probabilités– A. YAACOUBI – Novembre 2011 – p. 43/44 Lois usuelles Théorème de la limite centrale : Si X1 , X2 , ..., Xk , ..., une suite de variables aléatoires indépendantes et identiquement distribuéesP (i.i.d) avec moyenne µ et variance σ 2 et si Sn = nk=1 Xk alors : Pour n assez grand Sn − nµ √ ≈ N (0, 1) σ n C’est à dire pour n assez grand : a − nµ b − nµ P(a < Sn < b) = Φ( √ ) − Φ( √ ) σ n σ n Probabilités– A. YAACOUBI – Novembre 2011 – p. 44/44