1 Variables aléatoires continues. 1.1 Densité et fonction de répartition. Dénition 1.1. On dit que X est une v.a. continue s'il existe une fonction f ≥ 0 tel que pour tout ensemble B ⊂ R Z P (X ∈ B) = f (x)dx (1) B Il en resulte que Z +∞ 1 = P(X ∈ R) = f (x)dx (2) ∞ Tous les calculs de probabilités relatifs à X peuvent être traités à l'aide de la formule (1). Exemple 1.1. Supposons que X a la densité f : f (x) = C(4x−2x2 ) si 0 < x < 2 et f (x) = 0 sinon. Quelle est la valeur de C ? Que vaut P(X > 0), P(X > 1)? Exemple 1.2. La durée de fonctionnement d'un ordinateur avant sa première panne est une v.a. continue de la densité donnée par f (x) = λe−x/100 si x > 0 et f (x) = 0 sinon. a) Quelle est la probabilité que cette durée soit comprise entre 50 et 150 jours? b) Quelle est la probabilité que l'ordinateur fonctionne moins de 100 jours? 1.2 Fonction de répartition. On dénit la fonction de répartition d'une v.a. X comme F (a) = P(X ≤ a) C'est une notion importante puisque F 0 (a) = f (a) et également puisque P(a ≤ X ≤ b) = F (b) − F (a). Une fonction de répartition F (x) vérie toujours les propriétés suivantes: 1 1. F est non décroissante. 2. limx→−∞ F (x) = 0. 3. limx→+∞ F (x) = 1. Exemple 1.3. Dans l'exemple précédent (1.2) calculer la fonction de répartition et répondre à la question a) à l'aide de cette fonction. 1.3 Espérance d'une v.a. continue. Rappelons que pour calculer l'espérance d'une v.a. discrète X ∈ {1, 2, 3, . . .} on utilise la formule EX = ∞ X kP(X = k) (3) k=1 Par analogie, on dénit l'espérance d'une v.a. continu de densité f par Z ∞ EX = xf (x)dx (4) −∞ Exemple 1.4. Calculer l'espérance dans l'exemple (1.2) 1.4 Espérance d'une fonction de v.a. continue. Si X est une v.a. de densité f , et g : R → R; on a Z ∞ Eg(X) = g(x)f (x)dx (5) −∞ Exemple 1.5. Si X a la densité f (x) = 1 quand 0 < x < 1 est f (x) = 0 si non, calculer EeX . 2 1.5 Propriétés de l'espérance. On a E(aX + b) = aEX + b (6) E(X + Y ) = EX + EY (7) et 1.6 Variance d'une v.a. continue. La dénition est la même que dans le cas discrète. Var(X) = E(X − EX)2 = EX 2 − (EX)2 (8) Exemple 1.6. Calculer la variance dans l'exemple (1.2) 1.7 Propriétés de la variance. On a Var(aX + b) = a2 VarX 2 2.1 (9) Lois continues usuelles. Loi uniforme. La loi uniforme est utilisée pour modéliser une grandeur aléatoire qui prends au hasard (c'est à dire, sans préférence pour aucune d'elles) ses valeurs dans une intervalle. Dénition 2.1. Une v.a. X est une v.a. uniforme sur [a, b] si sa densité est f (x) = si x ∈ [a, b] 1 b−a 0 sinon On note X ∼ U([a, b]. 3 Exemple 2.1. A partir de 7 heures, les bus passent toutes les 15 minutes à un arrêt donné. Un usager se présente entre 7 et 7, 30, l'heure exacte de son arrivée étant une v.a. uniforme sur cet période. Trouver la probabilité pour qu'il doit attendre moins de 5 minutes; plus de 10 minutes. Exemple 2.2. Un point est choisi au hasard sur un segment de longueur L. Interpréter cet énoncé et trouver la probabilité pour que le rapport entre le plus petit et le plus grand segment soit inférieure à 1/4. Montrer que E(X) = tition. a+b 2 , Var(X) = FX (x) = 2.2 Trouver la fonction de répar- si x < a si a ≤ x ≤ b si x > b 0 x−a b−a (b−a)2 12 1 Loi exponentielle. La loi exponentielle est utilisée pour mesurer des temps d'attente, des temps de service etc. On la rencontre souvent en abilité pour modéliser des durées de vie des composants. Dénition 2.2. Soit λ > 0. On dit que X suit la loi exponentielle de paramètre λ si sa densité de probabilité est donnée par f (x) = λe−xλ si x > 0 0 sinon On note X ∼ E(λ). On trouve facilement EX = λ1 , VarX = FX (x) = 1 λ2 et 1 − e−xλ si x > 0 0 sinon La propriété importante des v.a. exp. est l'absence de mémoire: Proposition 2.1. Si X ∼ E(λ), on a: P(X > t + s|X > t) = P(X > s). Exemple 2.3. Le temps nécessaire pour réparer une machine est une v.a. exponentielle de moyenne 2 (heures). a) Quelle est la probabilité que la réparation demandera plus que 2 heures. b) Quelle est la probabilité que la réparation demandera plus que 5 heures, sachant que elle a déjà pris plus que 3 heures? 4 2.3 Loi normale. La loi normale fut introduite par le mathématicien français De Moivre en 1733 qui l'utilisa pour approximer la loi binomiale pour n grand. Ce résultat était ensuite généralisé par Laplace et d'autres pour devenir ce qu'on connaît actuellement sous le nom du TCL, l'un des résultats les plus importants de la théorie de probabilités. Dénition 2.3. On dit que X suit la loi normale centrée réduite, noté X ∼ N (0, 1) si la densité de X est donnée par x2 1 f (x) = √ e− 2 , 2π ∀x ∈ R. Proposition 2.2. C'est en eet une densité, puisque Z +∞ −∞ x2 1 √ e− 2 dx = 1. 2π On a aussi EX = 0, VarX = 1. Dénition 2.4. Soit m ∈ R et σ2 > 0. On dit que X suit une loi normale de paramètres m et σ 2 si sa densité fX est dénie sur R par (x−m)2 1 f (x) = √ e− 2σ2 . σ 2π On note X ∼ N (m, σ 2 ). Proposition 2.3. On a EX = m, VarX = σ2 . Dénition 2.5. On dit que X suit la loi normale centrée réduite, si X ∼ N (0, 1). On ne peut pas exprimer en fonctions élémentaires la primitive de e−t , et donc il est impossible de calculer la fonction de répartition. Par contre, ils existent des tables de valeurs de cette fonction (pour la loi N (0, 1)) . Notons Φ la fonction de répartition de la loi N (0, 1). On a Φ(a) = R 2 √1 2π 2 a e−t 2dt. −∞ Proposition 2.4. Soit Z une v.a. normale centrée réduite. On a Φ(a) = 1 − Φ(−a). En particulier, Φ(0) = 1/2. De plus P(|Z| ≤ a) = 2Φ(a) − 1. 5 Une propriété importante de la famille des v.a. normales et que une transformation linéaire d'une v.a. normale donne toujours une v.a. normale. Proposition 2.5. Si X ∼ N (m, σ2 ), on a aX +b ∼ N (am+b, a2 σ2 ), quelque soient a et b deux constantes réelles. Le corollaire important de ce résultat est que 3 X−m σ ∼ N (0, 1). Couples continus. 3.1 Intégral double. 3.2 Densité conjointe. Dans ce chapitre on considère des couples de v.a. Dénition 3.1. On dit que (X, Y ) est un couple aléatoire continu si'il existe une fonction f : R2 → R telle que pour tout C ⊆ R2 on a Z P((X, Y ) ∈ C) = f (x, y)dxdy. C Proposition 3.1. On a la condition de normalité: R R2 f (x, y)dxdy = 1. Exemple 3.1. Soit (X, Y ) un couple aléatoire continu de densité f (x, y) = axy 2 si 0 ≤ x ≤ y ≤ 1 0 sinon Trouver la constante a. (a=10). Exemple 3.2. Soit (X, Y ) un couple aléatoire continu de densité f (x, y) = 2e−x e−2y si x > 0, 0 sinon Montrer que P(X > 1, Y < 1) = e−1 (1 − e−2 ); P(X < a) = 1 − e−a . 6 y>0 P(X < Y ) = 1/3, 3.3 Densités marginales. Si on dispose de la densité du couple, on peut retrouver les densités de X et de Y , appelées les densités marginales: Théorème 3.2. On a Z Z fX (x) = f (x, y)dy; fY (y) = R f (x, y)dx. R Dans l'ex3.1 on trouve fX (x) = x1 10xy 2 dy = 10/3x(1 − x) si x ∈ [0, 1] et fX (x) = 0 sinon. De même fY (y) = 5y 5 si y ∈ [0, 1] et fY (y) = 0 sinon. Dans l'exemple 3.2 on trouve... R 3.4 Espérance d'une fonction du couple. Si (X, Y ) est un couple continue de densité f(X,Y ) (x, y) et g : R2 → R on a Z Eg(X, Y ) = g(x, y)f(X,Y ) (x, y)dxdy. R2 Dans l'exemple 3.2 on trouve EXY = 1/2. Dénition 3.2. Soit (X, Y ) un couple aléatoire continu. On appelle covari- ance de X et Y , notée Cov(X, Y ), le nombre réel donné par Cov(X, Y ) = E[(X − EX)(Y − EY )]. Remarquons que Cov(X, X) = VarX. On prouve facilement que Cov(X, Y ) = EXY − EX × EY. que Cov(X, Y ) = Cov(Y, X) et que Cov(aX + bY, Z) = aCov(X, Z) + bCov(Y, Z) Théorème 3.3. Soit (X, Y ) un couple continu. On a E(aX + bY ) = aEX + bEY ; Var(aX + bY ) = a2 VarX + b2 VarY + 2abCov(X, Y ). 7 3.5 Indépendance. Dénition 3.3. Les v.a. X et Y sont indépendantes si ∀ (x, y) ∈ R2 on a fX,Y (x, y) = fX (x)fY (y). Exemple 3.3. Dans l'exemple 3.2 les deux v.a. sont indépendantes. Dans l'exemple 3.1 elles ne le sont pas. Théorème 3.4. On peut donner deux autres dénitions de l'indépendance: 1) X et Y sont indépendantes si et seulement si pour toutes h, g deux fonctions réelles, on a Eh(X)g(Y ) = Eh(X) × Eg(Y ). X et Y sont indépendantes si et seulement si pour tous A et B deux ensembles dans R on a 2) P(X ∈ A; Y ∈ B) = P(X ∈ A)P(Y ∈ B). Corollaire. Si X, Y sont indépendantes, Cov(X, Y ) = 0. La réciproque est fausse. Corollaire. Si X, Y sont indépendantes, Var(X + Y ) = VarX + VarY Exemple 3.4. Soient X et Y deux v.a.indépendantes de loi exponentielle de paramètre 1. Trouver EXY , E(X + Y )2 . Exemple 3.5. Soit X et Y deux v.a.indépendantes de loi exponentielle des paramètres λ et µ respectivement. Trouver la loi de Z = min(X, Y ). Exemple 3.6. Soient X1 , X2 , X3 trois v.a. i. i. d. de loi exponentielle de paramètres 1. On pose Y1 = X1 X2 et Y2 = X2 X3 . a) Les v.a. Y1 et Y2 sont-elles indépendantes? b) Les v.a. Y1 et Y2 sont-elles de même loi? c) Calculer EY1 et VarY1 . d) Calculer Var(Y1 + Y2 ). On peut généraliser toutes les notions du ce chapitre au cas de vecteurs aléatoires : 8 Dénition 3.4. Les v.a. X1 , . . . Xn sont indépendantes si pour toutes fonctions bornées h1 , . . . , hn de R → R on a E(h1 (X1 ) × . . . × hn (Xn )) = Eh1 (X1 ) × . . . × Ehn (Xn ). On a une dénition équivalente: Dénition 3.5. Les v.a. X1 , . . . Xn sont indépendantes si ∀ A1 , . . . , An sousensembles de R on a P(X1 ∈ A1 , . . . Xn ∈ An ) = P(X1 ∈ A1 ) × . . . × P(Xn ∈ An ). Exemple 3.7. Soient (X, Y, Z) trois v.a. indépendantes de loi exponentielle de paramètre 1. Trouver la loi de M = max(X, Y, Z). 9