ECS 922. Variables aléatoires à densité. I Définition et caractérisation Définition : On dit qu’une variable aléatoire réelle X est à densité si sa fonction de répartition est continue sur R et de classe C 1 sur R privé d’un nombre fini de points. Notons FX la fonction de répartition de X. Définition : Soit X une variable aléatoire à densité. On dit qu’une application f de R vers R+ est une 0 qu’en un nombre fini de points. densité de probabilité de X si f ne diffère que FX Remarque : Si l’on modifie la valeur de f en un nombre fini de points, la fonction obtenue est elle aussi une densité de X. Proposition : Soit X une variable aléatoire à densité et f une densité de probabilité de X. On a : Z x ∀x ∈ R, FX (x) = f (t) dt −∞ Démonstration : Notons F la fonction de répartition de X, et E l’ensemble des réels x tels que : F n’est pas dérivable en x, ou F 0 n’est pas continue en x, ou F 0 (x) 6= f (x). E étant fini, écrivons E = {a1 , . . . , an }, où a1 < a2 < . . . < an , et notons a0 = −∞ Z et an+1 = +∞. x Montrons par récurrence l’assertion Hi : hh ∀x ∈] − ∞, ai [, f (t) dt = F (x) ii (ce qui implique −∞ que cette intégrale soit convergente). - Si x < a1 , F étant uneZprimitive de f sur ] − ∞, Z a1 [, on a : x x ∀y < x, F (x) − F (y) = f (t) dt, donc lim f (t) dt = F (x) − lim F = F (x), y→−∞ y −∞ y Z x Z x donc f (t) dt est convergente et F (x) = f (t) dt. Ceci montre que H1 est vraie. −∞ −∞ - Soit i ∈ [[1, n]] tel que Hi soit vraie. Z ai Z x f (t) dt est D’une part, lim− f (t) dt = lim− F (x) = F (ai ) car F est continue, donc x→ai −∞ x→ai −∞ Z ai convergente et f (t) dt = F (ai ). −∞ Z x D’autre part, si x ∈]ai , ai+1 [, on a : ∀y ∈]ai , x[, f (t) dt = F (x) − F (y), Z x Z xy Z x donc : lim+ f (t) dt = F (x) − F (ai ), donc f (t) dt existe et f (t) dt = F (x) − F (ai ), d’où y→ai y ai Z x Z x Z ai Z axi f (t) dt = f (t) dt = f (t) dt + f (t) dt = F (ai ) + F (x) − F (ai ) = F (x), ce qui −∞ −∞ −∞ ai achève la démonstration de Hi+1 Le principe de récurrence finie permet de conclure que Hi est vraie pour tout i de [[1, n]], ce qui établit le théorème. Corollaire : Si X est une variable à densité, en tout point x où f est continue, F 0 (x) = f (x). Idée de la démonstration : f est continue sauf en un nombre fini de points, donc si f est continue en x0 , il existe un intervalle ]a, b[ contenant x0 et sur Z lequel f est continue. On sait (cous x d’intégration) que dans ce cas, la fonction G : x 7→ f (t) dt est dérivable sur ]a, b[ et que x0 G0 = f . Comme F − G est une constante, on a aussi F 0 = f sur ]a, b[. Théorème : Une fonction f définie sur R est une densité de probabilité d’une variable aléatoire si et seulement si f est positive sur R, continue sur R sauf en un nombre fini de points et vérifie Z +∞ f (t) dt = 1. −∞ Idée de la démonstration : ⇒ Si f est une densité de X, f est positive, continue sauf en un 0 nombre fini de points (les points où FX n’est pas définie ou pas continue ou diffère de f ), et Z x Z +∞ lim f (t) dt = lim F (x) = 1 donc f (t) dt = 1. x→+∞ −∞ x→+∞ −∞ ⇐ On admet la réciproque. Dans le cas où f > 0, on pourra la faire en exercice après R x l’étude des fonctions de variables à densité et de la loi uniforme. Pour cela, on posera F (x) = −∞ f (t) dt et X = F −1 ◦ U où U ,→ U ([0, 1]). Corollaire : Si f et g sont deux densités de probabilités de variables aléatoires et si elles sont proportionnelles (c’est-à-dire g = αf ), alors, elles sont égales. Remarque : Donner la loi de probabilité d’une variable à densité, c’est donner, soit sa fonction de répartition, soit l’une de ses densités de probabilité. II Propriétés des variables à densité. Dans tout ce paragraphe, X désigne une variable à densité, f une densité de X, et F sa fonction de répartition. La proposition suivante montre une différence fondamentale entre variables discrètes et variables à densité : Proposition : ∀a ∈ R, P (X = a) = 0 Idée de la démonstration : ∞ \ 1 P (X = a) = P ( (a − < X 6 a)) (intersection d’une suite décroissante d’événements) n n=1 1 1 P (X = a) = lim P (a − < X 6 a) = lim (F (a) − F (a − )) = 0 car F est continue. n→∞ n→∞ n n Proposition : Pour tous réels a et b tels que a < b, Z b P (a < X 6 b) = P (a 6 X 6 b) = P (a 6 X < b) = P (a < X < b) = F (b) − F (a) = f (t) dt a Idée de la démonstration : On sait que, pour toute variable aléatoire, P (a < X 6 b) = F (b) − F (a) Les égalités entre probabilités se déduisent de la proposition précédente. La dernière égalité découle de la relation de Chasles. III Fonctions de variables à densité. X désigne une variable aléatoire à densité sur (Ω, B, P ). 1. Etude de ϕ ◦ X si ϕ est une fonction en escalier sur tout segment Cela signifie que, sur tout segment, ϕ n’a qu’un nombre fini de points de discontinuité et est constante sur chacun des intervalles ouverts délimités par ces points. L’ensemble des valeurs prises par ϕ est alors de la forme: ϕ(R) = {xi /i ∈ I}, où I est un intervalle de N (parfois Z) et (xn ) est une suite monotone. Dans ce cas, quelle que soit la variable aléatoire à densité X, ϕ ◦ X ( ou par abus ϕ(X)) est une variable aléatoire discrète. Par exemple, si X est une variable aléatoire admettant une densité f , et ϕ la fonction “partie entière”, bXc est une variable aléatoire à valeurs dans Z, dont la loi de probabilité est déterminée Z k+1 par: ∀k ∈ Z, P (bXc = k) = f (t) dt. k 2 2. Etude de ϕ ◦ X si ϕ est continue sur X(Ω). La méthode est de rechercher la fonction de répartition de Y = ϕ(X), puis d’examiner si Y est une variable à densité et en donner éventuellement une densité. Dans les exemples classiques suivants, nous noterons f et F (resp. g et G) une fonction de densité et la fonction de répartition de X (resp. Y ). Exemple: ϕ(x) = ax + b où a > 0. x−b G(x) = P (Y 6 x) = P (aX + b 6 x) = P (X 6 x−b a ) = F( a ) F étant continue et, sauf peut-être en un nombre fini de points, dérivable avec une dérivée continue, G vérifie la même propriété: Y est une variable a densité, une densité étant donnée en x−b 1 ¡x − b¢ tout point x tel que F soit dérivable en par: g(x) = G0 (x) = f . a a a Remarque : On peut faire un raisonnement analogue si Y = aX + b où a < 0 ; on trouve dans les 1 ¡x − b¢ deux cas: g(x) = f . |a| a Remarque : Ceci montre au passage que la somme d’une variable aléatoire à densité et d’une variable certaine est une variable à densité. Exemple: ϕ(x) = x2 . Ici Y = X 2 . ½ 2 G(x) = P (Y 6 x) = P (X 6 x) = 0 √ si x 6 0 √ √ √ P (− x 6 X 6 x) = F ( x) − F (− x) si x > 0 Comme dans l’exemple précédent, X étant une variable Y l’est aussi, une densité étant √ à densité, √ donnée en tout point x tel que F soit dérivable en x et − x par: ½ 0 ¡ √ √ ¢ si x 6 0 g(x) = 1 √ f ( x) + f (− x) si x > 0 2 x Exemple: ϕ(x) = exp(x). Ici Y = eX . G(x) = P (e X 6 x) = ½ 0 si x 6 0 P (X 6 ln x) = F (ln(x)) si x > 0 Comme dans les exemples précédents, X étant une variable à densité, Y l’est aussi, une densité étant donnée en tout point x tel que F soit dérivable en ln x par: ½ 0 si x 6 0 g(x) = 1 x f (ln(x)) si x > 0 Exemple: d’utilisation courante : ϕ est une bijection de classe C 1 de R vers R et ϕ0 > 0 (on traite de même le cas ϕ0 < 0. ¡ ¢ ¡ ¢ G(x) = P ϕ(X) 6 x = P X 6 ϕ−1 (x) = F ◦ ϕ−1 (x), donc G est continue sur R et de classe C 1 sauf en un nombre fini de points (images par ϕ des points en lesquels F n’est pas dérivable ou F 0 n’est pas continue). Y est donc une variable à densité ; une ¡ −1densité ¢ est, sauf éventuellement f ϕ (x) en un nombre fini de points, donnée par : g(x) = G0 (x) = 0 ¡ −1 ¢ ϕ ϕ (x) IV Moments d’une variable à densité. 1. Moment d’ordre k. Définition : Soit k un entier naturel.Z On dit que la variable aléatoire X, de densité f , admet un moment +∞ d’ordre k si l’intégrale tk f (t) dt est convergente. Si tel est le cas, le moment d’ordre k de X est: −∞ Z +∞ mk (X) = −∞ 3 tk f (t) dt Remarque 1 : Si mk (X) existe, l’intégrale qui le définit est absolument convergente car les intégrales de −∞ à 0 et de 0 à +∞ sont convergentes et la fonction que l’on intègre est de signe constant sur chacun des intervalles ] − ∞, 0] et [0, +∞[. Z +∞ Remarque 2 : Le moment d’ordre 0 existe toujours: m0 (X) = f (t) dt = 1. −∞ 2. Espérance. Définition : L’espérance d’une variable à densité X est, s’il existe, son moment d’ordre 1. C’est donc: Z +∞ E(X) = tf (t) dt −∞ si cette intégrale est convergente. Remarque : Certaines variables aléatoires n’ont pas d’espérance. On peut vérifier, par exemple, que si ( 0 si t < 0 1 1 f (t) = et g(t) = si t > 0 (1 + |t|)3 (1 + t)2 une variable aléatoire X ayant pour densité f n’a pas d’espérance tandis qu’une variable aléatoire de densité g a une espérance nulle. Théorème : (Linéarité de l’espérance) Si X et Y sont deux variables aléatoires à densité sur (Ω, B, P ), admettant chacune une espérance, et si λ est un réel, alors λX et X + Y admettent aussi des espérances données par E(λX) = λE(X) et E(X + Y ) = E(X) + E(Y ) Définition : Si la variable aléatoire X admet une espérance m = E(X), la variable aléatoire centrée associée à X est X − m. Remarque : E(X − m) = 0. Théorème : ( Théorème de transfert) Si X est une variable admettant la fonction f pour densité, et ϕ une fonction continue sauf en un nombre fini de points sur un intervalle contenant X(Ω), la variable aléatoire ϕ(X) admet une espérance Z +∞ ¡ ¢ E ϕ(X) = ϕ(t)f (t) dt −∞ si et seulement si cette intégrale est absolument convergente. Idée de la démonstration : dans le cas particulier où ϕ est de classe C 1 sur R et ϕ0 > 0. ϕ(R) =]a, b[, où a est −∞ ou un réel, b est +∞ ou un réel > a. En notant encore G la fonction de répartition de Y = ϕ(X), si x 6 a (cas exclu si a = −∞) 0 G(x) = P (ϕ(X) 6 x) = P (X 6 ϕ−1 (x)) = F (ϕ−1 (x)) si a < x < b 1 si x > b (cas exclu si b = +∞) Donc G est continue, dérivable avec une dérivée continue sauf aux points images par ϕ des points de discontinuité de f , et admet pour densité la fonction g définie par (0 si x 6 a 1 si a<x<b g(x) = f (ϕ−1 (x)) ϕ0 (ϕ−1 (x)) 0 si x > b 4 Z b E(Y ) = xf (ϕ−1 (x)) a 1 ϕ0 (ϕ−1 (x)) dx Le changement de variable défini par x = ϕ(t) donne le résultat. 3. Variance Définition : ¡ ¢2 Si X admet une espérance et si X − E(X) admet une espérance, on dit ´ que X admet une ³¡ ¢2 variance, et la variance de X est alors définie par: V (X) = E X − E(X) . Autrement dit, en notant f une densité de X et m = E(X), Z +∞ V (X) = (t − m)2 f (t) dt −∞ si cette intégrale est convergente. Théorème : (méthode de calcul de la variance) X admet une variance si et seulement si elle admet des moments d’ordre 1 et 2. On a alors: V (X) = m2 (X) − m1 (X)2 = E(X 2 ) − E(X)2 . Idée de la démonstration : Z • Si m1 (X) et m2 (X) existent, convergente et égale à Z +∞ Z 2 t f (t) dt − 2m −∞ Z +∞ 2 +∞ (t − m) f (t) dt = −∞ −∞ Z +∞ tf (t) dt + m −∞ [t2 f (t) − 2mtf (t) + m2 f (t)] dt est 2 +∞ f (t) dt = E(X 2 ) − 2m.m + m2 = E(X 2 ) − E(X)2 −∞ • Réciproquement, si V (X) existe, la fonction t 7→ t2 f (t) = (t − m)2 f (t) + 2mf (t) − m2 f (t) a une intégrale impropre sur ] − ∞, +∞[ convergente car elle est combinaison linéaire de fonctions dont l’intégrale impropre est convergente. Remarque : Il se peut qu’une variable aléatoire admette une espérance, mais pas de variance: c’est 1 le cas, par exemple si X admet pour densité g : t 7→ (1+|t|) 3. Théorème : Si X admet une variance, aX + b aussi et V (aX + b) = a2 V (X). Idée de la démonstration : utiliser V (Y ) = E(Y 2 ) − E(Y )2 et la linéarité de l’espérance. Définition : Si X admet une variance, l’écart-type de f est σX = p V (X). La variable aléatoire centrée réduite (en résumé : réduite) associée à X est X ∗ = X − E(X) . σX Remarque : E(X ∗ ) = 0 et V (X ∗ ) = 1. V Somme de deux variables à densité indépendantes Rappel : Deux variables aléatoires sur (Ω, B, P ), X et Y sont indépendantes si pour tout couple (a, b) de réels, les événements¡(X 6 a) et (Y 6 b)¢ sont indépendants. On a alors, quels que soient les intervalles I et J de R, P (X ∈ I) ∩ (Y ∈ J) = P (X ∈ I).P (Y ∈ J). 5 Théorème : Si X et Y sont deux variables aléatoires indépendantes sur (Ω, B, P ), admettant pour densités respectives les fonctions f et g, et si la fonction h définie par: Z +∞ Z +∞ ∀x ∈ R, h(x) = f (t)g(x − t) dt = f (x − t)g(t) dt −∞ −∞ et définie et continue sur R sauf éventuellement en un nombre fini de points, alors X + Y est elle aussi une variable à densité, l’une de ses densités étant h. Ce théorème est admis ; on ne demande pas aux candidats de vérifier la condition sur h ; celle-ci est d’ailleurs toujours vérifiée si f ou g est bornée. VI Somme de deux variables aléatoires quelconques. Les résultats de ce paragraphe sont tous admis ; ils concernent une variable aléatoire X, discrète ou à densité, sur (Ω, B, P ) et une variable aléatoire Y , discrète ou à densité, sur (Ω, B, P ). Proposition : (linéarité de l’espérance) Si X et Y ont une espérance, alors λX + Y admet une espérance et E(λX + Y ) = λE(X) + E(Y ). Proposition : (positivité de l’espérance) Si X admet une espérance et si X > 0 (ps) (c’est-à-dire si P (X > 0) = 1) alors E(X) > 0. ((ps) est l’abréviation de hh presque sûrement ii .) Corollaire : (Croissance de l’espérance) Si X et Y ont une espérance et si X 6 Y (ps) (c’est-à-dire si P (X 6 Y ) = 1), alors E(X) 6 E(Y ). Proposition : (variance d’une somme) Si X et Y sont indépendantes et admettent une variance, alors X + Y admet une variance et V (X + Y ) = V (X) + V (Y ). VII Lois usuelles 1. Loi uniforme a)Densité a < b. X suit la loi uniforme sur [a, b] (X f définie par: ( 0 1 f (t) = b−a 0 ,→ U ([a, b]) si X admet pour densité la fonction si t < a si a 6 t 6 b si t > b (Il est facile de vérifier qu’il s’agit d’une fonction de densité de probabilité.) b)Fonction de répartition Z ( x F (x) = f (t) dt = −∞ c)Espérance Z +∞ Z tf (t) dt = −∞ b a d)Variance Z +∞ Z 2 t f (t) dt = −∞ x−a b−a 1 si x < a si a 6 x 6 b si x > b a+b a+b t dt = est convergente. E(X) = . b−a 2 2 b a 0 t2 b2 + ab + a2 b2 + ab + a2 dt = est convergente. E(X 2 ) = . b−a 3 3 la formule V (X) = E(X 2 ) − E(X)2 donne V (X) = 6 (a − b)2 . 12 e)La loi uniforme sur [0, 1] n Si X ,→ U([0, 1]), X admet pour densité la fonction f définie par f (t) = 1 si t ∈ [0, 1] ; 0 sinon 1 . E(X) = 12 et V (X) = 12 Il est facile de vérifier que si a < b : X ,→ U ([0, 1]) ⇐⇒ a + (b − a)X ,→ U ([a, b]) Cela est utile pour créer une fonction Pascal qui simule une variable uniforme sur [a, b]. En supposant que a et b sont des constantes déjà définies : function Y:real ; begin Y:=a+(b-a)*random end ; 2. Loi exponentielle a)Densité Soit λ > 0. X suit la loi exponentielle de paramètre λ (X ,→ E(λ)) si X admet pour densité la fonction f définie par: ½ 0 si t < 0 f (t) = −λt λe si t > 0 b)Fonction de répartition Z ½ x F (x) = f (t) dt = −∞ 0 1 − e−λx si x < 0 si x > 0 c)Caractérisation par l’absence de mémoire. Proposition : Si X ,→ E(λ), on a, pour tous réels strictement positifs a et b: P (X > a + b/X > a) = P (X > b) Idée de la démonstration¡ : ¢ P (X > a + b) ∩ (X > a) P (X > a + b) e−λ(a+b) P (X > a + b/X > a) = = = = e−λb = P (X > b) P (X > a) (X > a) e−λa Théorème : Soit X une variable aléatoire à densité vérifiant: P (X < 0) = 0 et ∀(a, b) ∈ R∗+ , P (X > a + b/X > a) = P (X > b) Alors X suit une loi exponentielle. Idée de la démonstration : Remarquons tout d’abord que la deuxième condition implique : ∀a > 0, P (X > a) 6= 0. Soit F la fonction de répartition de X, soit g = 1 − F et h = ln ◦g. P (X > a + b) Pour tout a et b strictement positifs, = P (X > b) donc g(a + b) = g(a)g(b) et donc P (X > a) h(a + b) = h(a) + h(b). h(0) = ln(1 − P (X < 0)) = 0. h(2a) = h(a + a) = 2h(a) et par récurrence, ∀n ∈ N, h(na) = nh(a). donc ∀q ∈ N∗ qh( 1q ) = h(1), d’où h( 1q ) = 1q h(1) puis ∀(p, q) ∈ N∗ 2 , h( pq ) = pq h(1). En posant λ = −h(1), comme h est continue (car F l’est), on en déduit: ∀x ∈ R∗+ , h(x) = −λx d’où g(x) = −λx puis F (x) = 1 − e−λx , ce qui établit le théorème. d)Espérance Z +∞ Z +∞ 1 tf (t) dt = λte−λt dt converge et se calcule en intégrant par parties: E(X) = λ −∞ 0 e)Variance Z +∞ Z +∞ 2 t f (t) dt = λt2 e−λt dt se ramène au calcul précédent par une intégration par parties. −∞ 0 Cette intégrale converge et vaut E(X 2 ) = 2 λ2 , d’où V (X) = 7 1 λ2 f )Loi exponentielle de paramètre 1 n e−t si t > 0 ; E(X) = V (X) = 1 0 sinon 1 Il est facile de vérifier que, si λ > 0 : X ,→ E(1) ⇐⇒ X ,→ E(λ) λ Il est facile de vérifier que si X ,→ U([0, 1]), alors ln X est définie presque sûrement et − ln(X) ,→ E(1) ce qui permet de créer en Pascal une fonction Y qui simule une variable aléatoire exponentielle de paramètre lambda : Si X ,→ E(1), X a pour densité la fonction f : t 7→ function Y:real ; begin Y:=-ln(random)/lambda end ; 3. Lois γ et Γ a)Densité Définition : Une variable aléatoire suit la loi Gamma de paramètres b et ν strictement positifs (on note X ,→ Γ(b, ν)) si elle admet pour densité la fonction f définie par: ( − t ν−1 e bt si t > 0 f (t) = Γ(ν)bν 0 sinon (Il est facile de vérifier qu’il s’agit d’une fonction de densité de probabilité en utilisant le changement de variable t = bx.) Définition : La loi petit gamma de paramètre ν, notée γ(ν) est la loi Γ(1, ν). Une densité d’une variable suivant cette loi est : ½ −t ν−1 e t si t > 0 t 7−→ Γ(ν) 0 sinon Lemme : Si X ,→ Γ(b, ν) et α ∈ R∗+ , alors αX ,→ Γ(αb, ν) t t Idée de la démonstration : komdab, FαX (t) = P (αX 6 t) = P (X 6 ) = FX ( ). FαX est donc α α t 1 t e− αb tν−1 0 1 ∗ f ( ) = si t > 0 continue sur R, de classe C sur R et FαX (t) = α X α Γ(ν)bν αν 0 si t < 0 donc αX ,→ Γ(αb, ν) Proposition : Si b > 0 : X ,→ γ(ν) ⇐⇒ bX ,→ Γ(b, ν) Idée de la démonstration : Pour chacun des deux sens de l’implication, on applique le lemme précédent. Remarque : La loi Γ(b, 1), est la loi exponentielle de paramètre 1b . La loi γ(1) est la loi E(1). b)Stabilité par la somme Lemme : Si X et Y sont indépendantes et suivent respectivement les lois γ(ν) et γ(ν 0 ), alors X + Y ,→ γ(ν + ν 0 ) Idée de la démonstration : f et g étant des densités de X et Y , une densité de X + Y est la fonction h définie par Z +∞ h(x) = f (x − t)g(t) dt (0 h(x) = 1 Γ(ν)Γ(ν 0 ) −∞ Z si x 6 0 x e −(x−t) (x − t) 0 8 ν−1 −t ν 0 −1 e t dt si x > 0 µ ¶ν−1 µ ¶ν 0 −1 t t dt ∀x > 0, h(x) = Ke (x − t) t dt = Ke x 1− x x x 0 0 Le changement de variable t = xu montre que cette intégrale est une constante (c’est-à-dire ne dépend pas de x) donc que h est proportionnelle, donc égale, à une densité de la loi γ(ν + ν 0 ). Z −x Z x ν−1 ν 0 −1 −x ν+ν 0 −1 x Théorème : Si X et Y sont indépendantes et suivent respectivement les lois Γ(b, ν) et Γ(b, ν 0 ), alors X + Y ,→ Γ(b, ν + ν 0 ) Idée de la démonstration : Les variables 1b X et 1b Y sont indépendantes et suivent respectivement les lois γ(ν) et γ(ν 0 ) donc, d’après le lemme, leur somme 1b (X + Y ) suit la loi γ(ν + ν 0 ) donc X + Y ,→ Γ(b, ν + ν 0 ). Généralisation : Si X1 , . . . , Xn sont indépendantes et suivent respectivement les lois Γ(b, ν1 ), . . . , Γ(b, νn ), alors X1 + · · · + Xn ,→ Γ(b, ν1 + · · · + νn ). La démonstration se fait sans difficulté par récurrence. Corollaire : Si X1 , . . . , Xn suivent toutes la loi exponentielle de paramètre λ et sont mutuellement indépendantes, X1 + · · · + Xn suit la loi Γ( λ1 , n). c)Espérance et variance Z +∞ 1 • Si X ,→ γ(ν), de densité f , on a pour t > 0 : tf (t) = Γ(ν) e−t tν donc tf (t) dt est convergente (fonction Γ). −∞ Z Z +∞ 1 1 Ainsi E(X) existe et E(X) = tf (t) dt = e−t tν dt = Γ(ν + 1) = ν. Γ(ν) 0 Γ(ν) −∞ Z +∞ 1 Γ(ν + 2) De même, E(X 2 ) existe et E(X 2 ) = e−t tν+1 dt = = (ν + 1)ν Γ(ν) 0 Γ(ν) donc V (X) existe et V (X) = E(X 2 ) − E(X)2 = (ν + 1)ν − ν 2 = ν. • Si X ,→ Γ(b, ν), alors 1b X ,→ γ(ν), donc X admet une espérance et une variance, respectivement égales à bE( 1b X) et b2 V ( 1b X), donc Si X ,→ Γ(b, ν), alors E(X) = bν et V (X) = b2 ν +∞ 4. Loi normale (ou de Laplace-Gauss) Z +∞ √ t2 On admet que : e− 2 dt = 2π. −∞ a)Densité Une variable aléatoire suit la loi normale de paramètres m réel et σ 2 (où σ est strictement positif) (on note X ,→ N (m, σ 2 )) si elle admet pour densité la fonction f définie par: (t−m)2 1 f (t) = √ e− 2σ2 σ 2π (Il est facile de vérifier qu’il s’agit d’une fonction de densité de probabilité en utilisant le t−m .) changement de variable x = σ La fonction f est continue, de limites 0 en −∞ et en +∞, elle est croissante sur ] − ∞, m] et décroissante sur [m, +∞[. Sa courbe représentative, dite “courbe en cloche de Gauss” admet la droite d’équation x = m pour axe de symétrie ; elle a deux points d’inflexion, aux abscisses m ± σ. b)Fonction affine d’une variable normale Théorème : Soit (a, b) ∈ R∗ × R, et Y = aX + b. Si X ,→ N (m, σ 2 ), alors Y ,→ N (am + b, a2 σ 2 ). Idée de la démonstration : Traiter séparément les cas a > 0 et a < 0 par la méthode classique de détermination de la fonction de répartition puis d’une densité de Y . 9 c)Loi normale centrée réduite Il s’agit de la loi N (0, 1). t2 1 Sa fonction de densité est t 7→ ϕ(t) = √ e− 2 . 2π Sa fonction de répartition est traditionnellement notée Φ ; il n’en existe pas d’autre expression Z x t2 1 que Φ(x) = √ e− 2 dt. 2π −∞ Proposition : ∀x ∈ R, Φ(−x) = 1 − Φ(x). Idée de la démonstration : La fonction c : x 7→ Φ(−x) + Φ(x) est dérivable sur R, c0 (x) = −ϕ(−x) + ϕ(x) = 0 car ϕ est paire ; donc c est constante, égale à lim c(x) = 1 − 0 = 1 x→+∞ (propriétés de la fonction de répartition Φ), d’où le résultat. Table de la fonction de répartition de la loi normale réduite : Il découle de cette formule qu’il suffit de connaı̂tre les valeurs de Φ(x) pour x > 0. © k ª Pour cela, on dispose d’une table donnant, pour x ∈ 100 /0 6 k 6 400 , une valeur approchée de Φ(x), ce qui suffit, car, pour x > 4, Φ(x) ' 1 à 10−4 près. Cette table permet, si X ,→ N (m, σ 2 ), d’obtenir une valeur approchée de P (a 6 X 6 b), car X −m suit la loi normale centrée réduite, donc : T = σ µ ¶ a−m X −m b−m a−m b−m P a 6 X 6 b) = P ( 6 6 = Φ( ) − Φ( ) σ σ σ σ σ et ce calcul s’adapte facilement si a = −∞ ou b = +∞. d)Espérance t2 1 t2 Si T ,→ N (0, 1), la fonction t 7→ ϕ(t) = √ te− 2 admet une primitive t 7→ − √12π e− 2 ayant des 2π Z +∞ limites finies (nulles) en −∞ et +∞. Donc l’intégrale tϕ(t) dt est convergente. E(T ) existe −∞ Z +∞ t2 1 h − t2 i+∞ 1 donc E(T ) = 0. donc et E(T ) = √ te− 2 dt = √ −e 2 −∞ 2π −∞ 2π X −m Si X ,→ N (m, σ 2 ), on sait que T = ,→ N (0, 1) et que E(X) = σE(T ) + m donc: σ E(X) = m e)Variance 1 Si T ,→ N (0, 1), E(T ) = √ Z2π Z 2 x Pour x > 0, pratiquons sur +∞ t2 t2 e− 2 dt si cette intégrale est convergente. −∞ 2 2 − t2 t e dt une intégration par parties, avec u(t) = t et v 0 (t) = te −t2 2 0 (u et v sont de classe C 1 sur [0, x]. Z x Z x Z +∞ 2 2 2 t2 2 − t2 − x2 − t2 t e dt = −xe + e dt donc t2 e− 2 dt est convergente et vaut 0 + 0 0 Z0 +∞ t2 e− 2 dt. 0 Z +∞ 2 t2 2 − t2 t2 e− 2 dt est également convergente, donc E(T 2 ) existe et étant paire, t 7→ t e −∞ Z +∞ Z +∞ Z +∞ 2 t2 t2 1 1 1 2 − 2 − t2 2 t e e e− 2 dt = 1 d’où V (T ) = 1. E(T ) = √ 2 dt = √ 2 dt = √ 2π 0 2π 0 2π −∞ X−m 2 Si X ,→ N (m, σ ), on sait que T = σ ,→ N (0, 1) et que V (X) = σ 2 V (T ) donc : V (X) = σ 2 f )Stabilité par la somme Théorème : Si X et Y sont indépendantes et suivent respectivement les lois N (m1 , σ12 ) et N (m2 , σ22 ), alors X + Y ,→ N (m1 + m2 , σ12 + σ22 ) 10 Remarque : il suffit de retenir que X + Y suit une loi normale, puis d’utiliser E(X + Y ) = E(X) + E(Y ) et V (X + Y ) = V (X) + V (Y ) pour retrouver les paramètres de cette loi. Idée de la démonstration : • Pour alléger le calcul, on fait d’abord la démonstration pour les variables centrées X 0 et Y 0 associées à X et Y . Soient donc X 0 = X − m1 et Y 0 = Y − m2 . X 0 ,→ N (0, σ12 ) et Y 0 ,→ N (0, σ22 ). X 0 et Y 0 sont indépendantes, donc X 0 + Y 0 admet pour densité h définie par : Z +∞ h(x) = 1 √ − e t2 2σ 2 1 × 1 √ e − (x−t)2 2σ 2 2 1 dt = 2πσ1 σ2 Z +∞ 1 e− 2 H(x,t) dt σ1 2π σ2 2π −∞ 2 2 p (x − t) t . Il est temps de poser σ = Où l’on a posé : H(x, t) = 2 + σ12 + σ22 2 σ σ 1 2 ¶ µ ¶ µ 1 x2 σ2 σ12 x2 xt σ12 1 2 2 + 2 t − 2 2 + 2 = 2 2 t − 2x 2 t + 2 H(x, t) = σ12 σ2 σ2 σ2 σ1 σ2 σ σ On va mettre ce trinôme sous forme canonique, pour faire apparaı̂tre une densité de probabilité de loi normale : σ22 ³ ´2 ³ ´2 2 z }| { σ1 σ12 µ ¶ 2 2 2 2 2 2 4 2 t − x 2 t − x 2 2 ¡ σ σ σ ¢2 σ x σ x x (σ − σ1 ) x2 σ H(x, t) = 2 2 t − x 12 + 1 2 − 1 4 = + = + 2 2 2 2 σ1 σ2 σ1 σ2 σ1 σ2 σ σ σ σ 2 σ22 σ2 σ2 σ2 donc −∞ − h(x) = x2 2σ 2 e 2πσ1 σ2 Z ³ +∞ −∞ σ2 x σ12 t− exp − σ2 σ2 2 σ1 2 2 ´2 − x2 2σ 2 e dt = √ σ 2π Z ³ +∞ −∞ 1 √ σ σ1 σ 2 σ2 x σ12 t− exp − σ2 σ2 2π 2 σ1 2 2 ´2 dt x2 e− 2σ2 La dernière intégrale est celle d’une fonction de densité d’une variable normale, donc h(x) = √ σ 2π et X 0 + Y 0 ,→ N (0, σ 2 ), ce qui établit le théorème dans ce cas particulier. • Deuxième étape : On revient à la somme X + Y . X + Y = (X 0 + Y 0 ) + (m1 + m2 ) est une fonction affine d’une variable normale, donc : X + Y ,→ N (m1 + m2 , σ 2 ) = N (m1 + m2 , σ12 + σ22 ), ce qui achève la preuve du théorème. Généralisation : Il est facile de démontrer par récurrence que : Si X1 , . . . , Xn sont des variables aléatoires sur (Ω, B, P ), indépendantes, suivant respectivement les lois N (m1 , σ12 ), . . . , N (mn , σn2 ), alors X1 + · · · + Xn ,→ N (m1 + · · · + mn , σ12 + · · · + σn2 ). 11