Probabilités Chapitre 6 : Loi normale ou loi de Laplace-Gauss ........................................................................................ 1 Section 1 : Définition. ................................................................................................................................... 1 Section 2 : Représentation graphique. ....................................................................................................... 1 Section 3 : Fonction de répartition. ............................................................................................................. 2 Section 4 : Définitions .................................................................................................................................. 2 A- Espérance - Variance .......................................................................................................................... 2 B- Variable aléatoire centrée réduite .................................................................................................... 2 C- Somme de variables aléatoires. ........................................................................................................ 3 Section 5 : Calcul de probabilités pour N(0, 1). ........................................................................................ 3 A- Utilisation de la table ......................................................................................................................... 3 B- Utilisation de la table 2. ..................................................................................................................... 4 Section 6 : Calculs de probabilité pour une loi N (m, ) ....................................................................... 4 Chapitre 7 : Condition d’application de la loi normale................................................................................ 5 Section 1 : Théorème central limite. ........................................................................................................... 6 Section 2 : Approximation d’une loi binomiale. ...................................................................................... 6 Section 3 : Approximation d’une loi de Poisson. ..................................................................................... 7 Chapitre 8 : Couples de variables aléatoires discrètes. ................................................................................ 7 Section 1 : Couples de variables aléatoires discrètes. ............................................................................. 7 Section 2 : Lois marginales ........................................................................................................................... 8 Section 3 : Fonction de répartition. ............................................................................................................. 8 A- Fonction de répartition du couple. .................................................................................................. 8 B- Fonction de répartition marginale. .................................................................................................. 9 Section 4 : Loi de probabilité conditionnelle. .......................................................................................... 9 Section 5 : Indépendance de deux variables. .......................................................................................... 10 Section 6 : Espérance conditionnelle ........................................................................................................ 11 Section 7 : Variance conditionnelle. ......................................................................................................... 12 Chapitre 6 : Loi normale ou loi de Laplace-Gauss Section 1 : Définition. La variable aléatoire absolument continue X suit une loi normale (ou loi de Laplace-Gauss) si X prend ses valeurs dans R si elle admet pour densité de probabilité : 1 x m 1 f( x) e 2 2 2 On dit que X est une variable aléatoire normale (ou gaussienne) de paramètres m, X ~ N(m, ) On admettra que f( t )dt 1 Section 2 : Représentation graphique. La fonction présente un maximum en x = m. Elle est croissante de à m, et décroissante de m à . La fonction présente deux points d’inflexion : m - et m + . Soit x R, 2m – x R 1 2 m x m 1 f (2m – x) = e 2 2 1 m x 1 f (2m – x) = e 2 2 2 2 f (2m – x) = f (x) Section 3 : Fonction de répartition. Par définition. F (x) = x f( t )dt 1 t m 1 F (x) = e 2 2 x 2 dt F’ (x) = f (x) f > 0 donc F’ > 0 croissante. F’’(x) = f’(x) F’’(m) = 0 F’’ change de signe en m x = m est un point d’inflexion de F. Cf est symétrique par rapport à x = m. f( t )dt 1 m 2 f( t )dt 1 m f( t )dt 0 ,5 F(m ) 1 2 Section 4 : Définitions A- Espérance - Variance X ~ N(m, ) E(X) = m V(X) = ² B- Variable aléatoire centrée réduite Soit X une variable aléatoire. Définition : La variable aléatoire X E( X ) est la variable aléatoire centrée réduite associée à X. Propriété : La variable aléatoire centrée réduite associée à X a une espérance nulle et une variance égale à 1. E V X E( X ) X E( X ) 1 E( X E( X )) 1 [E( X ) E( X )] 0 1 1 V( X ) ² 1 ² ² Propriété : Soit X ~ N(m, ) Alors Xm ~ N( 0 ,1 ) . x² La loi N (0, 1) est la loi normale centrée réduite de densité f(x) = Soit X1 1 2 e 2 C- Somme de variables aléatoires. ~ N(m 1 , 1 ) et X 2 ~ N(m 2 , 2 ) X1 et X2 indépendantes. X 1 X 2 ~ N(m 1 m 2 , 1 ² 2 ² ) Soit X i ~ N(m1 , 2 ) pour i = 1, …, n Xi indépendantes. n mi , i 1 n i 1 i ² Section 5 : Calcul de probabilités pour N(0, 1). x² Soit U ~ N(0, 1) de densité f (x) = Table 1 : p (U < u) connaissant u on lit les probabilités. Table 2 : On connaît la probabilité, on lit les fractiles. A- Utilisation de la table On lit (u) p(U u) connaissant u. Exemple 1 : U ~ N(0, 1) p (U < 0,27) = 0,6064 p (U < 1,74) = 0,9591 p (U > 1,21) = 0,1131 Propriété 1 : U ~ N(0, 1) p (U > u) = 1 – p (U < u) = 1 - (u) Exemple : p (U < - 0,38) = p (U > 0,38) = 1 – p (U < 0,38) = 1 – 0,648 = 0,352. Propriété 2 : Soit U ~ N(0, 1) P (U < - u) = 1 – p (U < u) = 1 Propriété 3 : Soit U ~ N(0, 1) ( u ) 0 ,5 u 0 ( u ) 0 ,5 u 0 t² x 1 2 1 2 e de fonction de répartition ( x) e 2 2 (u) Propriété 4 : U ~ N (0, 1) pu 1 U u 2 (u 2 ) (u 1 ) Exemple : p ( - 0,2 < u < 1,07) = p ( -1 < u < 1) = (1,07) - (- 0,2) = (1,07) – 1 + (0,2) = 0,8577 – 1 + 0,5793 = 0,437 (1) - (-1) = (1) – 1 + (-1) = 2 (1) – 1 = 0,6826 Propriété 5 : Soit U ~ N(0, 1) p ( U < u) = 2 (u) – 1 U > u) = 2 - 2 (u) p ( U > 0) = 1 – p ( U < u) = 1 – (2 (u) – 1) = 2 - 2 (u). p( Exemple : P (U < 1,646) (1,64) = 0,9495 et (1,65) = 0,9505 (1,646) = 0,9501 p (U < 1,646) = 0,9501. B- Utilisation de la table 2. Définition : On appelle fractile d’ordre ( [0 ; 1]) pour une fonction de répartition F, la valeur . P (U < U ) = . Exemples : U ~ N (0, 1) Déterminer u / p (U < u) = 0,975 U = 1,96 Déterminer u / p (U < u) = 0,2. 0,2 < 0,5 u < 0. On lit 0,8416. u = - 0,8416. Déterminer u / p (U > u) = 0,05 u / p (U < u) = 0,95 u = 1,6449. Déterminer u / p (-1,16 < U < u) = 0,5. (-1,16) = 0,123. (u) = 0,623 U = 0,3134. Section 6 : Calculs de probabilité pour une loi N (m, ) X ~ N (m, ) alors Xm ~ N (0, 1) Exemples de calcul de probabilité : 1) X ~ N (3, 2) p (X < 6,24) 1ère étape : Se ramener à une loi centrée réduite. X 3 6 ,24 3 =p 2 2 P (X < 6,24) = p X3 1,62 . 2 U / F ( U ) = On pose U = X3 U ~ N (0, 1). 2 2ème étape : On fait le calcul avec U. p (U < 1,62) = 0,9474 3ème étape : Conclusion p (X < 6,24) = 0,9474. 2) X ~ N (-4, 5) p (X < 1,65) X 4 1,65 4 5 5 p (X < 1,65) = p p (U < 1,13) = 0,8709 p (X < 1,65) = 0,8709. 3) X ~ N (-2, 4) p (X > 4,94) X 2 4 ,94 2 4 4 p (X > 4,94) = p p (U > 1,735) = 1 – 0,9587 = 0,0413 p (X > 4,94) = 0,0413 4) X ~ N (-3, 4) p (-5 < X < -1) 5 3 X 3 1 3 4 4 4 p (-5 < X < -1) = p p (-0,5 < U) = 0,3085 P (U < 0,5) = 0,6905 P (-5 < X < -1) = 0,6905 – 0,3085 = 0,383 1) Soit X ~ N (2, 0,5) Déterminer x / p (X < x) = 0,675 p X2 x2 = 0,675 0 ,5 0 ,5 p (2X – 4 < 2x – 4) = 0,675 2x – 4 = 0,4538 2x = 4,4538 x = 2,2269 2) Soit X ~ N (1, 3) Déterminer x / p (X < x) = 0,294. X = - 0,5417 * 3 + 1 = - 0,6251 3) Soit X ~ N (-3, 1) Déterminer x / p (- 4,53 < X < x) = 0,687 4 ,53 3 X 3 x 3 = 0,687 1 1 1 P P ( - 1,53 < U < x + 3 ) = 0,687 ( - 1,53) = 0,063 ( x + 3 ) = 0,75 x + 3 = 0,6745 x = - 2,3255 Chapitre 7 : Condition d’application de la loi normale. Section 1 : Théorème central limite. Soient n variables indépendantes Xi, i = 1, …, n de même loi, de même espérance E (X) = m et de même écart-type . Alors quand n n Xi converge en loi vers une loi normale N (n*m ; n ) i 1 Xi m converge en loi normale N (0, i 1 n x) Section 2 : Approximation d’une loi binomiale. Xi variable aléatoire de Bernoulli de pas p. X1, …, Xn (1, 0, 0, 1) n Xi E (Xi) = p (xi) = p(1 p) i 1 n X= Xi ~ N (np, np(1 p) i 1 Théorème : Soit X ~ B (n, p) Pour les grandes valeurs de n, on peut approcher la loi de X par une loi N (np, X np np(1 p) ~ N (0, 1) En pratique : Si np (1-p) > 18, on fera l’approximation. Si n > 30 p [0,1 ; 0,9] on fera l’approximation. X ~ B (100 ; 0,4) np (1 – p) = 100 * 0,4 * 0 ,6 = 24 > 18. On peut approcher la loi de X par la loi normale N (40 ; 2 6) Y ~ N (40 ; 2 6 ) Correction de continuité. Proposition : Soit X une variable aléatoire discrète. E (X) = m (x) = ² et x ( ) N Que l’on approche par une variable aléatoire continue Y ~ N (m, 1 1 Y k ) p ( X = k) p ( k 2 2 1 p ( X < k) p ( Y k ) 2 1 p ( X k) p ( Y k ) 2 1 1 Y k2 ) p (k1 X k2 ) p (k1 2 2 Exemple : X ~ B (160 ; 0,25) np (1 – p) = 160 * 0,25 * 0,75 = 30 > 18 ) alors np(1 p) ) On peut donc approcher la loi de X par une loi normale N (40 ; 34 ,5 40 x 40 50 ,5 40 ) 30 30 30 5 ,5 10 ,5 = 0,1587 = 0,9726 30 30 p (35 X 50) 0,8139 30 ). P (35 < x < 50) = p ( Exemple : X ~ B (200 ; 0,12) np (1 – p) = 200 * 0,12 * 0,88 = 21,12 > 18. On peut donc approcher la loi de X par une loi normale N (24 ; E (X) = 200 * 0,12 = 0,24 V (X) = ( x)² = np (1 – p) = 24 * 0,88 = 21,12 21,12 ) X 24 19,5 24 4 ,5 21,12 21,12 = 1 – p Y 21,12 = 1 - (- 0,979) 5 ,5 = (Y 1,197) P (X < 30) = p Y 21 , 12 P (X > 20) = p P ( 20 < X < 30 ) = P (X < 30) – P (X > 20) = 0,7572 Section 3 : Approximation d’une loi de Poisson. Proposition : Soit X une variable aléatoire X ~ P (m) Pour les grandes valeurs de m, on peut approcher la loi de Poisson de X par une loi N (m, m ). Cependant, il faut faire une correction de continuité (on approche une variable aléatoire discrète par une variable aléatoire continue). Chapitre 8 : Couples de variables aléatoires discrètes. Section 1 : Couples de variables aléatoires discrètes. Un couple de variables aléatoires discrètes (X, Y) est composé de deux variables aléatoires : X et Y. X ( ) = {x1, x2, …, xn } Y ( ) = {y1, y2, …, yn} Définition : La loi de probabilité conjointe d’un couple aléatoire (X, Y) est définie par : - Les valeurs possibles de (X, Y) { (xi, yj) ; i = 1, …, n ; j = 1, …, n } - Les probabilités correspondantes p ( (X, Y) = (xi, yj)) = p ( (X = xi) (Y = yj)) = p (X = xi, Y = yj) = pij X Y x1 x2 xi xn Théorème : y1 p11 p21 pi1 pn1 y2 p12 p22 pi2 pn2 yj p1j p2j pij pnj yp p1p p2p pip pnp n n n n p ij p ij 1 i1 j1 i1 j1 Section 2 : Lois marginales Les variables aléatoires X et Y sont appelées variables aléatoires marginales. Les lois marginales sont les lois de chacun des éléments du couple pris séparément. Définition : Si on donne la loi conjointe, on peut définir les lois marginales. Si on donne la loi conjointe du couple (X, Y), on peut définir la loi de probabilité de X et celle de Y. On parle des lois marginales. Pour X : n P (X = xi) = p (X = xi ; Y = yj) = Pi 1 + Pi2 + … + Pij = Pi. j 1 Pour Y : n P (Y = yj) = p (X = xi ; Y = yj) = P j + P j + … + Pnj = P.j 1 2 i1 pi = 1 n ( n p p i. p ij 1 ) i 1 i 1 j 1 Exemple 1 : P (X, Y) = (2, 9) p ((X = 2) (Y = 9) = p (X = 2 ; Y = 9) = p22 = 0,12 Loi marginale de X : X 1 p 0,32 2 0,42 3 0,26 Loi marginale de Y : Y 5 P 0,12 9 0,26 12 0,46 Section 3 : Fonction de répartition. A- Fonction de répartition du couple. La fonction de répartition du couple (X, Y) est définie par Fx,y (x, y) = p ((X < x) (Y < y) Propriété : Fx,y (x, y) = p ij i / xi x j / y j y Exemple 2 : Loi marginale de X : X 1 p 0,5 Loi marginale de X : 2 0,2 3 0,3 21 0,16 X p 0 0,3 1 0,2 2 0,3 3 0,2 Fx,y (1, 0) = 0 Fx,y (1, 2) = 0 Fx,y (1, k) = 0 Fx,y (k, 0) = 0 Fx,y (3, 2) = 0,4 Fx (3) = 0,7 Fx,y (1, 1) = 0 Fx,y (1, 3) = 0 B- Fonction de répartition marginale. Si on connaît la loi marginale, on connaît la fonction de répartition marginale. Si on connaît la fonction de répartition du couple. Fx (X) = lim Fx,y (x,y) FY (y) = lim FX,Y (x, y) y x Section 4 : Loi de probabilité conditionnelle. Définition : On appelle variable aléatoire conditionnelle X sachant Y = yj, la variable aléatoire notée X La loi conditionnelle de X Y = yj. Y = yj est définie par l’ensemble des valeurs {x1, …, xn} et les probabilités X x i associées p . Y y j X x i p( X x i Y y j ) p i. P Y y j = p( Y y j ) p. j Propriété : n p X x i Y y j = 1 y j i 1 p Y yj p j 1 X x i = 1 x i Exemple 3 : X 1 Y 1 00,,22 1 p X 1 Y 2 = 0 p X 1 Y 3 = 0 p Loi conditionnelle de X X Y p Y =1 1 2 3 1 0 0 Loi conditionnelle de Y X =1 Y X p 0 1 2 3 0,2 0,4 0,2 0,2 0 1 2 3 0,5 0 0 0,5 1 2 3 Loi conditionnelle de Y Y X p Loi conditionnelle de Y Y X p X =2 X =3 0 1 0 3 2 3 0 Section 5 : Indépendance de deux variables. Deux évènements sont indépendants quand la réalisation de l’un n’intervient pas sur la réalisation de l’autre. Deux variables aléatoires discrètes X et Y sont indépendantes en probabilités ou stochastiquement indépendantes si l’une des propriétés équivalentes ci-dessous est respectée. X xi p = p (X = xi) i = 1, …, n j = 1, …, p Y y j Y yj p = p (Y = yj) i = 1, …, n j = 1, …, p X x i p (X = xi , Y = yj) = p (X = xi) p (Y = yj) i = 1, …, n j = 1, …, p Exemple 4 : Une urne contient trois boules blanches et sept boules rouges. On tire une boule au hasard. Soit X une variable aléatoire X 0 si B 1 si R Si on tire la boule blanche, on la remet dans l’urne avec dix autres boules blanches. Si on tire la boule rouge, on la remet dans l’urne avec dix autres boules rouges. Alors on tire une boule Soit Y une variable aléatoire Y 0 si B 1 si R Loi conjointe de (X, Y) ? Lois marginales ? X et Y indépendantes en probabilités. p (X = 0) = 0,3 p (X = 1) = 0,7 X 0 = 0,65 p Y 1 X 0 = 0,35 Y1 p Y 0 X 1 = 0,85 p X 1 = 0,15 p (X = 0 ; Y = 0) = p Y 0 X 0 p (X = 0) = 0,65 * 0,3 = 0,195 p (X = 0 ; Y = 1) = p Y 1 X 0 p (X = 0) = 0,35 * 0,3 = 0,105 p (X = 1 ; Y = 0) = p Y 0 X 1 p (X = 1) = 0,15 * 0,7 = 0,105 p Y0 p (X = 1 ; Y = 1) = p Y 1 X 1 p (X = 1) = 0,85 * 0,7 = 0,595 X Y 0 0,195 0,105 0,3 0 1 1 0,105 0,595 0,7 0,3 0,7 1 Ce tableau donne la loi conjointe de (X, Y). p (X = 0 ; Y = 0) = 0,195 p (X = 0) p (Y = 0) = 0,09 p (X = 0 ; Y =0) p (X = 0) p (Y = 0) X et Y ne sont pas indépendantes. Exemple 5 : P (X = 2 ; Y = 2) = 0 p( X 2 ) 0 ,35 p (X = 2) p (Y = 2) 0 p( Y 2 ) 0 ,22 Ainsi X et Y ne sont pas indépendantes. Remarques : X et Y sont indépendantes X xi p = p (X = xi) ij Y y j La loi conditionnelle est la loi marginale. Quand X et Y sont indépendantes, on peut retrouver la loi conjointe connaissant les lois marginales. P (X = xi, Y = yj) = p (X = xi) p (Y = yj) i , j Section 6 : Espérance conditionnelle Définition : On appelle espérance conditionnelle de X sachant Y = yj la quantité E (X/Y = yj) = p X xi Y y j xi Sur l’exemple 2 : E (Y/X = 1) = 0 * 0,2 + 1 * 0,4 + 2 * 0,2 + 3 * 0,2 = 0,4 + 0,4 + 0,6 = 1,4 E (Y/X = 2) = 0 * 0,5 + 1 * 0 + 2 * 0 + 3 * 0,5 = 1,5 E (Y/X = 3) = 0 * 1/3 + 1 * 0 + 2 * 2/3 + 3 * 0 = 4/3 Théorème de l’espérance conditionnelle : p E (X) = E X Y y j p (Y = yj) j1 E (Y) = E Y E (Y) = 1,4 * 0,5 + 1,5 * 0,2 + 4/3 * 0,3 = 1,4 Preuve : Y Y X 1 p (X = 1) + E X 2 p (X = 2) + E X 3 p (X = 3) p p E X Y y j p j1 p (Y = yj) = x i p X x i Y y j p (Y = yj) = j1 i 1 n n i 1 n j 1 i 1 n p x i p X x i Y y j p (Y p n x i p X x i ; Y y j j 1 i 1 = yj) = x i p ij = p = n j1 i 1 x i p ij = x i p i = xi = E (X) j1 i 1 Exemple 6 : X Y=0 p X Y=1 p 0 1 2 0,2 0,4 0,4 0 1 2 0,6 0,2 0,2 E (X) = (0,4 + 0,8) * 0,5 + (0,2 + 0,4) * 0,5 = 0,6 + 0,3 = 0,9 Section 7 : Variance conditionnelle. Ici la variable est la variable conditionnelle de X sachant Y = yj la variance de la variable aléatoire conditionnelle X V (X Y = yj soit : n Y = yj) = x i ²p X x i Y y j E X Y y j i 1 2 Dans l’exemple 6 : (1² * 0,4 + 2² * 0,4) * 0,5 + (1² * 0,2 + 2² * 0,2) * 0,5 – 0,9² = (0,4 + 1,6) * 0,5 + (0,2 + 0,8) * 0,5 – 0,9² = 0,69 Equation de l’analyse de la variance : V (X) = Vinter (X) + Vintra (X) 2 Vinter (X) = E X Y y j p (Y = yj) – E (X)² p Vintra (X) = V X Y y j p (Y = yj) i 1 Dans l’exemple 6 : Y 0 p (Y = 0) + E X Y 1 p (Y = 1) – E (X)² = 0,09 X (X) = V X Y 0 p (Y = 0) + V Y 1 p (Y = 1) = 0,6 Vinter (X) = E X Vintra V (X) = 0,69 Preuve : 2 2 n V (X) = x i ²p(X x i ) E(X)² = i 1 p p n x i2 p(X x i ; Y y j ) E(X)² n p i 1 j1 xi ² (X xi ; Y y j ) E(X)² x i2 p X x i Y y j p(Y y j ) E(X)² = j 1 i 1 p n n = = j 1 i 1 x i2 p X x i Y yj p (Y = yj) – E (X)² j 1 i 1 X xi - E Y y j V X Y y j = 2 x1² p X Yy j 2 p V (X) = V X Y y j E X Y y j p (Y = yj) – E (X)² = j 1 2 X Y y p (Y = yj) – E (X)² = j p V X Y y j p (Y = yj) + j1 p p V X Y y j p (Y = yj) + E j1 2 E X Y y j p (Y = yj) – E (X) ² j 1