Probabilités - 2eme année d`économie et de gestion

publicité
Probabilités
Chapitre 6 : Loi normale ou loi de Laplace-Gauss ........................................................................................ 1
Section 1 : Définition. ................................................................................................................................... 1
Section 2 : Représentation graphique. ....................................................................................................... 1
Section 3 : Fonction de répartition. ............................................................................................................. 2
Section 4 : Définitions .................................................................................................................................. 2
A- Espérance - Variance .......................................................................................................................... 2
B- Variable aléatoire centrée réduite .................................................................................................... 2
C- Somme de variables aléatoires. ........................................................................................................ 3
Section 5 : Calcul de probabilités pour N(0, 1). ........................................................................................ 3
A- Utilisation de la table ......................................................................................................................... 3
B- Utilisation de la table 2. ..................................................................................................................... 4
Section 6 : Calculs de probabilité pour une loi N (m,  ) ....................................................................... 4
Chapitre 7 : Condition d’application de la loi normale................................................................................ 5
Section 1 : Théorème central limite. ........................................................................................................... 6
Section 2 : Approximation d’une loi binomiale. ...................................................................................... 6
Section 3 : Approximation d’une loi de Poisson. ..................................................................................... 7
Chapitre 8 : Couples de variables aléatoires discrètes. ................................................................................ 7
Section 1 : Couples de variables aléatoires discrètes. ............................................................................. 7
Section 2 : Lois marginales ........................................................................................................................... 8
Section 3 : Fonction de répartition. ............................................................................................................. 8
A- Fonction de répartition du couple. .................................................................................................. 8
B- Fonction de répartition marginale. .................................................................................................. 9
Section 4 : Loi de probabilité conditionnelle. .......................................................................................... 9
Section 5 : Indépendance de deux variables. .......................................................................................... 10
Section 6 : Espérance conditionnelle ........................................................................................................ 11
Section 7 : Variance conditionnelle. ......................................................................................................... 12
Chapitre 6 : Loi normale ou loi de Laplace-Gauss
Section 1 : Définition.
La variable aléatoire absolument continue X suit une loi normale (ou loi de Laplace-Gauss) si
X prend ses valeurs dans R si elle admet pour densité de probabilité :
1  x m 

 
 
1
f( x) 
e 2
 2
2
On dit que X est une variable aléatoire normale (ou gaussienne) de paramètres m,
X ~ N(m, )
On admettra que



f( t )dt  1
Section 2 : Représentation graphique.
La fonction présente un maximum en x = m.
Elle est croissante de   à m, et décroissante de m à   .
La fonction présente deux points d’inflexion : m -  et m +  .
Soit x  R, 2m – x  R

1  2 m  x m 



 
1
f (2m – x) =
e 2
 2
1  m x 

 
 
1
f (2m – x) =
e 2
 2
2
2
f (2m – x) = f (x)
Section 3 : Fonction de répartition.
Par définition.
F (x) =

x

f( t )dt
1  t m 

 
 
1
F (x) = 
e 2
  2
x
2
dt
F’ (x) = f (x)
f > 0 donc F’ > 0 croissante.
F’’(x) = f’(x)
F’’(m) = 0 F’’ change de signe en m
x = m est un point d’inflexion de F.
Cf est symétrique par rapport à x = m.



f( t )dt  1
m
2  f( t )dt  1 


m

f( t )dt  0 ,5  F(m ) 
1
2
Section 4 : Définitions
A- Espérance - Variance
X ~ N(m, )
E(X) = m
V(X) =  ²
B- Variable aléatoire centrée réduite
Soit X une variable aléatoire.
Définition :
La variable aléatoire
X  E( X )

est la variable aléatoire centrée réduite associée à X.
Propriété :
La variable aléatoire centrée réduite associée à X a une espérance nulle et une variance égale à 1.
E
V
X  E( X )

X  E( X )



1

E( X  E( X )) 
1

[E( X )  E( X )]  0
1
1
V( X ) 
²  1
²
²
Propriété :
Soit X ~ N(m,  )
Alors
Xm

~ N( 0 ,1 ) .
x²
La loi N (0, 1) est la loi normale centrée réduite de densité f(x) =
Soit
X1
1 2
e
2
C- Somme de variables aléatoires.
~ N(m 1 , 1 ) et X 2 ~ N(m 2 , 2 )
X1 et X2 indépendantes.
X 1  X 2 ~ N(m 1  m 2 ,  1 ²   2 ² )
Soit
X i ~ N(m1 , 2 ) pour i = 1, …, n
Xi indépendantes.
n
mi ,
i 1
n

i 1
i
²
Section 5 : Calcul de probabilités pour N(0, 1).
x²
Soit U ~ N(0, 1) de densité f (x) =
Table 1 :
p (U < u) connaissant u on lit les probabilités.
Table 2 :
On connaît la probabilité, on lit les fractiles.
A- Utilisation de la table
On lit (u)  p(U  u) connaissant u.
Exemple 1 :
U ~ N(0, 1)
p (U < 0,27) = 0,6064
p (U < 1,74) = 0,9591
p (U > 1,21) = 0,1131
Propriété 1 :
U ~ N(0, 1)
p (U > u) = 1 – p (U < u) = 1 -
 (u)
Exemple :
p (U < - 0,38) = p (U > 0,38) = 1 – p (U < 0,38) = 1 – 0,648 = 0,352.
Propriété 2 :
Soit U ~ N(0, 1)
P (U < - u) = 1 – p (U < u) = 1 Propriété 3 :
Soit U ~ N(0, 1)
 ( u )  0 ,5  u  0
 ( u )  0 ,5  u  0
t²
x
1 2
1 2
e de fonction de répartition  ( x)  
e

2
2
 (u)
Propriété 4 :
U ~ N (0, 1)
pu 1  U  u 2   (u 2 )  (u 1 )
Exemple :
p ( - 0,2 < u < 1,07) =
p ( -1 < u < 1) =
 (1,07) -  (- 0,2) =  (1,07) – 1 +  (0,2) = 0,8577 – 1 + 0,5793 = 0,437
 (1) -  (-1) =  (1) – 1 +  (-1) = 2  (1) – 1 = 0,6826
Propriété 5 :
Soit U ~ N(0, 1)
p ( U < u) = 2  (u) – 1
U > u) = 2 - 2  (u)
p ( U > 0) = 1 – p ( U < u) = 1 – (2  (u) – 1) = 2 - 2  (u).
p(
Exemple :
P (U < 1,646)
 (1,64) = 0,9495 et
 (1,65) = 0,9505
 (1,646) = 0,9501
p (U < 1,646) = 0,9501.
B- Utilisation de la table 2.
Définition :
On appelle fractile d’ordre  (  [0 ; 1]) pour une fonction de répartition F, la valeur
 . P (U < U ) =  .
Exemples :
U ~ N (0, 1)
Déterminer u / p (U < u) = 0,975
 U = 1,96
Déterminer u / p (U < u) = 0,2.
0,2 < 0,5  u < 0.
On lit 0,8416.
u = - 0,8416.
Déterminer u / p (U > u) = 0,05
 u / p (U < u) = 0,95  u = 1,6449.
Déterminer u / p (-1,16 < U < u) = 0,5.
 (-1,16) = 0,123.   (u) = 0,623  U = 0,3134.
Section 6 : Calculs de probabilité pour une loi N (m,  )
X ~ N (m,
 ) alors
Xm

~ N (0, 1)
Exemples de calcul de probabilité :
1) X ~ N (3, 2) p (X < 6,24)
1ère étape : Se ramener à une loi centrée réduite.
 X  3 6 ,24  3 

 =p
2
 2

P (X < 6,24) = p 
X3

 1,62  .

 2

U / F ( U ) =
On pose U =
X3
U ~ N (0, 1).
2
2ème étape : On fait le calcul avec U. p (U < 1,62) = 0,9474
3ème étape : Conclusion p (X < 6,24) = 0,9474.
2) X ~ N (-4, 5) p (X < 1,65)
 X  4 1,65  4 


5
 5

p (X < 1,65) = p 
p (U < 1,13) = 0,8709
p (X < 1,65) = 0,8709.
3) X ~ N (-2, 4) p (X > 4,94)
 X  2 4 ,94  2 


4
 4

p (X > 4,94) = p 
p (U > 1,735) = 1 – 0,9587 = 0,0413
p (X > 4,94) = 0,0413
4) X ~ N (-3, 4) p (-5 < X < -1)
 5 3 X  3 1 3



4
4 
 4
p (-5 < X < -1) = p 
p (-0,5 < U) = 0,3085
P (U < 0,5) = 0,6905
P (-5 < X < -1) = 0,6905 – 0,3085 = 0,383
1) Soit X ~ N (2, 0,5)
Déterminer x / p (X < x) = 0,675
p
X2 x2


 = 0,675
0 ,5 
 0 ,5
p (2X – 4 < 2x – 4) = 0,675
2x – 4 = 0,4538
2x = 4,4538
x = 2,2269
2) Soit X ~ N (1, 3)
Déterminer x / p (X < x) = 0,294.
X = - 0,5417 * 3 + 1 = - 0,6251
3) Soit X ~ N (-3, 1)
Déterminer x / p (- 4,53 < X < x) = 0,687
  4 ,53  3 X  3 x  3 


 = 0,687
1
1
1 

P
P ( - 1,53 < U < x + 3 ) = 0,687
 ( - 1,53) = 0,063
 ( x + 3 ) = 0,75
x + 3 = 0,6745
x = - 2,3255
Chapitre 7 : Condition d’application de la loi normale.
Section 1 : Théorème central limite.
Soient n variables indépendantes Xi, i = 1, …, n de même loi, de même espérance E (X) = m et de
même écart-type  .
Alors quand n  
n
 Xi converge en loi vers une loi normale N (n*m ;
n )
i 1
 Xi  m 
 converge en loi normale N (0,
 
i 1
n
 
x)
Section 2 : Approximation d’une loi binomiale.
Xi variable aléatoire de Bernoulli de pas p.
X1, …, Xn (1, 0, 0, 1)
n
 Xi
E (Xi) = p
 (xi) = p(1  p)
i 1
n
X=
 Xi ~ N (np,
np(1  p)
i 1
Théorème :
Soit X ~ B (n, p)
Pour les grandes valeurs de n, on peut approcher la loi de X par une loi N (np,
X  np
np(1  p)
~ N (0, 1)
En pratique :
Si np (1-p) > 18, on fera l’approximation.
Si n > 30 p  [0,1 ; 0,9] on fera l’approximation.
X ~ B (100 ; 0,4) np (1 – p) = 100 * 0,4 * 0 ,6 = 24 > 18.
On peut approcher la loi de X par la loi normale N (40 ; 2
6)
Y ~ N (40 ; 2 6 )
 Correction de continuité.
Proposition :
Soit X une variable aléatoire discrète.
E (X) = m  (x) =  ² et x (  )  N
Que l’on approche par une variable aléatoire continue Y ~ N (m,
1
1
Y k )
p ( X = k)  p ( k 2
2
1
p ( X < k)  p ( Y  k  )
2
1
p ( X  k)  p ( Y  k  )
2
1
1
 Y  k2  )
p (k1  X  k2 )  p (k1 2
2
Exemple :
X ~ B (160 ; 0,25)
np (1 – p) = 160 * 0,25 * 0,75 = 30 > 18
 ) alors
np(1  p) )
On peut donc approcher la loi de X par une loi normale N (40 ;
34 ,5  40 x  40 50 ,5  40


)
30
30
30
  5 ,5 
 10 ,5 


 = 0,1587
 = 0,9726
 30 
 30 
p (35  X  50)  0,8139
30 ).
P (35 < x < 50) = p (
Exemple :
X ~ B (200 ; 0,12)
np (1 – p) = 200 * 0,12 * 0,88 = 21,12 > 18.
On peut donc approcher la loi de X par une loi normale N (24 ;
E (X) = 200 * 0,12 = 0,24
V (X) = (  x)² = np (1 – p) = 24 * 0,88 = 21,12
21,12 )
 X  24 19,5  24 

 4 ,5 


 21,12  21,12  = 1 – p  Y  21,12  = 1 -  (- 0,979)





5 ,5 
 =  (Y  1,197)
P (X < 30) = p  Y 


21
,
12


P (X > 20) = p
P ( 20 < X < 30 ) = P (X < 30) – P (X > 20) = 0,7572
Section 3 : Approximation d’une loi de Poisson.
Proposition :
Soit X une variable aléatoire X ~ P (m)
Pour les grandes valeurs de m, on peut approcher la loi de Poisson de X par une loi N (m, m ).
Cependant, il faut faire une correction de continuité (on approche une variable aléatoire discrète par
une variable aléatoire continue).
Chapitre 8 : Couples de variables aléatoires discrètes.
Section 1 : Couples de variables aléatoires discrètes.
Un couple de variables aléatoires discrètes (X, Y) est composé de deux variables aléatoires : X et Y.
X (  ) = {x1, x2, …, xn }
Y (  ) = {y1, y2, …, yn}
Définition :
La loi de probabilité conjointe d’un couple aléatoire (X, Y) est définie par :
- Les valeurs possibles de (X, Y)
{ (xi, yj) ; i = 1, …, n ; j = 1, …, n }
- Les probabilités correspondantes
p ( (X, Y) = (xi, yj)) = p ( (X = xi)  (Y = yj)) = p (X = xi, Y = yj) = pij
X
Y
x1
x2
xi
xn
Théorème :
y1
p11
p21
pi1
pn1
y2
p12
p22
pi2
pn2
yj
p1j
p2j
pij
pnj
yp
p1p
p2p
pip
pnp
n
n
n
n
  p ij    p ij  1
i1 j1
i1 j1
Section 2 : Lois marginales
Les variables aléatoires X et Y sont appelées variables aléatoires marginales. Les lois marginales sont
les lois de chacun des éléments du couple pris séparément.
Définition :
Si on donne la loi conjointe, on peut définir les lois marginales. Si on donne la loi conjointe du couple
(X, Y), on peut définir la loi de probabilité de X et celle de Y. On parle des lois marginales.
Pour X :
n
P (X = xi) =
 p (X = xi ; Y = yj) = Pi
1
+ Pi2 + … + Pij = Pi.
j 1
Pour Y :
n
P (Y = yj) =
 p (X = xi ; Y = yj) = P j + P j + … + Pnj = P.j
1
2
i1
 pi = 1
n
(
n
p
 p i.   p ij  1 )
i 1
i 1 j 1
Exemple 1 :
P (X, Y) = (2, 9)
 p ((X = 2)  (Y = 9) = p (X = 2 ; Y = 9) = p22 = 0,12
Loi marginale de X :
X
1
p
0,32
2
0,42
3
0,26
Loi marginale de Y :
Y
5
P
0,12
9
0,26
12
0,46
Section 3 : Fonction de répartition.
A- Fonction de répartition du couple.
La fonction de répartition du couple (X, Y) est définie par
Fx,y (x, y) = p ((X < x)  (Y < y)
Propriété :
Fx,y (x, y) =
  p ij
i / xi x j / y j y
Exemple 2 :
Loi marginale de X :
X
1
p
0,5
Loi marginale de X :
2
0,2
3
0,3
21
0,16
X
p
0
0,3
1
0,2
2
0,3
3
0,2
Fx,y (1, 0) = 0
Fx,y (1, 2) = 0
Fx,y (1, k) = 0
Fx,y (k, 0) = 0
Fx,y (3, 2) = 0,4
Fx (3) = 0,7
Fx,y (1, 1) = 0
Fx,y (1, 3) = 0
B- Fonction de répartition marginale.
Si on connaît la loi marginale, on connaît la fonction de répartition marginale.
Si on connaît la fonction de répartition du couple.
Fx (X) = lim Fx,y (x,y) FY (y) = lim FX,Y (x, y)
y 
x  
Section 4 : Loi de probabilité conditionnelle.
Définition :
On appelle variable aléatoire conditionnelle X sachant Y = yj, la variable aléatoire notée X
La loi conditionnelle de X
Y = yj.
Y = yj est définie par l’ensemble des valeurs {x1, …, xn} et les probabilités
X  x i

associées p 
.
Y

y
j 

X  x i
 p( X  x i  Y  y j ) p i.
P

Y  y j  =
p( Y  y j )
p. j

Propriété :
n


 p X  x i Y  y j  = 1 y j
i 1
p
Y  yj
 p
j 1

X  x i  = 1 x i
Exemple 3 :
X  1 Y  1  00,,22  1
p X  1
Y  2 = 0
p X  1
Y  3 = 0
p
Loi conditionnelle de X
X
Y
p
Y =1
1
2
3
1
0
0
Loi conditionnelle de Y
X =1
Y
X
p
0
1
2
3
0,2
0,4
0,2
0,2
0
1
2
3
0,5
0
0
0,5
1
2
3
Loi conditionnelle de Y
Y
X
p
Loi conditionnelle de Y
Y
X
p
X =2
X =3
0
1
0
3
2
3
0
Section 5 : Indépendance de deux variables.
Deux évènements sont indépendants quand la réalisation de l’un n’intervient pas sur la réalisation de
l’autre. Deux variables aléatoires discrètes X et Y sont indépendantes en probabilités ou
stochastiquement indépendantes si l’une des propriétés équivalentes ci-dessous est respectée.
 X  xi

 p
 = p (X = xi) i = 1, …, n j = 1, …, p
Y

y
j

Y  yj

 p
 = p (Y = yj) i = 1, …, n j = 1, …, p
X

x
i

 p (X = xi , Y = yj) = p (X = xi) p (Y = yj) i = 1, …, n j = 1, …, p
Exemple 4 :
Une urne contient trois boules blanches et sept boules rouges.
On tire une boule au hasard.
Soit X une variable aléatoire X
0 si B
1 si R
Si on tire la boule blanche, on la remet dans l’urne avec dix autres boules blanches.
Si on tire la boule rouge, on la remet dans l’urne avec dix autres boules rouges.
Alors on tire une boule
Soit Y une variable aléatoire
Y
0 si B
1 si R
Loi conjointe de (X, Y) ?
Lois marginales ?
X et Y indépendantes en probabilités.
p (X = 0) = 0,3 p (X = 1) = 0,7
 X  0 = 0,65 p Y  1 X  0 = 0,35
Y1
p Y  0
X  1 = 0,85 p 
X  1 = 0,15
p (X = 0 ; Y = 0) = p Y  0
X  0  p (X = 0) = 0,65 * 0,3 = 0,195
p (X = 0 ; Y = 1) = p Y  1
X  0  p (X = 0) = 0,35 * 0,3 = 0,105
p (X = 1 ; Y = 0) = p Y  0
X  1 p (X = 1) = 0,15 * 0,7 = 0,105
p Y0

p (X = 1 ; Y = 1) = p Y  1

X  1 p (X = 1) = 0,85 * 0,7 = 0,595
X
Y
0
0,195
0,105
0,3
0
1
1
0,105
0,595
0,7
0,3
0,7
1
Ce tableau donne la loi conjointe de (X, Y).
p (X = 0 ; Y = 0) = 0,195
p (X = 0) p (Y = 0) = 0,09
p (X = 0 ; Y =0)  p (X = 0) p (Y = 0)  X et Y ne sont pas indépendantes.
Exemple 5 :
P (X = 2 ; Y = 2) = 0
p( X  2 )  0 ,35 
 p (X = 2) p (Y = 2)  0
p( Y  2 )  0 ,22 
Ainsi X et Y ne sont pas indépendantes.
Remarques :
X et Y sont indépendantes
 X  xi

 p
 = p (X = xi) ij
Y

y
j

La loi conditionnelle est la loi marginale.
Quand X et Y sont indépendantes, on peut retrouver la loi conjointe connaissant les lois marginales.
P (X = xi, Y = yj) = p (X = xi) p (Y = yj) i , j
Section 6 : Espérance conditionnelle
Définition :
On appelle espérance conditionnelle de X sachant Y = yj la quantité
E (X/Y = yj) =


 p X  xi Y  y j xi
Sur l’exemple 2 :
E (Y/X = 1) = 0 * 0,2 + 1 * 0,4 + 2 * 0,2 + 3 * 0,2 = 0,4 + 0,4 + 0,6 = 1,4
E (Y/X = 2) = 0 * 0,5 + 1 * 0 + 2 * 0 + 3 * 0,5 = 1,5
E (Y/X = 3) = 0 * 1/3 + 1 * 0 + 2 * 2/3 + 3 * 0 = 4/3
Théorème de l’espérance conditionnelle :
p
E (X) =


 E X Y  y j  p (Y = yj)
j1

E (Y) = E Y


E (Y) = 1,4 * 0,5 + 1,5 * 0,2 + 4/3 * 0,3 = 1,4
Preuve :



Y
Y
X  1 p (X = 1) + E X  2 p (X = 2) + E X  3 p (X = 3)
p
p


 E X Y  y j  p
j1
p
(Y
=
yj)
=


 x i p X  x i Y  y j  p (Y = yj) =
j1 i 1

n

n

i 1
n


j 1  i 1
n
p

   x i p X  x i Y  y j   p
(Y

p

n
 x i p X  x i ; Y  y j
j 1 i 1

=
yj)
=
 x i p ij
=
p
=
n
j1 i 1
 x i   p ij  =  x i p i = xi = E (X)
 j1
i 1
Exemple 6 :
X
Y=0
p
X
Y=1
p
0
1
2
0,2
0,4
0,4
0
1
2
0,6
0,2
0,2
E (X) = (0,4 + 0,8) * 0,5 + (0,2 + 0,4) * 0,5 = 0,6 + 0,3 = 0,9
Section 7 : Variance conditionnelle.
Ici la variable est la variable conditionnelle de X sachant Y = yj la variance de la variable aléatoire
conditionnelle X
V (X
Y = yj soit :
n
Y
= yj) =




 x i ²p X  x i Y  y j   E X Y  y j 
i 1
2
Dans l’exemple 6 :
(1² * 0,4 + 2² * 0,4) * 0,5 + (1² * 0,2 + 2² * 0,2) * 0,5 – 0,9² = (0,4 + 1,6) * 0,5 + (0,2 + 0,8) * 0,5 – 0,9² = 0,69
Equation de l’analyse de la variance :
V (X) = Vinter (X) + Vintra (X)
2
Vinter (X) =


 E X Y  y j  p (Y = yj) – E (X)²
p
Vintra (X) =


 V X Y  y j  p (Y = yj)
i 1
Dans l’exemple 6 :
 Y  0 p (Y = 0) + E X Y  1 p (Y = 1) – E (X)² = 0,09
X
(X) = V X
Y  0  p (Y = 0) + V  Y  1 p (Y = 1) = 0,6
Vinter (X) = E X
Vintra
V (X) = 0,69
Preuve :
2
2
n
V
(X)
=
 x i ²p(X  x i )  E(X)²
=
i 1
p
p
n
 x i2 p(X  x i ; Y  y j )  E(X)²

n
p
i 1
j1
 xi ²  (X  xi ; Y  y j )  E(X)²


 x i2 p X  x i Y  y j p(Y  y j )  E(X)²
=
j 1 i 1
p
n
n
=
=
j 1 i 1


   x i2 p X  x i Y  yj   p (Y = yj) – E (X)²
j 1  i 1





 X  xi

- E
Y

y
j


V X
Y  y j  = 2 x1² p 
X

 Yy 
j


2
p
V (X) =




 V X Y  y j   E X Y  y j  p (Y = yj) – E (X)² =
j 1
2
X

 Y  y  p (Y = yj) – E (X)² =
j

p


 V X Y  y j  p (Y = yj) +
j1
p
p


 V X Y  y j  p (Y = yj) + E
j1
2


 E X Y  y j  p (Y = yj) – E (X) ²
j 1
Téléchargement