Rappels de probabilité 1.2 Tribu engendrée par une famille d’événements

publicité
Département de Mathématiques -Univ-Guelma
Rappels de probabilité
1
Espace de probabilité
Un espace de probabilité est un triplet ( ; F; P) oé :
- est un ensemble,
- F est une tribu (ou -algébre) sur ,
- P est une (mesure de) probabilité sur ( ; F).
1.1
Tribu
Probabilités de base
1.2
2012-2013(Kerboua M)
Tribu engendrée par une famille d’événements
Dé…nition 1.1.3. Soit A = fAi ; i 2 Ig une famille de sous-ensembles de
. Alors la tribu engendrée par A est la plus petite tribu sur qui contient
tous les sous-ensembles Ai ; i 2 I. Elle est notée (A) :
Exemple 1.1.4. Reprenons l’exemple 1.1.2.
- Soit
= f1; :::; 6g. Si A1 = ff1gg ; alors (A1 ) = F1 . Si A2 =
ff1; 3; 5gg ;alors (A2 ) = F2 :
- Soit = [0; 1]. Si A = fI1 ; :::; In g ; alors (A) = G:
Dé…nition 1.1.5. Soit = [0; 1]. La tribu borélienne sur [0; 1] est la
tribu engendrée par la famille de sous-ensembles A = f]a; b[: 0 a < b 1g
=fintervalles ouverts dans[0; 1]g. Elle est notée B([0; 1]). Elle contient un
trés grand nombre de sous-ensembles de [0; 1], mais pas tous.
Dé…nition 1.1.1. Une tribu (ou -algébre) sur
est une famille F de
sous-ensembles de (appelés “événements”) tels que
1.3 Sous-tribu
8
2F
< i)
Remarque 1.1.6. - Pour ensemble …ni, on choisit souvent F = P( ).
ii) A 2 F =) Ac 2 F
:
1
- Pour
R ou
Rn , on choisit souvent F = B( ).
iii) (An )n=1 F =) [1
n=1 An 2 F
Dé…nition 1.1.7. Une sous-tribu de F est une tribu G telle que si A 2 G
En particulier : A; B 2 F =) A [ B 2 F:
alors A 2 F.
De méme, A; B 2 F =) A \ B 2 F:
On note G F.
Exemple 1.1.2. - Soit = f1; :::; 6g. On peut dé…nir plusieurs tribus
Exemple 1.1.8. Reprenons l’exemple 1.1.2. On a F0
F1
F,
sur :
F0 F2 F, mais pas F1 F2 , ni F2 F1 .
F = P ( ) = f ; f1g ; f2g ; :::; f1; 2g ; :::; g = tribu compléte (la plus
Remarque importante :
grande),
Il est toujours vrai que A 2 G et G F =) A 2 F:
F0 = f ; g= tribu triviale (la plus petite) ( = évén. impossible,
Mais il est faux de dire que A B et B 2 F =) A 2 F: Contre-exemple
évén. arbitraire),
:
F1 = f ; f1g ; f2; :::; 6g ; g ; F2 = f ; f1; 3; 5g ; f2; 4; 6g ; g ; etc.
f1g f1; 3; 5g ; f1; 3; 5g 2 F2 , mais f1g 2
= F2 :
- Soit = [0; 1] et I1 ; :::; In une famille d’intervalles formant une partition
de . La famille de sous-ensembles dé…nie par
1.4
G = f ; I1 ; I2 ; :::; I1 [ I2 ; :::; I1 [ I2 [ I3 ; :::; g
est une tribu sur
.
1 ére Master: Probabilités et Applications
Mesure de probabilité
Dé…nition 1.1.9. Soit F une tribu sur . Une (mesure de) probabilité sur
( ; F) est une application P : F ! [0; 1] telle que
théme : Probabilités de base
-1-
Département de Mathématiques -Univ-Guelma
Probabilités de base
2012-2013(Kerboua M)
Mesure de Lebesgue :
P (]a1 ; b1 [ ]a2 ; b2 [ ::: ]an ; bn [) =
(b1 a1 ) (b2 a2 )
(bn an ) :
Comme dans le cas uni-dimensionnel, P n’est dé…nie a priori que sur
certains ensembles (les rectangles), mais est uniquement extensible é tout
B 2 B( ) (p.ex. B = disque, ovale...).
Notation : P(B) = jBj ; pour B 2 B( ):
=) P(A [ B) = P(A) + P(B):
8
< i) P ( ) = 0 et P ( ) = 1;
F disjoints (i.e.PAn \ Am = ; 8n 6= m) =)
ii) (An )1
n=1
:
1
P ([1
n=1 An ) =
n=1 P (An ) :
-
En particulier : A; B 2 F et A \ B =
De 8
plus :
i) Si (An )1
F; An An+1 et [1
>
n=1 An = A;
n=1
>
<
alors limn!1 P (An ) = P (A) ;
2 Variable aléatoire
1
1
F;
A
A
et
\
A
=
A;
ii)
Si
(A
)
>
n
n+1
n
n
n=1
n=1
>
:
alors limn!1 P (An ) = P (A) :
Dé…nition 1.2.1.
Soit ( ; F; P) un espace de probabilité.
Une
Pour d’autres propriétés, cf. exercices.
variable aléatoire (souvent abrégé v.a. par la suite) est une application
Exemple 1.1.10. Soient = f1; :::; 6g, F = P( ). On dé…nit :
X : ! R telle que
- P1 (fig) = 61 8i (mesure de probabilité associée é un dé équilibré).
Dans ce cas, on voit p. ex. que P1 (f1; 3; 5g) = P1 (f1g) + P1 (f3g) +
f! 2 : X (!) 2 Bg = fX 2 Bg 2 F; 8B 2 B(R):
P1 (f5g) = 61 + 61 + 16 = 21 :
Proposition 1.2.2. X est une v.a. ssi f! 2 : X (!) tg 2 F; 8t 2 R.
- P2 (fig) = 0 8i 5; P2 (f6g) = 1 (mesure de probabilité associée é un
dé pipé).
Remarque 1.2.3. - X est aussi dite une fonction (ou v.a.) F-mesurable.
Dé…nition 1.1.11. Soient
= [0; 1] et F = B([0; 1]). On appelle
- Si F = P( ), alors X est toujours F-mesurable.
mesure de Lebesgue sur [0; 1] la mesure de probabilité dé…nie par
- Si = R et F = B(R), alors X est dite une fonction borélienne.
1 si ! 2 A;
Dé…nition 1.2.4. Pour A
, on pose 1A (!) =
P(]a; b[) = b a;
80 a < b 1:
0 sinon.
On
véri…e
que
la
v.a.
1
est
F-mesurable
ssi
A
2
F.
A
P n’est dé…nie a priori que sur les intervalles, mais est uniquement extenExemple
1.2.5.
Soit
( ; F; P) l’espace de probabilité du dé équilibré
sible é tout ensemble borélien B 2 B([0; 1]). Elle est notée P(B) = jBj ; B 2
(cf. exemple 1.1.10).
B([0; 1]):
X1 (!) = ! : P (f! 2 : X1 (!) = ig) = P (fig) = 16 :
En utilisant la propriété (ii) ci-dessus, on déduit que pour tout x 2 [0; 1] :
X2 (!) = 1f1;3;5g (!) : P (f! 2 : X2 (!) = 1g) = P (f1; 3; 5g) = 12 :
1
2
1
Soit F = P( ). X1 et X2 sont toutes deux F-mesurables.
jfxgj = lim x
= lim = 0:
;x +
n!1
n!1 n
n
n
Soit F2 = f ; f1; 3; 5g ; f2; 4; 6g ; g : Seule X2 est F2 -mesurable; X1 ne
n
l’est pas. En e¤et :
Généralisation é n dimensions : Soit = [0; 1] .
f! 2 : X2 (!) = 1g = f1; 3; 5g 2 F2 et f! 2 : X2 (!) = 0g =
- Tribu borélienne : B( ) = (A), oé
f2; 4; 6g 2 F2
A = f]a1 ; b1 [ ]a2 ; b2 [ ::: ]an ; bn [ ; 0 ai < bi 1g :
A est la famille des ”rectangles" dans .
tandis que f! 2 : X1 (!) = 1g = f1g 2
= F2 :
1 ére Master: Probabilités et Applications
théme : Probabilités de base
-2-
Département de Mathématiques -Univ-Guelma
Probabilités de base
2012-2013(Kerboua M)
Dé…nition 1.2.6.
La tribu engendrée par une famille de v.a. 3.1 Fonction de répartition d’une variable aléatoire
fXi ; i 2 Ig sur ( ; F; P) est dé…nie par
Dé…nition 1.3.3. La fonction de répartition d’une v.a. X est l’application
FX : R ! [0; 1] dé…nie par
(Xi ; i 2 I) = (fXi 2 Bg ; i 2 I; B 2 B(R)) = (fXi tg ; i 2 I; t 2 R) :
FX (t) = P(fX tg) = X (] 1; t]); t 2 R:
Exemple 1.2.7. Reprenons l’exemple précédent : (X1 ) = F =
Proposition 1.3.4. La donnée de FX équivaut à celle de X .
P( ); (X2 ) = F2 = P( ):
Cette derniére proposition est é rapprocher de la proposition 1.2.2.
Proposition 1.2.8. Si g : R ! R est borélienne et X : ! R est une
v.a., alors g(X) est une v.a.
Démonstration. Soit B 2 B(R). On a
3.2 Deux types particuliers de variables aléatoires
A) Variable aléatoire discréte :
X prend ses valeurs dans un ensemble D dénombrable (X(!) 2 D; 8! 2
). Dans ce cas, on a : (X) = (fX = xg ; x 2 D), p(x) = P(fX = xg) 0
Or g 1 (B) = fx 2 R : g(x) 2 Bg 2 B(R); car g est borélienne. Comme et P
2 Dg) = 1:
x2D p(x) = P(fxP
X est une v.a., on en déduit que f! 2 : X (!) 2 g 1 (B)g 2 F, et donc
De plus, FX (t) = x2D:x t p(x):
…nalement que g(X) est une v.a.
B) Variable aléatoire continue :
Proposition 1.2.9. Toute fonction continue est borélienne (et pratiqueP(X 2 B) = 0 si jBj = 0 (en part. P(X = x) = 0 8x). Sous cette
ment toute fonction discontinue l’est aussi !).
condition, le théoréme de Radon-Nikodym assure l’existence d’une fonction
borélienne fX : R ! R (appelée densité) telle que
fY 2 Bg = f! 2
3
: g (X (!)) 2 Bg = ! 2
: X (!) 2 g
1
(B) :
Loi d’une variable aléatoire
Dé…nition 1.3.1. La loi d’une v.a. X est l’application
dé…nie par
X
(B) = P (fX 2 Bg) ;
B 2 B(R):
X
: B(R) ! [0; 1] fX (x)
NB : (R; B(R); X ) forme un nouvel espace de probabilité !
Exemple 1.3.2. - Soit = f1; :::; 6g, F = P( ); P (fig) = 61 ; 8i:
X1 (!) = !; X (fig) = P (fX = ig) = P (fig) = 61 :
1
- Soit = f1; :::; 6g f1; :::; 6g, F = P( ); P (f(i; j)g) = 36
; 8i; j 2 :
X (!) = X (! 1 ; ! 2 ) = ! 1 + ! 2 : On a alors, p.ex :
X (f7g) = P (fX = 7g) = P (f(1; 6) ; (2; 5) ; (3; 4) ; (4; 3) ; (5; 2) ; (6; 1)g) =
1
6 36 = 16 :
1 ére Master: Probabilités et Applications
0; 8x 2 R;
Z
fX (x)dx = 1
et
R
P (fX 2 Bg) =
Rt
De plus, FX (t) = 1 fX (x)dx et FX8 (t) = fX (t):
Exemple 1.3.5.
A) Loi binomiale B(n; p); n 1; p 2 [0; 1] :
p(k) = P f(X = kg) =
oé
n
k
théme : Probabilités de base
=
n
k
pk (1
p)n
k
;
pour 0
Z
fX (x)dx:
B
k
n;
n!
:
k!(n k)!
-3-
Département de Mathématiques -Univ-Guelma
B) Loi gaussienne N ( ;
2
2012-2013(Kerboua M)
1) P(A) P(B), P
si A B, A; B 2 F.
1
1
1
2) P ([n=1 Bn )
F:
n=1 P (Bn ) ; si (Bn )n=1
!
3) P (BnA) = P (B) P (A) ; si A B; A; B 2 F:
(x
)2
1
4)
P(Ac ) = 1 P(A), si A 2 F.
exp
densité:
fX (x) = p
;
x 2 R:
2
2
2 2
5) P(A [ B) = P(A) + P (B) P (A \ B), si A; B 2 F.
Exercice 4.
Terminologie : - Si X suit une loi gaussienne (p.ex.), on écrit X
Soit X une variable aléatoire dé…nie sur un espace de probabilité ( ; F; P)
N ( ; 2 ).
et Y la variable aléatoire dé…nie par Y (!) = exp(X(!)); ! 2 :
- Si X et Y suivent une méme loi, on dit que X et Y sont identiquement
1) Quelles valeurs la variable aléatoire Y peut-elle prendre? Exprimer sa
distribuées (i.d.) et on note X Y:
fonction de répartition FY en fonction de FX .
2) Supposons que X soit une variable aléatoire continue. Y est alors
également continue; exprimer sa densité fY en fonction de fX .
Série 1
3) Supposons X N (0; 1); calculer fY et P(Y
1).
Remarque: dans ce dernier cas, la loi de Y est appelée la loi log-normale;
Exercice 1. Soient = f1; :::; 6g et A = ff1; 3; 5g ; f1; 2; 3gg :
cette loi est fréquemment utilisée en …nance pour modéliser le prix des ac1) Décrire F = (A), la tribu engendrée par A.
NB: Si
est …ni, le nombre d’éléments d’une tribu sur
est toujours tions.
m
égal à 2 , avec m entier.
2) Donner la liste des éléments non-vides G de F tels que
4 Espérance d’une variable aléatoire
);
si F 2 F et F
2 R;
Probabilités de base
>0:
G; alors F =
ou G
4.1
Construction de l’espérance (= intégrale de
Lebesgue !)
Ces éléments sont appelés les atomes de la tribu F. Ils forment une
partition de l’ensemble et engendrent également la tribu F.
On procéde en trois étapes : P
Exercice 2. Soit F une tribu (ou -algébre) dé…nie sur un ensemble
1
Etape 1. Soit X(!) =
0; Ai 2 F: On dé…nit
i=0 xi 1Ai (!) ; xi
. En se basant uniquement sur les axiomes de la dé…nition d’une tribu,
l’espérance de telles v.a. (dites simples) comme suit :
démontrer les propriétés suivantes:
N
1
1) [N
F:
X
n=1 An 2 F; si (An )n=1
E(X)
=
xi P (Ai ) 2 [0; +1] :
2) 2 F:
1
1
i=0
3) \n=1 An 2 F; si (An )n=1 F:
N
N
4) \n=1 An 2 F; si (An )n=1 F:
Attention ! E(X) peut prendre la ”valeur" +1.
Exemples : - Si X = 1A , P(A) = p, alors E(X) = P(A) = p.
5) BnA 2 F; si B A; A; B 2 F:
- Si X = c1 = cte sur , alors E(X) = c:
Exercice 3. Soit ( ; F; P) un espace de probabilité. En se basant
Etape 2. Soit X une v.a. F-mesurable telle que X(!) 0 ; 8! 2 . On
uniquement sur les axiomes de la dé…nition d’une mesure de probabilité,
démontrer les propriétés suivantes:
pose
1 ére Master: Probabilités et Applications
théme : Probabilités de base
-4-
Département de Mathématiques -Univ-Guelma
Xn (!) =
1
X
i
i=1
1
2n
1f i n1
2
Probabilités de base
X< 2in g
E(g (X)) =
(!) :
E(X) = lim E(Xn ) = lim
n!1
n!1
i=1
1
2n
P
i
1
2n
X<
i
2n
2 [0; +1] :
Etape 3. Soit X une v.a. F-mesurable quelconque. On pose
X + (!) = max (0; X(!)) 0;
X(!) = X + (!) X (!) avec
X (!) = max (0; X(!)) 0:
On a alors jX(!)j = X + (!) + X (!) 0:
- Si E(jXj) < 1, alors on dé…nit E(X) = E(X + ) E(X ):
- Si E(jXj) = 1, alors on dit que E(X) n’est pas dé…nie.
Terminologie : - Si E(X) = 0, alors on dit que X est une v.a. centrée.
- Si E(jXj) < 1, alors on dit que X est une v.a. intégrable.
- Si E(X 2 ) < 1 alors on dit que X est une v.a. de carré intégrable.
- On dit que X est une v.a. bornée s’il existe une cte K > 0 telle que
jX(!)j K; 8! 2 .
Remarque 1.4.1. X bornée =) E(X 2 ) < 1 =) E(jXj) < 1:
On a les séries des implications suivantes:
X est bornée =) X est de carré intégrable
X est intégrable et Y est bornée =) XY est intégrable
X; Y sont de carée intégrable =) XY est intégable
Proposition 1.4.2. Soient X une v.a. et g : R ! R une fonction
borélienne telle que E(jg(X)j) < 1. Alors
A) Si X est une v.a. discréte (é valeurs dans D dénombrable), alors
E(g (X)) =
X
g (x) P (fX = xg) :
x2D
B) Si X est une v.a. continue (avec densité fX ), alors
1 ére Master: Probabilités et Applications
Z
g (x) fX (x)dx:
R
Alors (Xn ) est une suite croissante de v.a. qui tend vers X. On dé…nit
1
X
i
2012-2013(Kerboua M)
Ceci s’applique en particulier si g(x) = x.
4.2
Variance et covariance de variables aléatoires
Dé…nition 1.4.3. Soient X; Y deux v.a. de carré intégrable. On pose
V ar (X) = E (X
Cov (X; Y ) = E ((X
E(X))2 = E X 2
(E (X))2
E(X)) (Y E(Y ))) = E (XY )
0
E (X) E (Y )
Terminologie : - Un événement A 2 F est dit négligeable si P(A) = 0.
- Un événement A 2 F est dit presque sér (souvent abréegé p.s.) si
P(A) = 1, i.e. si Ac est négligeable.
Exemple 1.4.4. Soit X une v.a. telle que P (fX = cg) = 1. Alors on
dit que X = c presque sérement (”X = c p.s.")
Proposition 1.4.5. Si (An )1
F est une famille d’événements négn=1
1
ligeables (i:e: P(An ) = 0 8n), alors [n=1 An est négligeable.
P1
Démonstration. P ([1
n=1 An )
n=1 P (An ) = 0:
Exemple 1.4.6. L’ensemble A = [0; 1]\Q est négligeable pour la mesure
le Lebesgue, car Q est dénombrable et jfxgj = 0 pour tout x 2 [0; 1]:
4.3
Propriétés de l’espérance
Soient X; Y deux v.a. intégrables.
- Linéarité : E(cX + Y ) = cE(X) + E(Y ); c 2 R et X; Y v.a. intégrables.
- Positivité : si X 0 p.s., alors E(X) 0.
- Positivité stricte : si X 0 p.s. et E(X) = 0, alors X = 0 p.s.
- Monotonie : si X Y p.s., alors E(X) E(Y ).
théme : Probabilités de base
-5-
Département de Mathématiques -Univ-Guelma
4.4
Probabilités de base
Inégalités
Comme
Inégalité de Cauchy-Schwarz
Soient X; Y deux v.a. de carré intégrable. Alors
5
i) XY est intégrable;
ii) (E (jXY j))2 E (X 2 ) E (Y 2 ) :
2012-2013(Kerboua M)
(a) > 0, ceci permet de conclure.
Indépendance
5.1
Indépendance d’événements
E (X 2 ) (donc E (jXj) < 1 Dé…nition 1.5.1.Deux événements A et B(2 F) sont indépendants si
P(A \ B) = P(A)P(B).
Attention ! Ne pas confondre : A et B sont disjoints si A \ B = (=)
P(A [ B) = P(A) + P(B)):
Notation : Si A est indépendant de B, on note A ? B (de méme pour les
tribus
et les v.a. ; voir plus bas).
E (jXj) + E (jY j)
Conséquence :
En posant Y
1, on trouve que (E (jXj))2
si E(X 2 ) < 1; cf. remarque 1.4.1).
Inégalité triangulaire
Soient X; Y deux v.a. intégrables. Alors
E (jX + Y j)
Inégalité de Jensen
Soient X une v.a. et ' : R ! R une fonction borélienne et convexe telle
que E (j' (X)j) < 1:
Alors
' (E (X))
E (' (X)) :
En particulier, jE (X)j E (jXj) :
Exemple 1.4.7. Si X = a ou b avec prob. 12 ; 12 et ' est convexe, alors
'(a)+'(b)
= E (' (X)) :
' (E (X)) = ' a+b
2
2
Inégalité de Chebychev (ou Markov)
Soient X une v.a. et : R ! R+ telle que est borélienne et croissante
sur R+ , (a) > 0 pour tout a > 0 et E ( (X)) < 1: Alors
P (fX
ag)
Démonstration. Du fait que
E ( (X))
; 8a > 0:
(a)
est croissante sur R+ , on a
E ( (X))
E (X) 1fX ag
E
(a) E 1fX ag =
(a) P (fX ag) :
1 ére Master: Probabilités et Applications
(a) 1fX
P(Ac \ B) = P(Bn(A \ B)) = P(B) P(A \ B)
= P(B) P(A)P(B) = (1 P(A)) P(B) = P(Ac )P(B):
De méme, on a P(A \ B c ) = P(A)P(B c ) et P(Ac \ B c ) = P(Ac )P(B c ):
Dé…nition 1.5.2. n événements A1 ; :::; An 2 F sont indépendants si
P (A1 \ ::: \ An ) =
=
P (Ai ) ;
oé Ai = soit Ai ;
soit Aci :
i=1
Proposition 1.5.3. n événements A1 ; :::; An 2 F sont indépendants si
!
\
Y
P
Ai =
P (Ai ) ; 8I f1; :::; ng :
i2I
ag
n
Y
i2I
Remarque 1.5.4. - Pour n > 2, la condition P(A1 \ :::An ) =
P(A1 ):::P(An ) ne su¢ t pas !
- L’indépendance de n événements telle que dé…nie ci-dessus est plus forte
que l’indépendance deux é deux (Ai ? Aj ; 8i 6= j).
théme : Probabilités de base
-6-
Département de Mathématiques -Univ-Guelma
5.2
Probabilités de base
2012-2013(Kerboua M)
Indépendance de tribus
!). Cette propriété découle du fait que g(X) est (X)-mesurable (resp. que
h(Y ) est (Y )-mesurable) et de la dé…nition d’indépendance pour les tribus.
Dé…nition 1.5.5. Une famille (F1 :::Fn ) de sous-tribus de F est indépenProposition 1.5.12. Soient c 2 R et X; Y deux v.a. de carré intégrable.
dante si
Si X ? Y , alors
P(A1 \ ::: \ An ) = P(A1 ):::P(An ); 8A1 2 F1 ; :::; An 2 Fn :
Proposition 1.5.6. ( (A1 ); :::; (An )) est une famille de sous-tribus indépendantes ssi les événements (A1 ; :::; An ) sont indépendants.
E (XY ) = E (X) E (Y ) et V ar (cX + Y ) = c2 V ar (X) + V ar (Y ) ;
La premiére égalité dit que si deux v.a. sont indépendantes, alors elles
sont décorrelées; la réciproque n’est pas vraie.
Proposition 1.5.13.
Si X
?
Y et X; Y sont deux
5.3 Indépendance de variables aléatoires
v.a.
continues
R R possédant une densité 2conjointe fX;Y (i.e.
Dé…nition 1.5.7. Une famille (X1 ; :::; Xn ) de v.a. (F-mesurables) est in- P ((X; Y ) 2 B) =
f
(x; y) dxdy; 8B 2 B (R )), alors fX;Y (x; y) =
B X;Y
dépendante si
fX (x) fY (y) ; 8x; y 2 R:
( (X1 ); :::; (Xn )) est indépendante.
Série 2
Proposition 1.5.8. (X1 ; :::; Xn ) est une famille de v.a. indépendantes
ssi les événements fX1 t1 g ; :::; fXn tn g sont indépendants
Exercice 1. Véri…er que les lois suivantes sont bien des lois de probabilité
8 t1 ; :::; tn 2 R:
et calculer, quand elles existent, l’espérance et la variance de ces lois.
En particulier :
X
?
Y ssi P(fX t; Y
sg)
=
A) Lois discrétes:
P(fX tg)P(fY
sg); 8 t; s 2 R:
1) Bernoulli B(1; p); p 2 [0; 1] : P(X = 1) = p; P(X = 0) = 1 p:
2) Binomiale B(n; p); n
1; p 2 [0; 1] : P(X = k) =
Exemple 1.5.9. Soit = f1; :::; 6g f1; :::; 6g ; F = P( ); P (f(i; j)g) =
n
1
pk (1 p)n k ; 0 k n:
: On pose
36
k
k
3) Poisson P( ); > 0 : P(X = k) = k! e ; k 0:
X (!) = X (! 1 ; ! 2 ) = ! 1 ; X (!) = Y (! 1 ; ! 2 ) = ! 2 :
B) Lois continues (on donne ici la densité de ces lois):
1
Calculons P(fX = ig) = P(! 2 : ! 1 = i) = P(f(i; 1); :::; (i; 6)g) = 6 =
4) Uniforme U([a; b]); a < b : fX (x) = b 1 a 1[a;b] (x) ; x 2 R:
P(fY = jg):
5) Gaussienne N ( ; 2 );
2 R;
> 0 : fX (x) =
1
1
1
(x )2
1
=
D’autre part, P(fX = i; Y = jg) = P(f(i; j)g) = 36 = 6
p
exp
; x 2 R:
6
2 2
2 2
P (fX = ig) P (fY = jg) ; donc X et Y sont indépendantes.
6) Cauchy C( ); > 0 : fX (x) = 1 2 +x2 ; x 2 R:
Exemple 1.5.10. Si X(!) = c; 8! 2 , alors X ? Y , 8Y (une v.a.
7) Exponentielle E( ); > 0 : fX (x) = e x ; x 2 R+ :
constante est indépendante de toute autre v.a.).
t 1
x
8) Gamma (t; ); t; > 0 : fX (x) = ( x) (t)e ; x 2 R+ ; oé
Exemple 1.5.11. Si X ? Y et g; h sont des fonctions boréliennes, alors
R1
g(X) ? h(Y ); c’est vrai en particulier si g = h (mais pas X = Y , bien sér (t) = 0 xt 1 e x dx:
1 ére Master: Probabilités et Applications
théme : Probabilités de base
-7-
Département de Mathématiques -Univ-Guelma
Probabilités de base
2012-2013(Kerboua M)
Exercice 2. Soit X une variable aléatoire centrée de variance 2 . En
La fonction caractéristique d’une variable ne dépend que de sa distribuutilisant l’inégalité de Chebychev, démontrer que
tion, les f.c de v.a ayant même distribution sont identiques.
2
2 2
Proposition: ' existe toujours et j' (t)j 1:
1) P (fjXj ag) a2 et P (fjXj ag) a2 + 2
2
2
E eitX = E (1) = 1 ce qui veut dire que la série
En
e¤et E eitX
2) P (fjXj ag)
(utiliser (x) = (x + b) avec b
0, puis
a2 + 2
ou l’intégrale que représente E converge.
minimiser en b)
Remarques
a) Montrer, en utilisant l’inégalité de Cauchy-Schwarz avec X et Y =
- Si X ne prend que des valeurs entiers positives ou nulles P (X = k) = pk .
1fX>tg , que
Alors:
2
X
(E(X) t)
P (fX > tg)
'
(t)
=
pk eitk = gX eit
2
X
E (X )
k
b) Véri…er directement cette inégalité pour X P( ) et t = 0.
gX s’appelle la fonction génératrice (f.g) de X, où
Exercise 4. Let X be a centered Gaussian random variable of variance
X
2
. Compute:
pk z k pour jzj 1:
gX (z) =
4
a) E (X ) :
k
b) E (exp (X)) :
- Si X prend d’autre valeurs que celle de N, sa f.g peut ne pas être dé…nie.
c) E (exp ( X 2 )) :
Alors sa f.c l’est toujours.
Propriétés de la fonction quaractéristique
1) 'X est uniformément continue pour t 2 R:
6 Convergence des variables aléatoires
Le théorème suivante est trés utile pour étudier la loi d’une somme de
Lesprincipaux types de convergences sont la convergence enprobabilité (ou v.a indépendantes:
Théorème 1: Soient X1 ; :::; Xn n variables aléatoires indépendantes
stochastique),la convergence en moyenne d’ordre , la convergence presque
sûrement et la convergence en loi. Ces modes de convergences sont à l’origine alors:
des loi faible e tforte des grands nombres ainsi que le théorème de la limite
centrale.
Rappels sur les fonctions caractéristiques
Nous avons déjà dit que la loi d’une v.a.r. X était caractérisée par sa fonction de répartition. On peut aussi déterminer PX en utilisant une fonction
de R ! C: la fonction caractéristique.
Dé…nition: Soit X un v.a.r on appelle fonction caractéristique (f.c) de
X la fonction ' (t) tq ' (t) = E eitX :
R itx
- Si X est absolument continue:
'
(t)
=
e f (x)dx
R
P itx
k
- Si X est discrète: ' (t) = k e P (X = xk ) :
1 ére Master: Probabilités et Applications
'X1 +:::+Xn (t) =
n
Y
'Xi (t)
i=1
Remarque
La réciproque est fausse, on peut avoir
'X1 +:X2 (t) = E eit(X1 +X2 ) = E eitX1 :E eitX2 = 'X1 (t) :'X2 (t)
lorsque X1 et X2 sont dépendantes.
Exemple: X1 = X2 = X est une v.a de cauchy; sa f.c est
théme : Probabilités de base
-8-
Département de Mathématiques -Univ-Guelma
'X (t) =
1
Z
+1
1
eitx
dx = e
1 + x2
Probabilités de base
'Y (t) = E eit(aX+b) = eibt E eiatx
jtj
Alors,
on le calcule par la méthode des résidus.
'2X (t) = e 2jtj = 'X (t) :'X (t) et X n’est pas indépendante d’elle même
biensûr.
Théorème 2:
Si X1 et X2 deux v.a.r indépendantes
8 (t1 ; t2 ) 2 R2
2012-2013(Kerboua M)
'Y (t) = eibt 'X (at) :
Fonction caractéristique de quelques v.a.r
Distribution
Bernouli
Binomiale
Poisson
Fonction caractéristique
peit + q
n
(peit + q)
exp (
(1 eit ))
sin( 2t )
Uniforme sur [0; 1] exp it2
t
'(X1 ;X2 ) (t1 ; t2 ) = 'X1 (t1 ) :'X2 (t2 )
= E eit1 X1 :E eit2 X2 :
2
Théorème 3: (Moments d’ordre k et f.g)
Si k n premiers moments E X k , k 2 f0; 1; :::; ng existent, alors 'X est
(k)
n fois di¤érentiables et on a: 'X (0) = ik E X k :
R +1
dans le cas absolument continu, si
jxj f (x)dx < +1,
1
R +1 itx
R 1 xe f (x)dx converge uniformément donc on peut dériver sous la signe
:
(1)
'X (0) = '8X (0) = iE (X) :
R +1
(k)
En répetant l’opération 'X (t) = ik 1 xeitx f (x)dx et la formule en
resulte en faisant t = 0:
Théorème 4: (Relation entre la f.d.r et la f.c)
Toute fonction de répartition est entièrement déterminée par sa f.c(d’où
le nom f.c)
Théorème 5:
R +1
Si 'X (t) est la f.c de X et si 1 ' (t) dt existe, alors X a la densité
Z +1
1
' (t) e itx dx
f (x) =
2
1
Théorème 6:(Fonction caractéritique de (aX + b))
Si a et b sont des constantes réelles et si: Y = aX + b, alors:
1 ére Master: Probabilités et Applications
Normale
Cauchy
Exponentielle
6.1
exp itm
e ajtj
1
1 it
1
2
2 2
t
Convergence en probabilité
Dé…nition 6.1.1 (Convergence en probabilité) Soit (Xn )n 1 une suite
de variables aléatoires. La suite (Xn )n 1 converge stochastiquement (ou en
probabilité) vers la variable aléatoire X
8 > 0;
6.2
lim P [jXn
n!+1
P
Xn ! X
si et seulement si:
Xj > ] = 0
Convergence en moyenne d’ordre
grands nombres
et loi faible des
Dé…nition 6.2.1 (Convergence en moyenne d’ordre ) Soit (Xn )n 1
une suite de variables aléatoires.La suite (Xn )n 1 converge en moyenne
d’ordre
si:
(
théme : Probabilités de base
1) vers la variable aléatoire X
L
Xn ! X
si et seulement
-9-
Département de Mathématiques -Univ-Guelma
lim E [jXn
n!+1
Probabilités de base
2012-2013(Kerboua M)
Xj ] = 0
P
Remarques:
L
max
1 k n
L
1. Xn ! X =) Xn ! X avec < puisque dans ce cas L
L :
2. Si = 1, on dit simplement "convergence en moyenne".
3. Losque
= 2, on parle souvent de "convergence en moyenne
quadratique au lieu de convergence en moyenne d’ordre 2 qu’on note aussi
m:q
Xn ! X :
Théorème 6.2.1 La convergence en moyenne d’ordre
implique la
convergence en probabilité. Soit:
L
P
Xn ! X =) Xn ! X :
(Xi
a
E [Xi ])
i=1
!
Pn
V arXk
a2
k=1
Si de plus il existe un réel positif C tel que pour tout k; jXk j
P
6.4
max
1 k n
k
X
(Xi
E [Xi ])
!
a
i=1
1
C, alors,
(a + 2C)2
Pn
k=1 V arXk
Convergence presque sûre
Dé…nition 6.4.1 (Convergence presque sûre) Soit ( ; F; P) un espace
probabilisé.
On dit que la suite (Xn )n 1 converge presque sûrement vers la variable
Proposition 6.2.1 (Loi faible des grands nombres) Soit (Xn )n 1
une suite de variables aléatoires indépendantes, de même loi et de variance
aléatoire X
…nie, alors:
X1 + X2 + ::: + Xn m:q
! E [X1 ] :
n
Noter que nous avons également dans ce cas la convergence en ProbabilYn =
k
X
9
0
p;s
Xn ! X
= P(
si et eulement si:
0)
= 1 et 8! 2
0;
lim Xn (!) = X (!) :
n!+1
Ceci n’est autre que la convergence simple des fonctions Xn (!) en tout
point de (sauf aux points ! 2 (
0 ) ensemble qui est de mesure nulle).
Pour montrerl a convergence presque sûre d’une suite,on est souvent
6.3 Convergence presque sûre et loi forte des grands amené à utiliser le lemme de Borel-Cantelli, dérivé du théorème du même
nombres
nom.
Lemme 6.4.2 (Lemme de Borel-Cantelli) Une condition su¢ sante
6.3.1 Inégalité de Kolmogorov
de convergence presque sûre de la suite de variables aléatoires (Xn )n 1 vers
L’inégalité de Kolmogorov est utilisée pour démontrer la loi forte des grands X est que la série de terme général un = P [jXn Xj > ] converge. Soit:
nombres dans le cas de variables aléatoires indépendantes de variance …nie
+1
mais non forcément identiquement réparties.
X
p;s
8 > 0;
P [jXn Xj > ] < +1 =) Xn ! X :
Théorème 6.3.1 Soit une suite Xi de n variables aléatoires indépenn=1
dantes telleque V arXk < +1. Alors pour tout réel positif a
ité.
1 ére Master: Probabilités et Applications
théme : Probabilités de base
-10-
Département de Mathématiques -Univ-Guelma
6.5
Probabilités de base
Loi forte des grands nombres de Kolmogorov
2012-2013(Kerboua M)
L
X
Xn ! X si et seulement si les fonctions de répartition convergent
La Convergence presque sûre est la convergence qui intervient dans la loi simplement en tout point de continuité, soit:
forte des grands nombres.
8x 2 R; lim FXn (x) = FX (x) ; si FX est continue en x.
Nous allons d’abord donner un théorème d’existence de la limite de la
n!+1
somme de variables aléatoires indépendantes de distribution quelconque.
Remarques:
Théorème 6.5.1(Théorème d’existence de Kolmogorov) Soit
1. Les troi sconditions suivantes sont équivalentes:
(Xn )n 1 une suite P
de variables aléatoires indépendantes
de moyennes nulles
P
–8x 2 R; lim FXn (x) = FX (x) ; si FX est continue en x.
n
1
2
telle que la série
n!+1
k=1 Xk converge presque
k=1 E [Xk ] converge. Alors
–8t 2 R; lim 'Xn (t) = 'X (t)
sûrement vers une variable aléatoire lorsque n tend vers l’in…ni
n!+1
Ce théorème permet de démontrer le suivant.
–8g 2 C (continue, borné), lim E [g (Xn )] = E [g (X)]
n!+1
Théorème 6.5.2 (Loi forte des grands nombres de Kolmogorov)
Soit (Xn )n 1 une suite de variables aléatoires indépendantes telle que la série
2. Schéma de convergence: ( < )
P1 V arX
k
converge.
Alors
L
P
L
2
k=1
k
=)
Xn ! X
=)
Xn ! X
Xn ! X
n
n
*
*
1 X
1 X
p;s
L
Xk
E [Xk ] ! 0:
Xn ! X
Xn ! X
n k=1
n k=1
Théorème 6.6.2 (Thèorème de la limite centrale) Soit (Xn )n 1 une
presque sûrement lorsque n tend vers l’in…ni.
suite de variables aléatoires indépendantes, de même loi et de variance …nie,
Dans le cas de variables en plus identiquement distribuées, nous pouvons ( 2 = var (X12 ) ; Xn 2 L2 ( ; F; P)), alors:
énoncer la proposition suivante.
Sn E [Sn ] L
Proposition 6.5.3 (Loi forte des grands nombres) Soit (Xn )n 1 une
! N (0; 1) :
(Sn )
suite de variables aléatoires indépendantes, de même loi et de moyenne …nie,
p
alors:
où Sn = X1 + X2 + ::: + Xn et donc (Sn ) = n :
Ceci peut se traduire par (m = E [X1 ]):
X1 + X2 + ::: + Xn p:s
Yn =
! E [X1 ] :
n
Z a
x2
X1 + X2 + ::: + Xn nm
1
n!+1
p
P
a
! p
e 2 dx:
n
2
6.6 Convergence en Loi, théorème de la limite centrale
1
C’est la convergence la plus faible parmi celles présentées ici.
Exercice
Dé…nition 6.6.1 (Convergence en Loi) Soit (Xn )n 1 une suite de
Soit X une variable aléatoire qui suit la loi de Cauchy don tla densité de
variables aléatoires. La suite (Xn ) converge en loi vers la variable aléatoire probabilité est donnée par:
1 ére Master: Probabilités et Applications
théme : Probabilités de base
-11-
Département de Mathématiques -Univ-Guelma
Probabilités de base
1
1 + x2
Soit (Xi )i 1 une suite de variables aléatoires indépendantes et demême loi
que celle de X . On dé…nit (Sn )n 1 une suite de variables aléatoires dé…nie
par:
fX (x) =
Sn =
2012-2013(Kerboua M)
1
n
X
n
n
h t i Y
Y
i n Xj
E e
'Yn (t) =
=
'X
j=1
=
= e
Xi
'X
jtj
j=1
t
n
n
t
= e jnj
t
n
n
= 'X (t)
i=1
2. D’après la question précédente, on a: 8t 2 R; lim 'Xn (t) = 'X (t) ce
1. Calculer la fonction caractéristique de la variable aléatoire Snn :
n!+1
Sn
2. Montrer que n converge en loi vers X:
Sn L
qui implique que n ! X: Remarquer que la loi faible (ou forte) des grands
3. Montrer que Snn2 converge en probabilité vers 0:
nombres ne s’appliquent pasi ci puisque les moments d’ordre supérieur ou
4. Montrer que Snn3 converge presque-sûrement vers 0, (Utiliser le lemme
égal à 1 n’existent pas.
de Borel-Cantelli).
P
3. Pour montrer que Snn2 ! 0; il faut montrer que :
Correction
1. Calculons tout d’abord la fonction caractéristique de la v.a.X , on a:
Sn
Z
8 > 0; lim P
0 > =0
eitx
1
itX
n!+1
n2
dx
'X (t) = E e
=
2
R 1+x
On a en e¤et:(on utilise le fait que Snn Cauchy)
En utilisant le théorème des Résidus par intégration de la fonction comitz
e
plexe f (z) = 1+z
origine des axes
2 sur le demi cercle supérieure de centre l’
et de rayon R, on trouve que: (t 2 R)
Sn
Sn
P
0 >
= P
>n
jtj
2
'X (t) = e
n
n
Z +1
1 dx
Soit maintenant Yn = Snn , on a:
= 2
1 + x2
n
h t Pn
i
1
n!+1
=
(
2 arctan n ) ! 0:
'Yn (t) = E eitYn = E ei n j=1 Xj
" n
#
h Pn t i
Y t
p:s
ei n Xj
= E e j=1 i n Xj = E
4. Pour montrer que Snn3 ! 0; on peut utiliser le lemme de Borel-Cantelli.
P
j=1
Sn
Pour cela, il su¢ t de montrer que la série entière +1
0 >
n=1 P
n3
les (Xj )j 1 étant indépendantes, on a:
converge. On a:
1 ére Master: Probabilités et Applications
théme : Probabilités de base
-12-
Département de Mathématiques -Univ-Guelma
Probabilités de base
2012-2013(Kerboua M)
Sn P
!
:
n n!+1
P
=
arctan n2
2
Exercice 3. Compute the characteristic function of the following random
2
1
variables:
=
arctan 2
n
a) X B(n; p), with P(fX = kg) = Ckn pk (1 p)n k , k 2 f0; :::; ng
2 1
b) X Geom(p), with P(fX = kg) = (1 p)k 1 p; k 1:
terme général d’une série entière convergente.
<
2
n
c) X has the exponential distribution on R with pdf fX (x) =
exp(
jxj); x 2 R:
2
d*) X has the Cauchy distribution on R with pdf fX (x) = ( 2 +x2 ) ; x 2
Série 3
R:
Exercice 4. Rappel :X suit la loi de Poisson de paramètre
> 0
Exercice 1. Let (Xn ; n
1) be a sequence of independent random
k
si 8k 2 N; P[X = k] = e k! . On a alors :E[X] = ; V [X] =
et
variables such that
(eit 1)
8t; '(t) = e
:
Soit(Xn )n une suite de variables aléatoires indépendantes identiquement
1
1
P(Xn = n) =
and P(Xn = 0) = 1
:
distribuées de loi de Poisson de paramètre 1.
n
n
1. Quelle convergence donne le théorème limite central appliqué à la suite
a) Show that Xn converges to X = 0 in probability, but that there is no
(X
n) ?
quadratic convergence.
2. Quelle est la loi de X1 + ::: + Xn ?
Here is yet another notion of convergence: we say that Xn con3. En utilisant les fonctions de répartition, montrer que
verges towards X in mean if all these random variables are integrable and
L1
n
X
lim E(jXn Xj) = 0: The notation for this is: Xn ! X.
1
nk
n
n!+1
! :
e
k! n!+1 2
b) Does the above sequence converge in mean towards some random varik=0
able X ?
c) Show that in general,
Sn
>
n3
2
L2
Xn ! X
L1
Xn ! X
=)
=)
P
Xn ! X:
Exercice 2. Let (Xn ; n 1) be a sequence of square-integrable random
variables such that E(Xn ) = 2 R, V ar(Xn ) = 2 > 0 for all n 1, and
jCov (Xn ; Xm )j
2
exp ( jm
nj) ;
8n; m
1:
Let Sn = X1 + ::: + Xn . Show that
1 ére Master: Probabilités et Applications
théme : Probabilités de base
-13-
Téléchargement