Cours4 Fichier

publicité
Probabilités Elémentaires – Licence
Chapitre 4 : Vecteurs aléatoires discrets
1
Couple de variables aléatoires
Définition 1. Soit X et Y deux variables aléatoires discrètes définies sur l’espace probabilisable
(Ω, A), et à valeurs respectivement dans E et F . Le couple (X, Y ) définit ce que l’on peut appeler
une variable aléatoire discrète à valeurs dans E × F : à tout ω de Ω, il associe en effet le vecteur
X(ω), Y (ω) .
Proposition 1. La loi de probabilité du couple (X, Y ), aussi appelée loi conjointe de (X, Y ), est
déterminée entièrement par la fonction de masse (x, y) 7→ P(X = x, Y = y) sur E × F .
Exemple : On lance deux dés à 6 faces équilibrés. Soit X la somme des résultats et Y leur différence
en valeur absolue : le couple (X, Y ) est à valeurs dans {1, · · · , 12} × {0, · · · , 5}. Pour calculer la loi
conjointe de X et Y , on introduit les variables aléatoires R1 et R2 représentant les résultats des
deux dés. On a, par exemple :
P(X = 7, Y = 3) =
Définition 2. On appelle lois marginales de X et de Y les lois respectives de X et de Y , que l’on
peut calculer à partir de la loi conjointe :
P
∀x ∈ E, P(X = x) = P y∈F P(X = x, Y = y).
∀y ∈ F, P(Y = y) = x∈E P(X = x, Y = y).
Exemple : En gardant l’exemple précédent, on a :
P(X = 7) =
Définition 3. Soit X et Y deux variables aléatoires discrètes définies sur l’espace probabilisable
(Ω, A), et à valeurs respectivement dans les espaces probabilisables (E, E) et (F, F). Soit x ∈ E tel
que P(X = x) > 0. La loi de Y conditionnelle à l’événement (X=x), aussi appelée loi de Y
sachant que X = x, est la probabilité sur (F, F) définie par l’application
B 7→ P(X=x) (Y ∈ B) = P(Y ∈ B|X = x)
(X=x)
et elle est notée PY
.
(X=7)
Exemple : En gardant l’exemple précédent, la loi conditionnelle PY
est donnée par :
(X=x)
Proposition 2. La famille des probabilités PY
, où x décrit l’ensemble des éléments de E tels
que P(X = x) > 0, et la loi PX de X déterminent entièrement la loi du couple aléatoire (X, Y )
Proposition 3. Deux variables aléatoires X et Y sont indépendantes si et seulement si, pour tout
(X=x)
x ∈ E tel que P(X = x) > 0, la loi conditionnelle PY
est égale à la loi marginale PY de Y .
Définition 4. La moyenne conditionnelle et la variance conditionnelle de Y sachant que
(X=x)
X = x sont la moyenne et la variance calculées à partir de la loi conditionnelle PY
.
Exemple : En gardant l’exemple précédent, la moyenne conditionnelle de Y sachant X = 7 est :
E(Y |X = 7) =
et la variance conditionnelle de Y sachant X = 7 est :
V(Y |X = 7) =
1
2
Vecteur de variables aléatoires
Ce que nous avons dit précédemment se généralise facilement lorsque l’on associe plus de deux
variables aléatoires dans un vecteur.
Définition 5. Soit X1 , · · · , Xn des variables aléatoires discrètes définies sur l’espace probabilisable
(Ω, A), et à valeurs respectivement dans E1 , · · · , En . Le vecteur (X1 , · · · , Xn ) définit ce que l’on
peut appeler une variable aléatoire discrète
à valeurs dans E1 × · · · × En : à tout ω de Ω, il associe
en effet le vecteur X1 (ω), · · · , Xn (ω) .
Comme précédemment, on peut définir la loi conjointe du vecteur (X1 , · · · , Xn ), les lois marginales
de X1 , · · · , Xn ou encore les lois conditionnelles
(Xj1 =xj1 ,··· ,Xjm =xjm )
PXi
, ∀{j1 , · · · , jm } ⊂ {1, · · · , n}.
Dans de nombreux modèles probabilistes ne sont explicites que la loi de X1 , PX1 , et les lois conditionnelles de Xi sachant X1 , · · · , Xi−1 , pour tout i entre 2 et n. La loi conjointe du vecteur s’obtient
alors de la manière suivante :
P(X1 = x1 , · · · , Xn = xn ) = P(X1 = x1 )P(X2 = x2 |X1 = x1 ) · · · P(Xn = xn |X1 = x1 , · · · , Xn−1 = xn−1 ).
Parfois, les probabilités conditionnelles P(Xi = xi |X1 = x1 , · · · , Xi−1 = xi−1 ) ne dépendent que de
xi et de xi−1 . On a alors P(Xi = xi |X1 = x1 , · · · , Xi−1 = xi−1 ) = P(Xi = xi |Xi−1 = xi−1 ) et
P(X1 = x1 , · · · , Xn = xn ) = P(X1 = x1 )P(X2 = x2 |X1 = x1 ) · · · P(Xn = xn |Xn−1 = xn−1 ).
Une suite de variables aléatoires (Xi )1≤i≤n satisfaisant cette condition est dite markovienne.
Exemple : Soit (Ui )1≤i≤n une suite de variables aléatoires indépendantes à valeurs dans Z et soit,
pour i = 1, · · · , n, Xi = U1 + · · · + Ui . La suite (Xi )1≤i≤n est markovienne à valeurs dans Z.
En effet, si i ≥ 2, Xi = Xi−1 + Ui , si bien qu’on a :
P(Xi = xi |X1 = x1 , · · · , Xi−1 = xi−1 ) = P(Ui = xi − xi−1 |X1 = x1 , · · · , Xi−1 = xi−1 )
quels que soient x1 , · · · , xi ∈ Z ; la variable aléatoire (X1 , · · · , Xi−1 ) étant indépendante de Ui , on a
P(Xi = xi |X1 = x1 , · · · , Xi−1 = xi−1 ) = P(Ui = xi − xi−1 ).
De plus, le même raisonnement conduit à l’égalité
P(Xi = xi |Xi−1 = xi−1 ) = P(Ui = xi − xi−1 ).
3
Somme de variables aléatoires
On a très souvent besoin de calculer la somme de n variables aléatoires :
Y = X1 + · · · + Xn .
3.1
Loi de probabilité
Quand les variables aléatoires X1 , · · · , Xn sont indépendantes, la loi de leur somme peut se calculer
à partir des lois marginales. Nous donnons la méthode de calcul, dite de convolution, dans le cas
où n = 2.
Proposition 4. Soit X1 et X2 deux variables aléatoires discrètes définies sur l’espace probabilisé
(Ω, A, P), à valeurs dans le même espace probabilisable (E, E), où E est stable par addition. Alors
la variable aléatoire Y = X1 + X2 est discrète et sa loi est donnée par :
∀x ∈ E, P(Y = y) =
X
P(X1 = x1 ) P(X2 = y − x1 ).
x1 ∈E
2
Définition 6. On dit que la loi de probabilité de Y , obtenue à partir de PX1 et PX2 , est le produit de
convolution ou simplement la convolution des deux probabilités PX1 et PX2 : elle est notée PX1 ∗ PX2 .
Exemple : Loi triangulaire
Soit un entier n ≥ 1 et deux variables aléatoires X1 et X2 indépendantes et de même loi uniforme
sur {0, · · · , n}. On étudie la loi de Y = X1 + X2 . Pour tout k ∈ N, on a :
On dit que la loi de Y est symétrique par rapport à n.
Proposition 5. La convolution de deux lois binomiales B(n1 , p) et B(n2 , p) est une loi binomiale
B(n1 + n2 , p). La convolution de deux lois de Poisson P(λ1 ) et P(λ2 ) est une loi de Poisson P(λ1 +
λ2 ).
3.2
Moments
Proposition 6. La moyenne et la variance de Y sont donnés par
E(Y ) =
n
X
E(Xi )
i=1
et
V(Y ) =
n
X
V(Xi ) + 2
n−1
X
i=1
n
X
cov(Xi , Xj ).
i=1 j=i+1
Exemple : Moyenne empirique
Supposons que les variables X1 , · · · , Xn soient indépendantes et identiquement distribuées (i.i.d.),
de moyenne m et de variance σ 2 , représentant par exemple n observations d’une même variable dans
une population. Si la moyenne m est inconnue, il est naturel de l’estimer par la moyenne empirique
des Xi :
n
1X
X̄ =
Xi .
n
i=1
Cette variable aléatoire admet pour moyenne
E(X̄) =
et pour variance
V(X̄) =
Ainsi, lorsque le nombre d’observations n augmente, la variance de X̄ diminue et la probabilité que
X̄ soit "loin" de m également.
3.3
Fonction génératrice
Proposition 7. Soit X1 et X2 deux variables aléatoires indépendantes à valeurs dans N. La fonction
génératrice de Y = X1 + X2 est donnée, pour tout s ∈ [−1, 1], par :
GY (s) = GX1 (s) GX2 (s).
3
Téléchargement