Variables aléatoires - Site Personnel de Arnaud de Saint Julien

publicité
1
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
Résumé de cours sur les Variables aléatoires sur un espace probabilisé fini
Dans tout ce chapitre, on considère (Ω, P ) un espace probabilisé fini.
1
Notion de variable aléatoire
Une variable aléatoire est une application de Ω dans un ensemble E. En général, E est égal à R
(on parle alors de variable aléatoire réelle, en abrégé var) ou à Rk (on parle alors de vecteur aléatoire).
Déterminer la loi de probabilité de X, c’est déterminer X(Ω) et P (X = x) pour tout x dans X(Ω).
En particulier, on a
x∈X(ω) P (X
P
= x) = 1.
Astuce : parfois il est plus simple de calculer P (X 6 x) que de calculer P (X = x) (par exemple
pour le maximum de plusieurs variables aléatoires). On peut alors retrouver P (X = x), car si X prend
les valeurs x0 < · · · < xn , alors
P (X = xk ) = P (X 6 xk ) − P (X 6 xk−1 ).
2
Deux indicateurs fondamentaux : l’espérance et la variance
1. Espérance : si X est une variable aléatoire réelle, on appelle espérance de X le réel
E(X) =
X
xP (X = x).
x∈X(Ω)
Remarque : c’est la moyenne des valeurs x pondérées par les probabilités P (X = x). C’est un
indicateur de position.
Propriétés :
• Linéarité de l’espérance (c’est LA propriété fondamentale)
• croissance et positivité
• Si A est un évènement, on a E(1A ) = P (A).
• Théo de transfert : si f est une fonction de X(Ω) dans R, alors
E(f (X)) =
X
f (x)P (X = x).
x∈X(ω)
2. Variance : on appelle variance de X le réel V (X) = E (X − E(X))2 et écart-type de X le
réel σX =
q
V (X).
La variance est «la moyenne des carrés des écarts à la moyenne», elle mesure donc la dispersion
des valeurs xi par rapport à la moyenne E(X). La variance est un nombre toujours positif.
Formule de Huygens : On a
V (X) = E(X 2 ) − E(X)2 .
De plus, pour tous réels a et b, on a V (aX + b) = a2 V (X)
2
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
3
Lois usuelles finies
1. Loi uniforme : si X est une variable aléatoire qui prend les valeurs 1, . . . , n de façon équiprobable, on dit que X suit une loi uniforme sur J1, nK, on note X ֒→ U(J1, nK) et on a :
∀k ∈ {1, . . . , n},
P (X = k) =
1
,
n
E(X) =
n+1
,
2
V (X) =
n2 − 1
.
12
2. Loi de Bernoulli : si X est une variable aléatoire prenant uniquement les valeurs 0 et 1, et que
P (X = 1) = p, on dit que X suit une loi de Bernoulli de paramètre p. Alors
E(X) = p
et V (X) = p(1 − p).
On dit qu’une expérience aléatoire est une épreuve de Bernoulli lorsqu’elle admet seulement
deux issues possibles, moralement échec ou succès. L’exemple classique est le lancer d’une pièce
(équilibrée ou non).
Remarque : si A est un évènement, la fonction indicatrice 1A est une variable aléatoire qui suit
une loi de Bernoulli de paramètre p = P (A).
3. Loi Binomiale : on répète n fois de manière indépendante une épreuve de Bernoulli de
paramètre p. On note X la variable aléatoire donnant le nombre de succès au cours des n
épreuves. Alors X peut prendre les valeurs 0, 1, . . . , n et on montre que
∀k ∈ {0, . . . , n},
P (X = k) =
!
n k
p (1 − p)n−k .
k
On dit que X suit une loi binomiale de paramètres n et p, on note X ֒→ B(n, p). On montre
que 1
E(X) = np et V (X) = np(1 − p).
4
Indépendance de variables aléatoires
Def : des variables X1 , . . . , Xn sont dites (mutuellement) indépendantes si pour tout x1 ∈ X1 (ω), . . . , xn ∈
Xn (Ω) :
P ([X1 = x1 ] ∩ . . . ∩ [Xn = xn ]) = P (X1 = x1 ) . . . P (Xn = xn ).
Remarque : on peut démontrer et on l’admet que les variables aléatoires X1 , . . . , Xn sont indépendantes, ssi les évènements [X1 = x1 ], . . . , [Xn = xn ] sont indépendants.
Propriétés :
• Si (X1 , . . . , Xn ) est une famille de va indépendantes, alors toute sous-famille est encore une
famille de va indépendantes.
• Si X et Y sont deux variables aléatoires indépendantes et f : X(Ω) → F , g : Y (Ω) → G deux
fonctions, alors les variables aléatoires f (X) et g(Y ) sont indépendantes.
1. Pour se souvenir de ce résultat, on écrit X = X1 + · · · + Xn où pour tout i ∈ {1, . . . , n}, Xi est la variable aléatoire
qui vaut 1 si on réalise un succès à la i-ème épreuve et 0 sinon. Xi suit une loi de Bernoulli de paramètre p, donc
E(Xi ) = p ainsi par linéarité E(X) = np. De plus comme les variables aléatoires X1 , . . . , Xn sont indépendantes, on a
V (X1 + · · · + Xn ) = V (X1 ) + · · · + V (Xn ) et on obtient ainsi V (X) = nV (X1 ) = np(1 − p).
3
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
5
Couples de variables aléatoires
5.1
Loi d’un couple
1. Notion de loi conjointe et de lois marginales : soit X et Y deux variables aléatoires. L’application
(X, Y ) : w 7→ (X(w), Y (w)) définit une variable aléatoire à valeurs dans X(Ω) × Y (Ω) (on parle
de vecteur aléatoire). Sa loi est appelée loi conjointe de X et Y .
Si X prend les valeurs {xi | i ∈ I} et Y les valeurs {yj | j ∈ J}, la loi de (X, Y ) est donc définie
par ses valeurs (xi , yj ) et les probabilités associées P ([X = xi ] ∩ [Y = yj ]) pour (i, j) ∈ I × J.
Si l’on connaît la loi du couple (X, Y ), on peut retrouver les lois de X et de Y . On dit que
X et Y sont les lois marginales du couple (X, Y ). En effet, les ensembles [Y = yj ] pour j ∈ J
constituent une partition de Ω, donc
∀i ∈ I, P (X = i) =
X
P ([X = i] ∩ [Y = yj ]).
j∈J
Remarque : les lois marginales ne permettent pas de retrouver la loi conjointe.
2. Notion de loi conditionnelle
Soit x une valeur de X, alors l’évènement (X = x) est non négligeable (P (X = x) > 0). La loi
conditionnelle de Y sachant (X = x) est la donnée des valeurs yj que prend Y et des probabilités
conditionnelles associées PX=x (Y = yj ).
Remarque : si X et Y sont deux variables aléatoires,
P (X + Y = k) =
X
P (X = i ∩ Y = j).
(i,j)∈I×J
i+j=k
5.2
Une mesure de corrélation : la covariance
Def-Prop : soit X et Y deux variables aléatoires réelles, on appelle covariance de X et Y le réel
cov(X, Y ) = E((X − E(X))(Y − E(Y )) = E(XY ) − E(X)E(Y ).
Le résultat suivant est crucial :
Prop : si X et Y sont indépendantes, alors
• E(XY ) = E(X)E(Y ).
• En particulier, on a cov(X, Y ) = 0, on dit alors que X et Y sont non corrélées.
La réciproque est fausse. On peut aussi remarquer l’analogie 2 entre la covariance de deux variables
et le produit scalaire de deux vecteurs.
2. Le produit scalaire mesure le défaut d’orthogonalité et la covariance mesure le défaut de corrélation entre deux
variables. D’ailleurs, la covariance est bilinéaire, symétrique, positive (cov(X, X) = V (X) > 0) et si cov(X, X) = V (X) =
0, alors X est égale à son espérance presque sûrement. Ainsi par exemple, la variance de X peut s’interpréter comme la
norme au carré de X.
4
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016
On en déduit le corollaire suivant sur la variance d’une somme :
Prop : soit X, Y, X1 , . . . , Xn des variables aléatoires réelles.
1. On a V (X + Y ) = V (X) + V (Y ) + 2 cov(X, Y ). Plus généralement
V (X1 + · · · + Xn ) = V (X1 ) + · · · + V (Xn ) + 2
X
cov(Xi , Xj ).
16i<j6n
2. Si les variables X1 , . . . , Xn sont deux à deux indépendantes, on a
V (X1 + · · · + Xn ) = V (X1 ) + · · · + V (Xn ).
6
Vers la loi des grands nombres
Deux inégalités de concentration : soit X une variable aléatoire réelle.
1. Inégalité de Markov : si a > 0, on a :
P (|X| > a) 6
E(|X|)
.
a
2. Inégalité de Bienaymé-Tchebychev : pour tout ε > 0 :
P (|X − E(X)| > ε) 6
V (X)
.
ε2
Interprétation : la probabilité que X s’écarte de sa moyenne d’au moins ε est majoré par la variance
divisé par ε2 . Cela confirme que la variance est un indicateur de dispersion.
Téléchargement