©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016 1
Résumé de cours sur les Variables aléatoires sur un espace probabilisé fini
Dans tout ce chapitre, on considère (Ω, P ) un espace probabilisé fini.
1 Notion de variable aléatoire
Une variable aléatoire est une application de Ω dans un ensemble E. En général, Eest égal à R
(on parle alors de variable aléatoire réelle, en abrégé var) ou à Rk(on parle alors de vecteur aléatoire).
Déterminer la loi de probabilité de X, c’est déterminer X(Ω) et P(X=x) pour tout xdans X(Ω).
En particulier, on a PxX(ω)P(X=x) = 1.
Astuce : parfois il est plus simple de calculer P(X6x) que de calculer P(X=x) (par exemple
pour le maximum de plusieurs variables aléatoires). On peut alors retrouver P(X=x), car si Xprend
les valeurs x0<···< xn, alors
P(X=xk) = P(X6xk)P(X6xk1).
2 Deux indicateurs fondamentaux : l’espérance et la variance
1. Espérance : si Xest une variable aléatoire réelle, on appelle espérance de Xle réel
E(X) = X
xX(Ω)
xP (X=x).
Remarque : c’est la moyenne des valeurs xpondérées par les probabilités P(X=x). C’est un
indicateur de position.
Propriétés :
Linéarité de l’espérance (c’est LA propriété fondamentale)
croissance et positivité
Si Aest un évènement, on a E(1A) = P(A).
Théo de transfert : si fest une fonction de X(Ω) dans R, alors
E(f(X)) = X
xX(ω)
f(x)P(X=x).
2. Variance : on appelle variance de Xle réel V(X) = E(XE(X))2et écart-type de Xle
réel σX=qV(X).
La variance est «la moyenne des carrés des écarts à la moyenne», elle mesure donc la dispersion
des valeurs xipar rapport à la moyenne E(X). La variance est un nombre toujours positif.
Formule de Huygens : On a
V(X) = E(X2)E(X)2.
De plus, pour tous réels aet b, on a V(aX +b) = a2V(X)
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016 2
3 Lois usuelles finies
1. Loi uniforme : si Xest une variable aléatoire qui prend les valeurs 1,...,n de façon équipro-
bable, on dit que Xsuit une loi uniforme sur J1, nK, on note X ֒→ U(J1, nK) et on a :
k∈ {1,...,n}, P (X=k) = 1
n, E(X) = n+ 1
2, V (X) = n21
12 .
2. Loi de Bernoulli : si Xest une variable aléatoire prenant uniquement les valeurs 0 et 1, et que
P(X= 1) = p, on dit que Xsuit une loi de Bernoulli de paramètre p. Alors
E(X) = pet V(X) = p(1 p).
On dit qu’une expérience aléatoire est une épreuve de Bernoulli lorsqu’elle admet seulement
deux issues possibles, moralement échec ou succès. L’exemple classique est le lancer d’une pièce
(équilibrée ou non).
Remarque : si Aest un évènement, la fonction indicatrice 1Aest une variable aléatoire qui suit
une loi de Bernoulli de paramètre p=P(A).
3. Loi Binomiale : on répète nfois de manière indépendante une épreuve de Bernoulli de
paramètre p. On note Xla variable aléatoire donnant le nombre de succès au cours des n
épreuves. Alors Xpeut prendre les valeurs 0,1,...,n et on montre que
k∈ {0,...,n}, P (X=k) = n
k!pk(1 p)nk.
On dit que Xsuit une loi binomiale de paramètres net p, on note X ֒→ B(n, p). On montre
que 1
E(X) = np et V(X) = np(1 p).
4 Indépendance de variables aléatoires
Def : des variables X1,...,Xnsont dites (mutuellement) indépendantes si pour tout x1X1(ω),...,xn
Xn(Ω) :
P([X1=x1]...[Xn=xn]) = P(X1=x1). . . P (Xn=xn).
Remarque : on peut démontrer et on l’admet que les variables aléatoires X1,...,Xnsont indépen-
dantes, ssi les évènements [X1=x1],...,[Xn=xn] sont indépendants.
Propriétés :
Si (X1,...,Xn) est une famille de va indépendantes, alors toute sous-famille est encore une
famille de va indépendantes.
Si Xet Ysont deux variables aléatoires indépendantes et f:X(Ω) F,g:Y(Ω) Gdeux
fonctions, alors les variables aléatoires f(X) et g(Y) sont indépendantes.
1. Pour se souvenir de ce résultat, on écrit X=X1+· · · +Xnoù pour tout i∈ {1, . . . , n},Xiest la variable aléatoire
qui vaut 1 si on réalise un succès à la i-ème épreuve et 0 sinon. Xisuit une loi de Bernoulli de paramètre p, donc
E(Xi) = painsi par linéarité E(X) = np. De plus comme les variables aléatoires X1, . . . , Xnsont indépendantes, on a
V(X1+···+Xn) = V(X1) + ···+V(Xn) et on obtient ainsi V(X) = nV (X1) = np(1 p).
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016 3
5 Couples de variables aléatoires
5.1 Loi d’un couple
1. Notion de loi conjointe et de lois marginales : soit Xet Ydeux variables aléatoires. L’application
(X, Y ) : w7→ (X(w), Y (w)) définit une variable aléatoire à valeurs dans X(Ω) ×Y(Ω) (on parle
de vecteur aléatoire). Sa loi est appelée loi conjointe de Xet Y.
Si Xprend les valeurs {xi|iI}et Yles valeurs {yj|jJ}, la loi de (X, Y ) est donc définie
par ses valeurs (xi, yj) et les probabilités associées P([X=xi][Y=yj]) pour (i, j)I×J.
Si l’on connaît la loi du couple (X, Y ), on peut retrouver les lois de Xet de Y. On dit que
Xet Ysont les lois marginales du couple (X, Y ). En effet, les ensembles [Y=yj] pour jJ
constituent une partition de Ω, donc
iI, P (X=i) = X
jJ
P([X=i][Y=yj]).
Remarque : les lois marginales ne permettent pas de retrouver la loi conjointe.
2. Notion de loi conditionnelle
Soit xune valeur de X, alors l’évènement (X=x) est non négligeable (P(X=x)>0). La loi
conditionnelle de Ysachant (X=x) est la donnée des valeurs yjque prend Yet des probabilités
conditionnelles associées PX=x(Y=yj).
Remarque : si Xet Ysont deux variables aléatoires,
P(X+Y=k) = X
(i,j)I×J
i+j=k
P(X=iY=j).
5.2 Une mesure de corrélation : la covariance
Def-Prop : soit Xet Ydeux variables aléatoires réelles, on appelle covariance de Xet Yle réel
cov(X, Y ) = E((XE(X))(YE(Y)) = E(XY )E(X)E(Y).
Le résultat suivant est crucial :
Prop : si Xet Ysont indépendantes, alors
E(XY ) = E(X)E(Y).
En particulier, on a cov(X, Y ) = 0, on dit alors que Xet Ysont non corrélées.
La réciproque est fausse. On peut aussi remarquer l’analogie 2entre la covariance de deux variables
et le produit scalaire de deux vecteurs.
2. Le produit scalaire mesure le défaut d’orthogonalité et la covariance mesure le défaut de corrélation entre deux
variables. D’ailleurs, la covariance est bilinéaire, symétrique, positive (cov(X, X) = V(X)>0) et si cov(X, X) = V(X) =
0, alors Xest égale à son espérance presque sûrement. Ainsi par exemple, la variance de Xpeut s’interpréter comme la
norme au carré de X.
©Arnaud de Saint Julien - MPSI Lycée La Merci 2015-2016 4
On en déduit le corollaire suivant sur la variance d’une somme :
Prop : soit X, Y, X1,...,Xndes variables aléatoires réelles.
1. On a V(X+Y) = V(X) + V(Y) + 2 cov(X, Y ). Plus généralement
V(X1+···+Xn) = V(X1) + ···+V(Xn) + 2 X
16i<j6n
cov(Xi, Xj).
2. Si les variables X1,...,Xnsont deux à deux indépendantes, on a
V(X1+···+Xn) = V(X1) + ···+V(Xn).
6 Vers la loi des grands nombres
Deux inégalités de concentration : soit Xune variable aléatoire réelle.
1. Inégalité de Markov : si a > 0, on a :
P(|X|>a)6E(|X|)
a.
2. Inégalité de Bienaymé-Tchebychev : pour tout ε > 0 :
P(|XE(X)|>ε)6V(X)
ε2.
Interprétation : la probabilité que Xs’écarte de sa moyenne d’au moins εest majoré par la variance
divisé par ε2. Cela confirme que la variance est un indicateur de dispersion.
1 / 4 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !