Chapitre 5
Espérance et variance
Dans ce chapitre, toutes les variables aléatoires sont réelles et définies sur un espace
probabilisé (Ω,A,P).
5.1 Espérance d’une variable aléatoire
On souhaite définir une fonction qui à une variable aléatoire réelle Xassocie “la valeur
moyenne” prise par X. Dans le cas d’une variable aléatoire Xdiscrète, une idée intuitive
est de faire la somme des valeurs xkprises par Xpondérées par la probabilité P(X=k),
ce qui donne PkxkP(X=k). Il s’agit du barycentre des valeurs xkaffectés des coefficients
P(X=k). Il s’agit aussi de l’intégrale sur Rde la fonction identité relativement à la mesure
PX.
Dans un cadre général, on est contraint à une définition plus abstraite. On rappelle
que l’on dit que la variable aléatoire réelle (ou fonction mesurable) Xest intégrable si
X∈ L1(Ω,A,P), c’est-à-dire si R|X(ω)|dP(ω)<+.
Définition 5.1.1. Soit Xune variable aléatoire réelle P-intégrable. Lespérance de Xest
E(X) = Z
X(ω)dP(ω).
L’espérance est donc simplement l’intégrale de la variable aléatoire. L’espace (Ω,A,P)
étant fixé, on écrit simplement E, mais en théorie, on devrait écrire EPcar elle dépend de
P.
L’espérance peut être vue comme une application de L1(Ω,A,P)dans Rpuisque si X, Y
L1(Ω,A,P)et X=YP-presque partout (on dira presque sûrement lorsque Pest une pro-
babilité), alors E(X) = E(Y).
Les premières propriétés de l’espérance découlent des propriétés de l’intégrale, en no-
tant que lorsque Pest une probabilité R1dP= 1.
Proposition 5.1.2. 1) (linéarité) Si X, Y L1(Ω,A,P)et aR, alors aX +YL1(Ω,A,P)
et
E(aX +Y) = aE(X) + E(Y).
2) Si presque sûrement X=aR, alors XL1(Ω,A,P)et E(X) = a.
3) (monotonie) Si XL1(Ω,A,P)et si presque sûrement X0, alors E(X)0. Plus
généralement, si X, Y L1(Ω,A,P)et si presque sûrement XY, alors E(X)E(Y).
4) Si XL1(Ω,A,P)et X0, alors E(X)=0X= 0 presque sûrement.
5) Si XL1(Ω,A,P), alors |E(X)| ≤ E(|X|).
CHAPITRE 5. ESPÉRANCE ET VARIANCE
Démonstration. 1), 3), 4) et 5) sont des propriétés classiques de l’intégrale de Lebesgue
par rapport à une mesure positive. 2) vient du fait qu’ici la mesure d’intégration est une
probabilité et donc P(Ω) = 1. On pourra reprendre les démonstrations de ces propriétés en
guise d’exercice.
Remarque 5.1.3. k·k1:XE(|X|)est une norme sur L1(Ω,A,P)qui fait de L1(Ω,A,P)
un espace de Banach (espace vectoriel normé complet).
Le théorème suivant est fondamental. La variable aléatoire Xétant fixée, il permet de
remplacer certains calculs d’intégrales sur l’espace (Ω,A,P)par des calculs d’intégrales
sur l’espace (R,B(R),PX). Une conséquence sera que même lorsque l’espace (Ω,A,P)n’est
pas explicite, on pourra calculer l’espérance de Xsi l’on connait sa loi.
On rappelle que si Xest une variable aléatoire réelle et gest une application mesu-
rable de (R,B(R)) dans (R,B(R)) alors gXest encore une variable aléatoire réelle (i.e. la
composée de deux applications mesurables est encore mesurable).
Théorème 5.1.4. (Théorème de transfert) Soit Xune variable aléatoire (de loi PX) et
g:RRune application mesurable. Alors, gXest P-intégrable ssi gest PX-intégrable,
et dans ce cas Z
gX(ω)dP(ω) = ZR
g(x)dPX(x),
c’est-à-dire, E(gX) = RRg(x)dPX(x).
Démonstration. On montre le théorème successivement pour les fonctions indicatrices, les
fonctions étagées, les fonctions positives (comme limite croissante de fonctions étagées),
puis les fonctions intégrables en décomposant partie positive et partie négative. Cette dé-
monstration est classique et à savoir refaire !
Une conséquence immédiate du théorème de transfert est que si XL1(Ω,A,P), alors
E(X) = ZR
x dPX(x)
(prendre g=idR) et donc que l’espérance de Xne dépend que de la loi de X(si PX=PY
alors E(X) = E(Y)).
Corollaire 5.1.5. Soit g:RRune application mesurable.
1) Si Xest une variable aléatoire discrète d’atomes x1, x2, . . . et si gXL1(Ω,A,P),
E(g(X)) = X
k
g(xk)P(X=xk).
En particulier, E(X) = PkxkP(X=xk).
2) Si Xest une variable aléatoire de densité fet si gXL1(Ω,A,P),
E(g(X)) = ZR
g(x)f(x)(x).
En particulier, E(X) = RRxf(x)(x).
Démonstration. On rappelle que si g:RRet aR,RRg(x)a(x) = g(a)(ce qui corres-
pond à prendre X=adans le théorème de transfert).
1) Ici PX=PkP(X=xk)δxket par le théorème de transfert
E(g(X)) = ZR
g(x)dPX(x) = X
k
P(X=xk)ZR
g(x)xk(x) = X
k
P(X=xk)g(xk).
5.2. MOMENTS
2) Ici dPX=fet par le théorème de transfert
E(g(X)) = ZR
g(x)dPX(x) = ZR
g(x)f(x)(x),
où la deuxième égalité se démontre en utilisant la même procédure que pour la démonstra-
tion du théorème de transfert (exercice).
Exemple 5.1.6. 1) On lance deux dés et on désigne par Sla somme des valeurs obtenues.
Alors, en se rappelant de la loi PSétablie en 3.1,
E(S)=2·1
36 +3·2
36 +4·3
36 +5·4
36 +6·5
36 +7·6
36 +8·5
36 +9·4
36 +10·3
36 +11·2
36 +12·1
36 =252
36 = 7.
On peut aussi utiliser la linéarité, en notant Xle résultat du premier dé et Ycelui du
deuxième, on a
E(X) = E(Y) = (1 + 2 + 3 + 4 + 5 + 6)1
6=21
6et E(S) = E(X+Y) = E(X) + E(Y)=7.
2) Si Xest une variable aléatoire de densité f(x) = 2x1[0,1](x), alors
E(X) = ZR
xf(x)dx =Z1
0
2x2dx =2
3.
3) Si Xest une variable aléatoire de loi PX=1
4δ0+1
4δ1+1
2µ, où (x)=2x1[0,1](x)(x),
alors
E(X) = ZR
x dPx(x)=0·1
4+ 1 ·1
4+1
2Z1
0
2x2dx =7
12.
Attention, certaines variables aléatoires n’admettent pas d’espérance.
Exemple 5.1.7. Soit Xune variable aléatoire ayant pour densité la fonction paire f(x) =
1
π
1
1+x2(vérifier que fest bien une densité de probabilité !). Dans ce cas, on dit que Xsuit
une loi de Cauchy. Alors X /L1(Ω,A,P)et n’a pas d’espérance. En effet, en +,x
1+x21
x
et donc x7→ xf(x)n’est pas intégrable.
5.2 Moments
Soit pun réel positif. On dira qu’une variable aléatoire Xadmet un moment d’ordre psi
|X|pL1(Ω,A,P), autrement dit si E(|X|p)existe, ou encore si XLp(Ω,A,P). On appelle
alors moment d’ordre pde Xla quantité E(Xp).
Pour p= 2, on dit que Xest de carré intégrable.
Remarque 5.2.1. 1. Pour tout p > 0,k·kp:XE(|X|p)1
pest une norme sur Lp(Ω,A,P)
qui fait de Lp(Ω,A,P)un espace de Banach.
2. Si Xest une variable aléatoire bornée, alors Xadmet des moments d’ordres ppour
tous p0.
3. Si la variable aléatoire Xadmet un moment d’ordre p, alors Xadmet des moments
d’ordres qpour tout 0qp. En effet, |X|q1{X1}+|X|p1{X>1}1 + |X|pet
on passe à l’espérance. On peut aussi le voir comme conséquence de l’inégalité de
Hölder : si 1
p+1
r=1
qalors kXY kq≤ kXkpkYkr, en prenant Y= 1 et r=pq
pq.
4. Si Xest une variable aléatoire discrète (d’atomes x1, x2, . . .) ayant un moment d’ordre
p, alors on a E(Xp) = Pkxp
kP(X=xk)(d’après le corollaire 5.1.5).
CHAPITRE 5. ESPÉRANCE ET VARIANCE
5. Si Xest une variable aléatoire à densité ayant un moment d’ordre p, alors on a
E(Xp) = RRxpf(x)(x)(encore d’après le corollaire 5.1.5).
Lorsque l’on sait qu’une variable aléatoire Xadmet un moment d’ordre p, on connait
une vitesse de décroissance de la quantité P(|X| ≥ a)quand a+.
Proposition 5.2.2 (Inégalité de Markov).Soit Xune variable aléatoire ayant un moment
d’ordre p0. Pour tout a > 0,
P(|X| ≥ a)E(|X|p)
ap.
En particulier, P(|X| ≥ a) = O(ap)quand a+.
Démonstration. On écrit, en utilisant la croissance de la fonction x7→ xpsur R+,
|X|p=|X|p1{|X|<a}+|X|p1{|X|≥a}ap1{|X|≥a}
En prenant l’espérance, on obtient,
E(|X|p)apP(|X| ≥ a).
5.3 Variance
Lorsque la variable aléatoire Xest de carré intégrable, on définit la variance de celle-ci
comme l’espérance du carré des écarts à l’espérance.
Définition 5.3.1. Si XL2(Ω,A,P), on appelle variance de Xla quantité
V(X) = E((XE(X))2).
On appelle écart type la quantité σ(X) = pV(X).
Ces quantités permettent de caractériser la dispersion des valeurs prises par Xautour
de leur moyenne. Elles donnent une information supplémentaire sur la distribution de Xen
plus de l’espérance.
Remarque 5.3.2. Si XL2(Ω,A,P), alors V(X)=0ssi Xest presque sûrement constante
(la constante étant E(X)).
Attention, l’application variance (contrairement à l’espérance) n’est pas linéaire (à cause
du carré !). On a la propriété suivante de changement d’échelle et de translation.
Proposition 5.3.3. Si XL2(Ω,A,P),aRet bR,
V(aX +b) = a2V(X).
Démonstration. Changement d’échelle : V(aX) = E((aX E(aX))2) = a2E((XE(X))2) =
a2V(X), par linéarité de l’espérance.
Translation : V(X+b) = E((X+bE(X+b))2) = E((X+bE(X)b))2) = E((XE(X))2) =
V(X), encore par linéarité de l’espérance.
On a aussi une autre formule pour la variance, qui s’avère souvent très utile pour les
calculs explicites.
5.4. ESPÉRANCES ET VARIANCES DE QUELQUES LOIS USUELLES
Proposition 5.3.4 (Formule de Koenig).Si XL2(Ω,A,P), on a
V(X) = E(X2)E(X)2.
Démonstration. Développer le carré dans la définition.
Pour finir, l’application de l’inégalité de Markov (pour p= 2) à la variable aléatoire
XE(X)donne directement la proposition suivante.
Proposition 5.3.5 (Inégalité de Bienaymé-Tchebychev).Soit Xune variable aléatoire ayant
un moment d’ordre 2. Pour tout a > 0,
P(|XE(X)| ≥ a)V(X)
a2.
Exemple 5.3.6. Un QCM est composé de 100 questions à deux choix. Un candidat répond
à chaque question au hasard et de façon indépendante. La loi du nombre de bonnes ré-
ponses Xest donc une loi B(100,1
2). Son espérance vaut 50 et sa variance 25 (voir section
suivante). Le calcul de la probabilité d’avoir au moins 60 bonnes réponses est fastidieux,
mais l’inégalité de Bienaymé-Tchebychev donne la majoration
P(|X50| ≥ 10) 25
102=1
4,
et par symétrie, on en déduit
P(X60) = P(X50 10) = 1
2P(|X50| ≥ 10) 1
8.
5.4 Espérances et variances de quelques lois usuelles
Les résultats suivants finiront par être connus à force de pratique. Il est pour l’instant
surtout important de savoir les retrouver.
Proposition 5.4.1. Soit Xune variable aléatoire réelle. Dans tous les cas suivants Xest
de carré intégrable et :
1. (Bernoulli) si X∼ B(p),p[0,1], alors
E(X) = pet V(X) = p(1 p)
2. (Binomiale) si X∼ B(n, p),nNet p[0,1], alors
E(X) = np et V(X) = np(1 p)
3. (Géométrique) si X∼ G(p),p]0,1[, alors
E(X) = 1
pet V(X) = 1p
p2
4. (Poisson) si X∼ P(λ),λ > 0, alors
E(X) = λet V(X) = λ
5. (Uniforme) si X∼ U([a, b]),a < b R, alors
E(X) = a+b
2et V(X) = (ba)2
12
1 / 8 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !