Variables aléatoires , cadre continu

publicité
Chapitre 4
Variables aléatoires , cadre continu
Objectifs du chapitre
1. Introduire la notion de variable à densité.
2. Propriétés de la fonction de répartition d’une variable à densité.
3. Espérance, variance et écart type d’une variable à densité.
4. Lois usuelles de variables aléatoires à densité.
5. Couples de variables aléatoires à densité, lois jointes, indépendance.
Au chapitre précédent nous avons vu les variables aléatoires dans le cadre discret. L’univers Ω était alors un ensemble
dénombrable et la tribu des évènements était en général l’ensemble des parties de Ω.
Dans ce chapitre nous travaillerons avec des univers non dénombrables, le plus souvent des intervalles de R comme [0, 1]
ou des produits d’intervalles de R comme [0, 1] × [0, 1].

Si on prend Ω = [0, 1] × [0, 1], il n’existe pas de probabilité P qui d’une part, attribue la même probabilité à deux
parties de [0, 1] × [0, 1] translatées l’une de l’autre et qui d’autre part soit telle que P([a, b] × [c, d]) soit égale à l’aire du
rectangle [a, b]× [c, d]. Ce sont pourtant des propriétés que l’on attend d’une probabilité uniforme. Par contre, une probabilité
P possédant ces propriétés peut être définie sur une tribu plus petite que P (Ω) appelée tribu des Boréliens. Nous l’avons
présentée au deuxième chapitre.
4.1
Variable aléatoire continue
Commençons par rappeller la définition d’une variable aléatoire.
Définition 4.1.1. On considère (Ω, A , P) un espace probabilisé. Une application
X
: Ω →
R
ω 7→ X(ω)
est une variable aléatoire si pour tout intervalle I de R, l’ensemble
X −1 (I) = {ω ∈ Ω | X(ω) ∈ I}
est un évènement de A .
Définition 4.1.2 (Variable aléatoire continue). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire continue X est
une variable aléatoire qui n’est pas discrète : son image n’est pas une partie dénombrable de R.
Parmis les variables aléatoires continues nous allons nous intéresser aux variables aléatoires à densité.
1
4.2
Variable aléatoire à densité
Définition 4.2.1 (Variable aléatoire à densité). Soit X une variable aléatoire définie sur un espace probabilisé (Ω, A , P).
On dit que X est à densité si il existe une fonction continue par morceaux positive, intégrable sur R et vérifiant pour tout
intervalle I de R :
Z
P(X ∈ I) = f (x)dx.
I
Par exemple :
P(X ∈ [a, b]) =
Z b
f (x)dx
a
et
P(X ∈ [a, +∞[) =
Z +∞
Z A
f (x)dx = lim
A→+∞ a
a
f (x)dx.
Dans ce cas f est appelée densité de X.

Cas particulier à toujours vérifier
Z
f (x)dx = P(X ∈ R) = 1.
R
Remarque 4.2.2. Si X est une variable à densité alors la probabilité P(X = a), pour a une valeur quelconque, est nulle :
P(X = a) = P(X ∈ [a, a]) =
Z a
f (x)dx = 0.
a
Exemple 4.2.3. (Loi uniforme sur [0, 1]). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit la loi uniforme
sur [0, 1] si et seulement si pour tout intervalle I de R
P(X ∈ I) =
Z
1dx.
I∩[0,1]
Intuitivement, la probabilité que X appartienne à I est d’autant plus grande que I est grand.
La densité de X est la fonction caractéristique de [0, 1] notée 1[0,1] .
Exemple 4.2.4 (Loi exponentielle). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit une loi exponentielle
E (λ), si elle a pour densité de probabilité la fonction
f (x) =
0
si x < 0
.
f (x) = λe−λx si x ≥ 0
Pour tout intervalle I de R
P(X ∈ I) =
Z
I∩R+
λe−λx dx.
On vérifie que l’on a bien
P(X ∈ R) =
4.3
Z +∞
λe−λx dx = lim
0
Z A
A→∞ 0
λe−λx dx = lim 1 − e−λA = 1.
A→+∞
Fonction de répartition d’une variable aléatoire
Définition 4.3.1 (Fonction de répartition). Soit (Ω, A , P) un espace probabilisé et X une variable aléatoire ayant une densité
f continue par morceaux sur R et positive. La fonction de répartition de X est naturellement définie pour tout x ∈ R par
F(x) = P(X ≤ x) =
Z x
Z x
f (t)dt = lim
A→−∞ A
−∞
2
f (t)dt.
Remarque 4.3.2. Pour tous réels a et b avec a < b nous avons
P(a ≤ X ≤ b) = F(b) − F(a).
Rappelons les propriétés essentielles de la fonction de répartition d’une variable aléatoire énoncées et prouvées au
chapitre précédent.
Proposition 4.3.3. Soit (Ω, A , P) un espace probabilisé. La fonction de répartition d’une variable aléatoire X a les propriétés suivantes :
1. Elle est croissante.
2. Elle est continue à droite en tout point de R.
3. Elle est continue en un point x si et seulement si P(X = x) = 0.
4. Sa limite en −∞ vaut 0
5. Sa limite en +∞ vaut 1.

Notons que dans le cas à densité la fonction de répartition est continue car pour tout x nous avons observé ci-dessus
que P(X = x) = 0.
Dans le cas à densité la fonction de répartition a la propriété suivante
Proposition 4.3.4. Soit (Ω, A , P) un espace probabilisé. Soit X une variable aléatoire à densité f . La fonction de répartition
de la variable aléatoire X est dérivable en un point de continuité x de f et nous avons F 0 (x) = f (x).
Démonstration. Rappelons que la fonction densité f est continue par morceaux et positive telle que 0+∞ f (t)dt = 1. Soit x0
un point de continuité de f . Montrons que FX est dérivable en x0 de dérivée f (x0 ). Par définition il s’agit donc de montrer
que
FX (x0 + h) − FX (x0 )
lim
= f (x0 ),
h→0
h
ou encore
lim [FX (x0 + h) − FX (x0 )] − h f (x0 ) = 0.
R
h→0
Fixons h réel, par la relation de Chasles nous avons
[Φ(x0 + h) − Φ(x0 )] − h f (x0 ) =
Z x0 +h
x0
f (t)dt − h f (x0 ) =
Z x0 +h
x0
[ f (t) − f (x0 )] dt.
On souhaite montrer que cette intégrale tend vers 0 quand h tend vers 0. Ceci provient de la continuité de f en x0 :
Pour ε > 0 fixé, il existe η avec 1 > η > 0 tel que pour tout t ∈ [x0 − η, x0 + η] ∩ I on ait | f (t) − f (x0 )| ≤ ε.
Par conséquent pour |h| ≤ η nous obtenons
Z x +h
Z x0 +h
0
[Φ(x0 + h) − Φ(x0 )] − h f (x0 ) =
| f (t) − f (x0 )| dt ≤ εη ≤ ε.
f (t)dt − h f (x0 ) ≤
x0
x0
On obtient ainsi le résultat par définition de la limite.
Exemple 4.3.5 (Loi uniforme). La fonction de répartition d’une variable aléatoire de densité uniforme est

x≤0
 0 si
x si 0 ≤ x ≤ 1 .
FX (x) =

1 si
x≥1
On vérifie bien que cette fonction est dérivable en tout point x0 où f est continue et qu’en un tel point F 0 (x0 ) = f (x0 ).
3
Exemple 4.3.6 (Loi exponentielle). La fonction de répartition d’une variable aléatoire suivant une loi exponentielle E (λ)
est
0
si x ≤ 0
.
FX =
1 − e−λx si x ≥ 0
On vérifie bien que cette fonction est dérivable en tout point x0 où f est continue et qu’en un tel point F 0 (x0 ) = f (x0 ).
Exemple 4.3.7 (Loi d’une fonction de variable aléatoire). Soit X une variable aléatoire admettant une densité fX et soit g
une fonction définie sur R strictement monotone et dérivable. La variable aléatoire Y = g(X) admet une densité fY définie
par
fX (g−1 (y)) (g−1 )0 (y)
si
y ∈ g(R)
fY (y) =
0
sinon
Démonstration. Par hypothèse la fonction g est bijective de R sur g(R). Par application du théorème des valeurs intermédiaires g(R) est un intervalle ]α, β[ de R. Supposons g strictement croissante, le raisonnement sera analogue si g est strictement
décroissante. La dérivée de g est strictement positive. Notons que g−1 est strictement croissante et dérivable à dérivée strictement positive.
Pour tout y ∈] − ∞, α],
P(Y ≤ y) = P(g(X) ≤ y ≤ α) = 0.
Pour tout y ∈ [β, +∞[,
P(Y ≤ y) = P(g(X) ≤ β ≤ y) = 1.
Dans ces deux cas fY (y) = 0.
Pour tout y ∈ g(R) nous avons
P(Y ≤ y) = P(X ≤ g−1 (y)) =
Z g−1 (y)
On effectue le changement de variable définie par x = g−1 (z) et dx =
P(Y ≤ y) =
Z y
fX (x)dx.
−∞
(g−1 )0 (z)dz :
fX (g−1 (z))(g−1 )0 (z)dz =
Z y
α
−∞
fY (z)dz,
ce qui montre bien le résultat souhaité.
4.4
Espérance d’une variable à densité
Définition 4.4.1 (Espérance). Soit (Ω, A , P) un espace probabilisé et X variable aléatoire à densité f . On dira que X est de
classe L1 si et seulement si la fonction x 7→ |x| f (x) est intégrable sur R c’est à dire
Z B
lim
lim
A→−∞ B→+∞ A
|x| f (x)dx existe.
En ce cas, l’espérance de X est définie par l’intégrale
Z +∞
E(X) =
x f (x)dx.
−∞
Remarque 4.4.2. Comme dans le cas discret, l’espérance de X peut être vue comme la moyenne des valeurs x pondérées
par le poids infinitésimal f (x)dx. C’est pourquoi on dit aussi moyenne au lieu de l’espérance de X. Remarquons que si les
valeurs de X sont comprises entre a et b alors a ≤ E(X) ≤ b (cf théorème de transfert).
Exemple 4.4.3 (Espérance de la loi uniforme). Pour déterminer si la loi uniforme sur [0, 1] a une espérance ou non et le cas
échéant la calculer, on considère l’intégrale
Z +∞
|t| f (t)dt =
−∞
Z 1
0
1
tdt = .
2
Ceci montre que la loi uniforme admet une espérance et que celle ci vaut
Z +∞
Z 1
t f (t)dt =
−∞
0
4
1
tdt = .
2
Exemple 4.4.4 (Espérance de la loi exponentielle). Pour déterminer si la loi exponentielle de paramètre λ > 0 a une espérance
ou non et le cas échéant la calculer, on considère l’intégrale
Z +∞
Z A
Z A
1
−λt
−λt A
−λt
|t| f (t)dt = lim
tλe dt = lim [−t.e ]0 +
e dt = .
A→+∞ 0
A→+∞
λ
−∞
0
Ceci montre que la loi uniforme admet une espérance et que celle ci vaut
Z +∞
Z A
Z
t f (t)dt = lim
tλe−λt dt = lim [−t.e−λt ]A0 +
A→+∞ 0
−∞
A→+∞
A
e−λt dt
0
1
= .
λ
Exemple 4.4.5 (La loi de Cauchy n’a pas d’espérance). En effet la densité d’une loi de Cauchy est la fonction f : t 7→
or la fonction t 7→ t f (t) n’est pas intégrable au voisinage de l’infini car équivalente à la fonction t 7→
loi de Cauchy n’admet pas d’espérance.
1
πt .
1
π(1+t 2 )
Ceci montre que la
On admettra le théorème suivant
Théorème 4.4.6 (Théorème de transfert). Soit X une variable aléatoire ayant une densité f et ϕ : R → R une fonction alors
l’espérance de la variable ϕ(X) est
Z
E(ϕ(X)) =
ϕ(x) f (x)dx,
R
sous réserve que la fonction x 7→ |ϕ(x)| f (x) soit intégrable sur R.
Exemple 4.4.7 (Loi d’une fonction de variable aléatoire). Soit X une variable aléatoire admettant une densité fX et soit g
une fonction définie sur R strictement croissante et dérivable. La fonction g est une bijection de R sur un intervalle ]α, β[. La
variable aléatoire Y = g(X) admet une densité fY définie par
fX (g−1 (y)) (g−1 )0 (y)
si
y ∈ g(R) =]α, β[
fY (y) =
0
sinon
Supposons que Y est de la classe L1 , par conséquent, son espérance est de la forme
Z ∞
E(Y ) =
−∞
Z β
y fY (y)dy =
y fX (g−1 (y)) (g−1 )0 (y) dy.
α
En appliquant la formule de changement de variables avec y = g(x) nous obtenons la formule du théorème de transfert
Z ∞
E(Y ) =
−∞
g(x) fX (x)dx.
On déduit du théorème de transfert la propriété suivante :
Proposition 4.4.8. Soit X une variable aléatoire à densité de classe L1 . Pour tous réels a et b, la variable aléatoire aX + b
admet une moyenne et l’on a
E(aX + b) = aE(X) + b.
4.5
Variance et écart type d’une variable à densité
Définition 4.5.1 (Variable aléatoire à densité de classe L2 ). Soit (Ω, A , P) un espace probabilisé et X variable aléatoire de
densité f . On dira que X est de classe L2 si et seulement si X 2 est de classe L1 c’est à dire si la fonction x 7→ x2 f (x) est
intégrable sur R.
Proposition 4.5.2. Si X est une variable aléatoire de classe L2 , elle est aussi de classe L1 .
5
Démonstration. Comme dans le cas discret le point clé est l’inégalité
x2 + 1 ≥ |x| .
Ceci montre que si X est de classe L2 alors X est aussi de classe L1 par l’inégalité
∀x ∈ R, x2 f (x) + f (x) ≥ |x| f (x) ≥ 0
et le fait qu’une fonction continue par morceaux positive et dominée par une fonction intégrable sur R est elle même
intégrable sur R.
Définition 4.5.3 (Variance). Soit (Ω, A , P) un espace probabilisé et X variable aléatoire de densité f de classe L2 . La variable
aléatoire X − E(X) est L2 et on appelle variance de X le réel
Var(X) = E((X − E(X))2 ) =
Z
(x − E(X))2 f (x)dx = E(X 2 ) − E(X)2 .
R
On appelle écart type de X la racine carrée de la variance noté σX .
Démonstration. On applique le théorème de transfert avec comme fonction Φ la fonction
x 7→ (x − E(X))2
pour obtenir
Z
Var(X) =
(x − E(X))2 f (x)dx.
R
En développant le carré on obtient alors
Z
Var(X) =
x2 f (x)dx − 2E(X)
R
Z
x f (x)dx + E(X)2
R
Z
f (x)dx
R
En appliquant à nouveau le théorème de transfert on obtient l’égalité cherchée
Var(X) = E(X 2 ) − E(X)2 .
Comme dans le cas discret, nous montrons ci-dessous l’inégalité de Bienaymé-Tchebichev qui donne une idée de la
répartition de X autour de sa moyenne.
Proposition 4.5.4 (Inégalité de Bienaymé-Tchebychev). Soit X une variable aléatoire réelle de densité f , de classe L2 . Pour
tout réel ε > 0 on a
Var(X)
P(|X − E(X)| > ε) ≤
.
ε2
Démonstration. Pour tout ε > 0, on a par le théorème de transfert
Z +∞
Var(X) =
(x − E(X))2 f (x)dx
−∞
donc
Var(X) ≥
Z E(X)−ε
(x − E(X))2 f (x)dx +
Z +∞
−∞
(x − E(X))2 f (x)dx
E(X)+ε
donc
2
Var(X) ≥ ε
Z
Z +∞
E(X)−ε
f (x)dx +
−∞
f (x)dx ,
E(X)+ε
donc
Var(X) ≥ ε2 P(|X − E(X)| > ε).
6
4.6
Lois usuelles de variables aléatoires à densité
Définition 4.6.1 (Loi uniforme). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit une loi uniforme sur
[a, b], notée U[a,b] , si elle a pour densité de probabilité la fonction
f (x) = 0 si x ∈
/ [a, b]
.
1
f (x) = b−a si x ∈ [a, b]
On a E(X) =
a+b
2
et Var(X) =
(b−a)2
12 .
Définition 4.6.2 (Loi exponentielle). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit une loi exponentielle
E (λ), si elle a pour densité de probabilité la fonction
f (x) = 0
si x < 0
.
f (x) = λe−λx si x > 0
On a E(X) =
1
λ
et var(X) =
1
.
λ2
La loi exponentielle est souvent utilisée dans la modélisation de temps d’attente et des durées de vie (atomes radioactifs
etc...)
Définition 4.6.3 (Loi normale, loi de Laplace-Gauss). Soit (Ω, A , P) un espace probabilisé. Une variable aléatoire X suit
une loi normale N (µ, σ) lorsqu’elle a une densité de probabilité
!
1
1 x−µ 2
f (x) = √ exp −
.
2
σ
σ 2π
En ce cas on a
E(X) = µ, Var(X) = σ2 .
La loi normale N (0, 1) est appelée loi normale centrée réduite.
Beaucoup de mesures suivent approximativement une loi normale que l’on appelle aussi loi des erreurs. Nous verrons au
prochain chapitre le théorème limite central qui montrera le caractère universel de cette loi.
√
R
R
√
2
2
Démonstration. Détaillons le calcul R e−x dx = π. Nous montrons pour cela l’égalité 0+∞ e−x dx = 2π , on déduit ensuite
par parité l’égalité précédente.
L’idée principale découle du théorème de Fubini : pour tout R > 0 nous avons
Z R
2
Z RZ R
−x2 −y2
−x2
e
dxdy =
e dx
0
0
0
d’où l’on déduit par passage à la limite
Z Z
−x2 −y2
e
Z
dxdy =
R R
Nous avons la chaîne d’inclusion
e
−x2
2
dx
R
√
D(0, R) ∩ R+2 ⊂ [0, R] × [0, R] ⊂ D(0, 2R) ∩ R+2
d’où l’on déduit les inégalités
Z
−x2 −y2
e
D(0,R)∩R+2
dxdy ≤
Z
−x2 −y2
e
[0,R]2
dxdy ≤
Z
e
√
D(0, 2R)∩R+2
−x2 −y2
dxdy
En utilisant le passage en coordonnées polaires nous calculons les intégrales sur les quart de disque :
Z
Z R Z π/2
2
2
2
2
π
π
e−x −y dxdy =
e−ρ ρdρdθ =
1 − e−R
→
.
+2
R→+∞
4
4
D(0,R)∩R
0
0
Nous déduisons du théorème d’encadrement le résultat souhaité.
Les résultats sur l’espérance et la variance d’une loi normale découleront alors facilement par intégration par parties ou
changement de variable de la formule ci-dessus.
7
4.7
Couples de variables aléatoires à densité
Rappelons les définitions d’intégrabilité sur R2 des fonctions continues par morceaux.
Définition 4.7.1. (Intégrabilité d’une fonction de deux variables et théorème de Fubini).
1. Cas positif. Une fonction f continue par morceaux positive est intégrable sur R2 si et seulement si elle vérifie les
conditions équivalentes suivantes :
R
• pour tout x ∈ R la fonction y 7→ f (x, y) est intégrable sur R et la fonction x 7→ R f (x, y)dy est continue par morceaux
et intégrable sur R.
R
• pour tout y ∈ R la fonction x 7→ f (x, y) est intégrable sur R et la fonction y 7→ R f (x, y)dx est continue par morceaux
et intégrable sur R.
En ce cas
Z
Z
Z
Z
Z
f (x, y)dxdy =
f (x, y)dy dx =
f (x, y)dx dy.
R2
x∈R
y∈R
y∈R
x∈R
L’équivalence de ces deux conditions et l’égalité de ces formules constituent le théorème de Fubini dans le cas positif.
2. Cas général. Une fonction continue par morceaux f sur R2 est intégrable sur R2 si et seulement si | f | est intégrable
sur R2 au sens précédent. En ce cas nous avons l’égalité
Z
Z
Z
Z
Z
f (x, y)dxdy =
f (x, y)dy dx =
f (x, y)dx dy
R2
x∈R
y∈R
y∈R
x∈R
qui constitue le théorème de Fubini.
Cette définition et ces résultats s’étendent en dimension n.
Donnons la définition d’un vecteur aléatoire.
Définition 4.7.2. On considère (Ω, A , P) un espace probabilisé. Une application
X = (X1 , X2 ) : Ω → R2
ω 7→ X(ω)
est un vecteur aléatoire si pour tout produit d’intervalles I × J de R2 , l’ensemble
X −1 (I × J) = {ω ∈ Ω | X(ω) ∈ I × J}
est un évènement de A .
Les composantes X1 et X2 sont deux variables aléatoires que loi appelle les lois marginales de X.
Remarque 4.7.3. Cette définition se prolonge immédiatement en la définition d’un vecteur aléatoire à n composantes.
Définition 4.7.4. On dira qu’un vecteur aléatoire X = (X1 , X2 ) admet une densité, si il existe une fonction f continue par
morceaux sur R2 , positive et intégrable sur R2 avec
Z
R2
f (x1 , x2 )dx1 dx2 = 1
telle que pour tout produit d’intervalles I × J,
P(X ∈ I × J) =
Z
I×J
f (x1 , x2 )dx1 dx2 .
Exemple 4.7.5 (Loi uniforme sur un rectangle). Considérons le rectangle [a, b] × [c, d]. La loi uniforme sur ce rectangle est
notée U ([a, b] × [c, d]). Sa densité f est définie par : pour tout x ∈ R2
f (x) =
1
1
(x).
(b − a)(d − c) [a,b]×[c,d]
8
Exemple 4.7.6 (Loi uniforme sur le disque D(0, r)). On notera cette loi U (D(0, r)), sa densité est définie par
1
1
(x).
πr2 D(0,r)
∀x ∈ R2 , f (x) =
Plus généralement la loi uniforme sur une partie du plan dont l’aire est mesurable et non nulle est définie par
f (x) =
1
1A (x).
Aire(A)
Exemple 4.7.7 (Loi normale centrée réduite sur R2 ). La densité f est définie par : pour tout x = (x1 , x2 ) ∈ R2
f (x) =
2
x + x22
1
exp − 1
.
2π
2
Proposition 4.7.8. Si le vecteur aléatoire X = (X1 , X2 ) admet une densité fX , les lois marginales X1 et X2 admettent des
densités respectives fX1 et fX2 données par
1. pour tout x1 ∈ R
Z
fX1 (x1 ) =
fX (x1 , x2 )dx2 .
R
2. pour tout x2 ∈ R
Z
fX2 (x2 ) =
fX (x1 , x2 )dx1 .
R
Remarque 4.7.9. Remarquons que par l’hypothèse d’intégrabilité de f sur R2 les fonctions f1 et f2 sont bien inégrables sur
R!
Démonstration. En effet pour tout x1 ∈ R nous avons par définition de la densité f l’égalité
P(X1 ≤ x1 ) = P(X ∈] − ∞, x1 ] × R) =
Z
]−∞,x1 ]×R
f (x1 , x2 )dx1 dx2
puis par le théorème de Fubini
P(X1 ≤ x1 ) =
Z x1 Z
f (x1 , x2 )dx2 dx1 .
−∞
R
Ce qui par définition d’une densité prouve le résultat.
On raisonne de même pour X2 .
Théorème 4.7.10 (Théorème de transfert pour un vecteur aléatoire). Soit X un vecteur aléatoire défini sur un espace probabilisé (Ω, A , P) à valeurs dans R2 , de densité f . Soit Φ une fonction définie sur R2 à valeurs réelles. Si la fonction |Φ| f est
intégrable sur R2 alors la variable aléatoire Φ(X) est de classe L1 est son espérance est donnée par la formule
Z
E(Φ(X)) =
Rn
Φ(x) f (x)dx.
Là encore ce théorème se généralise en dimension n quelconque.
Proposition 4.7.11 (Linéarité de l’espérance). Soit X = (X1 , X2 ) un vecteur aléatoire à densité f et de classe L1 . Si X1 et X2
sont de classe L1 alors pour tout réel λ1 et λ2 , la variable aléatoire λ1 X1 + λ2 X2 est de classe L1 et l’on a
E(λ1 X1 + λ2 X2 ) = λ1 E(X1 ) + λ2 E(X2 ).
Démonstration. Remarquons tout d’abord que les variables aléatoires marginales X1 et X2 ont pour densité
Z
f1 (x1 ) =
Z
f (x1 , x2 )dx2 et f2 (x2 ) =
R
f (x1 , x2 )dx1
R
9
Par hypothèse sur X1 et X2 les fonctions x1 7→ x1 f1 (x1 ) et x2 7→ x2 f2 (x2 ) sont intégrables sur R.
On considère la fonction Φ définie pour tout (x1 , x2 ) ∈ R2
Φ(x1 , x2 ) = λ1 x1 + λ2 x2 .
On a par l’inégalité triangulaire, pour tout (x1 , x2 ) ∈ R2 ,
0 ≤ |Φ(x1 , x2 )| f (x1 , x2 ) ≤ (|λ1 | |x1 | + |λ2 | |x2 |) f (x1 , x2 ).
Nous déduisons du théorème de Fubini et de ce qui précède que la fonction |Φ| f est intégrable sur R2 ce qui montre que
la fonction Φ f est intégrable sur R2 . On conclut enfin par linéarité de l’intégrale et par définition des lois marginales et de
l’espérance.
Rappelons la notion d’indépendance de deux variables aléatoires.
Définition 4.7.12. Soit X1 et X2 deux variables aléatoires sur un espace probabilisé (Ω, A , P). Ces variables aléatoires sont
indépendantes si et seulement si pour tout intervalle I1 , I2 de R
P(X1 ∈ I1 , X2 ∈ I2 ) = P(X1 ∈ I1 )P(X2 ∈ I2 ).
Proposition 4.7.13.
1. Pour que deux variables aléatoires X1 et X2 soient indépendantes, il faut et il suffit que pour tout
2
(x1 , x2 ) ∈ R on ait
P(X1 ≤ x1 , X2 ≤ x2 ) = P(X1 ≤ x1 )P(X2 ≤ x2 ).
2. Si les variables aléatoires X1 et X2 sont indépendantes et admettent une densité fX1 et fX2 , alors la variable aléatoire
X = (X1 , X2 ) admet une densité fX définie sur R2 par
fX (x1 , x2 ) = fX1 (x1 ) fX2 (x2 ).
3. Réciproquement, si la variable aléatoire X = (X1 , X2 ) admet une densité fX de la forme
fX (x1 , x2 ) = f (x1 )g(x2 )
avec f et g des fonctions positives intégrables sur R, alors les variables aléatoires marginales X1 et X2 sont indépendantes et ont pour densité respectives les fonctions f et g normalisées.
Démonstration. Le point essentiel de la preuve est la première assertion que nous admettrons car elle découle de la théorie de
la mesure (mesure produit). Les deux points suivants découlent immédiatement des définitions et du théorème de Fubini.
On déduit de cette proposition, du théorème de transfert et du théorème de Fubini le corollaire :
Corollaire 4.7.14. Soient X1 et X2 deux variables aléatoires réelles indépendantes admettant des densités.
1. Si Φ1 et Φ2 sont des fonctions réelles telles que les variables aléatoires Φ1 (X1 ) et Φ2 (X2 ) sont de classe L1 , la variable
aléatoire produit Φ1 (X1 )Φ2 (X2 ) est elle aussi de classe L1 et on a
E(Φ1 (X1 )Φ2 (X2 )) = E(Φ1 (X1 ))E(Φ2 (X2 )).
2. Si de plus les variables X1 et X2 admettent une variance alors on a
Var(X1 + X2 ) = Var(X1 ) +Var(X2 ).
Comme dans le cas discret on définit la notion de covariance de deux variables aléatoires à densité
Définition 4.7.15. Si la variable aléatoire X = (X1 , X2 ) a une densité f , si X1 et X2 sont de classe L2 alors la variable aléatoires (X1 − E(X1 ))(X2 − E(X2 )) est de classe L1 et son espérance est appelée covariance de X notée Cov(X1 , X2 ).
10
Démonstration. Le point essentiel est : si X et Y sont deux variables aléatoires à densité f et g et de classe L2 alors le produit
XY est de classe L1 . En effet par le théorème de transfert il faut et il suffit de montrer que la fonction
(x, y) 7→ |xy| f (x)g(y)
est intégrable sur R2 . Ceci se déduit de l’inégalité
|xy| ≤ |x|2 + |y|2 ,
qui induit l’inégalité
|xy| f (x)g(y) ≤ |x|2 f (x)g(y) + |y|2 f (x)g(y).
Nous avons alors par le théorème de Fubini
Z
Z
Z
Z
Z
2
2
|xy| f (x)g(y)dxdy ≤
|x| f (x)dx
|y| g(y)dy
g(y)dy +
f (x)dx < +∞.
R2
R
R
R
R
Proposition 4.7.16 (Somme de deux variables aléatoires à densité et indépendantes). Soit X1 et X2 deux variables aléatoires
indépendantes admettant des densités f1 et f2 . La variable aléatoire X1 + X2 admet une densité donnée par le produit de
convolution des fonctions f1 et f2 :
Z
∞
( f1 ∗ f2 )(s) =
−∞
f1 (x1 ) f2 (s − x1 )dx1
Remarquons que le produit de convolution est la version continue du produit de Cauchy des séries.
Démonstration. Par ce qui précède le couple de variables aléatoires (X1 , X2 ) a pour densité la fonction
f (x1 , x2 ) = f1 (x1 ) f2 (x2 ).
La fonction de répartition de la variable aléatoire X1 + X2 est la fonction
P(X1 + X2 ≤ x) =
Z
R2
1Dx (x1 , x2 ) f1 (x1 ) f2 (x2 )dx1 dx2 .
On effectue le changement de variable
(x1 , x2 ) 7→ (s = x1 + x2 , x1 )
qui est un C1 difféomorphisme de Dx sur ]−∞, x]×R et l’on obtient par la formule de changement de variables et le théorème
de Fubini
Z Z
x
P(X1 + X2 ≤ x) =
−∞
f1 (x1 ) f2 (s − x1 )dx1 ds
R
Ce qui montre que la densité de X1 + X2 est donnée par le produit de convolution f1 ∗ f2 .
Exemple 4.7.17 (Somme de deux variables aléatoires normales indépendantes). Soit (Ω, A , P) un espace probabilisé. Si X1
et X2 sont deux variables aléatoires
q indépendantes de lois normales N (µ1 , σ1 ) et N (µ2 , σ2 ) alors la variable aléatoire X1 + X2
suit la loi normale N (µ1 + µ2 ,
σ21 + σ22 ).
11
Téléchargement