Chapitre 5 : Variables aléatoires à densité

publicité
Probabilités Elémentaires – Licence
Chapitre 5 : Variables aléatoires à densité
L’extension à des espaces Ω non dénombrables de la théorie développée dans les chapitres précédents
se heurte à des difficultés mathématiques. Il va nous falloir introduire une tribu plus petite que P(Ω),
qu’on appelle la tribu des ensembles boréliens.
1
Probabilités sur Rn
1.1
Densité d’une probabilité sur Rn
Nous affirmons, sans démonstration, l’existence de la tribu borélienne.
Q
Proposition 1. Il existe une tribu sur Rn contenant la famille des pavés ouverts ni=1 ]ai , bi [. Cette
appelés sous-ensembles
tribu est appelée tribu borélienne de Rn et notée BRn . Ses éléments sont Q
boréliens de Rn . Tout ouvert est borélien, tout fermé est borélien. Tout pavé ni=1 ]ai , bi ] est borélien.
R
Soit f une fonction de Rn dans R+ intégrable au sens de Riemann sur Rn et telle que Rn f (x)dx = 1.
n
n
On peut démontrer qu’il existe une probabilité
Qn unique P sur l’espace probabilisable (R , BR ) telle
n
que, pour tout pavé A de R de la forme i=1 ]ai , bi ], on ait :
Z
f (x)dx.
P(A) =
A
La fonction f est appelée densité de la probabilité P : on dit aussi que la probabilité P est de
densité f . En particulier, si n = 1 et si f est une
R +∞fonction définie sur R, à valeurs positives, continue
sauf en un nombre fini de points et telle que −∞ f (x)dx = 1, il existe une probabilité unique P sur
l’espace probabilisable (R, BR ) telle que, pour tous réels a et b tels que a < b, on ait :
Z
P(]a, b]) =
b
f (x)dx.
a
Nous admettrons que cette égalité est encore vraie si A est une réunion finie d’intervalles de R,
fermés, ouverts ou semi-ouverts, bornés ou non.
1.2
Exemples classiques de lois de probabilité sur R
Voici des exemples classiques de lois de probabilité définies sur l’espace probabilisable (R, BR ) par
une densité f .
1.2.1
Loi uniforme sur l’intervalle [a, b]
Elle est notée U([a, b]). La densité f est définie par : pour tout x ∈ R,
1
11 (x),
b − a [a,b]
où a et b sont deux réels tels que a < b. Elle donne la même probabilité à deux sous-intervalles de
même longueur de l’intervalle [a, b].
f (x) =
1.2.2
Loi exponentielle de paramètre p > 0
Elle est notée E(p). La densité f est définie par : pour tout x ∈ R,
f (x) = p exp(−px)11R+ (x).
Cette loi donne une probabilité nulle à tout intervalle contenu dans R− . Elle intervient dans la
modélisation des temps d’attente.
1
1.2.3
Loi de Cauchy de paramètres x0 ∈ R et a > 0
Elle est notée C(x0 , a). La densité f est définie par : pour tout x ∈ R,
f (x) =
1.2.4
1
a
.
π (x − x0 )2 + a2
Loi gaussienne (ou normale) de paramètres m ∈ R et σ 2 > 0
Elle est notée N (m, σ 2 ). La densité f est définie par : pour tout x ∈ R,
(x − m)2 1
f (x) = √ exp −
.
2σ 2
σ 2π
Il s’agit bien d’une densité de probabilité car
Z +∞
x2 √
exp −
dx = 2π.
2
−∞
Son graphe est la fameuse courbe en cloche de Gauss. Elle admet deux points d’inflexion d’abscisses x1 = m − σ et x2 = m + σ et on a f (x1 ) = f (x2 ) = σ√12πe , ce qui montre que le pic est
d’autant plus élevé et resserré que σ est petit. Cette loi apparaît très souvent dans les modélisations,
en raison du théorème limite central que nous énoncerons par la suite.
1.2.5
Loi du chi-deux à n degrés de liberté
Elle est notée χ2n (la lettre grecque χ se transcrit "chi" mais se prononce "ki"). La densité f est
définie par : pour tout x ∈ R,
f (x) =
x n
1
x 2 −1 11R+ (x)
exp −
Kn
2
où, pour tout entier p ≥ 1, on note :
K2p = 2p (p − 1)! et K2p+1 =
√
2π (2p − 1) × (2p − 3) × · · · × 3 × 1 .
On peut montrer que c’est la loi d’une variable aléatoire de la forme X12 + · · · + Xn2 où X1 , · · · , Xn
sont des variables indépendantes de même loi N (0, 1), ce qui explique l’expression "n degrés de
liberté" (cf TD 5). La loi du chi-deux joue un grand rôle en Statistique.
1.3
1.3.1
Exemples classiques de lois de probabilité sur R2
Loi uniforme sur le rectangle [a, b] × [c, d]
Elle est notée U([a, b] × [c, d]). La densité f est définie par : pour tout x ∈ R2 ,
f (x) =
1
11
(x),
(b − a)(d − c) [a,b]×[c,d]
où a, b, c et d sont des réels tels que a < b et c < d.
1.3.2
Loi uniforme sur le disque D(O, r)
La densité f est définie par : pour tout x ∈ R2 ,
f (x) =
1
11
(x),
πr2 D(O,r)
où r est un réel strictement positif.
Plus généralement, la loi uniforme sur une partie A du plan R2 dont on peut définir l’aire (et dont
on suppose qu’elle est non nulle) est définie par la densité
f (x) =
1
11A (x).
aire(A)
2
1.3.3
Loi gaussienne (ou normale) centrée réduite sur R2
La densité f est définie par : pour tout x = (x1 , x2 ) ∈ R2 ,
f (x) =
x2 + x2 1
2
exp − 1
.
2π
2
Loi d’une variable aléatoire à valeurs dans Rn
2
2.1
Densité d’une variable aléatoire, fonction de répartition
Soit X une variable aléatoire définie sur l’espace probabilisé (Ω, A, P) et à valeurs dans (Rn , BRn ).
On rappelle que sa loi PX est une probabilité définie sur l’espace probabilisable (Rn , BRn ) par : pour
tout A ∈ BRn ,
PX (A) = P(X ∈ A).
Définition 1. S’il existe une fonction fX définie sur Rn , à valeurs non négatives et intégrable au
sens de Riemann telle que
Z
fX (x)dx = 1,
Rn
et que, pour tout pavé A de
Rn
on ait
Z
fX (x)dx,
PX (A) =
A
cette fonction est appelée densité de la variable aléatoire X. Elle détermine entièrement la loi
de X et n’est autre que la densité de la probabilité PX .
Définition 2. Si n = 1, l’application FX de R dans [0, 1] définie par : pour tout x ∈ R,
FX (x) = P(X ≤ x)
est appelée fonction de répartition de la variable aléatoire X.
Par conséquent, si X admet une densité fX , on a, pour tous réels a et b tels que a < b,
Z
P(a < X ≤ b) = FX (b) − FX (a) =
b
fX (x)dx.
a
Intuitivement, on peut écrire P(x ≤ X ≤ x + dx) = fX (x)dx où dx est considéré comme "infiniment
petit". Cette formulation très parlante, bien que non rigoureuse, est souvent employée par les physiciens et les ingénieurs. Elle revient à faire un développement de Taylor d’ordre 1 de FX , dont on
néglige le reste.
Proposition 2. Soit X une variable aléatoire réelle de fonction de répartition FX .
(i) La fonction de répartition FX détermine entièrement la loi de X.
(ii) Pour tous réels a et b tels que a < b, on a
FX (b) − FX (a) = P(a < X ≤ b),
et, pour tout x ∈ R,
lim FX (x) = 1 et
x→+∞
lim FX (x) = 0.
x→−∞
(iii) La fonction de répartition FX est une fonction croissante, continue à droite, et admet une
limite à gauche en tout point. De plus, pour tout x ∈ R, on a :
P(X = x) = FX (x) − lim FX (y),
y%x
c’est-à-dire que P(X = x) est égal au saut de FX en x.
3
(iv) Si la variable aléatoire X admet une densité fX , la fonction de répartition FX est
continue en tout point et on a, pour tout x ∈ R :
P(X = x) = 0.
On a de plus, pour tout x ∈ R,
Z
x
P(X ≤ x) = FX (x) =
fX (t)dt,
−∞
et la fonction de répartition FX est dérivable en tout point de continuité de la densité fX .
2.2
Marginales d’une variable aléatoire à valeurs dans R2
Définition 3. Si X = (X1 , X2 ) est une variable aléatoire à valeurs dans R2 , les variables aléatoires
X1 et X2 s’appellent les marginales de la variable aléatoire X.
Evidemment, cette définition se généralise à Rn et à toute projection de X sur un sous-espace
engendré par des vecteurs de la base canonique.
Proposition 3. Si la variable aléatoire X = (X1 , X2 ), à valeurs dans R2 , admet une densité fX ,
les marginales X1 et X2 admettent, sauf exception, des densités respectives fX1 et fX2 . Elles sont
données par :
– pour tout x1 ∈ R,
Z +∞
fX1 (x1 ) =
fX (x1 , x2 )dx2 ,
−∞
– pour tout x2 ∈ R,
Z
fX2 (x2 ) =
+∞
fX (x1 , x2 )dx1 .
−∞
Exemple : Soit une variable aléatoire X de loi normale centrée réduite sur R2 . Déterminons les lois
des marginales X1 et X2 . On a, pour tout x1 ∈ R,
fX1 (x1 ) =
donc les marginales X1 et X2 suivent la loi normale centrée réduite sur R, notée N (0, 1).
2.3
Loi d’une fonction de variable aléatoire
Nous n’abordons ici que le cas où cette fonction est monotone.
Proposition 4. Soit X une variable aléatoire réelle admettant une densité fX et soit g une fonction
de R dans R strictement monotone et dérivable. La variable aléatoire réelle Y = g(X) admet
une densité fY donnée par :
(
fX g −1 (y) |(g −1 )0 (y)| si y ∈ g(R),
fY (y) =
0 sinon.
Exemple : Soit une variable aléatoire X de loi N (µ, σ 2 ). Déterminons la loi de Y = g(X) =
On a :
y=
X−µ
σ .
x−µ
⇔ x = µ + σy
σ
donc g −1 (y) = µ + σy et (g −1 )0 (y) = σ, pour tout y ∈ R. La densité de Y est donc, pour tout y ∈ R :
fY (y) =
La variable aléatoire Y suit donc la loi N (0, 1), dite loi normale standard ou centrée réduite.
4
3
Moyenne et variance d’une variable aléatoire réelle
Définition 4. Soit X une variable aléatoire définie sur l’espace probabilisé (Ω, A, P), à valeurs
réelles, possédant une densité fX . Si la fonction x 7→ |x|fX (x) est intégrable au sens de Riemann
sur R, on dit que X admet une moyenne. La moyenne ou espérance mathématique de X est
alors notée E(X) et définie par :
Z
xfX (x)dx.
E(X) =
R
On observera l’analogie entre cette définition et celle de l’espérance d’une variable aléatoire discrète.
Théorème 1. Soit X une variable aléatoire discrète définie sur l’espace probabilisé (Ω, A, P), à
valeurs dans Rn , de densité fX . Soit Φ une fonction de Rn dans R. Si la fonction x 7→ |Φ(x)|fX (x)
est intégrable au sens de Riemann sur Rn , alors la variable aléatoire Φ(X) possède une moyenne
donnée par :
Z
E Φ(X) =
Φ(x)fX (x)dx.
Rn
Proposition 5. (i) Soit X1 et X2 deux variables aléatoires réelles telles que la variable aléatoire
(X1 , X2 ) admette une densité. Si X1 et X2 possèdent une moyenne, il en est de même de la
variable aléatoire λ1 X1 + λ2 X2 , quels que soient λ1 et λ2 ,et l’on a :
E(λ1 X1 + λ2 X2 ) = λ1 E(X1 ) + λ2 E(X2 ).
(ii) Soit X une variable aléatoire réelle de densité fX et admettant une moyenne. Pour tous réels
a et b, la variable aléatoire aX + b admet une moyenne et l’on a :
E(aX + b) = aE(X) + b.
Exemple : Si la variable aléatoire X suit la loi normale N (m, σ 2 ), on a :
E(X) = m.
En effet, on a :
Z
+∞
E(X) =
−∞
(x − m)2 1
x √ exp −
dx.
2σ 2
σ 2π
On effectue le changement de variable y =
x−m
σ
:
E(X) =
3.1
Moments d’ordre 2. Variance
Proposition 6. Si X est une variable aléatoire réelle de densité fX et si X 2 admet une moyenne,
alors X admet elle-même une moyenne.
Définition 5. Si X est une variable aléatoire réelle de densité fX telle que X 2 admet une moyenne,
2
le réel positif E(X 2 ) est appelé moment d’ordre deux de X, et le réel positif E[ X − E(X) ] est
2 ou V(X).
appelé variance de X et noté σX
Proposition 7. Si X est une variable aléatoire réelle de densité fX telle que X 2 admet une moyenne,
la variance de X vérifie :
(i)
Z
+∞
V(X) =
2
x − E(X) fX (x)dx,
−∞
(ii) et
V(X) = E(X 2 ) − [E(X)]2 .
5
(iii) Pour tous réels a et b, on a :
V(aX + b) = a2 V(X).
Exemple : Si la variable aléatoire X suit la loi normale N (m, σ 2 ), on a :
V(X) = σ 2 .
En effet, puisque sa moyenne est m, on a :
Z +∞
(x − m)2 1
2
(x − m)2 √ exp −
V(X) = E[(X − m) ] =
dx.
2σ 2
σ 2π
−∞
On effectue le changement de variable y =
x−m
σ
:
V(X) =
car on peut montrer, par intégration par parties, que :
Définition 6. Si X est une variable aléatoire réelle de densité fX admettant un moment d’ordre
deux, la variable aléatoire Ẋ = X − E(X) est appelée variable centrée (sa moyenne est nulle), la
variable aléatoire X̃ = X−E(X)
est appelée variable centrée réduite associée à X (sa moyenne est
σX
nulle et sa variance vaut 1).
Nous verrons en TD les moyennes et variances associées aux lois classiques énoncées précédemment.
3.2
Covariance et coefficient de corrélation
Proposition 8. Si la variable aléatoire X = (X1 , X2 ) à valeurs dans R2 admet une densité fX et
si X1 et X2 possèdent un moment d’ordre deux, alors la variable aléatoire produit X1 X2 admet une
moyenne.
Définition 7. Si la variable aléatoire X = (X1 , X2 ) à valeurs
dans R2 admet une densité
fX et
si X1 et X2 possèdent un moment d’ordre deux, le réel E X1 − E(X1 ) X2 − E(X2 ) est appelé
covariance de X1 et X2 et noté cov(X1 , X2 ). Le coefficient de corrélation de X1 et X2 est alors
défini par :
ρ(X1 , X2 ) =
cov(X1 , X2 )
.
σX1 σX2
Proposition 9. Le coefficient de corrélation ρ(X1 , X2 ) vérifie :
|ρ(X1 , X2 )| ≤ 1.
4
Indépendance de deux variables aléatoires réelles
Dans cette section, X1 et X2 sont deux variables aléatoires réelles. On note X = (X1 , X2 ) la
variable aléatoire à valeurs dans R2 qui leur est associée. On étudie des critères d’indépendance
des variables aléatoires X1 et X2 .
Proposition 10. (i) Pour que les variables aléatoires X1 et X2 soient indépendantes, il faut
et il suffit que, pour tout (x1 , x2 ) ∈ R2 , on ait :
P(X1 ≤ x1 , X2 ≤ x2 ) = P(X1 ≤ x1 ) P(X2 ≤ x2 ).
(ii) Si les variables aléatoires X1 et X2 sont indépendantes et admettent des densités fX1 et
fX2 , la variable aléatoire X = (X1 , X2 ) admet une densité fX , fonction définie sur R2 par
fX (x1 , x2 ) = fX1 (x1 ) fX2 (x2 ).
6
(iii) Inversement, si la variable aléatoire X = (X1 , X2 ) admet une densité fX vérifiant : pour tout
(x1 , x2 ) ∈ R2 ,
fX (x1 , x2 ) = f (x1 ) g(x2 ),
où f et g sont des fonctions positives intégrables au sens de Riemann sur R, alors les variables
aléatoires X1 et X2 sont indépendantes, et f et g sont, à un coefficient positif multiplicatif
près, les densités respectives de X1 et X2 .
Proposition 11. Soit X1 et X2 deux variables aléatoires réelles indépendantes admettant des
densités.
(i) Si Φ1 et Φ2 sont deux fonctions réelles telles que Φ1 (X1 ) et Φ2 (X2 ) admettent une moyenne,
la variable aléatoire produit Φ1 (X1 ) Φ2 (X2 ) admet aussi une moyenne et on a :
E[Φ1 (X1 ) Φ2 (X2 )] = E[Φ1 (X1 )] E[Φ2 (X2 )].
(ii) Si de plus les variables aléatoires X1 et X2 admettent une variance, on a cov(X1 , X2 ) = 0 et
donc :
V(X1 + X2 ) = V(X1 ) + V(X2 ).
La réciproque est fausse : on peut avoir cov(X1 , X2 ) = 0, sans que les variables aléatoires
X1 et X2 soient indépendantes.
5
Somme de variables aléatoires réelles indépendantes
Proposition 12. Si X1 et X2 sont deux variables aléatoires réelles indépendantes admettant des
densités fX1 et fX2 , la variable aléatoire X = X1 + X2 admet une densité fX donnée par la
convolution des fonctions fX1 et fX2 , c’est-à-dire la fonction définie pour tout x ∈ R par
Z +∞
Z +∞
fX (x) =
fX1 (x1 )fX2 (x − x1 )dx1 =
fX1 (x − x2 )fX2 (x2 )dx2 .
−∞
−∞
Exemple : Soit X1 et X2 deux variables aléatoires réelles indépendantes de même loi exponentielle de paramètre p > 0 : déterminer la loi de X = X1 + X2 par sa densité fX . Cette variable
aléatoire peut être vue comme la somme de deux temps d’attente indépendants, de même loi exponentielle. On rappelle qu’on a, pour tout x ∈ R,
fX1 (x) = fX2 (x) = p exp(−px)11R+ (x).
La variable aléatoire X admet une densité donnée par, pour tout x ∈ R,
Z +∞
fX (x) =
p exp(−px1 )11R+ (x1 )p exp − p(x − x1 ) 11R+ (x − x1 )dx1
−∞
soit
fX (x) =
6
Densités conditionnelles
Nous ne considérons ici que des variables aléatoires (X1 , X2 ) à valeurs dans R2 et admettant une
densité f(X1 ,X2 ) . Dans ce cas, on sait que, pour tout x1 ∈ R, on a P(X1 = x1 ) = 0 puisque X1 admet
une densité. Il est donc impossible de définir, comme nous l’avons fait pour une variable aléatoire
discrète, une probabilité conditionnelle P(X2 ≤ x2 |X1 = x1 ). On définit toutefois par analogie une
notion de densité conditionnelle.
7
Définition 8. Soit (X1 , X2 ) une variable aléatoire à valeurs dans R2 et admettant une densité
f(X1 ,X2 ) . On définit, pour tout x1 ∈ R tel que fX1 (x1 ) 6= 0, la densité conditionnelle de X2
X1 =x1
définie sur R par, pour tout x2 ∈ R,
sachant X1 = x1 comme la fonction fX
2
X1 =x1
(x2 ) =
fX
2
f(X1 ,X2 ) (x1 , x2 )
.
fX1 (x1 )
Proposition 13. Notons I1 le support de la densité fX1 : I1 = {x1 ∈ R|fX1 (x1 ) 6= 0}. Les variables
aléatoires X1 et X2 sont indépendantes si et seulement si, pour tout x1 ∈ I1 et pour tout x2 ∈ R,
X1 =x1
(x2 ) = fX2 (x2 ).
fX
2
8
Téléchargement