1 Variables aléatoires continues.

publicité
1
Variables aléatoires continues.
1.1
Densité et fonction de répartition.
Dénition 1.1. On dit que X est une v.a. continue s'il existe une fonction
f ≥ 0 tel que pour tout ensemble B ⊂ R
Z
P (X ∈ B) =
f (x)dx
(1)
B
Il en resulte que
Z
+∞
1 = P(X ∈ R) =
f (x)dx
(2)
∞
Tous les calculs de probabilités relatifs à X peuvent être traités à l'aide
de la formule (1).
Exemple 1.1. Supposons que X a la densité f : f (x) = C(4x−2x2 ) si 0 <
x < 2 et f (x) = 0 sinon.
Quelle est la valeur de C ? Que vaut P(X > 0), P(X > 1)?
Exemple 1.2. La durée de fonctionnement d'un ordinateur avant sa première panne est une v.a. continue de la densité donnée par f (x) = λe−x/100
si x > 0 et f (x) = 0 sinon.
a) Quelle est la probabilité que cette durée soit comprise entre 50 et 150
jours?
b) Quelle est la probabilité que l'ordinateur fonctionne moins de 100 jours?
1.2
Fonction de répartition.
On dénit la fonction de répartition d'une v.a. X comme
F (a) = P(X ≤ a)
C'est une notion importante puisque
F 0 (a) = f (a)
et également puisque
P(a ≤ X ≤ b) = F (b) − F (a).
Une fonction de répartition F (x) vérie toujours les propriétés suivantes:
1
1. F est non décroissante.
2. limx→−∞ F (x) = 0.
3. limx→+∞ F (x) = 1.
Exemple 1.3. Dans l'exemple précédent (1.2) calculer la fonction de répartition et répondre à la question a) à l'aide de cette fonction.
1.3
Espérance d'une v.a. continue.
Rappelons que pour calculer l'espérance d'une v.a. discrète
X ∈ {1, 2, 3, . . .}
on utilise la formule
EX =
∞
X
kP(X = k)
(3)
k=1
Par analogie, on dénit l'espérance d'une v.a. continu de densité f par
Z
∞
EX =
xf (x)dx
(4)
−∞
Exemple 1.4. Calculer l'espérance dans l'exemple (1.2)
1.4
Espérance d'une fonction de v.a. continue.
Si X est une v.a. de densité f , et g : R → R; on a
Z
∞
Eg(X) =
g(x)f (x)dx
(5)
−∞
Exemple 1.5. Si X a la densité f (x) = 1 quand 0 < x < 1 est f (x) = 0 si
non, calculer EeX .
2
1.5
Propriétés de l'espérance.
On a
E(aX + b) = aEX + b
(6)
E(X + Y ) = EX + EY
(7)
et
1.6
Variance d'une v.a. continue.
La dénition est la même que dans le cas discrète.
Var(X) = E(X − EX)2 = EX 2 − (EX)2
(8)
Exemple 1.6. Calculer la variance dans l'exemple (1.2)
1.7
Propriétés de la variance.
On a
Var(aX + b) = a2 VarX
2
2.1
(9)
Lois continues usuelles.
Loi uniforme.
La loi uniforme est utilisée pour modéliser une grandeur aléatoire qui prends
au hasard (c'est à dire, sans préférence pour aucune d'elles) ses valeurs dans
une intervalle.
Dénition 2.1. Une v.a. X est une v.a. uniforme sur [a, b] si sa densité est
f (x) =
si x ∈ [a, b]
1
b−a
0
sinon
On note X ∼ U([a, b].
3
Exemple 2.1. A partir de 7 heures, les bus passent toutes les 15 minutes à
un arrêt donné. Un usager se présente entre 7 et 7, 30, l'heure exacte de son
arrivée étant une v.a. uniforme sur cet période. Trouver la probabilité pour
qu'il doit attendre moins de 5 minutes; plus de 10 minutes.
Exemple 2.2. Un point est choisi au hasard sur un segment de longueur L.
Interpréter cet énoncé et trouver la probabilité pour que le rapport entre le
plus petit et le plus grand segment soit inférieure à 1/4.
Montrer que E(X) =
tition.
a+b
2
, Var(X) =
FX (x) =
2.2
Trouver la fonction de répar-
si x < a
si a ≤ x ≤ b
si x > b

 0
x−a
b−a

(b−a)2
12
1
Loi exponentielle.
La loi exponentielle est utilisée pour mesurer des temps d'attente, des temps
de service etc. On la rencontre souvent en abilité pour modéliser des durées
de vie des composants.
Dénition 2.2. Soit λ > 0. On dit que X suit la loi exponentielle de
paramètre λ si sa densité de probabilité est donnée par
f (x) =
λe−xλ si x > 0
0
sinon
On note X ∼ E(λ).
On trouve facilement EX = λ1 , VarX =
FX (x) =
1
λ2
et
1 − e−xλ si x > 0
0
sinon
La propriété importante des v.a. exp. est l'absence de mémoire:
Proposition 2.1. Si X ∼ E(λ), on a:
P(X > t + s|X > t) = P(X > s).
Exemple 2.3. Le temps nécessaire pour réparer une machine est une v.a.
exponentielle de moyenne 2 (heures).
a) Quelle est la probabilité que la réparation demandera plus que 2 heures.
b) Quelle est la probabilité que la réparation demandera plus que 5 heures,
sachant que elle a déjà pris plus que 3 heures?
4
2.3
Loi normale.
La loi normale fut introduite par le mathématicien français De Moivre en
1733 qui l'utilisa pour approximer la loi binomiale pour n grand. Ce résultat
était ensuite généralisé par Laplace et d'autres pour devenir ce qu'on connaît
actuellement sous le nom du TCL, l'un des résultats les plus importants de
la théorie de probabilités.
Dénition 2.3. On dit que X suit la loi normale centrée réduite, noté X ∼
N (0, 1) si la densité de X est donnée par
x2
1
f (x) = √ e− 2 ,
2π
∀x ∈ R.
Proposition 2.2. C'est en eet une densité, puisque
Z
+∞
−∞
x2
1
√ e− 2 dx = 1.
2π
On a aussi EX = 0, VarX = 1.
Dénition 2.4. Soit m ∈ R et σ2 > 0. On dit que X suit une loi normale
de paramètres m et σ 2 si sa densité fX est dénie sur R par
(x−m)2
1
f (x) = √ e− 2σ2 .
σ 2π
On note X ∼ N (m, σ 2 ).
Proposition 2.3. On a EX = m, VarX = σ2 .
Dénition 2.5. On dit que X suit la loi normale centrée réduite, si X ∼
N (0, 1).
On ne peut pas exprimer en fonctions élémentaires la primitive de e−t ,
et donc il est impossible de calculer la fonction de répartition. Par contre,
ils existent des tables de valeurs de cette fonction (pour la loi N (0, 1)) .
Notons
Φ la fonction de répartition de la loi N (0, 1). On a Φ(a) =
R
2
√1
2π
2
a
e−t 2dt.
−∞
Proposition 2.4. Soit Z une v.a. normale centrée réduite. On a Φ(a) =
1 − Φ(−a). En particulier, Φ(0) = 1/2. De plus
P(|Z| ≤ a) = 2Φ(a) − 1.
5
Une propriété importante de la famille des v.a. normales et que une
transformation linéaire d'une v.a. normale donne toujours une v.a. normale.
Proposition 2.5. Si X ∼ N (m, σ2 ), on a aX +b ∼ N (am+b, a2 σ2 ), quelque
soient a et b deux constantes réelles.
Le corollaire important de ce résultat est que
3
X−m
σ
∼ N (0, 1).
Couples continus.
3.1
Intégral double.
3.2
Densité conjointe.
Dans ce chapitre on considère des couples de v.a.
Dénition 3.1. On dit que (X, Y ) est un couple aléatoire continu si'il existe
une fonction f : R2 → R telle que pour tout C ⊆ R2 on a
Z
P((X, Y ) ∈ C) =
f (x, y)dxdy.
C
Proposition 3.1. On a la condition de normalité:
R
R2
f (x, y)dxdy = 1.
Exemple 3.1. Soit (X, Y ) un couple aléatoire continu de densité
f (x, y) =
axy 2 si 0 ≤ x ≤ y ≤ 1
0
sinon
Trouver la constante a. (a=10).
Exemple 3.2. Soit (X, Y ) un couple aléatoire continu de densité
f (x, y) =
2e−x e−2y si x > 0,
0
sinon
Montrer que P(X > 1, Y < 1) = e−1 (1 − e−2 );
P(X < a) = 1 − e−a .
6
y>0
P(X < Y ) = 1/3,
3.3
Densités marginales.
Si on dispose de la densité du couple, on peut retrouver les densités de X et
de Y , appelées les densités marginales:
Théorème 3.2. On a
Z
Z
fX (x) =
f (x, y)dy;
fY (y) =
R
f (x, y)dx.
R
Dans l'ex3.1 on trouve fX (x) = x1 10xy 2 dy = 10/3x(1 − x) si x ∈ [0, 1]
et fX (x) = 0 sinon. De même fY (y) = 5y 5 si y ∈ [0, 1] et fY (y) = 0 sinon.
Dans l'exemple 3.2 on trouve...
R
3.4
Espérance d'une fonction du couple.
Si (X, Y ) est un couple continue de densité f(X,Y ) (x, y) et g : R2 → R on a
Z
Eg(X, Y ) =
g(x, y)f(X,Y ) (x, y)dxdy.
R2
Dans l'exemple 3.2 on trouve EXY = 1/2.
Dénition 3.2. Soit (X, Y ) un couple aléatoire continu. On appelle covari-
ance de X et Y , notée Cov(X, Y ), le nombre réel donné par
Cov(X, Y ) = E[(X − EX)(Y − EY )].
Remarquons que Cov(X, X) = VarX. On prouve facilement que
Cov(X, Y ) = EXY − EX × EY.
que
Cov(X, Y ) = Cov(Y, X)
et que
Cov(aX + bY, Z) = aCov(X, Z) + bCov(Y, Z)
Théorème 3.3. Soit (X, Y ) un couple continu. On a
E(aX + bY ) = aEX + bEY ;
Var(aX + bY ) = a2 VarX + b2 VarY + 2abCov(X, Y ).
7
3.5
Indépendance.
Dénition 3.3. Les v.a. X et Y sont indépendantes si ∀ (x, y) ∈ R2 on a
fX,Y (x, y) = fX (x)fY (y).
Exemple 3.3. Dans l'exemple 3.2 les deux v.a. sont indépendantes. Dans
l'exemple 3.1 elles ne le sont pas.
Théorème 3.4. On peut donner deux autres dénitions de l'indépendance:
1) X et Y sont indépendantes si et seulement si pour toutes h, g deux
fonctions réelles, on a
Eh(X)g(Y ) = Eh(X) × Eg(Y ).
X et Y sont indépendantes si et seulement si pour tous A et B deux
ensembles dans R on a
2)
P(X ∈ A; Y ∈ B) = P(X ∈ A)P(Y ∈ B).
Corollaire. Si X, Y sont indépendantes, Cov(X, Y ) = 0. La réciproque est
fausse.
Corollaire. Si X, Y sont indépendantes, Var(X + Y ) = VarX + VarY
Exemple 3.4. Soient X et Y deux v.a.indépendantes de loi exponentielle
de paramètre 1. Trouver EXY , E(X + Y )2 .
Exemple 3.5. Soit X et Y deux v.a.indépendantes de loi exponentielle des
paramètres λ et µ respectivement. Trouver la loi de Z = min(X, Y ).
Exemple 3.6. Soient X1 , X2 , X3 trois v.a. i. i. d. de loi exponentielle de
paramètres 1. On pose Y1 = X1 X2 et Y2 = X2 X3 .
a) Les v.a. Y1 et Y2 sont-elles indépendantes?
b) Les v.a. Y1 et Y2 sont-elles de même loi?
c) Calculer EY1 et VarY1 .
d) Calculer Var(Y1 + Y2 ).
On peut généraliser toutes les notions du ce chapitre au cas de vecteurs
aléatoires :
8
Dénition 3.4. Les v.a. X1 , . . . Xn sont indépendantes si pour toutes fonctions bornées h1 , . . . , hn de R → R on a
E(h1 (X1 ) × . . . × hn (Xn )) = Eh1 (X1 ) × . . . × Ehn (Xn ).
On a une dénition équivalente:
Dénition 3.5. Les v.a. X1 , . . . Xn sont indépendantes si ∀ A1 , . . . , An sousensembles de R on a
P(X1 ∈ A1 , . . . Xn ∈ An ) = P(X1 ∈ A1 ) × . . . × P(Xn ∈ An ).
Exemple 3.7. Soient (X, Y, Z) trois v.a. indépendantes de loi exponentielle
de paramètre 1. Trouver la loi de M = max(X, Y, Z).
9
Téléchargement