Variables aléatoires. Lois et moments. I Variables aléatoires II Lois

publicité
Variables aléatoires. Lois et moments.
I
Variables aléatoires
Confrontés à une expérience aléatoire, on est souvent amené à préférer observer les résultats non directement
mais à travers un effet produit. Par exemple, si l’expérience est constituée par la météo, on peut concevoir la
température T comme résultant de l’expérience, au sens où T peut être vu comme l’action de la météo sur le
thermomètre. C’est là la notion de variable aléatoire.
Soit (Ω, P ) un espace de probabilités. Soit E un ensemble.
Définition 1 On appelle variable aléatoire à valeurs dans E une application X : Ω → E.
Dans cette définition, E peut être un ensemble quelconque, fini ou infini. Dans le cas où E est une partie
de l’ensemble des nombres réels IR, on parle de variable aléatoire réelle. On utilisera systématiquement les
abréviations v.a. pour variable aléatoire et v.a.r. pour variable aléatoire réelle.
Quand on a une variable aléatoire, on s’intéresse à des événements indiquant que la v.a. prend certaines
valeurs. D’où la notation
Notation 1 Pour C ⊂ E, on note (X ∈ C) l’événement
(X ∈ C) = {ω ∈ Ω, X(ω) ∈ C}.
Dans le cas particulier où A = {x}, on écrira (X = x) au lieu de (X ∈ {x}).
Un exemple important de variable aléatoire sont les indicatrices : si A ⊂ Ω est un événement, on définit la
v.a.r. 1IA par
1 si
ω∈A
1IA =
0 sinon
On a la définition suivante concernant l’influence réciproque de variables aléatoires.
Définition 2 Soient X1 , . . . , Xn n variables aléatoires à valeurs dans E. On dit que X1 , . . . , Xn sont indépendantes si et seulement si pour tous C1 , . . . , Cn inclus dans E, les événements
(X1 ∈ C1 ), . . . , (Xn ∈ Cn )
sont indépendants.
II
Lois
A l’aide de la variable aléatoire X, on “transporte” le hasard sur l’espace E en transformant cet ensemble en
un espace de probabilités grâce à la définition suivante.
Théorème et Définition 1 Soit X une variable aléatoire à valeurs dans E sur un espace de probabilités
(Ω, P ). Pour C ⊂ E, on pose
µX (C) = P (X ∈ C).
µX définit une probabilité sur E appelée la loi de la v.a. X.
Cas particulier important : on suppose ici que E est un ensemble fini E = {x1 , . . . , xn }.
La loi µX est alors entièrement définie par la donnée des nombres µX ({xi }) = P (X = xi ). On la présente
en général sous forme d’un tableau
x
x1
x2
...
xn
Σ
P (X = x) P (X = x1 ) P (X = x2 ) . . . P (X = xn ) 1
1
III
Moments
On suppose jusqu’à la fin de ce chapitre que Ω est un ensemble fini. Cette restriction sera levée progressivement dans la suite du cours. On suppose en outre que X est une variable aléatoire réelle.
Définition 3 On appelle espérance de X (ou moment d’ordre 1) la quantité
X
E(X) =
X(ω)P ({ω})
ω∈Ω
Propriété 1 Soient X et Y deux variables aléatoires réelles et λ ∈ IR. On a
(i) E(X + Y ) = E(X) + E(Y )
(ii) E(λX) = λE(X)
(iii) Si X est à valeurs dans IR+ , E(X) ≥ 0
(iv) Si X est une variable aléatoire constante égale à α, E(X) = α.
On a
Proposition 1 Si X est une v.a.r. à valeurs dans {x1 , . . . , xn }, on a
E(X) =
n
X
xi µ({xi }).
i=1
Plus généralement,
Proposition 2 Si X est une v.a.r. à valeurs dans {x1 , . . . , xn }, et f une fonction de IR dans IR, on a
E(f (X)) =
n
X
f (xi )µ({xi }).
i=1
Définition 4 Soit X une v.a.r.
(i) Soit n ∈ IN . Le moment d’ordre n de X est E(X n ).
(ii) On appelle variance de X le réel
Var(X) = E((X − E(X))2 ) = E(X 2 ) − E(X)2
Proposition 3 Si X et Y sont deux variables aléatoires indépendantes,
(i) E(XY ) = E(X)E(Y )
(ii) Var(X + Y ) = Var(X) + Var(Y )
IV
Inégalités
Proposition 4 (Inégalité de Markov) Si X est une v.a.r. à valeurs positives, si α > 0, on a
P (X > α) ≤
1
E(X)
α
Proposition 5 (Inégalité de Bienaymé-Tchebitcheff) Si X est une v.a.r., et si ε > 0, on a
P (| X − E(X) |> ε) ≤
2
1
Var(X).
ε2
Téléchargement