Variables aléatoires réelles finies I. Variables aléatoires réelles II

Gaudino, casier 5 version 2.0
P.C.S.I. 834 Variables aléatoires réelles finies Lycée Masséna
Soit Ω un univers fini.
I. Variables aléatoires réelles
I.1. Variables aléatoires
d´
efinition 1. Une variable aléatoire est une fonction définie sur à valeurs dans une ensemble E.
Remarques :
La variable aléatoire est dite réelle lorsque E=R.
Une variable aléatoire se note généralement X,Y, . . .
L’événement noté usuellement {X=x}est l’ensemble X1({x}) : image réciproque de {x}par X, ou encore
l’ensemble des antécédents de xpar X. On écrit habituellement P{X=x}au lieu de P({X=x}).
L’ensemble image X(Ω) est appelé support de X.
Le support de Xest ici fini (car Ω est fini) : on dit que Xest une variable aléatoire finie. Dans la suite, on note
X(Ω) = {x1,· · · , xn}(au besoin, on précisera x1<· · · < xn).
Combinaisons linéaires de variables aléatoires, de variables aléatoires réelles, de variables aléatoires finies. Structure
d’espace vectoriel.
I.2. Loi d’une variable aléatoire
d´
efinition 2. Soit un univers muni d’une probabilité P, et Xune variable aléatoire. On définit PX, appelée loi de
la variable aléatoire X, par :
sur les singletons de X(Ω) par PX({xi}) = P{X=xi};
puis sur chaque sous-ensemble (événement) de X(Ω) par additivité. Pour AX(Ω), on note PX(A) = P{XA}.
Th´
eor`
eme 1. PXest une loi de probabilité sur X(Ω).
La probabilité d’obtenir xien appliquant Xest P{X=xi}. C’est donc aussi PX({xi}). On la note aussi dans la suite
pi.
Exercice : on tire simultanément 2 boules dans une urne qui en contient 5, numérotées de 1 à 5. On note Xla variable
aléatoire qui donne la valeur absolue de la différence des numéros. Donner la loi de X.
P{X= 1}= 2/5, P {X= 2}= 3/10, P {X= 3}= 1/5, P {X= 4}= 1/10
I.3. Fonction de répartition
d´
efinition 3. La fonction FX:R[0,1]
x7−P{Xx}est appelée fonction de répartition de X.
On note encore X(Ω) = {x1,· · · , xn}, avec x1< x2<· · · < xn. On a :
si x<x1,P{Xx}= 0
si xkx<xk+1 avec 1 kn1, P{Xx}=P{X=x1}+P{X=x2}+· · · +P{X=xk}
si xxn,P{Xx}= 1
si x<ysont deux réels, P{x<Xy}=P{Xy} − P{Xx}
Exercice : calculer la loi de Xen calculant sa fonction de répartition, dans le cas où Xdésigne la face maximale sortie
dans une série de njets successifs indépendants de dés 6.
P{Xk}=kn
6npour kJ1,6K
II. Couples de variables aléatoires
II.1. Lois conjointes et marginales
On considère les deux variables aléatoires finies, définies sur le même univers Ω. On note leurs supports respectifs :
X(Ω) = {x1,· · · , xn}et Y(Ω) = {y1,· · · , ym}
Le support du couple (X, Y ) est inclus dans X(Ω) ×Y(Ω), et est en particulier fini : (X, Y ) est une fonction définie
sur Ω, à valeurs dans R2, de support fini : on parle de couple de variables aléatoires finies.
1
La loi conjointe de Xet Yest la loi de (X, Y ). C’est une loi sur X(Ω) ×Y(Ω) (avec éventuellement des événements
impossibles). Les événements atomiques sont les {(X, Y )=(xk, yl)}soit encore {X=xk}∩{Y=yl},{X=xk, Y =
yl},{X=xket Y=yl}.
Tout événement de X(Ω)×Y(Ω) s’obtient comme réunion disjointe de ces événements atomiques, et on calcule alors
leur probabilité par additivité.
Les deux lois marginales de (X, Y ) sont respectivement les lois de Xsur X(Ω) et de Ysur Y(Ω).
Si on note pk,l =P{(X, Y )=(xk, yl)},pk,=P{X=xk}, et p,l =P{Y=yl}, on a le tableau :
P Y =y1Y=y2· · · Y=ymloi de X
X=x1p1,1p1,2· · · p1,m p1,
X=x2p2,1p2,2· · · p2,m p2,
.
.
..
.
..
.
..
.
..
.
..
.
.
X=xnpn,1pn,2· · · pn,m pn,
loi de Y p,1p,2· · · p,m 1
et les relations :
kJ1, nK,
m
X
l=1
pk,l =pk,
lJ1, mK,
n
X
k=1
pk,l =p,l
X
k,l
pk,l = 1
La loi conjointe détermine les lois marginales, par ces formules de sommation. En revanche, les lois marginales ne
déterminent pas la loi conjointe, puisque diverses valeurs des pk,l permettent d’obtenir les mêmes pk,et p,l.
Exercice : déterminer les lois conjointe et marginales de Xet Y, dans le cas d’un jet de deux dés tétraédriques équilibrés
distincts, où Xest la somme des faces, et Yle produit. S’agit-il de variables aléatoires indépendantes ?
II.2. Lois conditionnelles
d´
efinition 4. La loi conditionnelle de Xsachant que {Y=yl}, où l’événement {Y=yl}est de probabilité non nulle,
est la loi définie sur X(Ω) par les probabilités atomiques
P{X=xk|Y=yl}=P{(X, Y )=(xk, yl)}
P{Y=yl}=pk,l
p,l
puis par additivité.
On définit de même la loi conditionnelle de Ysachant {X=xk}.
Proposition 2. La loi conditionnelle de Xsachant que {Y=yl}est une loi de probabilité définie sur X(Ω).
III. Variables aléatoires indépendantes
III.1. Pour deux variables aléatoires
d´
efinition 5 (Couples de variables aléatoires indépendantes).Les variables aléatoires Xet Ydéfinies sur sont dites
indépendantes si, pour tout xde X(Ω) et tout yde Y(Ω), les événements {X=x}et {Y=y}sont indépendants, et
donc
(k, l), P {(X, Y )=(xk, yl)}=P{X=xk}P{Y=yl}
Dans le tableau, en notant pk=P{X=xk}et ql=P{Y=yl}, on trouve :
P Y =y1Y=y2· · · Y=ymloi de X
X=x1p1q1p1q2· · · p1qmp1
X=x2p2q1p2q2· · · p2qmp2
.
.
..
.
..
.
..
.
..
.
..
.
.
X=xnpnq1pnq2· · · pnqmpn
loi de Y q1q2· · · qm1
Proposition 3. Si Xet Ysont indépendantes, alors, pour tout xélément de X(Ω), la loi conditionnelle PY|X=xest
égale à la loi marginale PY.
Th´
eor`
eme 4. Xet Ysont indépendantes, si et seulement si, pour toute partie Ade X(Ω) et toute partie Bde Y(Ω),
on a :
P{(X, Y )A×B}=P{XA}P{YB}
2
Sens direct : on applique la propriété aux singletons A={xk}et B={yl}.
Réciproque : quitte à renuméroter, on prend A={x1,· · · , xk}et B={y1,· · · , yl}.{(X, Y )A×B}est la réunion disjointe des ensembles {(X, Y )=(xi, xj)}pour
1iket 1 jl, donc P{(X, Y )A×B}est la somme de ces probabilités. Comme par définition de l’indépendance, P{(X, Y )=(xi, xj)}=P{X=xi}P{Y=yj},
on a
P{(X, Y )A×B}=X
1ik
1jl
P{(X, Y )=(xi, xj)}=X
1ik
1jl
P{X=xi}P{Y=yj}
=
k
X
i=1
P{X=xi}
l
X
j=1
P{Y=yj}=P{XA}P{YB}
III.2. Pour plusieurs variables aléatoires
d´
efinition 6 (Variables aléatoires mutuellement indépendantes).Les variables aléatoires X1, X2,· · · , Xpdéfinies sur
sont dites mutuellement indépendantes si, pour tout (x1, x2,· · · , xp)de X1(Ω)×X2(Ω)×· · ·×Xp(Ω), les événements
{Xi=xi}sont mutuellement indépendants.
Ceci est équivalent à : pour tout ket tout choix de kentiers i1< i2<· · · < ikde J1, pK,
P{Xi1=xi1, Xi2=xi2,· · · , Xik=xik}=P{Xi1=xi1}P{Xi2=xi2} · · · P{Xik=xik}
Th´
eor`
eme 5 (admis).X1, . . . , Xpsont des variables aléatoires mutuellement indépendantes, si et seulement si, quel
que soit (A1, . . . , Ap)
p
Y
i=1
P(Xi(Ω)), les événements (XiAi)sont mutuellement indépendants.
On a donc en particulier : pour tout ket tout choix de kentiers i1< i2<· · · < ikde J1, pK,
P
k
\
j=1
{XijAij}
=
k
Y
j=1
P{XijAij}
Toute sous-famille est alors constituée de variables aléatoires mutuellement indépendantes.
Par exemple pour montrer que X1et X2sont indépendantes, on prend A3=X3(Ω), . . ., Ap=Xp(Ω) de sorte que {X3A3}= Ω, . . ., {XpAp}= Ω, et la propriété
devient que {X1A1}et {X2A2}sont indépendants. Ceci pour tout A1X1(Ω) et A2X2(Ω), ce qui prouve l’indépendance de X1et X2par le théorème vu
auparavant.
IV. Espérance, variance et écart type d’une variable aléatoire
IV.1. Espérance
IV.1.1. définitions
Soit Xune variable aléatoire définie sur l’univers Ω, et Pune probabilité sur Ω. On note encore X(Ω) = {x1,· · · , xn}.
d´
efinition 7. L’espérance de Xest E(X) = X
w
X(w)P({w}).
Remarques :
Interprétation : l’espérance représente la moyenne pondérée du résultat de l’expérience Xrenouvelée un grand
nombre de fois.
Calculs pour une variable aléatoire constante égale à a:E(X) = a.
Calculs pour une indicatrice d’une sous-partie de Ω : E(X) représente le poids (coefficienté) de cette sous-partie
dans Ω.
IV.1.2. résultats
Th´
eor`
eme 6. positivité de l’espérance : pour Xune variable aléatoire positive, E(X)0.
croissance de l’espérance : pour Xet Ydeux variables aléatoires, si XYalors E(X)E(Y).
linéarité : pour Xet Ydeux variables aléatoires, et λR,E(λX +Y) = λE(X) + E(Y).
E(X) =
n
X
i=1
P{X=xi}xi=
n
X
i=1
pixi. C’est la formule pratique de calcul de l’espérance.
En particulier, E(aX +b) = aE(X) + b.
La formule pratique se prouve en regroupant les ωqui ont la même image xidans la formule de l’espérance : xiest affecté de la somme des probabilités des singletons
(disjoints) de ces ω, donc de la probabilité de leur réunion, qui est l’ensemble {X=xi}. D’où le résultat.
Exercice : calculer espérance (2) et écart-type (1) de l’exercice sur les 2 boules dans une urne de 5.
3
IV.1.3. cas indépendant
Th´
eor`
eme 7. Si Xet Ysont deux variables aléatoires indépendantes alors E(XY ) = E(X)E(Y).
Il suffit de décrire l’image de XY comme l’ensemble des produits xiyj, pour 1 inet 1 jm. En utilisant P{(X, Y )=(xi, yj)}=P{X=xi}P{Y=yj}par
indépendance, on a
E(XY ) = X
1in
1jm
xiyjP{(X, Y )=(xi, yj)}=X
1in
1jm
xiyjP{X=xi}P{Y=yj}=
n
X
i=1
xiP{X=xi}
m
X
j=1
yjP{Y=yj}=E(X)E(Y)
La réciproque est fausse en général. Soit Xune variable aléatoire qui prend les trois valeurs 1,0,1 avec la même probabilité 1/3, et Y=X2. Alors
E(XY ) = E(X)E(Y) = 0 mais Xet Yne sont pas indépendantes, puisque P{X= 1}P{Y= 1}=2
9
et P({X= 1}∩{Y= 1}) = P{X= 1}=1
3
.
IV.2. Image par une fonction
IV.2.1. définition
Soit f:RRet Xune variable aléatoire sur Ω. fXest une nouvelle variable aléatoire sur Ω. La loi associée à
cette variable aléatoire est une loi de probabilité sur le support de fX,i.e. sur f(X(Ω)) (qui est fini).
Th´
eor`
eme 8 (Théorème du transfert).
E(f(X)) = X
xX(Ω)
f(x)P{X=x}=
n
X
i=1
f(xi)pi=
n
X
i=1
f(xi)P{X=xi}
Par définition, E(f(X)) = X
ω
fX(ω)P{ω}. Comme pour la formule pratique, on regroupe les ωqui ont la même image xidans la formule de l’espérance : f(xi) est
affecté de la somme des probabilités des singletons (disjoints) de ces ω, donc de la probabilité de leur réunion, qui est l’ensemble {X=xi}. D’où le résultat.
L’espérance de f(X) est déterminée par la loi de X(et pas uniquement de fX, c’est ce qui est remarquable dans
ce théorème).
Application au calcul du moment d’ordre 2 : cas où f:x7→ x2et calcul de E(X2).
IV.2.2. cas indépendant
Th´
eor`
eme 9 (admis).Si Xet Ysont deux variables aléatoires indépendantes, et si fet gsont des applications
définies respectivement sur X(Ω) et Y(Ω) alors les variables aléatoires f(X)et g(Y)sont indépendantes.
Il faut montrer que P{(f(X), f(Y)) = (ξ, µ)}=P{f(X) = ξ}P{f(Y) = µ}ξfX(Ω) et µgY(Ω). Mais on a les égalités d’ensembles {f(X) = ξ}={X
f1({ξ})}et {g(Y) = µ}={Yg1({µ})}, et {(f(X), f(Y)) = (ξ, µ)}={Xf1({ξ})}∩{Yg1({µ})}. Par indépendance du Xet Y, on a bien le résultat.
IV.3. Variance et écart-type
IV.3.1. définitions
d´
efinition 8. La variance de Xest V(X) = EXE(X)2.
L’écart-type de Xest σ(X) = pV(X).
Remarques :
Interprétation : la variance représente la dispersion des résultats autour de la moyenne. L’écart-type permet une
mesure de la dispersion dimensionnée.
Calcul pour une variable aléatoire constante égale à a:V(X) = 0.
IV.3.2. résultats
Th´
eor`
eme 10. V(X) =
n
X
i=1
pixiE(X)2=
n
X
i=1
P(X=xi)xiE(X)2(par le th de transfert).
Relation (de Koenig-Huygens) : V(X) = E(X2)E(X)2(par linéarité).
Relation V(aX +b) = a2V(X)(par Koenig-Huygens).
Notons m=E(X).
La première formule est l’application du théorème de transfert à f:x7→ (xm)2.
V(X) = EXE(X)2=E(X22mX +m2) = E(X2)2mE(X) + m2=E(X2)m2.
V(aX +b) = E((aX +b)2)E(aX +b)2=a2E(X2)+2abE(X) + b2a2E(X)22abE(X)b2=a2V(X).
Remarques :
La relation de Koenig-Huygens est la formule pratique pour calculer la variance.
Exercice : calculer espérance (2) et écart-type (1) de l’exercice sur les 2 boules dans une urne de 5.
4
Exercice : la valeur E(X) est celle qui minimise la fonction g:y7→
n
X
i=1
pixiy2.
Proposition 11. Si Xet Ysont deux variables aléatoires indépendantes alors V(X+Y) = V(X) + V(Y). Généra-
lisation à plusieurs variables aléatoires mutuellement indépendantes.
V(X+Y) = E((X+Y)2)E(X+Y)2=E(X2) + 2E(XY ) + E(Y2)E(X)22E(X)E(Y)E(Y)2=V(X) + V(Y) + 2E(XY )2E(X)E(Y) = V(X) + V(Y) car
par indépendance, E(XY ) = E(X)E(Y).
IV.4. Normalisation
Corollaire 12 (renormalisation).Si Xest une variable aléatoire alors X=XE(X)
pV(X)=XE(X)
σ(X)est centrée
(i.e. d’espérance nulle) réduite ( i.e. de variance égale à 1).
V. Quelques lois à connaître
V.1. Variable constante
Lorsque Xest constante, de support {a}, alors P{X=a}= 1, E(X) = aet V(X) = 0.
V.2. Loi uniforme
d´
efinition 9. Soient aet bdeux entiers tels que a < b (on note n=ba+ 1 soit le nombre d’entiers entre aet b).
On dit que la variable aléatoire Xsuit la loi uniforme U(Ja, bK), noté X → U(Ja, bK), lorsque :
kJa, bK, P {X=k}=1
ba+ 1 =1
n
Cas particulier important : a= 1, b=n, et kJ1, nK, P {X=k}=1
n.
Exercice : si X → U(J1, nK) alors X+a → U(Ja+ 1, a +nK). A-t-on un résultat analogue avec λX → U(Jλ, nλK)
(non) ?
Th´
eor`
eme 13. Si X → U(Ja, bK)alors E(X) = a+b
2et V(X) = (ba+ 1)21
12 =n21
12 .
Exercice : une urne contient nboules numérotées de 1 à n. On tire une à une des boules (sans remise) jusqu’à obtenir
la boule n. On note Xla variable aléatoire qui donne le numéro de ce tirage. Montrer que Xsuit une loi uniforme.
V.3. Loi de Bernoulli
V.3.1. définition
d´
efinition 10. Soit p[0,1]. On dit que la variable aléatoire Xsuit la loi B(p)de Bernoulli de paramètre p, noté
X → B(p), lorsque :
P{X= 1}=pet P{X= 0}= 1 p
Th´
eor`
eme 14. Si X B(p)alors E(X) = pet V(X) = p(1 p).
E(X) = p1 + (1 p)0 = pet V(X) = p(1 p)2+ (1 p)(0 p)2=p(1 p)2+ (1 p)p2=p(1 p)(1 p+p) = p(1 p)
ou calcul de la variance par la formule de Huygens.
Interprétation : succès d’une expérience aléatoire. Cette variable aléatoire permet d’étudier une expérience aléatoire
qui a deux issues possibles :
1 (appelé succès) de probabilité p;
0 (appelé échec) de probabilité q= 1 p.
Exercice : dans une urne contenant nboules rouges et mvertes, on tire une boule. Le succès est obtenu par une boule
rouge. Définir une variable aléatoire qui décrit cette expérience et trouver sa loi : loi de Bernoulli d’indice n
n+m.
5
1 / 7 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !