va aleatoires discretes

Telechargé par Eby Mouhamedou
Variables al´eatoires r´eelles discr`etes
Dans tout ce chapitre, on se place dans un espace probabilis´e not´e (Ω,A, P ).
1 Loi d’une variable discr`ete
1.1 G´en´eralit´es
Maintenant que Ω peut ˆetre de taille infinie, il faut rajouter une condition pour avoir une variable
al´eatoire :
D´
efinition
X: Ω Rest une variable al´eatoire discr`ete sur (Ω,A) si :
1. X(Ω) = {xi, i I}o`u Iest une partie finie ou infinie de N.
Autrement dit X(Ω) est un ensemble fini ou d´enombrable.
2. pour tout iI, (X=xi) est un ´ev´enement : (X=ui)∈ A
Pourquoi cette condition 2. ? Le but est de calculer des probabilit´es. Or une probabilit´e n’est d´efinie
que sur des ´ev´enements. Il faut donc s’assurer que ce que l’on ´etudie soit un ´ev´enement.
Le cas des variables finies ´etudi´ees jusqu’`a maintenant, est un cas particulier des variables discr`etes.
Exemple 1 :
On effectue une infinit´e de lancers d’un d´e ´equilibr´e. On introduit la variable al´eatoire Xqui donne le
nombre de lancers n´ecessaires `a l’obtention du premier 1, si l’on obtient 1, et 0 si l’on n’obtient jamais 1.
Alors, introduite ainsi, on a : X(Ω) = [[1,+[[∪{0}=N.
En fait, beaucoup d’´enonc´es d´efiniront Xsans prendre la peine de d´efinir la valeur 0 c’est-`a-dire :
soit Xla variable al´eatoire ´egale au nombre de lancers n´ecessaires `a l’obtention du premier 1.
En effet : ces deux d´efinitions de Xreviennent au mˆeme car on a vu dans le chapitre pr´ec´edent que
presque sˆurement, on effectuera un nombre fini de lancers puisque d’apr`es le th´eor`eme de limite mono-
tone, P(X= 0) = P(”ne jamais obtenir 1” ) = lim
n+P(”ne pas obtenir de 1 en nlancers”)=0.
Donc mˆeme avec la premi`ere d´efinition de X,Xne prend pas la valeur 0 presque sˆurement, et donc on
peut consid´erer que X(Ω) = N(ce que l’´enonc´e vous demandera de v´erifier).
Remarque Autant il n’est pas toujours possible de d´efinir Ω, autant il est indispensable de pr´eciser X(Ω)
d`es qu’une variable al´eatoire Xest introduite.
Th´eor`eme
Soit Xune variable al´eatoire discr`ete sur (Ω,A). Alors la famille ([X=k])kX(Ω) est un s.c.e. appel´e
syst`eme complet d’´ev´enements associ´e `a X.
Proposition Op´erations sur les variables al´eatoires
Soit X, Y deux variables al´eatoires discr`etes sur (Ω,A) et soit λR.
Alors X+Y, λX, XY, max(X, Y ),min(X, Y ) sont des variables al´eatoires discr`etes sur (Ω,A).
rappel : Z=min(X, Y ) est la variable al´eatoire d´efinie pour tout ωΩ par Z(ω) = min(X(ω), Y (ω)).
De mˆeme pour le max.
1.2 Loi de probabilit´e
D´
efinition
Soit Xune variable discr`ete sur (Ω,A, P ). On appelle loi de X(ou loi de probabilit´e de X) la donn´ee de
X(Ω) et des valeurs P(X=k) pour tout kX(Ω).
Retour exemple 1 : On effectue une infinit´e de lancers.
Xest le nombre de lancers de d´es n´ecessaires `a l’obtention du premier 1. X(Ω) = N. Loi de X?
On introduit pour tout kNles ´ev´enements Uk”obtenir un 1 au kie lancer”.
1
Alors (X= 1) = U1et P(X= 1) = 1/6. Puis pour tout k2, (X=k) = U1U2... Uk1Uket par
ind´ependance des lancers, on obtient P(X=k) = (5/6)k1×1/6.
On v´erifie alors que
+
P
k=1
P(X=k) =
+
P
k=1
1
6(5
6)k1=1
6
+
P
k=0
(5
6)k=1
6
1
15/6= 1.
Remarque 1 : Cela permettrait de montrer d’une autre fa¸con que P(X= 0) = 0 (alternative au
th´eor`eme de limite monotone) puisque P(X= 0) = 1
+
P
k=1
P(X=k)=11 = 0.
Remarque 2 : la convergence de la s´erie vient de la propri´et´e de σadditivit´e de P(cf chapitre
pr´ec´edent) : en effet, la famille (X=k)kX(Ω) est form´ee d’´ev´enements deux-`a-deux incompatibles, donc
la s´erie P
k1
P(X=k) converge.
Propri´et´es importantes d’une loi de probabilit´e :
Soit Xune variable al´eatoire. Alors
1. kX(Ω), P(X=k)0
2. La s´erie P
kX(Ω)
P(X=k) est convergente de somme 1.
Exemple :
Soit Xune variable al´eatoire d´efinie sur (Ω,A) telle que X(Ω) = {2k+ 1, k N}et pour tout kN,
P(X= 2k+ 1) = a
3k+1 . D´eterminer aafin que l’on d´efinisse bien une loi de probabilit´e.
Les deux conditions qui doivent ˆetre r´ealis´ees sont :
1. kN,a
3k+1 0 donc il faut a0 et
2. la s´erie P
k0
a
3kdoit ˆetre convergente de somme 1. Or a
3k+1 =a
3×1
3kdonc la s´erie P
k0
a
3k+1 converge et sa
somme vaut a
3
+
P
k=0
1
3k=a
3
1
11/3=a
2. Il faut donc poser a= 2.
1.3 Fonction d’une variable r´eelle discr`ete
Comme dans le chapitre pr´ec´edent, on peut vouloir ´etudier des variables al´eatoires du type X2, ou ...
Proposition
Soit Xune variable discr`ete sur (Ω,A) et fune fonction r´eelle d´efinie sur X(Ω). Alors la variable
Y=f(X), d´efinie par : pour tout ωΩ, Y(ω) = f(X(ω)), est une variable al´eatoire discr`ete sur (Ω,A)
et
1. Y(Ω) = {f(k), k X(Ω)}
2. pour tout yY(Ω), P (Y=y) = P
kX(Ω)/f(k)=y
P(X=k)
1.4 Ind´ependance de variables discr`etes
D´
efinition
Soit Xet Ydeux variables al´eatoires discr`etes d´efinies sur un mˆeme espace (Ω,A, P ).
On dit que Xet Ysont ind´ependantes si
pour tout (i, j)X(Ω) ×Y(Ω), P([X=i][Y=j]) = P(X=i)×P(Y=j).
Plus g´en´eralement :
D´
efinition
Soit nvariables al´eatoires discr`etes X1,X2, ... ,Xn, d´efinies sur un mˆeme espace (Ω,A, P ). On dit qu’elles
sont mutuellement ind´ependantes si pour tout (x1, x2, ..., xn)X1(Ω) ×X2(Ω) ×... ×Xn(Ω), on a
P([X1=x1][X2=x2]... [Xn=xn]) =
n
Q
k=1
P(Xk=xk).
2
2 Moments d’une variable al´eatoire discr`ete
2.1 Esp´erance
D´
efinition
Soit Xune variable al´eatoire discr`ete sur (Ω,A, P ).
On dit que Xadmet une esp´erance si X(Ω) est fini ou si la s´erie P
kX(Ω)
kP (X=k) converge absolument.
On appelle alors esp´erance de Xle r´eel E(X) = P
kX(Ω)
kP (X=k) (qui est la somme de la s´erie, lorsque
X(Ω) est infini).
Exemple 1 : X est le nombre de lancers de d´es n´ecessaires pour obtenir le chiffre 1.
On a vu que X(Ω) = Net que kN,P(X=k) = (5/6)k11/6.
Or pour tout kN,kP (X=k) = 1
6k(5/6)k1, donc la convergence absolue revient `a la convergence
simple. De plus, on reconnait le terme g´en´eral d’une s´erie g´eom´etrique d´eriv´ee qui converge car |5
6[<1.
Donc Xadmet une esp´erance et E(X) = 1
6
1
(15
6)2= 6
Proposition lin´earit´e de l’esp´erance
Soit Xet Ydeux variables discr`etes sur (Ω,A, P ) admettant une esp´erance et a, b R. Alors
1. la variable aX +badmet une esp´erance et E(aX +b) = aE(X) + b.
2. la variable X+Yadmet une esp´erance et E(X+Y) = E(X) + E(Y).
Proposition
Soit X, et Ydeux variables al´eatoires discr`etes d´efinies sur un mˆeme espace (Ω,A, P ).
1. Croissance de l’esp´erance : si Xet Yadmettent une esp´erance et v´erifient XY,
alors E(X)E(Y).
2. Existence de l’esp´erance par domination : si Yadmet une esp´erance, et si Xet Y
v´erifient 0 ≤ |X| ≤ Y, alors Xadmet ´egalement une esp´erance et |E(X)| ≤ E(Y).
Proposition Formule de transfert admis
Soit Xune variable discr`ete sur (Ω,A, P ), et fune fonction r´eelle.
La variable al´eatoire f(X) admet une esp´erance si et seulement si X(Ω) est fini ou si
la s´erie P
kX(Ω)
f(k)P(X=k) converge absolument, et alors E(f(X)) = P
kX(Ω)
f(k)P(X=k) (qui est la
somme de la s´erie, lorsque X(Ω) est infini).
Cas particulier :f(x) = x2.
X2admet une esp´erance si X(Ω) est fini ou si la s´erie P
kX(Ω)
k2P(X=k) converge.
Et le cas ´ech´eant, E(X2) = P
kX(Ω)
k2P(X=k).
(Dans ce cas particulier, inutile de justifier la convergence absolue, car tous les termes sont positifs !)
2.2 Variance
D´
efinition
Soit Xune var discr`ete sur (Ω,A, P ).Sous-r´eserve d’existence, on appelle
1. moment d’ordre 2 de Xle r´eel E(X2).
2. variance de Xle r´eel V(X) = E[(XE(X))2] (mesure l’´ecart entre Xet sa moyenne)
3. ´ecart-type de Xle r´eel σ(X) = pV(X)
3
Remarque
Xpeut admettre une esp´erance sans admettre de moment d’ordre 2.
Mais si Xadmet un moment d’ordre 2, alors Xadmet une esp´erance, et donc par contrapos´ee, si X
n’admet pas d’esp´erance alors Xn’admet pas non plus de moment d’ordre 2.
Pour le comprendre, soit Xune variable discr`ete avec X(Ω) = N.
Alors l’esp´erance existe si la s´erie P
k0
kP (X=k) converge et E(X2) existe si la s´erie P
k0
k2P(X=k). Or,
pour tout k0, k2kdonc (crit`ere de comparaison), si la s´erie de l’esp´erance diverge, l’autre aussi, et
si la s´erie associ´ee au moment d’ordre 2 converge, celle de l’esp´erance aussi !
Proposition
Xadmet un moment d’ordre 2 ssi Xadmet une variance et dans ce cas, V(X) = E(X2)(E(X))2.
emonstration dans le cas X(Ω) = N, en notant m=E(X).
Variance : s´erie P
k0
(km)2P(X=k) et Moment d’ordre 2 : s´erie P
k0
k2P(X=k).
Or les termes sont tous positifs, et (km)2P(X=k)
k+k2P(X=k), donc on peut conclure (crit`ere
par ´equivalence) que ces deux s´eries ont mˆeme nature. Puis dans le cas de convergence :
(XE(X))2=X22XE(X) + E(X)2d’o`u par lin´earit´e de l’esp´erance,
V(X) = E[X22XE(X) + E(X)2] = E(X2)2E(X)E(X) + E(X)2=E(X2)E(X)2
Point ethode : pour r´epondre `a la question ”Xadmet-elle une variance ? Si oui la calculer”.
Lorsque Xadmet une esp´erance (sinon la r´eponse est non), ´etudier si Xadmet un moment d’ordre 2, et
le cas ´eceant utiliser la formule V(X) = E(X2)E(X)2pour la calculer.
En g´en´eral, pour montrer que le moment d’ordre 2 existe, on ´etudiera directement la s´erie associ´ee `a
E(X2) mais dans certains cas il sera plus judicieux de montrer que X(X1) admet une esp´erance (`a
l’aide de la formule de transfert). Puis de conclure `a l’aide de la lin´earit´e puisque en cas de convergence,
E(X2) = E(X(X1)) + E(X).
Propri´et´es de la variance : g´en´eralisation
1. Si Xadmet une variance, alors V(X)0.
2. Si Xadmet une variance nulle (V(X) = 0) alors Xest une variable al´eatoire constante sur Ω
presque sˆurement, et r´eciproquement.
3. Si Xadmet une variance, alors pour tout (a, b)R2,aX +badmet une variance
et V(aX +b) = a2V(X).
D´
efinition
On dit que Xest une variable centr´ee r´eduite si E(X) = 0 et V(X) = 1.
Proposition
Soit Xune variable non constante (i.e. V(X)̸= 0). Alors la variable X=XE(X)
σ(X)est une variable
centr´ee r´eduite, appel´ee variable centr´ee r´eduite associ´ee `a X.
3 Lois usuelles discr`etes infinies
3.1 Loi g´eom´etrique
D´
efinition
On effectue une infinit´e d’´epreuves mutuellement ind´ependantes. Chaque ´epreuve a deux issues : le succ`es
de probabilit´e p]0,1[ et l’´echec de probabilit´e (1 p), et on introduit la variable X´egale au rang d’ap-
parition du premier succ`es, c`ad au nombre d’´epreuves n´ecessaires `a l’obtention du premier succ`es.
On dit alors que Xsuit la loi g´eom´etrique de param`etre pet on note : X → G(p).
4
Xest le temps d’attente du premier succ`es dans un processus de Bernoulli sans m´emoire
Th´eor`eme Soit p]0,1[. Si une variable al´eatoire Xsuit la loi g´eom´etrique de param`etre palors
X(Ω) = N, et nN,P(X=n) = p(1 p)n1
emonstration
Le premier succ`es peut arriver d`es la premi`ere ´epreuve, donc X(Ω) = N.
Introduisons pour tout iN, les ´ev´enements Si(resp. Ei) ” la ie´epreuve est un succ`es (resp. ´echec)”.
Alors kN, (X=k) = E1E2. . . Ek1Sket par ind´ependance mutuelle des ´epreuves
P(X=k) = P(E1)P(E2)...P (Ek1)P(Sk) = (1 p)k1p.
On v´erifie que
+
P
k=1
p(1 p)k1=p
+
P
j=0
(1 p)j=p1
1(1p)= 1. (ce qui permet aussi de justifier a posteriori,
que presque sˆurement on obtient au moins un succ`es donc que X(Ω) = N)
Remarque Soit le mod`ele suivant :
On effectue une succession d’´epreuves mutuellement ind´ependantes, jusqu’`a l’obtention du premier succ`es.
Chaque ´epreuve a deux issues : le succ`es de probabilit´e p]0,1[ et l’´echec de probabilit´e (1 p).
Xest la variable al´eatoire ´egale au rang d’apparition du premier succ`es, c’est-`a-dire au nombre d’´epreuves
effectu´ees. On pourrait d´emontrer de la mˆeme mani`ere (en utilisant la formule des probabilit´es compos´ees
au lieu de la d´efinition de la mutuelle ind´ependance) que dans ce cas, on a aussi X → G(p).
Esp´erance et Variance
Si X → G(p) alors Xadmet une esp´erance et une variance et E(X) = 1
p,V(X) = 1p
p2.
emonstration
Esp´erance : ´etude de la convergence absolue de la s´erie P
k1
kp(1 p)k1, ce qui revient `a la convergence
puisque la s´erie est `a termes positifs. Or pour k1, kp(1 p)k1=p[k(1 p)k1] ; on reconnaˆıt le terme
g´en´eral d’une s´erie g´eom´etrique d´eriv´ee convergente puisque 0 <p<1, donc 0 <1p < 1.
Donc la s´erie converge, donc Xadmet une esp´erance et E(X) = p
+
P
k=1
k(1 p)k1=p
(1(1p))2=1
p.
Moment d’ordre 2 : ´etude de la convergence de la s´erie P
k1
k2p(1 p)k1.
Or pour tout k1, k2p(1 p)k1=p(1 p)[k(k1)(1 p)k2] + p[k(1 p)k1], combinaison lin´eaire de
termes g´en´eraux de s´eries g´eom´etriques convergentes.
Donc Xadmet un moment d’ordre 2 et E(X2) = p(1 p)
+
P
k=1
k(k1)(1 p)k2+p
+
P
k=1
k(1 p)k1
=2p(1p)
(1(1p))3+p
(1(1p))2=2(1p)
p2+1
p(on pourrait raccourcir en r´ealisant que la 2e s´erie est la s´erie de
l’esp´erance !)
Donc Xadmet une variance et V(X) = E(X2)(E(X))2=2p
p2(1
p)2=1p
p2.
OU passer par E(X(X1)) (m´ethode pr´esenee pour la loi de Poisson)
3.2 Loi de Poisson et moelisation
Soit θ > 0. On dit qu’une variable al´eatoire Xsuit une loi de Poisson de param`etre θ, not´ee P(θ)
si X(Ω) = Net nN,P(X=n) = θn
n!eθ
Remarque
On d´efinit bien ainsi une loi de probabilit´e car pour tout nN,θn
n!eθ0, et
+
P
n=0
θn
n!eθ=eθeθ= 1.
Esp´erance et Variance
5
1 / 8 100%

va aleatoires discretes

Telechargé par Eby Mouhamedou
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !