Chapitre 2 : Variables aléatoires et distributions I. Définitions et exemples Définition 1

publicité
Chapitre 2 : Variables aléatoires
et distributions
I. Définitions et exemples
Définition 1 Etant donnée une expérience aléatoire
(Ω, F, P). Une variable aléatoire X est une quantité
dont la valeur dépend du résultat de l’expérience
aléatoire. X est une application de
Ω −→ R
ω 7−→ X(ω)
telle que ∀B ⊂ R
{ω ∈ Ω|X(ω) ∈ B} ∈ F
Probabilités– A. YAACOUBI – Novembre 2011 – p. 1/44
Probabilités– A. YAACOUBI – Novembre 2011 – p. 2/44
Exemples
Exemple 1 : Lancer une pièce de monnaie.
X(P ) = 1 et X(F ) = 0
Exemple 2 : Lancer un Dè équilibré.
√
X(k) = k
Exemple 3 : Lancer deux Dès équilibrés.
X((i, j)) = i + j
Exemple 4 : Choisir un pointM au hasard de façon
uniforme sur un disque de centre O et de rayon R.
X = distance de M à O
Probabilités– A. YAACOUBI – Novembre 2011 – p. 3/44
II-Loi ou distribution d’une variable aléatoire
II.1-Le cas discret :
Définition 2 Une variable aléatoire X est dite
discrète si l’ensemble de ses valeurs possibles E
est ou bien un ensemble fini, ou bien un ensemble
infini dénombrable.
Dans ce cas on définit la loi de X par
p(x) = P{X = x} = P{ω ∈ Ω|X(ω) = x}
l’application : p : E −→ [0, 1] ainsi définie
S’appelle fonction de masse de la v.a.r X
Probabilités– A. YAACOUBI – Novembre 2011 – p. 4/44
Fonction de masse
Exemple 3 Lancer d’une pièce de monnaie
p(1) = P{X = 1} = P{P } = 1/2
et
p(0) = P{X = 1} = P{F } = 1/2
Exemple 4 Lancer deux Dès équilibrés.
X(ω) = la somme des deux résultats.
E = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}
X
p(x)
2
3
4
5
6
7
8
9
10 11 12
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
Probabilités– A. YAACOUBI – Novembre 2011 – p. 5/44
Diagramme en bâtons
Probabilités– A. YAACOUBI – Novembre 2011 – p. 6/44
Fonction de masse
Exemple 5 Lancer une pièce de monnaie jusqu’à
obtenir Face.
X=
nombres de lancers nécessaires pour obtenir face
E = {1, 2, 3, . . .} = N∗
1
p(k) = P{X = k} = P{P
| P P{z. . . P} F } = 2k
(k−1)f ois
Proposition 6 Toute fonction de masse ou loi de
probabilité d’une variable aléatoire X discrète
prenant ses valeurs dans E vérifie :
1. p(x) ≥ 0 pour tout x ∈ E
P
2.
p(x) = 1
x∈E
Probabilités– A. YAACOUBI – Novembre 2011 – p. 7/44
II.2- Le cas continu
Définition 7 Une variable aléatoire X : Ω → R est
dite continue, ou plus précisément absolument
continue, s’il existe une fonction f (x) telle que pour
tout B ⊂ R on ait
Z
P(X ∈ B) =
f (x)dx
B
La fonction f : R → R+ s’appelle densité de
probabilité de la variable aléatoire X.
Probabilités– A. YAACOUBI – Novembre 2011 – p. 8/44
Exemples
Exemple 8 Choisir un point M au hasard et de façon
uniforme sur le disque D(O, 5)
X = d(M, O)
La variable X peut prendre n’importe quelle valeur
de l’intervalle[0, 5]. La densité de probabilité de X est
donnée par :
( 2x
si 0 ≤ x ≤ 5
f (x) =
25
0
sinon
Probabilités– A. YAACOUBI – Novembre 2011 – p. 9/44
densité de probabilité
Proposition 9 Toute densité de probabilité d’une
variable aléatoire X doit satisfaire aux conditions
suivantes :
• f (x) ≥ 0 pour tout x ∈ R
R
• R f (x)dx = 1
Probabilités– A. YAACOUBI – Novembre 2011 – p. 10/44
II.3-Fonction de répartition
Définition 10 X est une variable aléatoire réelle
quelconque. La fonction de répartition de X est la
fonction
F : R −→ [0, 1]
x
7−→ F (x)
définie par :
F (x) = P{X ≤ x} = P{X ∈] − ∞, x]}
Exemple 11 On lance à deux reprise un dé bien
équilibré. On considère la v.a.r
X= le maximum des résultats des deux lancers
Déterminer la loi de probabilité de X et sa fonction
de répartition.
Probabilités– A. YAACOUBI – Novembre 2011 – p. 11/44
Graphe de F dans le cas discret
Probabilités– A. YAACOUBI – Novembre 2011 – p. 12/44
Exemple : Cas continu
Exemple 12 Choisir un point M au hasard et de
façon uniforme sur le disque D(O, 5)
X = d(M, O)
La fonction de répartition est donnée par :
 2
x



si 0 ≤ x ≤ 5
25
F (x) =
0 si
x≤0


 1 si
x≥5
Probabilités– A. YAACOUBI – Novembre 2011 – p. 13/44
Graphe de F dans le cas continu
Probabilités– A. YAACOUBI – Novembre 2011 – p. 14/44
Propriétés de F
La fonction de répartition d’une varaible aléatoire
discrète X vérifie les proriétés suivantes.
Propriété 13 :
1. F est croissante
2. F est continue à droite
3. lim F (x) = 1
x→+∞
4. lim F (x) = 0
x→−∞
Probabilités– A. YAACOUBI – Novembre 2011 – p. 15/44
Propriétés de F
La fonction de répartition d’une varaible aléatoire
continue X vérifie les proriétés suivantes.
Propriété 14 :
1. F est croissante
2. F est continue
3. lim F (x) = 1
x→+∞
4. lim F (x) = 0
x→−∞
Probabilités– A. YAACOUBI – Novembre 2011 – p. 16/44
Fonction de répartition et fonction de masse
Soit X une variable aléatoire discrète de fonction de
masse p(x) et de fonction de répartition F .
Proposition 15 :
∀x ∈ R on a :
X
F (x) =
p(u)
u≤x
1
p(x) = F (x) − lim F (x − )
n→+∞
n
c’est à dire
p(x) = grandeur de saut de la fonction F au point x
Probabilités– A. YAACOUBI – Novembre 2011 – p. 17/44
Fonction de répartition et fonction densité
Soit X une variable aléatoire continue de densité de
probabilité f (x) et de fonction de répartition F .
Proposition 16 : ∀x ∈ R on a :
Z x
F (x) =
f (t)dt
−∞
d
f (x) =
F (x)
dx
Probabilités– A. YAACOUBI – Novembre 2011 – p. 18/44
III-Espérance et moments d’une
variable aléatoire :
III.1-Espérance mathématique :
 P

cas discrète

 x∈R xpX (x)
E(X) =


 R +∞ xf (x)dx cas continue
−∞
Exemple 17 Une urne contient 10 boules. Trois
boules ont la valeur 1, quatre boules ont la valeur 2,
deux boules ont la valeur 3 et une boule a la valeur 4.
On tire une boule au hasard et on pose X = la valeur
de la boule tirée. Calculer l’espérance de X.
Probabilités– A. YAACOUBI – Novembre 2011 – p. 19/44
Exemple 18 On choisit au hasard et de façon
uniforme un point M sur le disque de rayon 5 centré à
l’origine et on pose X = d(O, M ).
Calculer E(X).
Probabilités– A. YAACOUBI – Novembre 2011 – p. 20/44
Propriétés de E(X)
Théorème 1 :
1. X et Y deux variables aléatoires. Si Y = g(X)
pour une certaine fonction g : R → R, alors
E(Y ) = E(g(X)) =
 P

g(x)pX (x)
cas discrète


=
x∈R


 R +∞ g(x)f (x)dx cas continue
X
−∞
Probabilités– A. YAACOUBI – Novembre 2011 – p. 21/44
Propriétés de E(X)
Théorème 2 :
1. E(X + Y ) = E(X) + E(Y )
2. E(aX + b) = aE(X) + b
Théorème 3 :
X et Y sont deux v.a.r indépendantes si et
seulement si une des deux assertions suivantes est
vérifiée
1.
E(XY ) = E(X)E(Y )
2.
E[h(X)g(Y )] = E(h(X))E(g(Y ))
Probabilités– A. YAACOUBI – Novembre 2011 – p. 22/44
III.2-Variance
Variance
La variance de X est notée V ar(X).
 P
2

(x
−
E(X))
pX (x)
cas discrète

 x∈R
V ar(X) =


 R +∞ (x − E(X))2 f (x)dx cas continue
−∞
Ecart type
p
σX = V ar(X)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 23/44
Propriétés de la variance
1. V ar(aX + b) = a2 V ar(X)
2. σ(aX+b) = |a| σX
3. Si X et Y sont indépendantes alors
V ar(X + Y ) = V ar(X) + V ar(Y )
Probabilités– A. YAACOUBI – Novembre 2011 – p. 24/44
Inégalités
Inégalité de Markov
Pour tout variable aléatoire X positive et pour tout
a > 0 on a
E(X)
P[X ≥ a] ≤
a
Inégalité de Chebyshev
V ar(X)
P[|X − E(X)| ≥ a] ≤
a2
Probabilités– A. YAACOUBI – Novembre 2011 – p. 25/44
IV-Lois usuelles
1) Loi de Bernoulli
Définition 19 X : Ω −→ {0, 1} obéit à la loi de
bernoulli de paramètre p si P{X = 1} = p et
P{X = 0} = 1 − p.
X modélise une épreuve à deux issues possibles :
{X = 1}=succès, {X = 0}=echec
Probabilités– A. YAACOUBI – Novembre 2011 – p. 26/44
Lois usuelles
2) Loi binomiale
Scénario d’application
Soit une séquence d’épreuves de Bernoulli
indépendantes les unes des autres et ayant toutes la
même probabilité de succès p.
X =nombres de succès obtenu parmi les n epreuves
Fonction de masse
n k
P(X = k) =
p (1 − p)n−k
k
On dit que X obéit à la loi binomiale et on note
X ∼ B(n, p)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 27/44
Lois usuelles
Propriété d’additivité
Théorème 20 Si Xobéit à B(n1 , p) et Y obéit à
B(n2 , p) et si X et Y sont indépendantes alors X + Y
obéit à B(n1 + n2 , p)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 28/44
Lois usuelles
3) Loi géométrique
Scénario
Soit une séquence d’épreuves de Bernoulli
indépendantes les unes des autres et ayant toute la
même probabilité de succès p.
N1 = nombre d’épreuves nécessaires pour obtenir le
premier succès
Fonction de masse
P(N1 = k) = (1 − p)k−1 p
Absence de mémoire :
P(N1 > k + l|N1 > l) = P(N1 > k)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 29/44
Lois usuelles
4) Loi de Pascal
Scénario Soit une séquence d’épreuves de Bernoulli
indépendantes les unes des autres et ayant toute
la même probabilité de succès p.
Nm = nombre d’épreuves nécessaires pour obtenir
le me succès
Fonction de masse :
P(Nm = k)=
k−1 m
(k−m)
p
(1
−
p)
si
k ∈ {m, m + 1, ..., }
m−1
0
sinon
On note X ∼ BN (m, p)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 30/44
Lois usuelles
Propriété d’additivité
Théorème 21 Si X ∼ BN (m1 , p)et Y ∼ BN (m2 , p)
et si X et Y sont indépendantes alors
X + Y ∼ BN (m1 + m2 , p)
Corollary 22 Si X1 , ..., Xk sont des var
géométrique(p) indépendantes les unes des autres
alors T = X1 + ... + Xk obéit àla loi BN (k, p)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 31/44
Lois usuelles
4) Loi Hypergéométrique
Scénario :
1. Urne contenant N boules blanches et M
boules noires
2. tirage sans remise de n boules.
3. X nombre de boules blanches parmi les n
tirées.
Fonction de masse
P(X = k) =
N
M
k
n−k
N +M
n
Probabilités– A. YAACOUBI – Novembre 2011 – p. 32/44
Lois usuelles
5) Loi de Poisson
Définition 23 Une variable aléatoire entière
X : Ω −→ N obéit à la loi de Poisson de paramètre λ
si sa fonction de masse est donnée par :
e−λ λk
pX (k) =
k!
Caractéristiques
1. Espérance mathématique : E(X) = λ
2. Variance : V ar(X) = λ
Probabilités– A. YAACOUBI – Novembre 2011 – p. 33/44
Loi de Poisson et Loi Binomiale
Théorème 24 Soit λ > 0 et pn = nλ . Alors on a :
−λ k
e
λ
n k
n−k
=
lim
pn (1 − pn )
n−→∞ k
k!
Dans la pratique si n ≥ 50 et np < 10 alors
B(n, p) ≈ P(λ)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 34/44
Lois usuelles
6) Loi Exponentielle
Scénario : Modélisation des temps aléatoire
−→ Durée de vie
−→ Temps entre les arrivées successives de
clients dans une file d’attente
Fonction densité
−λx
λe
si x ≥ 0
f (x) =
0
sinon
Fonction de répartition :
1 − e−λx si x ≥ 0
F (x) =
0
sinon
Probabilités– A. YAACOUBI – Novembre 2011 – p. 35/44
Lois usuelles
Loi géométrique et Loi exponentielle :
λ
• Tn ∼ géométrique ( )
n
Tn
•
−→ T
n
• T ∼ Exp(λ)
Minimum de variables de loi Exp
Théorème 25 oient X1 , ..., Xn des var indépendantes
telles que Xi ∼ Exp(λi ) Alors
T = M in(X1 , X2 , ..., Xn ) ∼ Exp(λ1 + ... + λn )
Probabilités– A. YAACOUBI – Novembre 2011 – p. 36/44
Lois usuelles
7) Loi gamma
Fonction densité :
 α
 λ xα−1 e−λx si x ≥ 0
Γ(α)

0
sinon
R ∞ α−1 −t
où Γ(α) = 0 t e dt
X ∼ gamma(α, λ)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 37/44
Lois usuelles
Propriété d’additivité :
X ∼ gamma(α1 , λ) et X ∼ gamma(α2 , λ) et si
elles sont indépendantes alors
X + Y ∼ gamma(α1 + α2 , λ)
Corollary 26 Si X1 , ..., Xk sont des v.a.r de même loi
Exp(λ) indépendantes les unes des autres alors
T = X1 + ... + Xk obéit à la loi gamma(k, λ)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 38/44
Lois usuelles
8) Loi normale ou loi Gaussienne
Fonction densité :
(
1
1
f (x) = √ exp −
2
σ 2π
x−µ
σ
2 )
X ∼ N (µ, σ)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 39/44
Lois usuelles
Graphe de la densité de N (m, σ)
Probabilités– A. YAACOUBI – Novembre 2011 – p. 40/44
Lois usuelles
Probabilités– A. YAACOUBI – Novembre 2011 – p. 41/44
Lois usuelles
Changement de variable :
X −µ
∼ N (0, 1)
X ∼ N (µ, σ) ⇔ Z =
σ
Propriété d’additivité :
Si X1 ∼ N (µ1 , σ1 ) et X2 ∼ N (µ2 , σ2 ) et si
X1 ,X2 sont indépendantes alors
q
X1 + X2 ∼ N (µ1 + µ2 , σ12 + σ22 )
Probabilités– A. YAACOUBI – Novembre 2011 – p. 42/44
Lois usuelles
Calcul de probabilités :
→ Z ∼ N (0, 1) :
Utilisation de la table de la loi N (0, 1).
P(a < Z < b) = Φ(b) − Φ(a)
→ X ∼ N (µ, σ) :
a−µ
b−µ
) − Φ(
)
P(a < X < b) = Φ(
σ
σ
Probabilités– A. YAACOUBI – Novembre 2011 – p. 43/44
Lois usuelles
Théorème de la limite centrale :
Si X1 , X2 , ..., Xk , ..., une suite de variables
aléatoires indépendantes et identiquement
distribuéesP
(i.i.d) avec moyenne µ et variance σ 2
et si Sn = nk=1 Xk alors : Pour n assez grand
Sn − nµ
√
≈ N (0, 1)
σ n
C’est à dire pour n assez grand :
a − nµ
b − nµ
P(a < Sn < b) = Φ( √ ) − Φ( √ )
σ n
σ n
Probabilités– A. YAACOUBI – Novembre 2011 – p. 44/44
Téléchargement