Un triplet de probabilité est (Ω ,C,P) avec : Ω : ensemble des

publicité
1
Élements de base du calcul des probabiVariance :
lités
var(X) = E((X − E(X))2 ) = E(X 2 ) − E(X)2
var(aX + b) = a2 var(X)
√
Un triplet de probabilité est (Ω, C, P ) avec : Écart type : σ = var
Ω : ensemble des résultats d’expérience
C ∈ P(Ω) : ensemble des événements
Fonction caractéristique :
itX
P : application probabilité de C dans [0, 1]
φX (t) = E(e
)
Z
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
P (A) =
card(A)
card(Ω)
φX (t) =
eitu p(u)du est la transformée de
R
Fourier de p.
Changements
Xde variables :
P [Y = yi ] =
P [X = xi ]
Tirage avec remise dans une urne à deux
i|yj =g(xi )
catégories :
Théorème
:
!
n k
ΩX , ΩY ⊂ R ouverts, X : VA continue à valeurs
P (k succès sur n) =
P (1 − Ps )n−k
dans ΩX , g : ΩX −→ ΩY difféomorphisme.
k s
Y = g(X) est une
continue de densité
VA
Probabilités conditionnelles :
dx dx
P (A ∩ B)
Jacobien de g.
py (y) = px (g −1 (y)) avec
P (A|B) =
dy
dy
P (B)
Théorème des probabilités totales : pour
tout système
complet d’événements {Ai }, 3
X
P (B|Ai )P (Ai )
P (B) =
Couple de VA réelles :
(Ω, C, P ) : espace probabilisé, (Ω0 , C 0 ) : espace
probabilisable avec Ω0 ⊂ R2 , C 0 construit à
partir de réunions ou intersections finies ou dénombrables de pavés de R2 .
Un couple de VA réelles est une application
mesurable de Ω dans Ω0 .
i∈I
Formule de Bayes :
P (B|A)P (A)
P (A|B) =
P (B)
2
Variables aléatoires réelles
Variable aléatoire réelle :
(Ω, C, P ) : triplet de probabilité, (Ω0 , C 0 ) : espace probabilisable avec Ω0 ⊂ R. Une variable
aléatoire réelle est une application mesurable
de Ω dans Ω0 : ∀B ∈ C 0 , X −1 (B) ∈ C.
Fonction de répartition :
F : R −→ R
x 7−→ P [X < x]
Espérance:
E(α(X)) =


cas




discret :
cas continu :





cas
mixte :
L’espérance est linéaire.
X
Zi∈I
R
Couples de variables aléatoires réelles
α(xi )pi
α(u)p(u)du
Fonction de répartition :
F :
R2 −→ R
(x, y) 7−→ P [X < x, Y < y]
Propriété :
X, Y : VA, α, β : R −→ R : application continues. Alors α(X) et β(Y ) sont des VA indépendantes. Réciproque vraie si α et β sont
bijectives.
Espérance :
E(α(X,
Y )) =



si X et Y VA discrètes :
X
(i,j)∈I×J
Z
α(xi , yj )pij

somme des deux si X et Y VA continues : R2 α(u, v)p(u, v)dudv
Moments centrés et non centrés :
mij = E(X i Y j ), i, j ∈ N

µij = E((X − E(X))i (Y − E(Y ))j ), i, j ∈ N
Covariance et matrice de covariance :
cov(X, Y ) = µ11 = E(XY ) − E(X)E(Y
)
!
var(X) cov(X, Y )
E[VVT ] =
,
cov(X, Y )
var(Y )
!
X − E(X)
V=
Y − E(Y )
Fonction caractéristique :
φX,Y (u1 , u2 ) = E(exp(iuT W)),
!T
!
u1
X
u=
,W =
u2
Y
Coefficient de corrélation :
cov(X, Y )
r(X, Y ) =
σX σY
Espérance conditionnelle :
E(α(X, Y )) = EX (EY (α(X, Y )|X))
X
Z=q
∼ tn .
Y /n
Loi de Fischer :
X ∼ χ2n , Y ∼ χ2m , X et Y indépendantes.
X/n
Z=
∼ fn,m .
Y /m
5
Convergence et théorèmes limites
L
Convergence en loi : Xn −
−−→ X ⇔ la suite
n→∞
des fonctions Fn (x) = P [Xn < x] converge simplement vers F (x) = P [X < x] en tout point
où F est continue.
Théorème de Lévy : Xn converge en loi vers
X ⇔ φ continue en t = 0 et
∀t ∈ R, φn (t) = E(eitXn ) −−−→ φ(t) = E(eitX ).
n→∞
P
Convergence en probabilité : Xn −−−→ X ⇔
Changements de VA continues de R2 dans
n→∞
−−→ 0.
R : Loi de U = g(X, Y ) ? On introduit une ∀ > 0, P [|Xn − X| > ] −
n→∞
VA intermédiaire V = h(X, Y ) (ex : X). On
Convergence en moyenne quadratique :
cherche la loi du couple (U, V ) puis la loi marMQ
−−→ X ⇔ E((Xn − X)2 ) −−−→ 0.
ginale de U . Ou calcul de la fonction de répar- Xn −
n→∞
n→∞
tition de U . Ou, si X et Y sont indépendantes,
PS
Convergence presque sûre : Xn −
−−→ X ⇔
fonction caractéristique de U .
n→∞
∀ω ∈ A, P (A) = 1 ⇒ Xn (ω) −−−→ X(ω).
n→∞
Loi faible des grands nombres :
(Xi )i∈{1..n} : VA indépendantes de même loi de
moyenne E(Xk ) = m < ∞.
n
Vecteur gaussien :
1X
P
n
Xk −
−−→ m.
X ∈ R suit une loi normale à n dimensions
si Xn = n
n→∞
k=1
exp − 12 (x − m)T Σ−1 (x − m)
q
,
p(x) =
Loi forte des grands nombres :
(2π)n/2 det(Σ)
(X
i )i∈{1..n} : VA indépendantes de même loi
x, m ∈ Rn , Σ ∈ S+ (R) définie positive.
de moyenne E(Xk ) = m < ∞ et de variance
σ 2 < ∞. n
1X
Fonction génératrice des moments :
MQ
Xn =
Xk −−−→ m.
uT X
n→∞
θ(u) = E(e
)
n k=1
4
Vecteurs Gaussiens
Théorème de la limite centrale :
Loi du χ2 :
(Xi )i∈{1..n} : VA indépendantes de même loi
(Xi )i∈{1..n} : n VA indépendantes de loi N (0, 1).
de moyenne E(Xk ) = m < ∞ et de variance
n
X
2
2
σ 2 < ∞.
Y =
Xi ∼ χ n .
i=1
La VAPcentrée
réduite vérifie :
n
L
k=1 Xk − nm
√
Loi de Student :
Yn =
−
−−→ N (0, 1).
n→∞
2
nσ
X ∼ N (0, 1), Y ∼ χ2n , X et Y indépendantes.
Téléchargement