II. Probabilités conditionnelles

publicité
Probabilités élémentaires :
P(AB) P(A) P(B) P(AB)
si A et B compatible
P(AB) P(A) P(B)
si A et B incompatible ( AB  )
P(A)1P(A)
Probabilités conditionnelles :
P(B A)
P(B )
A
P(A)
P(A )P(A)
B
si A et B indépendants
P(B)
P(B )
A P(A)
si B inclus dans A
Variables aléatoires :
Variables aléatoires discrète :
fonction de répartition
F(X)P(X  x)  p j
fonction de répartition :
lim F(x)0
espérance
mathématique
lim F(x)1
E(X) pi xi
x
x j x
Variance
V(X)E(X²)E²(X)
n
x 
i 1
Variables aléatoires continue
fonction de répartition
densité de probabilité
f(x)F '(x)
espérance
mathématique
b

a

Variance

V(X) (xE(x))²f(x)dx x²
P(a X b)F(b)F(a) P(a X b)F(b)F(a) f(x)dx E(X)  xf(x)dx

Opérations sur les variables aléatoires
espérance mathématique
E(X b)E(X)b
E(aX)aE(X)
E(X Y) E(X) E(Y) v.a. indépendantes ou non
E(X Y) E(X)E(Y) v.a. indépendantes
Variance
var( X) 12 var( Xi)
n
var( X b)var( X)
var( aX)a² var( X)
var( X Y)var( X) var( Y)2cov( X,Y)
X et Y indépendants
var( X Y) var( X) var( Y)
Covariance
coefficient de corrélation :
cov( X,Y)
c   x ²
c X,Y) E[(X  E(X))(Y  E(Y))] E(XY) E(X)E(Y)
cov(
 (aX) a (X)
Lois usuelles
Loi de Bernoulli :
X=
Loi Binomiale :
1 et P(X=1)=p
0 et P(X=0)=1-p
P(xk)Cnk pk qnk
Loi Hypergéométrique :
Loi de Poisson :

P(xk) e avec  param. >0
k!
nk
k
P(xk) Cn CnN k
CN
k
Loi multinominale :
P(N1n1,N2 n2,...,Nk1nk) p1n1 p2n2...pknk
Lois continues :
Loi uniforme (sur l’intervalle [a,b]) :
f(x) 1
ba
F(x) xa
ba
a
E(x) b
2
(ba)²
V(x)
12
Densité :
Fonction de répartition
Espérance
Variance
Loi normale ( de paramètre (m,  ) ):
f(x)
1
 2
e
(x  m)²

2 2
E(x)m
V(x) 2
Loi exponentielle :
Densité
f(x)=0
si x<0
f(x)= 1 e x sinon
Fonction de répartition
F(x)1ex si x>0
Espérance
E(x) 1
Variance
V(x) 1
²


Loi de X² :
Si on a n variables aléatoires indépendantes et
suivant la loi normale N(0,1).
n
X  X i2
i 1
I.
Convergences
Convergence presque sure :
Convergence en probabilité :
 0 et wA P( X n(w) X(w) )0
P( X n  X )1
 0 lim
n
Convergence en loi :
Loi des grands nombres :
lim Fn(x)F(x)
n
Dans L1 :
X n E(X n)
Dans L2 :
X n X
Statistiques descriptives
Moyenne empirique :
n
x 1  X i
n i 1
Variation empirique :
n
2
S 2  1 (xi2) x
n i 1
Distribution empirique :
n
nk 1!Ck (xi)
i 1
1!A (x) = 1 si x A
0 sinon
Quantiles :
Q(u) = inf {x , F(x)  u }
u  ]0,1[
Estimation paramétrique
Convergence d’un estimateur Tn :
lim P(Tn  )0
Erreur quadratique de Tn par rapport à  :
EQ[Tn, ] = E[(Tn-)²]
Biais d’un estimateur :
B(Tn, ) = E[Tn-]
E[(Tn-)²] = Var(Tn) + B²(Tn, )
n
Test d’hypothèses
Test de Fischer :
nx * S x2
2
T  nx 1  x2
ny S y
*
ny 1  y2
Test de student :
(X Y )(x  y)
T
Sx2 * S y2
nx ny
Téléchargement