Statistiques et Probabilités 2

publicité
Statistiques et Probabilités 2
Mohamed BOUTAHAR
1
4 octobre 2005
1 Département
de mathématiques case 901, Faculté des Sciences de Luminy. 163 Av.
de Luminy 13288 MARSEILLE Cedex 9, et GREQAM, 2 rue de la vieille charité 13002.
e-mail : [email protected]
Table des matières
1 Distributions de probabilité discrètes
1
Inégalités classiques . . . . . . . . . . . . .
1.1
Inégalité de Markov . . . . . . . . .
1.2
Inégalité de Bienaymé-Tchebychev
2
Indépendance . . . . . . . . . . . . . . . .
2.1
Variables indépendantes . . . . . .
2.2
Distributions marginales . . . . . .
3
Fonction génératrice . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Distributions de probabilité continues
1
Densité de probabilité, moments . . . . . . . . .
2
Fonction caractéristique . . . . . . . . . . . . .
3
Indépendance . . . . . . . . . . . . . . . . . . .
3.1
Distributions marginales . . . . . . . . .
3.2
Variables indépendantes . . . . . . . . .
4
Fonction de répartition . . . . . . . . . . . . . .
4.1
Cas scalaire . . . . . . . . . . . . . . . .
4.2
Cas d’un couple aléatoire . . . . . . . . .
5
Distributions usuelles . . . . . . . . . . . . . . .
5.1
Loi uniforme . . . . . . . . . . . . . . . .
5.2
Loi de Gauss . . . . . . . . . . . . . . .
5.3
Loi exponentielle . . . . . . . . . . . . .
5.4
Loi gamma . . . . . . . . . . . . . . . .
5.5
Loi de Cauchy . . . . . . . . . . . . . . .
6
Transformation des variables aléatoires . . . . .
6.1
Cas discret . . . . . . . . . . . . . . . .
6.2
Cas continu . . . . . . . . . . . . . . . .
7
Suite de variables aléatoires
. . . . . . . . .
7.1
Loi de Khi-deux . . . . . . . . . . . . .
7.2
Loi de Student . . . . . . . . . . . . . .
7.3
Loi de Fisher . . . . . . . . . . . . . . .
7.4
Loi de la moyenne et variance empirique
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
4
5
5
5
6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
8
9
9
9
10
10
10
11
11
11
11
11
12
12
12
12
13
13
13
14
14
TABLE DES MATIÈRES
3
2
Description d’une série statistique
1
Généralités, Définitions . . . . . . . . . . . . . . . . . . . . . . .
2
Distribution des fréquences . . . . . . . . . . . . . . . . . . . . .
2.1
Cas discret . . . . . . . . . . . . . . . . . . . . . . . . .
2.2
Cas continu . . . . . . . . . . . . . . . . . . . . . . . . .
2.3
Distribution des fréquences . . . . . . . . . . . . . . . . .
2.4
Représentation graphique des distributions de fréquences
3
Caractéristiques de tendance centrale . . . . . . . . . . . . . . .
3.1
Définition : . . . . . . . . . . . . . . . . . . . . . . . . .
4
Caractéristiques de dispersion . . . . . . . . . . . . . . . . . . .
4.1
La dispersion en termes d’intervalles . . . . . . . . . . .
4.2
La dispersion en termes d’écarts . . . . . . . . . . . . . .
5
Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Liaisons entre variables statistiques
0.1
La distribution marginale . . . . . . . .
0.2
La distribution conditionnelle . . . . . .
1
L’ajustement, régression simple . . . . . . . . .
1.1
Coefficient de corrélation linéaire : . . . .
1.2
Ajustement par la méthode des moindres
1.3
Qualité d’ajustement . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
carrés
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
16
16
16
17
18
18
18
18
19
19
21
.
.
.
.
.
.
22
23
23
24
24
24
25
5 Estimation statistique et test d’hypothèses
1
Estimation ponctuelle des paramètres . . . . . . . . . . . . . . . . . .
1.1
Choix des estimateurs . . . . . . . . . . . . . . . . . . . . . .
1.2
Construction des estimateurs . . . . . . . . . . . . . . . . . .
2
Estimation par intervalle de confiance et Tests . . . . . . . . . . . . .
2.1
Intervalle de confiance pour la moyenne d’une population gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2
Comparaison d’une moyenne théorique et d’une moyenne ob2.3
2.4
29
29
29
30
31
31
servée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Comparaison des moyennes de deux échantillons indépendants. 32
Comparaison des moyennes de deux séries appariés. . . . . . . 33
2.5
3
Intervalle de confiance pour la variance d’une population gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6
Comparaison d’une variance théorique et d’une variance observée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7
Comparaison des variances de deux échantillons indépendants
Analyse de la variance . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Comparaison simultanée de plusieurs moyennes . . . . . . . .
3.2
Comparaison simultanée de plusieurs variances . . . . . . . . .
34
34
34
35
35
36
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
3
6 EXERCICES
37
1
Distributions de Probabilité Discrètes . . . . . . . . . . . . . . . . . 37
2
Distributions de Probabilité Continues . . . . . . . . . . . . . . . . . 38
3
Estimation et tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Chapitre 1
Distributions de probabilité
discrètes
1
Inégalités classiques
1.1
Inégalité de Markov
Theorem 1 Soit X une variable aléatoire à valeurs dans un espace dénombrable E
avec E ⊂ R, alors pour tout a > 0,
E(|f (X)|)
P (|f (X)| ≥ a) ≤
.
(1.1)
a
Preuve : On a
X
|f (xk )| pk
E(|f (X)|) =
xk ∈E
=
X
xk ∈A
|f (xk )| pk +
X
xk ∈A
|f (xk )| pk ,
où A = {xk ∈ E, |f (xk )| ≥ a} , et A est le complémentaire de A dans E. Donc
X
E(|f (X)|) ≥
|f (xk )| pk
xk ∈A
X
≥
de plus
1.2
P
xk ∈A
apk ,
xk ∈A
pk = P (X ∈ A) = P (|f (X)| ≥ a).¤
Inégalité de Bienaymé-Tchebychev
Theorem 2 Soit X une variable aléatoire à valeurs dans E, alors pour tout ε > 0
P (|X − EX| ≥ ε) ≤
4
σ 2X
.
ε2
(1.2)
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
5
Preuve : On applique l’inégalité de Markov (1.1) avec f (t) = |t − EX|2 , a =
ε2 .¤
2
Indépendance
2.1
Variables indépendantes
Soit X et Y deux variables aléatoires. On dit que X et Y sont indépendantes si
P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B).
2.2
(1.3)
Distributions marginales
Soit E1 × E2 et le couple aléatoire X = (X1 , X2 )0 , où chaque Xi est à valeurs
dans Ei . La distribution marginale de la variable Xi est définie par Pi (A) =
P (Xi ∈ A), ∀A ∈ F.
Theorem 3 Soit X et Y deux variables aléatoires discrètes à valeurs dans E1 et
E2 ,et indépendantes, soit f : E1 → R, et g : E2 → R, telles que f (X) et g(Y ) sont
intégrables alors f (X)g(Y ) est intégrable et
E(f (X)g(Y )) = E(f (X))E(g(Y ))
(1.4)
Preuve : Posons Z = (X, Y ) et h(Z) = f (X)g(Y ), alors Z est à valeurs dans
E = E1 × E2 , de plus d’après l’hypothèse d’indépendance P ((X, Y ) = (x, y)) =
P (X = x)P (Y = y). Donc
X
|h(zk )| P (Z = zk )
E(|h(Z)|) =
zk ∈E
=
X
xk ,yl
=
X
xk
|f (xk )| |g(yl )| P (X = xk )P (Y = yl )
|f (xk )| P (X = xk )
X
yl
|g(yl )| P (Y = yl )
car f (X) et g(Y ) sont intégrables, donc E(|h(Z)|) < ∞, par conséquent h(Z) est
intégrable. Par un raisonnement analogue à ci-dessus, mais sans la valeur absolue
on obtient l’égalité (1.4). ¤
Theorem 4 (Variance d’une somme de variables aléatoires indépendantes). Soit
X1 et X2 2 variables aléatoires indépendantes, alors
V (X1 + X2 ) = V (X1 ) + V (X2 ).
(1.5)
6
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
Preuve :
V (X1 + X2 ) = V (X1 ) + V (X2 ) + 2 cov(X1 , X2 ),
où cov(X1 , X2 ) = E((X1 − EX1 )(X2 − EX2 )) est la covariance de X1 et X2 ,
mais d’après (1.4) on a cov(X1 , X2 ) = E((X1 − EX1 )(X2 − EX2 )) = E((X1 −
EX1 ))E((X2 − EX2 )) = 0.¤
Remarque : Si deux variables aléatoires X et Y sont indépendantes alors elles
sont non covariées (cov(X, Y ) = 0).
3
Fonction génératrice
Soit X une variable discrète à valeurs dans N.
Definition 1 On appelle fonction génératrice de X, l’application gX : C → C
définie par :
∞
X
X
gX (s) = E(s ) =
sk P (X = k), |s| ≤ 1.
k=0
La connaissance de la fonction génératrice gX permet le calcul des moments de
X, en effet on a
0
00
0
(1) et E(X 2 ) = gX
(1) + gX
(1),
EX = gX
(1.6)
0
00
et gX
sont les dérivées première et seconde de la fonction gX .
où gX
Theorem 5 Soit X et Y deux variables aléatoires indépendantes à valeurs dans N,
alors
(1.7)
gX+Y (s) = gX (s)gY (s)
Preuve : gX+Y (s) = E(sX+Y ) = E(sX sY ) = E(sX )E(sY ), d’après (1.4). ¤.
Chapitre 2
Distributions de probabilité
continues
Soit X une variable aléatoire à valeurs dans E ⊂ R ou Rd , si E est non dénombrable, alors on dit que X est une variable continue.
1
Densité de probabilité, moments
Soit X = (X1 , X2 ) un couple aléatoire à valeurs dans R2 , et soit fX une fonction
de R2 dans R+ intégrable et telle que
Z
fX (x)dx = 1.
(2.1)
R2
On dit que X admet la densité de probabilité fX si pour tout A ⊂ R2
Z
P (X ∈ A) =
fX (x)dx.
A
Soit g : R2 → R, telle que
mathématique de g(X) par
R
R2
|g(x)| fX (x)dx < ∞, alors on définit l’espérance
E(g(X)) =
Z
g(x)fX (x)dx,
(2.2)
R2
en particulier i) si E(g(X)) existe avec g(x1 , x2 ) = gi (x) = xi , 1 ≤ i ≤ 2, alors on
définit l’espérance mathématique du couple X par
  R


x
f
(x)dx
E(X1 )
1
X
2
R
=
.
E(X) = 
R
E(X2 )
x f (x)dx
R2 2 X
7
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
8
ii) si E(g(X)) existe avec g(x1 , x2 ) = gi gj (x) = xi xj , 1 ≤ i ≤ 2, 1 ≤ j ≤ 2, alors on
définit la matrice de covariance du couple aléatoire X = (X1 , X2 ) par
µ
¶
V (X1 )
cov(X1 , X2 )
V (X) =
,
cov(X2 , X1 )
V (X2 )
où
cov(X1 , X2 ) = cov(X2 , X1 ) = E(X1 X2 ) − E(X1 )E(X2 )
Z
Z
Z
x1 x2 fX (x)dx −
x1 fX (x)dx
x2 fX (x)dx.
=
R2
2
R2
R2
Fonction caractéristique
Soit X un couple aléatoire à valeurs dans R2 .
Definition 2 On appelle fonction caractéristique de X, l’application φX : R2 →
C définie par :
φX (u) = φX (u1 , u2 ) = E(ei(u1 X1 +u2 X2 ) ), avec i2 = −1.
La connaissance de la fonction caractéristique φX permet le calcul des moments
de X, en effet si X est une variable aléatoire, on a
Theorem 6 Si on suppose de plus que E(X k ) < ∞ et que la fonction φ est de
classe C ∞ , alors
φ(k) (0)
E(X k ) =
(2.3)
ik
où φ(k) est la dérivée d’ordre k de la fonction φ.
Preuve : D’après la formule de Taylor φ(t) =
P∞ (itX)k
P
(it)k
k
E( k=0 k! ) = ∞
k=0 k! E(X ).¤.
P∞
k=0
φ(k) (0)tk
k!
= E(eitX ) =
Theorem 7 Si deux couples aléatoires à valeurs dans R2 ont la même fonction
caractéristique, alors ils ont la même loi, c’est à dire la même densité.
Preuve : On se limite au cas où φX = φY = φ est intégrable, dans ce cas le
théorème résulte de l’application du théorème d’inversion de Fourier
Z
1
fX (x) = fY (x) =
e−i(x1 u1 +x2 u2 ) φ(u1 , u2 )du1 u2 .¤
(2π)2 R2
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
3
3.1
9
Indépendance
Distributions marginales
Soient X et Y deux variables aléatoires à valeurs dans R tels que (X, Y )0 admette
la densité fX,Y (x, y). Alors on définit les densités marginales de X et de Y par
Z
Z
fX,Y (x, y)dy et fY (y) =
fX,Y (x, y)dx
fX (x) =
R
3.2
R
Variables indépendantes
Soient X et Y deux variables aléatoires à valeurs dans R.On dit que X et Y sont
indépendantes si
P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B).
(2.4)
En utilisant le théorème de Fubini, et les mêmes arguments que le théorème 3 on
obtient le théorème
Theorem 8 Soit X et Y deux variables aléatoires à valeurs dans R indépendantes,
soit f : R → R, et g : R → R, telles que f (X) et g(Y ) sont intégrables alors
f (X)g(Y ) est intégrable et
E(f (X)g(Y )) = E(f (X))E(g(Y ))
(2.5)
Theorem 9 (admi) Soit X = (X1 , X2 )de densité fX (x), et tel que les Xi , 1 ≤ i ≤ 2,
soient des variables aléatoires indépendantes. On a alors
fX (x1 , x2 ) = fX1 (x1 )fX2 (x2 ),
(2.6)
où fXi est la densité marginale de la variable Xi .
Réciproquement si fX a la forme (2.6) où les fXi , 1 ≤ i ≤ 2 sont des densités de
probabilité, alors les Xi , 1 ≤ i ≤ 2, sont indépendantes et les fXi sont les densités
des Xi .
Theorem 10 Soit X = (X1 , X2 ) de densité fX (x) et de fonction caractéristique
φX (u). Pour que les variables aléatoires Xi , 1 ≤ i ≤ 2, soient indépendantes, il faut
et il suffit que
φX (u1 , u2 ) = φX1 (u1 )φX2 (u2 ),
(2.7)
où φXi est la fonction caractéristique de la variable Xi .
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
10
Preuve : Supposons que les Xk sont indépendantes, alors fX (x1 , x2 ) = fX1 (x1 )fX2 (x2 ),
donc
Z
Z
i(u1 x1 +u2 x2 )
e
fX (x)dx =
eiu1 x1 eiu2 x2 fX1 (x1 )fX2 (x2 )dx1 dx2 ,
φX (u) =
R2
R2
donc d’après Fubini
Z
Z
iu1 x1
φX (u) =
e
fX1 (x1 )dx1 eiu2 x2 fX2 (x2 )dx2 = φX1 (u1 )φX2 (u2 ).
R
R
Inversement, supposons que (2.7) est satisfaite, Soit X̃j , 1 ≤ j ≤ 2, une suite de variables indépendantes telles que chaque X̃j ait la même loi que Xj , et X̃ = (X̃1 , X̃2 ).
D’après la partie directe du théorème :
φX̃ (u1 , u2 ) = φX̃1 (u1 )φX̃2 (u2 ),
et comme φX̃i (ui ) = φXi (ui ), on a φX̃ (u) = φX (u), donc, par le théorème 7 X et X̃
ont la même loi ; d’après le théorème 9 fX (x1 , x2 ) = fX̃ (x1 , x2 ) = fX1 (x1 )fX2 (x2 ).¤
4
4.1
Fonction de répartition
Cas scalaire
Soit X une variable aléatoire de densité f (x), la fonction
de répartition de X
Rt
est définie par : F : R → [0, 1] et F (t) = P (X ≤ t) = −∞ f (x)dx.
Remarque : F est une fonction non décroissante telle que F (−∞) = 0, F (+∞) = 1,
et F 0 (t) = f (t).
4.2
Cas d’un couple aléatoire
Soit X = (X1 , X2 ) un couple aléatoire de densité f (x), la fonction de répartition
de X est définie par : F : R2 → [0, 1] et si t = (t1 , t2 ) alors
Z t1 Z t2
F (t) = P (X ≤ t) = P (X1 ≤ t1 , X2 ≤ t2 ) =
f (x1 , x2 )dx1 dx2 .
−∞
On a aussi
f (t1 , , t2 ) =
∂ 2 F (t1 , t2 )
.
∂t1 ∂t2
−∞
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
5
5.1
11
Distributions usuelles
Loi uniforme
On dit que X suit une loi uniforme sur [a, b], noté X Ã U[a, b], si elle admet la
densité
½ 1
1
si x ∈ [a, b]
b−a
fX (x) =
1[a,b] (x) =
(2.8)
0 sinon.
b−a
On montre que E(X) = (a + b)/2, V (X) = (b − a)2 /12, φX (u) =
5.2
eiub −eiua
.
iu(b−a)
Loi de Gauss
On dit que X suit une loi de Gauss de moyenne m et de variance σ 2 , noté
X Ã N(m, σ 2 ), si elle admet la densité
(x−m)2
1
fX (x) = √ e− 2σ2 , ∀x ∈ R.
σ 2π
On montre que E(X) = m, V (X) = σ 2 , φX (u) = eium−
5.3
σ 2 u2
2
(2.9)
.
Loi exponentielle
On dit que X suit une loi exponentielle de paramètre λ > 0, noté X Ã E(λ), si
elle admet la densité
½ −λx
λe
si x ≥ 0
(2.10)
fX (x) =
0 sinon.
On montre que E(X) = λ1 , V (X) =
5.4
1
, φX (u)
λ2
=
λ
.
λ−iu
Loi gamma
On dit que X suit une loi gamma de paramètres α > 0 et β > 0, noté X Ã
Γ(α, β), si elle admet la densité
½ β α α−1 −βx
x e
si x ≥ 0
Γ(α)
fX (x) =
(2.11)
0 sinon,
R∞
où Γ(α) = 0 tα−1 e−t dt.
´−α
³
α
α
iu
.
On montre que E(X) = β , V (X) = β 2 , φX (u) = 1 − β
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
5.5
12
Loi de Cauchy
On dit que X suit une loi Cauchy , noté X Ã C, si elle admet la densité
fX (x) =
1
, ∀x ∈ R.
π(1 + x2 )
(2.12)
Une variable de Cauchy n’admet pas d’espérance mathématique car
Z ∞
Z ∞
Z ∞
x
+
−
dx = +∞.
x fX (x)dx
x fX (x)dx =
π(1 + x2 )
−∞
−∞
0
6
6.1
Transformation des variables aléatoires
Cas discret
Exemple : Soit X la variable aléatoire définie par
xi
0
1
-1
2
P (X(ω) = xi 0.25 0.2 0.25 0.3
On définit la variable aléatoire Y = X(X + 1), alors Y prends ses valeurs dans
y
0
2
6
{0, 2, 6} avec la loi de probabilité suivante : i
P (Y (ω) = yi ) 0.5 0.2 0.3
Theorem 11 Si X est une variable aléatoire discrète à valeurs dans E, et g une
application injective, alors Y = g(X) est une variable aléatoire discrète à valeurs
dans g(E), ayant la même loi de probabilité que X : P (Y (ω) = yi ) = P (X(ω) =
xi ), yi = g(xi ).
6.2
Cas continu
Soit Y = X 2 , où X Ã N(0, 1) donc Y est à valeurs dans R+ donc fY (y) = 0 ∀y ≤
R √y
x2
√
√
0. Si y ≥ 0, on a FY (y) = P (Y ≤ y) = P (− y ≤ X ≤ y) = √12π −√y e− 2 =
2
R √y − x2
1
− y2
0
√2
2 donc f (y) = F (y) = √
e
e
, c’est à dire que Y Ã X 2 (1). Si la
Y
Y
2π 0
2πy
transformation g n’est pas bijective, on utilise souvent la fonction de répartition
pour calculer la loi de Y = g(X). Cependant si g est bijective on a le théorème
Theorem 12 Soit X = (X1 , X2 ) un couple aléatoire de densité fX , et soit g une
application de R2 dans R2 . On définit la transformée de X par g : Y = g(X) =
(g1 (X), g2 (X)). On suppose que g vérifie les conditions suivantes :
i) g est définie sur un ouvert U ⊂ R2 tel que
Z
P (X ∈ U) =
fX (x)dx = 1,
U
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
13
et g est bijective d’inverse g−1 = (g1−1 , g2−1 ).
ii) les dérivées partielles de g (resp. de g −1 ) existent et sont continues sur U (resp.
sur V = g(U ) ).
iii) Le déterminant jacobien de g, défini par
J(g(x)) =
∂g1 (x) ∂g2 (x) ∂g1 (x) ∂g2 (x)
−
6= 0, ∀x ∈ U.
∂x1 ∂x2
∂x2 ∂x1
Alors Y admet une densité fY donnée par
¯
¯ −1
(
¯ ∂g1 (y) ∂g2−1 (y) ∂g1−1 (y) ∂g2−1 (y) ¯
−
fX (g −1 (y)) ¯ ∂y
∂y2
∂y2
∂y1 ¯
1
fY (y) =
0 sinon,
si y ∈ V = g(U )
(2.13)
Exemple Soit (X1 , X2 ) un couple aléatoire suivant une loi uniforme sur [0, 1]2
et le couple aléatoire Y = g(X) avec g(x1 , x2 ) = ( xx12 , x1 + x2 ).
y2
2
, y1y+1
), les autres
g est une application bijective d’inverse g−1 (y1 , y2 ) = ( yy11+1
hypothèses du théorème ci-dessus sont satisfaites, de plus
∂g1−1 (y) ∂g2−1 (y) ∂g1−1 (y) ∂g2−1 (y)
−
∂y1
∂y2
∂y2
∂y1

 y2
y1
(y1 +1)2
y1 +1
y2
1
2
=
= det  (y1−y
.
+1)2
y1 +1
(y1 + 1)2
J(g−1 (y)) =
Par conséquent
fY (y) =
7
7.1
½
y2
(y1 +1)2
0
si y ∈ V = g(U)
sinon.
Suite de variables aléatoires
Loi de Khi-deux
On dit que X suit une loi Khi-deux à n degrés de liberté , noté X Ã X 2 (n), si
X Ã Γ( n2 , 12 ).
P
Remarque : on montre que si X = nk=1 Zk2 où (Zk , 1 ≤ k ≤ n) est une suite de
variables aléatoires indépendantes et identiquement distribuées (i.i.d.) suivant une
loi gaussienne N(0, 1), alors X Ã X 2 (n)
7.2
Loi de Student
On dit que X suit une loi Student à n degrés de liberté , noté X Ã t(n), si
X = √Z , Z Ã N(0, 1), Y Ã X 2 (n), et Z et Y sont indépendantes.
Y /n
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
7.3
14
Loi de Fisher
On dit que X suit une loi Fisher à (n1 , n2 ) degrés de liberté , noté X Ã F (n1 , n2 ),
1
si X = YY12 /n
, Yi à X 2 (ni ), i = 1, 2 et Y1 et Y2 sont indépendantes.
/n2
7.4
Loi de la moyenne et variance empirique
Theorem 13 (Fisher) (Xk , 1 ≤ k ≤ n) est une suite de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) suivant une loi gaussienne N(m, σ 2 ).
Alors
1X
1X
X=
Xk , σ
b2x =
(Xk − X)2
n k=1
n k=1
n
n
qui désignent respectivement la moyenne et la variance empirique de la suite (Xk , 1 ≤
k ≤ n) sont telles que
X Ã N(m,
X et
nσ
b 2x
σ2
sont indépendantes.
b2
σ2 n σ
), 2 x à X 2 (n − 1),
n
σ
Chapitre 3
Description d’une série statistique
1
Généralités, Définitions
1. La statistique : C’est l’étude des phénomènes préalablement exprimés sous
forme numérique.
2. L’unité statistique : C’est l’élément de l’ensemble que l’on veut étudier, exemple : un étudiant est une unité statistique lorsque l’on étudie une classe.
3. Le caractère : C’est l’aspect de l’unité statistique que l’on retient dans l’analyse.
4. L’échantillon : C’est un sous-ensemble d’une population statistique.
5. La variable statistique : C’est l’expression numérique du caractère observé sur
les unités statistiques considérés.
i) La variable statistique x est dite discrète lorsqu’elle ne peut prendre que des
valeurs isolées :
x1 , x2 , ..., xk , où x1 < x2 < ... < xk .
Exemple : le nombre de chevaux fiscaux d’une voiture ; le nombre d’enfants dans
une famille,...
ii) La variable statistique x est dite continue lorsqu’elle peut prendre n’importe
quelle valeur d’un intervalle [a, b]. Exemple : la durée en minute d’une conversation
téléphonique. Dans ce cas l’intervalle des valeurs possibles est divisé en k classes
[a0 , a1 [, [a1 , a2 [, ..., [ak−1 , ak ], où a0 = a < a1 < ... < ak−1 < ak = b.
ah−1 et ah sont les frontières de la h-ième classe, xh = ah−12+ah est le centre de celle-ci.
6. La série statistique : C’est à la fois :
i) L’ensemble des valeurs {x1 , x2 , ..., xk } (resp. des classes de valeur
{[a0 , a1 [, [a1 , a2 [, ..., [ak−1 , ak ]})
de la variable x.
ii) Le nombre d’observation associé à chaque valeurs xi (resp. à chaque classe).
15
16
150
100
20
50
40
ni
60
nicumulees
200
80
250
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
0
1
2
3
4
0
1
x
2
3
4
x
Fig. 3.1 — Fréquences absolues (à gauche) et fréquences absolues cumulées (à droite)
du nombre de garçons.
2
2.1
Distribution des fréquences
Cas discret
-Si dans une série statistique résultant de n observations, on a trouvé ni fois la
valeur xi , ni représente la fréquence absolue de cette valeur et le rapport fi = nni
représente sa fréquence
relative.
Pj
-L ’expression i=1 ni est appelée fréquence cumulée absolue des valeurs de x inférieures ou égales
Pj à xj .
-L ’expression i=1 fi est appelée fréquence cumulée relative des valeurs de x inférieures ou égales à xj .
Exemple : L’unité statistique étant la famille de quatre enfants dont l’aîné a
moins de 16 ans, on s’intéresse au nombre x de garçons qui la compose. L’étude
statistique suivante porte sur un échantillon de 250 familles (voir graphique 3.1)
Valeurs de x
0
1
2
3
4
Fréquence absolue ni
13
61
93
65
18
Fréquence relative fi
0,052 0,244 0,372 0,260 0,072
Fréquence absolue cumulée
13
74
167
232
250
Fréquence relative cumulée 0,052 0,296 0,668 0,928
1
2.2
Cas continu
On appelle fréquence absolue de la hième classe la nombre nh d’observations dont
les valeurs appartiennent à cette classe. Le nombre fh = nnh représente la fréquence
17
nh
50
100
150
200
250
300
350
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
50
100
150
200
x
Fig. 3.2 — Histogramme des fréquences absolues de la durée de service du guichet
de la poste.
relative de la hième
Ph classe.
-L ’expression i=1 ni est appelée fréquence cumulée absolue des h premières classes.
P
-L ’expression ji=1 fi est appelée fréquence cumulée relative des h premières classes.
Exemple : On s’intéresse à la durée x de service d’un guichet de la poste qui
peut servir au plus un client à la fois. On a relevé la durée de service de 1000 clients
consécutifs. L’unité de temps est la seconde, les résultats sont résumés par le tableau
suivant (voir aussi graphique 3.2)
C la sse s d e
[0 ,3 0 [
[3 0 ,6 0 [
[6 0 ,9 0 [
[9 0 ,1 2 0 [
[1 2 0 ,1 5 0 [
[1 5 0 ,1 8 0 [
[1 8 0 ,2 4 0 [
369
251
148
98
65
43
26
0 ,3 6 9
0 ,2 5 1
0 ,1 4 8
0 ,0 9 8
0 ,0 6 5
0 ,0 4 3
0 ,0 2 6
369
620
768
866
931
974
1000
0 ,3 6 9
0 ,6 2 0
0 ,7 6 8
0 ,8 6 6
0 ,9 3 1
0 ,9 7 4
1
va leu rs d e x
Fréq u e n ce
a b so lu e
nh
Fréq u e n ce
re la tive
fh
Fréq u e n ce
a b solu e cu m u lé e
Fréq u e n ce
rela tive cu m u lé e
2.3
Distribution des fréquences
L’ensemble des k valeurs xi (resp. des k classes) et les effectifs ni correspondants,
constitue la distribution de fréquences de la variable x.
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
2.4
18
Représentation graphique des distributions de fréquences
On peut porter en ordonnée les fréquences absolues. Dans le cas discret on obtient un diagramme en bâtons. Dans le cas continu, on construit un histogramme
de fréquences, l’aire de chaque classe devant être proportionnelle à son effectif correspondant.
3
3.1
Caractéristiques de tendance centrale
Définition :
Ce sont des indicateurs qui permettent de synthétiser l’ensemble de la série statistique en faisant ressortir une position centrale de la valeur du caractère étudié.
1. La médiane : C’est la valeur xm de la variable x qui partage les éléments de
la série statistique, préalablement classés par ordre de valeurs croissantes, en deux
groupes d’effectifs égaux : 50 % des valeurs observées sont inférieures à xm et 50 %
sont supérieures.
Dans le cas continu, elle est donnée par
j
aj − aj−1 n X
xm = aj−1 +
( −
ni ),
nj
2
i=1
sachant que xm appartient à [aj−1 , aj [.
2. Le mode :
Variable discrète : c’est la valeur pour laquelle la fréquence est maximale.
Variable continue : la classe modale est celle pour laquelle la fréquence est maximale.
Lorsqu’il y a une seule valeur ou classe modale, la distribution est dite unimodale.
3. La moyenne.
-La moyenne x de k valeurs distinctes x1 , ..., xk , et de fréquences n1 , ..., nk :
X
1X
x=
ni xi , n =
ni .
n i=1
i=1
k
k
-La moyenne x de n valeurs distribuées en k classes [a0 , a1 [, ..., [ak−1 , ak [ et d’effectifs
n1 , ..., nk :
k
1X
ai−1 + ai
.
x=
ni xi , xi =
n i=1
2
4
Caractéristiques de dispersion
Deux séries de même nature peuvent présenter des caractéristiques de tendance
centrale voisines, mais différer quant à la dispersion de leurs valeurs par rapport à
la tendance centrale.
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
4.1
19
La dispersion en termes d’intervalles
i). Intervalle de variation ou étendue : C’est la différence entre les valeurs
extrêmes de la variable ou entre les centres de classes extrêmes xk − x1 .
ii). L’intervalle interquartile : Si l’on peut diviser x1 , ..., xk en quatre classes
[x1 , Q1 [, [Q1 , Q2 [, [Q2 , Q3 [, [Q3 , xk ] ayant toutes la même fréquence n4 , alors Q1 , Q2 ,
et Q3 sont appelés respectivement premier, deuxième et troisième quartiles.
Dans le cas continu
j
Q1 = aj−1 +
j
aj − aj−1 n X
aj − aj−1 3n X
( −
ni ), Q3 = aj−1 +
( −
ni ).
nj
4
n
4
j
i=1
i=1
[Q1 , Q3 ] est l’intervalle interquartile.
4.2
La dispersion en termes d’écarts
L’origine retenue pour le calcul des écarts étant une caractéristique de tendance
centrale, les écarts ne traduiront la dispersion que si l’on considère leur valeur absolue
ou leurs puissances paires.
i). Les écarts absolus :
P
-L’ écart absolu par rapport à la médiane eM = n1 ki=1 ni |xi − M| , M est la
médiane de la série.
P
-L’ écart absolu par rapport à la moyenne arithmétique ex = n1 ki=1 ni |xi − x|.
ii). Variance, écart-typeP
:
2
1
-Variance : V (x) = σ
bx = n ki=1 ni (xi − x)2 .
-Ecart-type : σ
bx .
Proposition 14 pour tout a ∈ R, on a
V (a + x) = V (x), V (ax) = a2 V (x),
et
1X
ni x2i − (x)2 .
V (x) =
n i=1
k
Exemples :
Exemple 1. La distribution des salaires annuels dans une population contenant
n = 14890442 actifs, ( le nombre d’individus Ni touchant le salaire si exprimé en
euros) est distribuée comme suit :
0.0 e+00
4.0 e+06
N.individus
8.0 e+06
1.2 e+07
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
0 e+00
2 e+05
4 e+05
6 e+05
8 e+05
1 e+06
salaire
Fig. 3.3 — Le nombre d’individus N ayant comme salaire s
si (en C
= ) Ni
10000
11583265
20000
2045372
30000
683240
40000
349740
.
50000
183280
100000
36250
200000
7975
500000
1015
1000000
305
Le salaire moyen est donné par
1X
s=
Ni si = 13862.81C
=,
n i=1
9
la variance et l’écart-type sont donnés par :
1X
Ni (si − s)2 = 133496156, σ
bs = 11554.05,
V (s) =
n i=1
9
le premier, deuxième et troisième quartiles sont
20
21
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
Q1 = 10435.56, Q2 = 14338.53 et Q3 = 18241.5.
Remarque. Le salaire médian qui est égal à sm = Q2 est différent du salaire
moyen s.
Exemple 2. Dans une classe constituée de deux groupes G1 et G2, la note obtenue
dans l’examen de statistique est distribuée comme suit :
Groupe 1
Groupe 2
9
2
10
10
9
1
9
9
8.5
4
9.5
9.5
10
10
10 7 9 9 9
10
7
9
9
17
8.5
12
9.5
9.5
8
16
La moyenne de la classe est égale à x = 9.
La moyenne du groupe 1 est égale à xG1 = 9, et la moyenne du groupe 2 est aussi
égale à xG2 = 9. Cependant les deux groupes, même s’ils ont la même moyenne, sont
complètement différents. En effet dans le groupe 1, la plupart des notes tournent
autour de la moyenne globale 9, les étudiants ont presque le même niveau. Le groupe
2 est plus hétérogène, il y a des étudiants faibles (notes :1,2 et 4) et des étudiants
forts (notes : 12,16 et 17). Si on calcule la variance de chaque groupe on trouve:
VG1 = 0.6428571 ce qui donne un écart-type de σ G1 =0.8017837.
VG2 = 19.10714 ce qui donne un écart-type de σ G2 = 4.371172.
VG2 > VG1 , en conclusion plus la variance est grande plus l’échantillon est
hétérogène.
5
Moments
Le moment d’ordre r de la variable x par rapport à l’origine x0 est défini par
1X
ni (xi − x0 )r .
mr (x0 ) =
n i=1
k
Si x0 = 0 les moments sont dits simples et notés mr .
Si x0 = x les moments sont dits centrés et notés µr .
Proposition 15 On a
µ2 = m2 − m21 , µ3 = m3 − 3m1 m2 + 3m31 ,
µ4 = m3 − 4m1 m3 + 6m31 m2 − 3m41 .
Chapitre 4
Liaisons entre variables
statistiques
Definition 3 Une série double à deux indices est définie par l’observation de n couples de valeur tels que :
i) Cas discret : x prends les valeurs x1 , ..., xp et y prends les valeurs y1 , ..., yr , et à
chaque couple de valeur (xi , yj )1≤i≤p;1≤j≤r on associe :
-Sa fréquence absolue ni,j qui est le nombre de fois où (x, y) = (xi , yj ).
n
-Sa fréquence relative fi,j = ni,j .
ii) Cas continu : Les valeurs observées pour x et pour y sont regroupées respectivement en p et r classes [a0 , a1 [,[a1 , a2 [,...,[ap−1 , ap ], resp. [b0 , b1 [, [b1 , b2 [ ,..., [br−1 , br ],
et ni,j est le nombre d’observations pour lesquelles ai−1 ≤ x ≤ ai , et bj−1 ≤ y ≤ bj .
Exemple : sur 200 personnes de même âge et de même sexe on en dénombre 25
dont la taille y est comprise entre 165 et 167 cm et le poids x entre 60 et 65 kg ;
30 dont la taille entre 167 et 169 et le poids entre 60 et 65 kg ; le reste est tel que
55 ≤ x ≤ 60 et 160 ≤ y ≤ 165.On peut représenter les données par
y(taille) 160 − 165 165-167 167 − 169
Totaux
partiels
x(poids)
55 − 60
60 − 65
Totaux
partiels
145
0
145
0
25
25
0
30
30
145
55
200
Les résultats sont présentés souvent avec un tableau à double entrée(ou matrice)
comme suit
22
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
y
23
Totaux
partiels
y1
...
yj
...
yr
x1
..
.
n1,1
..
.
...
..
.
n1,j
..
.
...
..
.
n1,r
..
.
n1,• =
xi
..
.
ni,1
..
.
...
..
.
ni,j
..
.
...
..
.
ni,r
..
.
ni,• =
xp
Totaux
partiels
np,1
n =
Pp•,1
i=1 ni,1
...
...
np,j
n =
Pp•,j
i=1 ni,j
...
...
np,r
n =
Pp•,r
i=1 ni,r
x
0.1
La distribution marginale
Pr
j=1
n1,j
..
.
P
r
j=1 ni,j
..
.
P
np,• = rj=1 np,j
P
n = i,j ni,j
La distribution marginale de x se lit sur la dernière colonne du tableau ; elle
concerne les fréquences de x considérées isolément : le nombre d’observations
pour
P
lesquelles x = xi (resp. x appartient à la classe [ai−1 , ai [) est ni,• = rj=1 ni,j . De
même, les fréquences de la distribution marginale de y se lisent dans la dernière ligne
du tableau. On définit :
-les moyennes marginales x et y :
p
1X
1X
x=
ni,• xi et y =
n•,j yj .
n i=1
n j=1
r
-les variances marginales
p
σ 2x
0.2
1X
1X
=
ni,• (xi − x)2 et σ 2y =
n•,j (yj − y)2 .
n i=1
n j=1
r
La distribution conditionnelle
A chaque valeur fixée xi correspond la distribution conditionnelle de y sachant
x = xi d’effectifs ni,1 , ..., ni,r . On définit :
- la moyenne conditionnelle de y sachant x = xi :
yi =
r
1 X
ni,j yj .
ni,• j=1
- la variance conditionnelle de y sachant x = xi :
σ
b2xi (y)
r
1 X
=
ni,j (yj − y i )2 .
ni,• j=1
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
24
De même on définit :
- la moyenne conditionnelle de x sachant y = yj :
p
1 X
xj =
ni,j xi .
n•,j i=1
- la variance conditionnelle de x sachant y = yj :
1
1.1
σ
b2yj (x)
p
1 X
=
ni,j (xi − xj )2 .
n•,j i=1
L’ajustement, régression simple
Coefficient de corrélation linéaire :
C’est un nombre sans dimension destiné à mesurer l’intensité de liaison entre les
variations de x et celles de y. Il a pour expression
r=
1X
cov(x, y)
, où cov(x, y) =
ni,j (xi − x)(yj − y).
σ
bx σ
by
n i,j
Definition 4 Etant donné un ensemble de points de coordonnées (xi , yi ), 1 ≤ i ≤ n
formant un nuage dans le plan XOY , l’ajustement consiste à choisir une courbe
continue qui résume le nuage. Cette courbe a pour but d’expliquer comment y varie
en fonction de x.
1.2
Ajustement par la méthode des moindres carrés
Le type d’ajustement étant préalablement choisi, la courbe d’ajustement
Pn de2 y en
x, d’équation y = f (x), est dite des moindres carrés si f est telle que i=1 di soit
minimale où di = yi − f (xi )
1.2.1
l’ajustement linéaire : droite des moindres carrés
Lorsque le nuage est rectiligne on choisit f (x) = ax + b. La droite des moindres
carrés est donnée par y = b
ax + bb, où
n
1X
cov(x, y) b
,b = y −b
ax , où cov(x, y) =
(xi − x)(yi − y),
b
a =
n i=1
σ
b2x
n
n
n
1X
1X
1X
2
2
σ
bx =
(x − x) , x =
xi , y =
yi .
n i=1 i
n i=1
n i=1
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
25
Proposition 16
i) |r| ≤ 1,
ii) r2 = b
a1 b
a2 , où b
a1 (resp. b
a2 ) est le coefficient directeur de la droite d’ajustement
de y en x (resp. de x en y).
1.3
Qualité d’ajustement
Pour juger de la bonne qualité de l’ajustement on définit le coefficient
2
R =
σ
b2y − SSR/n
σ
b2y
, SSR =
n
X
e2i ,
i=1
axi ) le résidu qui
SSR est la somme des carrés des résidus, avec ei = yi − (bb + b
correspond à l’observation yi .
R2 est un réel toujours inférieur à 1.
Si R2 est proche de 1 alors l’ajustement est de bonne qualité.
Si R2 est proche de 0 alors l’ajustement est de mauvaise qualité.
Exemples :
Exemple 1) On reprend l’exemple de la distribution des salaires, le graphique 3.3
nous suggère que le nombre d’individus décroît lorsque le salaire croit, le rythme de
décroissance est exponentiel. On peut donc déduire que le coefficient de corrélation
linéaire est négatif ; en effet on trouve r = −0.3005368. Pour expliquer N en fonction
de s, nous allons faire une transformation logarithmique. En effet en posant y =
ln(N) et x = ln(s), le graphique 4.1 montre qu’il y a une relation linéaire en y et x.
Le coefficient de corrélation linéaire est r = −0.998564. Un ajustement linéaire
de y en x est bien justifié. On trouve bb = 37.241 et b
a = −2.305. La droite des
moindres carrés est donnée par y = −2.305x + 37.241.
La somme des carrés des résidus SSR = 0.2012 est très faible.
Le coefficient R2 = 0.9971 est proche de 1, on peut donc affirmer que l’ajustement
est de bonne qualité.
En résumé, on peut donc supposer que le nombre d’individus N est lié au salaire
s par la relation
N (s) = e−2.305 ln(s)+37.241 = 1.491286 × (1016 )s−2.305 .
Exemple 2) En l’absence de mortalité, on souhaite décrire l’évolution dans le
temps de la croissance d’une population de bactéries. Des numérations faites tous
les jours à partir du 2e donne les résultats suivants (voir le graphique 4.3) :
26
12
10
6
8
log(N.individus)
14
16
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
10
11
12
13
log(salaire)
12
10
6
8
log(N.individus)
14
16
Fig. 4.1 — Le logarithme du nombre d’individus ln (N) en fonction du logarithme
du salaire ln(s).
10
11
12
13
log(salaire)
Fig. 4.2 — Droite des moindres carrés y = −2.305x + 37.241
27
4000
0
2000
N.bactéries
6000
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
2
4
6
8
10
12
jours
Fig. 4.3 — Evolution des bactéries.
ti (jours)
Ni
(bactéries)
2
3
4
5
6
7
8
9
10
11
12
55
90
135
245
403
665
1100
1810
3000
4450
7350
,
D’après le graphique 4.3 le nombre de bactéries croit de manière rapide (exponentiel). On peut donc déduire que le coefficient de corrélation linéaire entre le nombre de bactéries N et la variable temps t est positif ; en effet on trouve r = 0.8596725.
Pour expliquer N en fonction de t, nous allons faire une transformation logarithmique
seulement de la variable N (car c’est la variable qui a des valeurs très grandes). En
effet en posant y = ln(N) et x = t, le graphique 4.4 montre qu’il y a une relation
linéaire en y et x.
Le coefficient de corrélation linéaire est r = 0.9916918. Un ajustement linéaire
de y en x est bien justifié. On trouve bb = 3.014 et b
a = 0.494. La droite des moindres
carrés est donnée par y = 0.494x + 3.014.
La somme des carrés des résidus SSR = 0.04499 est très faible.
Le coefficient R2 = 0.9993 est très proche de 1, on peut donc affirmer que
l’ajustement est de très bonne qualité.
En résumé, on déduit que l’évolution du nombre de bactéries en fonction des
jours suit l’équation
N(t) = e0.494t+3.014 = 20.36871e0.494t .
7
6
4
5
log(`N.bactéries`)
8
9
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
2
4
6
8
10
12
jours
7
6
4
5
log(`N.bactéries`)
8
9
Fig. 4.4 — Evolution du log(bactéries)
2
4
6
8
10
12
jours
Fig. 4.5 — Droite des moindres carrés y = 0.494x + 3.014.
28
Chapitre 5
Estimation statistique et test
d’hypothèses
L’estimation a pour but de chercher, à travers l’examen d’un échantillon, une
information quantitative à propos d’un paramètre θ
L’ estimation est dite ponctuelle lorsque l’on se propose de substituer à la valeur
θ un nombre unique θ̂ construit à partir d’un échantillonnage, exemple : x est un
estimateur ponctuel de la moyenne m.
L’ estimation est dite par intervalle de confiance lorsque l’on se propose de construire à partir de l’échantillon un intervalle [a, b] qui peut contenir θ avec une
probabilité 1-α : P (a ≤ θ ≤ b) = 1 − α, α fixé à l’avance. On dit alors que [a, b] est
un intervalle de confiance au niveau α pour θ.
Les tests d’hypothèses servent à valider une caractéristique d’une population à
travers l’examen d’un échantillon, ils sont aussi utilisés pour comparer des caractéristiques entre plusieurs populations.
1
1.1
Estimation ponctuelle des paramètres
Choix des estimateurs
Pour un paramètre θ, il est possible d’imaginer plusieurs estimateurs, θ̂, construits à partir d’un même échantillon ; il convient donc de retenir l’estimateur qui
donnera la meilleure approximation possible de θ. Cela suppose que :
i) E(θ̂) = θ, on dit que l’estimateur est sans biais.
ii) θ̂ converge en probabilité
vers θ lorsque la taille n de l’échantillon tends vers
¯
¯
¯
¯
l’infini : ∀ > 0, P (¯θ̂ − θ¯ > ) → 0, lorsque n → ∞, on dit que θ̂ est consistant.
iii) La variance de θ̂ soit minimale.
Remarque : Il existe pour la variance de θ̂ une borne inférieure, dite borne de
29
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
30
Cramer-Rao, :
V (θ̂) ≥ I(θ)−1 ,
où
I(θ) = E((
∂ log L(θ, X) 2
))
∂θ
matrice d’information de Fisher ;
L(θ, X) =
n
Y
fXi (Xi , θ)
i=1
la vraisemblance de l’échantillon, fXi (x, θ) est la densité de Xi .
Si V (θ̂) = I(θ)−1 , on dit que l’estimateur θ̂ est efficace.
1.2
Construction des estimateurs
Il existe plusieurs estimateurs, on se contente dans ce cours de définir deux types :
1.2.1
Estimateur des moindres carrés
C’est la méthode introduite dans le paragraphe 4.1 (ajustement et régression
linéaire).
1.2.2
Estimateur du maximum de vraisemblance
Q
C’est le point θ̂ qui rend maximale la vraisemblance L(θ, X) = ni=1 fXi (Xi , θ)
L(θ,X)
= 0.
considérée comme fonction de θ, il est souvent solution de ∂ log ∂θ
Exemple. Soit (Xt , 1 ≤ t ≤ n) une suite i.i.d de variables aléatoires ayant la
densité
f (x) = θe−θx 1{x>0} ,
où θ > 0 est un paramètre inconnu.
Alors
n
n
Y
Y
n
fXi (Xi , θ) = θ
e−θXi ,
L(θ, X) =
i=1
i=1
log L(θ, X) = n log θ − θ
∂ log L(θ, X)
n
= −
∂θ
θ
n
X
Xi ,
i=1
n
X
i=1
Xi ,
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
donc
θ̂ =
2
1
,
X
31
1X
Xi .
n i=1
n
X=
Estimation par intervalle de confiance et Tests
Soit θ̂ un estimateur de θ, la construction d’un intervalle de confiance est basée
sur un pivot pv = f (θ̂), dont la loi ne dépend pas de θ.
2.1
Intervalle de confiance pour la moyenne d’une population gaussienne
On suppose que Xi à N(m, σ 2 ), 1 ≤ i ≤ n.
2.1.1
σ connu
P
√
, en effet X = n1 ni=1 Xi à N(m, σ 2 /n),
Le pivot est donné par pv = n X−m
σ
donc pv à N(0, 1). On lit alors dans la table de Gauss le quantile u1− α2 tel que
P (N(0, 1) ∈ [−u1− α2 , u1− α2 ]) = 1 − α donc P (pv ∈ [−u1− α2 , u1− α2 ]) = 1 − α, par
conséquent P (m ∈ [X − u1− α2 √σn , X + u1− α2 √σn ]) = 1 − α; l’ intervalle de confiance
au niveau α pour m est alors donné par
σ
σ
Iα = [x − u1− α2 √ , x + u1− α2 √ ].
n
n
2.1.2
(5.1)
σ inconnu
L’intervalle ci-dessus est inutilisable
car il dépend de σ,
il faut estimer ce
Pdonc
√ X−m
n
1
2
dernier, le pivot est donné par pv = n S , où S = n−1 1 (Xi − X)2 , qui est un
estimateur empirique et sans biais de la variance σ 2 .
2
On a (n−1)S
à X 2 (n−1), et donc pv à t(n−1), loi de Student à (n-1) degrés de libσ2
erté. On lit alors dans la table de Student t1− α2 tel que P (t(n−1) ∈ [−t1− α2 , t1− α2 ]) =
1 − α; l’ intervalle de confiance au niveau α pour m est alors donné par
s
s
Iα0 = [x − t1− α2 √ , x + t1− α2 √ ].
n
n
2.2
(5.2)
Comparaison d’une moyenne théorique et d’une moyenne
observée
On attribue la valeur m0 pour moyenne du caractère dans une population et
on veut juger le bien fondé de cette hypothèse en se basant sur un échantillon. On
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
32
effectue alors le test d’hypothèse :

 H0 : m = m0
contre

H1 : m 6= m0
√
0
où m est la moyenne théorique. On considère alors n X−m
qui suit, sous H0 ,
S
une loi de Student à (n-1) degrés de liberté. Soit la quantile t1− α2 tel que P (t(n−1) ∈
[−t1− α2¯, t1− α2 ]) =¯ 1 − α.
¯√
0¯
≤ t1− α2 alors on ne peut pas refuser H0 au seuil de signification α.
Si ¯ n X−m
S ¯
2.3
Comparaison des moyennes de deux échantillons indépendants.
Soit deux échantillons aléatoires d’observations provenant de deux populations
P1 et P2 et de moyenne X et Y respectivement. En général X 6= Y ,il s’agit
d’expliquer cette différence.
On suppose que X Ã N(mx , σ 2x ), Y Ã N(my , σ 2y ), X et Y sont deux échantillons
indépendants, on désire effectuer le test

 H0 : mx = my
contre

H1 : mx 6= my .
On utilise D = X − Y , qui est un bon indicateur de l’écart entre les deux
moyennes.
i) Cas σ 2x et σ 2y connues : Sous H0 : r 2D σ2 Ã N(0, 1), on fixe α (0,01 ou 0,05) et
σx
+ ny
nx
y
on lit dans la table de Gauss u1−α/2 tel que P (|N(0, 1)| > u1−α/2 ) = α, l’intervalle
critique au seuil α est donné par
s
s
σ 2x σ 2y [
σ 2x σ 2y
Im =] − ∞, −u1−α/2
+ ] [u1−α/2
+ , ∞[,
nx ny
nx ny
décision : si d = x − y ∈ Im on rejette H0 .
ii) Cas σ 2x et σ 2y inconnues :
ii.1 Cas des grands échantillons
(nx ≥ 30 et ny ≥ 30) : On peut remplacer σ 2x (resp
P
n
. σ 2x ) par Sx2 = nx1−1 1 x (Xi − X)2 (resp. Sy2 ), et donc l’intervalle critique au seuil
α est donné par
s
s
2 [
2
s
s2y
sx
s2x
y
Im =] − ∞, −u1−α/2
+ ] [u1−α/2
+ , ∞[,
(5.3)
nx ny
nx ny
33
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
décision : si d ∈ Im on rejette H0 .
ii.2) Cas des petits échantillons :
a) σ 2x = σ 2y = σ 2 . On montre alors que sous H0 :
r
D
2 +(n −1)S 2 q
(nx −1)Sx
y
y
1
+ n1
nx +ny −2
nx
y
Ã
t(nx + ny − 2) avec D = X − Y , donc l’intervalle critique au seuil α est donné par
[
(5.4)
Im =] − ∞, −t1−α/2 f (x, y)] [t1−α/2 f (x, y), ∞[,
où
f (x, y) =
s
(nx − 1)s2x + (ny − 1)s2y
nx + ny − 2
s
1
1
+ ,
nx ny
(5.5)
décision : si d = x − y ∈ Im on rejette H0 .
b) σ 2x 6= σ 2y .On détermine l’angle θ (exprimé en degré) défini par 0 < θ ≤ 45◦ tel
que
√
sx / nx
tan θ =
(5.6)
√ ,
sY / ny
√
√
il faut choisir les indices X et Y de telle sorte que sx / nx ≤ sY / ny .
La table de Sukhatme, donne pour un seuil de signification α et en fonction de
ν 1 = nX − 1 et ν 2 = nY − 1 et θ le nombre ε tel que SH = r X−Y
vérifie
2
S2
Sx
+ ny
nx
y
P (|SH| ≥ ε) = α.
Si |SH| ≥ ε alors on rejette H0.
2.4
Comparaison des moyennes de deux séries appariés.
Soit deux séries de n observations X1 , ..., Xn de moyenne X et Y1 , ..., Yn de
2
Y. Ici l’observation
Xi est appariée à Yi . On pose Di = Xi − Yi , SD
=
moyenne
P
P
n
n
1
1
2
1 (Di − D) , D = n
i=1 Di .
n−1
Pour tester

 H0 : mx = my
contre

H1 : mx 6= my ,
on considère
√ D
n .
SD
Si n est grand, disons supérieur à 30, T est assimilée à une variable centrée
réduite de Gauss ; si n est petit et si D suit une loi de Gauss, T suit une loi de
Student à (n − 1) degrés de liberté.
T =
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
2.5
34
Intervalle de confiance pour la variance d’une population gaussienne
2
On a le pivot pv = (n−1)S
à X 2 (n−1), loi de Khi-deux à (n-1) degrés de liberté.
σ2
On lit alors dans la table de Khi-deux xa et xb tels que P (xa ≤ X 2 (n − 1) ≤ xb ) =
1 − α. L’ intervalle de confiance au niveau α pour σ 2 est donné par :
Iv = [
2.6
(n − 1)s2 (n − 1)s2
,
].
xb
xa
Comparaison d’une variance théorique et d’une variance
observée
On attribue la valeur σ 20 pour variance du caractère dans une population et on
veut juger le bien fondé de cette hypothèse en se basant sur un échantillon. On
effectue alors le test d’hypothèse :

 H0 : la variance du caractère dans la population est σ 20
contre

H1 : non H0 .
2
Sous H0 , (n−1)S
à X 2 (n − 1) donc si
σ 20
refuser l’hypothèse H0 .
2.7
(n−1)S 2
σ 20
∈ [xa , xb ] alors on ne peut pas
Comparaison des variances de deux échantillons indépendants
On veut tester
On calcul les rapports
i. Si
Sx2
Sy2
>
Sy2
,
Sx2
Sx2
Sy2
et
Sy2
Sx2

 H0 : σ 2x = σ 2y
contre

H1 : σ x 6= σ y .
et on considère le plus grand parmi les deux :
on décidera à l’aide du rapport
Sx2
,
Sy2
comme suit : on a sous H0 :
Sx2
Sy2
à F (nx − 1, ny − 1), loi de Fisher-Snédécor à (nx − 1, ny − 1) degrés de liberté,
donc l’intervalle critique au seuil α est donné par
Iα = [fα , ∞[, avec P (F (nx − 1, ny − 1) > fα ) = α,
décision : si
s2x
s2y
∈ Iα on rejette H0 .
(5.7)
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
ii. Si
Sx2
Sy2
S2
≤
Sy2
,
Sx2
on décidera à l’aide du rapport
Sy2
,
Sx2
35
comme suit : on a sous
H0 : Sy2 Ã F (ny − 1, nx − 1), loi de Fisher-Snédécor à (ny − 1, nx − 1) degrés de
x
liberté, donc l’intervalle critique au seuil α est donné par
Iα = [fα , ∞[, avec P (F (ny − 1, nx − 1) > fα ) = α,
décision : si
3
s2y
s2x
∈ Iα on rejette H0 .
Analyse de la variance
Le but est de comparer plusieurs séries d’observations d’une variable X afin de
décider s’elles proviennent de populations dans lesquelles X a la même moyenne ou
la même variance.
On considère k échantillons gaussiens Ei = {xi,1 , ..., xi,ni } , 1 ≤ i ≤ k indépendants.
On désigne par m1 , ..., mk les moyennes de X dans les populations P1 , ..., Pk
respectivement d’où sont extraits les échantillons E1 , ..., Ek .
On suppose que X a la même variance σ 20 dans les populations P1 , ..., Pk . On
définit la variance intraclasse, par
1 X 2
=
ν i si , ν i = ni − 1,
n − k i=1
k
2
Sintra
s2i
(5.8)
ni
ni
1 X
1 X
2
=
(xi,j − xi ) , xi =
xi,j .
ni − 1 j=1
ni j=1
On définit la variance interclasse, par
1 X
=
ni (xi − x)2 ,
k − 1 i=1
k
2
Sinter
x =
3.1
ni
k
k
X
1 XX
xi,j , n =
ni .
n i=1 j=1
i=1
Comparaison simultanée de plusieurs moyennes
On veut tester

 H0 : m1 = m2 = ... = mk
contre

H1 : ∃i 6= j tels que mi 6= mj .
(5.9)
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
36
S2
à F (k − 1, n − k), loi de Fisher-Snédécor à (k − 1, n − k)
On a sous H0 : Sinter
2
intra
degrés de liberté, donc l’intervalle critique au seuil α est donné par
décision : si
3.2
2
Sinter
2
Sintra
Iα = [fα , ∞[, avec P (F (k − 1, n − k) > fα ) = α,
∈ Iα on rejette H0 .
Comparaison simultanée de plusieurs variances
On veut tester
3.2.1
(5.10)

 H0 : σ 21 = σ 22 = ... = σ 2k
contre

H1 : ∃i 6= j tels que σ2i 6= σ 2j .
Test de Neyman et Pearson
n1 = n2 = ... = nk et on considère la variable aléatoire
¡ 2 2
¢1
b2 ... σ
b2k k
σ
b1 σ
¢,
NP = 1 ¡ 2
(5.11)
b22 + ... + σ
b2k
σ
b1 + σ
k
On suppose que
σ
b2i
ni
1 X
=
(xi,j − xi )2 .
ni j=1
On a sous H0 , NP suit une loi tabulée par Neyman et Pearson. Remarquons
que NP ≤ 1. Soit lα tel que P (NP ≤ lα ) = α, donc l’intervalle critique au seuil α
est donné par
Iα = [0, lα [,
décision : si NP ∈ Iα on rejette H0 .
3.2.2
Test de Barlett
On considère la statistique
1
B =
λ
(
2
−
(n − k) ln Sintra
1
λ = 1+
3(k − 1)
½
k
X
j=1
ν i ln s2i
)
(5.12)
,
1
1
1
1
+ .... +
−
ν1 ν2
νk n − k
¾
,
ν k = nk − 1.
Sous H0 , B Ã X 2 (k − 1) . Soit x21−α tel que P(X 2 (k − 1) ≥ x21−α ) = α.
Décision : si B ∈ [x21−α , +∞[ alors on rejette H0 .
Chapitre 6
EXERCICES
1
Distributions de Probabilité Discrètes
Exercice 1. On lance simultanément deux dés, soit la variable aléatoire S =
X + Y , où X est le chiffre obtenu avec le dé 1 et Y est le chiffre obtenu avec le dé 2.
Calculer la probabilité que S = 10.
Exercice 2. Dans une population atteinte d’une maladie, on extrait un échantillon de 20 personnes. On suppose que la probabilité qu’une personne, prise au hasard
dans l’échantillon, soit touchée par la maladie est égale à 14 .
i) Quelle est la probabilité qu’il y ait exactement 5 malades ?
ii) Quelle est la probabilité pour que le nombre de malades soit supérieur ou
égal à 10 ?
Exercice 3. Calculer la moyenne et la variance d’une variable aléatoire binomiale
d’ordre n et de paramètre p.
Exercice 4. Soient X1 , ..., Xn n variables aléatoires discrètes indépendantes
et idenPn
1
2
tiquement distribuées, de variance σ . Calculer l’écart type de n i=1 Xi .
Exercice 5. (Loi géométrique) On dit que T suit une loi géométrique de paramètre
p ∈ [0, 1] si P (T = n) = p(1 − p)n−1 pour tout n ≥ 1.
Calculer la fonction génératrice, la moyenne et la variance de T .
Exercice 5. Soit X une variable prenant ses valeurs dans N. Montrer que
E(X) =
∞
X
n=1
P (X ≥ n).
Exercice 7. (Approximation polynomiale de Bernstein) Soit f une fonction continue
de [0, 1] dans R, on définit le polynôme de Bernstein associé à f
Pn (x) =
n
X
k
f ( )Cnk xk (1 − x)n−k .
n
k=0
37
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
38
On introduit pour chaque x ∈ [0, 1] une suite (Xn , n ≥ 0) de variables aléatoires de
Bernoulli, mutuellement indépendantes, de même loi P (Xn = 1) = x, P (Xn = 0) =
1 − x.
i) Préciser la loi de Sn = X1 + ... + Xn , en déduire que
Pn (x) = E(f (
Sn
)).
n
ii) Montrez que pour tout ε > 0 il existe δ(ε) tel que
¯
¯
¯
¯
¯
¯
¯ Sn
¯ Sn
¯
¯
¯
¯
S
n
¯E(f ( )) − f (x)¯ ≤ P (¯ − x¯ < δ(ε))ε + 2MP (¯ − x¯ ≥ δ(ε));
¯n
¯n
¯
¯
¯
¯
n
où M = maxx∈[0,1] |f (x)| .
iii) Montrez l’inégalité
|Pn (x) − f (x)| ≤ ε + 2M
x(1 − x) 1
.
δ 2 (ε) n
iv) En déduire que le polynôme Pn converge uniformément vers f sur [0, 1].
2
Distributions de Probabilité Continues
Exercice 1.(Loi Uniforme) Soit X une variable aléatoire suivant une loi uniforme
sur un intervalle [a,b], notée U[a,b], donc de densité
½ 1
si x ∈ [a, b]
b−a
f (x) =
0 sinon
i) Calculer E(X) , σ(X),
ii) Calculer la fonction de répartition F (t) ainsi que la fonction caractéristique ϕ(t)
de X.
Exercice 2. Soit X la variable aléatoire ayant la fonction caractéristique
t2
ϕ(t) = e− 2 .
Calculez E(X) , σ(X),
Exercice 3. Soit X la variable aléatoire à valeurs dans R+ et ayant la densité
f (x) = e−αx .
i) Calculez α, E(X) et σ(X),
ii) Calculez la fonction de répartition F (t) ainsi que la fonction caractéristique ϕ(t)
de X.
iii)Déterminer un intervalle [a, b] tel que P (X ∈ [a, b]) ≥ 96%.
Exercice 4. La variable aléatoire suit la loi uniforme sur l’intervalle [−1, 2]. Calculez
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
39
la loi de Y = |X|.
Exercice 5. La variable aléatoire suit une loi normale de moyenne 0 et de variance
1.
Déterminez la loi de Z = X 2 + 2X.
Exercice 6. Soient λ > 0, et la fonction f définie sur R par f (x) = 12 λe−λ|x| .
i) Montrer que f est une densité de probabilité.
ii) Soit X une variable aléatoire de densité de probabilité f . Déterminer la fonction de répartition F de X.
iii) On effectue le changement de variable Y = |X| . Déterminer la loi de probabilité de Y . Calculer E(Y ) et var(Y ).
Exercice 7. Le couple aléatoire prend ses valeurs dans ]0, 1[×]0, 1[ avec la densité
de probabilité f (x1 , x2 ) = x1 + x2 .
Calculez les densités marginales de X1 et X2 , les variables aléatoires X1 et X2 sontelles indépendantes ?
Exercice 8. Le couple aléatoire prend ses valeurs dans ]0, +∞[×]0, +∞[ avec la
densité de probabilité f (x1 , x2 ) = e−x1 −x2 .
i)Les variables aléatoires X1 et X2 sont-elles indépendantes ?
ii) Calculez E(X1 ), E(X2 ) et cov(X1 , X2 ).
Exercice 9. Le couple aléatoire prend ses valeurs dans le domaine D suivant
D = {x1 > 0, x2 > 0, x1 + x2 < 1} ,
avec la densité de probabilité f (x1 , x2 ) = K(x1 + x2 ).
i) Calculez K.
ii)Les variables aléatoires X1 et X2 sont-elles indépendantes ?
iii) Calculez E(X1 ), E(X2 ) et cov(X1 , X2 )
iv) Déterminer les lois marginales de X1 et X2 .
Exercice 10.Soit X une variable aléatoire de densité de probabilité
½
a(4 − x) si 0 ≤ x ≤ 4
f (x) =
0
sinon ;
i) Calculer a.
ii) Déterminer la fonction caractéristique φ de X.
iii) Soient X1 et X2 deux variables aléatoires indépendantes et ayant la même
loi que X. On effectue le changement de variables
Y1 = X1 cos θ + X2 sin θ, Y2 = −X1 sin θ + X2 cos θ, θ ∈ [0, π].
Déterminer la loi de probabilité du couple (Y1 , Y2 ).
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
40
Exercice 11. Soient X1 et X2 deux variables aléatoires indépendantes identiquement distribuées selon la loi exponentielle de paramètre λ. Trouvez la distribution
du couple Y = (Y1 , Y2 ) donné par
Y1 =
X1
, Y2 = X12 + X22 .
X2
Exercice 12. Soit X une variable aléatoire non-négative et intégrable, de fonction
de répartition F (x). La formule suivante
Z ∞
E(X) =
(1 − F (x))dx,
0
est vraie. Démontrez-la dans le cas où X admet une densité de probabilité.
3
Estimation et tests
Exercice 1. En l’absence de mortalité, la croissance de toute population de
bactéries est modélisée par l’équation N(t) = N0 ekt , où N(t) est le nombre de
bactéries à l’instant t et N0 est le nombre de bactéries à l’instant initial t = 0.
L’unité de temps choisie est un jour (24 heures). Les nombres N0 et k dépendent du
type de population bactérienne considérée.
On s’intéresse à une population particulière. Des numérations faites tous les jours
à partir du 2e donne les résultats suivants :
ti
Ni
2 3 4
5
6
7
8
9
10
11
12
,
55 90 135 245 403 665 1100 1810 3000 4450 7350
avec ti :jour de l’observation, Ni : nombre de bactéries au jour ti .
On pose yi = ln(Ni ) et Y (t) = ln(N(t)) = ln(N0 ) + kt, où ln représente le
logarithme népérien.
i) Calculer les moyennes des observations ti et yi ainsi que les écarts types de ces
observations.
ii) Par la méthode des moindres carrés, déterminer la droite de régression de
Y en t. Calculer le coefficient de corrélation des séries d’observations ainsi que le
résidu quadratique moyen.
iii) Ecrire le modèle théorique ajusté aux données (ti , Ni ) auquel conduisent les
estimations de N0 et k.
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
41
iv) Au bout d’un jour, quelle est l’estimation du nombre de bactéries ? Au bout
de combien de jours peut-on prévoir que le nombre de bactéries sera 2000 fois celui
du nombre initial ?
Exercice 2. La distribution des revenus soumis à l’impôt a été étudiée par
Pareto qui a proposé le modèle théorique N = Ama , où N est le nombre de
revenus supérieurs ou égaux à m, A et a sont des constantes à estimer. Pour une
année, on observe les revenus d’une population soumis à l’impôt et on a obtenu :
mi
10000
20000
30000
40000
50000
100000
200000
500000
1000000
Ni
11583265
2045372
683240
349740
.
183280
36250
7975
1015
305
i) On pose y = ln(N), x = ln(m) et b = ln(A). Le modèle proposé équivaut à
y = ax + b.
Calculer le coefficient de corrélation associé aux couples (xi , yi ) où xi = ln(mi )
et yi = ln(Ni ).
ii) Par la méthode des moindres carrés, calculer les valeurs a et b ajustées aux couples
(xi , yi ).
iii) Déduire de ce qui précède le modèle théorique de Pareto.
iv) Calculer le nombre le plus probable de revenus supérieurs ou égaux à 300 000.
Exercice 3. Soit (Xi )1≤i≤n une suite i.i.d selon la loi N(0, σ 2 ) avec σ 2 inconnue.
i) Calculer l’estimateur du maximum de vraisemblance σ
b 2 de σ 2 .
ii) Montrer que le moment d’ordre 4 de X1 est 3σ 2 .
Exercice 4. On suppose que (Xi ), 1 ≤ i ≤ n, est une suite i.i.d suivant une loi
de Pareto de paramètres (x0 , θ), (x0 > 0, θ > 2) donc de densité
(
¡ x0 ¢θ+1
θ
si x > x0
x0
x
fθ (x) =
0
si x ≤ x0 .
i) On suppose que x0 = 1. Calculer l’estimateur du maximum de vraisemblance
b
θ de θ.
Exercice 5. Une agence immobilière se propose d’estimer le prix de vente moyen
X des maisons à Marseille. On suppose que X Ã N(m, σ 2 ).
Elle constitue à cet effet, un échantillon aléatoire de 25 maisons vendues récemment,
le prix moyen étant x25 = 148000 euros et l’écart-type estimé est s = 62000 euros.
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
42
i) Calculer un intervalle de confiance au niveau α = 0.05 pour le prix de vente moyen
de ces maisons vendues récemment.
ii) On a entendu récemment qu’un ami a acquis une maison pour 206000 euros.
Est-ce plausible, ou cette information est-elle entachée d’erreur ?
Exercice 6. Le poids d’une variété d’animaux de 1 ans d’un certain élevage suit
sensiblement une loi de Gauss de moyenne 80kg et d’écart type 12kg. On considère
un échantillon de 16 animaux dont le poids moyen est de 73,5 kg.
Faut-il écarter l’hypothèse selon laquelle l’échantillon n’est pas représentatif de
l’élevage : i) au seuil de signification α = 0.05 ?ii)au seuil de signification α = 0.01?
Exercice 7. Le taux de glycémie à jeun d’une population d’adultes est supposé distribué suivant une loi de Gauss d’espérance mathématique 0.80g/l. Sur un
échantillon de 12 personnes on a trouvé les mesures suivantes :
0.60 0.90 0.74 0.96 0.85 1.05 0.80 0.93 1.17 0.70 0.84 0.75
i) Calculer le taux moyen de glycémie à jeun des personnes de l’échantillon.
ii) Au seuil de signification α = 0.05, ce taux moyen est-il compatible avec le
taux moyen de la population ?
Exercice 8. Lors du développement d’une espèce de crustacés, on compte l’intervalle X (en jours) entre deux mues larvaires fixées. Pour un premier lot d’animaux,
on a obtenu les résultats suivants :
intervalle X
11 12 13 14 15 16 17 18
nombre d’animaux 2 6 17 18 9 4 2 0
Pour un second lot d’animaux, élevés dans un milieu plus riche destiné à accélérer
le développement, on a obtenu les résultats suivants :
intervalle X
11 12 13 14 15 16 17 18
nombre d’animaux 3 7 21 12 5 2 0 1
i) Calculer les estimations de l’espérance mathématique m1 et de l’écart type σ
b1
relatif au premier lot, ainsi que de l’espérance mathématique m2 et de l’écart type
σ
b2 relatif au second lot.
ii) Au seuil de signification α = 0.05, tester l’hypothèse nulle : H0 : m1 = m2 .
Exercice 9. On a déterminé dans le sang le taux d’une certaine protéine chez
des sujets atteints d’une maladie. On a trouvé
152
148
139
135
1 43
13 0
143
144
138
137
140
148
142
135
145
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
43
i) Donner une estimation de la moyenne et de la variance du taux de la protéine
de la population d’où extrait cet échantillon.
ii) Calculer l’intervalle de confiance à 95% de la moyenne.
Afin de déterminer si ce taux de protéine est normal et pouvoir se servir de ce
dosage comme aide au diagnostic, on a étudié un lot de 13 témoins, on a trouvé
140 143 137 127 130 138 135 141 136 132 134 135 133
iii) Donner une estimation de la moyenne et de la variance de la population des
témoins.
iv) Les témoins et les patients ont-ils des variances significativement différentes
au seuil de signification α = 0.05.
v) Au seuil de signification α = 0.05, tester l’hypothèse nulle : H0 : m1 = m2 ,
où m1 et m2 est le taux de la protéine chez les patients et les témoins respectivement.
Exercice 10. Dans une certaine population, les hommes adultes se répartissent
en deux catégories, l’une P1 constituée de nomades et l’autre P2 constituée d’agriculteurs. On se propose de comparer les tailles des individus de P1 et P2 . Soit X (resp.
Y ) la variable aléatoire taille des individus de P1 (resp. P2 ) supposée gaussienne.
On a prélevé au hasard dans P1 (resp. P2 ) un échantillon E1 (resp. E2 ) et on a
obtenu
E1
E2
175
176
179
177
180
180
178
183
176
178
177
177
178
165
176
174
187
192
169
171
170
177
173
171
167
170
i) Calculer les estimations de l’espérance mathématique mX et de l’écart type
σ X relatif à E1 , ainsi que de l’espérance mathématique mY et de l’écart type σ Y
relatif à E2 .
ii) Calculer les intervalles de confiance au niveau α = 0.05 pour mX et mY .
iii)Au seuil de signification α = 0.01, tester l’hypothèse nulle : H0 : σ 2X = σ 2Y .
iv)Au seuil de signification α = 0.05, tester l’hypothèse nulle : H0 : mX = mY .
Exercice 11. Pour deux séries indépendantes de taille respectivement nx = 13,
et ny = 21 on a trouvé Sx2 = 105, Sy2 = 75.
Au seuil de signification α = 0.01, tester l’hypothèse nulle : H0 : σ 2X = σ 2Y .
Exercice 12. Cinq laboratoires utilisent cinq méthodes différentes pour déterminer le taux de protéine du sang. On suppose que la variable aléatoire "taux de
la protéine" suit un loi de Gauss. Chaque laboratoire Li , 1 ≤ i ≤ 5, effectue les
mesures sur un échantillon aléatoire Ei de taille ni , xi le taux moyen de la protéine
par ce laboratoire et σ
bi l’écart type des mesures à xi . On a trouvé les résultats :
Ei
ni
xi
σ
b2i
E1
10
152
18
E2
15
150
21
E3
10
148
28
E4
20
151
18
E5
10
153
26
Licence L2-MAT45 : Statistiques et Probabilités 2—M.Boutahar
44
i) Calculer les variances intraclasse et interclasse des mesures relatives aux 5
laboratoires
ii) Peut-on refuser, au seuil de signification α = 0.10, l’homogénéité des variances
des taux de la protéine auxquelles conduisent les 5 méthodes ?, si non donner une
estimation de cette variance commune.
iii) On admet qu’il y a homogénéité des variances, étudier l’homogénéité, au
seuil de signification α = 0.05, des moyennes des taux de la protéine auxquelles
conduisent les 5 méthodes.
Exercice 13. Dans une cimenterie, six fours rotatifs ont été chargés et réglés
pour fabriquer une même quantité de ciment. On prélève cinq éprouvettes dans
la fabrication de chaque four et on mesure la charge de rupture à la traction R,
exprimée en kg/cm2 , de ces éprouvettes. On a obtenu
F1
F2
F3
F4
F5
F6
13.1
12.8
12.7
13.6
13.5
10
11
12.9
13.7
14.7
14.5
13.7
12.8
11.5
14.1
13.5
14.2
14
12.3
12.3
14.5
14
15
14.1
14
12.5
14
14
14.7
14.7
i) Calculer les variances intraclasse (dans les fours) et interclasse (entre les fours)
des observations précédentes.
ii) Au seuil de signification α = 0.05, peut-on considérer qu’il y a homogénéité
des dispersions des résistances à la rupture ? Pour cela utiliser les deux tests : le test
Neyman et Pearson et le test de Barlett.
iii) En admettant l’homogénéité des dispersions, étudier l’homogénéité, au seuil
de signification α = 0.05, de cette production.
Téléchargement