StatL3S5 Statistiques appliquées à la psychologie 3

publicité
StatL3S5
Statistiques appliquées à la psychologie 3
C. Trottier
Université Paul Valéry - Montpellier 3
Année universitaire 2009-2010
(UPV)
StatL3S5
2009/2010
1 / 81
Nouvelle évaluation 2009 - 2010
3 évaluations au cours du semestre :
- contrôle continu 1 (CC1) : le jeudi 22 octobre à partir de 17h15 jusqu’à
20h00
- contrôle continu 2 (CC2) : le jeudi 26 novembre à partir de 17h15 jusqu’à
20h00
- le devoir final (DF) : en semaine 16 du semestre
1 note de présence et participation (P)
note 1 = DF
note 2 = (P + 2 × CC1 + 2 × CC2 + 5 × DF)/10
note = max(note1, note2)
Il n’y a plus de 2e session.
(UPV)
StatL3S5
2009/2010
2 / 81
Briques de base en probabilité
pour la statistique inférencielle.
Hasard
???
• résumer
• modéliser et tester
(UPV)
StatL3S5
2009/2010
3 / 81
Chapitre 1 : Introduction
La statistique est une discipline qui, à partir de la répétition d’observations,
permet de mettre en évidence des phénomènes tout en ne fournissant en
aucun cas d’explication. L’explication, l’interprétation ... sont l’affaire
du praticien, du psychologue, du médecin, du sociologue.
Elle est un outil précieux d’aide à l’analyse, qu’il est nécessaire de
connaître suffisamment pour s’en servir, i.e. comprendre ses principales
notions, la logique qui les sous-tend pour mettre en œuvre des techniques
sans pour autant en connaître les détails des fondements mathématiques.
En particulier se familiariser avec :
• les méthodes de synthèse et de résumé
• la recherche des liens entre variables
• la question du hasard
• la modélisation
(UPV)
StatL3S5
2009/2010
4 / 81
Les statistiques se prêtent bien à l’étude de phénomènes de masse tels que :
• la réussite sociale
• les choix électoraux
• la consommation
toute situation où l’on peut considérer, en première approximation, que les
individus sont confrontés indépendamment les uns des autres à des
conditions semblables.
La statistique peut schématiquement se diviser en 2 catégories :
• la statistique descriptive
• la statistique inférencielle ou décisionnelle
(UPV)
StatL3S5
2009/2010
5 / 81
⊲ La statistique descriptive :
Démarche : à partir d’une question posée et de la sélection de la (ou des)
variable(s) pertinente(s), et après avoir réalisé l’observation, on dispose
d’un tableau de données plus ou moins complexe qu’il est nécessaire de
décrire.
La statistique descriptive consiste alors à synthétiser, à résumer (en la
structurant) l’information contenue dans les données :
• par des indices simples ou graphiques pour une variable :
la moyenne, le mode, la médiane, les quantiles
l’étendue, l’intervalle inter-quartiles, l’écart-type,
la variance, le skewness, le kurtosis
le diagramme en barres, en bâtons, l’histogramme, le box-plot
la fonction de répartition
• par des outils adaptés à la statistique multidimentionnelle
le coefficient de corrélation linéaire
les méthodes factorielles
les méthodes de classification.
(UPV)
StatL3S5
2009/2010
6 / 81
Définition des indices numériques classiques : RAPPEL
Sur un échantillon de n individus extrait de la population d’intérêt et sur
lequel on mesure une variable X , on note x1 , x2 , . . . , xi , . . . , xn les
observations :
• la moyenne
n
x̄ =
1
1X
(x1 + x2 + · · · + xi + · · · + xn ) =
xi
n
n
i=1
• la variance (empirique)
σx2 =
n
n
1 X 2
1X
xi ) − x̄ 2
(xi − x̄)2 = (
n
n
i=1
i=1
• l’écart-type (empirique)
v
u n
u1 X
σx = t
(xi − x̄)2
n
i=1
(UPV)
StatL3S5
2009/2010
7 / 81
• les observations centrées (de moyenne nulle) et réduites (de variance 1)
de la variable X sont :
xi − x̄
zi =
σx
• le skewness (empirique)
n
n
i=1
i=1
1X 3
1 X xi − x̄ 3
skx =
)
zi =
(
n
n
σx
le skewness empirique d’une distribution symétrique est proche de 0.
• le kurtosis (empirique)
n
n
i=1
i=1
1 X xi − x̄ 4
1X 4
)
zi =
(
kx =
n
n
σx
le kurtosis empirique d’une distribution symétrique "classique" est proche
de 3.
(UPV)
StatL3S5
2009/2010
8 / 81
• l’histogramme
Exemple 1 : 2 variables continues (1000 observations)
taille d’une population masculine
précipitations pluvieuses
X1
X2
250
400
200
300
150
200
100
100
50
0
0
0.0195151
37.5558702
75.0922254
112.6285805 150.1649356 187.7012908
18.7876927
56.3240478
93.8604029
131.3967581 168.9331132
152.41522
162.12319
171.83116
181.53913
191.24710
200.95507
157.26921
166.97717
176.68514
186.39311
196.10108
Y
moyenne :
variance :
écart-type :
skewness :
kurtosis :
(UPV)
174.9
51.2
7.16
0.047
2.95
30.3
856.6
29.3
1.85
7.88
StatL3S5
2009/2010
9 / 81
Exemple 2 : 2 variables continues symétriques (1000 observations et 20
classes)
X1
X3
120
300
80
200
40
100
0
0
152.41522
162.12319
171.83116
181.53913
191.24710
200.95507
157.26921
166.97717
176.68514
186.39311
196.10108
Y
moyenne :
variance :
écart-type :
skewness :
kurtosis :
(UPV)
109.7920
130.7054
151.6188
172.5322
193.4455
214.3589
120.2487
141.1621
162.0755
182.9888
203.9022
Yta
174.9
51.2
7.16
0.047
2.95
174.7
47.5
6.89
-0.94
13.5
StatL3S5
2009/2010
10 / 81
• le box-plot (empirique)
X1
X2
X3
220
200
190
200
150
170
Yta
180
Ye
Y
180
100
160
140
160
50
120
150
0
100
140
Min :
1st Qu. :
Median :
3rd Qu. :
Max :
147.46
169.82
174.85
179.85
195.54
(UPV)
0.091
9.109
21.97
42.74
211.71
StatL3S5
109.79
171.20
174.98
178.56
214.36
2009/2010
11 / 81
• la fonction de répartition empirique
150
160
170
sort(Y)
(UPV)
180
190
0.8
0.0
0.2
0.4
Prob
0.6
0.8
0.6
Prob
0.4
0.2
0.0
0.0
0.2
0.4
Prob
0.6
0.8
1.0
X3
1.0
X2
1.0
X1
0
50
100
sort(Ye)
StatL3S5
150
200
120
140
160
180
200
sort(Yta)
2009/2010
12 / 81
• la covariance
n
1X
cov (X , Y ) =
(xi − x̄)(yi − ȳ )
n
i=1
• la corrélation linéaire
cov (X , Y )
σx × σy
ρ(X , Y ) =
ρ = 0.0988
ρ = −0.6181
y
y
3
4
5
x
(UPV)
6
7
3
−14
10
−12
4
−10
y
5
15
−8
6
−6
20
−4
Exemples
ρ = 0.9276
3
4
5
x
StatL3S5
6
7
3
4
5
6
7
x
2009/2010
13 / 81
⊲ la statistique inférencielle ou décisionnelle
Démarche : à partir de l’information relevée sur un échantillon et
représentée par un jeu de données plus ou moins complexe, il s’agit de
chercher à prendre une décision au sujet de la population toute entière.
Une décision c’est par exemple :
- proposer une estimation (ex : le sondage)
- donner une prédiction (ex : la météo)
- répondre à une question :
y-a-t-il une différence entre 2 situations ?
telle sous-population est-elle “meilleure” que telle autre ?
- vérifier (confirmer ou infirmer) une hypothèse
Modélisation : pour prendre cette décision, il est nécessaire de tenir
compte des fluctuations liées à l’observation (aléa d’échantillonnage), i.e.
de séparer la part systématique inhérente au phénomène observé de l’aléa
propre à chaque individu. On construit ainsi, à l’aide des observations faites
sur l’échantillon, un modèle du phénomène observé.
(UPV)
StatL3S5
2009/2010
14 / 81
Ce modèle est ajusté aux données de l’échantillon mais doit toutefois
garder des propriétés de généralisation. Ainsi il n’est jamais en parfaite
adéquation et la décision prise sera donc toujours entachée d’incertitude.
Pour contrôler et quantifier cette incertitude, on fait appel aux
probabilités.
Toute inférence (passage de propriétés observées sur un échantillon à des
conclusions portant sur la population toute entière) devra donc faire appel
à des outils de calcul de probabilité. Nous en verrons les briques de base
nécessaires à l’inférence dans ce cours.
(UPV)
StatL3S5
2009/2010
15 / 81
Chapitre 2 : Notions élémentaires en probabilité
I - Vocabulaire
• Expérience aléatoire
une expérience est dite aléatoire lorsqu’elle est susceptible d’avoir plusieurs
résultats (ou issues) différent(e)s sans que l’on puisse être capable de
prédire avec certitude lequel (laquelle) se réalisera.
• Univers des possibles
l’ensemble de toutes les issues possibles à une expérience aléatoire
constitue un ensemble que l’on désigne par Ω et que l’on appelle univers
des possibles.
• Événement
un événement est une propriété énoncée sur le résultat de l’expérience. On
dit que l’événement est réalisé ou non selon que la propriété est vérifiée
ou non à l’issue de l’expérience.
(UPV)
StatL3S5
2009/2010
16 / 81
Exemple 1 : Candidater à un job
Ω = {obtenir le job, ne pas obtenir le job}
Événement A : “l’individu obtient le job”
A = {obtenir le job}
Remarque : situation particulière
- d’une expérience aléatoire à seulement 2 résultats possibles, on l’appelle
expérience de Bernoulli
- d’un événement qui ne correspond qu’à une seule issue possible, on
l’appelle événement élémentaire
Exemple 2 : Lancer d’un dé
Ω = {1, 2, .., 6}
Événement A : “obtenir un nombre pair”
A = {2, 4, 6}
(UPV)
StatL3S5
2009/2010
17 / 81
Exemple 3 : Compter le nombre de fautes de français dans une copie
d’examen
Ω=N
Événement A : “il y a strictement moins de 6 fautes”
A = {0, 1, 2, 3, 4, 5}
Exemple 4 : Mesurer la taille d’un individu
Ω = R+
Événement A : “mesurer plus d’1,50 m”
A = [1, 50; +∞[
Remarque :
À chaque événement, on a fait correspondre le sous-ensemble des issues
de Ω pour lesquelles l’événement est réalisé, i.e. pour lesquelles la
propriété est vraie. C’est une autre façon de définir un événement
comme une partie de Ω.
(UPV)
StatL3S5
2009/2010
18 / 81
• Probabilité
C’est une évaluation des chances qu’a un événement d’être réalisé à
l’issue de l’expérience. On calcule toujours la probabilité d’un
événement. Une probabilité est un réel compris entre 0 et 1.
De façon générale, dans la vie courante, l’évaluation de ces probabilités
n’a rien d’immédiat et reste très subjective.
→ Quelle est la probabilité qu’il fasse beau demain ?
⊲ Cependant, il existe un type de situation pour lequel ce calcul peut être
réalisé de manière exacte et justifié de façon précise. C’est le cas où
l’expérience aléatoire n’a qu’un nombre fini d’issues possibles, sans
qu’aucune de ces issues n’ait plus de chances qu’une autre de se réaliser :
elles sont toutes équiprobables.
Exemple : Lancer d’un dé - Ω = {1, 2, 3, 4, 5, 6}
Événement élémentaire A : “obtenir un 6”
Événement B : “obtenir un nombre pair”
1
3
1
P(A) = P({6}) =
et
P(B) = =
6
6
2
(UPV)
StatL3S5
2009/2010
19 / 81
Dans une telle situation d’équiprobabilité, le calcul de la probabilité d’un
événement quelconque A consiste toujours à compter le nombre d’issues
favorables à A (pour lesquelles A est réalisé) ramené au nombre total
d’issues possibles. Ainsi :
P(A) =
card (A)
Nb cas favorables
=
Nb cas possibles
card (Ω)
Remarque : intérêt historique (jeu de dénombrement) et théorique
⊲ En pratique, beaucoup plus fréquemment, on approche ce calcul le plus
finement possible en construisant un modèle à partir d’observations déjà
réalisées de l’expérience aléatoire.
Exemple : Guérison d’une maladie grave
→ Quelle est la probabilité de guérison ?
Cette probabilité existe de manière intrinsèque mais, contrairement au cas
précédent, n’est pas connue a priori, i.e. avant toute observation de
réalisations de l’expérience.
(UPV)
StatL3S5
2009/2010
20 / 81
Si les médecins évaluent à 0.2 la probabilité de guérison c’est que sur les
250 cas observés jusqu’à présent de cette maladie, 50 ont guéri
complètement.
(UPV)
StatL3S5
2009/2010
21 / 81
II - Propriétés des événements et probabilités
• Événement certain et événement impossible
On appelle événement certain, un événement qui se réalise quelle que soit
l’issue de l’expérience aléatoire. On le désigne par Ω.
On appelle événement impossible, un événement qui ne se réalise jamais
quelle que soit l’issue de l’expérience. On le désigne par ∅.
P(Ω) = 1
et
P(∅) = 0
Exemple : Lancer d’un dé
Événement certain : “obtenir un nombre entre 1 et 6”
Événement impossible : “obtenir 0”
• Événement contraire
L’événement contraire d’un événement A est l’événement qui se réalise si et
seulement si A ne se réalise pas. On le désigne par A.
P(A) = 1 − P(A)
(UPV)
StatL3S5
2009/2010
22 / 81
Exemple : Lancer d’un dé
A : “obtenir un nombre pair” - A = {2, 4, 6}
A : “obtenir un nombre impair” - A = {1, 3, 5}
⊲ En termes d’ensemble, l’événement contraire de A est donc représenté
par le complémentaire dans Ω de A.
• Événement “A ou B” “A et B”
L’événement “A ou B” se réalise lorsque l’un au moins des deux
événements A et B se réalise. On le désigne par A ∪ B.
L’événement “A et B” se réalise lorsque les deux événements A et B se
réalisent simultanément. On le désigne par A ∩ B.
Exemple : Tirer une carte dans un jeu de 32 cartes
Événement A : “obtenir un roi” - A = {R♦, R♥, R♣, R♠}
Événement B : “obtenir un cœur”B = {7♥, 8♥, 9♥, 10♥, V ♥, D♥, R♥, A♥}
Événement A ou B : “obtenir un roi ou un cœur”
A ∪ B = {7♥, 8♥, 9♥, 10♥, V ♥, D♥, R♥, A♥, R♦, R♣, R♠}
Événement A et B : “obtenir le roi de cœur” - A ∩ B = {R♥}
(UPV)
StatL3S5
2009/2010
23 / 81
⊲ A ∪ B est réalisé lorsque :
- A est réalisé et B ne l’est pas : A ∩ B
- B est réalisé et A ne l’est pas : A ∩ B
- A et B sont réalisés tous les deux : A ∩ B
Ainsi A ∩ B ⊂ A ∪ B et P(A ∩ B) ≤ P(A ∪ B)
⊲ Lois sur les ensembles :
A∪B
A∩B
= A∩B
= A∪B
A ∪ (B ∩ C ) = (A ∪ B) ∩ (A ∪ C )
A ∩ (B ∪ C ) = (A ∩ B) ∪ (A ∩ C )
⊲ Quels que soient les événements A et B :
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
(UPV)
StatL3S5
2009/2010
24 / 81
Exemple : Tirer une carte dans un jeu de 32 cartes
1
8
1
4
=
P(B) =
=
P(A) =
32
8
32
4
11
1
P(A ∪ B) =
P(A ∩ B) =
32
32
4
8
1
11
=
+
−
32
32 32 32
• Événements incompatibles et partition de Ω
A et B sont dits incompatibles s’ils ne peuvent pas se réaliser en même
temps
A∩B =∅
Remarque :
Cela implique que P(A ∩ B) = 0 et P(A ∪ B) = P(A) + P(B)
(UPV)
StatL3S5
2009/2010
25 / 81
Un ensemble de s événements B1 , B2 , ..., Bs incompatibles 2 à 2 et tels
que leur réunion est l’événement certain forment une partition de Ω.
Exemple : Se faire vacciner pour l’hiver contre la grippe
On dispose de 3 vaccins différents. Chaque personne ne peut être vaccinée
qu’une seule fois (par l’utilisation d’un seul vaccin) et on définit les
événements :
A : “ ne pas attraper la grippe pendant l’hiver ”
B1 : “ être vacciné par le vaccin 1 ”
B2 : “ être vacciné par le vaccin 2 ”
B3 : “ être vacciné par le vaccin 3 ”
Ω = B1 ∪ B2 ∪ B3
et
A = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ (A ∩ B3 )
(UPV)
StatL3S5
2009/2010
26 / 81
Un événement quelconque C et son contraire C forment la partition la plus
simple de Ω et on a :
A
= (A ∩ C ) ∪ (A ∩ C )
P(A) = P(A ∩ C ) + P(A ∩ C )
De même, pour une partition B1 , B2 , ..., Bs de Ω, on a :
P(A) = P(A ∩ B1 ) + P(A ∩ B2 ) + ... + P(A ∩ Bs )
=
s
X
i=1
P(A ∩ Bi )
=⇒ théorème des probabilités totales
(UPV)
StatL3S5
2009/2010
27 / 81
Chapitre 3 : Probabilités conditionnelles et indépendance
I - Définition de la probabilité conditionnelle
Vous vous réveillez le matin et les yeux encore clos, vous évaluez la
probabilité qu’il pleuve dans la matinée.
Supposez maintenant que vous avez eu le courage de vous lever, d’ouvrir
vos volets et de vous apercevoir que le ciel est très gris avec de gros
nuages, votre évaluation de cette probabilité reste-t-elle identique ?
Lorsque l’on dispose d’une information supplémentaire sur l’expérience
aléatoire, le calcul de probabilité peut s’en trouver modifié. Souvent
l’univers des possibles est même restreint par cette information : imaginez
que vous devez deviner le résultat d’un dé, si vous savez qu’il est pair alors
il n’y a plus que 3 possibilités !
Cette information constitue une condition dans laquelle l’expérience va se
dérouler. Cette condition est traduite par un événement de Ω, qui ne doit
évidemment pas être impossible.
(UPV)
StatL3S5
2009/2010
28 / 81
• Probabilité conditionnelle
Soit B un événement de probabilité 6= 0, on appelle probabilité
conditionnelle de A sachant B la quantité :
PB (A) =
P(A ∩ B)
P(B)
Exemple : Sexe des enfants d’une famille de 2 enfants
Ω = {(F , F ); (F , G ); (G , F ); (G , G )} (issues toutes équiprobables)
Événement C : “avoir deux filles” = {(F , F )}
Événement D : “avoir au moins une fille” = {(F , F ); (F , G ); (G , F )}
C ∩D =C
1
3
P(D) =
4
4
P(C )
1/4
1
P(C ∩ D)
=
=
=
PD (C ) =
P(D)
P(D)
3/4
3
P(C ) =
(UPV)
StatL3S5
2009/2010
29 / 81
Remarque 1 : et PC (D) = 1 ... c’est une propriété :
Soient 2 événements A et B avec B de probabilité non nulle et B ⊂ A alors
PB (A) = 1
Remarque 2 : attention ! ! !
On rencontre très souvent (voire beaucoup plus fréquemment) la notation
P(A|B) pour désigner PB (A).
Danger : A|B n’est pas un événement ... inutile de chercher à envisager son
complémentaire ou son intersection ou réunion avec un autre événement.
C’est bien l’événement A dont on cherche à évaluer la probabilité mais cette
probabilité est modifiée par l’information contenue dans l’événement B.
Remarque 3 : si l’on conditionne par rapport à l’événement certain ...
(UPV)
StatL3S5
2009/2010
30 / 81
II - Propriétés
• La probabilité conditionnelle conserve toutes les propriétés énoncées
précédemment :
PB (Ω) = 1
PB (∅) = 0
PB (A) = 1 − PB (A)
PB (A ∪ C ) = PB (A) + PB (C ) − PB (A ∩ C )
ou encore
P(A|B) = 1 − P(A|B)
P(A ∪ C |B) = P(A|B) + P(C |B) − P(A ∩ C |B)
• Si A et B sont incompatibles alors ...
(UPV)
StatL3S5
2009/2010
31 / 81
III - Formules de Bayes
Formule 1
... ou comment “renverser” le conditionnement !
Soient A et B deux événements de probabilités non nulles :
PA (B) =
PB (A) P(B)
P(A)
Formule 2
... la vraie !
On considère un événement A et un ensemble d’événements B1 , B2 , ...Bs
qui forment une partition de Ω. On suppose connaître les probabilités
P(Bi ) (toutes non nulles) ainsi que les probabilités conditionnelles PBi (A).
Pour un événement quelconque Bj de la partition, on a :
PA (Bj ) =
PBj (A) P(Bj )
PB (A) P(Bj )
= s j
X
P(A)
PBi (A) P(Bi )
i=1
(UPV)
StatL3S5
2009/2010
32 / 81
Exemple 1 : État d’un produit à la sortie d’une usine de fabrication
Deux machines M1 et M2 produisent respectivement 100 et 200 objets. M1
produit 5% de pièces défectueuses, et M2 en produit 6%. Quelle est la
probabilité pour qu’un objet défectueux ait été fabriqué par la machine M1 ?
Soit A l’événement “l’objet est défectueux” et M1 (resp. M2 ) l’événement
“l’objet est fabriqué par la machine M1 (resp M2 )”.
−→ calcul de PA (M1 )
Compte tenu des productions de ces machines, on a
100
1
2
P(M1 ) =
=
P(M2 ) =
300
3
3
6
5
et PM2 (A) =
.
De plus, on sait que PM1 (A) =
100
100
Remarque : M2 = M1 , donc M1 et M2 forment une partition de Ω
On obtient alors grâce à la formule de Bayes :
1
5
×
100 3
≃ 0.29
PA (M1 ) =
5
1
6
2
(
× )+(
× )
100 3
100 3
(UPV)
StatL3S5
2009/2010
33 / 81
Exemple 2 : Vaccination contre une maladie
Le vaccin B1 est administré à 10 % des patients, B2 à 55 % et B3 à 35 %.
La probabilité de ne pas attraper la maladie quand on a été vacciné par B1
(resp. B2 et B3 ) est de 0.8 (resp. 0.6 et 0.7).
Un patient qui a été vacciné attrappe malgré tout la maladie, avec quelle
probabilité a-t-il reçu le vaccin B2 ?
Définissons les 3 événements :
A : “attraper la maladie”
Bi : “être vacciné par le vaccin Bi ” (i = 1, 2, 3)
On sait que :
P(B1 ) = 0.1 P(B2 ) = 0.55 P(B3 ) = 0.35
PB1 (A) = 0.8 PB2 (A) = 0.6 PB3 (A) = 0.7
donc PB1 (A) = 0.2 PB2 (A) = 0.4 PB3 (A) = 0.3
(UPV)
StatL3S5
2009/2010
34 / 81
−→ calcul de PA (B2 )
PA (B2 ) =
PB2 (A) P(B2 )
PB (A) P(B2 )
= 3 2
P(A)
X
PBi (A) P(Bi )
i=1
=
0.4 × 0.55
(0.2 × 0.1) + (0.4 × 0.55) + (0.3 × 0.35)
= 0.64
(UPV)
StatL3S5
2009/2010
35 / 81
IV - Probabilités conditionnelles dans la démarche
diagnostique médicale
On suppose qu’un test a été mis en place comme signe diagnostic d’une
maladie.
On note les 4 événements suivants :
M+ :
M− :
T+ :
T− :
“être malade”
“ne pas être malade”
“le résultat du test est positif”
“le résultat du test est négatif”
M− = M+
T− = T+
La qualité du signe diagnostic dépend de sa capacité à révéler la réalité de
l’état du patient.
(UPV)
StatL3S5
2009/2010
36 / 81
On définit alors les 2 notions suivantes :
• Sensibilité du test : Se
Se = PM+ (T+ ) = P(T+ |M+ )
• Spécificité du test : Sp
Sp = PM− (T− ) = P(T− |M− )
Le test idéal est alors bien sûr celui où :
Se = . . . et
Sp = . . .
Malheureusement un tel signe diagnostic n’exite pas ! !
(UPV)
StatL3S5
2009/2010
37 / 81
• Indice de Youden : Y
Y = Se + Sp − 1
L’indice de Youden varie entre ... et ...
Un indice de Youden négatif révèle une mauvaise qualité du test : il n’a
aucune valeur informationnelle.
La valeur diagnostique d’un test est d’autant plus grande que l’indice de
Youden est proche de ...
(UPV)
StatL3S5
2009/2010
38 / 81
Après avoir recueilli une information sur la présence de la maladie dans la
population concernée :
• Prévalence : Prev
Prev = P(M+ )
... d’autres notions sont alors définies :
• Valeur prédictive positive : VPP
VPP = PT+ (M+ ) = P(M+ |T+ )
• Valeur prédictive négative : VPN
VPN = PT− (M− ) = P(M− |T− )
VPP et VPN s’exprime en fonction de Se, Sp et Prev ...
(UPV)
StatL3S5
2009/2010
39 / 81
V - Indépendance
Deux événements A et B sont indépendants, si l’information apportée par
l’un n’influence pas le calcul de probabilité de l’autre
PB (A) = P(A)
ou
PA (B) = P(B)
Mais pour cela, on doit supposer que A ou B sont de probabilités non
nulles. Une définition plus générale est donc :
deux événements quelconques A et B sont indépendants ssi
P(A ∩ B) = P(A) × P(B)
Attention : ne pas confondre indépendance et incompatibilité ! ! !
Deux événements incompatibles sont-ils en général indépendants ?
La propriété d’indépendance est une propriété sur le calcul de probabilité à
ne pas confondre avec la propriété d’incompatibilité qui est une propriété
sur les ensembles et n’a rien à voir avec les probabilités !
(UPV)
StatL3S5
2009/2010
40 / 81
Exemple : Tirer une carte dans un jeu de 32 cartes
Situation d’équiprobabilité (toutes les cartes ont la même chance d’être
choisie).
Événement A : “obtenir un roi” - A = {R♦, R♥, R♣, R♠}
4
1
P(A) =
=
32
8
Événement B : “obtenir un cœur” B = {7♥, 8♥, 9♥, 10♥, V ♥, D♥, R♥, A♥}
8
1
P(B) =
=
32
4
Événement A et B : “obtenir le roi de cœur” - A ∩ B = {R♥}
1 1
1
= × = P(A) × P(B)
P(A ∩ B) =
32
4 8
1
1/32
= = P(A)
PB (A) =
1/4
8
−→ A et B sont indépendants.
Et il y a aussi indépendance entre A et B, A et B, et A et B ! ! !
(UPV)
StatL3S5
2009/2010
41 / 81
Chapitre 4 : Variables aléatoires et loi de probabilité
I - Définition
Une variable aléatoire est une variable qui associe une valeur numérique
déterminée à chaque issue d’une expérience aléatoire.
Bien sûr, avant la réalisation de l’expérience, la valeur prise par cette
variable est aléatoire mais une fois l’expérience réalisée, sa valeur est
connue et unique.
On note X (Ω) l’ensemble des valeurs possibles pour la variable aléatoire X :
X (Ω) = {v1X , v2X , ...}
... ou lorsqu’il n’y a pas d’ambiguïté sur le nom de la variable :
X (Ω) = {v1 , v2 , ...}.
Exemple 1 : Obtenir un job
Définissons la variable aléatoire X par ses valeurs : elle vaut 1 si l’individu
obtient le job et 0 sinon.
(UPV)
StatL3S5
2009/2010
42 / 81
Alors :
X (Ω) = {0, 1}
X = 1 est équivalent à “il obtient le job”
X = 0 est équivalent à “il n’obtient pas le job”
Exemple 2 : Lancer d’un dé
Sachant que s’il obtient un nombre pair, le joueur gagne 10 fois le résultat
du dé, sinon il perd 10 fois le résultat du dé, définissons alors la variable
aléatoire X correspondant au gain du joueur.
X (Ω) = {−50, −30, −10, 20, 40, 60}
X ≥ 30 est équivalent à X = 40 ou X = 60.
Remarque :
Dans cette situation une autre variable aléatoire simple Y peut être définie
par “le double du résultat du dé”. Y (Ω) = {2, 4, 6, 8, 10, 12}
Propriété : Pour une expérience aléatoire donnée, d’univers des possibles
Ω, on peut définir une infinité de variables aléatoires.
(UPV)
StatL3S5
2009/2010
43 / 81
Exemple 3 : Compter le nombre de fautes de français dans une copie
d’examen
On s’intéresse à la variable aléatoire X qui représente la penalité dûe aux
fautes de français. La pénalité intervient à partir de 6 fautes : de 6 à 10
fautes, la pénalité est de 1, de 11 à 20 fautes pénalité de 2 et au delà de 20
fautes, 3 points de pénalité.
X (Ω) = {0, 1, 2, 3}
X = 0 est équivalent à “il y a strictement moins de 6 fautes” = A.
Exemple 4 : Taille d’un individu
Soit X la variable aléatoire qui stocke la mesure de la taille en centimètres.
X (Ω) = R+
“160 < X < 180” est équivalent à “mesurer entre 160 et 180 cm” qui peut
aussi s’écrire “|X − 170| < 10”.
(UPV)
StatL3S5
2009/2010
44 / 81
⊲ Une variable aléatoire est dite discrète si elle ne peut prendre qu’un
nombre fini (ou dénombrable) de valeurs isolées.
Exemple : - Obtenir un job : X (Ω) = {0, 1}
- Gain au lancer de dé : X (Ω) = {−50, −30, −10, 20, 40, 60}
- Pénalité copie d’examen : X (Ω) = {0, 1, 2, 3}.
⊲ Une variable aléatoire est dite continue si au contraire elle prend ses
valeurs dans des intervalles (nombre infini de valeurs numériques non
isolées).
Exemple : Taille d’un individu : X (Ω) = R+ .
(UPV)
StatL3S5
2009/2010
45 / 81
II - Événements et variables aléatoires
⊲ Lorsqu’on s’intéresse à certaines valeurs de X particulières, on fixe un
sous-ensemble de X (Ω). On peut alors lui associer le sous-ensemble de Ω
constitué de toutes les issues dont la valeur associée par X fait partie de
celles sélectionnées.
Exemple : Lancer d’un dé
Au sous-ensemble {40, 60} de X (Ω), on peut associer le sous-ensemble
{4, 6} de Ω
⊲ Par extension, tout sous-ensemble de X (Ω) définit un événement.
Exemple : Lancer d’un dé
X ≤ 0 = {−50, −30, −10} est un événement équivalent à {1, 3, 5} de Ω.
Exemple : Fautes de français
X > 0 = {1, 2, 3} est un événement équivalent à Ā.
(UPV)
StatL3S5
2009/2010
46 / 81
⊲ On peut ainsi utiliser toutes les propriétés classiques sur les ensembles
(∪, ∩, complémentaire) pour les événements définis à l’aide d’une variable
aléatoire X .
Exemple : Lancer d’un dé
“X ≥ 0” ∪ “X = −30” = {−30, 20, 40, 60}
Exemple : Fautes de français
“X ≥ 1” = “X = 0”
Exemple : Taille d’un individu
“X ≤ 175” ∪ “X ≤ 180” = “X ≤ 180”
“X ≤ 175” ∩ “X ≤ 180” = “X ≤ 175”
“X ≤ 175” ∩ “X ≥ 180” = ∅
“X ≤ 175” = “X > 175”
“X ≤ 175”∩ “X ≤ 180” = “175 < X ≤ 180”
Remarque : Par commodité d’écriture, on omet ensuite les guillemets.
(UPV)
StatL3S5
2009/2010
47 / 81
III - Loi de probabilité
Pour définir la loi de probabilité d’une variable aléatoire, on distingue le cas
discret du cas continu.
• Loi de probabilité d’une variable aléatoire discrète
Elle est définie par un tableau donnant la probabilité associée à chaque
valeur possible de la variable X . Autrement dit, la loi de probabilité de la
variable aléatoire X est l’ensemble des couples (v , P(X = v )) pour toutes
les valeurs v de X (Ω).
Exemple : Jeu de loterie
La roue d’une loterie possède 10 secteurs : 4 verts, 3 bleus, 2 jaunes et 1
rouge. Lorsqu’on tire un secteur bleu ou vert, on perd 10. Lorsqu’il est
jaune, on gagne 20 et rouge 100.
Soit G la variable aléatoire “gain du joueur” : G (Ω) = {−10, 20, 100}
7
P(G = −10) = P(“tirer secteur bleu ou vert”) =
10
2
1
P(G = 20) =
P(G = 100) =
10
10
(UPV)
StatL3S5
2009/2010
48 / 81
Ainsi le tableau :
vG
−10
20
100
P(G = v G )
7
10
2
10
1
10
constitue la loi de probabilité de G . Elle est représentée par le diagramme
en bâtons suivant :
1
0.9
0.8
Probabilité
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
−10
20
100
Gain du joueur
(UPV)
StatL3S5
2009/2010
49 / 81
⊲ Les événements X = v forment une partition de Ω. Ainsi la somme des
probabilités associées à toutes les valeurs possibles de X est égale à 1 :
X
P(X = v ) = 1
v ∈X (Ω)
Remarque :
On peut aussi calculer les probabilités de tous les événements exprimés à
l’aide de X .
2
1
3
P(X > 0) = P(X = 20) + P(X = 100) =
+
=
10 10
10
Mais aussi P(X > 5) = P(X = 20) + P(X = 100)
P(X < 20) = P(X = −10)
P(X ≤ 20) = P(X = −10) + P(X = 20)
P(X ≤ 25) = P(X = −10) + P(X = 20)
⊲ On appelle fonction de répartition de la variable aléatoire X , la fonction
définie pour n’importe quelle valeur de R par :
F (x) = P(X ≤ x)
(UPV)
StatL3S5
2009/2010
50 / 81
Cela représente donc la probabilité que X prenne une valeur plus petite
qu’une valeur donnée. C’est donc un cumul des probabilités des valeurs de
X (Ω) plus petites que x.
On représente graphiquement la fonction de répartition par :
1
0.9
Fonction de répartition
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
−20
0
20
40
60
80
100
120
Gain du joueur
C’est une fonction définie sur R en escalier et croissante de 0 à 1.
(UPV)
StatL3S5
2009/2010
51 / 81
⊲ L’espérance d’une variable aléatoire discrète mesure la tendance de cette
variable. Elle est définie par la quantité :
X
E (X ) =
v P(X = v )
v ∈X (Ω)
Exemple : Jeu de loterie (suite)
E (G ) = (−10 ×
=
7
2
1
) + (20 × ) + (100 × )
10
10
10
−70 + 40 + 100
=7
10
Remarque : Sans observation relative à la variable aléatoire, on utilise cette
espérance (ou valeur espérée) comme prédiction de la variable aléatoire.
Attention cette prédiction ne fait pas forcément partie des valeurs possibles
de la variable ! ! !
(UPV)
StatL3S5
2009/2010
52 / 81
⊲ La variance d’une variable aléatoire discrète mesure la dispersion des
valeurs de la variable autour de l’espérance. Elle est définie par la quantité :
X
V (X ) = E [(X − E (X ))2 ]
=
(v − E (X ))2 P(X = v )
v ∈X (Ω)
= E (X 2 ) − (E (X ))2 =
X
v ∈X (Ω)
L’écart-type est donné par :
σ(X ) =
p
v 2 P(X = v ) − (E (X ))2
V (X )
Exemple : Jeu de loterie (suite)
2
1
7
) + ((20)2 × ) + ((100)2 × )
10
10
10
700 + 800 + 10000
= 1150
=
10
= 1150 − 72 = 1101
= 33.18
E (G 2 ) = ((−10)2 ×
V (G )
σ(G )
(UPV)
StatL3S5
2009/2010
53 / 81
• Loi de probabilité d’une variable aléatoire continue
Exemple : On s’intéresse à la variable aléatoire T mesurant le temps de
réponse d’un individu à un stimulus. Sachant qu’il n’est pas possible de
dépasser un délai de 2 minutes, l’ensemble des valeurs possibles pour cette
variable aléatoire (en secondes) est : T (Ω) = [0, 120].
Remarque : attention ! ! !
- il est alors impossible de présenter les valeurs dans un tableau !
- comme il y a une infinité de valeurs, la probabilité d’une unique valeur est
réduite à 0 ! ! ! ... P(T = 34) = 0
- on ne peut calculer que des probabilités sur des intervalles :
P(30 < T ≤ 40)
Pour une variable aléatoire continue, on ne peut parler que de densité de
probabilité. C’est une sorte de probabilité ramenée à une unité d’intervalle
très petite !
(UPV)
StatL3S5
2009/2010
54 / 81
Ainsi à chaque valeur x d’une variable aléatoire continue X , on associe une
densité f (x) représentant la densité de probabilité d’un intervalle infiniment
petit autour de x : f (x) ≥ 0, pour tout x.
0.03
0.025
Densité
0.02
0.015
0.01
0.005
0
−20
0
20
40
60
80
100
120
140
Temps de réponse au stimulus
⊲ Lorsqu’on somme les probabilités associées à toutes les valeurs possibles
de X , on obtient 1. Pour une variable aléatoire continue :
Z
f (x)dx = 1
R
la surface totale sous la courbe d’une densité est toujours égale à 1.
(UPV)
StatL3S5
2009/2010
55 / 81
Calculons la probabilité que le temps de réponse soit compris entre 20 et 40
secondes :
P(20 ≤ T ≤ 40) = P(20 < T < 40) = P(20 < T ≤ 40)
Remarque 1 : < ou ≤ ... peu importe car rappelons que quel que soit la
valeur t de la variable aléatoire T : P(T = t) = 0 ... mais cela n’est vrai
que pour une variable aléatoire continue ! ! !
Remarque 2 : P(0 ≤ T ≤ 40) = P(T ≤ 40) car sur l’intervalle ] − ∞; 0[ la
densité de probabilité de cette variable aléatoire T est nulle
(UPV)
StatL3S5
2009/2010
56 / 81
0.03
P ( 20 < T < 40 )
0.025
Densité
0.02
0.015
0.01
0.005
0
−20
0
20
40
60
80
100
120
140
Temps de réponse au stimulus
P(20 < T < 40) =
Z
40
f (t)dt
20
= P(T < 40) − P(T < 20)
Z 20
Z 40
f (t)dt
f (t)dt −
=
−∞
(UPV)
StatL3S5
−∞
2009/2010
57 / 81
⊲ La fonction de répartition de la variable aléatoire continue X est donc
définie pour n’importe quelle valeur x par :
Z x
f (t)dt
F (x) = P(X ≤ x) =
−∞
c’est donc la surface sous la courbe “à gauche” de x.
0.03
F(40) = P ( T < 40 )
0.025
Densité
0.02
0.015
0.01
0.005
0
−20
0
20
40
60
80
100
120
140
Temps de réponse au stimulus
(UPV)
StatL3S5
2009/2010
58 / 81
C’est toujours une fonction croissante de 0 à 1 mais qui n’est plus une
fonction en escalier !
1
0.03
0.9
P(a<T<b)
0.025
0.7
0.02
0.6
Densité
Fonction de répartition
0.8
0.5
0.015
0.4
0.01
0.3
0.2
0.005
0.1
0
−20
0
20
40
60
80
100
120
0
−20
140
0
Temps de réponse au stimulus
P(a < T ≤ b) =
Z
a
20
40
60
80
100
Temps deb réponse au stimulus
120
140
b
f (t)dt
a
= F (b) − F (a)
(UPV)
StatL3S5
2009/2010
59 / 81
⊲ L’espérance et la variance d’une variable aléatoire continue sont définies
par :
Z
x f (x)dx
E (X ) =
et
R
2
2
V (X ) = E
Z (X ) − (E (X ))
=
x 2 f (x)dx − (E (X ))2
R
Remarque :
- ce ne sont que des écritures adaptées du cas discret
- nous ne vous demandons pas dans le cadre de ce cours de savoir faire ces
calculs mais de savoir ce que représentent ces 2 grandeurs
(UPV)
StatL3S5
2009/2010
60 / 81
IV - Propriétés sur l’espérance et la variance
⊲ À partir d’une variable aléatoire X , on peut en définir d’autres comme
fonction de celle-ci : aX + b, X 2 , ... il est alors en général facile d’en
obtenir la loi à partir de celle de X .
Exemple : Jeu de loterie
La variable G désignait le gain (en francs) à ce jeu de loterie. En prenant
en compte, le paiement de 1 euro pour participer au jeu, nous définissons la
variable S somme totale en euros gagnée par le joueur :
S = 0.1524 × G − 1
On peut alors donner la loi de S par le tableau :
s
P(S = s)
−2.52 2.05 14.24
7
10
2
10
1
10
Vous pouvez alors calculer l’espérance et la variance de S et vous vous
apercevrez que :
E (S) = 0.1524×E (G )−1 = 0.0668 et V (S) = 0.15242 ×V (G ) = 25.57156
(UPV)
StatL3S5
2009/2010
61 / 81
Propriété 1 :
Soit Y la variable aléatoire définie à partir de la variable aléatoire X par :
Y = aX + b, alors :
E (Y ) = a E (X ) + b
V (Y ) = a2 V (X )
Propriété 2 :
Soit Y la variable aléatoire définie comme somme de 2 variables aléatoires
X1 et X2 : Y = X1 + X2 alors :
E (Y )
= E (X1 ) + E (X2 )
V (Y ) = V (X1 ) + V (X2 )
si indépendance
Propriété 3 :
À partir de la variable aléatoire X , on définit la variable aléatoire centrée
réduite Y par :
X − E (X )
Y =
σ(X )
alors
E (Y ) = 0
(UPV)
et
V (Y ) = 1.
StatL3S5
2009/2010
62 / 81
Exemple : Jeu de loterie (suite)
Deux amis jouent indépendamment à ce jeu et on s’intéresse à leur gain
total (en euro après avoir retranché leurs frais de participation). Si G1 et
G2 sont les variables désignant leur gain respectif en francs (sans compter
les frais de participation) alors :
T = 0.1524 (G1 + G2 ) − 2
et E (T )
=
=
=
V (T ) =
=
0.1524 E (G1 + G2 ) − 2
0.1524 [E (G1 ) + E (G2 )] − 2
0.1524 [7 + 7] − 2 = 0.1336
0.15242 [V (G1 ) + V (G2 )]
0.15242 [1101 + 1101] = 51.1431
Remarque : attention ! ! !
ça n’est pas la même chose que : T = 0.1524 (2 × G ) − 2
(UPV)
StatL3S5
2009/2010
63 / 81
V - Quelques lois de probabilité usuelles
• Lois discrètes
⊲ Loi uniforme : X ∼ Unif
C’est le principe d’équiprobabilité !
La variable aléatoire discrète X suit une loi uniforme lorsqu’elle prend un
nombre fini K de valeurs : X (Ω) = {v1 , v2 , ..., vK } et que :
∀i ∈ 1, .., K P(X = vi ) =
Alors
E (X )
et
=
V (X ) =
(UPV)
PK
1
K
i=1 vi
K
PK
2
i=1 vi
K
−
PK
StatL3S5
i=1 vi
K
!2
2009/2010
64 / 81
Exemple : Résultat du lancer de dé
alors E (X )
=
V (X ) =
(UPV)
vi
1
2
3
4
5
6
P(X = vi )
1
6
1
6
1
6
1
6
1
6
1
6
1+2+3+4+5+6
21
=
= 3.5
6
6
12 + 22 + 32 + 42 + 52 + 62
− 3.52 = 2.92
6
StatL3S5
2009/2010
65 / 81
⊲ Loi de Bernoulli : X ∼ Ber (p)
C’est la loi d’une variable aléatoire succés/échec ou vrai/faux ... codée 1/0 !
La variable aléatoire discrète X suit une loi de Bernoulli de paramètre p
lorsqu’elle prend deux valeurs : X (Ω) = {0, 1} et que :
P(X = 1) = p
Alors
E (X ) = p
(UPV)
et
et
P(X = 0) = 1 − p
V (X ) = p (1 − p)
StatL3S5
2009/2010
66 / 81
Exemple : Sondage
Dans la rue, on interroge un individu “Êtes-vous pour le projet de
constitution européenne ?”
On définit X la variable aléatoire qui prend la valeur 1 s’il répond Oui et 0
sinon.
Ainsi X ∼ Ber (p) où p est la probabilité qu’un individu soit favorable au
projet de constitution européenne.
⊲ Loi binomiale : X ∼ Bin(n, p)
C’est la loi d’une variable aléatoire qui compte le nombre de “succés” lors
de la répétition indépendante d’une expérience succés/échec
La variable aléatoire discrète X suit une loi binomiale de paramètres n et p
lorsqu’elle s’écrit comme une somme de n variables aléatoires
indépendantes de loi de Bernoulli :
X =
n
X
Xi
où Xi indépendantes et
i=1
(UPV)
StatL3S5
∀i ∈ {1, ..n} Xi ∼ Ber (p)
2009/2010
67 / 81
Elle a donc n + 1 valeurs possibles : X (Ω) = {0, 1, ..., n} et
E (X ) = np
V (X ) = np(1 − p)
L’expression de sa loi est donnée par :
P(X = k) = Cnk p k (1 − p)n−k
∀k ∈ {0, .., n}
0.35
0.35
Bin(10;0.2)
0.3
0.3
0.2
0.15
0.2
0.15
0.2
0.15
0.1
0.1
0.1
0.05
0.05
0.05
0
0
1
2
3
4
5
6
7
8
9
10
0
Bin(10;0.8)
0.25
Probabilités
0.25
Probabilités
0.25
Probabilités
Bin(10;0.5)
0.3
0
1
2
3
4
5
6
7
8
9
10
0
0
1
2
3
4
5
6
7
8
9
10
Remarque :
Ber (p) = Bin(1, p)
(UPV)
StatL3S5
2009/2010
68 / 81
Exemple : Sondages (suite)
On interroge 1000 personnes qui indépendamment les unes des autres
donnent leur position par rapport au projet de constitution européenne.
Soit X1 la variable modélisant la réponse de la première personne, puis X2
celle de la deuxième et ainsi de suite. ∀i ∈ {1, .., 1000} Xi ∼ Ber (p).
Soit X la variable aléatoire qui compte parmi les 1000 personnes combien
seront favorables à la constitution européenne.
X ∼ Bin(1000, p)
⊲ Loi Géométrique : X ∼ Geom(p)
C’est la loi du nombre d’essais nécessaires pour qu’un événement se
réalise : nombre de tentatives pour obtenir le permis de conduire, ...
La variable aléatoire discrète X suit une loi géométrique de paramètre p si
elle prend ses valeurs dans : X (Ω) = {1, 2, ...} = N∗ et si sa loi de
probabilité est donnée par :
P(X = k) = (1 − p)k−1 p
(UPV)
StatL3S5
∀k = 1, 2, ...
2009/2010
69 / 81
Remarque : le paramètre p modélise la probabilité de succès à chaque essai
On peut déduire de l’expression de cette loi que :
E (X ) =
1
p
V (X ) =
1−p
p2
⊲ Loi de Poisson : X ∼ P(λ)
C’est la loi du nombre d’événements survenus dans une période de temps
donné : nombre d’urgences à l’hôpital la nuit, nombre de SMS reçus en une
heure ...
La variable aléatoire discrète X suit une loi de Poisson de paramètre λ si
elle prend ses valeurs dans : X (Ω) = {0, 1, ...} = N et si sa loi de
probabilité est donnée par :
P(X = k) = e −λ
(UPV)
λk
k!
StatL3S5
∀k = 0, 1, 2, ...
2009/2010
70 / 81
On peut déduire de l’expression de cette loi que :
E (X ) = λ
V (X ) = λ
Remarque : ... et toutes les autres ! ! !
(UPV)
StatL3S5
2009/2010
71 / 81
• Lois continues
⊲ Loi uniforme sur un intervalle [a, b] : X ∼ Unif ([a, b])
C’est le principe d’équiprobabilité adapté : la densité est la même sur tout
l’intervalle !
La variable aléatoire continue X suit une loi uniforme sur l’intervalle [a, b]
ssi X (Ω) = [a, b] et
1
∀x ∈ [a, b] f (x) =
b−a
partout ailleurs la densité est nulle.
(UPV)
StatL3S5
2009/2010
72 / 81
Unif([0,10])
Densité
0.1
0.05
0
−5
0
5
10
15
20
25
30
35
40
45
50
⊲ Loi normale centrée réduite : U ∼ N (0, 1)
c’est la fameuse loi de Gauss (courbe en cloche) !
Les deux paramètres ont été fixés à 0 et 1 respectivement ce qui signifie :
E (U) = 0
V (U) = 1
par convention, on la désignera par U.
(UPV)
StatL3S5
2009/2010
73 / 81
U(Ω) = R et sa densité est représentée par :
0.5
0.45
0.4
0.35
Densité
0.3
0.25
0.2
0.15
0.1
0.05
0
−5
−4
−3
−2
−1
0
1
2
3
4
5
Pour calculer les probabilités d’intervalles on se ramène à une table déjà
construite. On notera lα le réel positif tel que
P(U ≥ lα ) = α
Remarque : lα est le quantile d’ordre 1 − α : lα = q1−α
Exemple : α = 0.05 alors P(U ≤ l0.05 ) = 0.95.
(UPV)
StatL3S5
2009/2010
74 / 81
Ainsi
P(−lα/2 ≤ U ≤ lα/2 ) = 1 − α
0.5
0.45
0.4
0.35
1− α
Densité
0.3
0.25
α/2
0.2
0.15
α/2
0.1
0.05
0
−5
−4
−3
−2
−1
−l
0
α /2
1
2
l
P(−2.5758 ≤ U ≤ 2.5758)
P(−1.96 ≤ U ≤ 1.96)
P(−1.65 ≤ U ≤ 1.65)
P(U ≥ 1.65)
(UPV)
StatL3S5
3
4
5
α /2
=
=
=
=
0.99
0.95
0.90
0.05
2009/2010
75 / 81
⊲ Loi normale : X ∼ N (µ, σ 2 )
elles se déduisent toutes de la loi normale centrée réduite !
Les deux paramètres ont été fixés à µ et σ 2 respectivement ce qui signifie :
V (X ) = σ 2
E (X ) = µ
X (Ω) = R et sa densité est représentée par :
0.5
0.5
0.45
0.45
0.4
0.4
X ∼ N(2,1)
0.35
0.35
0.25
0.25
0.2
0.2
0.15
0.15
0.1
0.1
0.05
0.05
0
X ∼ N(2,4)
0.3
Densité
Densité
0.3
−4
−2
(UPV)
0
2
4
0
6
StatL3S5
−4
−2
0
2
4
2009/2010
6
76 / 81
Pour calculer les probabilités d’intervalles on se ramène à la table de la loi
normale centrée réduite car :
X ∼ N (µ, σ 2 )
=⇒
X −µ
∼ N (0, 1)
σ
une seule table suffit ! ! !
Remarque : ... et toutes les autres ! ! !
- la loi exponentielle de paramètre λ : X ∼ Exp(λ)
X (Ω) = R+
elle modélise de nombreux phénomènes de durée : temps d’attente à un
guichet, temps écoulé entre 2 pannes ...
- la loi de Student de paramètre ν : X ∼ Tν
X (Ω) = R et ν est le nombre de degrés de liberté
elle ressemble à la loi normale mais est plus plate et lorsque ν grandit, elle
se rapproche de plus en plus de la loi normale.
- la loi du χ2 de paramètre ν : X ∼ χ2ν
X (Ω) = R+ et ν est le nombre de degrés de liberté
(UPV)
StatL3S5
2009/2010
77 / 81
si ν = 1 c’est la loi du carré d’une loi normale centrée réduite : X = U 2
pour ν quelconque, c’est la loi de la somme de ν P
carré de variables
aléatoires centrées réduites indépendantes : X = νi=1 Ui2 .
0.5
0.5
0.45
0.45
0.4
0.4
0.35
0.35
0.25
X ∼ T3
0.2
X ∼ Exp(2)
2
0.25
0.25
0.2
0.2
0.15
0.15
0.1
0.1
0.05
0.05
0
0
1
2
3
4
(UPV)
5
6
7
8
9
10
0
X ∼ χ4
0.15
Densité
0.3
Densité
Densité
0.3
0.1
0.05
−6
−4
−2
0
StatL3S5
2
4
6
0
0
2
4
6
8
10
12
14
2009/2010
16
18
20
78 / 81
VI - Intervalle de dispersion d’une variable aléatoire continue
• Définition
On appelle intervalle de dispersion de la variable aléatoire continue X au
risque α un intervalle [binf ; bsup ] contenant des valeurs de X avec la
probabilité 1 − α :
P(binf ≤ X ≤ bsup ) = P(X ∈ [binf ; bsup ])
= 1−α
On le note :
ID1−α (X ) = [binf ; bsup ]
On dit : “ intervalle de dispersion à (1 − α)% de X ”
Exemple : X ∼ N (0, 1)
1) P(−0.5244 ≤ X ≤ 1.2816) = 0.6 donc ID60% (X ) = [−0.5244; 1.2816]
2) P(X ≥ 0) = 0.5 donc ID50% (X ) = [0; +∞[
(UPV)
StatL3S5
2009/2010
79 / 81
⊲ En pratique, le risque α est souvent faible : 0.1%, 1%, 5% ... parfois
10%.
Exemple :
1) X ∼ N (0, 1)
P(−1.96 ≤ X ≤ 1.96) = 0.95 donc ID95% (X ) = [−1.96; 1.96]
2) X ∼ N (2, 1)
P(0.04 ≤ X ≤ 3.96) = 0.95 donc ID95% (X ) = [0.04; 3.96]
• Propriété
Pour un risque α fixé, il existe une infinité d’intervalles correspondant à la
probabilité 1 − α.
Exemple : X ∼ N (0, 1)
1) P(−1.7507 ≤ X ≤ 2.3263) = 0.95 donc ID95% (X ) = [−1.7507; 2.3263]
2) P(−2.0537 ≤ X ≤ 1.8808) = 0.95 donc ID95% (X ) = [−2.0537; 1.8808]
(UPV)
StatL3S5
2009/2010
80 / 81
⊲ En pratique, on choisit :
• un intervalle centré au sens des quantiles
ID1−α (X ) = [qα/2 ; q1−α/2 ]
ce qui, dans le cas d’une distribution symétrique, est identique à :
• un intervalle centré autour de l’espérance :
ID1−α (X ) = [E (X ) − a; E (X ) + a]
La loi normale est un exemple classique de distribution symétrique.
De façon générale pour la loi N (0, 1), avec les notations de la section
précédente, on a :
ID1−α (U) = [−lα/2 ; lα/2 ]
Exemple : X ∼ N (0, 1)
ID99% (X ) = [−2.5758; 2.5758]
(UPV)
StatL3S5
2009/2010
81 / 81
Chapitre 5 : Lois limites
... quand le nombre de répétitions n d’une expérience aléatoire
grandit !
I - Préliminaire
Lors de la modélisation d’une expérience aléatoire, on lui associe une
variable aléatoire X . On répète n fois cette expérience aléatoire de façon
identique et indépendante. À chaque répétition, on répète aussi la
modélisation et on note Xi la variable aléatoire associée à la répétition
numéro i.
X1 , X2 , ..., Xn sont n copies de la variable aléatoire X . Elles sont
toutes indépendantes et de même loi (celle de X ).
∀i ∈ {1, .., n}
(UPV)
E (Xi ) = E (X ) = µ
V (Xi ) = V (X ) = σ 2
StatL3S5
2009/2010
82 / 81
On définit alors la variable aléatoire :
n
1X
Xi
X =
n
i=1
que l’on appelle “moyenne”
• son espérance
• sa variance
• son écart-type
(UPV)
E (X ) = µ
V (X ) =
σ2
n
σ
σ(X ) = √
n
StatL3S5
2009/2010
83 / 81
Remarque 1
Après avoir observé ces n répétitions, on dispose de n réalisations
P
x1 , x2 , ...xn . On peut alors en calculer la moyenne : x = n1 ni=1 xi . La
valeur obtenue est une réalisation de la variable aléatoire X .
Remarque 2
On peut répéter p fois (par paquet) l’observation de n répétitions, on
obtient alors p réalisations de X
(UPV)
StatL3S5
2009/2010
84 / 81
II - La loi des grands nombres
Exemple 1
On répète n fois le lancer d’une pièce de monnaie équilibrée. On définit la
variable aléatoire X : X = 1 si pile ; X = 0 si face.
Un exemple de réalisations : 1 0 1 0 0 1 0 0 0 1 0 0 ...
0.7
0.4
0.5
0.6
moyenne
0.8
0.9
1.0
On augmente n progressivement et on calcule à chaque fois la moyenne sur
les n lancers. x représente alors la proportion de 1.
Les valeurs de x au fur et à mesure sur ces mêmes réalisations :
1 0.5 0.6667 0.5 0.4 0.5 0.4286 ...
0
200
400
600
800
1000
n
(UPV)
StatL3S5
2009/2010
85 / 81
Exemple 2
On répète n fois le lancer d’un dé équilibré. On note, dans la variable
aléatoire X , la face obtenue.
Un exemple de réalisations : 4 1 5 6 2 5 2 1 5...
2.5
3.0
moyenne
3.5
4.0
On augmente n progressivement et on calcule à chaque fois la moyenne des
faces sur les n lancers.
Les valeurs de x au fur et à mesure sur ces mêmes réalisations :
4 2.5 3.3333 4 3.6...
0
1000
2000
3000
4000
5000
n
(UPV)
StatL3S5
2009/2010
86 / 81
Exemple 3
On répète n fois l’observation d’une variable aléatoire N (0, 1).
moyenne
−0.6
−0.4
−0.2
0.0
On augmente n progressivement et on calcule à chaque fois la moyenne sur
les n répétitions.
0
200
400
600
800
1000
n
(UPV)
StatL3S5
2009/2010
87 / 81
• Théorème 1
X
n grand
−→
µ
En choisissant n suffisamment grand, la moyenne peut être rendue aussi
proche que possible de l’espérance µ.
• Théorème 2
V (X ) =
σ2
n
Plus n grandit, plus la dispersion de la moyenne se réduit.
(UPV)
StatL3S5
2009/2010
88 / 81
III - Le théorème central limite
On affine encore le comportement de la moyenne. Pour cela, on regarde la
distribution de la moyenne sur plusieurs paquets d’observations.
Exemple 2
On prend à chaque fois 1000 paquets de n lancers de dés et on représente
l’histogramme des 1000 moyennes observées pour n = 1, 5, 20, 50, 100
Histogramme des moyennes
0
0
50
50
100
150
100
200
150
250
Histogramme des moyennes
1
2
3
4
5
6
moyennes de x sur n=1 valeur
(UPV)
1
2
3
4
5
6
moyennes de x sur n=5 valeurs
StatL3S5
2009/2010
89 / 81
Histogramme des moyennes
0
0
50
50
100
150
100
200
150
250
300
200
Histogramme des moyennes
2
3
4
5
6
1
2
moyennes de x sur n=20 valeurs
3
4
5
6
moyennes de x sur n=50 valeurs
50
100
150
200
Histogramme des moyennes
0
1
1
2
3
4
5
6
moyennes de x sur n=100 valeurs
(UPV)
StatL3S5
2009/2010
90 / 81
• Théorème (cas général)
On répète n fois une expérience aléatoire. Soit X1 , ..., Xn les n variables
aléatoires indépendantes et de même loi associées à ces répétitions.
∀i ∈ {1, .., n}
X −µ
r
σ2
n
E (Xi ) = E (X ) = µ
V (Xi ) = V (X ) = σ 2
n grand
−→
N (0, 1)
Si n est grand, la moyenne centrée réduite se comporte comme une variable
aléatoire de loi N (0, 1).
En pratique, n n’a pas besoin d’être très grand (cf graphique) ... en tout
cas, nettement moins que pour la loi des grands nombres !
(UPV)
StatL3S5
2009/2010
91 / 81
• Cas particulier Bernoulli
C’est la situation du sondage !
On répète n fois une expérience aléatoire de Bernoulli. Soit X1 , ..., Xn les n
variables aléatoires indépendantes et de loi Ber (p) associées à ces
répétitions.
∀i ∈ {1, .., n}
E (Xi ) = E (X )
V (Xi ) = V (X )
Et
E (X )
V (X )
r
X −p
p (1 − p)
n
= p
= p (1 − p)
= p
p (1 − p)
=
n
n grand
−→
N (0, 1)
Rappel : X modélise la proportion de 1.
(UPV)
StatL3S5
2009/2010
92 / 81
IV - TCL et intervalle de dispersion
• Intervalle de dispersion pour X
À l’aide de l’approximation de la loi de X obtenue par le théorème central
limite, on peut alors construire, quand n est grand, un intervalle de
dispersion approché pour les valeurs de X :
σ
σ
ID1−α (X ) = [µ − lα/2 √ ; µ + lα/2 √ ]
n
n
• Intervalle de dispersion pour X : cas Bernoulli
À l’aide de l’approximation de la loi de X obtenue par le théorème central
limite, on peut alors construire, quand n est grand et p pas trop proche ni
de 0 ni de 1, un intervalle de dispersion approché pour les valeurs de
X :
r
r
p (1 − p)
p (1 − p)
ID1−α (X ) = [p − lα/2
; p + lα/2
]
n
n
(UPV)
StatL3S5
2009/2010
93 / 81
Outre la moyenne, le TCL permet aussi d’approcher la loi de la somme de
n variables aléatoires X1 , .., Xn indépendantes et identiquement distribuées.
On définit :
n
X
Xi
S=
i=1
Alors
E (S) = n µ
V (S) = n σ 2
Ainsi le théorème central limite donne :
S −n µ
√
n σ2
n grand
−→
N (0, 1)
Si n est grand, la somme centrée réduite se comporte comme une variable
aléatoire de loi N (0, 1).
(UPV)
StatL3S5
2009/2010
94 / 81
• Intervalle de dispersion pour S
À l’aide de l’approximation de la loi de S obtenue par le théorème central
limite, on peut alors construire, quand n est grand, un intervalle de
dispersion approché pour les valeurs de S :
√
√
ID1−α (S) = [n µ − lα/2 n σ ; n µ + lα/2 n σ]
• Intervalle de dispersion pour S : cas Bernoulli
À l’aide de l’approximation de la loi de S obtenue par le théorème central
limite, quand n est grand et p pas trop proche ni de 0 ni de 1, on peut alors
construire un intervalle de dispersion approché pour les valeurs de S :
ID1−α (S) = [n p − lα/2
(UPV)
p
p
n p (1 − p) ; n p + lα/2 n p (1 − p)]
StatL3S5
2009/2010
95 / 81
Téléchargement