notion de probabilite

publicité
1
Variables aléatoires
Exemple:
On joue une partie de pile (P) ou face (F) en 4 lancers. A l’issue de la
partie globale, on peut considérer l’ensemble des éventualités comme
un ensemble de quadruplets comportant des P et des F [exemple:
(F, F, P, F) ]. Pour chaque partie, comptons les points de la façon
suivante:
* si le nombre de P est 3 ou 4, le joueur marque 1 point.
* si le nombre de P est 2, le joueur marque 0 point.
* si le nombre de P est 0 ou 1, le joueur marque - 1 point.
(F,F, F, P) (P, P,F, F) (P, P, P,F)
Ainsi, à chacun des quadruplets
(F, F,P, F) (P, F,P, F) (P,P, F, P)
de A, on associe le nombre 1;
(F, P, F,F) (F, P,F, P) (P, F, P,P)
à chacun des quadruplets de B, on
(P, F, F,F) (F, F,P, P) (F, P, P,P)
associe 0;
(F, F, F,F) (F, P, P,F) (P, P, P,P)
à chacun des quadruplets de C, on
associe -1.
(P, F, F,P)
B
A
On définit ainsi une application X



de  dans {-1, 0, 1} = X
X
X
X
Si X-1({0}) désigne l’ensemble



des éléments de  tels que la
-1
0
1
valeur associée à un quadruplet
C
soit égale à 0 (ou encore tels que
X() = 0), alors X-1({0}) = B.
2
De même, X-1({1}) = A
et X-1({-1}) = C
On appellera variable aléatoire cette application qui au jeu de « pile
ou face » associe le gain.
Si, à chaque partie, la question se pose de savoir avec quelles
probabilités respectives, le joueur marque 0, 1 ou -1 point, on peut
répondre:
Proba [marquer un point] = P(A) = 5/16 =
P(C) = Proba [marquer -1 point]
Proba [marquer 0 point] = P(B) = 6/16 = 3/8.
Ainsi, on définit sur X (muni de l’ensemble des événements) une
probabilité P’ telle que :
P’ ({1}) = P(A) = P(C) = P’({-1})
P’({0}) = P(B)
Définition:
Soit (, P(), P) un espace probabilisé et (X, P(X)) un espace
probabilisable où X est une partie de IR (ou IR lui-même). Une
application X qui à un élément de  fait correspondre un élément de X
, et plus généralement un nombre réel, est une variable aléatoire
rélle.
L’ensemble des valeurs de X peut être:
* un ensemble fini ou infini de nombres:
X est dite variable aléatoire discrète
3
* un intervalle, une réunion d’intervalles ou IR
:
: X est dite variable aléatoire continue
Autrement dit, une variable aléatoire s’exprime à l’aide d’une
grandeur mesurable et ses variations dépendent du hasard.
Autres exemples de variables aléatoires: nombre de fleurs produites
par une plante, nombre d’acheteurs d’un produit donné, etc.
Propriété: On peut alors définir sur X une probabilité P’ en posant:
P’(A) = P[X-1(A)]
pour tout événement A de P(X).
Définitions: P’ est appelée loi de probabilité de X ou encore
distribution de X.
On appelle fonction de répartition de X la fonction F qui, à tout x
réel, fait correspondre le nombre réel positif défini par:
F(x) = P’(]- , x]) = P ({    X()  x})
ou
F(x) = P’(]- , x[) = P ({    X() < x})
Remarque 1: ces deux définitions conduisent à la même fonction dans
le cas continu. La deuxième est généralement utilisée en France dans
le cas des variables aléatoires discrètes.
4
Remarque 2 : le plus souvent, la loi de X n’est pas calculable à partir
de P, car l’espace  lui-même est mal connu. C’est pourquoi on notera
la plupart du temps P la loi de probabilité.
5
Variables aléatoires discrètes.
La loi de probabilité est alors donnée par la probabilité de chacun des
points. On note en général P({X = xi}) = pi.
On a p1 + p2 + ... + pn = 1 dans le cas où X() est fini
ou p1 + p2 + ... + pn + ... = 1 (somme infinie des termes) dans le cas où
X() est infini
La fonction de répartition F de X est pour tout x:
F(x) = P(X <x) = P(X =x1) + P(X = x2) + ... + P(X = xi) avec xi < x
Exemple: Le nombre de pannes journalières d’une machine est une
variable aléatoire X dont la loi de probabilité est:
X
0
1
2
3
4
5
P(X = x)
0,1
0,3
0,4
0,1
0,05
0,05
Déterminer la fonction de répartition de X.
x<0
F(x) = P(X < x) = 0
0x<1
F(x)= P(X < x) = P(X = 0) = 0,1
1x<2
F(x) = P(X < x) = P(X = 0) + P(X = 1) = 0,1 + 0,3 =
0,4
2x<3
F(x) = P(X < x) = P(X = 0) + P(X = 1) + P(X = 3) =
0,1 + 0,3 + 0,4 = 0,8
3x<4
F(x) = P(X < x) = P(X = 0) + P(X = 1) + P(X = 2) +
P(X = 3) = 0,1 + 0,3 + 0,4 + 0,1 = 0,90
4x<5
F(x) = P(X < x) = P(X = 0) + P(X = 1) + P(X = 2) +
6
P(X = 3) + P(X = 4) =
0,1 + 0,3 + 0,4 + 0,1 + 0,05 = 0,95
x5
F(x) = P(X <x) = P(X = 0) + P(X = 1) + P(X = 2) +
P(X = 3) + P(X = 4) + P(X = 5) = 1
7
Paramètres d’une variable aléatoire.
Espérance mathématique de la variable aléatoire X
Définition: L’espérance mathématique - quand elle existe - est une
« moyenne » des valeurs possibles de X pondérées par les probabilités
de ces valeurs.
Ainsi, quand la variable aléatoire X est discrète et prend n valeurs
distinctes x1, x2, ..., xn avec les probabilités p1, p2, ..., pn, l’espérance
s’écrit:
k n
E(X) =  xk pk
k 1
Retour à l’exemple des pannes:
Espérance du nombre de pannes:
E(X) = 0 x 0,1 + 1 x 0,3 + 2 x 0,4 + 3 x 0,1 + 4 x 0,05 + 5 x 0,05
= 1,85.
En moyenne, il y a donc 1,85 pannes.
Propriétésde l’espérance mathématique:
a) Si X et Y sont deux variables aléatoires, l’espérance de leur somme
est égale à la somme de leurs espérances.
E(X + Y) = E(X) + E(Y)
b) Si X est une variable aléatoire et a une constante, l’espérance de la
variable aléatoire a X est égale au produit de a par l’espérance de X.
E(a X) = a E(X)
8
c) Si X et Y sont des variables aléatoires indépendantes, l’espérance
de leur produit est égale au produit des espérances.
E(X Y) = E(X) E(Y)
Variance et écart-type d’une variable aléatoire
Ce paramètre va permettre de rendre compte de la dispersion de X
autour de son espérance.
Définition: La variance de X - quand elle existe - est le nombre noté
var (X) et défini par:
var (X) = E[X - E(X)]2.
Ainsi, dans le cas d’une variable aléatoire discrète X, qui prend n
valeurs distinctes x1, x2, ..., xn avec les probabilités p1, p2, ..., pn, la
variance s’écrit:
k n
var ( X )   ( k  E ( X ))2 pk
k 1
Exemple des pannes
La variance s’écrit:
var (X) = (0 - 1,85)2 x 0,1 + (1 - 1,85)2 x 0,3 + (2 - 1,85)2 x 0,4
+ (3 - 1,85)2 x 0,1 + (4 - 1,85)2 x 0,05 + (5 - 1,85)2 x 0,05
var (X) = 0,34225 + 0,21675 + 0,00900 + 0,13225 + 0,231125 +
0,496125 = 1,4275  (1,195)2.
A la variance, on associe l’écart -type  = V(X).
9
Propriétés de la variance:
a) Pour toute variable aléatoire X, on a:
var (X) = E(X2) - [E(X)]2
En effet, on peut écrire:
var (X) = E[X2 - 2X E(X) + [E(X)]2 ]
soit en utilisant les propriétés de linéarité de l’espérance:
var (X) = E[X2 ] - 2E(X) E(X) + [E(X)]2
soit encore:
var (X) = E[X2 ] - [E(X)]2 ]
b) Si a et b sont des constantes,
var (aX + b) = a2 var (X)
c) La variance de la somme de deux variables aléatoires
indépendantes est égale à la somme des variances.
var (X + Y) = var (X) + var (Y)
10
Inégalité de Bienaymé-Tchebychev
Soit une variable aléatoire d’espérance E(X) et d’écart-type (X) .
Nous admettrons que, pour tout nombre réel positif ,
P[ |X - E(X)|  (X) ] < 1/2
ou P[ |X - E(X)| < (X)]  1 - 1/2
Signification de cette inégalité
Le premier membre de la deuxième inégalité peut s’écrire:
P[- (X) < X - E(X) < (X)]
soit encore
P[E(X) - (X) < X < (X) + E(X)]
Ce premier membre représente la probabilité que la variable aléatoire
X prenne sa valeur dans l’intervalle ]E(X) - (X) , E(X) + (X)[ et
l’égalité affirme que cette probabilité est supérieure à 1 - 1/2.
Exemple d’utilisation de cette inégalité.
Une variable aléatoire obéit à une loi d’espérance 5 et d’écart-type 2.
Evaluer la probabilité:
P( 2,5 < X < 7,5)
Remarquons que 5 est le centre de l’intervalle ]2,5; 7,5[. On a donc:
 2 = 2,5, soit  = 2,5/2 = 1,25
d’où P( 2,5 < X < 7,5) > 1 - 1/(1,25)2 = 0,36
Si nous connaissions la loi, nous pourrions vraisemblablement avoir
une meilleure estimation.
11
Quelques lois usuelles
Loi de Bernoulli
Si une variable aléatoire prend les valeurs 1 et 0 avec les probabilités
respectives p et q = 1 - p, on dit qu’elle suit une loi de Bernoulli de
paramètre p.
Ce type de variable aléatoire se rencontre dans tous les cas où une
épreuve n’admet que 2 issues: a et son contraire, réussite/échec, etc.
E(X) = 1 x p + 0 x q = p
Pour calculer la variance, on utilise var(X) = E(X2) - [E(X)]2.
var(X) = 1 x p + 0 x p - p2 = p (1 - p) = p q
Loi binomiale
Exemple introductif:
Je joue aux dés. Je considère que l’épreuve n’a que 2 résultats:
S = { obtenir 6} = {6}
E = { ne pas obtenir le 6} = {1, 2, 3, 4, 5}
On a donc P(S) = 1/6 et P(E) = 5/6.
Je lance un dé 3 fois de suite. C’est une suite d’épreuves de Bernoulli.
L’ensemble des événements est :
{SSS, SSE, SES, SEE, ESE, ESS, EES, EEE}.
Supposons que je m’intéresse au nombre X de succès. C’est une
variable aléatoire qui peut prendre les valeurs 0, 1, 2 et 3.
P (X = 0) = P({EEE}) = P(E) P(E) P(E) = (5/6)3.
12
P (X = 1) = P({SEE, ESE, EES}) = P({SEE}) + P({ESE}) + P({EES})
= P(S) P(E) P(E) + P(E) P(S) P(E) + P(E) P(E) P(S)
P(X = 1) = 3 * (5/6)2 * 1/6.
Le nombre 3 est le nombre d’épreuves comportant 2 succès.
C’est ce que l’on appelle plus généralement le nombre de
3!
combinaisons de 3 éléments 2 à 2 , noté C2 
, où n! désigne
3 2!( 3  2)!
le produit des n premiersnombres entiers.
En continuant les calculs, on montre,
P (X = 2) = 3 * (1/6)2 * 5/6
P(X = 3) = (1/6)3.
Evaluons E(X) = 0 * (5/6)3 + 1 * 3 * (5/6)2 (1/6) + 2 * 3 (5/6) (1/6)2
+ 3 (1/6)3 = ( 3 * 25 + 6 * 5 + 3) /216 = 108/216 =
1/2
Remarquons que E(X) est le produit du nombre d’épreuves (3) par la
probabilité de succès (1/6).
Evaluons var (X) = E(X2) - [E(X)]2
= 02 * (5/6)3 + 12 * 3 * (5/6)2 (1/6) +
22 * 3 (5/6) (1/6)2 + 32 (1/6)3 - (1/2)2
= ( 3 * 25 + 12 * 5 + 9) /216 - ¼ = 90/216 = 5/12.
Remarquons que var(X) est le produit du nombre d’épreuves (3) par la
probabilité (1/6) de succès par la probabilité d’échec (5/6).
13
Généralisation
On effectue n épreuves de Bernoulli (réussite ou échec du même
événement A) successivement, de telle façon que le résultat de l’une
soit indépendant de l’autre.
Ainsi, on dispose de n variables aléatoires X1, X2, ..., Xn d’espérance
p et de variance pq et on s’intéresse à la variable somme
X = X1 + X2 + ... + Xn.
qui permet de compter le nombre de succès de l’événement A en n
épreuves. X suit une loi binomiale de paramètre n et p et notée
B (n, p) telle que:
P(X = k) = C k pk qn-k
n
avec C k = n! /k! (n-k)!
n
et où n! désigne le produit des n premiers nombres entiers
n! = n (n-1) ...2 1.
Propriétés caractéristiques d’une loi binomiale
E(X) = E(X1) + E(X2) + ...+ E(Xn) = n E(X1) = np
var (X) = npq
Remarque: Si p= q = 1/2, la loi est symétrique.
14
Exemple:
2 salles de spectacle occupent les mêmes crénaux de clientèle qu’elles
se partagent. Cette clientèle est potentiellement de 1 000 spectateurs
par spectacle. On suppose qu’un spectateur potentiel a autant de
chances de choisir une salle que l’autre.
Combien de places doit-on prévoir dans chaque salle pour satisfaire la
demande dans 90% des cas?
Soit X le nombre aléatoire de spectateurs pour l’une quelconque des
salles. On cherche k tel que P(X < k)  0,9 ou P(X  k) < 0,1.
Comme il s’agit d’inégalité, on peut penser à appliquer l’inégalité de
Bienaymé-Tchebytchev.
La variable aléatoire X suit une loi binomiale B (1000; 1/2).
E(X) = 500
var(X) = 1000 * 1/2 * 1/2 = 250
L’inégalité de Bienaymé-Tchebytchev s’écrit alors:
P(|X - 500|   250) < 1/2
Comme la loi binomiale est symétrique, cela revient à trouver  tel que
:
2 P(X - 500   250) < 1/2 ou P(|X - 500|   250) < 1/22
Il suffit donc de prendre 1/22= 1-0,9 = 0,1, soit 2 = 5 et  = 5
On a alors X - 500 > 5 * 250 = 35,35.
Comme on cherche un nombre entier, il faut que X > 536.
15
Loi de Poisson
C’est une loi qu’on applique lorsqu’il s’agit événements répartis dans
le temps ou l’espace. On parle de « processus de Poisson » lorqu’il
s’agit d’événements remplissant des conditions suivantes:
- la probabilité de réalisation p de l’événement au cours d’une petite
période ou sur une petite portion d’espace t est proportionnelle à t,
soit: p t
- la réalisation de l’événement est indépendante de ce qui s’est produit
antérieurement ou à côté
- la probabilité de deux apparitions sur le même t est négligeable.
Exemple de processus de Poisson: appels téléphoniques sur un
standard, arrivées au péage d’une autoroute ou à un guichet
automatique de banque, etc
Plus précisément, le nombre X d’événements aléatoires sur un
intervalle d’amplitude T est une variable aléatoire de Poisson, si X
prend les valeurs 0, 1, 2, ... avec les probabilités:
P(X = k) = e-m mk /k! avec m = p T
Remarque: en principe, k peut être infini; mais la probabilité diminue
quand k augmente.
Propriétés caractéristiques de la loi de Poisson P(m):
16
E(X) = m
var(X) = m
Exemple: L’arrivée de clients à un guichet de service public est
considéré comme un processus de Poisson. On sait que le nombre
moyen de clients s’adressant à ce guichet est de 2 toutes les 3 minutes.
Calculer la probabilité d’arrivée de 10 clients pendant une période de
12 minutes.
Il faut d’abord déterminer le paramètre de la loi de Poisson
m = 2/3 * 12 = 8
d’où P(X = 10) = e-8 810 /10! soit environ 0,09926
Remarque: lorsque n sera grand et p petit , on substituera à une loi
binomiale B (n,p) une loi de Poisson de paramètre m = np. Plus
précisément, les conditions exigées sont formulées sous diverses
formes, soit n > 50 et np < 5, soit n > 30, p 0,1 et np < 5.
17
Exemple: Des machines fabriquent en série des plaques de tôle
destinées au montage de transformateurs électriques. L’expérience
montre que, lors de la fabrication, la probabilité pour qu’une plaque
soit inutilisable est 0,001.
Soit X la variable aléaoire prenant pour valeur le nombre de pièces
inutilisables dans un lot de 3 000 pièces.
Partie A: Quelle est la loi de probabilité suivie par X? Préciser son
espérance mathématique.
Soit l’événement I = {la plaque fabriquée est inutilisable}
On a P(I) = 0,001.
Lorsque la machine fabrique en série 3 000 pièces successivement, les
résultats (pièce utilisable ou non) sont indépendants les uns des
autres. La variable aléatoire X suit donc une loi binomiale
B (3000, 0,001).
Son espérance est donc 3 000 * 0,001 = 3
Partie B : On suppose que la loi de X peut être approchée par la loi de
Poisson. Calculer alors, la probabilité pour que dans un lot de 3 000
plaques on observe:
a) aucune plaque inutilisable
b) au plus deux plaques inutilisables.
c) au moins quatre plaques inutilisables
18
Remarquons que ce problème remplit les condions généralements
admises pour approcher une binomiale par une loi de Poisson puisque
n = 3 000, p= 0,001 et np = 3.
P(X = k) = e-3 (3)k/k!
a) Il s’agit de calculer P(X = 0) = e-3 (3)0/0!
En appliquant la convention 0! = 1, il vient:
P(X = 0) = e-3 = 0,050 à 10-3 près
b) Il s’agit de calculer
P(X < 3) = P(X  2) = P(X = 0 ou X = 1 ou X = 2)
P(X  2) ) = P(X = 0) + P(X = 1) + P( X = 2)
P(X  2) = e-3 + 3 e-3 + 9/2 e-3 = 17/2 e-3 = 0,423 à 10-3 près
c) Il s’agit de calculer
P(X  4) = 1 - P(X < 4)
P(X  4) = 1 - [P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3)]
P(X  4) = 1 - [e-3 + 3 e-3 + 9/2 e-3 + 27/6 e-3] = 1 - 26/2 e-3
P(X  4) = 0,353 à 10-3 près.
Remarquons que nous avons ici P(X = 2) = P(X = 3).
De manière générale, on peut comparer pour une loi de Poisson de
paramètre m, P (X = k) et P (X = k-1).
On a en effet P(X = k) / P(X = k - 1) = e-m mk (k-1)!/e-m mk-1 k!
P(X = k) / P(X = k - 1) = m/k
Si m est entier > 0, on peut avoir m= k, et alors P(X=m) = P(X=m - 1)
19
Pour m < k , on a P(X = k + 1) < P(X = k)
pour m > k, on a P(X = k) > P(X = k-1)
Ainsi, on voit que la loi de Poisson de paramètre m admet un
maximum qui est P(X = m).
Ainsi donc m - 1 < k < m.
20
Exemple: Soit une entreprise fabriquant des carreaux. Ces carreaux
présentent deux types de défauts: défaut A (carreau cassé ou fêlé),
défaut B (carreau mal dimensionné). La probabilité qu ’un carreau ait
le défaut A est 0,05 et la probabilité qu’un carreau ait le défaut B est
0,03. On suppose que les deux défauts sont indépendants.
1) Calculer la probabilité des événements suivants:
a) un carreau présente les deux défauts:
Soit
A = {le carreau présente le défaut A}
B = {le carreau présente le défaut B}
Il s’agit donc de calculer P(AB)
P(AB) = P(A) P(B) puisque les événements A et B sont
indépendants.
P(AB) = 0,05 * 0,03 = 0,0015
b) un carreau présente un seul défaut
Il s’agit de l’évênement (ABc)(AcB) avec (ABc) et (AcB)
incompatibles.
D’où P[(ABc)(AcB)] = P(ABc) + P(AcB)
= P(A) P(Bc) + P(Ac) P(B) du fait de
l’indépendance
= 0,05*0,097 + 0,95*0,03 = 0,077
21
c) un carreau soit acceptable, c’est-à-dire qu’il ne présente aucun des
deux défauts
Il s’agit de l’événement Ac  Bc = (AB)c
or P[(AB)c] = 1 - P(AB)
d’où
= 1 - [P(A) + P(B) - P(AB)]
= 1 -[0,05 + 0,03 - 0,0015]
= 0,9215
d) un carreau est défectueux, c’est-à-dire qu’il présente au moins un
défaut
Il s’agit de l’événement AB dont la probabilité est 0,0785.
2) On prélève de manière indépendante un échantillon de 100
carreaux. Soit X la variable aléatoire qui associe à chaque échantillon
de 100 carreaux le nombre de carreaux défectueux de cet échantillon.
a) Quelle est la loi de X? Calculer son espérance et son écart-type.
Un carreau est défectueux ou ne l’est pas avec une probabilité 0,0785.
Le nombre de carreaux défecteux suit donc une loi binomiale
B (100; 0,0785)
d’espérance
E(X) = 100 * 0,0785 = 7,85
de variance
V(X) = 100 * 0,0785 * (1 - 0,0785) = 7,2338
d’écart-type
 = 2,69 en arrondissant au centième
22
b) Déterminer la probabilité que le nombre de carreaux défectueux soit
supérieur ou égal à 4, en supposant que la loi binomiale puisse être
approchée par une loi de Poisson de paramètre 7,85.
P(X  4) = 1 - P(X < 4)
1 - [P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3)]
1 - [e-7,85 + e-7,85 (7,85)/1! + e-7,85 (7,85)2/2! +
e-7,85 (7,85)3/3! ] = 0,9535
23
Application des Probabilités en Statistique
types de problèmes:
- estimation d’une proportion par intervalle de confiance
- estimation d’une moyenne par intervalle de confiance
- recherche de taille d’un échantillon
Nous allons voir quelques exemples de ce type de questions à l’aide de
l’inégalité de Bienaymé-Tchebitchev.
Les résultats portant sur l’estimation reposent sur les propriétés
suivantes:
Soit une suite de variables aléatoires indépendantes, de même loi, de
même espérance mathématique m et de même variance 2. Alors leur
moyenne se rapproche de E(X) = m (on dit qu’elle « converge en
probabilité » vers E(X) = m), et la variance est V(X) = 2 /n.
Signalons que, pour de grandes tailles des échantillons, on peut
obtenir des résultats beaucoup plus précis grâce à une variable
continue particulière: la loi normale.
24
Exemple de recherche d’un intervalle de confiance
Au cours d’un mois donné, un échantillon aléatoire de 10 salariés
choisis dans une grande population de salariés qui ont reçu un salaire
moyen de 6 480 F. On suppose que l’écart-type des salaires de la
population est de 84 F. A quel intervalle de confiance accorderait-on
un coefficient de confiance d’au moins 95% qui puisse recouvrir la
moyenne de la population ?
En admettant que l’écart-type de la population est celui de l’énoncé, la
formule de Bienaymé-Tchebitchev s’écrira
P{|X - 6 480|  k 84}  1/k2
Puisqu’on veut une confiance d’au moins 95%, on a
1/k2 = 0,05
d’où 0,05 k2 = 1
k2 = 20
k = 4,47
Donc le salaire moyen appartient à l’intervalle
]6 480 - 4,47*84, 6 480 + 4,47*84 [
soit
]6 104,52 , 6 855,48[
Remarque: si c’est l’écart-type de l’échantillon qui est connu, on
estime l’écart-type de la population par 84/10. Alors l’intervalle est
]6 480 - 4,47*84/10 , 6 480 + 4,47*84/10[ = ]6361,26 , 6598,74[
25
Exemple de recherche de taille d’échantillon
Dans une élection, seuls deux candidats restant en présence. D’après
un sondage, un électeur vote pour le candidat A avec une probabilité
1/4 et pour le candidat B avec une probabilité 3/4. Combien faut-il
interroger d’électeurs pour que l’on puisse affirmer avec 1% d’erreur
que les chances du candidat A sont connues avec une précision de
0,05 ?
Remarque 1: nous définissons deux « seuils »: l’écart à l’espérance
mathématique qui est égal à 0,05 et la probabilité d’erreur (ou risque)
qui est égale à 0,01.
Soit n le nombre d’électeurs interrogés.
Soit X la variable aléatoire « l’électeur vote pour le candidat A ». Il
n’y a que deux alternatives. C’est donc une variable de Bernouilli et
E(X) = 0,25.
Soit N la variable aléatoire égale à la proportion des électeurs qui
votent pour le candidat A.
Remarque2: On montre que si l’on étudie non pas le nombre de
succès, mais la proportion des succès sur les n épreuves tentées, cette
proportion suit encore une loi binomiale d’espérance p (proportion
dans la population) et de variance pq/n.
N suit une loi binomiale.
26
Son espérance est E(N) = 0,25. et
sa variance V(N) = 0,25 * 0,75 / n.
L’inégalité de Bienaymé- Tchebitchev, pour 1/t2 = 0,01, soit t = 10,
s’écrit:
P{ | N - 0,25 |  10 }  0,99
Il faut donc 10  0,05
soit 10 * (0,25 * 0,75 / n)1/2  0,05
et donc en portant au carré:
0,25 * 0,75 / n  (0,005)2
soit
n  0,25 * 0,75 / (0,005)2
et donc
n  7 500.
Remarque 3: si on admet un risque d’erreur plus grand, soit 5%, on a
1/t2 = 0,05 soit t = 4,47
4,47 * (0,25 * 0,75 / n)1/2  0,05
n  0,25 * 0,75 * (4,47)2 / (0,05)2
n  1 498,57 soit n  1 499 !!!
On voit donc qu’une plus grande précision va nécessiter un
échantillon plus grand.
Téléchargement