1 Variables aléatoires Exemple: On joue une partie de pile (P) ou face (F) en 4 lancers. A l’issue de la partie globale, on peut considérer l’ensemble des éventualités comme un ensemble de quadruplets comportant des P et des F [exemple: (F, F, P, F) ]. Pour chaque partie, comptons les points de la façon suivante: * si le nombre de P est 3 ou 4, le joueur marque 1 point. * si le nombre de P est 2, le joueur marque 0 point. * si le nombre de P est 0 ou 1, le joueur marque - 1 point. (F,F, F, P) (P, P,F, F) (P, P, P,F) Ainsi, à chacun des quadruplets (F, F,P, F) (P, F,P, F) (P,P, F, P) de A, on associe le nombre 1; (F, P, F,F) (F, P,F, P) (P, F, P,P) à chacun des quadruplets de B, on (P, F, F,F) (F, F,P, P) (F, P, P,P) associe 0; (F, F, F,F) (F, P, P,F) (P, P, P,P) à chacun des quadruplets de C, on associe -1. (P, F, F,P) B A On définit ainsi une application X de dans {-1, 0, 1} = X X X X Si X-1({0}) désigne l’ensemble des éléments de tels que la -1 0 1 valeur associée à un quadruplet C soit égale à 0 (ou encore tels que X() = 0), alors X-1({0}) = B. 2 De même, X-1({1}) = A et X-1({-1}) = C On appellera variable aléatoire cette application qui au jeu de « pile ou face » associe le gain. Si, à chaque partie, la question se pose de savoir avec quelles probabilités respectives, le joueur marque 0, 1 ou -1 point, on peut répondre: Proba [marquer un point] = P(A) = 5/16 = P(C) = Proba [marquer -1 point] Proba [marquer 0 point] = P(B) = 6/16 = 3/8. Ainsi, on définit sur X (muni de l’ensemble des événements) une probabilité P’ telle que : P’ ({1}) = P(A) = P(C) = P’({-1}) P’({0}) = P(B) Définition: Soit (, P(), P) un espace probabilisé et (X, P(X)) un espace probabilisable où X est une partie de IR (ou IR lui-même). Une application X qui à un élément de fait correspondre un élément de X , et plus généralement un nombre réel, est une variable aléatoire rélle. L’ensemble des valeurs de X peut être: * un ensemble fini ou infini de nombres: X est dite variable aléatoire discrète 3 * un intervalle, une réunion d’intervalles ou IR : : X est dite variable aléatoire continue Autrement dit, une variable aléatoire s’exprime à l’aide d’une grandeur mesurable et ses variations dépendent du hasard. Autres exemples de variables aléatoires: nombre de fleurs produites par une plante, nombre d’acheteurs d’un produit donné, etc. Propriété: On peut alors définir sur X une probabilité P’ en posant: P’(A) = P[X-1(A)] pour tout événement A de P(X). Définitions: P’ est appelée loi de probabilité de X ou encore distribution de X. On appelle fonction de répartition de X la fonction F qui, à tout x réel, fait correspondre le nombre réel positif défini par: F(x) = P’(]- , x]) = P ({ X() x}) ou F(x) = P’(]- , x[) = P ({ X() < x}) Remarque 1: ces deux définitions conduisent à la même fonction dans le cas continu. La deuxième est généralement utilisée en France dans le cas des variables aléatoires discrètes. 4 Remarque 2 : le plus souvent, la loi de X n’est pas calculable à partir de P, car l’espace lui-même est mal connu. C’est pourquoi on notera la plupart du temps P la loi de probabilité. 5 Variables aléatoires discrètes. La loi de probabilité est alors donnée par la probabilité de chacun des points. On note en général P({X = xi}) = pi. On a p1 + p2 + ... + pn = 1 dans le cas où X() est fini ou p1 + p2 + ... + pn + ... = 1 (somme infinie des termes) dans le cas où X() est infini La fonction de répartition F de X est pour tout x: F(x) = P(X <x) = P(X =x1) + P(X = x2) + ... + P(X = xi) avec xi < x Exemple: Le nombre de pannes journalières d’une machine est une variable aléatoire X dont la loi de probabilité est: X 0 1 2 3 4 5 P(X = x) 0,1 0,3 0,4 0,1 0,05 0,05 Déterminer la fonction de répartition de X. x<0 F(x) = P(X < x) = 0 0x<1 F(x)= P(X < x) = P(X = 0) = 0,1 1x<2 F(x) = P(X < x) = P(X = 0) + P(X = 1) = 0,1 + 0,3 = 0,4 2x<3 F(x) = P(X < x) = P(X = 0) + P(X = 1) + P(X = 3) = 0,1 + 0,3 + 0,4 = 0,8 3x<4 F(x) = P(X < x) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) = 0,1 + 0,3 + 0,4 + 0,1 = 0,90 4x<5 F(x) = P(X < x) = P(X = 0) + P(X = 1) + P(X = 2) + 6 P(X = 3) + P(X = 4) = 0,1 + 0,3 + 0,4 + 0,1 + 0,05 = 0,95 x5 F(x) = P(X <x) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4) + P(X = 5) = 1 7 Paramètres d’une variable aléatoire. Espérance mathématique de la variable aléatoire X Définition: L’espérance mathématique - quand elle existe - est une « moyenne » des valeurs possibles de X pondérées par les probabilités de ces valeurs. Ainsi, quand la variable aléatoire X est discrète et prend n valeurs distinctes x1, x2, ..., xn avec les probabilités p1, p2, ..., pn, l’espérance s’écrit: k n E(X) = xk pk k 1 Retour à l’exemple des pannes: Espérance du nombre de pannes: E(X) = 0 x 0,1 + 1 x 0,3 + 2 x 0,4 + 3 x 0,1 + 4 x 0,05 + 5 x 0,05 = 1,85. En moyenne, il y a donc 1,85 pannes. Propriétésde l’espérance mathématique: a) Si X et Y sont deux variables aléatoires, l’espérance de leur somme est égale à la somme de leurs espérances. E(X + Y) = E(X) + E(Y) b) Si X est une variable aléatoire et a une constante, l’espérance de la variable aléatoire a X est égale au produit de a par l’espérance de X. E(a X) = a E(X) 8 c) Si X et Y sont des variables aléatoires indépendantes, l’espérance de leur produit est égale au produit des espérances. E(X Y) = E(X) E(Y) Variance et écart-type d’une variable aléatoire Ce paramètre va permettre de rendre compte de la dispersion de X autour de son espérance. Définition: La variance de X - quand elle existe - est le nombre noté var (X) et défini par: var (X) = E[X - E(X)]2. Ainsi, dans le cas d’une variable aléatoire discrète X, qui prend n valeurs distinctes x1, x2, ..., xn avec les probabilités p1, p2, ..., pn, la variance s’écrit: k n var ( X ) ( k E ( X ))2 pk k 1 Exemple des pannes La variance s’écrit: var (X) = (0 - 1,85)2 x 0,1 + (1 - 1,85)2 x 0,3 + (2 - 1,85)2 x 0,4 + (3 - 1,85)2 x 0,1 + (4 - 1,85)2 x 0,05 + (5 - 1,85)2 x 0,05 var (X) = 0,34225 + 0,21675 + 0,00900 + 0,13225 + 0,231125 + 0,496125 = 1,4275 (1,195)2. A la variance, on associe l’écart -type = V(X). 9 Propriétés de la variance: a) Pour toute variable aléatoire X, on a: var (X) = E(X2) - [E(X)]2 En effet, on peut écrire: var (X) = E[X2 - 2X E(X) + [E(X)]2 ] soit en utilisant les propriétés de linéarité de l’espérance: var (X) = E[X2 ] - 2E(X) E(X) + [E(X)]2 soit encore: var (X) = E[X2 ] - [E(X)]2 ] b) Si a et b sont des constantes, var (aX + b) = a2 var (X) c) La variance de la somme de deux variables aléatoires indépendantes est égale à la somme des variances. var (X + Y) = var (X) + var (Y) 10 Inégalité de Bienaymé-Tchebychev Soit une variable aléatoire d’espérance E(X) et d’écart-type (X) . Nous admettrons que, pour tout nombre réel positif , P[ |X - E(X)| (X) ] < 1/2 ou P[ |X - E(X)| < (X)] 1 - 1/2 Signification de cette inégalité Le premier membre de la deuxième inégalité peut s’écrire: P[- (X) < X - E(X) < (X)] soit encore P[E(X) - (X) < X < (X) + E(X)] Ce premier membre représente la probabilité que la variable aléatoire X prenne sa valeur dans l’intervalle ]E(X) - (X) , E(X) + (X)[ et l’égalité affirme que cette probabilité est supérieure à 1 - 1/2. Exemple d’utilisation de cette inégalité. Une variable aléatoire obéit à une loi d’espérance 5 et d’écart-type 2. Evaluer la probabilité: P( 2,5 < X < 7,5) Remarquons que 5 est le centre de l’intervalle ]2,5; 7,5[. On a donc: 2 = 2,5, soit = 2,5/2 = 1,25 d’où P( 2,5 < X < 7,5) > 1 - 1/(1,25)2 = 0,36 Si nous connaissions la loi, nous pourrions vraisemblablement avoir une meilleure estimation. 11 Quelques lois usuelles Loi de Bernoulli Si une variable aléatoire prend les valeurs 1 et 0 avec les probabilités respectives p et q = 1 - p, on dit qu’elle suit une loi de Bernoulli de paramètre p. Ce type de variable aléatoire se rencontre dans tous les cas où une épreuve n’admet que 2 issues: a et son contraire, réussite/échec, etc. E(X) = 1 x p + 0 x q = p Pour calculer la variance, on utilise var(X) = E(X2) - [E(X)]2. var(X) = 1 x p + 0 x p - p2 = p (1 - p) = p q Loi binomiale Exemple introductif: Je joue aux dés. Je considère que l’épreuve n’a que 2 résultats: S = { obtenir 6} = {6} E = { ne pas obtenir le 6} = {1, 2, 3, 4, 5} On a donc P(S) = 1/6 et P(E) = 5/6. Je lance un dé 3 fois de suite. C’est une suite d’épreuves de Bernoulli. L’ensemble des événements est : {SSS, SSE, SES, SEE, ESE, ESS, EES, EEE}. Supposons que je m’intéresse au nombre X de succès. C’est une variable aléatoire qui peut prendre les valeurs 0, 1, 2 et 3. P (X = 0) = P({EEE}) = P(E) P(E) P(E) = (5/6)3. 12 P (X = 1) = P({SEE, ESE, EES}) = P({SEE}) + P({ESE}) + P({EES}) = P(S) P(E) P(E) + P(E) P(S) P(E) + P(E) P(E) P(S) P(X = 1) = 3 * (5/6)2 * 1/6. Le nombre 3 est le nombre d’épreuves comportant 2 succès. C’est ce que l’on appelle plus généralement le nombre de 3! combinaisons de 3 éléments 2 à 2 , noté C2 , où n! désigne 3 2!( 3 2)! le produit des n premiersnombres entiers. En continuant les calculs, on montre, P (X = 2) = 3 * (1/6)2 * 5/6 P(X = 3) = (1/6)3. Evaluons E(X) = 0 * (5/6)3 + 1 * 3 * (5/6)2 (1/6) + 2 * 3 (5/6) (1/6)2 + 3 (1/6)3 = ( 3 * 25 + 6 * 5 + 3) /216 = 108/216 = 1/2 Remarquons que E(X) est le produit du nombre d’épreuves (3) par la probabilité de succès (1/6). Evaluons var (X) = E(X2) - [E(X)]2 = 02 * (5/6)3 + 12 * 3 * (5/6)2 (1/6) + 22 * 3 (5/6) (1/6)2 + 32 (1/6)3 - (1/2)2 = ( 3 * 25 + 12 * 5 + 9) /216 - ¼ = 90/216 = 5/12. Remarquons que var(X) est le produit du nombre d’épreuves (3) par la probabilité (1/6) de succès par la probabilité d’échec (5/6). 13 Généralisation On effectue n épreuves de Bernoulli (réussite ou échec du même événement A) successivement, de telle façon que le résultat de l’une soit indépendant de l’autre. Ainsi, on dispose de n variables aléatoires X1, X2, ..., Xn d’espérance p et de variance pq et on s’intéresse à la variable somme X = X1 + X2 + ... + Xn. qui permet de compter le nombre de succès de l’événement A en n épreuves. X suit une loi binomiale de paramètre n et p et notée B (n, p) telle que: P(X = k) = C k pk qn-k n avec C k = n! /k! (n-k)! n et où n! désigne le produit des n premiers nombres entiers n! = n (n-1) ...2 1. Propriétés caractéristiques d’une loi binomiale E(X) = E(X1) + E(X2) + ...+ E(Xn) = n E(X1) = np var (X) = npq Remarque: Si p= q = 1/2, la loi est symétrique. 14 Exemple: 2 salles de spectacle occupent les mêmes crénaux de clientèle qu’elles se partagent. Cette clientèle est potentiellement de 1 000 spectateurs par spectacle. On suppose qu’un spectateur potentiel a autant de chances de choisir une salle que l’autre. Combien de places doit-on prévoir dans chaque salle pour satisfaire la demande dans 90% des cas? Soit X le nombre aléatoire de spectateurs pour l’une quelconque des salles. On cherche k tel que P(X < k) 0,9 ou P(X k) < 0,1. Comme il s’agit d’inégalité, on peut penser à appliquer l’inégalité de Bienaymé-Tchebytchev. La variable aléatoire X suit une loi binomiale B (1000; 1/2). E(X) = 500 var(X) = 1000 * 1/2 * 1/2 = 250 L’inégalité de Bienaymé-Tchebytchev s’écrit alors: P(|X - 500| 250) < 1/2 Comme la loi binomiale est symétrique, cela revient à trouver tel que : 2 P(X - 500 250) < 1/2 ou P(|X - 500| 250) < 1/22 Il suffit donc de prendre 1/22= 1-0,9 = 0,1, soit 2 = 5 et = 5 On a alors X - 500 > 5 * 250 = 35,35. Comme on cherche un nombre entier, il faut que X > 536. 15 Loi de Poisson C’est une loi qu’on applique lorsqu’il s’agit événements répartis dans le temps ou l’espace. On parle de « processus de Poisson » lorqu’il s’agit d’événements remplissant des conditions suivantes: - la probabilité de réalisation p de l’événement au cours d’une petite période ou sur une petite portion d’espace t est proportionnelle à t, soit: p t - la réalisation de l’événement est indépendante de ce qui s’est produit antérieurement ou à côté - la probabilité de deux apparitions sur le même t est négligeable. Exemple de processus de Poisson: appels téléphoniques sur un standard, arrivées au péage d’une autoroute ou à un guichet automatique de banque, etc Plus précisément, le nombre X d’événements aléatoires sur un intervalle d’amplitude T est une variable aléatoire de Poisson, si X prend les valeurs 0, 1, 2, ... avec les probabilités: P(X = k) = e-m mk /k! avec m = p T Remarque: en principe, k peut être infini; mais la probabilité diminue quand k augmente. Propriétés caractéristiques de la loi de Poisson P(m): 16 E(X) = m var(X) = m Exemple: L’arrivée de clients à un guichet de service public est considéré comme un processus de Poisson. On sait que le nombre moyen de clients s’adressant à ce guichet est de 2 toutes les 3 minutes. Calculer la probabilité d’arrivée de 10 clients pendant une période de 12 minutes. Il faut d’abord déterminer le paramètre de la loi de Poisson m = 2/3 * 12 = 8 d’où P(X = 10) = e-8 810 /10! soit environ 0,09926 Remarque: lorsque n sera grand et p petit , on substituera à une loi binomiale B (n,p) une loi de Poisson de paramètre m = np. Plus précisément, les conditions exigées sont formulées sous diverses formes, soit n > 50 et np < 5, soit n > 30, p 0,1 et np < 5. 17 Exemple: Des machines fabriquent en série des plaques de tôle destinées au montage de transformateurs électriques. L’expérience montre que, lors de la fabrication, la probabilité pour qu’une plaque soit inutilisable est 0,001. Soit X la variable aléaoire prenant pour valeur le nombre de pièces inutilisables dans un lot de 3 000 pièces. Partie A: Quelle est la loi de probabilité suivie par X? Préciser son espérance mathématique. Soit l’événement I = {la plaque fabriquée est inutilisable} On a P(I) = 0,001. Lorsque la machine fabrique en série 3 000 pièces successivement, les résultats (pièce utilisable ou non) sont indépendants les uns des autres. La variable aléatoire X suit donc une loi binomiale B (3000, 0,001). Son espérance est donc 3 000 * 0,001 = 3 Partie B : On suppose que la loi de X peut être approchée par la loi de Poisson. Calculer alors, la probabilité pour que dans un lot de 3 000 plaques on observe: a) aucune plaque inutilisable b) au plus deux plaques inutilisables. c) au moins quatre plaques inutilisables 18 Remarquons que ce problème remplit les condions généralements admises pour approcher une binomiale par une loi de Poisson puisque n = 3 000, p= 0,001 et np = 3. P(X = k) = e-3 (3)k/k! a) Il s’agit de calculer P(X = 0) = e-3 (3)0/0! En appliquant la convention 0! = 1, il vient: P(X = 0) = e-3 = 0,050 à 10-3 près b) Il s’agit de calculer P(X < 3) = P(X 2) = P(X = 0 ou X = 1 ou X = 2) P(X 2) ) = P(X = 0) + P(X = 1) + P( X = 2) P(X 2) = e-3 + 3 e-3 + 9/2 e-3 = 17/2 e-3 = 0,423 à 10-3 près c) Il s’agit de calculer P(X 4) = 1 - P(X < 4) P(X 4) = 1 - [P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3)] P(X 4) = 1 - [e-3 + 3 e-3 + 9/2 e-3 + 27/6 e-3] = 1 - 26/2 e-3 P(X 4) = 0,353 à 10-3 près. Remarquons que nous avons ici P(X = 2) = P(X = 3). De manière générale, on peut comparer pour une loi de Poisson de paramètre m, P (X = k) et P (X = k-1). On a en effet P(X = k) / P(X = k - 1) = e-m mk (k-1)!/e-m mk-1 k! P(X = k) / P(X = k - 1) = m/k Si m est entier > 0, on peut avoir m= k, et alors P(X=m) = P(X=m - 1) 19 Pour m < k , on a P(X = k + 1) < P(X = k) pour m > k, on a P(X = k) > P(X = k-1) Ainsi, on voit que la loi de Poisson de paramètre m admet un maximum qui est P(X = m). Ainsi donc m - 1 < k < m. 20 Exemple: Soit une entreprise fabriquant des carreaux. Ces carreaux présentent deux types de défauts: défaut A (carreau cassé ou fêlé), défaut B (carreau mal dimensionné). La probabilité qu ’un carreau ait le défaut A est 0,05 et la probabilité qu’un carreau ait le défaut B est 0,03. On suppose que les deux défauts sont indépendants. 1) Calculer la probabilité des événements suivants: a) un carreau présente les deux défauts: Soit A = {le carreau présente le défaut A} B = {le carreau présente le défaut B} Il s’agit donc de calculer P(AB) P(AB) = P(A) P(B) puisque les événements A et B sont indépendants. P(AB) = 0,05 * 0,03 = 0,0015 b) un carreau présente un seul défaut Il s’agit de l’évênement (ABc)(AcB) avec (ABc) et (AcB) incompatibles. D’où P[(ABc)(AcB)] = P(ABc) + P(AcB) = P(A) P(Bc) + P(Ac) P(B) du fait de l’indépendance = 0,05*0,097 + 0,95*0,03 = 0,077 21 c) un carreau soit acceptable, c’est-à-dire qu’il ne présente aucun des deux défauts Il s’agit de l’événement Ac Bc = (AB)c or P[(AB)c] = 1 - P(AB) d’où = 1 - [P(A) + P(B) - P(AB)] = 1 -[0,05 + 0,03 - 0,0015] = 0,9215 d) un carreau est défectueux, c’est-à-dire qu’il présente au moins un défaut Il s’agit de l’événement AB dont la probabilité est 0,0785. 2) On prélève de manière indépendante un échantillon de 100 carreaux. Soit X la variable aléatoire qui associe à chaque échantillon de 100 carreaux le nombre de carreaux défectueux de cet échantillon. a) Quelle est la loi de X? Calculer son espérance et son écart-type. Un carreau est défectueux ou ne l’est pas avec une probabilité 0,0785. Le nombre de carreaux défecteux suit donc une loi binomiale B (100; 0,0785) d’espérance E(X) = 100 * 0,0785 = 7,85 de variance V(X) = 100 * 0,0785 * (1 - 0,0785) = 7,2338 d’écart-type = 2,69 en arrondissant au centième 22 b) Déterminer la probabilité que le nombre de carreaux défectueux soit supérieur ou égal à 4, en supposant que la loi binomiale puisse être approchée par une loi de Poisson de paramètre 7,85. P(X 4) = 1 - P(X < 4) 1 - [P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3)] 1 - [e-7,85 + e-7,85 (7,85)/1! + e-7,85 (7,85)2/2! + e-7,85 (7,85)3/3! ] = 0,9535 23 Application des Probabilités en Statistique types de problèmes: - estimation d’une proportion par intervalle de confiance - estimation d’une moyenne par intervalle de confiance - recherche de taille d’un échantillon Nous allons voir quelques exemples de ce type de questions à l’aide de l’inégalité de Bienaymé-Tchebitchev. Les résultats portant sur l’estimation reposent sur les propriétés suivantes: Soit une suite de variables aléatoires indépendantes, de même loi, de même espérance mathématique m et de même variance 2. Alors leur moyenne se rapproche de E(X) = m (on dit qu’elle « converge en probabilité » vers E(X) = m), et la variance est V(X) = 2 /n. Signalons que, pour de grandes tailles des échantillons, on peut obtenir des résultats beaucoup plus précis grâce à une variable continue particulière: la loi normale. 24 Exemple de recherche d’un intervalle de confiance Au cours d’un mois donné, un échantillon aléatoire de 10 salariés choisis dans une grande population de salariés qui ont reçu un salaire moyen de 6 480 F. On suppose que l’écart-type des salaires de la population est de 84 F. A quel intervalle de confiance accorderait-on un coefficient de confiance d’au moins 95% qui puisse recouvrir la moyenne de la population ? En admettant que l’écart-type de la population est celui de l’énoncé, la formule de Bienaymé-Tchebitchev s’écrira P{|X - 6 480| k 84} 1/k2 Puisqu’on veut une confiance d’au moins 95%, on a 1/k2 = 0,05 d’où 0,05 k2 = 1 k2 = 20 k = 4,47 Donc le salaire moyen appartient à l’intervalle ]6 480 - 4,47*84, 6 480 + 4,47*84 [ soit ]6 104,52 , 6 855,48[ Remarque: si c’est l’écart-type de l’échantillon qui est connu, on estime l’écart-type de la population par 84/10. Alors l’intervalle est ]6 480 - 4,47*84/10 , 6 480 + 4,47*84/10[ = ]6361,26 , 6598,74[ 25 Exemple de recherche de taille d’échantillon Dans une élection, seuls deux candidats restant en présence. D’après un sondage, un électeur vote pour le candidat A avec une probabilité 1/4 et pour le candidat B avec une probabilité 3/4. Combien faut-il interroger d’électeurs pour que l’on puisse affirmer avec 1% d’erreur que les chances du candidat A sont connues avec une précision de 0,05 ? Remarque 1: nous définissons deux « seuils »: l’écart à l’espérance mathématique qui est égal à 0,05 et la probabilité d’erreur (ou risque) qui est égale à 0,01. Soit n le nombre d’électeurs interrogés. Soit X la variable aléatoire « l’électeur vote pour le candidat A ». Il n’y a que deux alternatives. C’est donc une variable de Bernouilli et E(X) = 0,25. Soit N la variable aléatoire égale à la proportion des électeurs qui votent pour le candidat A. Remarque2: On montre que si l’on étudie non pas le nombre de succès, mais la proportion des succès sur les n épreuves tentées, cette proportion suit encore une loi binomiale d’espérance p (proportion dans la population) et de variance pq/n. N suit une loi binomiale. 26 Son espérance est E(N) = 0,25. et sa variance V(N) = 0,25 * 0,75 / n. L’inégalité de Bienaymé- Tchebitchev, pour 1/t2 = 0,01, soit t = 10, s’écrit: P{ | N - 0,25 | 10 } 0,99 Il faut donc 10 0,05 soit 10 * (0,25 * 0,75 / n)1/2 0,05 et donc en portant au carré: 0,25 * 0,75 / n (0,005)2 soit n 0,25 * 0,75 / (0,005)2 et donc n 7 500. Remarque 3: si on admet un risque d’erreur plus grand, soit 5%, on a 1/t2 = 0,05 soit t = 4,47 4,47 * (0,25 * 0,75 / n)1/2 0,05 n 0,25 * 0,75 * (4,47)2 / (0,05)2 n 1 498,57 soit n 1 499 !!! On voit donc qu’une plus grande précision va nécessiter un échantillon plus grand.