Lois de probabilité usuelles 1 Variables aléatoires Soit Ω l’univers d’une expérience aléatoire muni de la probabilité P . Définition 1.1 (Variable aléatoire) Une variable aléatoire définie sur Ω associe à chaque issue, une valeur numérique. Les variables aléatoires que nous étudierons sont des applications (des fonctions) de Ω dans R. Par exemple, au jeu de pile ou face, on peut décider qu’obtenir pile rapporte 1 e, alors qu’obtenir face fait perdre 1 e. On définit alors la variable aléatoire X par : X(pile) = 1 et X(face) = −1, qui donne le gain en euros en fonction du résultat de l’expérience aléatoire. Définitions et notations 1.2 ({X 6 x}, Fonction de répartition) Soit X une variable aléatoire définie sur Ω. L’ensemble des éléments de Ω dont l’image par X est inférieure ou égale au nombre réel x se note : {X 6 x}, et cet ensemble est un événement. La probabilité de cet événement se note : P (X 6 x). La fonction de répartition de la variable aléatoire X est la fonction FX (parfois notée simplement : F ) définie sur R par : FX (x) = P (X 6 x). 2 Variables aléatoires discrètes Définition 2.1 (Variable aléatoire discrète) Soit X : Ω → R une variable aléatoire. On dit que X est une variable aléatoire discrète s’il n’y a pas plus d’images par X que d’éléments dans N. Notations 2.2 ({X = xi }, P (X = xi )) Soit X une variable aléatoire discrète. Soit {xi ∈ R | i ∈ I}, avec I ⊂ N, l’ensemble des images par X des éléments de Ω. Pour tout i dans I, l’ensemble des antécédents de xi par X : {ω ∈ Ω|X(ω) = xi } est l’événement noté : {X = xi }. La probabilité de l’événement {X = xi } se note : P (X = xi ). Définition 2.3 (Loi de probabilité d’une variable aléatoire discrète) Soit X une variable aléatoire discrète. Soit {xi ∈ R | i ∈ I}, avec I ⊂ N, l’ensemble des images par X des éléments de Ω. La loi de probabilité de X est l’ensemble des couples : (x i , P (X = xi )) pour i ∈ I. Définition et notation 2.4 (Espérance) Soit X une variable aléatoire discrète prenant les valeurs 1 xi , pour i ∈ I ⊂ N. Dans le cas où I n’est pas une partie finie de N, on exige 1. L’ensemble des images des éléments de Ω par X est : {xi ∈ R | i ∈ I ⊂ N}. 1 2 2 VARIABLES ALÉATOIRES DISCRÈTES P que i∈I P (X = xi )|xi | soit une série numérique convergente 2. L’espérance (ou : l’espérance mathématique, ou encore : la moyenne) de la variable aléatoire X se note E(X) et est définie par : X E(X) = P (X = xi )xi . i∈I Que représente l’espérance d’une variable aléatoire ? Pour tenter de cerner la signification de l’espérance d’une variable, le théorème suivant (admis) sera d’un grand secours. Théorème 2.1 (Loi faible des grands nombres) Soit n ∈ N r {0}. On considère une même expérience aléatoire réalisée n fois dans les mêmes conditions. Soit Ω l’univers de l’expérience aléatoire, et P la probabilité dont Ω est muni. Soit X : Ω → R une variable aléatoire ayant pour espérance m. Pour k ∈ N ∩ [1, n], notons Xk la variable aléatoire égale à X et associée à la k-ième réalisation de l’expérience aléatoire. Pn 1 Dans ces conditions, la suite des variables aléatoires X = X converge en probabilité n n k=1 k vers m ; c’est à dire, pour tout ε > 0, lim P X n − m 6 ε = 1. n→+∞ Ce théorème indique que pour n assez grand, il est presque certain que X n prend la valeur m. En d’autres termes, on retrouve l’idée intuitive que plus l’expérience aléatoire est répétée de façon identique, plus la moyenne des valeurs prises par X lors de chaque répétition de l’expérience se stabilise autour de l’espérance (appelée également : moyenne) de X. Ainsi, en reprenant l’exemple figurant en page 1 du jeu de pile ou face, on a : E(X) = P (X = −1) · (−1) + P (X = 1) · 1 = −0,5 + 0,5 = 0 ; le “gain moyen par partie” est nul. Ce jeu de pile ou face entre donc dans la catégorie des jeux équitables. Définition et notation 2.5 (Variance) Soit X une variable aléatoire discrète d’espérance E(X) ∈ R, et prenant les valeurs xi , i ∈ I ⊂ N. Dans le cas où I n’est pas une partie finie de P N, on exige que i∈I P (X = xi )x2i converge 3. La variance de X, notée V (X) ou σ 2 (X), est définie par : X V (X) = P (X = xi ) (xi − E(X))2 = E X 2 − (E(X))2 . i∈I Définition et notation 2.6 (Écart-type) Soit X une variable aléatoire discrète de variance V (X) ∈ R+ . L’écart-type de X, notée σ(X), est défini par : p σ(X) = V (X). On rencontre parfois les notations σX ou σ pour l’écart-type. Théorème 2.2 Avec les conditions de la définition 2.5, on a : X V (X) = P (X = xi )x2i − (E(X))2 . i∈I Définitions 2.7 (Variable aléatoire centrée, réduite) Soit X une variable aléatoire discrète. Si E(X) = 0, alors on dit que X est une variable aléatoire centrée. Si σ(X) = 1, alors on dit que X est une variable aléatoire réduite. Si E(X) = 0 et σ(X) = 1, alors on dit que X est une variable aléatoire centrée réduite. 2. Nous n’aurons, dans la pratique, pas à nous préoccuper d’étudier cette convergence. Cette contrainte n’est présente dans la définition que pour que le cas : I infini, ne soit pas laissé de côté. Cette préoccupation théorique ne devrait pas apparaître dans un sujet d’examen. 3. Voir la note 2 DUT Génie Biologique Année universitaire 2007/2008 3 Exercice 2.1 Le jeu consiste à lancer simultanément deux dés à six faces numérotées de un à six. Pour n’importe lequel des deux dés, toutes les faces ont la même probabilité d’être obtenues. Le résultat du lancé est la somme des nombres apparus sur la face supérieure de chacun des dés. La mise initiale d’un joueur est de α e. Si le joueur obtient 2, 3, 4, 5 ou 6, alors il perd sa mise. Si le joueur obtient 7 ou 8, alors il touche 9 e. Si le joueur obtient un résultat supérieur ou égal à 9, alors il touche 18 e. On note X la variable aléatoire qui à chaque résultat de lancé associe la somme versée au joueur. 1. À l’aide d’un tableau à doubles entrées, déterminer quel est l’événement élémentaire le plus probable (celui qui a la plus forte probabilité). 2. Que représente E(X)? 3. Quel doit être le montant de la mise pour que le jeu soit équitable? (Jeu équitable : espoir de gain nul.) 3 Loi de Bernoulli Définition 3.1 (Épreuve de Bernoulli) Une épreuve de Bernoulli est un épreuve à deux issues, souvent appelées : « succès » et « échec ». On suppose que la probabilité de l’événement : « un succès a été obtenu » vaut p ; et donc, la probabilité de l’événement contraire : « un échec a été obtenu » vaut q = 1 − p. Définition et notation 3.2 (Loi de Bernoulli B(p)) On considère une épreuve de Bernoulli. On suppose que la probabilité de l’événement : « un succès a été obtenu » vaut p ; et donc, la probabilité de l’événement contraire : « un échec a été obtenu » vaut q = 1 − p. Soit X la variable aléatoire qui associe la valeur 1 à « un succès a été obtenu » et la valeur 0 à « un échec a été obtenu ». La variable aléatoire X suit alors la loi de Bernoulli de paramètre p. Cette loi est notée : B(p). Théorème 3.1 (Espérance) Soit X une variable aléatoire suivant la loi de Bernoulli B(p). On a : E(X) = p. Théorème 3.2 (Variance) Soit X une variable aléatoire suivant la loi de Bernoulli B(p). On a : V (X) = p(1 − p). 4 Loi binomiale Définition 4.1 (Schéma de Bernoulli) On considère une épreuve de Bernoulli. On effectue, dans les mêmes conditions, n fois de suite cette épreuve (n ∈ N r {0}). Les n répétitions de l’épreuve sont indépendantes les unes des autres. À quoi ressemble l’univers du schéma de Bernoulli décrit ci-dessus ? L’univers Ω est ici un ensemble de n-uplets. Pour simplifier le problème supposons que l’expérience soit répétée trois fois. « succès » est représenté par a et « échec » par b. Dans ce cas, Ω = {(a, a, a), (a, a, b), (a, b, a), (b, a, a), (a, b, b), (b, a, b), (b, b, a), (b, b, b)}. La notation (a, a, b) signifie que lors de la première expérience aléatoire, le résultat obtenu fut : a, lors de la seconde, le résultat fut : a, et lors de la troisième, le résultat fut : b. Supposons T. Cuesta IUT de Créteil 4 4 LOI BINOMIALE que la probabilité d’obtenir a soit égale à p et que la probabilité d’obtenir b soit égale à q. Comme il n’y a que deux issues, on a : q = 1 − p. Les trois événements A : « le résultat de la première épreuve est a », B : « le résultat de la deuxième épreuve est a » et C : « le résultat de la troisième épreuve est b » sont indépendants. On en déduit que P ({(a, a, b)}) = P (A ∩ B ∩ C) = P (A)P (B)P (C) = pp(1 − p) = p2 (1 − p). Comme il y a autant de triplets où a apparaît deux fois que de sous-ensembles à deux éléments dans un ensemble à trois éléments, on obtient que la probabilité d’obtenirexactement deux fois le résultat a lorsque l’expérience aléatoire est répétée trois fois vaut : 32 p2 (1 − p). Théorème 4.1 On considère une épreuve ayant deux issues : a et b. La probabilité d’obtenir a comme résultat de l’expérience aléatoire est p. La probabilité d’obtenir b est q = 1−p. On répète n fois cette épreuve dans les conditions du schéma de Bernoulli. Soit X la variable aléatoire comptabilisant le nombre de réalisations de {a} au cours des n répétitions de l’épreuve. On a alors, pour tout entier naturel 4 k : n k P (X = k) = p (1 − p)n−k . k Démonstration 4.1 La probabilité d’obtenir a lors des k premières répétitions de l’épreuve, puis b lors des n − k suivantes est, puisque les répétitions sont indépendantes les unes des autres, p k (1 − p)n−k . Comme il y a autant de n-uplets où a apparaît exactement k fois que de sous-ensembles à k éléments dans un ensemble à n éléments, on en déduit le théorème. Définition et notation 4.2 (Loi binomiale B(n, p)) La variable aléatoire X du théorème 4.1 a pour loi de probabilité la loi binomiale de paramètres n et p. Le premier paramètre : n, est le nombre de répétitions de l’épreuve à deux issues ; le second paramètre : p, est la probabilité d’obtenir a comme résultat de l’épreuve à deux issues. La loi binomiale de paramètres n et p se note : B(n, p). Théorème 4.2 (Espérance) L’espérance de la variable aléatoire X, suivant la loi binomiale B(n, p), est : E(X) = np. Démonstration 4.2 Par définition, on a : n n X X n k n k n−k E(X) = k p (1 − p) = k p (1 − p)n−k . k k k=0 k=1 Or, pour k 6= 0 (et donc n 6= 0), n−1 (n − 1)! n n! . =n =n =k k k−1 k!(n − k)! (k − 1)!(n − 1 − (k − 1))! k On en déduit : n X n − 1 k−1 E(X) =np p (1 − p)n−1−(k−1) k−1 k=1 n−1 X n − 1 =np pi (1 − p)n−1−i = np(p + 1 − p)n−1 = np. i i=0 4. On rappelle que si k > n, alors DUT Génie Biologique n k = 0. Année universitaire 2007/2008 5 Théorème 4.3 (Variance) La variance 5 de la variable aléatoire X, suivant la loi de probabilité B(n, p), est : V (X) = np(1 − p). Démonstration 4.3 La variance de X est donnée V (X) = n X k=0 6 par : k 2 Cnk pk (1 − p)n−k − (E(X))2 = n X k=1 k 2 Cnk pk (1 − p)n−k − (np)2 . D’après la démonstration 4.2, on a : n X k=1 k 2 Cnk pk (1 − p)n−k = np n X k=1 k−1 k−1 kCn−1 p (1 − p)n−1−(k−1) n−1 X i (i + 1)Cn−1 pi (1 − p)n−1−i = np = np i=0 n−1 X i=0 i iCn−1 pi (1 − p) n−1−i + = np (n − 1)p + (p + (1 − p))n−1 n−1 X i pi (1 Cn−1 i=0 − p) n−1−i ! = np(np − p + 1) = (np)2 + np(1 − p) D’où : V (X) = np(1 − p). Exercice 4.1 BTS Comptabilité gestion, session 2000, exercice 2 Dans une entreprise, un stage de formation à l’utilisation d’un nouveau logiciel de gestion a été suivi par 25 % du personnel. Ainsi la probabilité qu’une personne choisie au hasard dans l’entreprise ait suivi ce stage est p = 0,25. Les parties A et B peuvent être traitées de façon indépendante. Partie A On choisit au hasard n personnes de cette entreprise. On suppose que l’effectif est suffisamment important pour assimiler ce choix à un tirage avec remise. 1. Dans cette question, n = 10. On note X la variable aléatoire qui, à tout ensemble de 10 personnes ainsi choisies, associe le nombre de personnes ayant suivi le stage. (a) Expliquer pourquoi X suit une loi binomiale. Indiquer les paramètres de cette loi. (b) Déterminer, à 10−2 près, la probabilité des événements suivants : E1 : « Parmi 10 personnes choisies au hasard, exactement 2 personnes ont suivi le stage » ; E2 : « Parmi 10 personnes choisies au hasard, au plus une personne a suivi le stage ». 2. Dans cette question, n = 500. On note Y la variable aléatoire qui, à tout ensemble de 500 personnes choisies, associe le nombre de personnes ayant suivi le stage. On admet que la variable aléatoire Y suit la loi binomiale de paramètres n = 500 et p = 0,25. (a) Déterminer l’espérance mathématique de la variable aléatoire Y . En donner une interprétation. Déterminer une valeur approchée, arrondie à 10 −1 près, de l’écart-type de la variable aléatoire Y . 5. La variance de la variable aléatoire X suivant la loi B(n, p) n’est pas donnée dans le formulaire ; c’est √ l’écart-type qui est donné par σ(X) = npq, avec q = 1 − p. 6. On rappelle que Cnk = nk . T. Cuesta IUT de Créteil 6 5 LOI GÉOMÉTRIQUE (b) (question relative à une loi normale) Partie B Dans cette entreprise, le personnel comprend 52 % de femmes. L’événement F : « une personne choisie au hasard dans l’entreprise est une femme » a donc pour probabilité P (F ) = 0,52. On rappelle que 25 % du personnel a suivi le stage de formation à l’utilisation du nouveau logiciel de gestion. L’événement S : « une personne choisie au hasard dans l’entreprise a suivi le stage » a donc pour probabilité P (S) = 0,25. Enfin, 40 % du personnel féminin de cette entreprise a suivi le stage. La probabilité conditionnelle correspondante est P (S/F ) = 0,4 ou P F (S) = 0,4. 1. Calculer la probabilité de l’événement A : « une personne choisie au hasard dans l’entreprise est une femme et a suivi le stage ». 2. Calculer la probabilité de l’événement B : « une personne choisie au hasard parmi les personnes ayant suivi le stage est une femme ». 5 Loi géométrique Soit une épreuve de Bernoulli pour laquelle la probabilité de « succès » vaut p et la probabilité d’« échec » vaut q = 1 − p. On considère, comme pour la loi binomiale, un schéma de Bernoulli. On suppose cependant que l’épreuve de Bernoulli est répétée une indéfiniment. Définition et notation 5.1 (Loi géométrique G(p)) Soit X la variable aléatoire qui à un schéma de Bernoulli associe le nombre d’essais nécessaires à l’obtention du premier succès. La variable aléatoire X suit la loi géométrique de paramètre p. Cette loi est notée : G(p). Théorème 5.1 Soit X une variable aléatoire qui suit la loi géométrique de paramètre p. Alors, P (X = k) = p(1 − p)k−1 . Démonstration 5.1 L’indépendance des épreuves implique que la probabilité d’avoir un échec au premier, au second,. . . , au k − 1-ème essai, et un succès au k-ème, est égale au produit des probabilités de chacun de ces événements. Les démonstrations des formules donnant la moyenne et l’écart-type ne seront pas données. P 1 = k≥0 xk , pour tout x dans [0, 1[. Elles reposent, sauf si p = 1, sur l’égalité : 1−x Théorème 5.2 (Espérance, Variance) Soit X une variable aléatoire qui suit la loi géométrique G(p) avec p 6= 0. On a alors : E(X) = 1 p et V (X) = 1−p p Exercice 5.1 Un procédé de production fournit 0,5% de pièces non conformes. On prélève et on contrôle une à une des pièces, jusqu’à obtention d’une pièce non conforme. On suppose le stock de pièces suffisamment important pour assimiler ce tirage à un tirage avec remise. 1. Quelle est la probabilité que vingt essais soient nécessaires avant de tirer du stock une pièce non conforme? 2. Quelle est, en moyenne, le nombre de pièces à prélever pour obtenir une pièce non conforme? DUT Génie Biologique Année universitaire 2007/2008 7 6 Loi hypergéométrique La loi hypergéométrique est la loi que suit une variable aléatoire qui compte le nombre d’individus dans un échantillon présentant un caractère donné, lorsque la population n’est pas suffisamment vaste pour assimiler ce prélèvement d’échantillon à un tirage avec remise. Dans ce cas, la proportion d’individus présentant le caractère étudié varie à chaque fois qu’un individu est prélevé dans la population. La loi binomiale n’est plus adaptée. Définition et notation 6.1 (Loi hypergéométrique H(N, D, n)) On considère une population de N individus. Dans cette population, il y a D ≤ N indivudus présentant le caractère C. Soit X la variable aléatoire qui à tout échantillon de n individus issu de la population, associe le nombre d’individus présentant le caractère C. La variable aléatoire X suit la loi hypergéométrique H(N, D, n). Théorème 6.1 Soit X une variable aléatoire dont la loi de probabilité est H(N, D, n). Alors, pour tout entier naturel k : D N −D P (X = k) = k n−k N n . Démonstration 6.1 La démonstration est une question simple de combinatoire. Il faut d’abord se rappeler que ji = 0 dès que j > i. Si X = k, alors k individus ont été choisis parmi les D présentant le caractère, et n − k ont été choisis parmi des N − D ne présentant pas le caractère, pour constituer l’échantillon de N −D taille n. Le nombre de « cas favorables » est donc D k n−k , alors que le nombre de « cas possibles » N est n . Corollaire 6.1.1 (Identité de Vandermonde) n X N1 N2 N1 + N 2 = k n−k n k=0 Démonstration 6.1 (Démonstration du 6.1.1) Soit X une variable aléatoire de loi H(N 1 + N2 ,N1 ,n). La P somme des probabilités des événements élémentaires étant toujours égale à 1, on a : nk=0 P (X = k) = N2 Pn (Nk1 )(n−k ) k=0 (N1 +N2 ) = 1. On en déduit le résultat. n Nous admettrons les résultats suivants : Théorème 6.2 (Espérance) Soit X une variable aléatoire dont la loi de probabilité est H(N, D, n). Alors, nD E(X) = N D On remarquera que si on pose p = , alors, p est la probabilité de tomber sur un individu N présentant le caractère C lorsque l’on tire au hasard un individu dans la population. Avec cette notation, on a : E(X) = np. On retrouve, bien que la probabilité de tirer un individu présentant le caractère C varie lors de la constitution de l’échantillon de taille n, le résultat de l’espérance d’une variable aléatoire suivant la loi B(n, p). T. Cuesta IUT de Créteil 8 7 LOI DE POISSON Théorème 6.3 (Variance) Soit X une variable aléatoire dont la loi de probabilité est H(N, D, n). Alors, nD N − D N −n V (X) = N N N −1 D −D −n En posant p = N et q = 1 − p = NN , on obtient : V (X) = npq N . On remarquera que la N −1 variance de X ne diffère de la variance d’un variable aléatoire qui suit la loi B(n, p) que d’un −n . facteur N N −1 N −n présent dans la formule de N −1 la variance dans le théorème 6.3 est appelé : facteur d’exhaustivité. Définition 6.2 (Facteur d’exhaustivité) Le coefficient Exercice 6.1 Un lot de 80 pièces contient 2,5% de pièces défectueuses. Quel est la probabilité qu’un échantillon de 10 pièces prélevé dans ce lot contienne au moins une pièce défectueuse? 7 Loi de Poisson Soit n ∈ N, k ∈ N ∩ [0, n] et p ∈ [0, 1]. On suppose que le produit np est constant. On pose λ = np. Le nombre k étant fixé, la quantité Cnk pk (1 − p)n−k a-t-elle une limite lorsque n tend vers +∞ (et p tend vers 0, puisque np est constant)? k n−k 1 − nλ . Cnk pk (1 − p)n−k = Cnk nλ λ n−k , quand n tend vers +∞. Calculons la limite de 1 − n n−k On sait que : 1 − nλ = exp (n − k) ln 1 − nλ .Le développement limité à l’ordre 1 de t 7→ ln(1+t) étant t+o(t), on en déduit que : ln 1 − nλ = − nλ +o nλ . D’où, (n−k) ln 1 − nλ = 1 − (n−k)λ + ε , où ε désigne une fonction continue en 0 et telle que ε(0) = 0. On sait que n n lim n−k = 1. On en déduit : lim (n − k) ln 1 − λn = −λ. La continuité de la fonction n→+∞ n n→+∞ exponentielle permet alors d’obtenir : lim exp (n − k) ln 1 − λn = exp(−λ). k Cnk λnk n! λk k!(n−k)! nk n→+∞ n(n−1)(n−2)···(n−(k−1)) λk . nk k! = = Le produit n(n − 1) · · · (n − (k −1)) est constitué de k facteurs. n(n−1)···(n−(k−1)) 1 2 On a : = 1 1 − n 1 − n · · · 1 − k−1 . n nk k m Comme lim 1 − n = 1, pour tout entier m fixé, on a : lim Cnk nλk = n→+∞ n→+∞ λk λ n−k k λ k = exp(−λ) k! . Conclusion : lim Cn n 1− n λk . k! n→+∞ Définition et notation 7.1 (Loi de Poisson P(λ)) Soit λ ∈ R∗+ . On dit que la variable aléatoire discrète X, à valeurs dans N, suit la loi de Poisson de paramètre λ, notée : P(λ), si pour tout k dans N : λk −λ P (X = k) = e . k! D’après ce qui précède cette définition, la loi de Poisson peut servir d’approximation d’une loi binomiale B(n, p) lorsque n est assez grand et p proche de 0 ; et dans ce cas, on utilisera la loi de Poisson P(np) comme approximation de B(n, p). Théorème 7.1 (Espérance) Soit X une variable aléatoire suivant la loi de Poisson P(λ). Alors, E(X) = λ. DUT Génie Biologique Année universitaire 2007/2008 9 PN P P λk −λ λk −λ λk −λ = lim . Or, N = Démonstration 7.1 On sait que : E(X) = +∞ k=0 k k! e k=0 k k! e k=0 k k! e N →+∞ PN PN −1 λk P P+∞ λk λk −λ λk−1 −λ λ −λ λ −λ λeλ = = e−λ λ N k=1 k k! e k=0 k! . On en déduit : E(X) = e k=1 (k−1)! = e k=0 k! = e λ. Théorème 7.2 (Variance) Soit X une variable aléatoire suivant la loi de Poisson P(λ). Alors, V (X) = λ. Démonstration 7.2 On sait que : P P N 2 λk e−λ − λ2 . Or, 2 λk e−λ − λ2 = lim k V (X) = +∞ k k=0 k=0 k! k! N →+∞ 2 λk −λ k=0 k k! e PN P λk−1 = λe−λ N k=1 k (k−1)! P P −1 PN −1 λk N −1 λk λk −λ =λe−λ N (k + 1) = λe + k=0 k=0 k! k=0 k k! k! P PN −1 λk−1 PN −2 PN −1 λk N −1 λk −λ =λe−λ k=1 (k−1)! = λe k=0 k=0 k! + λ k=0 k! + λ On obtient donc : lim N →+∞ = 2 λk −λ k=1 k k! e PN 2 λk −λ k=0 k k! e PN λk k! . = λe−λ eλ + λeλ = λ + λ2 . D’où : V (X) = λ. Exercice 7.1 BTS groupement A session 2001, exercice 2 Dans cet exercice, tous les résultats seront donnés à 10 −4 près. La question 3 peut être traitée indépendamment des questions 1 et 2. Une entreprise produit des batteries de téléphone portable. Au cours de la production peuvent apparaître deux défauts indépendants que l’on appellera défaut A et défaut B. La probabilité que le défaut A apparaisse vaut 0,02 et la probabilité que le défaut B apparaisse vaut 0,01. 1. Calculer la probabilité qu’une batterie soit défectueuse, c’est-à-dire qu’elle comporte au moins un des deux défauts. 2. On prélève au hasard dans la production un échantillon de 100 batteries. La production est suffisamment importante pour que ce prélèvement soit assimilé à un tirage avec remise. Soit X la variable aléatoire qui à tout échantillon de taille 100 associe le nombre de batteries défectueuses. (a) Quelle est la loi de probabilité que suit la variable aléatoire X ? Donner son espérance mathématique et sa variance. (b) On admet que la loi de X peut être approchée par une loi de Poisson. Quel est le paramètre de cette loi de Poisson? En utilisant cette approximation, calculer la probabilité que l’échantillon comporte plus de deux batteries défectueuses. 3. (Question relative à une loi normale). 8 Variables aléatoires continues Définition 8.1 (Variable aléatoire continue) Lorsqu’une variable aléatoire peut prendre toutes les valeurs d’un intervalle non vide et non réduit à un point, on dit que c’est une variable aléatoire continue. Exercice 8.1 Soit X une variable aléatoire continue. Montrer que pour tout a et tout b dans R, a < b: P (a < X 6 b) = P (X 6 b) − P (X 6 a). T. Cuesta IUT de Créteil 10 8 VARIABLES ALÉATOIRES CONTINUES Définition 8.2 (Densité de probabilité) Soit f une fonction continue, sauf éventuellement en un nombre fini de points,R définie sur R et à valeurs dans [0, + ∞[. On dit que f +∞ est une densité de probabilité 7 si : −∞ f (t) dt = 1. Définition 8.3 Soit f une densité de probabilité. On dit que la variable aléatoire continue X a pour densité de probabilité f lorsque la fonction de répartition F X de X vérifie : Z x (∀x ∈ R) FX (x) = P (X 6 x) = f (t) dt. −∞ On a alors : (∀x ∈ R) FX0 (x) = f (x). Ainsi que, pour tout a et tout b réels tels que a < b : Z b P (a < X 6 b) = f (t) dt. a Définition et notation 8.4 (Espérance ) Soit X une variable aléatoire continue de densité de probabilité f . Alors 9 l’espérance (espérance mathématique, moyenne) E(X) de la variable aléatoire X est définie par : Z +∞ E(X) = tf (t) dt. 8 −∞ Définition et notation 8.5 (Variance) Soit X une variable aléatoire continue de densité de probabilité f . Alors 10 la variance V (X) de la variable aléatoire X est définie par : Z +∞ t2 f (t) dt − (E(X))2 = E X 2 − (E(X))2 . V (X) = −∞ Définition et notation 8.6 (Écart-type) Soit X une variable aléatoire continue de variance V (X). L’écart-type σ(X) de X est défini par : p σ(X) = V (X). Exercice 8.2 On considère la fonction f définie sur R par : ( 0 si x 6∈ [0, 1] f (x) = 1 si x ∈ [0, 1] 1. Montrer que f est une densité de probabilité. 2. Soit X une variable aléatoire de densité de probabilité f . Calculer la moyenne et l’écart-type de X. Exercice 8.3 On considère la fonction f définie sur R par : ( 0 si x ∈] − ∞, 0[ f (x) = exp(−x) si x ∈ [0, + ∞[ 1. Montrer que f est une densité de probabilité. 2. Soit X une variable aléatoire de densité de probabilité f . Calculer la moyenne et l’écart-type de X. 7. R +∞ −∞ f (t) dt = lim a→−∞ lim Rb b→+∞ a f (t) dt = lim b→+∞ lim Rb a→−∞ a f (t) dt 8. Quelques éclaircissements sur la notion d’espérance peuvent être lus page 2. 9. Avec des conditions de convergence de l’intégrale dont nous ne nous préoccuperons pas. 10. Voir la note 9 DUT Génie Biologique Année universitaire 2007/2008 11 9 Loi normale (loi de Laplace-Gauss) La démonstration classique du résultat suivant utilise un calcul d’intégrale double. Ce résultat sera ici admis. 1 (x − m)2 ∗ Théorème 9.1 Soient m ∈ R et σ ∈ R+ . Alors f : R → R, x 7→ √ exp − 2σ 2 σ 2π est une densité de probabilité. Définition et notation 9.1 (Loi normale N (m, σ)) Soient m ∈ R et σ ∈ R∗+ . On dit que la variable aléatoire continue X suit la loi normale N (m, σ), lorsque la densité de probabilité de X est la fonction f définie sur R par : (t−m)2 1 f (t) = √ e− 2σ2 . σ 2π Remarque : Si X suit la loi normale N (m, σ), alors pour tout a et tout b dans R, a < b : P (a < X 6 b) = P (a < X < b) = P (a 6 X < b) = P (a 6 X 6 b). Théorème 9.2 (Espérance) Soit X une variable aléatoire suivant la loi N (m, σ). Alors, E(X) = m. Démonstration 9.2 En faisant abstraction de l’étude de la convergence des intégrales, on a : ! Z +∞ 1 x−m 2 1 x exp − dx E(X) = √ 2 σ σ 2π −∞ ! Z +∞ 1 x−m 2 1 x−m σ exp − − = −√ dx σ σ 2 σ 2π −∞ ! Z +∞ 1 x−m 2 1 exp − +m √ dx 2 σ σ 2π −∞ " !#+∞ 1 x−m 2 σ +m exp − = −√ 2 σ 2π −∞ =0+m=m Théorème 9.3 (Variance) Soit X une variable aléatoire suivant la loi N (m, σ). Alors, V (X) = σ 2 . Démonstration 9.3 En faisant abstraction de l’étude de la convergence des intégrales, on a : ! Z +∞ 1 1 x−m 2 2 2 E(X ) = √ x exp − dx 2 σ σ 2π −∞ ! Z +∞ 1 x−m 1 x−m 2 σ x dx exp − =√ σ 2 σ 2π −∞ σ ! Z +∞ 1 x−m 2 1 x exp − dx +m √ 2 σ σ 2π −∞ T. Cuesta IUT de Créteil 12 9 LOI NORMALE (LOI DE LAPLACE-GAUSS) R +∞ 2 D’une part, m σ√12π −∞ x exp − 12 x−m dx = m2 . D’autre part, une intégration par parties de σ R +∞ 1 x−m 1 x−m 2 √σ exp − dx permet d’obtenir comme résultat σ 2 . Comme V (X) = E(X 2 )− x σ 2 σ 2π −∞ σ (E(X))2 , on obtient : V (X) = σ 2 . On remarque que les paramètres m et σ de la loi normale N (m, σ) correspondent respectivement à la moyenne (l’espérance) et à l’écart-type de toute variable aléatoire suivant cette loi. Définition 9.2 (Loi normale centrée réduite) La loi normale dont les paramètres sont : m = 0 et σ = 1, notée N (0, 1), s’appelle la loi normale centrée réduite. Notation 9.3 La fonction de répartition d’une variable aléatoire T qui suit la loi normale centrée réduite N (0, 1) est notée : Π. On a donc : 2 Z t 1 x √ exp − Π(t) = P (T 6 t) = dx. 2 2π −∞ 2 La courbe représentative de la fonction f : R → R, x 7→ √12π exp − x2 , densité de probabilité d’une variable aléatoire suivant une loi normale centrée et réduite est donnée ci-dessous : 0,5 0 1 Cette courbe « en cloche » est une gaussienne 11 . Théorème 9.4 Pour tout t dans R : Π(−t) = 1 − Π(t). Démonstration 9.4 Π(−t) = Z −t −∞ 2 1 x √ exp − dt. 2 2π Le changement de variable u = −x, permet d’obtenir : 2 2 Z t Z +∞ 1 u 1 u √ √ exp − − Π(−t) = du = du exp − 2 2 2π 2π +∞ t Z t 1 u2 √ exp − =1 − du = 1 − Π(t). 2 2π −∞ Une « démonstration » plus visuelle et moins rigoureuse, consiste à utiliser la parité de la fonction densité de probabilité. On voit alors (dessin réalisé pour t > 0), que l’aire Π(−t) de la partie du plan comprise entre la courbe et l’axe des abscisses, située à gauche de la droite d’équation x = −t, est égale à l’aire 1 − Π(t) de la partie du plan comprise entre la courbe et l’axe des abscisses, située à droite de la droite d’équation x = t. 0,5 −t 0 t1 11. On appelle gaussienne une courbe représentative d’une densité de probabilité d’une variable aléatoire suivant une loi de Laplace-Gauss. DUT Génie Biologique Année universitaire 2007/2008 13 Théorème 9.5 Soit X une variable aléatoire suivant la loi N (m, σ). Notons T la variable . Alors, T est une variable aléatoire aléatoire définie pour tout ω dans Ω, par : T (ω) = X(ω)−m σ centrée réduite, et T suit la loi normale centrée réduite N (0, 1). Démonstration 9.5 X −m 6x σ FT (x) =P (T 6 x) = P Z σx+m (t−m)2 1 √ e− 2σ2 dt. = σ 2π −∞ Le changement de variable u = t−m σ = P (X 6 σx + m) dans cette dernière intégrale, permet d’obtenir : Z x u2 1 √ e− 2 du. FT (x) = 2π −∞ On en déduit p que T suit la loi normale N (0, 1). Alors, d’après les théorèmes 9.2 et 9.3, on a : E(T ) = 0 et σ(T ) = V (T ) = 1. Théorème 9.6 (Moivre-Laplace) Soit Xn une variable aléatoire suivant la loi binomiale B(n, p). On associe à Xn la variable centrée réduite Tn définie par : Tn = √Xn −np . Alors, pour np(1−p) tout a et tout b dans R, a < b, on a : lim P (a < Tn 6 b) = n→+∞ Z b a 2 1 x √ exp − dx. 2 2π Dans la pratique, pour npassez grand (n > 50) et p ni voisin de 0 ni voisin de 1, on estime que la loi normale N np, np(1 − p) est une bonne approximation de la loi binomiale B(n, p). Exercice 9.1 BTS groupement A session 2001, exercice 2 (Voir exercice 7.1 page 9) 3. On s’intéresse dans cette question à la durée de décharge des batteries. On note Y la variable aléatoire qui à tout échantillon de 100 batteries associe la moyenne des durées de décharge. On admet que la variable aléatoire Y suit la loi normale de paramètres m = 80 et σ = 0,4. (a) Calculer la probabilité : P (79 6 Y 6 81). (b) Déterminer le réel a tel que : P (Y > a) = 0,95. On donnera une valeur décimale approchée à 10−2 près par défaut de a. (c) Calculer la probabilité de l’événement : « (Y > 80) sachant que (Y > 79,34) ». Exercice 9.2 BTS Biochimiste, session 1996, exercice 1 Une entreprise produit en très grande quantité des ampoules d’une solution injectable. La probabilité qu’une ampoule, prise au hasard dans la production de l’usine, ne suive pas le cahier des charges et soit donc considérée comme défectueuse est 0,001. 1. On prélève au hasard 100 ampoules dans la production d’une journée. Le prélèvement s’effectue avec remise. On appelle X la variable aléatoire prenant pour valeur le nombre d’ampoules défectueuses de ce prélèvement. Quelle est la loi de probabilité de la variable aléatoire X ? Préciser ses paramètres, son espérance mathématiques, sa variance et son écart-type. T. Cuesta IUT de Créteil 14 10 LOI EXPONENTIELLE 2. On admet que l’on peut approcher la loi de probabilité de X par une loi de Poisson. (a) Quel est le paramètre de cette loi de Poisson? (b) Calculer les probabilités des événements suivants : A : « il n’y a aucune ampoule défectueuse dans le prélèvement ». B : « il y a au plus deux ampoules défectueuses dans le prélèvement ». 3. On a mesuré le volume de liquide dans chaque ampoule de ce prélèvement, et on a obtenu les résultats suivants : Volume [4,94 ; 4,96[ [4,96 ; 4,98[ [4,98 ; 5,00[ [5,00 ; 5,02[ en cm3 Effectif 11 22 30 18 Volume [5,02 ; 5,04[ [5,04 ; 5,06[ [5,06 ; 5,08[ en cm3 Effectif 10 8 1 Dans ce qui suit, les résultats seront donnés sous forme décimale arrondie au centième le plus proche. (a) Calculer une approximation de la moyenne x̄ et de l’écart-type σ e de cette série statistique. (b) Soit Y une variable aléatoire suivant la loi normale centrée réduite. Calculer le réel t 0,01 tel que P (−t0,01 6 Y 6 t0,01 ) = 0,99. (La dernière partie de la question porte sur un problème d’estimation) 10 Loi exponentielle Évolution temporelle d’une fiabilité On suppose qu’un équipement donné peut connaître une défaillance de manière aléatoire. On note R(t) la probabilité que l’équipement fonctionne encore à l’instant t ; R(t) est aussi la probabilité que la panne intervienne après l’instant t. Soit X la variable aléatoire qui donne l’instant auquel la panne survient. On a : P (X > t) = R(t). Notons F la fonction de répartition de X et notons f = F 0 sa densité de probabilité. On a : P (X ≤ t) = F (t) = 1 − R(t). Définition 10.1 (Taux de défaillance) Avec les notations ci-dessus, le rapport f (t) = R(t) Z(t) est la taux de défaillance à l’instant t. Dans le cas où Z est une fonction constante donnant λ pour image à tout t ≥ 0, on obtient 0 l’équation différentielle : λ = − RR , car f = F 0 = −R0 . On en déduit que R(t) = Ce−λt . On suppose qu’au temps t = 0 l’équipement fonctionne. On a donc R(0) = 1 ; ce qui permet de déterminer la valeur de C. On trouve C = 1. En intégrant R, on obtient : f (t) = λe−λt +C 0 . Or, pour que l’intégrale de f sur R converge, R +∞ on doit avoir C 0 = 0. On vérifie que −∞ f (t) dt = 1. Définition et notation 10.2 (Loi exponentielle E(λ)) Soit X une variable ( aléatoire conti0 si t < 0 . nue dont la densité de probabilité est la fonction f définie sur R par : f (t) = −λt λe si t ≥ 0 On dit alors que X suit la loi exponentielle de paramètre λ. Cette loi est notée : E(λ). DUT Génie Biologique Année universitaire 2007/2008 15 On démontre, à l’aide d’intégrations par parties, les résultats suivants : Théorème 10.1 (Espérance, Variance) Soit X une variable aléatoire suivant la loi exponentielle E(λ). Alors, 1 1 et V (X) = 2 . E(X) = λ λ Définition 10.3 (MTBF) L’espérance E(X) = λ1 de la variable aléatoire X de loi E(λ) est appelée : durée de vie moyenne ou MTBF (Mean Time Between Failures). Exercice 10.1 On considère un équipement industriel composé de machines dont la durée de vie suit une même loi exponentielle de durée de vie moyenne est égale à 20 000 heures. Quelle est la proportion de machines qui tomberaient en panne après expiration d’une garantie de 5 000 heures? 11 Loi du χ2 Définition et notation 11.1 (Loi du χ2 à n degrès de liberté) Soient X1 , X2 , . . . , Xn , n variables aléatoires indépendantes de même loi N (0, 1). La loi de la variable aléatoire X = X12 + X22 + · · · + Xn2 est appelée 12 loi du χ2 à n degrés de liberté. Cette loi est notée χ2 (n). La densité de probabilité de la loi χ2 (n) est suffisamment compliquée pour que nous n’en abordions pas l’étude. De même, nous admettrons : Théorème 11.1 (Espérance, Variance) Soit X une variable aléatoire suivant la loi χ 2 (n). Alors, E(X) = n et V (X) = 2n. La loi du χ2 intervient dans des problèmes d’estimation, de test d’hypothèses sur la la variance ou l’écart-type. Théorème 11.2 Soient XP 1 , X2 , . . . , Xn , n variables Pn aléatoires2 indépendantes de même loi n 1 1 2 N (µ, σ). On pose X = n i=1 Xi et S = n−1 i=1 (Xi − X) . Alors, la variable aléatoire Pn (Xi − X)2 (n − 1)S 2 X = i=1 2 = suit la loi χ2 (n − 1). σ σ2 12 Loi de Student Je ne proposerai ici aucune description de cette loi qui intervient dans des tests statistiques sur des échantillons de petites tailles. 13 Loi de Fisher-Snedecor Loi utilisée dans des tests statistiques de comparaison de deux variances d’échantillons. 12. Lire : « khi-deux ». T. Cuesta IUT de Créteil Loi normale centrée réduite 1 Valeurs de Π(t) = √ 2π t t Année universitaire 2007/2008 t 0.00 0.5000 0.5398 0.5793 0.6179 0.6554 0.6915 0.7257 0.7580 0.7881 0.8159 0.8413 0.8643 0.8849 0.9032 0.9192 0.9332 0.9452 0.9554 0.9641 0.9713 0.9772 0.9821 0.9861 0.9893 0.9918 0.9938 0.9953 0.9965 0.9974 0.9981 t e− −∞ x2 2 dx en fonction de t. 0.01 0.5040 0.5438 0.5832 0.6217 0.6591 0.6950 0.7291 0.7611 0.7910 0.8186 0.8438 0.8665 0.8869 0.9049 0.9207 0.9345 0.9463 0.9564 0.9649 0.9719 0.9778 0.9826 0.9864 0.9896 0.9920 0.9940 0.9955 0.9966 0.9975 0.9982 0.02 0.5080 0.5478 0.5871 0.6255 0.6628 0.6985 0.7324 0.7642 0.7939 0.8212 0.8461 0.8686 0.8888 0.9066 0.9222 0.9357 0.9474 0.9573 0.9656 0.9726 0.9783 0.9830 0.9868 0.9898 0.9922 0.9941 0.9956 0.9967 0.9976 0.9982 0.03 0.5120 0.5517 0.5910 0.6293 0.6664 0.7019 0.7357 0.7673 0.7967 0.8238 0.8485 0.8708 0.8907 0.9082 0.9236 0.9370 0.9484 0.9582 0.9664 0.9732 0.9788 0.9834 0.9871 0.9901 0.9925 0.9943 0.9957 0.9968 0.9977 0.9983 0.04 0.5160 0.5557 0.5948 0.6331 0.6700 0.7054 0.7389 0.7704 0.7995 0.8264 0.8508 0.8729 0.8925 0.9099 0.9251 0.9382 0.9495 0.9591 0.9671 0.9738 0.9793 0.9838 0.9875 0.9904 0.9927 0.9945 0.9959 0.9969 0.9977 0.9984 0.05 0.5199 0.5596 0.5987 0.6368 0.6736 0.7088 0.7422 0.7734 0.8023 0.8289 0.8531 0.8749 0.8944 0.9115 0.9265 0.9394 0.9505 0.9599 0.9678 0.9744 0.9798 0.9842 0.9878 0.9906 0.9929 0.9946 0.9960 0.9970 0.9978 0.9984 0.06 0.5239 0.5636 0.6026 0.6406 0.6772 0.7123 0.7454 0.7764 0.8051 0.8315 0.8554 0.8770 0.8962 0.9131 0.9279 0.9406 0.9515 0.9608 0.9686 0.9750 0.9803 0.9846 0.9881 0.9909 0.9931 0.9948 0.9961 0.9971 0.9979 0.9985 0.07 0.5279 0.5675 0.6064 0.6443 0.6808 0.7157 0.7486 0.7794 0.8078 0.8340 0.8577 0.8790 0.8980 0.9147 0.9292 0.9418 0.9525 0.9616 0.9693 0.9756 0.9808 0.9850 0.9884 0.9911 0.9932 0.9949 0.9962 0.9972 0.9979 0.9985 0.08 0.5319 0.5714 0.6103 0.6480 0.6844 0.7190 0.7517 0.7823 0.8106 0.8365 0.8599 0.8810 0.8997 0.9162 0.9306 0.9429 0.9535 0.9625 0.9699 0.9761 0.9812 0.9854 0.9887 0.9913 0.9934 0.9951 0.9963 0.9973 0.9980 0.9986 0.09 0.5359 0.5753 0.6141 0.6517 0.6879 0.7224 0.7549 0.7852 0.8133 0.8389 0.8621 0.8830 0.9015 0.9177 0.9319 0.9441 0.9545 0.9633 0.9706 0.9767 0.9817 0.9857 0.9890 0.9916 0.9936 0.9952 0.9964 0.9974 0.9981 0.9986 3 0.99865 3.1 0.99903 3.2 0.99931 3.3 0.99952 3.4 0.99966 3.5 0.99977 3.6 0.999841 3.7 0.999892 3.8 0.999928 3.9 0.999952 4 0.999968 4.1 0.999979 4.2 0.999987 4.3 0.999991 4.4 0.999995 4.5 0.999997 14 LOI NORMALE CENTRÉE RÉDUITE 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 Z 16 DUT Génie Biologique 14 T. Cuesta 15 Loi de Student Valeurs de tα telles que P (|T | > tα ) = α, en fonction de α et du degré de liberté ν. nu\alpha 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 80 120 0.9 0.158 0.142 0.137 0.134 0.132 0.131 0.130 0.130 0.129 0.129 0.129 0.128 0.128 0.128 0.128 0.128 0.128 0.127 0.127 0.127 0.127 0.127 0.127 0.127 0.127 0.127 0.127 0.127 0.127 0.127 0.126 0.126 0.126 0.126 0.126 0.8 0.325 0.289 0.277 0.271 0.267 0.265 0.263 0.262 0.261 0.260 0.260 0.259 0.259 0.258 0.258 0.258 0.257 0.257 0.257 0.257 0.257 0.256 0.256 0.256 0.256 0.256 0.256 0.256 0.256 0.256 0.255 0.254 0.254 0.254 0.253 0.7 0.510 0.445 0.424 0.414 0.408 0.404 0.402 0.399 0.398 0.397 0.396 0.395 0.394 0.393 0.393 0.392 0.392 0.392 0.391 0.391 0.391 0.390 0.390 0.390 0.390 0.390 0.389 0.389 0.389 0.389 0.388 0.387 0.387 0.386 0.385 0.6 0.727 0.617 0.584 0.569 0.559 0.553 0.549 0.546 0.543 0.542 0.540 0.539 0.538 0.537 0.536 0.535 0.534 0.534 0.533 0.533 0.532 0.532 0.532 0.531 0.531 0.531 0.531 0.530 0.530 0.530 0.529 0.527 0.526 0.526 0.524 0.5 1.000 0.816 0.765 0.741 0.727 0.718 0.711 0.706 0.703 0.700 0.697 0.695 0.694 0.692 0.691 0.690 0.689 0.688 0.688 0.687 0.686 0.686 0.685 0.685 0.684 0.684 0.684 0.683 0.683 0.683 0.681 0.679 0.678 0.677 0.674 0.4 1.376 1.061 0.978 0.941 0.920 0.906 0.896 0.889 0.883 0.879 0.876 0.873 0.870 0.868 0.866 0.865 0.863 0.862 0.861 0.860 0.859 0.858 0.858 0.857 0.856 0.856 0.855 0.855 0.854 0.854 0.851 0.848 0.846 0.845 0.842 0.3 1.963 1.386 1.250 1.190 1.156 1.134 1.119 1.108 1.100 1.093 1.088 1.083 1.079 1.076 1.074 1.071 1.069 1.067 1.066 1.064 1.063 1.061 1.060 1.059 1.058 1.058 1.057 1.056 1.055 1.055 1.050 1.045 1.043 1.041 1.036 0.2 3.078 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1.383 1.372 1.363 1.356 1.350 1.345 1.341 1.337 1.333 1.330 1.328 1.325 1.323 1.321 1.319 1.318 1.316 1.315 1.314 1.313 1.311 1.310 1.303 1.296 1.292 1.289 1.282 0.1 6.314 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.796 1.782 1.771 1.761 1.753 1.746 1.740 1.734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.706 1.703 1.701 1.699 1.697 1.684 1.671 1.664 1.658 1.645 0.05 12.706 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 2.021 2.000 1.990 1.980 1.960 0.02 31.821 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.718 2.681 2.650 2.624 2.602 2.583 2.567 2.552 2.539 2.528 2.518 2.508 2.500 2.492 2.485 2.479 2.473 2.467 2.462 2.457 2.423 2.390 2.374 2.358 2.326 0.01 63.657 9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 2.704 2.660 2.639 2.617 2.576 0.001 636.619 31.599 12.924 8.610 6.869 5.959 5.408 5.041 4.781 4.587 4.437 4.318 4.221 4.140 4.073 4.015 3.965 3.922 3.883 3.850 3.819 3.792 3.768 3.745 3.725 3.707 3.690 3.674 3.659 3.646 3.551 3.460 3.416 3.373 3.291 17 IUT de Créteil Loi de Poisson 18 DUT Génie Biologique 16 Valeurs de P (X = k) 0.2 0.8187 0.1637 0.0164 0.0011 0.0001 0.0000 0.0000 0.3 0.7408 0.2222 0.0333 0.0033 0.0003 0.0000 0.0000 0.4 0.6703 0.2681 0.0536 0.0072 0.0007 0.0001 0.0000 0.5 0.6065 0.3033 0.0758 0.0126 0.0016 0.0002 0.0000 0.6 0.5488 0.3293 0.0988 0.0198 0.0030 0.0004 0.0000 k\lambda 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 1 0.368 0.368 0.184 0.061 0.015 0.003 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 1.5 0.223 0.335 0.251 0.126 0.047 0.014 0.004 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 2 0.135 0.271 0.271 0.180 0.090 0.036 0.012 0.003 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 3 0.050 0.149 0.224 0.224 0.168 0.101 0.050 0.022 0.008 0.003 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 4 0.018 0.073 0.147 0.195 0.195 0.156 0.104 0.060 0.030 0.013 0.005 0.002 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 5 0.007 0.034 0.084 0.140 0.175 0.175 0.146 0.104 0.065 0.036 0.018 0.008 0.003 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 6 0.002 0.015 0.045 0.089 0.134 0.161 0.161 0.138 0.103 0.069 0.041 0.023 0.011 0.005 0.002 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000 7 0.001 0.006 0.022 0.052 0.091 0.128 0.149 0.149 0.130 0.101 0.071 0.045 0.026 0.014 0.007 0.003 0.001 0.001 0.000 0.000 0.000 0.000 0.000 8 0.000 0.003 0.011 0.029 0.057 0.092 0.122 0.140 0.140 0.124 0.099 0.072 0.048 0.030 0.017 0.009 0.005 0.002 0.001 0.000 0.000 0.000 0.000 9 0.000 0.001 0.005 0.015 0.034 0.061 0.091 0.117 0.132 0.132 0.119 0.097 0.073 0.050 0.032 0.019 0.011 0.006 0.003 0.001 0.001 0.000 0.000 10 0.000 0.000 0.002 0.008 0.019 0.038 0.063 0.090 0.113 0.125 0.125 0.114 0.095 0.073 0.052 0.035 0.022 0.013 0.007 0.004 0.002 0.001 0.000 16 LOI DE POISSON Année universitaire 2007/2008 k\lambda 0 1 2 3 4 5 6 T. Cuesta 17 Loi du χ2 Valeurs ayant pour probabilité a d’être dépassées, en fonction du degrés de liberté. ddl\a 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0.999 0,0000 0,002 0,024 0,091 0,210 0,381 0,598 0,857 1,152 1,479 1,834 2,214 2,617 3,041 3,483 3,942 4,416 4,905 5,407 5,921 6,447 6,983 7,529 8,085 8,649 9,222 9,803 10,391 10,986 11,588 0,990 0,0002 0,020 0,115 0,297 0,554 0,872 1,239 1,646 2,088 2,558 3,053 3,571 4,107 4,660 5,229 5,812 6,408 7,015 7,633 8,260 8,897 9,542 10,196 10,856 11,524 12,198 12,879 13,565 14,256 14,953 0,975 0,001 0,051 0,216 0,484 0,831 1,237 1,690 2,180 2,700 3,247 3,816 4,404 5,009 5,629 6,262 6,908 7,564 8,231 8,907 9,591 10,283 10,982 11,689 12,401 13,120 13,844 14,573 15,308 16,047 16,791 0,900 0,016 0,211 0,584 1,064 1,610 2,204 2,833 3,490 4,168 4,865 5,578 6,304 7,042 7,790 8,547 9,312 10,085 10,865 11,651 12,443 13,240 14,041 14,848 15,659 16,473 17,292 18,114 18,939 19,768 20,599 0,850 0,036 0,325 0,798 1,366 1,994 2,661 3,358 4,078 4,817 5,570 6,336 7,114 7,901 8,696 9,499 10,309 11,125 11,946 12,773 13,604 14,439 15,279 16,122 16,969 17,818 18,671 19,527 20,386 21,247 22,110 0,150 2,072 3,794 5,317 6,745 8,115 9,446 10,748 12,027 13,288 14,534 15,767 16,989 18,202 19,406 20,603 21,793 22,977 24,155 25,329 26,498 27,662 28,822 29,979 31,132 32,282 33,429 34,574 35,715 36,854 37,990 0,100 2,706 4,605 6,251 7,779 9,236 10,645 12,017 13,362 14,684 15,987 17,275 18,549 19,812 21,064 22,307 23,542 24,769 25,989 27,204 28,412 29,615 30,813 32,007 33,196 34,382 35,563 36,741 37,916 39,087 40,256 0,025 5,024 7,378 9,348 11,143 12,833 14,449 16,013 17,535 19,023 20,483 21,920 23,337 24,736 26,119 27,488 28,845 30,191 31,526 32,852 34,170 35,479 36,781 38,076 39,364 40,646 41,923 43,195 44,461 45,722 46,979 0,010 6,635 9,210 11,345 13,277 15,086 16,812 18,475 20,090 21,666 23,209 24,725 26,217 27,688 29,141 30,578 32,000 33,409 34,805 36,191 37,566 38,932 40,289 41,638 42,980 44,314 45,642 46,963 48,278 49,588 50,892 0.001 10,828 13,816 16,266 18,467 20,515 22,458 24,322 26,124 27,877 29,588 31,264 32,909 34,528 36,123 37,697 39,252 40,790 42,312 43,820 45,315 46,797 48,268 49,728 51,179 52,620 54,052 55,476 56,892 58,301 59,703 19 IUT de Créteil