Seances3_L3S5_2007_1..

publicité
C - Lois de probabilités
1. Préambule
2. Quelques rappels sur les probabilités
3. Définition ; 2 cas à considérer
4. Exemples
5. Loi binomiale
6. Loi de Poisson
7. Calcul de probabilités dans le cas des lois continues
8. Loi normale
9. Passage d’une loi binomiale à une loi normale
C - Lois de probabilités
1. Préambule
Loi de probabilité  élément central de la statistique
Avant tout, il faut bien définir la VA d’étude
La détermination de la loi de probabilité suivie par une variable va servir :
- aux calculs de probabilité de réalisation d'évènements,
- à la déduction
- à l'inférence statistique
C - Lois de probabilités
1. Préambule
Déduction :
prédire, à partir d'une population connue ou supposée connue, les
caractéristiques des échantillons qui en seront prélevés
Induction (inférence) :
prédire les caractéristiques d'une population inconnue à partir des statistiques
déterminées dans un échantillon représentatif de cette population.
Extrapolation des observations réalisées dans un échantillon à
l'ensemble de la population
C - Lois de probabilités
1. Préambule
Notations

Variable aléatoire d’étude (échantillon taille n ou N)

probabilité élémentaire de réalisation d’un évènement E
 oux ou m

moyenne population (taille pas toujours connue!)
^
ou m

moyenne échantillon (taille n),
estimateur de la moyenne de la population
s, S ou Sx

écart type échantillon


écart type population (taille population pas toujours connue!)

meilleure estimée de l'écart type de la population dont est
issu l'échantillon (on utilise la taille n de l'échantillon pour le calcul)
X


ou p
Xo
o
Il faut bien sûr disposer d’un échantillon représentatif, sinon cette
valeur n’a pas de sens
Intéressons nous, par exemple, à l’information “moyenne”
On étudie les populations à partir d’échantillons (représentatifs)
On part des seules informations disponibles :
?
ENCADREMENT DE 
m1 <  < m2
Un tel échantillon va-t-il nous
permettre de préciser la population
dont il pourrait être issu ?
Xo et n
Xo
Risque seuil a
Risques ao et b
Population
•
taille ?
•
Inaccessible
•
 : caractéristique théorique ou attendue
Echantillon
•
taille : n (n_échantillon)
•
représentatif
•
Xo
: observée
C - Lois de probabilités
1. Préambule
Epreuve :
expérience
- qui peut être reproduite dans les mêmes conditions autant de fois que l'on veut,
- dont le résultat n'est pas prévisible
- et pour laquelle on peut définir l'ensemble des résultats possibles.
L'événement :
est un sous ensemble des résultats possibles de l'épreuve.
C - Lois de probabilités
1. Préambule
2. Quelques rappels sur les probabilités  séance libre sur internet
3. Définition ; 2 cas à considérer
4. Exemples
5. Loi binomiale
6. Loi de Poisson
7. Calcul de probabilités dans le cas des lois continues
8. Loi normale
9. Passage d’une loi binomiale à une loi normale
C - Lois de probabilités
2. Quelques rappels sur les probabilités
P(A) = lim nA/N
Ng
Loi des grands nombres
(Jacques Bernoulli)
P(A) = fA  e
e :incertitude/erreur sur l'estimation de la probabilité à partir des données d'un échantillon
e g0
Ng
Fréquence relative de 'FACE'
1,00
0,75
0,50
0,25
0,00
1
5
10
100
Nombre de jets d'une pièce de 1 Euro
1000
C - Lois de probabilités
2. Quelques rappels sur les probabilités
Probabilité
Définition 1
probabilité p(E) d'un évènement E : limite de sa fréquence relative.
 répétition de l’épreuve un grand nombre de fois (n)
P(E) = lim (NE / n)
n
Définition 2
La probabilité p(E) d'un évènement E, lors de la réalisation d'une épreuve, est un nombre
compris entre 0 et 1. (0 correspond à un évènement impossible et 1 à un évènement certain).
La probabilité de E sera d'autant plus grande que E se produira fréquemment.
De façon schématique :
Nombre de cas favorables à l'événement E
p(E) =
Nombre de cas possibles
Définition 3
Soit n le nombre de résultats possibles d'une épreuve.
A tout résultat ei (i=1, 2, ... n), associé à l'évènement élémentaire E,
est attaché une probabilité pi telle que : pi >=0 et  pi =1.
C - Lois de probabilités
2. Quelques rappels sur les probabilités
Probabilité
Origine : le jeu de dés fut, il y a plusieurs centaines d'années, à l'origine de la
théorie des probabilités
Une notion importante intervenant en statistiques dans :
-
la définition des modèles probabilistes (lois de probabilités) ;
-
la mesure du degré de confiance que l'on peut accorder aux modèles
C - Lois de probabilités
2. Quelques rappels sur les probabilités
Exercice "L'examen de TP"
On fait passer l'examen de TP de biochimie aux étudiants de master d'une grande université
(250 inscrits). L'examen consiste en 2 manips, M1 et M2, notées chacune sur 10. Un
étudiant "réussit" une manip s'il obtient au moins la note de 5/10 à cette manip. Un étudiant
est reçu à l’examen de TP s’il a réussi les deux manips.
On constate que la probabilité de réussir la manip M1 est de 0,5. La probabilité de réussir la
manip M2 est, quant à elle, de 0,6. Enfin, la probabilité qu'un étudiant réussisse la manip M2
alors qu’il a réussit la manip M1 est de 0,8.
Q1 : Réussir M1et M2 sont-ils deux évènements indépendants ?
Reponse : non car P(M2/M1)  P(M2)
Q2 : Quelle est la probabilité d’être reçu à l’examen de TP de biochimie ?
Réponse :
P(M1M2) = P(M2/M1).P(M1)
P(M1M2) = 0.8.0.5 = 0.4
C - Lois de probabilités
3. Définition ; 2 cas à considérer
Une définition très simple …
Une loi de probabilité
est entièrement définie par l’ensemble des valeurs possibles prises par la variable
aléatoire et les probabilités d’apparition de chacune de ces valeurs.
… qui demande un peu de précision
Dans le cas d’une variable aléatoire X discrète, une loi de probabilité
est entièrement définie l ’ensemble des couples (k, p[X=k]) (k Entier, en général)
p[X=k] a un sens!
Dans cas d’une Variable Aléatoire X continue, une loi de probabilité
est définie l’ensemble des valeurs (e , p[X> e]) (e Réel)
p[X= e] = 0 !
Prendre p[X< e] dans la définition reviendrait au même
C - Lois de probabilités
3. Définition ; 2 cas à considérer
Espérance ou moyenne théorique d’une loi de distribution
Barycentre de la distribution
(valeur pas toujours prise par la variable!)
C - Lois de probabilités
3. Définition ; 2 cas à considérer
Moyenne
loi discrète :
(moment d’ordre 1) :
E(x)

 xi.p(X  xi)
i
loi continue :
E( x ) 
Variance
loi discrète :
V( X)



x . f(x)dx


( xi  )2 p(X  xi)
i
loi continue :
V(X) 

V(X) = E(X2) - E(X)2

(x  μ x ) f(x)dx
2

C - Lois de probabilités
3. Définition ; 2 cas à considérer
Exemple introductif
Considérons un caractère dû à un gène ayant deux allèles A et a. Si les parents sont
tous deux hétérozygotes (ont le génotype Aa), les génotypes de leurs descendants sont
l'un des 4 types suivants : AA Aa aA aa. Si ces évènements sont également probables,
la probabilité de chacun d'eux est 1/4.
On obtient une première loi de probabilité :
Génotype
Probabilité
[AA]
1/4
[Aa]
1/2
[aa]
1/4
Si de plus, le gène A est dominant, les individus de génotype AA, Aa et aA ont le même
phénotype et la probabilité d'obtenir ce phénotype est 3/4.
On obtient finalement la loi de probabilité suivante :
Phénotype
Probabilité
[A]
3/4
[a]
1/4
Le modèle ainsi défini convient à l'étude de nombreux croisements (ex pois étudiés par
Mendel, le caractère étudié pouvant être par exemple la couleur des fleurs)
C - Lois de probabilités
3. Définition ; 2 cas à considérer
Exercice « les pois de Mendel »
Soit le croisement de pois à fleurs jaunes (A, caractère dominant) et vertes (a).
Calculer la probabilité qu’une plante à fleurs jaunes de la deuxième génération
(c’est-à-dire obtenue par croisement de deux hétérozygotes) soit hétérozygote.
Solution
Soit J : « les fleurs sont jaunes » et H : « la plante est hétérozygote »
La probabilité recherchée est P(H / J) (« fleur jaune » est le caractère établit)
En se servant de la loi de probabilité établie auparavant :
P(H / J) = P(H  J )/P(J)
P(J) = 3 / 4 (A dominant)
H  J = {Aa, aA}= H  P(H  J ) = 2 / 4
P(H / J) = P(H  J )/P(J) = 2/3
Génotype
[AA]
[Aa]
[aa]
Probabilité
1/4
1/2
1/4
C - Lois de probabilités
3. Définition ; 2 cas à considérer
Commentaire
Les évènements (génotypes) ont été pris ici également probables.
Ce modèle ne convient pas aux primevères pour le caractère des feuilles plates (A) ou
ondulées (a) : la fréquence expérimentale du nombre de feuilles plates est voisine de 4/5
(les plantes à feuilles ondulées sont moins viables que celles à feuille plates).
 Seule l’expérience permet de décider si les valeurs attribuées aux probabilités sont ou
non satisfaisantes pour la description du phénomène étudié.
 Le modèle statistique doit tenir compte des données biologiques
C - Lois de probabilités
4. Exemples
On sait très bien que P ("naissance d'un garçon ") > P ("naissance d'une fille")
[mais les filles sont plus résistantes…]
prenons : P (G) = 0.52 et P(F) = 0.48
(
Laplace : P (G) = 22/43 = 0,5117 ; anecdote associée à ces statistiques relevés sur
10 ans pour Londres, St Petersburg Berlin et l’ensemble de la France et …25/49=0,5102 pour Paris !)
Sur trois enfants (de mêmes parents),
quelle serait la probabilité d’avoir une seule fille?
(précision : pas de jumeaux)
C - Lois de probabilités
4. Exemples
Avec cet exemple nous visualisons :
- variable aléatoire = fonction
- la loi de probabilité
- Calcul de probabilités possible à partir de la distribution
- Nous pouvons calculer la moyenne de la distribution
X o   x i xp(X  x i )
i
C - Lois de probabilités
5. Loi Binomiale
La solution du problème des épreuves répétées conduit à la loi binomiale.
On jette 5 fois de suite une pièce de monnaie non truquée.
Quelle est la probabilité d’obtenir 2 fois "face" à l'issue des 5 jets ?
- Quelle est l’épreuve associée ?
- Variable de Bernouilli : pour chaque lancé de la pièce,
Y=0 si le résultat est ‘Pile’ (échec/absence caractéristique) ;
Y=1 si le résultat est face ’Face’ (réussite/présence caractère)
- Echantillon ou population ?
- Variable aléatoire associée ?
- Ensemble des résultats possibles ?
- Quelle est la loi de distribution ?
- Quels sont la moyenne et l'écart-type de la distribution ?
- Représentation graphique
C - Lois de probabilités
5. Loi Binomiale
Vers le calcul d’une probabilité : P(X=2)
- Variable aléatoire associée ?
- Résultats possibles
-Généralisation du processus
Commençons par établir la probabilité : P(X=1)
Commençons par établir la probabilité : P(X=1)
X = 'nombre de 'face' obtenus à l'issue de 5 jets consécutifs d'une pièce non truquée'}
Notons 'P' l'événement 'obtenir pile comme résultat du lancé}
et 'F' l'événement 'obtenir face comme résultat du lancé}
Revue des événements possibles :
{'PPPPP'}
X=0
{'FPPPP'}
{'PFPPP'}
{'PPFPP'}
{'PPPFP'}
{'PPPPF'}
X=1
5 cas
Les évènements sont indépendants
P(X=1) = 5x P('F')x P('P')4
P(X=1) = 5x 0.5x0.54 = 0.156
{'FFPPP'}
X=2 Combien de cas ????
.
.
.
.
{'FFFFF'}
X=5
X  {0, 1, 2, 3, 4, 5}
Calcul d’une probabilité : P(X=2)
Calcul d’une probabilité : P(X=2)
{'PPPPP'}
X=0
.
.
.
{'FFPPP'}
{'FPFPP'}
{'FPPFP'}
{'FPPPF'}
{'PFFPP'}
{'PFPFP'}
{'PFPPF'}
{'PPFFP'}
{'PPFPF'}
{'PPPFF'}
X=2
10 cas
{'FFFPP'}
X=3 Combien de cas ????
etc…
.
.
.
.
{'FFFFF'}
Les évènements sont indépendants
P(X=2) = 10x P('F')2x P('P')3
P(X=2) = 10x 0.52x0.53 = 0.313
X=5
X {0, 1, 2, 3, 4, 5}
Généralisation du processus : P(X=k)
Généralisation du processus : P(X=k)
{'PPPPP'}
X=0
.
.
.
X=k
Ckn cas ( chaque combinaison s'obtient en effet de façon unique!)
Les évènements sont indépendants
P(X=k) =
P(X=k) =
.
.
.
{'FFFFF'}
X=5
X {0, 1, 2, 3, 4, 5}
k
Cn x P('F')
k
k
x P('P')
Cn x 0.5k x 0.5(n-k)
(n-k)
C - Lois de probabilités
5. Loi binomiale
Triangle de Pascal
p
C du binôme (a+b)n
n
Coefficients
1
1
1
p
p-1
p
C C C
n
n-1
n-1
1
1
1
1
1
9
10
45
28
15
35
35
210
6
56
126
252
1
21
70
126
1
5
20
56
84
120
10
15
n
1
4
10
21
36
3
6
5
7
1
3
4
6
8
2
1
1
1
1
7
28
84
210
p
1
1
8
36
120
1
9
45
1
10
1
C - Lois de probabilités
5. Loi Binomiale
k
0
1
2
3
4
5
sommes :
B (5, 0.5)
X
 nx
n
i
i
i
, analogie utilisant
i
i
X
f 
i
p(X=k)
0,031
0,156
0,313
0,313
0,156
0,031
1,000
k*p(X=k)
0
0,15625
0,625
0,9375
0,625
0,15625
2,500
ni
 ni
i
i xi p(X  xi )

Espérance : 2.5

Espérance : n (valeur pas systématiquement prise par la variable!)
(valeur ici non prise par la variable!) « moyenne »
C - Lois de probabilités
5. Loi Binomiale
B (5, 0.5)
k
0
1
2
3
4
5
p(X=k)
0,35
0,30
0,25
0,20
0,15
0,10
0,05
0,00
0
1
2
3
4
5
k
p(X=k)
0,031
0,156
0,313
0,313
0,156
0,031
C - Lois de probabilités
5. Loi Binomiale
Cas où la loi Binomiale est impliquée :
A chaque fois, qu'une épreuve est répété un certain nombre n de fois
(échantillon) avec toujours la même alternative :
un événement E est réalisé (probabilité
) ou non réalisé (probabilité 1-).
E /
n fois épreuve
non E / (1-)
Exemples d'épreuve :
-
jet d'une pièce de monnaie
répondre au hasard à une questions posée
germination d'une graine
naissance d'un enfant
présence d’un résidu d’AA dans une séquence peptidique aléatoire
etc…
C - Lois de probabilités
5. Loi Binomiale
Epreuve, variable et Loi de Bernouilli :
X : variable de Bernouilli, associée à une épreuve possèdant l’alternative :
un événement E est réalisé (probabilité
) ou non réalisé (probabilité 1-).
E /
épreuve
non E / (1-)
Loi de probabilité :
X prend la valeur 1 à la réalisation de E, et X=0 à la non réalisation de E
P(X=1)=
P(X=0)=1-
Moyenne de la loi :  ; Variance : 
La loi binomiale est ainsi la résultante de N variables de Bernouilli indépendantes
C - Lois de probabilités
5. Loi Binomiale
Loi Binomiale
X,
V. A. discrète, "nombre de réalisations d'un
certain événement E lors des n répétitions d'une
p(X=k)
0,25
n=15, P =0,8
0,20
même épreuve"
0,15
X
B (n, P)
p(Xk)  Ckn
0,10
(nk)
Π (1Π)
k
0,05
0,00
0
1
2
3
4
5
6
7
Espérance (moyenne théorique) : n P
(valeur pas toujours prise par la variable!)
variance : n P  P
Cependant cette loi est peu pratique à utiliser lorsque n est grand (calculs fastidieux!)
 Tables de la loi binomiale…
 Approche par d'autres lois lorsque c'est possible…
8
9
10 11 12 13 14 15
k
C - Lois de probabilités
5. Loi Binomiale
Soit la variable Po = X/N , avec X : VA binomiale.
(proportion d’individus satisfaisant à la définition de la VA X)
Quelle est la loi de probabilité suivie par Po?
Quels sont la moyenne et la variance de Po ?
Espérance : P
  P (1P )
n
C - Lois de probabilités
5. Loi Binomiale
Loi Binomiale
Po,
V. A. discrète, "proportion de réalisations
d'un certain événement E lors des n répétitions
p(Po=k/n)
0,25
n=15, P =0,8
0,20
d'une même épreuve"
0,15
Po
B (n, P)
P ( P0 k
n
k k
(nk)
)  CnP (1P)
0,10
0,05
0,00
0
1/15 2/15 1/5
4/15 1/3
2/5
7/15 8/15 3/5
2/3 11/15 4/5 13/1514/15 1
Espérance (moyenne théorique) : P
(valeur pas toujours prise par la variable!)
variance : P  P / n
Les distributions de X et Po sont toutes deux des lois binomiales de paramètres n et P
mais elles n'ont pas la même moyenne ni la même variance
k/n
C - Lois de probabilités
5. Loi Binomiale
Exercice « Le technicien expérimenté »
Le technicien d’un laboratoire pilote réalise une manipulation très délicate qu’il ne rate
que dans 30 % des cas : l’injection d’un fragment d’ADN contenant un gène humain
dans le noyau d’un oeuf de souris (étape cruciale pour obtenir des souris
transgéniques). Il procède par série de 5 manipulations. Grâce à son expérience, il
répète un assez grand nombre de fois ses séries de manipulations dans des conditions
pratiquement identiques.
La V.A. d’étude est X = « nombre de manipulations réussies par série de 5 »
Quel est le type de la V.A. X ?
Représentez graphiquement la distribution de X
Quels sont l’espérance et l’écart-type de cette distribution ?
Hypothèse : on supposera sans le démontrer que les manipulations sont toutes
indépendantes les unes des autres (effet de la fatigue, impact d’un échec ou d’une
réussite sur la manip suivante non pris en compte)
C - Lois de probabilités
5. Loi Binomiale
B (5, 0.7)
Espérance : 3.50
Ecart-type : 1.02
k
0
1
2
3
4
5
p(X=k)
0,40
0,35
0,30
0,25
0,20
0,15
0,10
0,05
0,00
0
1
2
3
4
5
k
p(X=k)
0,002
0,028
0,132
0,309
0,360
0,168
C - Lois de probabilités
5. Loi Binomiale
Exercice "sachets de graines"
Un producteur de graines vient de lancer une superbe variété de fleur. Il
garantit (sur 1 an) que seules 2 graines sur 10 ne germent pas. Chaque sachet
mis en vente contient 200 graines.
a/ Indiquez combien de fleurs peut donner en moyenne un sachet de graines.
b/ Quel est l'écart type associé ?
c/ Pour obtenir un massif de 500 fleurs, combien de sachets faut-il acheter en
moyenne ? (Indiquez votre raisonnement).
Vous n'oublierez pas de bien définir la VA sous jacente et d'indiquer sa nature
(qualitative, quantitative discrète ou quantitative continue).
C - Lois de probabilités
5. Loi Binomiale
Exercice "sachets de graines "
X = « Nombre de graines donnant à une fleur sur un échantillon de 200 graines »
P=1-2/10=0,8
N=200
=NP=200x0,8=160
Variance=NP(1-P)=200x0,8x0,2=32
=5,7
En moyenne un sachet permet d’obtenir 160 fleurs. Dans ces conditions, il faut 4 sachets
pour atteindre au moins l’effectif de 500 fleurs (3x160=480, insuffisant et 4x160=640, OK!).
Rq : On pourra préciser l’incertitude en approchant la loi par une distribution normale
Avec 3 paquets, seulement 12% de chances (environ) d’obtenir plus de 500 graines
C - Lois de probabilités
5. Loi Binomiale
Exercice « Séquence Random »
On considère une chaîne polypeptidique de n acides aminés
générée de façon aléatoire.
Soit n=50, taille de la séquence
Hypothèse de départ : on considèrera les 20 acides aminés essentiels
- Q1 - Quelle est la probabilité de trouver plus de 50% de résidus proline
dans cette séquence aléatoire ?
- Q2 - Quelle est la probabilité de trouver le tripeptide ‘LLL’ dans cette
séquence polypeptidique ?
- Q3 - Un poly L , c’est à dire une séquence polypeptidique constituée
uniquement du résidu leucine ?
Correction de l' exercice « Séquence Random »
- Q1 P ( Po > 0.5) = P ( X > 25)
Po suit une B (50, 0,05)
Variable de Bernouilli associée
Présence Proline associée à X=1 ; P(X=1)=1/20
Absence Proline (présence de tout autre aa) associée à X=0 ; P(X=0)=19/20=0,95
50
P(X25)   P(Xk)
k 26
50
P(X25)   P(Po k )
N
k 26
50
P(X25)  
k 26
C
k
50
x 0.05k x 0.95(50k)
P ( Po > 0.5) = 0
Application numérique : utiliser table de la loi binomiale ou ordinateur!
Exemple : en saisissant LOI.BINOMIALE(25;50;0,05;VRAI) dans Excel,
le résultat recherché est le complémentaire à 1 de cette valeur, donc 0
Correction de l' exercice « Séquence Random »
- Q2 Soit n : nombre de résidus dans la séquence polypeptidique ;
Soit Nt : nombre de tripeptides dans une séquence de n résidus d'acides aminés
Nt = n – 3 +1
Ici : Nt = 50 – 3 +1 = 48
Variable de Bernouilli / Probabilité élémentaire :
Pour chaque tripeptide considéré dans la séquence
Présence de LLL , W=1 P(W=1)=(1/20)3=0.000125
Absence de LLL , W=0 P(W=0)=1-0.000125=0.999875
Soit la V.A. Y : "nombre de tripeptides LLL dans la séquence aléatoire de 50 résidus d'aa"
Y suit une loi binomiale
B (48, 0.000125)
{Présence de LLL dans la séquence} = (Y > 0)
P (Y > 0) = 1 – P(Y=0)
P(Y0)  C048 x 0.0001250 x 0.99987548
P(Y=0) = 1x1x(0.999875)48 = 0.99402
P (Y > 0) = 1 – P(Y=0) = 1-0.9940 = 0.006
On peut également dans ce cas utiliser
l'approximation par la loi de Poisson de
paramètre l=48x0.000125 ; P(0.006)
Saisir sous Excel :
=LOI.POISSON(0;0,006;FAUX)
(ordre de grandeur : 1%)
- Q3 - La probabilité recherchée est : (1/20)50 , pratiquement nulle!
C - Lois de probabilités
5. Loi Binomiale
Quelques cas où l'on rencontre de la LOI BINOMIALE :
situation
variable aléatoire
nombre de cas probabilité de succès
sur une épreuve
jet d’une pièce n
fois de suite
X = « nombre de faces
obtenues »
n+1
possibilités
nombre de filles
dans une famille
de 8 enfants
P = 0.5
X = « nombre de filles
dans un échantillon de
8 enfants
Y = « nombre de
garçons »
questions posées note obtenue sur 20
à un examen
QCS :
20 questions, 5
propositions par
question
{ 0 ; 1 ; .. ; 8} P(F) = P(G) = 0.5
contrôle qualité X = « nombre de
d’un échantillon pipettes défectueuses»
de 10 pipettes au
hasard d’une
production de
40000 pour
lesquelles 32000
sont bonnes
0 à 10 pipettes P = 0.8
défectueuses (à peu près constante
quand n est grand)
0 => 20
21 notes
possibles
P = 0.2
hypothèse
pièce non
truquée
loi de probabilité
Loi binomiale
avec P(X =k)
k appartenant à
(0,1,2,...,n)
Variable de Bernouilli :
Succès : Y=0
Echec : Y=1
pas de variation Loi binomiale
de cette
avec P(X =k)
probabilité avec k appartenant à
le rang de la
(0,1,2,...,8)
naissance
réponse juste
Loi binomiale
= 1 point
avec P(X =k)
(une seule
ex : obtenir la moyenne
réponse est
en répondant au hasard
bonne et les
au question :
questions sont P(X > 10)
indépendantes)
On n'est pas
On décide tout de
dans un cas
même avec une faible
d’indépendance erreur de traiter le
Formelle  on problème en utilisant la
loi binomiale
considère la
avec P(X =k), k
probabilité de
l'évènement à 3 appartenant à
chiffres après la { 0,1,2,...,10}
virgule.
C - Lois de probabilités
6. Loi de Poisson
Exemple introductif
Dans des tests labos faits sur des rats, l’étalement sur la peau d’une crème de soin du
commerce peut provoquer une rougeur dans 20 cas sur 1000.
Soit X la variable aléatoire "Nombre de rats présentant une rougeur après dépôt du
produit sur N individus"
A/ Quelle loi de probabilité suit X ?
B/ Quelle est la probabilité d'observer moins de 3 cas de réaction sur 100 étalements ?
En déduire la probabilité d'observer au moins 3 cas de réaction sur 100 étalements.
Que constatons-nous dans cet exemple ?
X suit une loi binomiale dont la moyenne est très proche de la variance
Et P petite pour N plutôt grand  évènement rare
Moyenne : nP = 0.02*100 = 2
Variance : nPP = 100*0.02*0.98 = 1.96
C - Lois de probabilités
6. Loi de Poisson
Cas d'application
(Siméon Denis Poisson 1781-1840)
Lorsque le nombre d'épreuves n est grand et P très petit (proche de 0),
la loi Binomiale
B (n, P) tend vers une loi de Poisson P (l) de seul paramètre l
(espérance et variance de la loi binomiale approchée par la loi de Poisson).
La loi de Poisson est une distribution discrète. Elle est tabulée
P(X=k) = e-l lk / k!
Côté pratique
On vérifiera d'abord que les calculs ne peuvent être approchés par une
distribution normale, plus pratique à utiliser
C - Lois de probabilités
6. Loi de Poisson
Nous sommes maintenant armés pour résoudre notre exemple introductif
Dans une expérience faite sur des rats, l’étalement sur la peau d’une crème de soin du
commerce peut provoquer une rougeur dans 20 cas sur 1000.
Soit X la variable aléatoire "Nombre de rats présentant une rougeur après dépôt du
produit sur N individus"
A/ Quelle loi de probabilité suit X ?
B/ Quelle est la probabilité d'observer moins de 3 cas de réaction sur 100 étalements ?
En déduire la probabilité d'observer au moins 3 cas de réaction sur 100 étalements.
On va utiliser une loi de Poisson de paramètre : l=2
Et si on le faisait avec R ?....
Fonction : dpois
C - Lois de probabilités
6. Loi de Poisson
Réels domaines d’utilisation d’une loi de Poisson
 Nombre d’évènements par unité de volume, de surface, de temps
•
Nombre de poissons par mètres cube d’eau
•
Passages d’un ours dans un site des Pyrénées sur une semaine
•
Concentration de bactéries (hématimètre) dans un lac (homogénéité)
•
Nombre d’insectes d’une certaine espèce capturés sur un filet en une nuit
en forêt amazonienne
•
Nombre de désintégration d’un radio-isotope par minute
•
Nombre d’appels enregistrés par un standard téléphonique dans une courte
période de temps
•
Nombre de skieurs empruntant un télésiège en l’espace d’une heure dans
une petite station alpine
•
Etc…
C - Lois de probabilités
6. Loi de Poisson
Exercice « les ours des Pyrénées »
Un écologiste étudie le passage des ours (récemment introduits) en un point
précis d’une rivière séparant un champ d’une petite forêt des Pyrénées. A l’issue
d’un travail long (plusieurs semaines) et rigoureux, il observe en moyenne 4
individus par jour.
a/ Quelle est la probabilité qu’il détecte précisément 3 ours en l’espace de 12 h ?
b/ Quelle est la probabilité qu’il détecte entre 1 et 3 ours en 6 heures ?
a/ l = 4 individus / j
uniformité sur une courte période de temps : l = 2 ind. / 12 h
calcul de P(X=3) avec X suit une loi de Poisson de paramètre l=2 (voir table)
P(X=3) =0.18
b/ calcul de P(1 Y  3) avec Y suit une loi de Poisson de paramètre l=1
Loi discrète donc P(1 Y  3) = P(Y=1)+P(Y=2)+P(Y=3) (voir table)
P(1  Y  3) = 0.3679+0.1839+0.0613 = 0.6131 (0.61 est suffisamment précis)
C - Lois de probabilités
7. Calcul de probabilités dans le cas des lois de distribution continues
 transformation de l'échelle verticale des graphes
Densité de fréquence relative (Pour toute variable X ordonnée classée)
Fréquence relative
Densité de fréquence relative =
Amplitude de classe
Taux d’une hormone en mg/ml
Avec la densité de fréquence relative on
a facilement accès aux probabilités,
associées aux surfaces du diagramme.
AIRE TOTALE = 1
Taux d’une hormone en mg/ml
C - Lois de probabilités
7. Calcul de probabilités dans le cas des lois de distribution continues
Taux d’une hormone en mg/ml
Lois continues
L’augmentation de la taille de l’échantillon
permet des classes de plus en plus fines et fait
tendre la densité de fréquence relative vers
une courbe appelée densité de probabilité.
Densité de probabilité
Les lois de distributions continues (loi
normale, Chi-deux, Student, etc…) sont
entièrement caractérisées par l’équation de
leur fonction de densité de probabilité f(x).
C - Lois de probabilités
7. Calcul de probabilités dans le cas des lois de distribution continues
f(x)
En employant la fonction de densité de probabilité on a une visualisation de la
notion de probabilité : La probabilité P(e<X<e) est l’aire délimitée d’une part
par l’intervalle [ee] et d’autre part par la courbe de densité de probabilité f(x).
Variable aléatoire X quantitative continue
Distribution continue
X




e
P(ε1  X  ε 2 ) 

e
ε1
ε2
f(x)dx ; avec



f(x)dx  1
C - Lois de probabilités
7. Calcul de probabilités dans le cas des lois de distribution continues
Remarques
Fonction de partition : primitive de la fonction de densité de probabilité


F(ε)  P(X  ε) 
P( ε1
 X 
Moyenne :
Variance :
ε2
) 
F(ε 2)
μx 
σx 
2


ε
f(x)dx


F(ε2)




x f(x)dx
(x  μ x )2 f(x)dx
C - Lois de probabilités
8. Loi Normale
De nombreuses variables aléatoires ont pour fonction de densité une courbe en
forme de cloche, appelée courbe Normale ou courbe de Laplace-Gauss
(Pierre Simon de Laplace 1749-1827 ;Karl Friederich Gauss 1777-1855)
 la loi statistique la plus répandue et la plus utile
 de nombreuses lois de probabilités peuvent souvent être approchées
par la loi Normale
 dérivée : loi Log-Normale
C - Lois de probabilités
8. Loi Normale
Loi de Laplace–Gauss quand est-elle rencontrée ?
Lorsqu'une grandeur subit l'influence d'un grand nombre de facteurs (ou paramètres ;
non tous identifiés, voire identifiables!) tous indépendants, qui, pris isolément, ne
contribuent que très faiblement à faire varier la grandeur étudiée, les valeurs prises par
la variable aléatoire (continue) associée à la grandeur se distribuent selon la loi de
Laplace-Gauss (appelée Loi Normale). Cette loi revêt un caractère de généralité. On y
fait très souvent appel en Biologie
 distribution continue et symétrique
 caractérisée par sa moyenne  et son écart-type 
 associée à une variable aléatoire X quantitative continue
X
N (  )
C - Lois de probabilités
8. Loi Normale
•
Propriétés de la Loi Normale N   , repères graphiques
•
Définition des fonctions de densité de probabilité et de partition
•
Une probabilité est une aire (comme pour toute distribution continue)
•
Loi Normale centrée réduite
•
Changement de variable et conservation des aires
•
Lecture des tables de la Loi Normale centrée réduite
•
Un exemple
•
Bilan de ce qu’il faut retenir
•
Exercices
•
Loi Log-Normale
•
Passage d’une loi Binomiale à une loi Normale
C - Lois de probabilités
8. Loi Normale
X
f(x) 
1
-2
1
σ
π
e
 x-μ 
 σ 


POPULATION
2
 courbe symétrique par rapport à x =
2
 P( X < ) = P(X  ) = 0.5
1
σ
N ()
 P(  < X < ) = 0.68
π
2
 P(  < X < ) = 0.95
 P(X > 3) < 0.0015
X
  
C - Lois de probabilités
8. Loi Normale
Loi Normale Centrée - Réduite
f(z) 
1
2π
1
-2z
2
e
N ()
Z
 La variable centrée réduite Z=(X-)/
1
2π
a pour moyenne 0 et 1 pour écart-type
 courbe symétrique par rapport à Z =0
 P( Z  0 ) = P( Z > 0 ) = 0.5
 P( -1  Z  1 ) = 0.68
 P( -1.96  Z  1.96 ) = 0.95
 P( Z > 3 ) < 0.0015
Z
-1,96



1,96
C - Lois de probabilités
8. Loi Normale

X2
f(X) dX 
f(x) 

1  x-μ 
-2

 σ 
1
σ
π
g(Z) dZ
X1 μ
σ
X1
X
N ()

X 2 μ
σ
Changement de variable
Z = ( X - ) / 
Conservation des aires
N ()
g(z) 
2
e
1
2π
-
e
1
2
z
2
1
2
2π
1
2
a
a

X1 X2
X
0 Z11 Z2
Z
C - Lois de probabilités
8. Loi Normale
Principe de la table de la loi Normale Centrée Réduite
N ( 0,1)
1
-2z
e
2
(Echantillon de calculs d'intégrales)
1
2π
 Grâce au changement de variable Z = (X - )/,
on utilise la table de la loi Normale centrée
réduite pour calculer les probabilités (aires)
d'une loi Normale quelconque.
a
0
t
Z
f(z) 
1
2π
 a = P(Z > t) , t  0
C - Lois de probabilités
8. Loi Normale
Table de la loi Normale Centrée Réduite
N (0,1)
 a = P(Z > t) , t  0
(Echantillon de calculs d'intégrales)
a
t
Z
0
Exemple : P( Z > 2.43 ) = 0.0075494
 Utilise la symétrie de la loi
N (0,1)
 permet de trouver a , connaissant t
 permet de trouver t , connaissant a
 Il existe également la "table de l'écart réduit"
(on s'en servira dans les tests d'hypothèse)
C - Lois de probabilités
8. Loi Normale
Du Côté d’EXCEL :
(loi normale quelconque)
- loi.normale renvoie la valeur de P(X<z) pour z donné
- loi.normale.inverse renvoie z à partir de P(X<z)
C - Lois de probabilités
8. Loi Normale
Exercice "Les grains de maïs"
Les ingénieurs d'une coopérative agricole ont constaté que les grains d'un maïs issus d'une sélection
(résistant mieux aux intempéries) sont moins lourds que ceux du maïs utilisé jusqu'alors par la coopérative.
Suite à des statistiques répétées sur plusieurs années, on note que la masse des grains est distribuée
normalement dans les 2 populations de maïs, avec pour moyennes et écart-type exacts :
- maïs utilisé par la coopérative  moyenne : 3,4 g ; écart-type : 0,5 g
- variété sélectionnée pour sa résistance aux intempéries  moyenne : 3,2 g ; écart-type : 0,5 g
Seuls les grains de masse supérieure à 2,5 g sont commercialisables
A/ Calculez la probabilité des évènements suivants, d'une part pour le maïs utilisé par la coopérative,
d'autre par pour le maïs sélectionné :
- La masse des grains est inférieure à 2,5 g
- La masse des grains est comprise entre 3,0 et 4,0 g
- La masse des grains est supérieure à 4,0 g
B/ On prélève au hasard un grain de chacun des 2 types de maïs, quelle est la probabilité qu'un grain de
maïs utilisé par la coopérative ait une masse supérieure à celui du maïs sélectionné ?
C/ On dispose de données complémentaires qui montrent le traitement par un produit K translate les
distributions de 100 mg sur la gauche.
- Quelle est la proportion de grains non commercialisables chez le maïs exposé au traitement K et
chez le maïs non exposé au traitement K ?
- Quelle est l'augmentation relative du risque de non-commercialisation chez le maïs exposé au *
traitement K par rapport au maïs non exposé ?
Rappels occasionnés par l’exercice
Propriétés de l'espérance et de la variance
L'espérance, ou moyenne, d'une somme de variables aléatoires est égale à la somme des espérances de
ces variables  E(X1+ X2 + ... + Xn) = E(X1) + E (X2) + ...+ E(Xn)
La variance d'une somme, doit tenir compte du facteur covariance :
Var(X+Y) = Var(X) + Var(Y) + 2 cov(X,Y), avec cov(X,Y) = E(XY) – E(X).E(Y)
Toutefois, si X et Y sont 2 VA indépendantes, cov(X,Y) = 0 et dans ce cas : Var(X+Y) = Var(X) + Var(Y).
Coefficient de corrélation
La covariance de 2 variables X et Y dépend des unités choisies pour mesurer X et Y (par ex, lorsque X est
exprimé en Molaire tandis que Y l’est en mili-Molaire, cela induit un facteur 1000). Pour s’affranchir de ce
problème, on utilise un coefficient (noté ρ) très pratique, le coefficient de corrélation de X et de Y défini par
ρ = cov(X,Y) / σXσY
C - Lois de probabilités
9. Passage d’une loi binomiale à une loi normale
Evolution de la forme d’une distribution binomiale lorsque n est grand
0,12
n=50
0,10
P=0.5
nP=25
n(1-P)=25
0,08
P=0.7
nP=35
n(1-P)=15
0,06
0,04
0,02
0,00
0
2
4
6
8
10
12
14
16
18
20
22
24
26
28
30
32
34
36
38
40
42
44
46
48
50
C - Lois de probabilités
9. Passage d’une loi binomiale à une loi normale
Pratique : Les calculs impliquant une distribution binomiale peuvent,
dans certains cas, être approchés par une distribution normale (plus pratique à utiliser)
On utilise la moyenne et l’écart-type de la Binomiale pour définir la Normale
Lorsque
X
B (n  P)
et que
n P > 5 et n(1- P) > 5
Alors
n P > 5 et n(1- P) > 5
C’est en fait ainsi que la loi Normale a été
(re)découverte par Laplace vers 1800 !
les calculs de probabilité peuvent être approchés en utilisant
La loi de distribution Y
N (n P 
nΠ1 Π )
Remarque : Lorsque les conditions ne permettent pas cette approximation,
il faut alors essayer … la loi de Poisson …
C - Lois de probabilités
9. Passage d’une loi binomiale à une loi normale
Pratique : Les calculs impliquant une distribution binomiale peuvent,
dans certains cas, être approchés par une distribution normale (plus pratique à utiliser)
On utilise la moyenne et l’écart-type de la Binomiale pour définir la Normale
B (n  P)
Lorsque
P0
et que
n P > 5 et n(1- P) > 5
Alors
n P > 5 et n(1- P) > 5
les calculs de probabilité peuvent être approchés en utilisant
La loi de distribution Y
N(P
Π1 Π
n
)
Remarque : Lorsque les conditions ne permettent pas cette approximation,
il faut alors essayer … la loi de Poisson …
C - Lois de probabilités
9. Passage d’une loi binomiale à une loi normale
Exercice "Kit ou … double?"
L'industriel fabricant des kits de biotechnologie a mis en place une technique éliminant
les éléments défectueux. A l'issue de cette étape, 99% des kits vendus sont corrects et
utilisables sans risque de disfonctionnement.
L'industriel vient juste de vendre un lot de 1000 kits à l'un de ses distributeurs.
Préoccupé par son image de marque, il a demandé à une jeune stagiaire de lui donner,
dans l'heure, la probabilité qu'il y ait plus de 2% de kits défectueux dans le lot vendu.
Qu'en serait-il s'il avait vendu :
- un lot de 10000 kits?
- un lot de 100 kits?
Tracez les variations de la variance en fonction de la taille de l'échantillon
Exercice "Kit ou … double?"
Définissons les variables aléatoires utilisables dans cet exercice,
X : « Nombre d’éléments défectueux dans un lot de N kits de biotechnologie vendus »
Po : « Proportion d’éléments défectueux dans un lot de N kits de biotechnologie vendus »
L’épreuve de Bernoulli, répétée N fois, associe la probabilité P=1-0,99=0,01 (paramètre) à l’évènement
« un kit pris au hasard est défectueux ».
L'industriel vient juste de vendre un lot de 1000 kits à l'un de ses distributeurs. N=1000
X suit la loi binomiale B(1000, 0,01) de moyenne NP=10
Po suit la loi binomiale B(1000, 0,01) de moyenne P=0,01
et d’écart type [P(1-P)/N]1/2 =[0,01x0,99/1000]1/2=0,0032
P(Po >0,02) = P(X>20) = 1-[P(X=0)+P(X=1)+….+P(X=20)] . Ce calcul impliquant la somme de 21 termes
binomiaux est bien trop fastidieux. On s’intéresse donc de suite sur l’approximation par une loi Normale.
Comme NP et N(1-P) sont tous deux supérieurs à 5, cette approximation est possible.
Soit Y la variable aléatoire suivant la loi normale N(P, [P(1-P)/N]1/2), les fluctuation de Po peuvent être
approchées par la loi de Y. Pour N=1000 et P=0,01, Y suit la loi N(0,01, 0,0032)
P(Po>0,02)=P(Y>0,02)
P(Y>0,02)=P[Z>(0,02-0,01)/0,0032)], Z suivant la loi normale centrée réduite N(0,1)
P(Y>0,02)=P(Z>3,17)
P(Z>3,17)=0,00076
Ainsi la probabilité recherchée P(Po >0,02) est proche de 0,08%. L’industriel peu se rassurer!
S'il avait vendu un lot de 10000 kits, l’approximation Normale est encore meilleure. La moyenne ne
change pas, elle est toujours égale à 0,01 mais l’écart type de la loi B(1000, 0,01) valant
[0,01x0,99/10000]1/2=0,000995 (à peu près 0,001), la position de la valeur 0,02 sur la distribution normale
est cette fois à plus de 10 écart-type de la position de la moyenne 0,01! Autrement dit la probabilité
recherchée est nulle.
Exercice "Kit ou … double?« (suite)
S'il avait vendu un lot de 100 kits,
NP=1, étant inférieur à 5, l’approximation Normale n’est cette fois plus possible.
La moyenne de la loi B(100, 0,01) suivie par X vaut NP=1 et la variance est 0,01x0,99x100=0,0099, valeur
très proche de la moyenne. On ne peut donc utiliser la loi de Poisson P(1), de paramètre l=1 pour
effectuer les calculs.
Attention, N=100 donc P(Po >0,02) = P(X>2)
P(Po >0,02) = 1-[P(Po=0)+P(Po=0,01)+P(Po=0,02)]=P(X>2) = 1-[P(X=0)+P(X=1)+P(X=2)]
P(Po >0,02) =1-[C01000,010x0,99100+ C11000,011x0,9999+C21000,012x0,9998]
En utilisant la loi P(1) , P(Po >0,02) =1-(0,3679+0,3679+0,1839)
P(Po >0,02) =0,08, cette fois la probabilité n’est pas faible, elle concerne 8 ventes sur 100!
Rq : Pour appliquer la loi de Poisson, quelque soit N, il faut P(1-P) proche de P
P
P
PP P
NPP NP

Tableau des variations de la moyenne, de la variance, de l’écart-type de Po et de la probabilité
recherchée , en fonction de la taille de l'échantillon :
N


2
P(Po >0,02)
100
0,01
0,01
0,0001
0,080
250
0,01
0,0062
0,00004
0,054
500
0,01
0,0045
0,00002
0,012
1000
0,01
0,0032
0,00001
0,00076
10000
0,01
0,001
0,000001
0
Le risque est donc faible à partir de 500 kits vendus (probabilité de l’ordre de 1%, ce qui est raisonnable).
C - Lois de probabilités
10. Some more training
Exercice : « Les citrons »
(extrait de l’examen 2002)
Des citrons sont produits dans des conditions reproductibles par une entreprise
agroalimentaire du sud de l’Espagne pour laquelle vous travaillez. Ces citrons forment une
population de référence. Leur diamètre est distribué normalement dans cette population avec
une moyenne de 7,0 cm et un écart-type de 1,0 cm.
Un dispositif performant permet également de détecter, sur chaque citron, la concentration
de pesticide absorbé par l'écorce. Cette grandeur est, elle aussi, distribuée normalement
dans la population référence avec une moyenne de 2,5 mg/ml et un écart-type de 0,2 mg/ml.
Les citrons sélectionnés pour la vente sont ceux dont le diamètre (*) est compris entre 5,5 et
9,0 cm (inclus) et dont la concentration de pesticide absorbé par l'écorce est inférieure ou
égale à 2,8 mg/ml
Calculez
la proportion de citrons sélectionnés pour la vente dans la population référence.
(* Les citrons trop petits n’intéressent personne tandis que les citrons trop volumineux ont une écorce trop
épaisse et, très souvent, une forme irrégulière déplaisant aux consommateurs).
Exercice : « Les citrons » (extrait de l’examen 2002)
Population référence : citrons produits dans des conditions reproductibles par la firme
agroalimentaire (population infinie).
Soit X la variable aléatoire (quantitative continue) : "diamètre des citrons en cm" ;
X suit une loi N (7,0, 1,0)
Soit Y la variable aléatoire (quantitative continue) :
" concentration de pesticide absorbée par l'écorce d'un citron en mg/ml" ;
Y suit une loi N (2,5, 0,2)
a/ La proportion de citrons sélectionnées pour la vente dans la population référence
(population infinie) correspond à la probabilité P[(5,5<X< 9,0)  (Y<2,8)] ;
les 2 variables X et Y étant indépendantes :
P[(5,5<X< 9,0)  (Y<2,8)] = P(5,5<X< 9,0) x P(Y<2,8) ;
en appliquant le changement de variable W=(X-7,0)/1,0 et Z=(Y-2,5)/0,2 :
P[(5,5<X< 9,0)  (Y<2,8)] =
=
=
=
=
=
=
P(5,5<X< 9,0) x P(Y<2,8)
P(5,5-7,0 < W < 9,0-7,0) x P[Z < (2,8-2,5)/0,2]
P(-1,5 < W < 2,0) x P(Z < 1,5)
[1-P(W>1,5) + P(W > 2,0)] x [1-P(Z > 1,5)]
(1 - 0,0668 + 0,0228) x ( 1 - 0,0668)
0,9104x 0,9332
0,85
C - Lois de probabilités
10. Some more training
Exercice
"Diamond is the best girl friend... "
Tous les ans, le groupe agro-alimentaire DIAMOND (23 usines en Europe) est confronté
à une dure réalité : sur cinq réacteurs de la gamme R201 contrôlés, trois en moyenne
ont besoin d'une sérieuse révision. Une révision est facturée 500 Euros HT par réacteur.
L'usine de Toulouse possède 11 réacteurs de la gamme R201.
1/ Quelle est la probabilité que la facture de la révision de ses réacteurs soit comprise
entre 1000 et 1500 Euros HT ?
2/ Quelle est la probabilité qu'elle soit supérieure ou égale à 1500 Euros HT ?
3/ Quel est le coût moyen des réparations ?
pour répondre aux questions :
Définissez la population et l'échantillon d'étude.
Vous allez être amenés à utiliser 2 variables aléatoires. Définissez ces 2 variables. Pour chacune
d'elles, vous indiquerez si elle est discrète ou continue.
Justifiez vos calculs d'1 ou 2 lignes de commentaires en français.
Exercice
"Diamond is the best girl friend... "
Population : tous les réacteurs en service dans les 23 usines européennes du groupe agro-alimentaire
Echantillon : les 11 réacteurs de l'usine de Toulouse
Posons X=« Nombre de réacteurs ayant besoin d’une révision dans un échantillon de 11 »
X , variable quantitative discrète, suit une B(11,3/5) ; P=0,6
Appelons R le coût HT d’une réparation. R = 500 euros.
Posons Z=« Coût des réparations à réaliser dans l’usine de Toulouse »
Z=R.X, avec R constante
P(1000 ≤ Z ≤1500) = P(1000 ≤ R.X ≤ 1500)
P(1000 ≤ Z ≤1500) = P(1000/R ≤ X ≤ 1500/R)
P(1000 ≤ Z ≤1500) = P(2 ≤ X ≤ 3)
P(1000 ≤ Z ≤1500) = P(X=2)+P(X=3)
P(1000 ≤ Z ≤1500) = 55x0,62x0,49+165x0,63x0,48
P(1000 ≤ Z ≤1500) =0,028
P(Z ≥1500) = P(X ≥ 3)
P(Z ≥1500) = 1-P(X<3) =1-[P(X=0)+P(X=1)+P(X=2)]
P(Z ≥1500) = 1-[1x0,60x0,411+11x0,61x0,410+55x0,62x0,49]
P(Z ≥1500) = 1-0,0059
P(Z ≥1500) = 0,9940
L’espérance de la loi B(11, 0.6) est X=NP=11.0,6=6,6
Le coût moyen des réparations est : R. X=500x6,6=3300 euros
C - Lois de probabilités
10. Some more training
Exercice : « Du tabac pour la bonne cause »
Des études menées sur une exploitation pilote ont montré que la quantité d’une protéine
recombinante produite par un pied de tabac peut être représentée par un variable normale
de moyenne 10 mg et d’écart-type 2 mg.
- Quelle est, dans ces conditions, la probabilité d’observer dans cette exploitation un plan
ayant produit plus de 13 mg de protéine ?
- On prélève au hasard 50 plans de tabac de l’exploitation pilote.
Quelle est la probabilité d’observer au moins 3 plans ayant produit chacun plus de15 mg
de la protéine recombinante?
- Commentez ces résultats
Il est conseillé de bien définir la VA et la loi suivie par la VA pour répondre aux questions, de
faire un schéma si possible.
Exercice : « Du tabac pour la bonne cause »
Posons X =« quantité en mg d’une protéine recombinante produite par un pied de tabac »
X suit la loi N(10, 2). Nous recherchons P(X>13).
P(X>13)=P[Z>(13-10)/2] , Z suivant la loi normale centrée réduite N(0, 1).
P(X>13)=P[Z>1,5]
P(X>13)=0,0967 , soit 10% environ, ce qui n’est donc pas négligeable.
Posons Y =« nombre de plans de tabac produisant plus de 15 mg de protéine recombinante
parmi les 50 plans récoltés»
Y suit la loi binomiale B(50, P(X>15)). Il faut au préalable déterminer P(X>15).
P(X>15) = P[Z>(15-10)/2] ; P(X>15)=P[Z>2,5]=0,0062
Ainsi, plus précisément, Y suit donc une binomiale B(50, 0,006).
On recherche P(Y ≥ 3)=P(Y>2)=1-P(Y ≤ 2)
P(Y ≥ 3) = 1-[P(Y=0)+P(Y=1)+P(Y=2)]
P(Y ≥ 3) = 1-[C0500,0060x0,99450+ C1490,0061x0,99449+C2480,0062x0,99448]
Nous remarquons immédiatement que la probabilité associée à l’épreuve de Bernoulli (probabilité
élémentaire) est très petite. Ce qui laisse espérer l’utilisation d’une loi de Poisson.
La moyenne de la binomiale est NP=50x0,006=0,3 ; la variance est 2=NP1-P50x0,006x0,994=0,3
Moyenne et variance sont suffisamment proches pour utiliser une loi de poisson de paramètre l=0,3.
P(Y ≥ 3) = 1-[P(Y=0)+P(Y=1)+P(Y=2)]
P(Y ≥ 3) = 1 - (0,7408+0,2222+0,0333)
P(Y ≥ 3) = 0,004 ; probabilité très faible!
(Lecture de la table de la loi P(0,3))
C - Lois de probabilités
11. Fluctuation d’échantillonage d’une proportion expérimentale (observée)
B (5, 0.5)
p(X=k) Po
0.35
0.30
0.25
k
p(X=k)
Po
0
1
2
3
4
5
0.031
0.156
0.313
0.313
0.156
0.031
0.025
0.133
0.350
0.302
0.168
0.027
moy.
2.500
2.540
0.20
0.15
0.10
0.05
0.00
0
1
2
3
4
5
k
Résultat de l’échantillonnage (expérience réalisée sur un grand nombre d’échantillons)
Loi théorique (atteinte lorsque le tirage concerne une nombre infini d’échantillons)
C - Lois de probabilités
12. Travail avec R
Travail demandé :
Résoudre tous les exercices proposés en cours avec le logiciel R
(Un bon entraînement pour les examens pratique et théorique)
Téléchargement