ENS 2009-2010 2 année

publicité
ENS
2eme année
Dr. Aicha. Lazraq Khlass
2009-2010
Chapitre II
Probabilités
Section II (suite)
II. II. 2. viii. Dé…nition. (Indépendance de deux variables aléatoires).
Soient X et Y deux variables aléatoires dé…nies sur un univers telles que
X( ) et Y ( ) soient …nis. On note x1 ; :::; xn et y1 ; :::; yp les valeurs de X et Y:
On dit que X et Y sont des variables aléatoires indépendantes lorsque :
pour tout i 2 [1; n] et tout j 2 [1; p], les événements "X = xi " et "Y = yj " sont
indépendants.
.
II. II. 2. ix. Exemple.
On lance deux dés bien équilibrés. On note S la somme des résultats obtenus
et P le produit. Donner, sous forme de tableau la loi de probabilité du couple
(S; P ): Les variables aléatoires S et P dé…nies sur = f(i; j) =i 2 [1; 6] et j 2 [1; 6]g :sontelles indépendantes ?
On dresse deux tableaux donnant les di¤érentes possibilités de sommes et
de produits :
P 1 2
3
4
5
6
S 1 2 3 4
5
6
1 1 2
3
4
5
6
1 2 3 4 5
6 7
2 2 4
6
8 10 12
2 3 4 5 6
7 8
3 3 6
9 12 15 18
3 4 5 6 7
8 9
4 4 8 12 16 20 24
4 5 6 7 8
9 10
5 5 10 15 20 25 30
5 6 7 8 9 10 11
6 6 12 18 24 30 36
6 7 8 9 10 11 12
S=P
1
2
3
4
5
6
8
9 10 12 15 16 18 20 24 25
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
2
36
2
3
0 36
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
2
0
0
0
0
0
0
0
0
0
0
0
0
4
0
0 36
36
2
2
5
0
0
0 36
0 36
0
0
0
0
0
0
0
0
0
0
2
2
1
6
0
0
0
0 36
0 36
0
0
0
0
0
0
0
0
36
2
2
2
0 36
0
0
0
0
0
0
7
0
0
0
0
0 36 0
36
2
1
2
0
0
0
0
8
0
0
0
0
0
0
0
0
0 36
36
36
2
2
9
0
0
0
0
0
0
0
0
0
0
0
0 36
0
0
36
2
1
10
0
0
0
0
0
0
0
0
0
0
0
0
0
0 36
36
11
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
12
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
2
2
3
2
4
2
1
2
4
2
1
2
2
2
1
Loi de P 36
36
36
36
36
36
36
36
36
36
36
36
36
36
36
36
Les variables aléatoires S et P ne sont pas indépendantes. En e¤et :
P ("S = 2" \ "P = 2") = 0
1
30
0
0
0
0
0
0
0
0
0
2
36
0
2
36
36
0
0
0
0
0
0
0
0
0
0
1
36
1
36
Loi de S
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
1
1
2
2
P (S = 2)P (P = 2) = 36
36 = 362 6= 0
.
II. II. 2. x. Modélisation d’expériences. Répétition d’expériences
indépendantes.
Voici trois règles pratiques pour calculer des probabilités directement sur des
arbres.
* Exemple de situation où l’on réitère deux fois une expérience comportant deux issues A et B contraires l’une de l’autre. On note A1 (resp. A2 )
l’événement "A se réalise à la première (resp. deuxième) expérience". Mêmes
notations pour B. L’univers associé à cette situation comporte 4 issues :
=
fA1 A2 ; A1 B2 ; B1 A2 ; B1 B2 g
R1 : la somme des probabilités des branches partant d’une même racine est
toujours égale à 1 : P (A1 ) + P (B1 ) = 1 (ceci provient du fait que A et B sont
contraires)
R2 : la probabilité d’un chemin est égale au produit des probabilités des
branches de ce chemin : la probabilité du chemin A1 A2 est : P (A1 \ A2) =
P (A2jA1)P (A1) (formule de probabilité conditionnelle)
R3 : la probabilité d’un événement est la somme des probabilités des chemins
correspondant à cet événement : La probabilité de l’événement "obtenir exactement une fois A" est : P (A1 \ B2 ) + P (B1 \ A2 )
.
* Si on suppose que les deux expériences se déroulent de manière indépendante. On a alors l’arbre suivant :
La probabilité du chemin A1 A2 sera donc P (A1 )P (A2 )
.
* Cas particulier : si on répète n fois, de manière indépendante une expérience. La probabilité p qu’un événement A de cette expérience se réalise n fois
sera : p = (P (A))n :
.
Exemple.
On lance un dé n fois . Comment choisir n pour que la probabilité pn
d’obtenir au moins un 6, au cours des n lancers, soit supérieure ou égale à 0; 95?
On note : A = "on obtient au moins un 6 au cours des n lancers"
On a : A = "on obtient aucun 6 au cours des n lancers"
L’événement A se réalise, si et seulement si, pour chacun des n lancers, on
n’obtient pas de 6. D’après le cas particulier vu ci-dessus, on a :
n
P (A) = 65
5 n
D’où : pn = P (A) = 1
6
On cherche maintenant n tel que : pn 0; 95
5 n
1
0; 95
6
n
5
0; 05
6
La fonction ln étant croissante sur ]0; +1[, cette dernière inéquation équivaut à :
nln 65 ln0; 05
Et puisque ln 56 < 0 , on a : n ln0;05
ln 5
6
2
La calculatrice donne : ln0;05
= 16; 4 à 10 1 près
ln 56
Et comme n est un entier : n 17
On doit donc lancer le dés au moins 17 fois pour être sûr à 95% d’obtenir
au moins un 6.
.
II. III. Les lois usuelles.
II. III. 1. Loi de Bernoulli.
II. III. 1. i) Dé…nition. (Épreuve de Bernoulli).
Une épreuve de Bernoulli est une épreuve à deux issues, souvent appelées
succès et échec = fs; eg. On suppose que la probabilité de l’événement : un
succès a été obtenu vaut p ; et donc, la probabilité de l’événement contraire :
un échec a été obtenu vaut q = 1 p. Soit X la variable aléatoire qui associe
la valeur 1 à un succès a été obtenu et la valeur 0 à un échec a été obtenu :
X :
! R ; s 7 ! 1 et e 7 ! 0. La variable aléatoire X suit alors la loi de
Bernoulli de paramètre p. Cette loi est notée B(p).
.
II. III. 1. ii) Théorème. (Espérance).
Soit X une variable aléatoire suivant la loi de Bernoulli B(p). Alors, E(X) =
p:
En e¤et :
Valeur xi de lavariable
x1 = 0
x2 = 1
aléatoire X
Probabilité pi de
p1 = 1 p p2 = p
l0événement "X = xi"
E(X) = p1 x1 p2 x2 = p
.
II. III. 1. iii) Théorème. (Variance).
Soit X une variable aléatoire suivant la loi de Bernoulli B(p). On a : V (X) =
p(1 p) = pq.
En e¤et :
V (X) = p1 x21 + p2 x22 E(X)2 = p p2 = p(1 p) = pq.
.
II. III. 2. Loi binomiale.
II. III. 2. i) Dé…nition. (Schéma de Bernoulli).
On considère une épreuve de Bernoulli. On e¤ectue, dans les mêmes conditions, n fois de suite cette épreuve, n 2 N . Les n répétitions de l’épreuve sont
indépendantes les unes des autres. L’univers est un ensemble de n uplets.
.
II. III. 2. ii) Exemple.
On suppose que l’expérience soit répétée trois fois. Succès est représenté par
s et échec par e. Dans ce cas, = f(s; s; s); (s; s; e); (s; e; s); (e; s; s); (s; e; e); (e; s; e); (e; e; s); (e; e; e)g
On suppose que la probabilité d’obtenir s soit égale à p et que la probabilité
d’obtenir e soit égale à q. Comme il n’y a que deux issues, on a, q = 1 p.
Les trois événements A : le résultat de la première épreuve est s , B : le
résultat de la deuxième épreuve est s et C : le résultat de la troisième épreuve
est e sont indépendants. On en déduit que P (f(s; s; e)g) = P (A \ B \ C)
3
= P (A) P (B) P (C) = pp(1 p) = p2 (1 p). Comme il y a autant de
triplets où s apparaît deux fois que de sous-ensembles à deux éléments dans un
ensemble à trois éléments, on obtient que la probabilité d’obtenir exactement
deux fois le résultat s lorsque l’expérience aléatoire est répétée trois fois vaut :
3
p2 (1 p):
2
.
II. III. 2. iii) Théorème.
On considère une épreuve ayant deux issues : s et e. La probabilité d’obtenir
s comme résultat de l’expérience aléatoire est p. La probabilité d’obtenir e est
q = 1 p. On répète n fois cette épreuve dans les conditions de Bernoulli. Soit
X la variable aléatoire comptabilisant le nombre de réalisations de s au cours
des n répétitions de l’épreuve . On a, pour tout entier naturel k :
n
P (X = k) =
pk (1 p)n k .
k
Preuve.
La probabilité d’obtenir s lors des k premières répétitions de l’épreuve, puis e
lors des n k suivantes est , pk (1 p)n k , puisque les répétitions sont indépendantes les unes des autres. Comme il y a autant de n uplets où a apparaît
exactement k fois que de sous-ensembles à k éléments dans un ensemble à n
éléments, on en déduit le théorème.
.
II. III. 2. iv) Dé…nition et notation. (Loi binomiale B(n; p)).
La variable aléatoire X du théorème précédent a pour loi de probabilité la
loi binomiale de paramètres n et p. Le premier paramètre n, est le nombre de
répétitions de l’épreuve à deux issues ; le second paramètre p, est la probabilité
d’obtenir s comme résultat de l’épreuve à deux issues. La loi binomiale de
paramètres n et p se note : B(n; p).
.
II. III. 2. v) Théorème. (Espérance).
L’espérance de la variable aléatoire X, suivant la loi binomiale B(n; p), est :
E(X) = np.
Preuve.
P
P
n
n
E(X) =
k
pk (1 p)n k =
k
pk (1 p)n k
k
k
0 k n
1 k n
n
n 1
Or, pour k 6= 0, k
=n
k
k 1
P
n 1
Donc, E(X) = np
pk 1 (1 p)n 1 (k 1)
k 1
1 k n
P
n 1
n 1
= np
pk (1 p)n 1 k = np (p + 1 p)
= np.
k
0 k n 1
.
II. III. 2. vi) Théorème. (Variance).
La variance de la variable aléatoire X, suivant la loi de probabilité B(n; p),
est :
V (X) = np(1 p):
4
Preuve.
P
V (X) =
p)n
n
k
k2
0 k n
2
k
(np)
n
k
P
Or, pour k 6= 0, k
Donc, V (X) = np
pk (1
n
k
1
1
=n
P
n
k
k
P
n
k
pk
p)
1
pk (1
1
n
(k + 1)
k
0 k n 1
2
n 1 k
(np)
P
=
n
k
k2
pk (1
1
1
(1
p)n
1 (k 1)
1
pk (1
p)n
k
0 k n 1
= np
2
k
1 k n
1 k n
= np
p)n
p)n
1 k
2
1 k
P
+ np
2
(np)
(np)
n
1
pk (1
k
0 k n 1
(np)
n 1
2
= np (n 1) p + np (p + 1 p)
(np) = np (1 p).
.
II. III. 3. Loi de Poisson.
II. III. 3. i) Dé…nition et notation.
Soit 2 R+ . On dit que la variable aléatoire discrète X, à valeurs dans N,
suit la loi de Poisson de paramètre , notée : P ( ), si pour tout k dans N:
k
P (X = k) = k! e k
.
II. III. 3. ii) Théorème. (Espérance).
Soit X une variable aléatoire suivant la loi de Poisson P ( ). Alors, E(X) =
:
Preuve.
P k
P
P
k
k
k k! e , Or,
k k! e =
On sait que : E(X) =
k k! e = lim
e
n !+10 k n
k 0
P
k
1
(k 1)!
P
= e
k
! e
k!
1 k n
e = .
0 k n 1
. 1 k n
II. III. 3. iii) Théorème. (Variance).
Soit X une variable aléatoire suivant la loi de Poisson P ( ). Alors, V (X) =
:
Preuve.
On sait que : V (X) =
P
k
k
2
k!
k 0
k
0 k n
k 2 k! e
e
P
= e
0 k n 1
+
.
.
.
.
P
2
k
k!
=
P
1 k n
2
. D’où le résultat.
e
k
k (k
e
1
1)!
P
2
=
= e
0 k n 2
lim
n !+1
P
P
0 k n
(k + 1)
0 k n 1
k
k!
+ e
P
0 k n 1
5
k
k!
!
k
k k! e
k
k!
2
= e
! e
, Or,
P
k
0 k n 1
2
e +
e
k k! +
e =
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
II. IV. Loi géométrique.
Soit une épreuve de Bernoulli pour laquelle la probabilité de succès vaut p
et la
probabilité d’échec vaut q = 1 p: On considère, comme pour la loi binomiale, un schéma de Bernoulli. On suppose que l’épreuve de Bernoulli est répétée
indé…niment.
.
II. IV. 1. Dé…nition. (Loi géométrique G(p)).
Soit X la variable aléatoire qui à un schéma de Bernoulli associe le nombre
d’essais nécessaires à l’obtention du premier succès.
La variable aléatoire X suit la loi géométrique de paramètre p. Cette loi est
notée : G(p):
.
6
II. IV. 2. Théorème.
Soit X une variable aléatoire qui suit la loi géométrique de paramètre p.
Alors,
P (X = k) = p(1 p)k 1 :
.
Preuve.
L’indépendance des épreuves implique que la probabilité d’avoir un échec au
premier, au second,. . . , au k 1 eme essai, et un succès au k eme, est
égale au produit des probabilités de chacun de ces événements.
.
II. IV. 3. Théorème. (Espérance, Variance).
Soit X une variable aléatoire qui suit la loi géométrique G(p) avec p 6= 0.
On a alors : E(X) = p1 et V (X) = 1 p p :
.
Preuve. P
P
P
1
E(X) =
p (!) X (!) =
kp(1 p)k 1 = p k(1 p)k 1 = p (1 1+p)
2 =
k 0
1
p
k 1
k 1
P
P 2
2
V (X) = E(X 2 ) (E(X)) =
p (!) X 2 (!) p12 =
k p(1
k 0
k 1
P 2
P
(k(k 1) + k) (1 p)k 1 p12
= p k (1 p)k 1 p12 = p
k 1
k 1
P
P
= p k(k 1)(1 p)k 1 + p k(1 p)k 1 p12
k 2
k 1
P
P
= p (1 p)
k(k 1)(1 p)k 2 + p k(1 p)k 1 p12
k 2
p)k
1
1
p2
k 1
1 p
1
= 2p (1 p) p13 + p p12
p2 = p2 :
.
II. IV. 4. Exemple.
Un procédé de production fournit 0; 5% de pièces non conformes. On prélève
et on contrôle une à une des pièces, jusqu’à obtention d’une pièce non conforme.
On suppose le stock de pièces su¢ samment important pour assimiler ce tirage
à un tirage avec remise.
La probabilité que vingt essais soient nécessaires avant de tirer du stock une
pièce non conforme est : P (X = 20) = 0; 005(1 0; 005)20 1 :
En moyenne, le nombre de pièces à prélever pour obtenir une pièce non
conforme est : 100
0;5 = 200
.
II. V. Loi hypergéométrique.
La loi hypergéométrique est la loi que suit une variable aléatoire qui compte
le nombre d’individus dans un échantillon présentant un caractère donné, lorsque
la population n’est pas su¢ samment vaste pour assimiler ce prélèvement d’échantillon
à un tirage avec remise. Dans ce cas, la proportion d’individus présentant le caractère étudié varie à chaque fois qu’un individu est prélevé dans la population.
La loi binomiale n’est plus adaptée.
.
II. V. 1. Dé…nition. (Loi hypergéométrique H(N;D; n)).
7
On considère une population de N individus. Dans cette population, il y
a D
N indivudus présentant le caractère C. Soit X la variable aléatoire
qui à tout échantillon de n individus issu de la population, associe le nombre
d’individus présentant le caractère C. La variable aléatoire X suit la loi hypergéométrique H(N ; D; n):
II. V. 2. Théorème.
Soit X une variable aléatoire dont la loi de probabilité est H(N ; D; n). Alors,
pour tout entier
0 naturel
10 k :
1
D
n D A
@
A@
k
n k
0
1
P (X = k) =
N A
@
n
Preuve.
Si X = k, alors k individus ont été choisis parmi les D présentant le caractère, et n k ont été choisis parmi des N D ne présentant pas le caractère,
pour constituer l’échantillon de taille n. Le nombre de cas favorables est donc
D
n D
N
, alors que le nombre de cas possibles
:
k
n k
n
.
II. V. 3. Théorème. (Espérance).
Soit X une variable aléatoire dont la loi de probabilité est H(N;D; n). Alors,
E(X) = nD:
.
II. V. 4. Théorème. (Variance).
Soit X une variable aléatoire dont la loi de probabilité est H(N ; D; n): Alors,
N DN n
V (X) = nD
N
N N 1:
.
II. V. 5. Dé…nition. (Facteur d’exhaustivité).
n
Le coe¢ cient N
N 1 présent dans la formule de la variance est appelé : facteur
d’exhaustivité.
.
II. V. 5. Exemple.
Une urne contient N boules dont D sont noires et N D sont blanches.
On prélève sur ces N boules, n boules au hasard. Soit Ak l’évenement : "
l’échantillon prélevé contient k boules noires "
N
Nombre de façons de choisir les n boules parmi les N de l’urne :
n
D
Nombre de façons de choisir les k boules parmi les D noires :
k
Nombre de façons de choisir les n k boules parmi les N D blanches :
N D
n k
0
10
1
D A@ n D A
@
k
n k
0
1
La probabilité de l’évenement Ak est donc :
N
@
A
n
8
Téléchargement