Éléments de probabilités

publicité
Chapitre 1
Éléments de probabilités
1.1
Notion d’expérience aléatoire
Définition 1 Une expérience, dont on connait les issues possibles, est appelé expérience aléatoire s’il est impossible de savoir à
l’avance quelle en sera l’issue.
Exemple 1
– jeux de hasard (pile ou face, dé, loto, roulette, etc)
– sexe d’un enfant à naitre
– point d’impact d’un projectile
– temps d’attente d’un client au guichet d’une banque
– courbe des puissances appelées sur le réseau EDF pendant une période donnée
– durée de vie d’un atome radioactif
– ...
Définition 2 L’ensemble de toutes les issues possibles est appelé l’univers des possibles (ou simplement univers) associé à cette expérience. Il est généralement noté Ω et ses éléments ω.
Exemple 2
– Pour un tirage à pile ou face on a Ω = {P, F}.
– Pour un lancer de dé on a Ω = {1, 2, 3, 4, 5, 6}.
– Pour un problème de temps d’attente on peut prendre Ω = R+ (= [0, +∞[) (même si de façon plus réaliste on peut majorer le
temps d’attente à 8 heures par exemple et plutot prendre Ω = [0, 8]). On peut aussi prendre Ω = R+ pour la durée de vie d’un
atome radioactif.
Intuitivement un évènement est l’occurence d’un résultat ou d’un ensemble de résultats parmi les résultas possibles. Ainsi on pose
Définition 3 On appelle évènement un sous-ensemble de Ω.
Chaque sous ensemble de Ω contenant un seul élément, c’est à dire une seule issue possible est appelé événement élémentaire.
Exemple 3
– Ainsi, si on note ω1 , ..., ωn chaque issue possible, l’univers est alors Ω = {ω1 , ..., ωn } et chaque {ωi } est alors un événement
élémentaire. Par exemple si on lance un dé, l’univers est Ω = {1, 2, 3, 4, 5, 6} et l’évènement {6} est l’évènement élémentaire
“obtenir un 6".
– Toujours pour un lancer de dé, l’évènement A = {2, 4, 6} est l’évènement “obtenir un nombre pair".
– Dans le problème de temps d’attente (Ω = R+ ) l’ensemble A =]3, +∞[ est l’évènement “attendre plus de 3 heures".
– Dans l’expérience aléatoire “tirer au hasard vers la Terre avec le super canon laser nouvellement installé sur la lune", on peut
prendre Ω = “la sur f ace de la Terre” et le sous-ensemble A constitué de l’aire située à 5 km à la ronde du point de latitude
49.08N et de longitude 06.10E est l’évènement “tirer sur la ville de Metz".
– ...
ATTENTION :
Parfois un évènement élémentaire peut ne jamais arriver dans la réalité. Il peut n’être en sorte que “virtuel", mais nécessaire pour
obtenir une description simple et pratique de l’expérience.
On pourra donc considérer que l’ensemble de tous les évènements est l’ensemble P(Ω) constitué de tous les sous-ensembles de Ω.
On dit l’ensemble de toutes les parties de Ω.
ATTENTION :
Quand Ω est fini on peut toujours considérer P(Ω) comme l’ensemble de tous les évènements. Mais c’est souvent FAUX
QUAND Ω EST INFINI. L’ensemble de tous les évènements est alors un ensemble A inclu dans P(Ω) mais parfois strictement
plus petit. Un tel ensemble A doit vérifier certaines bonnes propriétés concernant l’intersection, la réunion et le passage au
complémentaire, si tel est le cas on appelle ça une tribu, ou encore une σ -algèbre.
On dit alors que (Ω, A ) est un espace probabilisable.
Exemple 4 (Ω, P(Ω)) est un espace probabilisable.
1
1.2
Vocabulaire des événements
Soit E une expérience aléatoire et Ω l’univers des possibles associé à cette expérience. Soit (Ω, A ) un espace probabilisable associée
à cette expérience (on pensera toujours à (Ω, P(Ω)) même si, en toute rigueur, ça peut être différent).
on a, pour A, B des sous-ensemble de Ω (c-àd des évènements), A, B ∈ A ,
Définition 4
– Ω est l’évènement certain.
– 0/ (l’ensemble vide) est l’évènement impossible.
– A ∪ B est l’évènement “A est réalisé ou B est réalisé" (“ou" inclusif comme veut l’usage en français).
– A ∩ B est l’évènement “A est réalisé et B est réalisé".
– Le complémentaire de A, Ā = Ω \ A, est appelé l’évènement complémentaire de A. C’est l’évènement qui n’est réalisé que si A
ne l’est pas.
– On dit que deux évènement sont incompatibles si, par définition, A∩B= 0/ (c-à-d A disjoint de B c-à-d A ⊂ B̄ c-à-d B ⊂ Ā).
1.3
Notion de probabilité
Soit E une expérience aléatoire et Ω l’univers des possibles associé à cette expérience. Soit (Ω, A ) un espace probabilisable associée
à cette expérience (on pensera toujours à (Ω, P(Ω)) même si, en toute rigueur, ça peut être différent).
Définition 5 On dit que P est une probabilité sur l’espace probabilisable (Ω, A ) si P est une application de A dans [0, 1] vérifiant
1. P(Ω) = 1
2. Si (Ai )i∈N est une suite
[ d’évènements deux à deux incompatibles (c-à-d (Ai )i∈N est une suite d’éléments de A deux à deux
disjoints) on a P( Ai ) = ∑ P(Ai )
i
i
On dit alors que (Ω, A , P) est un espace de probabilité.
Dans le cas où Ω est fini on peut simplifier la définition. On a
Définition 6 (CAS Ω FINI)
Si Ω est une ensemble fini on dit que P est une probabilité sur l’espace probabilisable (Ω, P(Ω)) si P est une application de P(Ω)
dans [0, 1] vérifiant
1. P(Ω) = 1
2. Si A et B sont des évènement incompatibles on a
P(A ∪ B) = P(A) + P(B).
Exemple 5
– Pour un univers fini Ω = {ω1 , ω2 , . . . , ωn }, on définit la probabilité "équiprobable" en donnant à chaque évènement élémentaire
une probabilité égale c-à-d, pour tout i variant de 1 à n, P({ωi } = n1 , n étant le cardinal de Ω.
nombre d’éléments dans A
On a donc, pour tout évènement A, P(A) =
nombre d’éléments dans Ω
C’est la probabilité qui régit le lancer de pièce de monnaie ou le lancer de dé, si la pièce ou le dé ne sont pas truqués.
– Si on dispose d’une pièce truquée qui tombe deux fois plus sur “face" que sur “pile" on a Ω = { f , p} avec P({ f }) = 32 et
P({p}) = 13 .
C’est également la probabilité décrivant, par exemple, le tirage d’une boule dans une urne contenant 20 boules blanches et 10
boules noires.
On déduit aisément de la définition les propriétés suivantes
Proposition 1
1. Pour tout évènement A, 0 6 P(A) 6 1.
2. P(0)
/ = 0.
3. Si A ⊂ B alors P(A) 6 P(B).
4. P(Ā) = 1 − P(A).
5. Pour tout évènement A et B on a P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Démonstration. Le faire en exercice.
Remarque 1 (CAS Ω FINI) Pour un univers fini Ω = {ω1 , ω2 , . . . , ωn } le fait de connaitre tous les P({ωi }) pour i variant de 1 à n
détermine entièrement P. En effet si A est un évènement il peut s’écrire A = {ω j1 , ω j2 , . . . , ω j p } avec p 6 n et on a
P(A) = P({ω j1 }) + P({ω j2 }) + . . . + P({ω j p }), puisque les {ωi } sont des évènements deux à deux indépendants.
2
1.4
1.4.1
Probabilités conditionnelles
Définitions
Définition 7 Soit (Ω, A , P) un espace de probabilité. Soit A un évènement de probabilité non nulle.
P(A ∩ B)
On définit l’application PA de A dans R+ par, pour tout B ∈ A , PA (B) =
P(A)
On dit que PA (B) est la probabilité que l’événement B soit réalisé sachant que A l’est déjà.
On note souvent PA (B) par P(B | A) et on dit “probabilité de B sachant A".
On l’appelle probabilité conditionnelle (relative à A).
Proposition 2 PA est une probabilité sur l’espace probabilisable (Ω, A ).
Démonstration. Le faire en exercice.
Remarque 2 Soit AA l’ensemble constitué de tous les sous-ensembles de Ω s’écrivant X ∩ A avec X ∈ A . On a alors : PA est une
probabilté sur l’espace probabilisable (A, AA ). Dans le cas où Ω est fini, on a AA = P(A).
Proposition 3 Soient A et B deus évènements de probabilité non nulle. On a
P(A ∩ B) = P(A | B) P(B) = P(B | A) P(A)
Démonstration. Le faire en exercice.
Exemple 6
Deux machines M1 et M2 fabriquent des tiges. Elles produisent respectivement 1/3 et 2/3 de la production. La machine M1 sort 5%
de tiges défectueuses et M2 en sort 6%. Soit les événements A : « la tige est fabriquée par M1 », B : « la tige est fabriquée par M2 » et
D : « la tige est défectueuse ».
1. Quelle est la probabilité que la tige soit fabriquée par M1 ?
2. On tire une tige de la production de M1. Quelles est la probabilité qu’elle soit défectueuse ?
3. On tire une tige de la production. Quelle est la probabilité pour qu’elle provienne de M1 et qu’elle soit défectueuse ?
4. On tire une tige de la production. Quelle est la probabilité pour qu’elle soit défectueuse ?
5. Quelle est la probabilité qu’une pièce défectueuse ait été fabriquée par M1 ?
6. Trouver les probabilités de tous les évènements élémentaires.
Solutions :
1. C’est P(A) = 1/3.
2. C’est p(D | A) = 5/100.
3. C’est P(A ∩ D) = p(D | A)P(A) = 1/60.
4. C’est P(D) = P((A ∩ D) ∪ (B ∩ D)) = P(A ∩ D) + P(B ∩ D) = P(D | A)P(A) + P(D | B)P(B) = 17/300 .
P(A ∩ D)
1 300
5
5. C’est P(A | D) =
= .
= .
P(D)
60 17
17
1.4.2
Évènements indépendants
Définition 8 Soit (Ω, A , P) un espace de probabilité. Deux évènements A et B sont dits indépendants si, par définition,
P(A ∩ B) = P(A) P(B).
Par la formule des probabilités conditionnelles on obtient
Proposition 4 Soient A et B deux évènements de probabilité non nulles.
A et B sont indépendants SI et SEULEMENT SI
1. P(A ∩ B) = P(A) P(B)
2. P(B | A) = P(B)
3. P(A | B) = P(A)
Donc deux évènements sont indépendants si et seulement si la réalisation de l’un n’influe en rien sur la réalisation de l’autre.
ATTENTION :
L’indépendance et l’incompatibilité sont deux notions totalement différentes !
La proposition suivante en apporte une preuve.
Proposition 5 Si A et B sont des évènements incompatibles, chacun de probabilité non nulle alors ils ne sont pas indépendants.
Démonstration. A et B sont incompatibles c-à-d A∩B= 0/ et donc P(A ∩ B) = 0. Or A et B sont de probabilité non nulle donc
P(A) P(B) 6= 0 et donc P(A) P(B) 6= P(A ∩ B) c-à-d A et B ne sont pas indépendants (ou encore A et B sont dépendants).
3
1.5
1.5.1
Variables aléatoires
Définition
Définition 9 Soit (Ω, A , P) un espace de probabilité. Une variable aléatoire X est une fonction de Ω dans R
telle que, pour a, b ∈ R et a 6 b, on a X −1 ([a, b]) = {ω ∈ Ω tels que X(ω) ∈ [a, b]} est un élément de A .
Dans notre cas nous n’aurons jamais à vérifier la condition car nous ne considèrerons que des variables aléatoires classiques dont on
admettra qu’elles vérifient la condition.
Exemple 7
– Pour l’expérience “pile ou face", Ω = {p, f }, on peut considérer la variable aléatoire X définie par X( f ) = 0 et X(p) = 1.
– Pour l’expérience aléatoire “2 lancers de dé" (ou “lancer de 2 dé" c’est la même chose) on a
Ω = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), . . . , (6, 5), (6, 6)} soit 36 éléments tels que (i, j) signifie “i est le résultat
du premier lancer, j est le résultat du second". On peut alors définir de nombreuses variables aléatoires, par exemple
– la variable X défini par X(i, j) = i + j, somme des résultats des 2 lancers (ou des 2 dés).
– la variable Y défini par Y (i, j) = |i − j| l’écart entre les résultats des deux lancers.
Notations : Pour a, b ∈ R, a 6 b, a ou b éventuellement infini, on définit
X −1 ([a, b]) = {ω ∈ Ω tels que X(ω) ∈ [a, b]} = {ω ∈ Ω tels que a 6 X(ω) 6 b} l’ensemble des éléments de Ω tels que X(ω) est
compris entre a et b.
On note aussi cet ensemble par {a 6 X 6 b}.
Si a = −∞ on note alors cet ensemble par {X 6 b} et si b = +∞ par {X > a}. Si a = b on note {X = a} l’ensemblr des ω tels que
X(ω) = a.
On omet parfois les accolades.
A partir de toute variable aléatoire X on va définir une probabilité sur un espace probabilisable dont l’univers est R. Comme R est
infini la question du choix d’une tribu A se pose car, pour des raisons que l’on ne peut exposer ici, on ne peut pas prendre P(R) tout
entier.
On définit la tribu B composée de tous les sous-ensembles de R obtenus par une suite, éventuellement infinie, d’intersections, de
réunion ou de passage au complémentaire sur des intervalles de type [a, b]. B est appelé l’ensemble des boréliens.
Définition 10 Soit X une variable aléatoire définie sur l’espace de probabilité (Ω, A , P). On définit alors une loi de probabilité PX sur
l’espace probabilisable (R, B) par
PX ([a, b]) = P(X −1 ([a, b]).
(R, B, PX ) est alors un espace de probabilité.
Par les notations précédentes on a donc PX ([a, b]) = P(a 6 X 6 b) et on dit “probabilité pour que la valeur de X soit comprise entre
a et b".
PX est appelée loi de probabilité de la variable aléatoire X ou plus simplement loi de X.
1.5.2
Détermination de la loi d’une variable aléatoire
Fonction de répartition
Définition 11 Soit X une variable aléatoire définie sur l’espace de probabilité (Ω, A , P). La fonction de répartition de X est la fonction
FX : R −→ R définie, pour tout x ∈ R, par
FX (x) = P(X 6 x)
Proposition 6 (Propriétés de la fonction de répartition)
1. FX (−∞) := lim FX (x) = 0
x→−∞
2. FX (+∞) := lim FX (x) = 1
x→+∞
3. FX détermine complètement PX .
Exemple 8 Pour X définie par X( f ) = 0 et X(p) = 1 dans l’expérience “pile ou face" on a FX (x) =

 0
1
2

4
1
si x < 0
si 0 6 x < 1
si x > 1
Fonction de densité
Pour la prochaine notion nous avons besoin d’un peu plus de vocabulaire de théorie des ensembles.
– Un ensemble dénombrable est un ensemble infini mais que l’on peut énumérer, c-à-d où chaque élément peut-être “étiqueté" par
un nombre entier. Un ensemble dénombrable est donc de la forme {ω1 , ω2 , ω3 , . . . , ωk , . . .}.
– Un ensemble discret est soit un ensemble fini, soit un ensemble dénombrable.
– Si un ensemble infini n’est pas dénombrable on dira qu’il est continu.
Si toutes les valeurs possibles que peut prendre une v.a. donnée X forment un ensemble discret on dira que X est une variable
aléatoire discrète. Sinon on dit que X est une variable aléatoire continue (c-à-d que X peut prendre une infinité non dénombrable de
valeurs).
Exemple 9
– Les v.a. décrites à l’exemple 7 sont toutes discrètes.
– Si on considère pour univers tous les étudiants de l’université de Metz et que l’on considère la v.a. qui à tout étudiant associe son
sexe (codé 1 pour un homme, 2 pour une femme), c’est encore une v.a. discrète puisque les seules valeurs possibles sont 1 ou 2.
– Toujours sur les étudiants, la v.a. qui à chacun associe leur performance sur une course de 100m est continue, en effet une valeur
possible est 12 s mais une autre est 12 s 3 dixièmes, une autre 12 s 3 dixièmes 6 centièmes, une autre 12 s 3 dixièmes 6 centièmes
5 millièmes, etc. On suppose évidemment, de façon irréaliste, que l’on dispose d’un chronomètre de précision infinie.
– De façon plus réaliste on sera souvent obligé de discrétiser une telle variable. En effet si on dispose d’un chrono précis au centième
et en supposant que personne ne mette plus de 30s à courir le 100m, la v.a. ne pourra au plus que 3000 valeurs différentes. Et donc
une v.a. discrète.
Si X est une v.a. discrète finie
On a alors Ω =
n
[
c-à-d si X ne peut prendre qu’un nombre fini de valeurs distinctes. On note x1 , x2 , . . . , xn ces valeurs.
{X = xi } et {X = xi } ∩ {X = x j } = 0/ si i 6= j (en effet ω ∈ {X = xi } ⇔ X(ω) = xi . Donc X(ω) 6= x j puisque xi 6= x j et
i=1
donc ω 6∈ {X = xi }). Donc les {X = xi } pour i allant de 1 à n forment une famille d’évènement deux à deux incompatibles. On a donc
1 = P(Ω) = P(
n
[
n
{X = xi }) = ∑ P(X = xi )
i=1
i=1
Définition 12 Soit X une v.a. discrète finie sur l’espace de probabilité (Ω, A , P). Soient x1 , x2 , . . . , xn les n valeurs distinctes pouvant
être prises par X.
P(X = xi ) si x = xi pour un i entre 1 et n
La fonction fX (x) =
s’appelle fonction de densité de la v. a. X.
0
si x 6= xi pour tous les i entre 1 et n
Proposition 7 Avec les notations de la définition précédente on a
P(X 6 x) = FX (x) =
fX (xi ) =
∑
i
t. q. xi 6x
∑
i
P(X = xi )
t. q. xi 6x
et donc fX définie complètement P.
Si X est une v.a. discrète infinie (dénombrable) Avec un peu de précautions on peut définir les mêmes notions et écrire les mêmes
formules en remplaçant n par +∞.
Si X est une v.a. continue
Définition 13 Soit X une v. a. discrète sur l’espaceZ de probabilité (Ω, A , P).
x
S’il existe fX telle que
P(X 6 x) = FX (x) =
−∞
fX (u) du
on dit que fX est la fonction de densité de X.
ATTENTION :
Il existe des v. a. continues dont la fonction de répartition ne peut pas être définie par une fonction de densité.
1.5.3
Espérance et variance
CAS d’une v.a. discrète
CAS d’une v.a. continue
Définition 14 Soit X une v.a. discrète finie sur l’espace de probabilité (Ω, A , P). Soient x1 , x2 , . . . , xn les n valeurs distinctes
pouvant être prises par X.
Définition 15 Soit X une v.a. continue sur l’espace de probabilité (Ω, A , ZP), admettant une fonction de densité fX .
n
n
i=1
i=1
– E (X) = ∑ xi fX (xi ) = ∑ xi P(X = xi ) est appelée espérance
de X.
n
n
– Var(X) = ∑ (xi −E (X))2 fX (xi ) = ∑ (xi −E (X))2 P(X = xi )
i=1
i=1
est appelée variance de X.
Dans tous les cas l’écart-type est la racine carrée de la variance.
5
– E (X) =
+∞
x fX (x) dx est appelée espérance de X.
−∞
Z +∞
– Var(X) =
X.
−∞
(x − E (X))2 fX (x) dx est appelée variance de
1.6
1.6.1
Lois de probabilités usuelles
Lois discrètes
Loi équiprobable
Une variable aléatoire discrète finie X prenant les valeurs distinctes x1 , ..., xn est de loi équiprobable si, par définition,
P(X = xk ) =
1
n
Pour tous les k = 1, ..., n.
Exemple type On lance un dé équilibré à n faces et X est la variable aléatoire qui vaut le nombre de point indiqué sur la
face supérieure.
1 n
Paramètres Espérance : E (X) = ∑ xk
n k=1
1 n
1 n
Variance : Var(X) = ∑ xk2 − 2 ( ∑ xk )2
n k=1
n k=1
Loi de Bernoulli
Une variable aléatoire discrète finie X est de loi de Bernoulli de paramètre p, (0 ≤ p ≤ 1) si, par définition, X prend les
valeurs 0 ou 1 et
P(X = 1) = p
et
P(X = 0) = (1 − p) = q.
Exemple type On lance une pièce truquée dont la probabilité de pile est p et X est la variable aléatoire qui vaut 1 pour pile
et 0 pour face.
Autre exemple type On tire une boule dans une urne contenant n1 boules gagnantes et n2 boules perdantes et X est la
variable aléatoire qui vaut 1 pour une boule gagnante et 0 pour une boule perdante. On note alors
p = P(X = 1) =
Paramètres
n1
n1 + n2
et
q = P(X = 0) =
n2
n1 + n2
Espérance : E (X) = p
Variance : var(X) = p(1 − p) = pq
Loi Binomiale
Une variable aléatoire discrète finie X est de loi Binomiale de paramètre n et p, (0 ≤ p ≤ 1) si, par définition, X prend les
valeurs k = 0, 1, ..., n et
P(X = k) = Cnk pk (1 − p)n−k
Pour tous les k = 0, 1, ..., n..
où Cnk =
n!
est le nombre de possibilité de choisir k éléments parmi n.
k!(n − k)!
Exemple type On tire n boules (avec remise) dans une urne contenant n1 boules gagnantes et n2 boules perdantes et X est
la variable aléatoire qui compte le nombre de boules gagnantes. On note alors
p=
n1
n1 + n2
q = (1 − p) =
et
n2
n1 + n2
Notation ”X est de loi B(n, p).“
Paramètres
Espérance : E (X) = np
Variance : var(X) = np(1 − p) = npq
Loi Hypergéométrique
Une variable aléatoire discrète finie X est de loi Hypergéométrique de paramètre n et n1 , n2 si, par définition, X prend les
valeurs k = 0, 1, ..., n et
Cnk .Cnn−k
P(X = k) = 1n 2
Pour tous les k = 0, 1, ..., n.
Cn1 +n2
Exemple type On tire n boules (sans remise) dans une urne contenant n1 boules gagnantes et n2 boules perdantes et X est
la variable aléatoire qui compte le nombre de boules gagnantes. On note alors
N = n1 + n2 ,
p=
n1
n1 + n2
Notation ”X est de loi H(n; n1 , n2 )“.
Paramètres
nn1
= np
n1 + n2
N − n n1
n1
N −n
Variance : var(X) =
n (1 − ) =
np(1 − p)
N −1 N
N
N −1
Espérance : E (X) =
6
1.6.2
Loi discrètes infinies (Dénombrables)
Loi de Poisson
Une variable aléatoire discrète X est de loi de Poisson de paramètre λ > 0, si, par définition, X prend toutes valeurs k ∈ N
et
λk
P(X = k) = e−λ
Pour tous les k ∈ N.
k!
Exemple type : File d’attente X est la variable aléatoire qui compte le nombre d’individu se présentant dans un endroit
donné pendant un temps donné.
Notation ”X est de loi P(λ )“.
Paramètres
1.6.3
Espérance : E (X) = λ
Variance : var(X) = λ
Loi continue
Loi normale
Une variable aléatoire continue X est de loi Normale de paramètre µ et σ , si, par définition, X prend toutes valeurs x ∈ R et
sa fonction de densité est
!
x−µ 2
1
−2
1
σ
.
fX (x) = √ e
σ 2π
On l’appelle aussi ”Loi de Gauss“ ou ”Loi de Laplace-Gauss“. Sa fonction de densité est appelée ”gaussienne“.
Notation ”X est de loi N (µ, σ )“.
Paramètres
Espérance : E (X) = µ
Variance : Var(X) = σ 2
Ecart-type : σ (X) = σ
Définition 16 La loi normale centrée réduite, notée N (0, 1), est la loi normale de paramètre µ = 0 et σ = 1 ; sa fonction
de densité est
1 2
1
f (x) = √ e− 2 x .
2π
.
X −µ
Proposition 8 Si X est une variable aléatoire de loi N (µ, σ ) alors la variable aléatoire Z =
est de loi N (0, 1).
σ
Fonction de répartition de N (0, 1) Si la variable aléatoire Z est de loi N (0, 1) sa fonction de répartition est
1
FZ (x) = P(Z ≤ x) = √
2π
Z x
1 2
e− 2 x dx.
−∞
Elle représente l’aire sous la courbe de la fonction de densité fZ entre −∞ et x.
F IG . 1.1 – Graphe de la densité gaussienne et aire représenté par la fonctiuon de répartion
Cette fonction de répartition étant très difficile à calculer, on trouve sa valeur dans une table :
Remarque 3 Si Z est une variable aléatoire de loi N (0, 1)
1. P(Z > α) = 1 − F(α) ;
2. P(α < Z ≤ β ) = F(β ) − F(α) ;
3. P(|Z| > α) = 2(1 − F(α)) ;
7
8
Téléchargement