Variables aléatoires à valeurs réelles Loi binomiale, loi de Poisson

publicité
MT18
A 2012
Variables aléatoires à valeurs réelles
Loi binomiale, loi de Poisson, loi normale
Aleth Chevalley
1. Fonction de répartition
1.1. Variable aléatoire à valeurs réelles
Définition : Soit un ensemble fondamental Ω composé d’évènements élémentaires ω, on appelle
variable aléatoire à valeurs réelles X, l’application de Ω dans R qui à tout évènement
élémentaire fait correspondre un évènement de X(Ω).
X :Ω → ℝ
ω ֏ X (ω )
A partir de probabilités P définies sur Ω, nous allons chercher à définir des probabilités sur X(Ω).
Pour tout nombre k de X(Ω), on note P(X=k) = P ( { ω ∈ Ω ; X(ω) = k } )
Exemple : On tire au hasard une boule dans une urne contenant une boule rouge R,une boule verte V et une boule
bleue B. On remet la boule tirée et on effectue un second tirage d’une boule, chacune des 3 boules ayant dans ce cas
la même probabilité d’être choisie.
Déterminer l’ensemble Ω ( ensemble d’évènements élémentaires = doublets)?
Combien y a-t-il d’évènements élémentaires ?
Quelle est la probabilité de chaque évènement élémentaire ?
Calculer la probabilité de tirer au moins une boule verte ?
On associe la variable aléatoire à valeurs réelles (fonction) suivante :
A tout tirage de 2 boules, on associe un gain (ou une perte = gain négatif)
Pour chaque boule rouge tirée on gagne 6 €.
Pour chaque boule verte tirée on gagne 1 €.
Pour chaque boule bleue tirée on perd 4 € (gain – 4 €).
Quel est l’ensemble X(Ω) des gains possibles (ce sont les valeurs prises par X, ou l’image de Ω par X) ?
Quelle est la probabilité associée à chaque gain ?
Soit D l’évènement « on gagne 2 € » ; Quelle est la probabilité associée à ce gain ?
Soit G l’évènement « on obtient un gain positif » ; Quelle est la probabilité associée à cet évènement ?
1.2. Loi de probabilité ou distribution d’une variable aléatoire
Définition : La loi de probabilité ou distribution d’une variable aléatoire X est la fonction
X (Ω) → [ 0, 1]
k ֏ P( X = k )
On obtient un diagramme en bâtons
Exemple : (suite de l’exemple précédent)
Tracer le diagramme en bâtons
Cours lois binomiale, Poisson, normale
1/8
A Chevalley
MT18
1.3. Fonction de répartition
Définition : La fonction de répartition de la variable aléatoire X est la fonction F :
F : ℝ → [ 0, 1]
x ֏ F ( x) = P( X ≤ x)
D’une manière générale, pour tout nombre réel x, on note P(X x) = P ( { ω ∈ Ω ; X(ω)
x })
On obtient une fonction en escalier.
Exemple : (suite de l’exemple précédent)
Tracer la fonction de répartition (en escalier)
2. Espérance, variance et écart type
2.1. Espérance mathématique
L’espérance mathématique d’une variable aléatoire discrète prenant n valeurs xi avec les
probabilités P ( X = xi ) = pi où 1 i n, est
n
E (X) =
∑ p .x
i =1
i
i
L’espérance mathématique représente la moyenne des valeurs prises par une variable aléatoire.
Exemple : (suite de l’exemple précédent)
Reprendre la loi de distribution pour X
Calculer E(X)
Remarque : Soient a et b des constantes réelles et soit X une variable aléatoire d’espérance
mathématique E(X) on a E (a.X + b) = a E(X) + b
2.2. Variance
La variance d’une variable aléatoire X est, si elle existe, l’espérance mathématique de la variable
aléatoire (X – E(X))2 . On note
V (X) = E(X2) – ( E(X) )2
Démonstration : Si X prend pour valeur xi
(xi – E(xi ))2 = xi 2 – 2 E(xi ).xi + ( E(xi ) )2 on sait que 2 E(xi ) et( E(xi ) )2 sont des constantes
donc V(X) = E [xi 2 – 2 E(xi ). xi + ( E(xi ) )2 ] = E(xi 2) – 2 E(xi ). E(xi ) + ( E(xi ) )2 =
= E(xi 2) – ( E(xi ) )2 = E(X2) – ( E(X) )2
Conséquence :
V (a.X + b ) = a2. V(X)
2.3. Ecart type
Cours lois binomiale, Poisson, normale
2/8
A Chevalley
MT18
L’écart type d’une variable aléatoire X est, la racine carrée de la variance de la variable aléatoire
X. On note σ
σ(X) = V ( X )
Exemple : (suite de l’exemple précédent)
Calculer E(X2) puis V(X) et σ (X)
3. Lois usuelles
3.1. Loi binomiale
3.1.1. Champ d’intervention de la loi binomiale
On utilise la loi binomiale chaque fois qu’une épreuve aléatoire élémentaire peut déboucher
sur 2 résultats, et 2 seulement, appelés par exemple « succès » et « échec », de probabilités
respectives p et q =1 – p.
On réalise n fois cette épreuve aléatoire et on note X la variable aléatoire mesurant le nombre
de « succès » obtenus au cours de ces n épreuves aléatoires élémentaires.
Si les n épreuves aléatoires élémentaires sont indépendantes, alors X suit la la loi binomiale
B(n,p).
Les épreuves sont indépendantes dans le cas d’un tirage avec remise (ou si on considère un
petit échantillon – n petit- parmi une population très grande).
3.1.2. Définition
Une variable aléatoire X suit une loi binomiale B(n,p) de paramètres n et p, où n est un
nombre entier naturel et p un réel tel que 0
la manière suivante :
Pour tout entier naturel k tel que 0
k
p
1, lorsque sa loi de probabilité est définie de
n
n
P( X = k ) =   . p k .(1 − p ) n − k
k 
Cette formule provient du binôme de Newton avec a = 1 – p et b = p
3.1.3. Propriétés
Soit X est une variable aléatoire suivant la loi binomiale B(n,p), on a :
E (X) = n.p
V(X) = n.p.(1 – p)
σ(X) =
n. p.(1 − p)
.
Exemple : Dans une école d’ingénieurs, il y a des étudiants venant de toute la France. Un tiers des étudiants vient
du Nord Est de la France (Alsace, Bourgogne, Franche Comté).
Quand on choisit un étudiant, la probabilité d’être choisi est la même pour tous (équiprobabilité).
E : l’étudiant choisi habite dans le Nord Est de la France
E : l’étudiant choisi n’habite pas dans le Nord Est de la France
Cours lois binomiale, Poisson, normale
3/8
A Chevalley
MT18
Soit Ω = { E,
E } 2 éléments n = 2
On note p = 1/3 la probabilité de E et q = 1 – p = 2/3 la probabilité de
E
On choisit 5 dossiers d’étudiants avec remise. Les dossiers sont indépendants.
5
Calculer X(Ω ) puis P(X=2) ainsi que l’espérance,
la variance et l’écart type
3.2. Loi de Poisson
3.2.1. Définition
λ) de paramètres λ positif lorsque sa loi de
Une variable aléatoire X suit une loi de Poisson P(λ
probabilité est :
Pour tout entier naturel k
P( X = k ) = e
−λ
λk
k!
3.2.2. Propriétés
Soit X est une variable aléatoire suivant la loi de Poisson P(λ
λ), on a :
E (X) = λ
V(X) = λ
σ(X) =
λ
.
Exemple :
3.2.3. Approximation d’une loi binomiale par une loi de Poisson
On admet que si n est « grand », p « voisin » de 0 et n.p pas « trop grand », alors la loi B(n,p)
est très proche de la loi P(λ
λ) où λ = n.p
On convient en général d’utiliser cette approximation lorsque n
30, p ≤ 0.1 et n.p <15 ou lorsque n
50, p ≤ 0.1
et n.p ≤10
3.2.4. Champ d’intervention de la loi de Poisson
La loi de Poisson intervient dans la modélisation de phénomènes aléatoires où le futur est
indépendant du passé.
La loi de Poisson peut intervenir dans les problèmes suivants :
- pannes de machines, sinistres, appels téléphoniques dans un standard, files d’attente, mortalité, temps de
guérison, stocks …
3.3. Loi normale
3.3.1. Définition
Une variable aléatoire X suit la loi normale N(m,σ
σ) de paramètres m et σ lorsque sa densité
de probabilité est la fonction f définie sur R par
Cours lois binomiale, Poisson, normale
4/8
1  t −m 
σ 
2
− 
1
f (t ) =
.e 2 
σ 2π
A Chevalley
MT18
Exemple : Soient les fonctions f1 et f2 définies par :
f1 (t ) =
1
.e
2 2π
1  t −1 
− 

2 2 
2
−
1
.e
2π
f 2 (t ) =
t
2
2
La fonction f1 est la densité de probabilité de la loi normale N(1,2).
La fonction f2 est la densité de probabilité de la loi normale N(0,1).
On trace les courbes C1 et C2, représentations graphiques de ces 2 fonctions ; l’aire de la partie de plan comprise
entre la courbe et l’axe des abscisses correspond à la fonction de répartition notée Π ou Φ.
Π (t) = P (T t )
3.3.2. Propriétés
Soit X est une variable aléatoire suivant la loi normale N(m,σ), on a :
E (X) = m
V(X) = σ2
σ(X) = σ
.
Une variable aléatoire X qui suit la loi normale N(0,1) a pour espérance mathématique 0 et pour écart type 1.
Cette loi normale N(0,1) est appelée loi normale centrée réduite.
3.3.3. Loi normale centrée réduite
Si une variable aléatoire X suit la loi normale N(m,σ) alors la variable aléatoire T =
X −m
σ
suit la loi normale centrée réduite N(0,1).
−
1
La loi normale centrée réduite est caractérisée par la densité de probabilité : f ( x) =
.e
2π
x2
2
Cette courbe est appelée courbe de Gauss ou courbe « en cloche ».
t
Π (t) = P (T
t)=
∫
f ( x)dx
−∞
Pour étudier toute loi normale N(m,σ), on se ramène à l’étude de la loi normale centrée réduite
X −m
N(0,1) en effectuant le changement de variable T =
σ
Pour calculer les probabilités, on doit calculer la primitive d’une fonction ; les calculs étant
complexes, on utilise les résultats d’une table en fonction de t.
Cours lois binomiale, Poisson, normale
5/8
A Chevalley
MT18
La table donne directement le résultat. Il suffit de trouver les 2 premiers chiffres de t dans la 1° c olonne et le
troisième chiffre est indiqué dans la première ligne. La réponse est donnée à l’intersection de la ligne et de la
colonne.
Exemple : Calculer Π (1,67) = P (T 1,67 )
3.3.3.1. Propriétés
La courbe est symétrique par rapport à l’axe des ordonnées.
L’aire totale comprise entre la courbe et l’axe des abscisses est égale à 1.
3.3.3.1.1. Calcul de P (T
t)
On sait que P( A ) = 1 – P( A )
de même P (T t ) = 1 – P (T < t ) or P (T = t ) = 0 donc comme P (T < t ) = P (T
t ) = Π (t)
qui correspond au résultat de la table
P (T
t ) = 1 – P (T
3.3.3.1.2. Calcul de P (t1 T
t2 )
P (t1
t1 ) =
T
t2 ) = P (T
t2 ) – P (T
t)
si t1 > 0 on lit directement dans la table P (t1
’
si t1 < 0 on a t 1= - t1 on obtient P (T
donc P (t1
T
t2 ) = P (T
P (– t
t1 ) = P (T
t2 ) – (1 – P (T
Cas particulier : t1 = – t2
Calcul de P (– t T t ) = 2. P (T
T
T
t2 ) = Π (t2) – Π (t1)
’
t 1 ) par symétrie
t1 ) ) = P (T
t2 ) + P (T
t1 ) – 1 = Π (t2) + Π (t1) – 1
t ) – 1 = 2.Π (t) – 1
t ) = 2. P (T
t ) – 1 = 2.Π (t) – 1
3.3.4. Six sigma (6 sigma)
Soit X une variable aléatoire suivant une loi normale N(m,σ), on sait que
T=
X −m
σ
suit la loi normale N(0,1).
Pour t > 0 on a
P (– t
T
t ) = P (– σ t
σT
σ t ) = P ( m– σ t
Cours lois binomiale, Poisson, normale
6/8
m+σT
m + σ t ) = P ( m– σ t
X
m+σt)
A Chevalley
MT18
Amélioration de
la qualité
6σ
Motorola
Méthode
Management
Amélioration de
l'efficacité des
processus
de production
administratifs
commerciaux
d'économie d'énergie
Le principe de la méthode consiste à faire en sorte que tous les éléments issus du processus
étudié, soient compris dans un intervalle s'éloignant au maximum de 6 sigma par rapport à la
moyenne générale des éléments issus de ce processus.
Produire juste dès la première fois en éliminant les coûts liés aux retouches, recyclage, mise au
rebut et risque de vente d'un produit non conforme.
Prenons le cas d'une pièce mécanique dont la longueur nominale est L. La pièce est utilisable si
la longueur est comprise entre L-∆L et L+∆L (2∆L est l'intervalle de tolérance). Le processus de
production, lui, produit des pièces dont la longueur varie, la longueur moyenne est L, et avec un
écart type σ (on suppose que cette longueur suit une loi normale).
Longueur nominale L
Longueur nominale L + ∆L
Longueur nominale L - ∆L
Cours lois binomiale, Poisson, normale
7/8
A Chevalley
MT18
En général, le processus est réglé afin que l'on ait σ = ∆L/3 ; on écrit en général plutôt ∆L =
3×σ, mais c'est bien ∆L qui est une contrainte (la pièce est utilisable ou non) et σ qui est ajusté
(les machines sont plus ou moins bien réglées). Ceci conduit à un taux de rebut de 0,27 %, soit
2 700 pièces au rebut pour une production de 1 million de pièces.
Si l'on améliore le processus et que l'on diminue σ jusqu'à avoir ∆L = 6×σ, on aura un taux de
rebut de 2×10-9 (0,0000002 %), soit deux pièces au rebut par milliard de pièces produites.
En pratique la limite de 6σ est difficilement atteignable et les entreprises peuvent rechercher le
3σ ou 4σ. Toutefois certaines applications exigeantes, comme dans l’aéronautique, peuvent
demander un objectif de 20σ.
3.3.5. Approximation d’une loi binomiale par une loi normale
Soit X une variable aléatoire qui suit une loi binomiale B(n,p): l’épreuve aléatoire débouche sur
2 résultats seulement et on réalise des épreuves aléatoires indépendantes
On admet que si n est « grand », et p ni « trop voisin » de 0 et ni « trop voisin » de 1, alors la
loi B(n,p) est très proche de la loi N(m,σ) où m = n.p et σ(X) = n. p.(1 − p)
On convient en général d’utiliser cette approximation lorsque n.p et n.(1 – p) > 15 ou > 20.
Exemple :
3.3.6. Champ d’intervention de la loi normale
La loi normale intervient dans la modélisation de phénomènes aléatoires possédant de
nombreuses causes indépendantes dont les effets s’ajoutent, sans que l’un d’eux soit
dominant.
Utilisation en économie, en contrôle qualité…
Cours lois binomiale, Poisson, normale
8/8
A Chevalley
Téléchargement