Probabilités Semestre 2

publicité
COURS DE PROBABILITE
2ième année d’économie et de gestion,
semestre 2
Laurence GRAMMONT
[email protected]
April 2, 2004
2
Contents
1 Lois discrètes usuelles
1.1 Introduction . . . . . . . . . . .
1.2 Schéma de Bernoulli . . . . . .
1.3 Schéma Binomial . . . . . . . .
1.4 Schéma hypergéométrique . . .
1.5 Loi géométrique et loi de Pascal
1.6 Loi de Poisson . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Couple de variables aléatoires discrètes
2.1 Généralités . . . . . . . . . . . . . . . . .
2.1.1 Loi de probabilité conjointe
Lois de probabilité marginales . . .
2.2 Fonction de répartition d’un couple
Fonctions de répartition marginales . . . .
2.3 Loi de probabilité conditionnelle
Espérance conditionnelle . . . . . . . . . .
2.3.1 Corrélation linéaire . . . . . . . . .
2.4 Indépendance stochastique . . . . . . . . .
2.5 Equation d’analyse de la variance . . . . .
2.6 Fonction de 2 variables aléatoires discrètes
2.6.1 Espérance-Variance . . . . . . . . .
2.6.2 Calcul de la covariance . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
7
10
12
15
19
. . . . . . . . . . . 19
. . . . . . . . . . . 20
. . . . . . . . . . . 21
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
23
23
25
26
26
26
3 Couple de variables aléatoires
continues
29
3.1 Fonction de répartition du couple (X, Y )
Fonction de répartition marginale . . . . . . . . . . . . . . . . 29
3
4
CONTENTS
3.2
3.3
Fonction densité conjointe
Fonctions densité marginales . . . . . . . .
Variables conditionnelles . . . . . . . . . .
3.3.1 Indépendance en probabilité
covariance-coéfficient de corrélation
3.3.2 Fonction de 2 variables aléatoires .
. . . . . . . . . . . 30
. . . . . . . . . . . 34
. . . . . . . . . . . 36
. . . . . . . . . . . 38
4 Loi Normale ou loi de Laplace - Gauss - Généralités
4.1 Définition mathématique . . . . . . . . . . . . . . . . .
4.2 Calculs de probabilité . . . . . . . . . . . . . . . . . . .
4.2.1 Calculs à partir de N (0, 1) : U . . . . . . . . . .
4.2.2 Loi Normale qq N (µ, σ) . . . . . . . . . . . . .
5 Condition d’application de la loi normale
5.1 Convergence des variables aléatoires . . . .
5.1.1 Convergence en loi . . . . . . . . .
5.1.2 Convergence en probabilité . . . . .
5.2 Loi faible des grands nombres . . . . . . .
5.3 Théorème central-limit . . . . . . . . . . .
5.4 Approximation d’une loi B(n, p) . . . . . .
5.5 Approximation d’une loi de Poisson . . . .
5.6 Exercices . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
39
41
41
43
.
.
.
.
.
.
.
.
47
47
47
48
49
50
50
52
52
Chapter 1
Lois discrètes usuelles
1.1
Introduction
On a un phénomène aléatoire que l’on veut comprendre. Ce phénomène
aléatoire est a priori complexe et on ne peut calculer directement les probabilités de ses éventualités.
ex : comprendre la dépense annuelle des ménages français pour les loisirs.
Par exemple, calculer la probabilité qu’ils dépensent 5 000 F par an. On
dispose
d’une population pour laquelle le modèle est destiné,
d’un individu et
d’un caractère étudié (représenté par une variable aléatoire X).
Que fait-on ?
1 - Pour avoir une première idée du phénomène représenté par une variable aléatoire X, on peut faire plusieurs observations de X.
ex : X = dépense annuelle pour les loisirs d’un ménage (variable aléatoire
attachée à un individu). On demande à un certain nombre de ménages ses
dépenses annuelles en loisirs. On a donc la valeur de Xi . Xi étant la dépense
annuelle pour le ménage i.
Cette suite d’observation débouche sur la définition d’une variable statistique
5
6
CHAPTER 1. LOIS DISCRÈTES USUELLES
x souvent décrite de la manière suivante :
valeurs de x
xi
fréquences
ni
On étudie cette variable statistique à l’aide des techniques des statistiques
descriptives (1ere année)
2 - Il y a quelques lois de probabilité ou lois théoriques qui décrivent assez bien un grand nombre de phénomènes aléatoires. On veut représenter le
phénomène aléatoire par une loi de probabilité théorique. Cette modélisation
est évidemment plus riche que la représentation par une variable statistique
: ici on peut calculer la probabilité de tout événementassocié au phénomène
aléatoire. Dans ce chapitre, nous allons fournir un catalogue de lois de probabilité discrètes (description, étude) souvent utiles en pratique.
Le statisticien plus chevroné construira ses propres modèles théoriques.
3 - Après le choix d’un modèle théorique se pose la question suivante : peut-on
quantifier l’approximation du phénomène aléatoire par le modèle théorique.
1.2
Schéma de Bernoulli
Toute épreuve n’ayant que 2 résultats possibles peut-être considérée comme
une situation d’alternative.
En d’autres termes, les 2 résultats possibles sont complémentaires l’un de
l’autre.
Il s’agit d’une situation fréquente dans la pratique dès que l’on cherche à
mettre en évidence un caractère particulier au sein d’une population :
tout individu de cette population peut être décrit selon une alternative : soit
il présente ce caractère, soit il ne le présente pas.
Exemple : Etude de l’impact d’une campagne publicitaire pour un nouveau
produit.
Q1 : Est-ce que l’individu possédait ce produit auparavant ?
Q2 : L’individu a-t-il été touché par la campagne ?
Q3 : La campagne a-t-elle induit l’achat ?
1.3. SCHÉMA BINOMIAL
7
Souvent les résultats possibles sont des objets qualitatifs. Pour les quantifier, il faut leur trouver un codage.
On définit ainsi une v.a. X dites de Bernoulli (savant suisse 1654-1705) par
0
1
1−p p
Définition
On réalise une expérience aléatoire qui a 2 résultats possibles : le succès S, de probabilité. p,
et l’Echec
E de probabilité 1 − p. La v.a
1 si succès est une v.a. de Bernoulli
X:
0 si échec
Mode
p>q
p<q
M ode = 1
M ode = 0
Médiane
p > q ⇒ q < 1/2 Me = 1
p < q ⇒ q > 1/2 Me = 0
Propriété
E(X) = p
V (X) = p(1 − p)
Remarque :
La v.a. de Bernoulli est une v.a. indicatrice : elle indique la réalisation
éventuelle de l’événementde probabilité p. Le shéma de Bernoulli est le plus
simple des modèles probabilistes.
1.3
Schéma Binomial
C’est une succession d’épreuves de Bernoulli (n) indépendantes.
Définition :
8
CHAPTER 1. LOIS DISCRÈTES USUELLES
On réalise n fois successivement et d’une manière indépendante une expérience aléatoire
qui a 2 résultats possibles, S (succès) de probabilité p et E (échec) de probabilité 1 − p
X = nombre de succès obtenus est une v.a. binomiale de paramètre n et p.
Notation B(n, p).
Remarque :
On peut également la définir comme une somme de v.a. de Bernoulli.
A chaque épreuve i, on associe la v.a. de Bernoulli Xi
X=
n
X
Xi .
i=1
X ∼ B(n, p)
Loi de probabilité
X(Ω) = {0, . . . , n}
P (X = k) = Cnk pk (1 − p)n−k
∀k ∈ X(Ω)
n : nb d’épreuves,
k : nb de S (succès),
p : probabilité du succès.
Propriétés
E(X) = np
V (X) = np(1 − p)
Propriété
SiX1 ∼ B(n1 , p) et X2 ∼ B(n2 , p)
avecX1 , X2 indépendantes, alors
X1 + X2 ∼ B(n1 + n2 , p)
Preuve : somme de v.a Benouilli.
Il y a des tables pour éviter de calculer les probabilités d’ événements liés à
la loi binomiale. On peut également, dans certains cas, approximer B(n, p)
par une autre loi.
Exercice :
Une machine à embouteiller peut tomber en panne. La probabilité d’une
panne à chaque emploi est de 0,01. La machine doit être utilisée 100 fois.
1.3. SCHÉMA BINOMIAL
9
Soit X= nb de pannes obtenues après 100 utilisations.
1) Quelle est la loi de X ?
Calculer P (X = 0) ; P (X = 1) ; P (X ≥ 4).
2) On estime le coût d’une réparation à 500 F.
Y : dépense pour les réparations après 100 utilisations.
Exprimer Y en fonction de X et calculer E(Y ) V (Y ).
Solution :
0
1) X ∼ B(100, 0, 01) ; P (X = 0) = C100
(0, 01)0 0, 99100 = 0, 366
1
P (X = 1) = C100
0, 01 0, 9999 = 100 × 0, 01 × 0, 9999 = 0, 377
P (X ≥ 4) = 1 − (. . .) = 0, 061
2) Y = 500X
E(Y ) = 500 E(X) = 500 × 100 × 0, 01 = 500
V (Y ) = 5002 V (X) = 5002 0, 99 = 247500
Exercice :
Dans une pépinière 95% des scions (jeunes arbres greffés) sont supposés sans
virus. Par commodité les scions sont rangés par paquets de 2. Un paquet est
dit sain si les 2 scions le sont.
1) Proba d’avoir un paquet sain ?
2) X = nb de paquets sains sur un lot de 10
Quelle est la loi de X ?
3) Un lot de 10 est accepté par l’acheteur si 9 au moins des paquets sont
sains. Proba qu’un lot soit accepté ?
Solution :
1) p = 0, 95 × 0, 95 = 0, 9025
2) X ∼ B(10, p)
3) P (X ≥ 9) = P (X = 9) + P (X = 10)
= 0, 7361
Remarque
Le schéma binomial correspond au processus de tirage d’un échantillon aléatoire
avec remise :
N1 : nb d’individus ayant la propriété S
N2 : nb d’individus n’ayant pas la propriété S
N = N1 + N2 : nb total d’individus
On fait n tirages avec remise
Soit X = nb d’individus ayant la propriété S
10
CHAPTER 1. LOIS DISCRÈTES USUELLES
X ∼ B(n, p) avec p =
N1
N
Propriété
Calcul en chaine des probalités de la loi binomiale.
Si X ∼ B(n, p) alors
(n − k + 1)p
P (X = k − 1)
k(1 − p)
P (X = k)
n−k+1 p
=
P (X = k − 1)
k
1−p
P (X = k) =
Preuve :
1.4
Schéma hypergéométrique
Exemple : En pratique lorsque l’on tire un échantillon de taille n parmi une
population de taille N , le bon sens veut que l’on ne prenne pas 2 fois le
même individu. Cela signifie que le tirage se fait sans remise. Les v.a de
Bernoulli associées aux différents éléments de l’échantillon et indicatrices de
la présence ou absence d’un caractère donné, sont alors dépendantes. Le
schéma binomiale n’est plus adapté.
Le schéma hypergéométrique est une succession d’épreuves de Bernoulli non
indépendantes.
DéfinitionSi dans une population de taille N ,on a 2 types de populations
N1
N1 individus type 1 en proportion p =
et
N
N2 individus type 2 : N2
On fait n tirages sans remise dans la population et la v.a
X = nb individus de type 1 dans l’échantillon
X obéit au schéma hypergéométrique H(N, n, p)
X
X=
Xi , avec Xi des v.a de Bernoulli non indépendantes.
i
Loi de probabilité
1.4. SCHÉMA HYPERGÉOMÉTRIQUE
11
Si X ∼ H(N, n, p), alors
Les valeurs de X sont les entiers compris entre 0 et n si
P (X = k) =
CNk 1 × CNn−k
2
CNn
n < N2
et
n < N1
(dénombrement classique)
Propriétés
E(X) = np
V (X) = np(1 − p)
N −n
N −1
Théorème :
Quand N → +∞ avec n, p fixes, alors
la loi hypergéométrique H(N, n, p) tend vers la loi binomiale B(n, p).
Que signifie une loi qui tend vers une autre loi ?
d’application)
Dans la pratique, on utilise l’approximation dès que
(cf chap.
condition
n
< 0, 1
N
preuve :
n!(N − n)!
(N p)!(N q)!
k!(N p − k)!(n − k)!(N q − n + k)!
N!
n!
(N p)k (N q)n−k n!
∼
∼ pk q n−k
= Cnk pk q n−k
k!(n − k)!N n
k!(n − k)!
P (X = k) =
Exemple 1
A un guichet SNCF se présentent 2 femmes et 3 hommes. On choisit au
hasard 2 personnes 6= pour une enquête.
Soit X = nb de femmes.
a) Probabilité de choisir une femme au moins.
b) Calculer E(X) et σ(X).
2
a) X ∼ H 5, 2,
5
C 1C 1 C 2C 0
7
P (X ≥ 1) = P (X = 1) + P (X = 2) = 2 2 3 + 2 2 3 =
= 0, 7
C5
C5
10
3
4
b) E(X) = np = 2 × = = 0, 8
5
5
12
CHAPTER 1. LOIS DISCRÈTES USUELLES
V (X) = npq
N −n
2 3 3
9
=2× × × =
= 0, 36
N −1
5 5 4
25
σ(X) = 0, 6
Exemple 2
On choisit au hasard 10 étudiants de DEUG 6= pour un entretien : 304
étudiants sont inscrits en 1ère année, 233 en 2ème .
X = nb d’étudiants de 1ère année parmi les 10.
Calculer la probabilité d’avoir 5 étudiants de 1ère année et déterminer E(X)
et σ(X).
304
X ∼ H(537, 10,
)
537
5
5
C C
P (X = 5) = 30410 233 ' 0, 227
C537
Mais on peut utiliser l’approximation
n
10
304
304
Comme
=
< 0, 1, on peut approximer H 537, 10,
par B 10,
N
537
537
537
5 5
304
233
5
P (X = 5) = C10
' 0, 225.
537
537
304
E(X) = np = 10 ×
= 5, 661
537
N −n
304 233 527
V (X) = npq
= 10 ×
×
×
' 2, 415
N −1
537 537 536
σ(X) = 1, 554
√
avec l’approximation σ(X) = npq = 1, 567.
1.5
Loi géométrique et loi de Pascal
On se place dans une optique différente.
A la base, il y a toujours l’épreuve de Bernoulli qui a 2 résultats possibles :
un événementde probabilité p et l’autre. Mais cette fois, on ne connait pas
le nombre d’épreuves.
Définition
X suit la loi géométrique de paramètre p, G(p), si elle est égale au nombre d’épreuves de
Bernoulli indépendantes qu’il faut réaliser pour obtenir pour la 1ère fois l’événementde
probabilité p.
1.5. LOI GÉOMÉTRIQUE ET LOI DE PASCAL
13
Loi de probabilité
X(Ω) = N∗
, (l’ensemble des valeurs est ∞ dénombrable)
P (X = k) = q k−1 p
k ∈ N∗
fonction de répartition
n
n−1
X
X
1 − qn
k−1
P (X ≤ n) =
q p=p
qk = p
= 1 − qn
1
−
q
K=0
k=1
FX (n) = 1 − q n
caractéristiques
1
p
1−p
V (X) =
p2
E(X) =
La loi de Pascal est la généralisation de la loi géométrique lorsque l’on
s’intéresse à l’obtention pour la k ième fois de l’événementde probabilité p
Définition
X suit la loi de Pascal G(k, p), si elle est égale au nombre d’épreuves de Bernoulli
indépendantes qu’il faut réaliser pour obtenir pour la k èm fois l’événementde
probabilité p.
Loi de probabilité
X(Ω) = {k, . . . , ∞}
k−1 k−1 j−k
P (X = j) = Cj−1
p q p
j≥k
Caractéristiques
k
p
k(1 − p)
V (X) =
p2
E(X) =
Remarque : la ressemblance avec la loi binomiale n’est qu’apparente. La
grande différence est que le nombre de répétitions de l’épreuve élémentaire
de Bernoulli n’est pas connu, et c’est lui qui représente l’aléatoire du problème
14
CHAPTER 1. LOIS DISCRÈTES USUELLES
!
• Application
Ces 2 lois interviennent particulièrement en contrôle de qualité mais aussi
dans la surveillance des événements dont une certaine fréquence de survenue
est interprétée en terme de signal d’alarme.
• Remarque de modélisation
La probabilité de l’événement qui nous intéresse est toujours p, elle est
constante au cours du temps. Cette propriété de stationnarité n’est pas
systématique dans les situations réelles que l’on doit modéliser.
Exemple
Supposons que 5 % des pièces en sortie d’une chaine de production soient
défectueuses. On souhaite connaitre la probabilité qu’un échantillon de 20
pièces issu de cette chaine ne contienne aucune pièce défectueuse.
On peut traiter cet exemple en utilisant soit la loi Binomiale,
soit la loi géométrique.
- chaque pièce est indentifiée par un caractère à 2 modalités :
défectueuse
non défectueuse
La modélisation de base est donc le schéma de Bernoulli avec p = 0, 05. On
peut faire l’hypothèse de l’indépendance des épreuves de Bernoulli (grande
taille de la population). Soit la v.a X = nb de défectueux après la réalisation
de 20 épreuves de Bernoulli. On a
X ∼ B(20, 0, 05)
P (X = 0) = 0, 9520 = 0, 3585.
- On garde la modélisation des pièces par les aléas de Bernoulli. On fait
l’hypothèse d’indépendance (gd nb de pièces). Mais le nombre de pièces
n’est plus donné : c’est un aléa.
Soit la v.a Y = nombre de pièces observées jusqu’à l’obtention d’une pièce
défectueuse.
Y ∼ G(0, 05)
1.6. LOI DE POISSON
P (Y ≥ 21) =
∞
X
1 − 0, 95∞
× 0, 05
1 − 0, 95
0, 05
= 0, 9520
= 0, 3585
0, 05
0, 95k−1 0, 05 = 0, 9520
k=21
1.6
15
Loi de Poisson
Siméon-Denis Poisson(1781-1840)est un probabiliste, mathématicien et physicien français à qui l’on doit d’importants développements sur la loi des grands
nombres, les suites d’épreuves de Bernoulli mais aussi sur les applications des
probabilités dans le domaine du droit.
définition
X est une v.a. de Poisson de paramètre m si et seulement si
X(Ω) = N et
mk −m
e
P (X = k) =
k!
Notation : P(m)
On est dans la situation X(Ω) infini dénombrable.
On peut maintenant poser la loi de Poisson comme modèle d’une épreuve
aléatoire :
Théorème d’approximation
Soit X ∼ B(n, p)
quand n → +∞ etp → 0 tq np → m,
L
alors X → P(m)
Modélisation
Lorsqu’un événement a une faible probabilité p d’apparition lors d’une épreuve
de Bernoulli et si l’on répète un grand nombre de fois cette épreuve (n) le
nombre total de réalisations de l’événement considéré suit à peu près une loi
de Poisson de paramètre m = np.
Dans la pratique :
n > 50
p < 0, 1
16
CHAPTER 1. LOIS DISCRÈTES USUELLES
Rmq : plus p est petit, meilleure est l’approximation. Pour cette raison
la loi de Poisson a été appelée loi des phénomènes rares.
Les processus de Poisson sont fréquents dans les problèmes de gestion :
- nb de pièces défectueuses dans un échantillon de grande taille prélevé dans
une production où la proportion des défectueuses est faible.
- nb de quadruplés, quintuplés par an dans un pays donné.
- nb d’appels intercontinentaux sur une ligne pendant une durée donnée.
- nb d’erreurs commises au cours d’une longue suite d’opérations (inventaire).
- pannes de machine.
- émission de particules radio-actives.
caractéristiques Si X ∼ P(m),
alors
E(X) = m
V (X) = m
Il faut savoir que
X mk
k≥0
k!
= em
X mk−1
mk −m
E(X) =
k
e = e−m m
=m
k!
(k
−
1)!
k≥0
k≥1
k
X
X
X mk
m
mk
V (X) =
k2
e−m − m2 =
k(k − 1) e−m +
k
e−m − m2
k!
k!
k!
K≥1
k≥0
k≥1
X mk−2
X mk−1
= m2
e−m + m
e−m − m2
(k − 2)!
(k − 1)!
k≥2
k≥1
X
=m
Propriété : somme de v.a de Poisson
Si X1 et X2 sont 2 variables de Poisson P(m1 ), P(m2 ) indépendantes alors
X1 + X2 ∼ P(m1 + m2 )
(ceci est vrai pour une somme finie quelconque de v.a de Poisson indépendantes)
Preuve :
1.6. LOI DE POISSON
17
"
P (Y = k) = P (X1 + X2 = k) = P
k
[
#
{X1 = i} ∩ {X2 = k − i}
i=0
=
=
k
X
i=0
K
X
i=0
=
K
X
i=0
P (X1 = i).P (X2 = k − i)
mi1 −m1 mk−i
2
e
e−m2
i!
(k − i)!
Cki mi1 mk−i
2
e−(m1 +m2 )
k!
(m1 + m2 )k −(m1 +m2 )
=
e
k!
.
Propriété
Si X ∼ P(m)
m
P (X = k)
=
P (X = k − 1)
k
Conséquence statistique
On peut envisager une loi de Poisson comme modèle représentatif de données statistiques
discrètes pour lesquelles la variable ne prend que des valeurs entières, positives ou nulles et pour lesquelles
- la moyenne ' la variance et
fk
1
est proportionnel à
fk étant les fréquences.
fk−1
k
Exemple 1
Lors d’un sondage portant sur un grand nombre de personnes, on sait que 2%
des personnes interrogées acceptent de ne pas rester anonymes. Sachant que
l’un des sondeurs a interrogé 250 personnes (en les choisissant de manière
indépendante), calculer la probabilité
a) que ces 250 personnes souhaitent rester anonymes
b) 3 personnes acceptent de ne pas rester anonymes
c) plus de 10 personnes acceptent de ne pas rester anonymes
X = nb de personnes ne souhaitant pas rester anonymes.
X ∼ B(250, 0, 02) h P(5).
0
P (X = 0) = e−5 50! = e−5 = 0, 0067,
18
CHAPTER 1. LOIS DISCRÈTES USUELLES
3
P (X = 3) = e−5 53! = 0, 14,
P (X ≥ 10) = 1 − P (X < 10) = 1 − P (X ≤ 9).
Exemple 2
Dans un hôpital parisien, il arrive en moyenne 1,25 personnes à la minute
aux urgences entre 9 h et 12 h.
X : nb de personnes observées à la minute à l’entrée de ce service.
On admet X ∼ P(m) avec m = 1, 25
Déterminer les probabilités suivantes
a) En 1mn il arrive 2 personnes b) 4 personnes au plus c) 3 personnes au
moins.
a) P (X = 2) = 0, 2238
b) P (X ≤ 4) = 0, 9909
c) P (X ≥ 3) = 1 − P (X ≤ 2)
= 1 − 0, 8685
= 0, 1315.
Chapter 2
Couple de variables aléatoires
discrètes
2.1
Généralités
On se consacre à l’étude simultanée de 2 variables aléatoires X, Y discrètes.
(X, Y ) est appelé couple aléatoire ou variable aléatoire à 2 dimensions ou
vecteur aléatoire de dimension 2.
Exemples :
Expérience aléatoire : choisir un individu dans une population P,
X : taille d’un individu, Y : poids d’un individu.
Expérience aléatoire : 2 jets successifs d’un dé,
X = nb de points du 1er jet,
Y = somme des points.
Soient X, Y deux v.a. discrètes. Dans la suite, on utilisera les notations
suivantes:
X(Ω) = {x1 , . . . , xn }
Y (Ω) = {y1 , . . . , yp }
19
20 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES
2.1.1
Loi de probabilité conjointe
Lois de probabilité marginales
Définition
La loi de probabilité conjointe de X et Y ou loi du couple (X, Y ) est définie par
1) les valeurs de (X, Y )
{(xi , yi ) i ∈ {1, . . . , n} j ∈ {1, . . . , p}}
2) les probabilités correspondantes
pij = P ((X, Y ) = (xi , yi ))
= P (X = xi , Y = yj )
= P ((X = xi ) ∩ (Y = yj ))
Présentation : dans un tableau :
valeurs de Y
y1
y2
...
yp
x1
x2
..
.
p11 p12
p21 p22
+
+ p1p
p2p
xn
pn1 pn2
valeurs de X
pnp
Question 1 :
Si on a la loi de probabilité du couple (X, Y ), peut-on en déduire la loi de
probabilité de X et la loi de probabilité de Y ?
réponse : oui mais l’inverse n’est pas vrai.
Définition
Si on donne la loi du couple (X, Y ), la loi de probabilité de X et celle de Y sont appelées
lois de probabilité marginales.
Propriété
pour X : P (X = xi ) =
p
X
pij
(somme d’une ligne du tableau)
pij
(somme d’une colonne)
j=1
pour Y : P (Y = yj ) =
n
X
i=1
preuve : TVA
2.2. FONCTION DE RÉPARTITION D’UN COUPLEFONCTIONS DE RÉPARTITION MARGIN
Notations
pi• = P (X = xi ) =
p
X
pij
j=1
p•j = P (Y = yj ) =
n
X
pij
i=1
Propriété
p
n X
X
pij = 1
i=1 j=1
2.2
Fonction de répartition d’un couple
Fonctions de répartition marginales
Définition
La fonction de répartition du couple (X, Y ) est définie par
FX,Y (x, y) = P [(X ≤ x) ∩ (Y ≤ y)]
Propriété
X
X
i tq
j
xi ≤x
yj ≤y
F(X,Y ) (x, y) =
pij
tq
Question 2 : Si on a F(X,Y ) (x, y) peut-on en déduire FX (x) et FY (y) les
fonctions de répartition marginales.
réponse : oui
FX (x) = lim F(X,Y ) (x, y)
y→+∞
FY (y) = lim F(X,Y ) (x, y)
x→+∞
22 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES
2.3
Loi de probabilité conditionnelle
Espérance conditionnelle
Définition
On appelle variable aléatoire conditionnelle X sachant Y = yj , notée X|Y = yj
la v.a. discrète de valeurs {xi , i = 1, . . . , n}
et dont les probabilités sont
P (X = xi |Y = yj ) =
pij
p•j
Propriétés
n
X
P (X = xi |Y = yj ) = 1
∀yj
P (Y = yj |X = xi ) = 1
∀xi
i=1
p
X
j=1
Définition
On appelle espérance conditionnelle de X sachant Y = yj la quantité
E(X|Y = yj ) =
n
X
xi P (X = xi |Y = yj ).
i=1
Théorème de l’espérance conditionnelle
p
X
E(X) =
E(X|Y = yj )P (Y = yj )
j=1
p
preuve :
X
j=1
E(X|Y = yj ) P (Y = yj ) =
p
n
X
X
j=1 i=1
n
P
X X
pij
× p•j =
xi
pij
xi
p•j
i=1
j=1
n
X
=
pi• xi = E(X)
i=1
2.4. INDÉPENDANCE STOCHASTIQUE
2.3.1
23
Corrélation linéaire
Définition
On appelle covariance du couple (X, Y ) la quantité
cov(X, Y ) = E(XY ) − E(X)E(Y )
On appelle corrélation linéaire entre X et Y
cov(X, Y )
ρ(X, Y ) = p
V (X)V (Y )
Propriétés
−1 ≤ ρ(X, Y ) ≤ 1
(1)
V (X + Y ) = V (X) + V (Y ) + 2cov(X, Y ) (2)
cov(a X, Y ) = a cov(X, Y )
(3)
2.4
Indépendance stochastique
Définition
2 v.a.d. X et Y sont indépendantes en probabilité (ou stochastiquement) si l’une de ces
propriétés équivalentes est vérifiée (si elle a un sens) :
(i)
∀i ∈ {1, . . . , n}
∀j ∈ {1, . . . , p}
P (X = xi |Y = yi ) = P (X = xi ).
(ii) ∀i, ∀j
P (Y = yj |X = xi ) = P (Y = yj ).
(iii) ∀i, ∀j
P (X = xi ∩ Y = yj ) = P (X = xi ) × P (Y = yj ).
Propriétés
(1) Si X et Y sont indépendantes en probabilité alors ρ(X, Y ) = 0
(2) Si ρ(X, Y ) 6= 0 alors X et Y ne sont pas indépendantes en probabilité
(3) Si ρ(X, Y ) = 0 alors X et Y ne sont pas forcément indépendantes en probabilité.
Exemple
Une urne contient b boules blanches (B) et r boules rouges (R).
On tire une boule au hasard
B→0
Soit X :
R→1
Si la boule tirée est B on la remet accompagnée de n autres boules blanches.
24 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES
Si elle est R, on la remet avec n autres rouges.
On tire alors une boule.
B→0
Soit Y :
R→1
a) Donner la loi de probabilité de (X, Y ).
b) Lois marginales.
c) indépendance stochastique ?
solution
X prend les valeurs 0 et 1 et
Y prend les valeurs 0 et 1. On a
P (X = 0 ; Y = 0) = P (X = 0 ∩ Y = 0)
= P (Y = 0|X = 0) × P (X = 0)
↑
la v.a. Y est conditionnée à la valeur de X
P (X = 0) = P (B) =
b
b+r
P (Y = 0|X = 0) = proba de tirer une blanche sachant qu’on a tiré une B au 1er tirage
= proba de tirer une blanche dans une urne qui comprend r rouges et
b + n blanches
b+n
=
.
b+r+n
b
b+n
b+r b+r+n
P (X = 1 ∩ Y = 1) = P (Y = 1|X = 1) × P (X = 1)
r+n
r
.
=
b+r+n b+r
X\Y
0
1
Loi de X
b(b + n)
rb
b
0
(b + r)(b + r + n) (b + r)(b + r + n)
b+r
br
(r + n)r
r
1
(b + r)(b + r + n) (b + r)(b + r + n)
b+r
b
r
Loi de Y
1
b+r
b+r
Si X et Y étaient indépendantes on aurait par exemple
⇒
P (X = 0, Y = 0) =
2.5. EQUATION D’ANALYSE DE LA VARIANCE
b
×
b+n
2.5
b
b+r
=
25
b(b + n)
b
b+n
⇔
=
b + r(b + n + r)
b+r
b+n+r
⇔ b(b + n + r) = (b + n)(b + r)
⇔ b2 + bn + br = b2 + nb + nr + br
⇔ nr = 0 (impossible)
Equation d’analyse de la variance
Définition
On appelle variance conditionnelle de X|Y = yj la variance de la variable aléatoire
conditionnelle X sachant Y = yj soit :
n
X
V (X|Y = yj ) =
x2i P (X = xi |Y = yj ) − E 2 (X|Y = yj )
i=1
Propriété
Equation d’analyse de la variance.
V (X) = Vinter (X) + Vintra (X)
où
p
X
Vinter (X) =
E(X|Y = yj )2 P (Y = yj ) − E(X)2
j=1
Vintra (X) =
p
X
j=1
Preuve :
V (X|Y = yj )P (Y = yj )
26 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES
p
X
x2i P (X = xi ) − E 2 (X) or P (X = xi ) =
P (X = xi ∩ Y = yj )
i=1
j=1
!
p
n
X
X
=
x2i
P (X = xi |Y = yj )P (Y = yj ) − E 2 (X)
i=1
j=1
!
p
n
X
X
=
x2i P (X = xi |Y = yj ) P (Y = yj ) − E 2 (X)
V (X) =
n
X
j=1
=
p
X
i=1
V (X|Y = yj ) + E 2 (X|Y = yj ) P (Y = yj ) − E 2 (X)
j=1
=
p
X
V (X|Y = yj )P (Y = yj ) +
p
X
j=1
|
2.6
2.6.1
E 2 (X|Y = yj )P (Y = yj ) − E 2 (X)
j=1
{z
Vintra (X)
}
|
{z
Vinter (X)
Fonction de 2 variables aléatoires discrètes
Espérance-Variance
Soit Z = ϕ(X, Y ) avec ϕ : R2 → R, une v.a
de valeurs zij = ϕ(xi , yj )
P (Z = zij ) = P (ϕ(X, Y ) = ϕ(xi , yj )).
On peut calculer E(Z) et V (Z) sans avoir à calculer la loi de Z :
Propriété
X
E(Z) =
pij ϕ(xi , yi )
i,j
X
V (Z) =
pij ϕ2 (xi , yi ) − E(Z)2
i,j
2.6.2
Calcul de la covariance
cov(X, Y ) =
XE(XY ) − E(X)E(Y ),
E(XY ) =
xi yi pij . Propriété
i,j
}
2.6. FONCTION DE 2 VARIABLES ALÉATOIRES DISCRÈTES
E(XY ) =
=
n
X
i=1
n
X
27
xi E(Y |X = xi )P (X = xi )
yj E(X|Y = yj )P (Y = yj )
j=1
Preuve :
n
X
X X
xi E(Y |X = xi )P (X = xi ) =
xi
yj P (Y = yj |X = xi )P (X = xi )
i=1
i
j
X
=
xi yj P (Y = yj ∩ X = xi )
i,j
X
=
xi yj pij .
i,j
28 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES
Chapter 3
Couple de variables aléatoires
continues
Soient (X, Y ) deux variables aléatoires continues.
exemple : Pour décrire la position d’un point aléatoire M dans un repère
cartésien, on utilise le couple de variables aléatoires (X, Y ) où X désigne
l’abscisse et Y l’ordonnée.
Remarque : si on est dans l’espace, on repère un point à l’aide d’un triplet de
variables aléatoires (X, Y, Z). On peut ainsi généraliser à un vecteur aléatoire
à n composantes : par exemple un circuit électrique composé de n composantes en série. Si Xi : durée de vie de la composante i alors la durée de
vie du circuit se décrit à l’aide du vecteur aléatoire (X1 , . . . , Xn ).
3.1
Fonction de répartition du couple (X, Y )
Fonction de répartition marginale
Définition
La fonction de répartition du couple (X, Y ) (ou fonction de répartition conjointe)
est une fonction de R2 dans [0, 1] définie par FX,Y (x, y) = P (X ≤ x ∩ Y ≤ y)
Propriétés
29
30CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES
lim
FX,Y (x, y) = 1
x→+∞
y→+∞
lim FX,Y (x, y) = 0
y→−∞
lim FX,Y (x, y) = 0
x→−∞
Propriétés
Si FX est la fonction de répartition de X et
FX (x) = lim FX,Y (x, y)
FY la fonction de répartition de Y ,
y→+∞
FY (y) = lim FX,Y (x, y)
x→+∞
Dans le cas d’une variable continue, on pouvait calculer la probabilité des
événements {a < X ≤ b} avec la fonction de répartition : P (a < X ≤ b) =
F (b) − F (a).
Est-ce le cas ici ?
Question : que vaut P [a < X ≤ b, c < Y ≤ d] ?
FX,Y (b, d) = P [] − ∞, b]∩] − ∞, d]] = P ((] − ∞, a]∪]a, b]∩] − ∞, d]))
= P (] − ∞, a]∩] − ∞, d]) + P (]a, b]∩] − ∞, d])
= F (a, d) + P (]a, b]∩] − ∞, c]) + P (]a, b]∩]c, d])
or F (b, c) = P (] − ∞, b]∩] − ∞, c]) = P (] − ∞, a]∩] − ∞, c]) + P (]a, b]∩] −
∞, c])
d’où P (]a, b]∩] − ∞, c]) = F (b, c) − F (a, c)
Ainsi
P (a < X ≤ b, c ≤ Y ≤ d) = F (b, d) − F (b, c) + F (a, c) − F (a, d).
Mais c’est une formule difficile à retrouver.
C’est pourquoi on préfèrera passer par la fonction densité conjointe pour
calculer les probabilités.
3.2
Fonction densité conjointe
Fonctions densité marginales
Définition
3.2. FONCTION DENSITÉ CONJOINTEFONCTIONS DENSITÉ MARGINALES31
fonction densité du couple (X, Y ) est définie , si elle existe, par pour presque tout x ety,
d2 FX,Y (x, y)
fX,Y (x, y) =
.
dx dy
On peut également donner la fonction de répartition conjointe en fonction
de la fonction densité:
Z x Z y
FX,Y (x, y) =
fX,Y (u, v)du dv
∀(x, y) ∈ R2 .
−∞
−∞
On a alors
Z bZ
d
P (a < X ≤ b ∩ c ≤ Y ≤ d) =
fX,Y (x, y)dx dy
a
que l’on peut également écrire
Z bZ
P ((X, Y ) ∈]a, b]×]c, d]) =
a
c
d
fX,Y (x, y)dx dy.
c
Question : peut-on calculer la probabilité P ((X, Y ) ∈ D) où D est un domaine de R2 différent d’un rectangle ?
Propriété
Z Z
P ((X, Y ) ∈ D) =
fX,Y (x, y)dx dy
D
Exemple 1 aiguille de Buffon
Exemple 2 Soit (X, Y ) un couple dont la loi conjointe est une loi uniforme
sur [0, 1] ×[0, 1]
1
(x, y) ∈ [0, 1] × [0, 1]
f (x, y) =
0
ailleurs
Soit D = {(x, y) ∈ R2 : x > 0 y > 0
Calculer P ((X, Y ) ∈ D).
et
x + y < 1}
32CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES
Z Z
P ((X, Y ) ∈ D) =
1dx dy
Z
1
=
Z0 1
=
0
DZ
1−x
dy dx
1
1
x2
1 − x dx = x −
= .
2 0 2
0
A partir de la fonction densité conjointe, peut-on retrouver les fonctions densité marginales de X et Y ?
Z +∞
fX (x) =
fX,Y (x, y)dy
−∞
Z +∞
fY (y) =
fX,Y (x, y)dx
−∞
Propriété
Z +∞ Z +∞
fX,Y (x, y)dx dy = 1
−∞
−∞
Exemple :
kx2 + y 2 − xy x ∈ [−1, 1] et y ∈ [−1, 0]
f (x, y) =
0
sinon
a) déterminer k pour que f soit effectivement une fonction densité d’un couple (X, Y ).
b) calculer P [{0 < X < 1} ∩ {−1/2 < Y < 0}]
c) fonctions densité marginales.
d) fonction de répartition conjointe.
3.2. FONCTION DENSITÉ CONJOINTEFONCTIONS DENSITÉ MARGINALES33
Z Z
sol : a)
f (x, y)dx dy = 1
ZR2Z
⇔
kx2 + y 2 − xy dy dx = 1
DZ
Z 1
0
2
2
kx + y − xy dy dx = 1
⇔
−1
Z−11
1 x
⇔
(kx2 + + ) dx = 1
3 2
−1
3 1
2 1
x
1 1
x
2
2
⇔k
+ [x]−1 +
=1
⇔ k+ =1
3 −1 3
4 −1
3
3
1
⇔k= .
2
Z 1Z 0
Z
1 2
x2
x
1
x
b)
+ y 2 − xy dy dx =
+
+ dx
2
24 8
0
−1/2
0 4
1
1
1 x3
1
1 x2
=
+
+
4 3 0 24 8 2 0
1
1
1
3
1
1
1
3
=
+
+
=
+
= +
= .
12 24 16
24 16
8 16
16
Z
+∞
c)On a fX (x) =
f (x, y)dy.
−∞
Si x ∈
/ [−1, 1],
fX (x) = Z
0.
Si x ∈ [−1, 1],
fX (x) =
Z
−1
+∞
On a fY (y) =
0
x2
x2 1 x
+ y 2 − xy dy =
+ + .
2
2
3 2
f (x, y)dx.
−∞
Si y ∈
/ [−1, 0],
y ∈ [−1, 0],
fy (y) = 0.
1
2 1
Z 1
1 2
1 x3
x
2
1
2
fy (y) =
x + y − xy dx =
+ y [x]−1 − y
2 3 −1
2 −1
−1 2
1
= + 2y 2 .
3
Z x Z y
d) FX,Y (x, y) =
f (u, v)dv du.
−∞
−∞
• Si x < −1 ou y < −1, FX,Y (x, y) = 0
• Si (x, y) ∈ [−1, 1] × [−1, 0],
34CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES
Z
x
Z
y
(ku2 + v 2 − uv) dv du
2 y
3 y
Z−1x −1
v
v
y
2
−u
du
=
ku [v]−1 +
3 −1
2 −1
Z−1x
y3 + 1
y2 − 1
=
(y + 1)ku2 +
−u
du
3
2
−1
x
y3 + 1
y 2 − 1 2 x
y + 1 u3
+
=
(x + 1) −
u /2 −1
2
3 −1
3
2
y + 1 x3 + 1
y 3 + 1 y 2 − 1 x2 − 1
FX,Y (x, y) =
+ (x + 1)
−
.
2
3
3
2
2
• Si y > 0 et x ∈ [−1, 1],
x3 + 1 x + 1 1 2
FX,Y (x, y) =
+
+ (x − 1).
6
3
4
F (x, y)
=
• Si y ∈ [−1, 0] et x > 1,
y+1 2 3
F (x, y) =
+ (y + 1).
3
3
• Si y > 0 et x > 1,
F (x, y) = 1.
3.3
Variables conditionnelles
On veut définir la loi de probabilité de la variable conditionnelle Y |X = x
avec X, Y deux variables aléatoires de fonction densité conjointe fX,Y .
• fonction de répartition conditionnelle de Y |X = x
P (Y ≤ y|X = x) a priori n’est pas défini car P (X = x) = 0, X étant une
variable continue.
On note FX=x cette fonction de répartition conditionnelle, que l’on définit
de la manière
suivante:
3.3. VARIABLES CONDITIONNELLES
35
FX=x (y) = lim P (Y ≤ y|x − ≤ X ≤ x + η) = lim
→0
→0
η→0
η→0
= lim
→0
P (Y ≤ y ∩ x − ≤ X ≤ x + η)
FX (x + η) − FX (x − )
P (Y ≤ y ∩ X ∈ [x − , x + η])
FX (x + η) − FX (x − )
η→0
= lim
→0
FX,Y (x + η, y) − FX,Y (x − , y)
FX (x + η) − FX (x − )
η→0
dF
dFX,Y
(x, y)
(x, y)
dx
dx
=
=
.
fX (x)
fX (x)
Définition
La fonction de répartition de la variable conditionnelle Y |X = x, si elle existe, est égale à
dFX,Y
(x, y)
FX=x (y) = dxfX (x)
.
• Fonction densité de la variable conditionnelle Y |X = x
Notation : fX=x (y)
On a fX=x (y) =
ou
f (y|X = x)
d
f (x, y)
FX=x (y) =
.
dy
fX (x)
Définition
La fonction densité de la variable conditionnelle Y |X = x est
fX=x (y) =
f (x, y)
fX (x)
Y |X = x est une variable aléatoire définie par sa fonction densité ; on peut
calculer E(Y |X = x) , V (Y |X = x) et des probabilités associées à cette
variable :
Z b
Z +∞
P (a < Y < b|X = x) =
fX=x (y) dy,
E(Y |X = x) =
y fX=x (y) dy
a
−∞
36CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES
Exemple : reprendre f (x, y) = kx2 + y 2 − xy.
e) Donner la fonction densité conditionnelle de X|Y = 0.
f ) Calculer P (0 < X < 1|Y = 0).
g) Calculer l’espérance de X|Y = 0.
x2 /2
3x2
f (x, 0)
=
=
six ∈ [−1, 1]. Ainsi
sol : e) fY =0 (x) =
1/3
2
 fY (0)
 3x2
x ∈ [−1, 1]
fY =0 (x) =
 0 2 sinon
1
Z 1 2
3 x3
1
3x
dx =
= .
f) P (0 < X < 1|Y = 0) =
2
2 3
2
0
1
Z +∞
Z 1 30
3x
3 x4
g) E(X|Y = 0) =
x fY =0 (x)dx =
dx =
= 0.
2 4 −1
−∞
−1 2
Théorème de l’espérance conditionnelle
Z +∞
E(X) =
E(X|Y = y)fY (y) dy
−∞
Preuve :
+∞
f (x, y)
E(X|Y = y) =
x fY =y (x)dx =
x
dx.
f (y)
−∞
Z +∞
Z +∞ Z−∞+∞ Y
E(X|Y = y)fY (y)dy =
x f (x, y)dy dx
−∞
−∞
−∞
Z +∞ Z +∞
=
x(
f (x, y)dy)dx .
−∞
−∞
|
{z
}
Z
+∞
Z
fX (x)
3.3.1
Indépendance en probabilité
covariance-coéfficient de corrélation
Comme dans le cas des variables discrètes, intuitivement on peut penser que
X et Y sont indépendantes si et seulement si tout événement lié à X est
indépendant de tout événement lié à Y .
3.3. VARIABLES CONDITIONNELLES
37
i.e. {X ≤ x} et {Y ≤ y} sont indépendants ∀x, y
i.e. P ({X ≤ x} ∩ {Y ≤ y}) = P (X ≤ x)P (Y ≤ y).
Définition-propriété
2 v.a. X, Y continues sont indépendantes en probabilité si et seulement si
l’une des
propriétés suivantes équivalentes sont vérifiées (si elles ont un sens)
(1) fX,Y (x, y) = fX (x) × fY (y)
∀x, y
(2) FX,Y (x, y) = FX (x) × FY (y)
∀x, y
(3) fX=x (y) = fY (y)
partout où cela a un sens
(4) fY =y (x) = fX (x) partout où cela a un sens.
preuve :
(2) ⇒ (1)
d2
dxdy
Z Z
x
y
(1) ⇒ (2)
Z
x
f (u, v)du dv =
−∞
−∞
Z
y
fX (u)du
−∞
fY (v)dv
−∞
f (x, y)
= fY (y) ∀x, y tq fX (x) 6= 0
fX (x)
(3) ⇒ (1) on a f (x, y) = fX (x) × fY (y) ∀x, y tq fX (x) 6= 0
(4) ⇔ (1) pareil.
(1) ⇒ (3) fX=x (y) =
Théorème
Si X et Y sont indépendants alors
(1)
(2)
(3)
(4)
cov(X, Y ) = 0
ρ(X, Y ) = 0
E(XY ) = E(X)E(Y )
V (X + Y ) = V (X) + V (Y ).
Comme dans la chapitre précédent, la covariance est :
cov(X, Y ) = E(XY ) − E(X)E(Y ).
Ici, cela se traduit par
R
R2
xy fX,Y (x, y) dxdy − E(X)E(Y ).
38CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES
On peut également exprimer la covariance à l’aide de l’espérance conditionnelle:
Z
cov(X, Y ) =
x E(Y |X = x)fX (x)dx − E(X)E(Y ).
R
3.3.2
Fonction de 2 variables aléatoires
Soit Z = ϕ(X, Y ) avec (X, Y ) couple aléatoire de densité f (x, y).
Z n’est pas forcément une variable aléatoire. Si cela en est une, on a les
formules
ZZ
E(ϕ(X, Y )) =
ϕ(x, y) f (x, y) dxdy
ZZ
V (ϕ(X, Y )) =
ϕ2 (x, y) f (x, y) dx dy − E 2 (ϕ(X, Y ))
Chapter 4
Loi Normale ou loi de Laplace Gauss - Généralités
La loi Normale est une des distributions que l’on rencontre le plus souvent
en pratique.
C’est la loi qui s’applique en général à une variable qui est la résultante d’un
grand nombre de causes indépendantes dont les effets s’additionnent et dont
aucune n’est prépondérante.
Exemple :
Diamètres et poids de pièces fabriquées en série.
Fluctuations accidentelles d’une grandeur économique autour de sa tendance.
Historiquement elle apparaı̂t vers 1773 comme limite de la loi binomiale.
Gauss en 1809 et Laplace en 1812 lui donnèrent sa forme définitive.
4.1
Définition mathématique
• La variable Normale X est une v.a absolument continue pouvant prendre
n’importe quelle valeur dans ] − ∞, +∞[ avec la densité de probabilité
2
1 x−µ
−
1
σ
f (x) = √
e 2
2πσ
39
40CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS
Cette v.a dépend donc de 2 paramètres µ et σ.
notation : X ∼ N (µ, σ).
• représentation graphique
la courbe en cloche. (cf T.D)
→ La valeur de µ détermine la position de la courbe, x = µ est axe de
symétrie pour la courbe (f (µ + x) = f (µ − x) ∀x)
→ σ détermine la dispersion de la courbe.
• Fonction de répartition
Z
x
F (x) =
Z
x
f (t)dt =
−∞
−∞
1
√
σ 2π
1
−
e 2
t−µ
σ
2
dt
• caractéristiques
E(X) = µ
V (X) = σ 2
preuve :(T.D)
Propriété 1
X suit la loi N (µ, σ) si et seulement si
X −µ
suit la loi N (0, 1)
σ
preuve : T.D.
x2
1 −
La loi N (0, 1) s’appelle loi Normale centrée réduite. f (x) = √ e 2 .
2π
Elle est importante car la propriété signifie que tout calcul de probabilité
associé à la loi N (µ, σ) se ramène à un calcul de probabilité associé à la loi
N (0, 1) en faisant un changement de variable.
Propriété 2
X1 ∼ N (µ1 , σ1 ), X2 ∼ N (µp
X1 , X2 indépendantes,
2 , σ2 ),
2
2
alors X1 + X2 ∼ N (µ1 + µ2 , σ1 + σ2 )
preuve : (T.D.)
généralisation
4.2. CALCULS DE PROBABILITÉ
41
Xi ∼ N (µi , σi ), Xi sont indépendantes alors
n
n
n
X
X
X
2
Xi ∼ N (µ, σ) avec µ =
µi et σ =
σi2 .
i=1
4.2
4.2.1
i=1
i=1
Calculs de probabilité
Calculs à partir de N (0, 1) : U
Le problème vient du fait qu’il n’existe pas de fonction analytiquement exx2
1 −
primable qui corresponde à une primitive de f (x) = √ e 2 .
2π
Rb
Comment calculer P (a < U < b) = a f (t)dt = F (b)−F (a) si l’on ne connait
pas d’expression de F ?
La seule possibilité est d’utiliser des méthodes numériques permettant de
faire le calcul approché de l’intégrale.
Ainsi des spécialistes ont établi des tables permettant de faire les calculs de
probabilité.
On a à notre disposition 2 tables :
La fonction de répartition (table 1) et les fractiles(table 2):
La table 1
On lit les valeurs de la fonction de répartition F de N (0, 1).
C’est une table à double entrée qui donne P (U ≤ u) pour u donné.
↓
N (0,1)
→ on cherche la ligne correspondant à la partie entière et au 1er chiffre
décimal de u.
→ la colonne correspondant au 2eme chiffre décimal de u.
puis à l’intersection, on lit la probabilité cherchée.
ex : P (U ≤ 0, 38) = 0, 6480
P (U ≤ 1, 29) = 0, 9015
Que fait-on pour calculer P (U < −1) si U ∼ N (0, 1) ?
Propriété 1
42CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS
U ∼ N (0, 1) u > 0
P (U < −u) = F (−u) = 1 − F (u)
P (U < −1) = 1 − P (U < 1) = 0, 1587
Propriété 2
u>0
P (U > u) = 1 − P (U < u) = 1 − F (u)
Propriété 3
P (u1 ≤ U ≤ u2 ) = F (u2 ) − F (u1 )
Propriété 4
F (u) ≥ 1/2 ⇔ u ≥ 0
F (u) ≤ 1/2 ⇔ u ≤ 0
Remarque 1 : pour les probabilités d’intervalles, il est indifférent de considérer des intervalles fermés, ouverts ou mixtes puisque la probabilité d’un
point est nulle.
Remarque 2 : Si on a à calculer P (U ≤ u)avec U ∼ N (0, 1) avec 3 décimales :
(ex P (U < 1, 645)) on fait une interpolation linéaire :
Supposons que figurent dans la table 1 u1 et u2 tq u1 < u < u2 on considère
F (u) − F (u1 )
F (u) − F (u2 )
que
'
ce qui donnera
u − u1
u − u2
1
F (u) =
[(u − u2 )F (u1 ) + (u1 − u)F (u2 )].
u1 − u 2
Pour l’exemple: 1, 64 < u < 1, 65
F (u) − F (1, 64)
F (u) − F (1, 65)
'
0, 05
−0, 05
0, 095
⇒
F (u) '
F (1, 65) + F (1, 64)
=
2
Propriété 5
U ∼ N (0, 1)
P (|U| < u) = 2F (u) − 1
ex : P (|U| < 1.96) = 2F (1, 96) − 1 = 2.0, 9750 − 1 = 0, 95
Propriété 6
U ∼ N (0, 1)
P (|U| > u) = 2[1 − F (u)]
4.2. CALCULS DE PROBABILITÉ
43
C’est la probabilité pour qu’une loi Normale centrée réduite s’écarte de sa
moyenne de plus de u fois son écart type.
Remarque : pour les grandes valeurs de u, on dispose d’une ligne supplémentaire
mais détaillée. Pour u > 3, les valeurs de F (u) varient peu et sont proches
de 1.
La table 2
Elle donne les fractiles de la loi N (0, 1).
Définition : on appelle fractile d’ordre α (0 ≤ α ≤ 1),
pour une fonction de répartition F , la valeur uα tq F (uα ) = α
i.e
P (U ≤ uα ) = α.
Exemple
P (U < t) = 0, 01 ⇒ u0,01 = −2, 3263
P (U < t) = 0, 96 ⇒ u0,96 = 1, 7507 P (U < t) = 0, 975 ⇒ u0,975 = 1, 96
(fractile très important en statisP (U < t) = 0, 95 ⇒ u0,95 = 1, 6449
tique inférentielle)
Ces calculs de fractiles seront particulièrement utiles pour l’obtention des
intervalles de confiance et réalisation des tests.
4.2.2
Loi Normale qq N (µ, σ)
X ∼ N (µ, σ)
1er étape : se ramener à la loi N (0, 1) : on sait que si X ∼ N (µ, σ) alors
X −µ
∼ N (0, 1).
σ
e
2 étape : Utiliser les tables 1 et 2.
3e étape : Donner le résultat.
• X ∼ N (3, 2)
Calculer
P (X < 6, 24) X −3
6, 24 − 3
P (X < 6, 24) = P
<
= P (U < 1, 62) = F (1, 62) =
2
2
0, 9474
44CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS
• X ∼ N (−4, 5)
Calculer P (X < 1, 65)
X +4
er
< 1, 13
1 étape : P (X < 1, 65) = P
5
X +4
2e étape :
= U ∼ N (0, 1) P (U < 1, 13) = F (1, 13) = 0, 8708
5
e
3 étape : P (X < 1, 65) = 0, 8708
• P (X > 4, 94) X ∼ N (−2, 4)
X +2
er
1 étape : P (X > 4.94) = P
> 1, 735
4
2e étape : P (U > 1, 735) = 1 − F (1, 735)
F (1, 73) = 0, 9582
or 1, 73 < 1, 735 < 1, 74
Par interpolation
F (1, 74) = 0, 9591
F (u) − F (1, 73)
F (u) − F (1, 74)
F (1, 74) + F (1, 73)
'
⇒ F (u) =
= 0, 9586
0, 05
−0, 05
2
3e étape : P (X > 4, 94) = 1 − 0, 95865 = 0, 04135
• X ∼ N (−3, 2)
P (4 < X < 0)
er
1 étape : P (−4 < X < 0) = P (−0, 5 < X+3
< 1, 5)
2
e
2 étape : P (−0, 5 < U < 1, 5) = F (1, 5) − F (−0, 5)
= F (1, 5) − [1 − F (0, 5)]
= F (1, 5) + F (0, 5) − 1 = 0, 9332 + 0, 6915 − 1 = 0, 6247
3e étape : P (−4 < X < 0) = 0, 6247
P (0 < X < 2)
P (X > −2)
X−1
e
1 étape : P (0 < X < 2) = P [1/3 < 3 < 1/3] = P (|U| < 1/3)
P (X > −2) = P X−1
> −1 = P (U > −1)
3
2e étape : P (|U| < 1/3) = 2F (1/3) − 1
P (U > −1) = P (U < 1)
e
3 étape : Proba ' 0, 31
• X ∼ N (1, 3) P (0 < X < 2|X > −2) =
• X ∼ N (2, 0, 5) calculer le fractile d’ordre 0,675 de X
P (X ≤ u0,675 ) = 0, 675
X −2
x0,675 − 2
er
1 étape : P (X ≤ x0,675 ) = 0, 675 ⇔ P
≤
= 0, 675.
0, 5
0, 5
2e étape : P (U < u0,675 ) = 0, 675 ⇒ u0,675 = 0, 4538
4.2. CALCULS DE PROBABILITÉ
3e étape : 2[x0,675 − 2] = u0,675 = 0, 4538 ⇒ x0,675 = 2, 2269
45
46CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS
Chapter 5
Condition d’application de la
loi normale
5.1
Convergence des variables aléatoires
Les variables aléatoires sont des applications de Ω dans R, Ω étant l’univers
défini par l’expérience aléatoire.
On peut concevoir une suite d’épreuves aléatoires définissant des univers Ωn
et donc des v.a. aléatoires Xn .
On peut se demander quel est le comportement limite de ces v.a. quand
n → +∞.
Il existe plusieurs notions de convergence.
5.1.1
Convergence en loi
Définition
(Xn )n∈N converge en loi vers une v.a. X ssi
lim Fn (x) = F (x)
n→+∞
∀x tq F (x) est continue.
Fn : fonction de repartition de Xn
F : fonction de repartition de X
L
(notation : Xn −→ X)
Propriétés
L
Pour les v.a. discrètes Xn −→ X ⇔ P (Xn = x) −→ P (X = x) ∀x.
n→∞
L
Pour les v.a continues Xn −→ X ⇔ ∀(a, b) ∈ R2
47
P (a ≤ Xn < b) −→ P (a ≤ X < b).
n→+∞
48CHAPTER 5. CONDITION D’APPLICATION DE LA LOI NORMALE
5.1.2
Convergence en probabilité
• Définition
(Xn ) converge en probabilité vers X si et seulement si
∀ > 0, P (|Xn − X| > ) −→ 0
n→∞
P
(notation : Xn −→ X)
Propriété
la convergence en probabilité ⇒ convergence en loi
La réciproque est fausse.
Théorème

P
 E(Xn ) −→ µ alors Xn −→
µ
n→+∞
Si
 V (Xn ) −→ 0
n→+∞
Preuve : il s’agit de démontrer que P (|Xn − µ| > ) −→ 0. Pour simn→+∞
plifier on supposera que E(Xn ) = µ ∀n.
Pour cela, on a besoin du résultat suivant :
Inégalité de Bienaymé-Tchebychev
Soit la v.a Z telle que E(Z) = µ,
σ(Z) = σ,
1
alors P (|Z − µ| > kσ) ≤ 2
∀k ∈ R+∗ .
k
preuve de l’inégalité de B.J admise
Fin de la preuve du théorème : soit σn = σ(Xn ), soit kn ∈ R tq kn σn =
1
σn
. On a
=
, d’où
kn
P (|Xn − µ| > ) = P (|Xn − µ| > kn σn ).
D’après l’inégalité B.T, on a
1
σn2
1
0 < P (|Xn − µ| > kn σn ) ≤ 2 =
=
V (Xn )
|
{z
} kn
| {z }
↓ n → +∞
↓ n → +∞
0
0
.
5.2. LOI FAIBLE DES GRANDS NOMBRES
5.2
49
Loi faible des grands nombres
Théorème Loi faible des grands nombres
Soient (Xi )i=1,...,n n v.a indépendantes telles que
i=n
1X
Si
µi −→ µ et
n i=1 n→+∞
i=n
1X
P
alors
Xi −→ µ.
n i=1
E(Xi ) = µi
V (Xi ) = σi2
n
1 X 2
σ −→ 0,
n2 i=1 i n→+∞
preuve :
n
1X
µi → µ
on
a
E(S
)
=
n
n
n i=1
1X
Soit Sn =
Xi .
n
n i=1
1 X 2
V (Sn ) = 2
σ →0
n i=1 i





P
⇒ Sn → µ




Application du théorème du paragraphe précédent.
Corollaire : Théorème de Moivre-Laplace
Soit ξ une expérience aléatoire qui a
2 résultats possibles S et E et
P (S) = p.
On répète n fois ξ de façon indépendante.
Soit Fn : proportion de S.
P
Alors Fn −→ p.
preuve :
n
1X
Fn =
Xi
Xi : variables de Bernoulli indépendantes.
n i=1
1X
1
E(Fn ) =
E(Xi ) = np = p
n X
n
1
1
1
V (Fn ) = 2
V (Xi ) = 2 np(1 − p) = p(1 − p) → 0
n
n
n
Donc d’après la loi faible des grands nombres
P
Fn −→ p
50CHAPTER 5. CONDITION D’APPLICATION DE LA LOI NORMALE
Fn sont appelées fréquences empiriques.
A partir de ce résultat, toute l’approche fréquentiste des probabilités s’est
développée sur l’évaluation de la probabilité d’un événement(p) par la limite
de la fréquence relative d’apparition de ce phénomène (valeur des Fn ).
Ce résultat sera essentiel dans la théorie de l’estimation.
5.3
Théorème central-limit
Théorème
Soient Xi i = 1, . . . , n n v.a indépendantes, de même loi,
d’espérance µ et d’écart type σ,
i=n
1X
alors si on pose X =
Xi , on a
n i=1
√
n(X − µ) L
−→ N (0, 1).
σ
Remarque
On avait montré que ce résultat était vrai pour Xi ∼ N (µ, σ) mais le
théorème central limit est beaucoup plus fort puisque cela est vrai pour
n’importe quelle loi : il n’est pas nécessaire de connaitre la loi de Xi pour
i=n
X
connaitre celle
Xi pour n grand!!
i=1
Le résultat joue un rôle essentiel dans toute la statistique classique. Sa
démonstration est en dehors du cadre de ce cours.
5.4
Approximation d’une loi B(n, p)
Théorème
Soit X ∼ B(n, p),
X − np
L
alors p
−→ N (0, 1).
np(1 − p)
n
X
Preuve : X =
Xi avec Xi ∼ B(1, p) la loi de Bernoulli.
i=1
Or E(Xi ) = p, V (Xi ) = p(1 − p), donc d’après le théorème central- limit
X − np
L
p
−→ N (0, 1).
np(1 − p)
5.4. APPROXIMATION D’UNE LOI B(N, P )
En pratique : npq > 18
ou
51
n > 30
p ∈ [0, 1 ; 0, 9]
Comment procède t-on pour approcher une loi discrète par une loi continue ?
En effet pour les lois discrètes, les probabilités sont concentrées en des points
et pour les lois continues tout point a une probabilité nulle !
Exemple : soit X ∼ B(100, 0, 4) alors X ≈ N (40, 4, 9)
Comment approche-t-on P (X = 50) ?
On fait ce qu’on appelle une correction de continuité
Proposition : correction de continuité
Soit X une v.a.d telle que E(X) = µ, σ(X) = σ et X(Ω) ⊂ N
que l’on approche par Y une
loi N (µ, σ) alors
1
P (X < k) = P Y ≤ k −
2
1
P (X ≤ k) = P Y ≤ k +
2
1
1
P (X = k) = P k − ≤ Y ≤ k +
2
2
1
1
P (k1 ≤ X ≤ k2 ) = P k1 − ≤ Y ≤ k1 +
2
2
Exemple : Dans une population bovine, on admet que la robe d’un animal se
caractérise par la présence d’un gène dominant S (robe unie) ou d’un gène
récessif s (robe tachetée bleue).
Selon la théorie de Mendel un croisement d’animaux hétérozygotes (S, s) ×
(S, s) donne 3/4 robes unies et 1/4 robes tachetées bleues.
Sur un échantillon de 160 bovins issus de croisements (S, s) × (S, s) on note
X = nombre d’animaux ayant une robe tachetée bleue.
a) Déterminer la loi de X
(X ∼ B(160, 1/4))
√
b) Par quelle loi peut-on approximer X
(par N (40, 30) car n > 30 p ∈
[0, 1, 0, 9] ou npq = 30 > 18)
c) Probabilité que parmi 160 bovins le nombre de tachetées de bleues soit entre 35 et 50:
52CHAPTER 5. CONDITION D’APPLICATION DE LA LOI NORMALE
P (35 ≤ X ≤ 50) ≈ P (35 − 1/2 ≤ Y ≤ 50 + 1/2)
= P (34,
5 ≤ Y ≤ 50, 5)
=P
=F
=F
5.5
−5,5
10,5
√
≤U ≤ √
30 30
10,5
√
√
− F −5,5
30
30 h
i
10,5
5,5
√
√
−
1
−
F
30
30
Approximation d’une loi de Poisson
Théorème
√
Si m ≥ 20 alors la loi de Poisson P(m) peut être approximée par N (m, m).
X −m L
√
−→ N (0, 1).
m
La preuve rigoureuse peut se faire mais demande des connaissances en analyse mathématique.
On admettra le théorème.
La formulation mathématique est: si X ∼ P(m) alors
Remarque : comme précédemment on fait la correction de continuité.
5.6
Exercices
Exemple 1
Les gains mensuels en francs G d’un représentant sont supposés suivre une
loi Normale. Il a pu constater, sur un grand nombre de mois, la répartition
suivante des gains en F :
P (gain > 18000) = 4, 46%
P (15800 < gain ≤ 18000) = 93, 26%
P (gain ≤ 15800) = 2, 28%
1 - Calculer la moyenne et l’écart type de G qui suit N (µ, σ).
2 - Si on suppose que les gains du représentant sont indépendants d’un mois
à l’autre, quelle est la loi de proba de X = gain durant 3 mois ?
3 - P (X ≥ 53000) ?
Exercice 2
Un vigneron commercialise 2 types de vin :
5.6. EXERCICES
53
les vins ”du terroir” et les vins ”grand cru” et vendus à 30 F la bouteille. Il
subsiste des erreurs d’étiquetage et on admet qu’un acheteur de vin ”grand
cru” aura une probabilité p = 0, 12 d’avoir en fait une bouteille de vin ”du
terroir”.
1) Un restaurateur achète 200 bouteilles ”grand cru”
X : nb de bouteille de vin du terroir parmi ces bouteilles
Quelle est la loi de probabilité de X ? Calculer E(X) V (X)
Par quelle loi peut-on approcher X ?
2) Calculer P (X > 20) et P (X < 30|X > 20)
3) Au fur et à mesure de la consommation des 200 bouteilles, le restaurateur
a pu détecter chacune des bouteilles ”du terroir”. Il décide alors de ne payer
que les bouteilles ”grand cru” et de refuser de payer les bouteilles du terroir.
Calculer, avec cette hypothèse, la probabilité d’un bénéfice néanmoins positif
pour le vigneron ”sachant que” chaque bouteille de grand cru lui revient à 18
F et terroir 8 F.
Téléchargement