Probabilités : variables aléatoires

publicité
Probabilités : variables aléatoires
C. Charignon
Table des matières
I
Cours
2
1 Vocabulaire
2
2 Caractéristiques d’une loi
2.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
4
3 Plusieurs variables aléatoire
3.1 Lois conjointes et marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
6
6
8
4 lois
4.1
4.2
4.3
II
usuelles
loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exercices
8
8
9
10
12
1 Révisions de probabilités
1
2 Espérance
1
3 Variance
3
4 Couple de variables aléatoires
5
5 Lois usuelles
6
1
Première partie
Cours
1
Vocabulaire
Définition 1.1. Une variable aléatoire sur l’univers Ω est une application dont l’ensemble de départ est Ω.
Lorsque l’ensemble d’arrivée est inclus dans R, on dit que X est une variable aléatoire réelle.
Exemple: On lance deux dés de 6. On choisit de modéliser l’expérience à l’aide de l’univers Ω = J1, 6K ×
J1, 6K muni de la probabilité uniforme.
Ω → N
La somme des deux résultats obtenus sera alors modélisé par la variable aléatoire S :
.
(a, b) 7→ a + b
On va suivre le vocabulaire de cette partie sur cet exemple.
Dans la suite, fixons X une variable aléatoire et E son ensemble d’arrivée.
Ainsi X(Ω), l’image de X est l’ensemble des valeurs atteintes par X. Dans notre exemple, E = N et
S(Ω) = J2, 12K.
Soit n ∈ E. L’ensemble des antécédents de n par X se note normalement X <−1> ({n}). Il s’agit de
l’ensemble des configurations de l’univers qui mène à ce que X prenne la valeur n. Comme c’est une partie
de Ω, c’est un événement. Nous le noterons « X = n ». Et donc sa probabilité sera notée P (X = n).
Dans notre exemple, l’événement S = 9 correspond à la partie de Ω suivante : {(3, 6), (4, 5), (5, 4), (6, 3)}.
1
4
= .
Et donc P (S = 9) =
36
9
Plus généralement, pour tout A ∈ P(E), X <−1> (A) = ω ∈ Ω | X(ω) ∈ A correspond à l’événement
X ∈ A. Sa probabilité est notée P (X ∈ A).
Dans l’exemple, calculons P (S ∈ {2, 4, 6, 8, 10, 12} (qu’on peut noter P (S est pair )).
Proposition 1.2. L’application
Définition 1.3. L’application
P(E) → [0, 1]
est une mesure de probabilité sur E.
A 7→ P (X ∈ A)
P(E) →
A 7→
[0, 1]
s’appelle la loi de X, et se note PX .
P (X ∈ A)
N.B. Si on connaît PX , on peut déduire tout ce dont on a besoin sur X. L’univers Ω et sa mesure de
probabilité deviennent inutiles. On évite ainsi la partie fastidieuse de modélisation. C’est le point de vue de
nombreux exercices.
Dans notre exemple, on aurait pu aussi modéliser le lancer de deux dés par l’univers Ω0 = J2, 12K avec
la mesure de probabilité P 0 adéquate. On obtiendrait une autre variable aléatoire S mais qui aura la même
loi de probabilité. Tous les calculs concernant cette somme des deux résultats des deux dés seront alors
identique, que l’on utilise Ω ou Ω0 .
Concrètement lorsqu’on demande de donner la loi de X, il faut :
1. Déterminer les valeurs prises par X (formellement X(Ω))
2. Et donner la probabilité pour chacune de ces valeurs.
Il est inutile de donner la probabilité de chaque événement P (X ∈ A), pour A ∈ P(X(Ω)), car on a
toujours la formule :
X
P (X = A) =
P (X = a).
a∈A
2
2
Caractéristiques d’une loi
Fixons une variable aléatoire X, sa loi est donc notée PX . On suppose que X est à valeurs réelles, i.e.
X : Ω → R.
2.1
Espérance
Définition 2.1. On appelle l’espérance de X, et on note E(X) le nombre suivant :
X
E(X) =
P (X = n) × n
n∈X(Ω)
Il s’agit de la valeur moyenne que peut prendre X. La formule est intuitive : on prend toutes les valeurs
possibles, et on pondère par la probabilité que X prenne cette valeur : plus une valeur n est prise fréquemment,
plus elle sera comptée avec un fort coefficient.
Intuitivement, si on répète la même expérience aléatoire un grand nombre de fois, si on note X1 , X2 , X2 , . . .
les résultats obtenus à chacune des expériences, on aura :
X1 + X2 + . . . Xn
n→∞
n
E(X) = lim
E(X) est bien la moyenne des résultats obtenus, lorsque le nombre d’expérience tend vers ∞.
La formalisation rigoureuse, et la preuve, de la formule ci-dessus ne sont pas au programme de la première
année.
cf exercice: 6
Proposition 2.2. Soit Y une autre VA sur Ω.
1. linéarité : soit λ ∈ R, alors E(X + λ.Y ) = E(X) + λE(y)
2. croissance : si X 6 Y (i.e. ∀ω ∈ Ω, X(ω) 6 Y (ω)), alors E(X) 6 E(Y ).
Remarque : L’espérance a les mêmes propriétés que l’intégrale. Dans une théorie plus générale, on verrait
que l’espérance est une intégrale.
cf exercice: 14
La preuve est plus difficile qu’il n’y parait !
Lemme 2.3.
E(x) =
X
P (ω) × X(ω)
ω∈Ω
N.B. Dans les exemples pratiques, on connaît rarement Ω, et donc ce lemme est peu utile. Il sert plutôt
pour des question théoriques.
Démonstration:
Soit k ∈ N et n1 , . . . , nk ∈ Rk tels que X(Ω) = {n1 , . . . , nk }. (Les valeurs possibles pour X sont n1 , . . . nk .)
Notons encore pour tout i ∈ J1, kK Ai l’événement « X = ni ».
N.B. En toute rigueur, cette notation est inutile, on pourrait rester avec la notation X = ni , et écrire des formules
du genre « ω ∈ (X = ni ) ». C’est tout de même un peu bizarre...
A1 , . . . , Ak forme alors un système complet d’événements pour Ω.
Le principe est maintenant simple : on découpe la somme
X
en k sommes, une pour chacun des Ai :
ω∈Ω
X
ω∈Ω
P (ω) × X(ω) =
X
P (ω) × X(ω)
ω∈A1
+ ··· +
X
ω∈Ak
3
P (ω) × X(ω)
=
X
P (ω) × n1
+ ··· +
ω∈A1
=
=
X
P (ω) × nk
ω∈Ak
P (A1 ) × n1 + · · · + P (Ak ) × nk
E(X)
Une fois le lemme acquis, la proposition est facile.
Définition 2.4. Soit f : R → R. La variable aléatoire f ◦ X est aussi notée f (X).
Proposition 2.5. (théorème du transfert)
Soit f : R → R. Alors :
E(f (X)) =
X
f (n) × P (X = n)
n∈X(Ω)
Remarque : Plus généralement, ceci vaut dès que f est une fonction définie sur X(Ω).
Démonstration:
On reprend les notations du lemme :
E(f (X)) =
X
f (X(ω)) × P ({ω})
ω∈Ω
=
=
X
X
ω ∈ A1 f (n1 ) × P ({ω}) + · · · +
f (n1 ) × P (A1 ) + . . . f (nk ) × P (Ak )
ω ∈ Ak f (nk ) × P ({ω})
Exemple: Un jeu se joue entre deux joueurs A et B et consiste à lancer deux dés de 6. Notons S la
somme des deux résultats, le joueur A donne alors au joueur B (S − 7)3 euros. Préferez-vous être le joueur
A ou le joueur B ?
2.2
Variance et écart-type
La variance permet de mesurer en moyenne de combien X s’éloigne de sa moyenne E(X).
Définition 2.6. La variance de X est :
X
(n − E(X))2
n∈X(Ω)
on la note V (X).
p
On appelle écart-type le nombre σ(X) = V (X).
X
Remarque : La formule
|n − E(X)| aurait été tout aussi plausible pour mesurer l’écart entre X et sa
n∈X(Ω)
moyenne... On utilise cependant plus souvent la variance définie ci-dessus. Un argument est que cette formule
est semblable à celle utilisée en géométrie euclidienne pour ||X − E(X)||2 . Et alors on σ(X) = ||X − E(X)||.
On peut écrire :
E(X) = E((X − E(X))2 )
d’où :
E(X) = E(X 2 − 2X.E(X) + E(X)2 )
4
=
=
E(X 2 ) − 2E(X).E(X) + E(X 2 )
E(X 2 ) − E(X)2
linéarité
Cette dernière formule est souvent plus simple à calculer que celle de la définition.
Remarque : On sait que la variance est positive, donc E(X 2 ) > E(X)2 , ce qui n’était pas évident de prime
abord.
X
Remarque : Si on définit pour tout (X, Y ) ∈ F(Ω, R)2 , X | Y =
X(ω)Y (Ω)P ({ω}), on obtient quaω∈Ω
siment un produit scalaire (seule la séparation n’est pas complètement vraie : on obtient que X | X =
0 ⇒ P (X = 0) = 1 : on dit que X est presque sûrement nulle).
Et alors V (X) = ||X − E(X)||2 , et σ(X) = ||X − E(X)|| : c’est la distance euclidienne entre X et sa
moyenne.
Pour le lien vis-à-vis des opérations, nous avons facilement la propriété suivante. Par contre, la variance
d’une somme (et pire : d’un produit) n’est pas évidente...
Proposition 2.7. Soit X une variable aléatoire réelle et (a, b) ∈ R2 . Alors :
V (aX + b) = a2 V (X)
et donc :
σ(aX + b) = |a|σ(X).
La formule suivante montre que la variance permet de savoir de combien en moyenne la variable aléatoire
s’éloigne de son espérance :
Proposition 2.8. (Bienaymé-Chebychev)
Soit X une variable aléatoire réelle et δ ∈ R+∗ . Alors :
P (|X − E(X)| > δ) 6
1
V (X)
δ2
Ainsi, plus la variance est petite, et plus la probabilité que X soit proche de son espérance est faible.
Remarque : et donc aussi, en passant à l’événement contraire :
P (|X − E(X)| < δ) > 1 −
1
V (X).
δ2
qui est souvent ce qui nous intéresse le plus.
Une remarque supplémentaire : cette inégalité est en fait très peu précise...
Démonstration:
Il s’agit de minorer la la variance, i.e. d’obtenir une inégalité de type « V (X) > ... ». Nous allons naturellement
découper la somme qui définit la variance en la partie pour laquelle |X − E(X)| > δ et la partie pour laquelle
|X − E(X)| < δ.
Par définition :
V (X) =
X
(n − E(x))2 .P (X = n)
n∈X(Ω)
Mais les éléments n ∈ X(Ω) se répartissent en deuxnparties disjointes : ceux pour
|n − E(x)| 6 δ et ceuxo
o lesquels
n
pour lesquels |n−E(x)| > δ. En termes précis : X(Ω) = n ∈ X(Ω) |n − E(x)| 6 δ t n ∈ X(Ω) |n − E(x)| > δ
(union disjointe). On peut donc découper la somme en deux parties :
V (X) =
X
(n − E(x))2 .P (X = n)
n∈X(Ω) tq |n−E(x)|6δ
+
X
n∈X(Ω) tq |n−E(x)|>δ
5
(n − E(x))2 .P (X = n)
X
>
=
(δ)2 .P (X = n)
+0
n∈X(Ω) tq |n−E(x)|6δ
2
δ P (|X − E(x)| 6 δ
cf exercice: 29
3
Plusieurs variables aléatoire
3.1
Lois conjointes et marginales
Dans ce paragraphe, on étudie plusieurs variables aléatoires en même temps.
Définition 3.1. Soient X et Y deux variables aléatoire. On appelle la loi conjointe de X et Y la loi du
couple (X, Y ).
En pratique on donne souvent la loi conjointe de (X, Y ) sous forme d’un tableau. (voir l’exercice 22.)
La somme de tous les coefficients du tableau doit valoir 1. Il est facile de retrouver la loi de X et la loi
de Y : il suffit de sommer les coefficients de la ligne ou de la colonne correspondante...
Proposition 3.2. Soient X et Y deux variables aléatoires.
X
1. Pour tout n ∈ X(Ω), P (X = n) =
P (X = n et Y = j)
j∈Y (Ω)
2. Pour tout m ∈ Y (Ω), P (X = n) =
X
P (X = i et Y = m)
i∈X(Ω)
Démonstration: Soit n ∈ X(Ω). La famille d’événements (´ Y = j et X = n ˇ)j∈Y Ω est une partition de
l’événement « X = n », d’où :
X
P (X = n) =
P (Y = j et X = n)
j∈Y (Ω)
Idem pour la seconde égalité.
Par contre, il est important de noter que de connaître les lois de X et Y ne permet pas de retrouver la
loi de (X, Y ), sauf dans le cas où X et Y sont indépendants, comme on va le voir ci-dessous. Voir l’exercice
23.
3.2
Indépendance
Définition 3.3. Soient X et Y deux variables aléatoire. On dit qu’elles sont indépendantes lorsque pour
tout (n, m) ∈ X(Ω) × Y (Ω),
P (X = n et Y = m) = P (X = n) × P (Y = m)
N.B. Si X et Y sont indépendantes, on retrouve facilement la loi conjointe.
Exemple: Jouons aux petits chevaux. On a deux dés pour faire avancer deux petits chevaux sur un
plateau. Nous noterons X la VAR représentant le nombre de cases dont avance le premier cheval, et Y celle
du second. Donnons la loi conjointe de X et Y , avec les deux règles suivantes :
1. on lance deux dés de manière indépendante.
2. Deuxième variante : on lance un seul dé, et les deux chevaux avancent chacun du même nombre de
cases.
6
Tous les événements pouvant être définis à partir de X sont alors indépendants de tous les événements
définis à partir de Y :
Théorème 3.4. Soient X et Y deux variables aléatoires réelles indépendantes. Alors pour tout A ∈ X(Ω)
et B ∈ Y (Ω),
P (X ∈ A et Y ∈ B) = P (X ∈ A) × P (Y ∈ B)
Démonstration: Soit A ∈ X(Ω) et B ∈ Y (Ω). Pour tout n ∈ A et m ∈ B, notons Zn,m l’événement « X =
n et Y = m ». Alors les événements (Zn,m )n∈A,m∈B forment une partition de l’événement « X ∈ A et Y ∈ B ».
D’où :
P (X ∈ A et Y ∈ B) =
XX
P (Zn,m )
n∈A m∈B
=
XX
P (X = n et Y = m)
n∈A m∈B
=
XX
P (X = n) · P (Y = m)
car X et Y sont indépendantes
n∈A m∈B

=

X


P (X = n) × 
n∈A
=

X
P (X = n)P (Y = m)
m∈B
P (X ∈ A) × P (Y ∈ B)
Et dans le même ordre d’idées, toute variable aléatoire définie à partir de X est indépendante de toute
variable aléatoire définie à partir de Y :
Proposition 3.5. Soient X et Y deux variables aléatoires réelles indépendantes. Alors pour tout (f, g) ∈
F(R, R)2 , f (X) et g(Y ) sont indépendantes.
Théorème 3.6. Soient X et Y deux variables aléatoires indépendantes. Alors :
E(X × Y ) = E(X) × E(Y )
Démonstration: Commençons par calculer E(X) × E(Y ) :

 

X
X
E(X) × E(Y ) = 
nP (X = n) × 
mP (Y = m)
=
n∈X(Ω)
X
X
m∈Y (Ω)
nmP (X = n)P (Y = m)
i∈X(Ω) j∈Y (Ω)
=
X
X
nmP (X = n et Y = m)
car X et Y sont indépendantes
i∈X(Ω) j∈Y (Ω)
Calculons d’autre part E(X × Y ). On repart de la formule qui somme sur Ω (lemme 2.3) :
E(X × Y ) =
X
X(ω).Y (ω).P ({ω})
ω∈Ω
Or la famille d’événements (X = n et Y = m)n∈X(Ω),m∈Y (Ω) est une partition de Ω, on peut donc découper la
somme sur Ω en une somme de sommes sur chacun
: en notant pour tout (n, m) ∈ X(Ω) × Y (Ω),
Fde ces événements
F
En,m l’événement « X = n et Y = m ˇ, on a Ω = n∈X(Ω) m∈Y (Ω) En,m et donc :
E(X × Y ) =
X
X
X
X(ω)Y (ω)P ({ω})
n∈X(Ω) m∈Y (Ω) ω∈En,m
=
X
X
n∈X(Ω) m∈Y (Ω)
7
nm
X
ω∈En,m
P ({ω})
X
=
X
nmP (En,m )
n∈X(Ω) m∈Y (Ω)
on retrouve le même résultat que ci-dessus.
Remarque : La réciproque est fausse : il est possible que E(X · Y ) = E(X) × E(Y ) sans que X et Y soient
indépendantes. cf exercice: 18
Exercice : Soient X, Y deux variables aléatoires indépendantes. Montrer que V (X + Y ) = V (X) + V (Y ).
Remarques :
• Si X = Y (donc X et Y ne sont pas indépendantes, sauf si elles sont constantes), alors V (X + Y ) =
V (2X) = 4V (X) : on voit bien la formule de l’exercice n’est plus valable.
3.3
Indépendance mutuelle
Bien entendu, on peut définir l’indépendance entre plus que deux variables :
Définition 3.7. Soient n ∈ N∗Q
, X1 , . . . , Xn n VA sur Ω. On dit qu’elles sont mutuellement indépendantes
n
lorsque pour tout (x1 , ..., xn ) ∈ i=1 Xi (Ω),
P (X1 = x1 et X2 = x2 et ... et Xn = xn ) =
n
Y
P (Xi = xi )
i=1
N.B. Définition beaucoup plus simple que l’indépendance mutuelle des événements ! Il n’y a pas à vérifier
la formule pour toute sous-famille de (X1 , ..., Xn ).
Théorème 3.8. Soient n ∈ N∗ , X1 , . . . , Xn n variables aléatoires mutuellement indépendantes sur Ω.
Alors pour tout (A1 , ..., An ) ∈ P(R)n , les événements X1 ∈ A1 , . . . , Xn ∈ An sont mutuellement indépendants.
(démonstration hors programme)
4
lois usuelles
On présente les lois les plus simples que peuvent suivre une variable aléatoire.
4.1
loi uniforme
Définition 4.1. Soit X une variable aléatoire. Soit n ∈ N∗ . On dit que X suis la loi uniforme sur J1, nK si
• X(Ω) = J1, nK,
1
• et PX est la probabilité uniforme sur J1, nK. (i.e. pour tout i ∈ J1, nK, P (X = i) = .)
n
On note alors X
U(n).
Exemple typique : lancer d’un dé à n faces.
Proposition 4.2. Soit n ∈ N∗ et X suivant la loi U(n). Alors
E(X) =
n
n
X
1
1 X
n+1
i. = .
i=
n
n i=1
2
i=1
8
Très facile à retenir : c’est la moyenne entre les deux valeurs extrêmes.
Remarque : et la variance est :
V (X) = E(X 2 ) − E(X)2 =
n
X
i2 .
i=1
n
X
(n + 1)2
1 n(n + 1)(2n + 1) (n + 1)2
n2 − 1
1
−
= .
−
=
n
4
n
6
4
12
n(n + 1)(2n + 1)
.
6
i=1
Mais la formule pour la variance n’est pas à connaître, seulement celle de l’espérance.
Rappel :
i2 =
Exemple: Dans un jeu on lance un dé de 4 faces et un dé de 6 faces, on avance du résultat du dé de 4 et
on recule du résultat du dé de 6. De combien de cases avance-t-on en moyenne ? Quelle est la variance ?
4.2
Bernoulli
Définition 4.3. Soit X une variable aléatoire. Soit p ∈ [0, 1].On dit que X suit la loi de Bernoulli de
paramètre p si :
• X(Ω) = {0, 1} (seulement deux valeurs possibles qui sont 0 et 1),
• et P (X = 1) = p.
On note X
B(p).
Remarques :
• Autrement dit, une variable aléatoire X suit une loi de Bernoulli si et seulement si elle ne prend que
les valeurs 0 ou 1. Et alors le paramètre p est égal à P (X = 1).
• Immédiatement, P (X = 0) = 1 − p. Ce nombre est souvent noté q.
Exemple: On lance une pièce. Soit X la variable aléatoire qui vaut 1 si on a fait pile, 0 sinon. Alors X
suit la loi de Bernoulli de paramètre 1/2.
Plus généralement, toute situation où deux résultats sont possibles (succès ou échec) peut être modélisée
par une VA suivant la loi de Bernoulli.
Proposition 4.4. On suppose que X suit la loi de Bernoulli de paramètre p. Alors :
1. E(X) = p
2. V (X) = p.(1 − p) et donc σ(X) =
p
p(1 − p).
Exercice : pour quelle valeur de p est-ce que la variance est minimale ?
Un cas particulier où on obtient une loi de Bernoulli est la suivante :
Définition 4.5. Soit A ∈ P(Ω) un événement. On définit alors la variable aléatoire :
Ω →
1A :
ω
7→
{0, 1}
1
si ω ∈ A
0 sinon
Autrement dit, 1A prend la valeur 1 si l’événement A est réalisé, et la valeur 0 sinon.
Avec les notations de la définition, 1A suit la loi de Bernoulli de paramètre p = P (1A = 1) = P (A).
Son espérance est donc P (A) et sa variance P (A).P (Ā).
N.B. Dès qu’une variable aléatoire n’a que deux valeurs possibles, on peut se ramener à une variable aléatoire
de Bernoulli.
9
Par exemple imaginons un QCM où une bonne réponse rapporte 2 points et une mauvaise réponse en fait
perdre 3. Soit X la variable aléatoire du nombre de points gagnés à la question par un candidat répondant
au hasard. Donc X(Ω) = {2, −3}. En notant k le nombre de réponses possibles, et en supposant qu’il y a
k−1
1
.
une et une seul bonne réponse à la question, on a P (X = 2) = et P (X = −3) =
k
k
On peut se ramener à une variable aléatoire suivant une loi de Bernoulli ainsi : posons Y la variable
aléatoire qui vaut 1 si la réponse est bonne et 0 sinon. Alors :
X = 5.Y − 3
On obtient alors immédiatement espérance et variance :
E(X) = E(5Y − 3) = 5E(Y ) − 3 = 5.
1
−3
k
1 k−1
V (X) = V (5.Y − 3) = 25.V (Y ) = 25. .
k k
Bien entendu, ici il était extrêmement simple de calculer E(X) et V (X) à la main ! L’intérêt de cette
méthode apparaît lorsqu’on étudie de nombreuses variables aléatoires de Bernoulli, par exemple lorsqu’on
étudie l’espérance de l’élève sur le devoir entier contenant 20 questions de QCM.
C’est l’objet du paragraphe suivant. Voir l’exercice cf exercice: 29 pour un autre exemple d’application
de cette méthode.
4.3
Loi binomiale
Définition 4.6. Soit (p, n) ∈ N2 . Soit X une variable aléatoire. On dit qu’elle suit la loi binomiale de
paramètres (p, n), et on note X
B(n, p) lorsque X(Ω) = J0, nK et ∀k ∈ J1, nK,
!
n k
P (X = k) =
p .(1 − p)n−k .
k
!
n
X
n k
Remarque : On a
p .(1 − p)n−k = (p + 1 − p)n = 1. Donc la formule ci-dessus définit bien une loi de
k
k=0
probabilité sur J1, nK. Donc il est possible de trouver des variables aléatoires suivant cette loi. En particulier,
ce nombre est toujours inférieur à 1 : rien que ça n’était pas évident dans la formule.
Théorème 4.7. Soit n ∈ N∗ , soient X1 , . . . , Xn n variables aléatoires mutuellement indépendantes suivant
une loi de Bernoulli de paramètre p.
n
X
Alors la somme
Xi suit la loi binomiale de paramètre (n, p).
k=1
Démonstration:
n
X
Notons S =
Xi . Il est déjà clair que la valeur minimale de S est 0 (si tous les Xi valent 0), et que la valeur
i=1
maximale est n (si ils valent tous 1). Comme enfin S prend des valeurs entières, on a bien S(Ω) = J1, nK.
Soit maintenant k ∈ J0, nK, calculons P (S = k).
En gros : La variable aléatoire
Sprend la valeur S lorsque exactement k des Xi prennent la valeur 0, les autres
n
prenant la valeur 1. Or il y a
choix possibles pour les Xi qui vont prendre la valeur 1.
k
Pour tout A ∈ Pk (J1, nK), notons BA l’événement : « ∀i ∈ A, Xi = 1 et ∀i ∈ J1, nK \ A, Xi = 0 ». Formellement,
ceci s’écrit :
\
\
BA =
(Xi = 1) ∩
(Xi = 0)
i∈A
i∈J1,nK\A
10
et comme les variables aléatoires X1 , . . . , Xn sont indépendantes,
Y
P (BA ) =
i∈A
Enfin, la famille E(A)
A∈Pk (J1,nK)
P (Xi = 0)pk .(1 − p)n−k .
i∈J1,nK\A
est une partition de l’événement « S = k ». Donc :
X
P (S = k) =
Y
P (Xi = 1) ×
X
P (BA ) =
A∈Pk (J1,nK)
k
n−k
p .(1 − p)
=
n
pk .(1 − p)n−k
k
A∈Pk (J1,nK)
Remarque : Bien noter que les Xi doivent être mutuellement indépendantes.
Remarque : Dans le cas p = 1/2, les résultats les plus fréquents pour la loi binomiale
sont les!valeurs
!
n
n
moyennes de k, aux alentours de n/2. Par ailleurs, on sait que ∀k ∈ J1, nK,
=
, d’où
k
n−k
P (X = k) = P (X = n − k) (toujours dans le cas où p = 1/2).
Proposition 4.8. Soit X une variable aléatoire suivant la loi B(n, p). Alors :
• E(X) = np
• V (X) = np.(1 − p)
Démonstration:
Soient X1 , . . . , Xn n variables aléatoires indépendantes. Notons S =
n
X
Xi . Alors S suit la loi binomiale B(n, p),
i=1
tout comme X, et donc S et X ont la même espérance et variance.
1. Direct, par linéarité de l’espérance.
n
X
E(X) = E(S) = E(
Xi ) =
i=1
n
X
E(Xi ) =
i=1
n
X
p = np
i=1
2.
V (X) =
V(
n
X

2
2 

n
n
X
X


Xi 
Xi   − E 
Xi ) = E 
i=0
i=1
i=0


n
n
X
X
Xi .Xj  − (np)2
= E
i=0 j=1
=
n
n
X
X
E(Xi .Xj ) − n2 p2
i=0 j=1
Ici il faut faire attention. Pour tout (i, j) ∈ J1, nK2 , les variables aléatoires Xi et Xj sont indépendantes, sauf si
i = j ! Donc nous allons séparer la somme en 2 : la partie pour laquelle i = j et la partie pour laquelle i 6= j.
E(X) =
n
X
E(Xi .Xi ) +
X
i=0
=
=
n
X
i6=j
+
X
i=0
i6=j
n
X
E(Xi2 ) +
X
i=0
E(Xi .Xj ) − n2 p2
E(Xi2 )
E(Xi ).E(Xj ) − n2 p2
car ∀(i, j) ∈ J1, nK2 tq i 6= j, Xi et Xj sont indépendantes
p2 − n2 p2
i6=j
11
Pour la première somme, remarquons que pour tout i ∈ J1, nK, Xi2 = Xi . En effet, ∀ω ∈ Ω, Xi (ω) = 0 ou 1,
donc dans tous les cas, Xi (ω)2 = Xi (ω).
Pour la seconde somme : on somme un terme constant, il faut juste savoir combien de terme il y a. Le nombre
de couples (i, j) ∈ J1, nK2 tels que i 6= j est n(n − 1) (n choix pour i, puis n − 1 choix pour j, c’est le nombre
de manière de choisir deux nombres distincts, avec ordre, parmi n.)
Finalement :
E(X) =
n
X
E(Xi ) + n(n − 1)p2 − n2 p2
i=0
=
=
np + n(n − 1)p2 − n2 p2
np(1 + (n − 1)p − np) = np(1 − p)
Remarque : Traditionnellement, on note q = 1 − p, la formule est alors V (X) = npq.
Exemple: Une puce avance le long d’une droite. Chaque seconde, elle peut faire un bond en avant de
10cm, ou se reposer. La probabilité d’avancer est de 2/3, celle de se reposer est de 1/3. On suppose que le
choix se fait à chaque seconde de manière indépendante. Calculons la distance moyenne parcourue au bout
de n seconde.
cf exercice: 29
Exemple: Reprenons le QCM de la partie précédente. On suppose maintenant que le devoir contient 20
questions, et que le candidat répond au hasard, et de manière indépendante, à chacun des question. On note
pour tout i ∈ J1, 20K Xi la variable aléatoire donnant les points obtenus à la ième question. La note finale
20
X
est donc
Xi .
i=1
Et l’hypothèse d’indépendance semble signifier que X1 , . . . , Xn sont mutuellement indépendantes.
Deuxième partie
Exercices
12
Exercices : probabilités
1
Révisions de probabilités
Exercice 1. ** ! Dénombrement : un exemple de chaque type d’univers
Pour chacune des questions suivantes, identifier le type de tirage (l’ordre compte-t-il ? Les répétitions
sont-elles autorisées ?), écrire l’univers et son cardinal, et calculer la probabilité demandée.
1. Une mille-patte a 2000 chaussettes de chacune des couleurs suivantes : rouges, vertes, bleues, jaune.
Quelle est la probabilité que ses chaussettes soient assorties ?
Même question pour ses chaussures. N.B. Les chaussures gauche et droite ne sont pas interchangeables.
2. M. H. a corrigé n copies. On suppose pour simplifier les notes obtenues deux à deux distinctes. Soit
k ∈ J0, nK. Quelle est la probabilité que les k premières copies aient été les k meilleures ?
3. (*) Mme P. mange des tartines de confiture de fraise, rhubarbe, ou groseille. Quelle est la probabilité
que la première tartine soit à une confiture de fruit rouges et la troisième soit à la groseille ?
4. (***) Mme O. envoie n SMS à ses k contacts. Quelle est la probabilité que chaque contact ait reçu un
message ? Qu’obtient-on lorsque n → ∞ ?
Exercice 2. ** probabilités conditionnelles, et suite récurrente double (HEC)
On considère trois compagnies de téléphonie. A l’année initiale, elles ont chacune 1/3 du marché. Chaque
changement d’année,
• Les clients de A se répartissent de manière équiprobable entre A et B et C
• Les clients de B restent fidèles à B
7
1
, chez B avec probabilité
ou reste chez C.
• Les clients de C partent chez A avec probabilité
12
12
On considère un possesseur de téléphone. On note pour tout n ∈ N, an , respectivement, bn , cn la
probabilité qu’il soit abonné à la compagnie A, respectivement B, C au bout de n années.
1) Pour tout n ∈ N, déterminer la relation de récurrence entre an , bn , cn et an+1 , bn+1 , cn+1 .
2) En déduire une formule donnant an , bn , cn en fonction de n. On pourra identifier une relation de récurrence
double sur les suites a et c.
3) Déterminer limn→∞ an , limn→∞ bn et limn→∞ cn . Interprétation ?
Exercice 3. *** Mme D. fait les soldes (formule de Bayes)
Un magasin de vêtements propose n articles. Chaque article a une probabilité 12 d’être à paillettes.
Un vêtement à paillettes a une probabilité p1 d’être acheté par Mme D, un vêtement sans paillettes une
probabilité p2 . Mme D n’a pas de limite quand au nombre de vêtements qu’elle achète.
1. Calculer la probabilité que Mme D achète tous les habits du magasin.
2. Qu’obtient-on lorsque p2 = 0 ? Est-ce cohérent ?
3. Si Mme D a acheté tous les habits du magasin, quelle est la probabilité qu’ils soient tous à paillettes ?
4. Encore une fois, vérifier que la formule obtenue lorsque p2 = 0 est cohérente. Interpréter également le
cas où p1 = p2 .
2
Espérance
Exercice 4. * dé truqué
On utilise un dé tel que la probabilité de chaque face est proportionnel au nombre indiqué sur cette face.
On note X la variable aléatoire donnant le résultat du dé.
Calculer la loi de X, puis son espérance.
1
Exercice 5. * divers lancés de dés
Dans un jeu de société, vous avez le choix de lancer un dé de 12, ou deux dés de 6, ou trois dés de 4, ou
un dé de 8 et un dé de 4.
1) Vous faites la somme des résultats de chaque dé. Que faut-il choisir pour espérer un résultat le plus grand
possible ?
2) Maintenant, vous devez faire 11 ou 12 pour gagner. Que faut-il alors choisir ?
3) Calculer la variance dans chacun des trois cas. Faire le lien avec la question précédente.
4) ON vous offre également la possibilité de lancer un seul dé de 6 mais de multiplier le résultat par 2. Qu’en
pensez-vous ?
Exercice 6. ** ! Un jeu équilibré
Deux joueurs A et B fixent deux réels (α, β) ∈ (R+ )2 puis jouent aux dès selon les règles suivantes :
Chacun lance un dé puis :
• Si A obtient plus que B, B lui donne αeuros.
• Si B obtient plus que A, A lui donne βeuros.
• En cas d’égalité, c’est A qui gagne, donc B lui donne α euros.
A quelle condition sur α, β le jeu est-il « juste » ?
Exercice 7. ** Exemple simple de loi
On lance une pièce. Si on fait pile on marque deux points, sinon un seul point. On note X la variable
aléatoire donnant le nombre de lancer lis pour atteindre ou dépasser 5 points.
Calculer la loi de X, son espérance et sa variance.
Exercice 8. ** autre exemple simple de loi
On dispose de trois verres opaque. On cache une bille sous l’un de ces verres. On retourne l’un après
l’autre les verres jusqu’à trouver la bille, on note X la variable aléatoire qui représente le nombre de verres
retournés.
Déterminer loi, espérance, et variance de X.
Exercice 9. ** ouvrir une porte en essayant les clés au hasard, le retour
M. X veut ouvrir une porte mais a oublié quelle est la bonne clé. Il utilise donc l’une après l’autre, au
hasard, chacune des clés à sa disposition. On note n le nombre de clés dont il dispose.
On suppose qu’il y a une et une seule bonne clé, et que M. X n’essaie jamais deux fois la même clé.
On note X la variable aléatoire donnant le nombre de tentatives nécessaires pour ouvrir la porte. Déterminer la loi de X, son espérance et sa variance.
Exercice 10. ** exemple de loi hypergéométrique
Une mère cannibale prépare une salade de doigts pour sa famille, de cinq personnes. Sa matière première
est un missionnaire manchot capturé la veille par son mari.
1. Déterminer la loi du nombre d’orteil reçus par un convive.
2. (***) Déterminer son espérance .
Exercice 11. ** Cauchy-Schwartz
Montrer que pour tout couple de variables aléatoires :
E(X × Y )2 6 E(X 2 ) × E(Y 2 )
Exercice 12. *** valeur maximale atteinte
Soit p ∈ N∗ . Un étudiant résout p exercices de cette feuille de TD dans un ordre aléatoire. On note n le
nombre d’exercices de la feuille, et X le plus grand numéro d’exercice résolu.
1. Calculer la loi de X.
2
!
n
X
k−1
2. En déduire la formule
=
p−1
k=p
!
n
.
p
3. Calculer l’espérance de X.
4. Déterminer la probabilité que le dernier exercice soit situé après tous les autres sur la feuille de TD.
Exercice 13. *** Avec une somme binomiale
Aujourd’hui en entrée à la cantine il y a de l’artichaut, des betteraves, ou du céleri. Chaque étudiant
prend une entrée au hasard, sachant qu’il y a suffisamment de chaque pour qu’éventuellement tous prennent
la même entrée. On note n le nombre d’étudiants.
On note X le nombre d’entrées dont personne n’a voulu. Calculer la loi de X, puis son espérance.
Exercice 14. ** échange de parapluies
Soit n ∈ N∗ . n personnes se rendent à une soirée un jour de pluie, chacun a un parapluie et le dépose à
l’entrée. En partant, chacun reprend un parapluie au hasard.
En moyenne, combien de personnes repartent avec leur parapluie ?
On pourra introduire pour tout i ∈ J1, nK la variable aléatoire Xi qui vaut 1 si la ième personne a pris
son parapluie et 0 sinon.
Exercice 15. *** loi hypergéométrique
On rappelle la formule de Vandermond : ∀(p, q) ∈ N2 , ∀n ∈ J0, p + qK,
Pn
k=0
p
k
!
q
n−k
!
=
!
p+q
.
n
1. Une urne contient p boules blanches et q boules rouges. On en tire n.
Calculer la loi du nombre de boules blanches tirées puis son espérance.
2. Une mère cannibale prépare une salade de doigts pour sa famille. Sa matière première est un missionnaire manchot capturé la veille par son mari. Sachant que le couple a trois enfants, combien chaque
convive peut-il s’attendre à avoir d’orteils ? Et combien de doigts de main ?
3. (CCP) Une urne contient deux boules blanches et 8 noires. Un joueur en tire 5. Chaque boule blanche
fait gagner deux points, chaque noire en fait perdre 3. On note X la variable aléatoire représentant le
nombre de boules blanches tirées, et Y le nombre de points obtenus.
(a) Le tirage s’effectue avec remise. Donner loi, espérance, variance de X puis de Y .
(b) Même question sans remise.
3
Variance
Exercice 16. * Propriétés de la variance
On lance un dé de 6 et on appelle X la variable aléatoire représentant son résultat.
• Rappeler variance et espérance de X.
• Dans un jeu, le joueur avance de 2(n − 3) case s’il a fait n à son lancer. Donner espérance et variance
du nombre de cases duquel il avance.
• Dans une variante de ce jeu, il lance un deuxième dé à 6 faces, et il avance de n − 3 + m − 3 où n et
m sont les résultats des deux dés. Donner espérance et variance du nombre de cases duquel il avance.
Exercice 17. ** Variance nulle
Soit X une variable aléatoire de variance nulle. Montrer que X ne prend qu’une seule valeur.
Exercice 18. * covariance et indépendance : contre-exemple
M. Z participe à un jeu dont la règle est la suivante : il lance un dé et une pièce. En notant n le résultat
du dé, il gagne n euros si la pièce est tombée sur pile, et il perd n euros sinon.
On note X la variable aléatoire donnant le résultat du dé, et Y celle donnant le gain de M. Z. Calculer
E(XY ) et E(X).E(Y ). Ces variables aléatoires sont-elles indépendantes ?
3
Exercice 19. ** bruit : utilisation de la variance
On reçoit un signal S perturbé par un bruit B. On connaît l’espérance et la variance de S et de B, et on
souhaite corriger au mieux le signal reçu.
Le signal reçu est S + B, qu’on notera X. Déterminer les réels a, b tels que E((aX + b − S)2 ) soit minimal.
On donnera la réponse en fonction des espérances et variances de B et de S.
On pourra émettre des hypothèses raisonnables sur B et S.
Indication :deux méthodes proposées :
• (calcul direct) : Justifier E((aX + b − S)2 ) = V ((aX + b − S)2 ) + E(aX + b − S)2 . Chercher à minimiser
le premier terme et annuler le second.
• (géométrie euclidienne) : calculer le projeté orthogonal de S sur Vect(1, X).
Exercice 20. *** loi faible des grands nombres (CCP)
1. Démontrer que si X et Y sont deux variables aléatoires indépendantes, alors V (X +Y ) = V (X)+V (Y ).
2. Soit (Xn )n∈N une suite de variables aléatoires
Pnmutuellement indépendantes de même espérance et de
même variance. Pour tout n ∈ N, soit Sn = k=1 Xn . Montrer que pour tout a ∈ R+∗ :
!
Sn
V (X1 )
− E(X1 ) > a 6
P n
n.a2
3. Qu’obtient-on lorsque n → ∞ ? Cette formule est appelée loi faible des grands nombres. Interprétation ?
4. On effectue des tirages successifs, avec remise, dans une urne contenant 2 boules rouges et 3 blanches.
Donner un nombre tirage à partir duquel on puisse être sûr à 95% que la proportion de boules rouges
sera entre 0, 35 et 0, 45.
Exercice 21. *** Exemple en dénombrement, avec différents choix d’univers
Soit n ∈ N tel que n > 2, et soit U une urne contenant n jetons numérotés de 1 à n. On tire une poignée
de jetons, et on note N le nombre de jetons tirés, et S la somme des nombres inscrits sur les jetons tirés.
Pour tout i ∈ J1, nK, soit Xi la variable aléatoire valant 1 si le ième jeton a été tiré et 0 sinon.
1. Proposer un univers pour cette expérience.
2. Dans un premier temps on suppose que toutes les poignées sont équiprobables.
(a) Déterminer la loi de N et son espérance.
(b) Quelle est la loi de Xi ?
(c) Écrire S en fonction de X1 , ..., Xn , et en déduire E(S).
(d) Montrer que (X1 , ,̇Xn ) sont mutuellement indépendantes, et en déduire V (S).
3. À présente on suppose que N suit une loi uniforme, i.e. que toutes les tailles de poignées sont équiprobables.
(a) Quelle est l’espérance de N ?
(b) Soit i ∈ J1, nK. Calculer pour tout k ∈ J1, nK P (Xi = 1|N = k). En déduire la loi de Xi .
(c) Les variables aléatoires (X1 , ,̇Xn ) sont-elles indépendantes ?
(d) Calculer E(S).
(e) Calculer V (S). On pourra commencer par calculer pour tout (i, j) ∈ J1, nK la loi de Xi · Xj .
4
4
Couple de variables aléatoires
Exercice 22. * ! Couple de variables aléatoires
Dans un devoir surveillé, un exercice contient deux parties : l’une sur deux points, l’autre sur trois.
On notera X la variable aléatoire donnant le nombre de points obtenus par un élève sur la première
partie, Y la variable aléatoire donnant le nombre de points à la deuxième partie.
Les lois de X et Y sont indiquées dans le tableau ci-dessous : pour tout i ∈ J0, 2K et tout j ∈ J0, 3K,
P (X = i et Y = j) est indiqué dans la case (i, j) du tableau :
Y
0
1
2
3
X
0
0,1 0,2 0,1 ?
1
0,1
0
0
?
2
0,1
0
0,2 ?
1. La dernière question de la deuxième partie n’était faisable qu’à condition d’avoir complètement réussi
la première partie. Autrement dit, il est impossible d’avoir 3 à la deuxième partie sans avoir eu 2 à la
première partie.
(a) Écrire cette information en terme de probabilités conditionnelles.
(b) Compléter le tableau ci-dessus.
2. Retrouver la loi de X et la loi de Y .
3. Calculer la loi de X + Y .
4. Calculer la moyenne de la classe pour chaque partie, et pour l’exercice au total. Calculer la variance
pour l’exercice complet.
5. Les variables aléatoires X et Y sont-elles indépendantes ?
6. Donner la loi conditionnelle de X sachant Y = 2, puis de Y sachant X = 1.
7. Donner de min(X, Y ).
8. Donner la tableau de loi conjointe de X + Y et de min(X, Y ).
Exercice 23. * couple de variables aléatoires et indépendance
On étudie un joueur de fléchette. Pour simplifier, admettons qu’il atteint toujours la cible, et que celle-ci
ne présente que 3 zones : les zones à 1 point, 2, et 5 points.
Pour notre joueur qui est un joueur moyen, le nombre de points de chaque zone est inversement proportionnel à la difficulté d’atteindre la zone.
Le joueur lance deux fléchettes, on notera X la VA donnant le résultat du premier lancer, Y le résultat
du second.
1) Traduire la phrase « le nombre de points de chaque zone est inversement proportionnel à la difficulté
d’atteindre la zone » en langage mathématique. En déduire la loi de X et de Y .
2) Donner le tableau pour la loi conjointe de X et Y dans l’hypothèse où les deux lancers sont indépendants.
3) Maintenant, on suppose que pour des raisons psychologiques, si le premier lancer est bien réussi, le second
a plus de chances de l’être. Donner alors un tableau possible.
Exercice 24. * Exemple simple de loi conjointe
Soit n ∈ N∗ . Une urne contient n boules, numérotées de 1 à n. On tire sans remise deux boules successivement. Soit X1 la variable aléatoire donnant le nombre inscrit sur la première boule, et X2 celle donnant
le nombre inscrit sur la deuxième boule.
1) Donner la loi conjointe de X1 et X2 .
2) Calculer les lois de X1 et X2 .
3) Les variables aléatoires X1 et X2 sont-elles indépendantes ?
5
Exercice 25. ** Deuxième exemple
Soit n ∈ N. Une urne contient n boules blanches et deux rouges. On tire des boules successivement et
sans remise jusqu’à avoir sorti les deux rouges. On note X1 la variable aléatoire donnant le rang de sortie de
la première boule rouge, et X2 celle donnant le rang de sortie de la seconde boule.
Écrire la loi conjointe de X1 et X2 , puis retrouver les lois de X1 et de X2 .
5
Lois usuelles
Exercice 26. ** variance de la loi binomiale par calcul direct
Soit n ∈ N∗ , p ∈ [0, 1] et X une variable aléatoire suivant la loi B(n, p).
1. En utilisant la formule du pion, calculer E X(X − 1) .
2. En déduire V (X).
Exercice 27. ** Exemple de loi binomiale
Un QCM comporte 60 questions. À chacune il y a 4 réponses possibles, dont 3 fausses et 1 juste. Un
réponse juste rapporte 3 points, une réponse fausse enlève 2 points. L’élève Z répond au hasard. On note X
la variable aléatoire représentant le nombre de bonnes réponses.
1) Calculer la loi de X et son espérance. Quelle est la note moyenne (sur 20) de l’élève Z ?
2) Donner la probabilité que l’élève Z ait la moyenne, puis qu’il ait au moins 19/20.
Exercice 28. ** contagion
Dans une ville, une épidémie touche une proportion p des habitants. A chaque contact avec une personne
saine, un individu contaminé a une probabilité 14 de transmettre la maladie.
M. T, sain au début de l’expérience, décide de rendre visite à n personnes.
1. Soit N la variable aléatoire donnant le nombre de personnes contaminées rencontré par M. T. Quelle
est la loi de N ?
2. Déterminer la probabilité que M. T soit contaminé.
Exercice 29. ** saut de puce
Soit n ∈ N. Une puce effectue n bonds le long d’une droite. A chaque bond, elle a une chance sur deux
d’avancer de 1cm, et une chance sur deux de reculer d’autant.
1) Quelle est la probabilité que la puce soient revenue à son point de départ ?
2) Calculer la distance moyenne parcourue au bout de n secondes, ainsi que la variance de ce nombre.
3) Déterminer un intervalle dans lequel la probabilité que la puce soit soit d’au moins 1/2.
4) Mêmes questions si la puce a une probabilité de 2/3 d’avancer et de 1/3 de reculer.
!
2k
!
n
k
X
2n + 1 2n
5) (***) vérifier la formule
=
.
n
4k
4n
k=0
En déduire l’espérance du nombre de passage de la puce par l’origine.
Exercice 30. ** ! Analyse de lait
Les brebis d’un troupeau sont atteinte d’une maladie avec une probabilité p = 0, 15. Pour dépister la
maladie, on analyse le lait.
On envisage deux stratégie :
(i) On analyse un échantillon du lait de chaque brebis.
(ii) On mélange un échantillon de lait de chaque brebis, et si le test est positif, on analyse séparément un
(nouvel) échantillon de lait de chaque brebis.
6
On notera X la variable aléatoire qui représente le nombre d’analyses avec la stratégie (i), et Y le nombre
d’analyses avec la stratégie (ii). On note n la taille du troupeau.
1) On note M le nombre de brebis malades. Donner la loi de M , son espérance et sa variance.
2) Déterminer l’espérance de X et de Y .
3) Déterminer quelle est la stratégie permettant de minimiser le nombre d’analyses en fonction de la taille
du troupeau. On pourra dresser le tableau de variation de la fonction f : x 7→ x. ln(1 − p) + ln(x).
4) Variante : on fixe k ∈ N et on divise le troupeau en groupes de k brebis. On supposera pour simplifier que
k divise n. On mène une analyse pour chaque groupe (en mélangeant un échantillon de lait de chaque
brebis du groupe), pour chaque groupe si le résultat est positif on analyse séparément le lait de chaque
brebis du groupe. Exprimer l’espérance du nombre d’analyses en fonction de k, n, et p.
Exercice 31. ** Un peu de tout : espérance, variance, Tchebychev, indépendance...
Un DS comprend 20 questions, chacune notée sur 1 point. On suppose que chaque question a la même
probabilité, notée p d’être résolu par un élève.
1. On suppose les questions indépendantes. À quelle moyenne de classe peut-on s’attendre ? Proposer un
intervalle tel que chaque élève à une probabilité d’au moins 2/3 d’avoir sa note dans cet intervalle.
2. On suppose que chaque question ne peut être résolue qu’à condition d’avoir réussi les questions précédentes, et que dans ce cas la probabilité de résolution est p. Reprendre les questions précédentes.
Exercice 32. *** Loi conjointe et binomiale
On lance un dé de 6, puis si n est le résultat obtenu, on lance n dés de 6. On note N la variable aléatoire
donnant le résultat du premier dé, et X la variable aléatoire égale au nombre de 6 lors du second lancer.
1. Calculer la loi conjointe de N et X,
2. Calculer l’espérance de X
Exercice 33. **** lois binomiales (CCP)
Soit n ∈ N tel que n > 2. Un secrétaire tente d’appeler n personnes, une fois chacune. On suppose que
chacune de ces personnes a la même probabilité p d’être joignable au moment de l’appel. On notera q = 1−p,
et X le nombre de personnes que le secrétaire a pu contacter.
1. Donner la loi de X, son espérance, sa variance.
2. Le lendemain, le secrétaire tente d’appeler les personnes qu’il n’a pas pu avoir le premier jour. On note
Y le nombre de personnes contactées lors de cette deuxième session, et Z = X + Y le nombre total des
personnes contactées.
(a) Soit k ∈ J0, nK et l ∈ J0, n − kK. Déterminer P (Y = l|X = k).
!
!
!
!
n
n−k
n
s
(b) Soit k ∈ J0, nK, s ∈ J0, nK, montrer que
=
.
k
s−k
s
k
(c) Calculer la loi de Z.
(d) Quelle est la probabilité que le secrétaire ait pu joindre tous les correspondants ?
(e) Montrer que Z suit une loi binomiale, et préciser ses paramètres.
Quelques indications
3 3) C’est la formule de Bayes.
6 Calculer l’espérance du gain de A et de B, et voir à quelle conditions elles sont égales.
7
7 Détailler toutes les possibilités pour atteindre ou dépasser 5.
8 Utiliser les probabilités conditionnelles pour P (X = 2).
9 Pour tout i ∈ J1, nK, noter Ai l’événement « ouvrir la porte à la ième tentative ». C’est la formule des probabilités
composées.
10 2) retrouver la formule de Vandermonde.
11 C’est l’inégalité de Cauchy-Schwartz, il suffit de faire la même preuve que celle du chapitre sur la géométrie
euclidienne, à savoir étudier la fonction λ 7→ E((λ.X + Y )2 ).
12 1) si le max est k, les p − 1 autres exercices sont de numéro ∈ J1, k − 1K.
3)
13 P (X = 2) est facile.
Pour P (X = 1) : soient x et y les deux entrées qui ont été choisies par au moins un étudiant. Utiliser la partition
Fn−1
« k étudiants ont pris x, et n − k étudiants ont pris y ».
k=1
On arrivera à une somme binomiale...
14 Comme souvent, le plus dur est de comprendre ce qu’on veut calculer exactement.
15
16
17 On montrera en réalité que la probabilité que X = E(X) est 1. Autrement dit, X est « presque sûrement »
constante
18 Noter Y 0 la variable aléatoire qui vaut 1 lorsque la pièce tombe sur pile et −1 sinon.
19 Supposer que B et S sont indépendantes.
20
1. C’est l’inégalité de Bienaymé Tchebychev
2. application directe
21
22
23 1) La probabilité d’atteindre la zone n est proportionnelle à
1
.
n
24
25
26
27 Utiliser une variable aléatoire Bi qui vaut 1 lorsque l’élève répond juste à la ième question et 0 sinon.
28 2) probabilités totales, en passant par le SCE (´ N = i ˇ)i∈J0,nK .
29 1) Distinguer selon que n est paire ou non.
30 1) cours : loi binomiale
31
1
32 1) Soit n ∈ J1, 6K. La probabilité de X sachant que N = n suit une binomiale de paramètres (n, ).
6
2) Faire apparaître la formule de l’espérance d’une loi binomiale.
33
8
Quelques solutions
4
.
1. CardΩ = Mat80001000. Puis la probabilité est 8000
1000
1
2.
2 Pour tout n ∈ N,

1

an+1 = 3 an +
bn+1 =

cn+1 =
1
c
12 n
1
7
an
+
b
+ 12
cn
n
3
1
1
a + 3 cn
3 n
.
1
an , et même formule pour c.
12
racines de l’équation caractéristique : 1/2 et 1/6.
1
1 1
an = 12
+ 14 n .
6n
2
1
1
cn = 12 n − 16 n
2
6
1
1 1
bn = 1 − 34 n − 12
.
2
6n
an+2 = 23 an+1 −
3
1.
2. 3.
p1 + p2
2
p1
p1 + p2
n
n
4. Si p1 = p2 , le fait qu’un habit soit ou non à paillettes n’influe pas sur la probabilité qu’il soit acheté. Les
événementsA : « Mme D achète tous les habits » et B :« tous les habits sont à paillettes » sont indépendants.
1
Donc P (B|A) = P (B) = n .
2
4 Par énoncé, ∃α ∈ R tq ∀k ∈ J1, 6K, P (X = k) = αk. On trouve α =
5
1. Notons X le resultat du lancer d’1D12. On trouve E(X) =
1
21
puis E(X) =
7
.
13
13
2
6 Notons XA la variable aléatoire qui représente le gain de A, et XB celle qui représente le gain de B.
Calculons la probabilité que le joueur A gagne. Nous modélisons la situation en prenant pour univers Ω =
J1, 6K × 1, 6. Pour tout événement élémentaire (a, b) ∈ Ω, a est le résultat du joueur A et b celui du joueur B. Nous
supposons que Ω est muni de la probabilité uniforme.
L’événement « A gagne » correspond alors la partie de Ω suivante :
« A gagne » :
n
(a, b) a > b
o
On partitionne l’événement ainsi :
« A gagne » : t6i=1
n
o
(i, b) b ∈ J1, iK
La cardinal de cet événement est donc :
6
X
i=1
n
o
Card( (i, b) b ∈ J1, iK ) =
6
X
i=1
i=
(1 + 6) × 6
= 21
2
Et la probabilité que A gagne est :
P (Agagne) =
15
21
7
=
=
Card(Ω)
36
12
On constate enfin que l’événement « B gagne » est l’événement contraire à « A gagne », sa probabilité est :
P (Bgagne) = 1 −
9
7
5
=
12
12
7
5
Ainsi XA peut prendre pour valeurs α avec la probabilité
et pour valeur −β avec la probabilité
.
12
12
L’espérance de XA est donc :
5
7
− β.
E(XA ) = α.
12
12
On remarque que XB = −XA (dans tous les cas, B gagne l’opposé de ce que gagne A). Donc E(XB ) = −E(XA )
(linéarité de l’espérance).
5
7
− β.
= 0 ssi 7α = 5β.
Finalement, le jeu est équilibré ssi E(XB ) = E(XA ) ssi E(XA ) = 0 ssi α.
12
12
Par exemple, prendre α = 5 et β = 7.
7 E(X) =
57
95
, V (X) = 8 .
16
2
8 On constate que X
U(3).
9
10
11
12
1. Déjà l’ensemble des valeurs possibles pour X est Jp, nK (le minimum est p, atteint si l’étudiant à résolu les
p premiers exercices de la feuille).
Soit k ∈ Jp, nK, calculons P (X = k).
Il s’agit d’un tirage sans répétition,
ne compte pas, nous pouvons donc utiliser des combinaisons. On
l’ordre
n
prend Ω = Pp (J1, nK), de cardinal
.
p
En élément de l’événement « X = k » est un sous-ensemble de Jp, nK contenant k et p − 1 éléments inférieurs
à
k−1
k. (Autrement dit, réaliser « X = k » c’est prendre k et choisir p − 1 éléments de J1, k − 1K) Il y a ainsi
p−1
choix possible.
Matk − 1p − 1
.
En supposant Ω muni de la probabilité uniforme, nous obtenons P (X = k) =
n
p
2. C’est le fait que P (X ∈ Jp, nK) = 1.
n+1
3. p.
.
p+1
13
Pn
14 P
Le nombre de personnes qui repartent avec leur parapluie est i=1 Xi . Et le but de l’exercice est donc de calculer
n
E( i=1 Xi ).
Pn
Pn
Sachant que l’espérance est linéaire, on a E( i=1 Xi ) = i=1 E(Xi ).
La phrase de l’énoncé « chacun reprend un parapluie au hasard » semble signifier que pour tout i ∈ J1, nK, la ième
1
personne a la même probabilité de repartir avec chacun des parapluie. Elle a donc la probabilité
de repartir avec
n
1
n−1
1
le sien. Alors E(Xi ) = 1. + 0.
= .
n
n
n
Et finalement, le résultat cherché est :
n
X
E(
i=1
Xi ) =
n
X
E(Xi ) =
i=1
n
X
1
i=1
n
=1
En moyenne, une personne repart avec son propre parapluie. On remarque que ce nombre est indépendant de n.
15
16
10
17
18 Avec la notation Y 0 de l’énoncé, on a Y = X.Y 0 . D’où E(X.Y ) = E(X 2 .Y 0 ). Mais Y 0 et X 2 sont indépendantes,
donc E(X.Y ) = E(X 2 ).E(Y 0 ) = E(X 2 ).0 = 0.
Finalement, on trouve E(X.Y ) = E(X).E(Y ) = 0. Pourtant les deux variables ne sont pas indépendantes.
19
20
1. On applique l’inégalité de Tchebychev à la variable aléatoire
V(
V (X1 )
Xn
)=
.
n
n
2. Par le théorème des gendarmes, pour tout a ∈ R
+∗
Sn
Sn
, on vérifie que E(
= E(X1 ) et que
n
n
!
Sn
n − E(X1 ) > a = 0.
, limn→∞ P
Sn
Interprétation : Notons que
est la moyenne des résultats obtenus lors des n premières expériences. Ainsi,
n
la probabilité que cette moyenne soit éloignée de l’espérance des Xi tend vers 0.
3. Pour tout i ∈ N, soit Xi qui vaut 1 si la ième boule tirée est rouge et 0 sinon.
1 Pn
Soit pour tout n ∈ N∗ Sn =
Xi . Les Xi vérifient les hypothèses de la question 1 (indépendantes, même
n i=1
2
6
espérance : 5 et même variance : 25 , car elle suivent la loi B(2/5)).
Sn
− E(X1 ) 6 0, 05. Il ne reste plus qu’à utiliser la formule de la question 1.
La probabilité demandée est P (
n
21
22
23 1) ∃K ∈ R tq ∀n ∈ J1, 2, 5K, P (X = n) =
K
.
n
24 ∀(i, j) ∈ J1, nK2 , P (X = i et Y = j) = 0 si i = j et
1
sinon.
n(n − 1)
2n!
2
=
(n + 2)!
(n + 1)(n + 2)
(on prend l’univers des n-arrangements de l’ensemble des n + 2 boules, de cardinal (n + 2)!. Pour réaliser X1 = i et
X2 = j, on a deux choix pour l’ordre des 2 boules rouges, et n! choix pour l’ordre des n boules blanches.)
2(j − 1)
2(n + 2 − i)
et ∀j ∈ J1, n + 2K, P (X2 = j) =
.
D’où ∀i ∈ J1, n + 2K, P (X1 = i) =
(n + 1)(n + 2)
(n + 1)(n + 2)
25 Soit (i, j) ∈ J1, nK2 . On a P (X1 = i et X2 = j) = 0 si j 6 i. Et sinon : elle vaut
26
27
28
1. C’est une simple loi binomiale de paramètres p et n : N
B(n, p).
2. (1 − 34 p)n
29
30
1. M
B(n, p), d’où le résultat par les formules du cours.
2. E(X) = n (X est la variable aléatoire constante égale à n !)
Ensuite, Y prend les valeurs 1 ou n + 1, et P (Y = 1) = (1 − p)n . On trouve E(Y ) = n + 1 − n.(1 − p)n .
3. On trouve que la deuxième stratégie est préférable lorsque n ∈ J2, 17K.
11
31
1. Notons N le nombre de questions résolues. N est la somme de n variables aléatoires de Bernoulli indépendantes de paramètre p. Donc N
B(n, p).
La moyenne de la classe attendue est E(N ) = np.
Pour obtenir un intervalle contenant X avec une probabilité d’au moins 2/3, utilisons l’inégalité de Chebychev.
Et pour ce, commençons par donner la variance de N : V (N ) = 20p(1 − p). L’inégalité de Chebychev donne
alors ∀δ ∈ R+∗ :
V (X)
P |N − E(N )| > δ 6
δ2
En passant à l’événement contraire :
P |N − E(N )| 6 δ > 1 −
Pour que ceci soit > 2/3, il suffit que 1 −
V (X)
>
δ2
δ>
En conclusion :
2
3
Ainsi, l’intervalle [np −
p
p
60p(1 − p), np +
p
> V (X) i.e. que δ >
√
3σ(X) i.e. que
60p(1 − p).
P N ∈ [np −
1 2
δ
3
p
P |N − pn| 6
ou encore :
i.e. que
V (X)
δ2
p
60p(1 − p) >
60p(1 − p), np +
2
3
p
60p(1 − p)] >
2
3
60p(1 − p)] convient.
32 1) Les valeurs possibles pour X sont J0, 6K, et pour N J1, 6K.
Soit n ∈ J1, 6K et i ∈ J0, 6K, alors P (X = i et N = n) = P (N = n) × P (X = i|N = n) = 0 si i > n
n−i
1
1 5
n
et
×
. i
sinon (en effet il s’agit d’une loi binomiale : on répète n fois une expérience ayant une
i
6
6
6
probabilité 61 de réussite, et on compte le nombre de réussites.) n
Remarque : En fait la formule est aussi vraie si i > n car alors
= 0.
i
n
pß(1 − p)n−i (c’est l’espérance d’une VA
i
suivant B(n, p)). On va donc écrire E(X) en faisant apparaître cette somme (pour p = 1/6 bien sûr).
2) On rappelle que pour tout n ∈ N et tout p ∈ [0, 1], n.p =
E(X) =
6
X
Pn
i=0
i
i.P (X = i)
i=0
6
=
6
X X
i.
i=0
6
=
P (X = i et N = n)
n=1
6
X X 1 n 1
i.
i=0 n=1
6
i
5
.( )i ( )n−i
6 6
=
6
6
1 XX
1 5
n
i.
.( )i ( )n−i
i
6
6 6
=
6
n
1 XX
1 5
n
i.
.( )i ( )n−i
i
6
6 6
n=1 i=0
n=1 i=0
6
=
=
33
1X 1
n.
6
6
n=1
7
12
1. B(n, p)
12
car
n
i
= 0 si i > n
2.
(a) P (Y = l|X = k) =
n−k
l
pl q n−k−l
(b) Soit s ∈ J0, nK. Comme la famille d’événements (X = k)k∈J0,nK est un système complet d’événements, on
peut utiliser la formule des probabilités totales :
P (Z = s) =
n
X
P (Z = s|X = k) · P (X = k)
k=0
s
=
X
P (Y = s − k|X = k) · · · P (X = k)
k=0
s
=
=
X n − k s−k
k=0 s
X
n
s
s
k
k=0
=
=
=
ps q 2n−s−k
s
k
X s
n
ps q 2n−s
s
k
k=0
=
ps−k q n−k−(s−k) ·
1
n
ps (1 + )s q 2n−s
s
q
n
s
p (q + 1)s q 2n−2s
s
n
(p + pq)s (q 2 )n−s
s
(c) Or q 2 = 1 − (p + pq) : Z suit donc la loi B(n, p + pq).
13
1
q
n
pk q n−k
k
Téléchargement