Exercises

publicité
MAP 311 - Aléatoire - PC 1
Emmanuel Gobet
Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/.
Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard.
Mots-clés de la semaine : probabilité, événement, expérience, indépendance, conditionnement,
formule de Bayes, lemme de Borel-Cantelli.
Probabilités
EXERCICE 1 - Les anniversaires communs. (?)
Si n personnes sont réunies dans une pièce, quelle est la probabilité qu’aucune paire d’individus
n’ait un anniversaire commun ? Déterminer nmin pour que cette probabilité soit inférieure à 0.5
(on pourra utiliser l’équivalence ln(1 + x) ∼ x pour x 1).
EXERCICE 2 - Tirage de boules.
Une urne contient r boules rouges et b boules blanches.
1. Décrire l’espace probabilisé (Ω, A, P) associé aux expériences suivantes :
a) On tire k boules une à une, sans remise.
b) On tire k boules une à une, avec remise.
2. Pour les deux expériences précédentes, calculer la probabilité que le nombre de boules
blanches tirées soit égal à j, pour j ∈ N.
EXERCICE 3 - Formule du crible. (?)
1. Montrer la formule de Poincaré (formule du crible) :
!
n
[
X
X
P
Ai
=
P(Ai ) −
P(Ai1 ∩ Ai2 )
i=1
1≤i≤n
=
n
X
p=1
(−1)p+1
1≤i1 <i2 ≤n
+ · · · + (−1)n+1 P(A1 ∩ A2 ∩ · · · ∩ An )
X
P(Ai1 ∩ · · · ∩ Ai2 ).
1≤i1 <···<ip ≤n
Indication : on pourra utiliser le fait que 1 − 1Sni=1 Ai =
récurrence.
Qn
i=1 (1
− 1Ai ), ou procéder par
2. Soit S une permutation aléatoire sur n objets, de loi uniforme.
a) Quelle est la probabilité que S ait au moins un point fixe ?
b) Quelle est la probabilité que S ait exactement k points fixes ? Montrer que ceci est en
général très proche de exp(−1)/k!.
3. Une personne écrit n lettres et les ferme avant d’écrire les adresses sur les enveloppes. On
suppose que tous les destinataires ont une adresse différente. Quelle est la probabilité pour
qu’au moins une lettre arrive au bon destinataire ? Donner la limite de cette probabilité
lorsque n → ∞.
Evénements indépendants et conditionnement
EXERCICE 4 - Indépendance deux à deux et indépendance mutuelle.
Soit Ω := {ω1 , ω2 , ω3 , ω4 } muni de la loi uniforme (i.e., chaque élément a probabilité 1/4). On
définit les événements A := {ω1 , ω2 }, B := {ω1 , ω3 } et C := {ω2 , ω3 }. Montrer que A, B et C
sont indépendants deux à deux. Comparer P(A ∩ B ∩ C) et P(A)P(B)P(C).
EXERCICE 5 - Rôle de l’information. (?)
L’exercice suivant est très classique et a de nombreuses variantes. Il illustre l’utilité d’une formulation mathématique rigoureuse pour éviter des pièges et des paradoxes dus à des raisonnements
spécieux.
Une famille a deux enfants. Quelle est la probabilité pour que les deux enfants soient des filles
sachant que l’enfant le plus jeune est une fille ? Quelle est la probabilité pour que les deux enfants
soient des filles sachant que l’un des enfants est une fille ?
EXERCICE 6 - Prendre la bonne porte. (?)
Lors d’un jeu télévisé, le candidat a le choix entre trois portes. Derrière l’une se trouve un cadeau,
derrière les deux autres il n’y a rien. Le présentateur demande au candidat de choisir une porte.
S’il choisit celle où se trouve le cadeau il le gagne, sinon il s’en retourne les mains vides.
Le candidat choisit sa porte. Pour faire monter le suspense, le présentateur décide d’ouvrir une
autre porte, derrière laquelle il sait qu’il n’y a rien. Il redemande alors au candidat de choisir
une porte. Quelle est la meilleure stratégie pour le candidat ? Garder la porte qu’il avait choisie,
choisir au hasard une des deux portes restantes (à pile ou face), ou changer de porte ?
EXERCICE 7 - Test de qualité de production.
On considère une usine fabriquant des cartes électroniques. Lors de la production une carte sur
100 000 est défectueuse. En fin de production, on effectue un test pour savoir si la carte est
défectueuse ou non. Pour les pièces défectueuses le test est positif dans 95 % des cas, pour les
pièces correctes dans 1% des cas.
Le test indique qu’une pièce donnée est défectueuse (test positif). Quelle est la probabilité que
la pièce soit effectivement défectueuse ?
EXERCICE 8 - Un exemple non trivial d’événements indépendants.
Dans l’expérience suivante, on dispose de trois dés à 6 faces, deux d’entre eux étant normaux et
le 3ème pipé. Un dé est normal si chaque face a même probabilité d’apparaître, alors qu’un dé
est pipé si la face 6 est trois fois plus probable que les autres.
1. On choisit au hasard un dé et on le lance. Quelle est la probabilité que la face i apparaisse ?
Sachant que le dé a donné un 6, quelle est la probabilité qu’il soit pipé ?
2. On choisit maintenant deux dés parmi les trois disponibles et on les lance. On note A = {le
dé pipé fait partie des deux dés choisis}.
a) Calculer P(A). Quelle est la probabilité de A sachant que la somme des résultats des
deux dés vaut 12 ?
b) Même question avec une somme égale à 7.
c) Soit B = {la somme des résultats des deux dés lancés vaut 7}. Montrer que A et B sont
indépendants.
EXERCICE 9 - Mauvaise fouille.
On dispose de n sacs numérotés de 1 à n ; une balle a été mise au hasard dans l’un d’eux. Elle
se trouve dans le sac i avec la probabilité pi . Lorsqu’on fouille un sac, la probabilité de ne pas
trouver la balle alors qu’elle s’y trouve vaut p (la fouille n’est pas assez minutieuse).
1. On fouille une première fois le sac 1 et on ne trouve pas la balle. Quelle est la probabilité
qu’elle soit quand même dans le sac 1 ? dans le sac j (j 6= 1) ?
2. On recommence la fouille du sac 1 et on ne trouve toujours pas la boule. Calculer de
nouveau la probabilité qu’elle soit dans le sac 1, puis dans le sac j (j 6= 1).
EXERCICE 10 - Un buveur impénitent décide de ne plus boire . . .
Un buveur impénitent décide d’essayer de ne plus boire. S’il ne boit pas un jour donné, alors la
probabilité qu’il ne boive pas le lendemain est de 0,4. En revanche, s’il succombe un jour il ne
boira pas le lendemain par remords avec une probabilité de seulement 0,2.
1. Quelle est la probabilité que ce buveur ne boive pas le n-ième jour ?
2. Que se passe-t-il quand n tend vers l’infini ? Interpréter.
3. On suppose à présent qu’à chaque Nouvel An, notre homme prend la résolution d’arrêter
de boire. Il ne boit donc jamais le 1er janvier, indépendamment de son comportement de
la veille, puis l’engrenage fatal le rattrape et il se comporte les jours suivants comme décrit
précédemment. En utilisant le lemme de Borel-Cantelli, montrer qu’avec probabilité 1 il
existe une année pendant laquelle il ne boira pas du tout, tandis que la probabilité qu’il
existe une année à partir de laquelle il ne boira plus jamais est nulle. (On supposera que
notre buveur est immortel.)
Evénements, tribus
EXERCICE 11 - Tribu engendrée par une famille finie.
1. Montrez qu’une tribu engendrée par une famille finie de parties est engendrée par une
partition finie.
2. Décrire tous les éléments de cette tribu.
3. Montrez que ce résultat est faux si on remplace fini par dénombrable. (Utiliser la tribu
borélienne de R.)
EXERCICE 12 - Un exemple d’ensemble non mesurable.
Sur R on définit la relation d’équivalence x ∼ y si x − y ∈ Q. En utilisant l’axiome du choix (si A
est une fonction sur un ensemble I telle que A(x) 6= ∅ pour tout x de I, il existe une fonction f
telle que f (x) ∈ A(x) pour tout x ∈ I), construire un ensemble A ∈ [0, 1[ qui contient exactement
un point de chaque classe d’équivalence. Supposons A mesurable, et soit α = λ(A) sa mesure de
Lebesgue. Montrer que si r, s ∈ Q et r 6= s, alors (A+s)∩(A+r) = ∅, où A+x = {y +x : y ∈ A},
et que λ(A + s) = λ(A). Remarquer que
[
1 = λ [0, 1] ≤ λ
(A + r) ≤ λ [−1, 2] = 3.
r∈Q∩]−1,1[
En utilisant la σ-additivité de λ, montrer que cette inégalité conduit d’une part à α = 0, d’autre
part à α > 0. Conclure.
MAP 311 - Aléatoire - PC 2
Emmanuel Gobet
Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/.
Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard.
Mots-clés de la semaine : variable aléatoire, loi, espérance, variance, fonction génératrice, indépendance de v.a., loi conditionnelle.
Variables aléatoires discrètes
EXERCICE 1 - Loi-produit uniforme.
Soient E et F des ensembles finis. Montrer qu’il est équivalent de supposer que X et Y sont deux
v.a. indépendantes de lois uniformes sur E et F , et de supposer que le couple (X, Y ) est de loi
uniforme sur E × F .
EXERCICE 2 - Caractérisation de la loi géométrique.
Trouver toutes les lois sur N satisfaisant la propriété suivante d’absence de mémoire :
∀(i, j) ∈ N2 : P(X > i + j|X > i) = P(X > j).
EXERCICE 3 - Somme de Poisson.
Soit X1 , X2 des variables aléatoires indépendantes de loi de Poisson de paramètres respectifs
θ1 > 0 et θ2 > 0.
1. Calculer la loi de X1 + X2 .
2. Calculer la loi de X1 sachant X1 + X2 . Reconnaître cette loi.
3. Calculer E(X1 | X1 + X2 ).
EXERCICE 4 - Le vendeur de glaces.
Un vendeur de glaces installé dans la rue voit passer un nombre N de passants dans la journée.
On suppose que la variable aléatoire N suit une loi de Poisson de paramètre λ > 0. On appelle
Gi le nombre de glaces achetées par le i-ème passant. On fait l’hypothèse que les N, G1 , G2 , . . .
sont indépendantes et que chaque passant achète une glace avec probabilité p et aucune glace
avec probabilité 1 − p. Quelle est la loi du nombre X de glaces vendues pendant une journée ?
EXERCICE 5 - Pari sportif OL-OM.
Au cours d’un match de foot, le nombre de buts B marqué par une équipe suit une loi géométrique
de paramètre p ∈]0, 1[, indépendamment de l’équipe adverse : P(B = i) = p(1 − p)i pour i ≥ 0.
1. En moyenne, l’équipe de l’Olympique de Massy marque 1 but par match, alors que pour
l’Olympique de Longjumeau, la moyenne est de 2. Quels paramètres respectifs pM et pL
choisir pour modéliser leur nombre de but marqué par match ?
2. Le prochain match oppose l’OL à l’OM. La cote pour l’OL gagnant est de 23 (signifiant que
pour 1 misé, on reçoit 32 , soit un gain total de 12 ). Quelle est la cote pour OM gagne ou fait
match nul ?
3. Est-il préférable de miser pour OL gagnant ?
On cherchera à justifier son choix par des arguments probabilistes !
EXERCICE 6 - Quelques formules bonnes à retenir.
1. (?) Soit X une v.a. discrète à valeurs dans N. Montrer que
X
P(X > n).
E(X) =
n≥0
2. Soient X1 , . . . , Xp des v.a.
P indépendantes de même loi, à valeurs dans N. On pose pk =
P(X = k), k ∈ N et rn = k≥n pk . Montrer que
E(min(X1 , . . . , Xp )) =
X
rnp .
n≥1
EXERCICE 7 - Minimum et maximum de v.a. géométriques.
Soient X1 , . . . , Xn des variables aléatoires géométriques de paramètre p :
P(Xj = n) = p(1 − p)n−1 , n ∈ N∗ .
1. Déterminer la loi de X = min(X1 , . . . , Xn ) et Y = max(X1 , . . . , Xn ).
2. Déterminer la loi jointe de (X, Y ).
EXERCICE 8 - Encore des boules.
On répartit au hasard n boules dans r cases. On définit les v.a. (Yi )1≤i≤r et (Xi )1≤i≤r par
Yi = nombre de boules dans la case i
Xi = 1 si la case i est occupée, 0 sinon.
1. Quelle est la loi de Yi ? de Xi ? Calculer E[Xi ] et Var(Xi ).
2. Pour i 6= j, calculer Cov(Xi , Xj ).
3. Soit Sr le nombre de cases vides. Calculer E[Sr ] et Var(Sr ).
EXERCICE 9 - Nombre de succès.
Soient X1 , . . . , Xn des variables aléatoires i.i.d. (indépendantes et identiquement distribuées)
suivant la loi de Bernoulli de paramètre p ∈]0, 1[ et S = X1 + . . . + Xn leur somme. Pour
s ∈ {0, . . . , n}, donner la loi conditionnelle de X1 sachant S = s et calculer E(X1 | S).
EXERCICE 10 - Instant de succès.
Soit (Xn )n∈N une suite de variables aléatoires indépendantes, de même loi de Bernoulli de paramètre p. Pour tout n ≥ 1, on définit par récurrence, Tn = inf{k > Tn−1 ; Xk = 1} si cet infimum
est fini, Tn = ∞ sinon, et T0 = 0.
1. Démontrer que les variables aléatoires T1 , T2 − T1 , . . . , Tn − Tn−1 , . . . sont indépendantes
et de même loi.
2. Calculer la loi de T1 et sa fonction génératrice. En déduire la loi de Tn .
3. Calculer l’espérance et la variance de Tn de manière directe (formule du cours), puis en
utilisant sa fonction génératrice.
EXERCICE 11 - Le jeu de la poule.
Trois joueurs A, B, C jouent une suite de parties suivant la règle suivante : chaque partie oppose
deux joueurs et le perdant de la partie s’efface à la partie suivante au profit des deux autres
joueurs. Les parties sont indépendantes entre elles et chaque participant y a la même probabilité
1/2 de gagner ; les joueurs A et B commencent. Le jeu s’arrête la première fois qu’un joueur a
gagné deux fois de suite ; ce joueur est le gagnant du jeu.
1. Quelle est la probabilité de chacun de gagner ?
2. Soit T la durée du jeu. Calculer la loi de T, sa fonction génératrice, son espérance et sa
variance. Montrer que P(T < ∞) = 1.
EXERCICE 12 - Le cambrioleur amnésique.
Un trousseau de a clés contient une seule clé pouvant ouvrir une porte donnée. Une personne
tente d’ouvrir cette porte en essayant tour à tour les diverses clés du trousseau jusqu’à tomber
sur la bonne. On note X le nombre d’essais nécessaires pour ouvrir la porte.
Déterminer la loi de X dans les cas suivants :
1. la personne n’essaie jamais d’ouvrir avec une clé déjà essayée en vain.
2. la personne n’a pas de mémoire et ne tient jamais compte des essais précédents.
3. la personne n’a qu’une mémoire limitée et fait chaque essai avec n’importe quelle clé autre
que celle qu’elle vient d’essayer immédiatement en vain.
EXERCICE 13 - De longues études.
Pour avoir son diplôme, un étudiant doit réussir les examens des M cours qui sont proposés, et
obtenir ainsi les M unités de valeur correspondantes. On suppose que l’étudiant a une probabilité
p ∈]0, 1[ de réussir chacun des examens. D’année en année, l’étudiant peut reporter les unités de
valeur obtenues, et il ne passe alors que les examens des cours qu’il n’a pas réussis.
1. Soit Xn le nombre d’unités obtenues pendant les n premières années (si Xn = M , alors
Xm = M pour m ≥ n). Calculer la loi de Xn .
2. Soit N le nombre total d’examens passés. Calculer E(N ).
Indication : comment s’exprime N en fonction des Xn ?
3. Soit T le nombre d’années nécessaires pour obtenir le diplôme. Calculer E(T ).
Indication : comment s’exprime {T > j} en fonction des Xn ?
EXERCICE 14 - Cartes mémoires défectueuses.
La compagnie MicroHard produit des cartes mémoires pour micro-ordinateurs. Ces cartes comportent en particulier un composant C. On admet que chaque carte est défectueuse avec probabilité p, indépendamment des autres. D’autre part, si une carte est défectueuse, la probabilité
que le composant C soit défectueux vaut q. On examine un lot de n cartes produites et on note
N le nombre de celles qui sont défectueuses et K le nombre de celles dont le composant C est
défectueux (0 ≤ K ≤ N ≤ n).
1. Quelle est la loi de N ?
2. Quelle est la loi conditionnelle de K sachant {N = m} ?
3. En déduire que la loi de K est une binomiale avec des paramètres à préciser.
MAP 311 - Aléatoire - PC 3
Emmanuel Gobet
Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/.
Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard.
Mots-clés de la semaine : variable aléatoire réelle, fonction de répartition, espérance, mesure de
Lebesgue, densité, simulation par inversion de la f.d.r., inégalités classiques (Markov, BienayméChebyshev, Jensen).
Lois et densités
EXERCICE 1 - Loi de Weibull.
Soit Z une variable aléatoire de loi exponentielle de paramètre 1. Pour tout α, β > 0 on pose
X = βZ 1/α .
1. Quelle est la fonction de répartition de X ?
2. La loi de X admet-elle une densité ?
La loi de X est appelée loi de Weibull de paramètre (α, β). Elle est beaucoup utilisée (notamment pour modéliser des temps de panne) car en ajustant ses deux paramètres il est possible
d’approcher correctement de nombreuses lois de v.a.r. positives.
EXERCICE 2 - Loi de Cauchy.
Une particule est émise dans le plan à partir du point origine O et dans la direction du vecteur
aléatoire ~u. L’extrémité de ~u est un point de loi uniforme sur le demi-cercle {x2 + y 2 = 1, x > 0}.
Après une trajectoire rectiligne, la particule heurte la droite D = {x = 1} en un point M
d’abscisse X.
1. (?) Montrer X est égale à tan(θ) avec θ de loi uniforme sur ] − π2 , π2 [. En déduire la loi de
X (fonction de répartition, densité, . . .).
2. Montrer que 1/X a la même loi que X. (Indication : on pourra tirer parti des relations
trigonométriques.)
3. Quelle est la probabilité que la particule heurte D dans le segment I = {|y| ≤ 1} ?
4. Le point O émet maintenant un nombre aléatoire poissonien de paramètre λ de particules.
Chacune d’entre elles se comporte comme ci-dessus, indépendamment des autres. Quelle
est la loi du nombre Z de particules heurtant I ?
EXERCICE 3 - Variables aléatoires normales et log-normales.
Posons X = eY , où Y est de loi N (µ, σ 2 ). On dit que X est de loi Log-Normale.
1. Trouver
a) la fonction de densité f de la v.a. X ;
b) E(X) et Var(X).
2. Un contre-exemple célèbre, d’après W. Feller. On prend µ = 0 et σ = 1. Fixons |a| ≤ 1 et
définissons
fa (x) = (1 + a sin(2π log(x))) f (x).
a) Montrer que fa est une densité de probabilité. (Indication : On pourra écrire l’intégrale
de fa comme l’espérance d’une fonction de X.)
b) Montrer que fa admet des moments de tout ordre qui ne dépendent pas de a.
c) En déduire qu’une variable aléatoire n’est pas caractérisée de manière unique par ses
moments polynômiaux. On peut montrer toutefois que c’est vrai dès que la variable est
bornée.
d) Trouver des fonctions ϕ : R 7→ R non nulles dont la projection orthogonale sur l’espace
vectoriel des polynômes de degré n est nulle (projection au sens du produit scalaire induit
par la loi log-normale de X), c’est-à-dire
E ϕ(X)X n = 0,
∀n ∈ N.
Moments d’une v.a.r.
EXERCICE 4 - Moments et médiane d’une variable aléatoire réelle.
Soit X une variable aléatoire réelle à densité, de fonction de répartition F . Montrer que :
1. (?) Si X est à valeurs positives et k ≥ 0, alors
Z ∞
E(X k+1 ) = (k + 1)
xk (1 − F (x)) dx.
0
On retiendra en particulier le cas k = 0 (comparer avec la formule donnée pour les v.a.
discrètes).
2. Pour tout réel a, on a
Z
a
E(|X − a|) =
Z
∞
(1 − F (x)) dx.
F (x) dx +
−∞
a
3. Pour quelle(s) valeur(s) de a la quantité E(|X − a|) est-elle minimale ?
EXERCICE 5 - Des inégalités importantes.
1. Inégalité de Hölder. Soit p, q > 0. Montrer que si
1
p
+
1
q
= 1, alors
1/p q 1/q
E |XY | ≤ E |X|p
E |Y |
.
Le cas p = q = 2 est aussi appelé inégalité de Cauchy-Schwarz et est à retenir absolument.
2. En déduire que µ(λ) = ln E[eλX ] est convexe en λ. Pour éviter les problèmes d’intégrabilité,
on supposera que X est bornée.
1/p
1/p
1/p
.
3. Inégalité de Minkowski. Montrer que si p ≥ 1, E |X + Y |p
≤ E |X|p
+ E |Y |p
Inégalité de Chernov. Montrer que pour toute v.a. réelle X bornée et λ ≥ 0,
P(X ≥ a) ≤ e−(aλ−µ(λ)) ,
où l’on a posé à nouveau µ(λ) = ln E[eλX ].
EXERCICE 6 - L’espérance minimise (presque) les écarts d’ordre p.
On considère une v.a.r. X ayant des moments d’ordre p ≥ 1 finis, et on note
h i1/p
mp := inf E |X − x|p
.
x∈R
1. Montrer que x = E[X] minimise mp pour p = 2.
2. Plus généralement, montrer que E[X] minimise la norme Lp pour tout p ≥ 1, à une
constante 1/2 près :
h i1/p
i1/p
1h E |X − E[X]|p
≤ mp ≤ E |X − E[X]|p
.
2
Indication : On pourra utiliser l’inégalité de convexité |x + y|p ≤ 2p−1 (|x|p + |y|p ).
EXERCICE 7 - Une minoration utile.
Soit X une v.a. réelle de carré intégrable et 0 < a < E[|X|]. Etablir la minoration
2
E[|X|] − a
P(|X| ≥ a) ≥
.
E[X 2 ]
Simulation de v.a.r.
EXERCICE 8 - Générer une loi géométrique.
La fonction « rand » de Scilab vous permet de générer une variable aléatoire U de loi uniforme
sur [0, 1].
1. Comment générer à partir de U une variable X de loi exponentielle de paramètre λ > 0 ?
2. Soit a > 0. Quelle est la loi de Y = baXc + 1 ?
EXERCICE 9 - Ecriture dyadique.
P
Tout réel x ∈ [0, 1] peut s’écrire x = k≥1 yk 2−k , où yk ∈ {0, 1} : cette écriture est unique sauf
sur l’ensemble dénombrable des nombres dyadiques (qui admettent deux développements, l’un
avec yk ≡ 0 pour k assez grand, l’autre avec yk ≡ 1 pour k assez grand).
Soient Yk une suite de v.a. indépendantes de loi de Bernoulli de paramètre 1/2 et définissons
la v.a. X par
X
X :=
Yk 2−k .
k≥1
L’objectif est de montrer de deux manières différentes que X suit la loi uniforme sur [0, 1].
1. Montrer que pour tous 0 ≤ a ≤ b ≤ 1, P(a ≤ X ≤ b) = b − a (on pourra d’abord montrer
que P(X ≥ a) = 1 − a si a est dyadique). Conclure.
2. a) Calculer la fonction caractéristique de la loi uniforme sur [0, 1], i.e. la fonction t 7→
E[eitU ] où U P
est une v.a. de loi uniforme.
b) Soit Xn := nk=1 Yk 2−k . Calculer la fonction caractéristique φn de Xn . En montrant
par récurrence que
Y
n
λ
λ
sin λ
sin
cos
= n ,
n
k
2
2
2
k=1
déterminer la limite de φn lorsque n → ∞. En admettant que la fonction caractéristique
caractérise la loi d’une v.a.r., conclure.
3. En déduire un algorithme de simulation d’une v.a. de loi uniforme sur [0, 1] avec une
précision arbitrairement grande.
MAP 311 - Aléatoire - PC 4
Emmanuel Gobet
Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/.
Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard.
Mots-clés de la semaine : vecteur aléatoire, densité marginale, loi conditionnelle, loi gaussienne
dans Rd , espérance conditionnelle, covariance, indépendance, méthode de rejet, somme de variables indépendantes.
EXERCICE 1 - La cerise sur le gâteau.
On considère un gâteau circulaire avec une cerise sur le bord. On découpe le gâteau en deux
parts en coupant suivant deux rayons choisis uniformément au hasard.
1. Avec quelle probabilité la part contenant la cerise est-elle plus petite que l’autre part ?
2. Quelle est la taille (longueur angulaire) moyenne de la part contenant la cerise ?
EXERCICE 2 - Principe de symétrie.
P
Posons Sn = ni=1 Xi , où les Xi sont des v.a. indépendantes de même loi, symétriques (X1 et
−X1 ont même loi). Montrer que pour tout y ≥ 0 et N ∈ N∗ ,
P sup Sn ≥ y ≤ 2 P[SN ≥ y] = P[|SN | ≥ y].
n≤N
EXERCICE 3 - Matrice de covariance.
On considère un vecteur aléatoire (X1 , . . . , Xn ), de matrice de covariance K. Montrer que la
matrice K n’est pas inversible si et seulement si les v.a. Xi sont linéairement dépendantes :
a1 X1 + a2 X2 + · · · + an Xn = c
avec probabilité 1
(avec a1 , . . . , an non tous nuls).
EXERCICE 4 - Minimum de n exponentielles.
Soit (Tk , 1 ≤ k ≤ n) une famille de v.a. réelles indépendantes telles que P (Tk = x) = 0 pour
tout 1 ≤ k ≤ n et x ∈ R. (Vérifier que c’est le cas si les variables sont à densité.)
1. Montrer que P (Ti = Tj ) = 0 pour tout 1 ≤ i < j ≤ n, puis que P (∃i 6= j : Ti = Tj ) = 0.
Nous pouvons donc définir une v.a. M comme étant l’indice de la plus petite des variables
Tk , 1 ≤ k ≤ n, ainsi que
S := min Tk = TM ,
1≤k≤n
et
Ri = Ti − S ,
1 ≤ i ≤ n.
Nous supposerons désormais que chaque Tk est une v.a. exponentielle de paramètre αk > 0.
2. Montrer que pour tout indice j et toutes fonctions positives f et gi (i 6= j),
Z
Y
Y Z
E 1{M =j} f (S)
gi (Ri ) = αj f (t)e−(α1 +···+αn )t dt ×
αi gi (u)e−αi u du .
i6=j
i6=j
Indication : On cherchera à écrire directement la quantité à l’intérieur de l’espérance comme
une fonction de (T1 , . . . , Tn ).
3. En déduire que {M = j} est un événement indépendant de la v.a. S, que
P(M = j) =
αj
,
α1 + · · · + αn
et que S est de loi exponentielle de paramètre α1 + · · · + αn .
4. En déduire aussi que, conditionnellement à {M = j}, pour i 6= j les v.a. S et Ri sont
indépendantes et que chaque Ri suit une loi exponentielle de paramètre αi .
5. Application : Trois personnes A, B et C arrivent en même temps pour téléphoner près
de deux cabines téléphoniques. A et B occupent les cabines en premier et C remplace
le premier sorti. On désigne par XA , XB et XC les v.a. correspondant à la durée de la
communication pour chaque personne. On suppose qu’il s’agit de v.a. de loi exponentielle
de paramètre λ.
a) Calculer la probabilité que C sorte le dernier.
b) Donner la loi du temps total que C passe à attendre et à téléphoner.
c) Déterminer la loi de l’instant du dernier départ.
EXERCICE 5 - Somme d’exponentielles.
Soit X1 , . . . , Xn des v.a. indépendantes de loi exponentielle de paramètre λ > 0.
Pn
1. (?) Trouver par récurrence la densité de Sn =
i=1 Xi . On appelle la loi de Sn la loi
Gamma de paramètres n et λ. On la note Γ(n, λ).
2. Calculer la densité conditionnelle de Xi sachant Sn .
3. En déduire la valeur de E[Xi | Sn = t].
4. Retrouver ce résultat par un argument de symétrie.
EXERCICE 6 - Quelques identités remarquables sur les variables gaussiennes.
1. Pourquoi la méthode d’inversion de la fonction de répartition pose-t-elle problème lorsqu’on
veut simuler une v.a. gaussienne ?
2. (?) Transformation de Box-Muller. Soient ρ et θ deux variables aléatoires indépendantes, la première de loi exponentielle de paramètre 1/2 et la seconde de loi uniforme
√
√
sur [0, 2π]. Montrer que ρ sin(θ) et ρ cos(θ) sont deux v.a. gaussiennes N (0, 1) indépendantes.
En déduire une manière de simuler deux v.a. normales indépendantes à partir de deux v.a.
de loi uniforme sur [0, 1] indépendantes.
3. Soient X et Y deux v.a. normales centrées réduites indépendantes. Montrer que X/Y a la
loi de Cauchy, c.à.d. qu’elle a pour densité
1
.
π(1 + x2 )
4. Seconde application : Montrer que
Z=√
2XY
X2 + Y 2
et
X2 − Y 2
W =√
X2 + Y 2
définissent à nouveau deux v.a. N (0, 1) indépendantes.
EXERCICE 7 - Indépendance de v.a. réelles et racines d’équations.
Soient X et Y deux variables aléatoires réelles indépendantes dont les lois ont des densités
données respectivement par
pX (x) = exp(−x)1{x≥0} ,
pY (y) = 1{0<y<1} .
On considère l’équation en λ
λ2 − 2λX + Y = 0.
Calculer la probabilité que
1. l’équation ait une racine double ;
2. l’équation n’ait aucune racine réelle.
EXERCICE 8 - Roméo et Juliette.
Roméo et Juliette se sont donnés rendez-vous entre midi et 13h. Chacun des deux a promis de
ne pas attendre l’autre plus de 15 minutes. On suppose qu’ils arrivent indépendamment à des
instants uniformément distribués entre midi et 13h.
1. Quelle est la probabilité qu’ils se rencontrent ?
2. Roméo décide d’arriver à l’heure H. Quelle est la probabilité de la rencontre ?
3. Roméo arrive à l’heure H et ne trouve personne. Quelle est la probabilité de la rencontre ?
EXERCICE 9 - Espérance conditionnelle pour un vecteur gaussien.
Soit (X, Y ) un vecteur gaussien non dégénéré. L’objectif est de montrer que
E(Y |X) = a0 + b0 X,
(1)
pour des constantes a0 et b0 à évaluer.
1. Montrer que l’espérance conditionnelle E[Y |X] est la meilleure approximation de Y sachant
X, au sens où il s’agit de la variable aléatoire Φ qui minimise E[(Y − Φ)2 ], dans l’ensemble
de toutes les v.a. Φ de carré intégrable dépendant uniquement de X.
2. En utilisant le fait que le vecteur (X, Y − (a + bX)) est gaussien pour tout a et b, montrer
(1).
3. En calculant la densité conditionnelle de Y sachant X, retrouver le résultat (1). Pour
simplifier, on
pourra supposer ici que (X, Y ) est d’espérance nulle et de matrice variance1 ρ
covariance
, pour |ρ| < 1.
ρ 1
MAP 311 - Aléatoire - PC 5
Emmanuel Gobet
Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/.
Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard.
Mots-clés de la semaine : convergence en probabilité, en moyenne et presque sûre, lois faibles et
fortes des grands nombres.
Convergence de variables aléatoires
EXERCICE 1 - Différents modes de convergence.
Soit (Xn )n≥1 une suite de variables aléatoires indépendantes à valeurs dans N.
1. Montrer que (Xn )n≥1 converge en probabilité vers 0 si et seulement si (P(Xn > 0))n≥1 tend
vers 0.
P
2. Montrer que (Xn )n≥1 converge presque sûrement vers 0 ssi n≥1 P(Xn > 0) < +∞.
3. On suppose que pour tout n ≥ 1, Xn suit une loi binômiale B(n, pn ). Préciser si la suite
(Xn )n≥1 converge vers 0 en moyenne, en probabilité, presque sûrement, dans le cas où
pn = n12 puis dans le cas où pn = n13 .
4. On suppose que pour tout n ≥ 1, Xn suit une loi de Poisson P(αn ). Préciser si la suite
(Xn )n≥1 converge vers 0 en moyenne, en probabilité, presque sûrement, dans le cas où
αn = n1 puis dans le cas où αn = n12 .
5. On suppose que pour tout n ≥ 1, la loi de Xn est donnée par
P(Xn = n2 ) = βn
et
P(Xn = 0) = 1 − βn .
Préciser si la suite (Xn )n≥1 converge vers 0 en moyenne, en probabilité, presque sûrement,
dans le cas où βn = n1 , βn = n12 , puis dans le cas où βn = n13 .
EXERCICE 2 - Majoration presque sûre.
Soit (Xn )n≥0 une suite quelconque de variables aléatoires telles que P(|Xn | < ∞) = 1 pour tout
n. Montrer qu’il existe une suite (cn )n≥0 telle que limn→∞ Xcnn = 0 p.s.
EXERCICE 3 - Lois uniformes.
Soit (Un )n≥1 une suite de v.a. indépendantes, toutes de loi uniforme sur un intervalle [a, b].
Trouver les limites presque sûres de mini≤n Ui et maxi≤n Ui .
EXERCICE 4 - Lois de Cauchy.
1
Soit (Xi )i≥1 une suite de v.a. i.i.d. de loi de Cauchy, i.e. de densité sur R égale à pX (x) = π(1+x
2) .
P
n
1
On admettra que pour tout n ∈ N, Sn := n i=1 Xi suit également une loi de Cauchy (ceci
se démontre facilement en utilisant les fonctions caractéristiques, introduites dans le prochain
cours).
1. Que nous dit la loi des grands nombres sur la convergence de Sn lorsque n → ∞ ?
2. Calculer la loi de S2n − Sn . En déduire le comportement de P[|S2n − Sn | > 1] lorsque
n → ∞.
Indication : on utilisera plusieurs fois la propriété énoncée ci-dessus, ainsi que la symétrie
de X.
3. La suite (Sn )n≥1 converge-t-elle en probabilité ?
4. Finalement, la suite (Sn )n≥1 converge-t-elle presque sûrement ?
Loi des grands nombres
EXERCICE 5 - De l’art de gaspiller sa fortune.
Soit (Xi )i≥1 une suite de variables aléatoires i.i.d. strictement positives et d’espérance 1, telles
que
P(X1 = 1) < 1
et
∃α > 0 t.q. P(X1 ≥ α) = 1.
La première condition garantit que X n’est pas la constante égale à 1 p.s., tandis que la seconde
condition nous dit
Qque X est p.s. bornée inférieurement par une constante α > 0.
Posons Yn = ni=1 Xi .
1. En remarquant que pour x ∈]0, ∞[\{1}, ln(x) < x − 1, vérifier que E(ln(X1 )) < 0.
2. En étudiant le comportement de ln(Yn )/n lorsque n → +∞, montrer que la suite Yn
converge presque sûrement vers une limite que l’on précisera.
3. Un joueur met tous les jours en jeu le dixième de sa fortune à pile ou face avec un ami.
Quelle est l’évolution de cette fortune au bout d’un temps très long ?
4. Calculer E(Yn ). La suite Yn converge-t-elle en moyenne ?
EXERCICE 6 - Loi des grands nombres déguisée.
Soit (Xn )n≥1 une suite de v.a. i.i.d. de loi normale N (µ, σ 2 ). Trouver la limite presque sûre de
Pn
X
n
1
Xi
i=1 Xi
P
ln
et
e
n
2.
n
i=1 Xi
i=1
EXERCICE 7 - Calcul d’intégrales.
Pour f : R → R continue bornée et α > 0, calculer les limites suivantes :
Z
k
X
x1 + . . . + xn
k
−αn (αn)
e
lim
f
dx1 . . . dxn et lim
f
.
n→∞ [0,1]n
n→∞
n
k!
n
k≥0
EXERCICE 8 - Estimation de paramètres.
Un standard téléphonique reçoit chaque jour un nombre aléatoire d’appels, dont on suppose
qu’il suit une loi de Poisson de paramètre θ > 0 inconnu. On suppose en outre que d’un jour à
l’autre, ces nombres sont indépendants. Afin de trouver le nombre optimal de standardistes pour
subvenir aux besoins des clients, on cherche à estimer le paramètre θ grâce à la donnée d’une
série (Jn )1≤n≤N de nombres d’appels journaliers.
P
1. Calculer l’espérance et la variance de N1 N
i=1 Ji . Proposer un estimateur θ̂N de θ, i.e. une
fonction des données (Ji )i qui donne une information sur la valeur du paramètre recherché.
2. On dit d’un estimateur qu’il est sans biais lorsque E[θ̂N ] = θ (il est dit biaisé sinon).
L’estimateur ci-dessus est-il biaisé ?
P
2
3. Calculer l’espérance de N1 N
i=1 Ji . Proposer un nouvel estimateur θ̃N de θ. Est-il biaisé ?
Lequel de ces estimateurs vous semble le meilleur ?
MAP 311 - Aléatoire - PC 6
Emmanuel Gobet
Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/.
Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard.
Mots-clés de la semaine : fonctions caractéristiques, convergence en loi, théorème de la limite
centrale, méthode de Monte Carlo.
Fonctions caractéristiques
EXERCICE 1 - Loi Gamma.
Pour tout r > 0, on pose Γ(r) =
probabilité de densité
R∞
0
e−t tr−1 dt et on appelle loi Γr,λ (r > 0, λ > 0) la loi de
γr,λ (t) =
λr −λt r−1
e t 1R+ (t).
Γ(r)
1. Calculer la fonction caractéristique de Γr,λ . En déduire l’espérance et la variance de cette
loi.
2. Montrer que si X et Y sont des v.a indépendantes de loi respective Γr,λ et Γs,λ , alors X +Y
a une loi Γr+s,λ . Pourrait-on aussi faire varier le paramètre λ ?
3. Soient X1 , . . . , Xn des v.a indépendantes de loi exponentielle de paramètre λ. Calculer la
loi de X1 + . . . + Xn .
4. Soient X1 , . . . , Xn des v.a indépendantes de loi N (0, 1). Montrer que X12 a une loi Γ et en
déduire la loi de X12 + . . . + Xn2 .
On appelle cette loi la loi du χ2 à n degrés de liberté ; elle a de nombreuses applications
en statistiques (voir Proposition 6.2.8, Aléatoire).
EXERCICE 2 - Vecteurs gaussiens.
Soient (X1 , . . . , Xn ) des variables aléatoires i.i.d gaussiennes centrées réduites. On pose X =
(X1 , . . . , Xn ).
1. Calculer la fonction caractéristique de X.
2. Soit A ∈ Mn (R) une matrice inversible et b ∈ Rn . Calculer la fonction caractéristique du
vecteur aléatoire AX + b, ainsi que la densité de sa loi.
3. Soit P ∈ Mn (R) une matrice orthogonale. Montrer que X et P X ont la même loi. En
X
déduire que la loi de kXk
est une mesure de probabilité sur la sphère unité S (n−1) de
Rn invariante par toute transformation orthogonale (cette propriété caractérise la mesure
uniforme sur S (n−1) ).
EXERCICE 3 - Convergence en loi.
1. Etudier la convergence en loi de la suite
paramètre pn =
λ
n
Xn , où Xn suit une loi géométrique de
n n≥1
et λ > 0 est fixé.
2. Soit Xn une v.a. de loi uniforme sur {0, n1 , n2 , . . . , n−1
n , 1}.
a) Trouver la limite en loi de la suite (Xn )n≥1 . On notera X une v.a. ayant cette loi.
b) Montrer que P(Xn ∈ Q) ne converge pas vers P(X ∈ Q). Comparer avec la définition
de la convergence en loi.
Théorème de la limite centrale
EXERCICE 4 - Stabilité des lois gaussiennes. (?)
Considérons X1 et X2 , deux v.a. indépendantes de même loi µ, de variance finie égale à σ 2 et
qui satisfont la propriété suivante :
X1 + X2
√
a encore la loi µ.
(P)
2
L’objectif est de montrer que nécessairement, µ est la loi normale N (0, σ 2 ).
1. Montrer que si µ est la loi normale N (0, σ 2 ), alors la propriété (P) est satisfaite.
2. On suppose maintenant que (P) est satisfaite.
a) Montrer que E(X1 ) = 0.
b) Prouver que si X1 , X2 , · · · , X2n sont des v.a. indépendantes de même loi µ, alors
X1 + X2 + · · · + X2n
√
a la loi µ.
2n
c) Conclure que µ est la loi normale N (0, σ 2 ).
EXERCICE 5 - Dilemme du couturier.
Un couturier fabrique deux modèles de chemise, le modèle A à rayures et le modèle B à carreaux,
pour 2000 clients. Chaque client choisit le modèle A avec probabilité 1/4 et donc le modèle B
avec probabilité 3/4. Combien ce couturier doit-il fabriquer de chemises de type A pour qu’il y
en ait suffisamment avec probabilité 90% ?
Estimation statistique
EXERCICE 6 - Estimation paramétrique de loi uniforme.
Soit (Xn )n∈N une suite de v.a. i.i.d. de loi uniforme sur [0, a] avec a > 0. On suppose que la
valeur de a n’est pas connue, et l’objectif est de l’estimer en utilisant les observations (Xn )1≤i≤n .
n
1X
1. Que vaut E(X1 ) ? En déduire un estimateur sans biais de a à partir de X n =
Xi .
n
i=1
Quelle est sa vitesse d’estimation de a ?
2. On pose Mn = max Xi . Calculer la loi de Mn et son espérance. Montrer que Mn converge
1≤i≤n
p.s vers a.
3. Quelle est limite en loi de n(a − Mn ) ? Des deux estimateurs précédents, lequel vous parait
le plus intéressant ?
Méthode de Monte-Carlo
EXERCICE 7 - Réduction de variance. (?)
Soit f une fonction monotone bornée sur [0, 1]. On souhaite calculer l’intégrale I =
à l’aide d’un générateur de v.a. (Xn )n≥1 i.i.d., de loi uniforme sur [0, 1].
1. Comparer les performances des estimateurs
2n
1 X
In =
f (Xi )
2n
i=1
R1
0
f (x) dx
n
et
In0
1 X
=
f (Xi ) + f (1 − Xi ) ,
2n
i=1
qui requièrent tous deux 2n évaluations de la fonction f . Indication : on pourra commencer
par montrer que si X et Y sont i.i.d. et uniformes sur [0, 1], on a E[(f (X) − f (Y ))(f (1 −
X) − f (1 − Y ))] ≤ 0.
2. Donner pour le cas (d’école) f (x) = x2 le nombre n minimal permettant d’obtenir avec
95% de chances une précision de calcul de 1%.
EXERCICE 8 - Echantillonnage d’importance.
R
On cherche à calculer par une méthode de Monte-Carlo l’intégrale I = Rd f (x)p(x) dx, où p est
une densité de probabilité. Pour ce faire, on utilise une suite de tirages i.i.d. (Xn )n≥1 de v.a.
à valeurs dans Rd dont la loi a pour densité de probabilité q ne s’annulant pas. On note w le
rapport (appelé fonction d’importance) w(x) = p(x)
q(x) et on considère l’estimateur pondéré
n
In =
1X
w(Xi )f (Xi ).
n
i=1
1. Vérifier la limite presque sûre de cet estimateur et donner une condition sous laquelle il
vérifie le théorème de la limite centrale.
2. Sous l’hypothèse obtenue à la question précédente et en supposant que f (x)p(x) est strictement positif pour tout x, trouver le choix optimal de la densité q (qui minimise la variance
de In ). Pourquoi ce choix est-il en général impossible en pratique ?
MAP 311 - Aléatoire - PC 7
Emmanuel Gobet
Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/.
Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard.
Mots-clés de la semaine : intervalles de confiance, modèles dynamiques aléatoires, marches aléatoires, somme aléatoire de variables aléatoires indépendantes, processus de branchement
EXERCICE 1 - Intervalle de confiance.
On effectue une enquête durant une épidémie de grippe, dans le but de connaître la proportion p
de personnes présentant ensuite des complications graves. On observe un échantillon représentatif
de 400 personnes et pour un tel échantillon, 40 personnes ont présenté des complications.
1. Donner un intervalle de confiance pour p de niveau 95%.
2. On désire que la valeur estimée p̂ diffère de la proportion inconnue exacte p de moins de
0.005 avec une probabilité égale à 95%. Combien de personnes notre échantillon devra-t-il
contenir ?
3. Quel devrait être le risque pour obtenir le même intervalle qu’à la question précédente en
conservant l’effectif n = 400 ? Quelle conclusion peut-on en tirer ?
EXERCICE 2 - Temps d’atteinte d’une marche aléatoire dans Z.
Un joueur parie avec une pièce biaisée qui donne Pile avec probabilité p ∈]0, 1[ et Face avec
probabilité q = 1 − p : il la lance de manière répétée et indépendante et gagne 1e si la pièce
donne Pile et perd 1e sinon.
Notons Sn ses gains cumulés à l’instant n, qu’on peut écrire à l’aide d’une marche aléatoire
sur Z en posant Sn = X1 + · · · + Xn , où (Xi )i≥1 est une suite de v.a. indépendantes de même
loi donnée par P(X1 = 1) = p et P(X1 = −1) = q.
Considérons maintenant le premier instant Tr où le joueur atteint un richesse r ∈ N∗ :
Tr = inf{n ≥ 0 : Sn = r}
avec la convention Tr = +∞ si Sn 6= r pour tout n.
1. Montrer que T1 et T2 − T1 sont deux v.a. indépendantes de même loi.
2. Montrer que P(T1 − 1 = k|S1 = −1) = P(T2 = k) pour tout k ∈ N.
3. En conditionnant par rapport aux valeurs de S1 , montrer que ϕ, la fonction génératrice de
T1 , vérifie ϕ(s) = ps + qsϕ(s)2 pour |s| ≤ 1. En déduire l’expression de ϕ.
4. Calculer P(T1 < +∞) et E(T1 ) en distinguant les cas selon que p <, =, > 1/2.
5. Quelle est la loi de M = supn∈N Sn ?
EXERCICE 3 - Marche aléatoire dans Z3 .
Imaginons une particule de plancton se promenant de manière totalement aléatoire dans un océan
immense. Pour simplifier, supposons qu’elle se déplace en sautant d’un point à l’autre de Z3 de
la manière suivante : si Sn ∈ Z3 est sa position spatiale à l’instant n, alors Sn+1 = Sn + Un+1 où
Un+1 est indépendante de {S0 , . . . , Sn } et suit une loi uniforme sur {(±1, ±1, ±1)}.
On suppose que S0 = (0, 0, 0).
1. (?) Calculer P[Sn = (0, 0, 0)]. Donner un équivalent√ de cette probabilité lorsque n → ∞
(on se rappellera la formule de Stirling, n! ∼ e−n nn 2πn).
2. (?) Montrer qu’avec probabilité 1, la particule ne revient qu’un nombre fini de fois en
(0, 0, 0).
3. Pour (x, y, z) ∈ Z3 , donnerPune majoration de P[Sn = (x, y, x)]. Pour quel exposant α la
suite rn = nα vérifie-t-elle n≥1 P(|Sn | ≤ rn ) < +∞.
4. En déduire que presque sûrement la particule « part à l’infini » et donner un minorant de
sa vitesse de fuite.
EXERCICE 4 - Modèle AutoRégressif d’ordre 1 (AR(1)).
Soit (Yn )n≥1 une suite de v.a. i.i.d. de loi normale N (µ, σ 2 ). Soient a ∈ R et X0 une v.a. de
loi normale N (µ0 , σ02 ), indépendante des (Yn )n . Pour tout n ≥ 1, on définit la suite récurrente
aléatoire (Xn )n par
Xn = aXn−1 + Yn .
1. Montrer que (X0 , · · · , Xn ) est un vecteur gaussien. Déterminer la loi de Xn et calculer
Cov(Xk , Xn ) pour 0 ≤ k ≤ n.
2. A quelle condition sur a, la v.a. Xn converge-t-elle en loi ? Quelle est alors la loi limite ?
Quelle est la loi de Xn si X0 a la loi limite ?
3. Montrer que si a ∈] − 1, 1[, le vecteur (Xn , Xn+1 ) converge en loi vers un vecteur gaussien
dont on déterminera les paramètres.
P
4. Pour a ∈] − 1, 1[, étudier la convergence en loi de la moyenne empirique n1 ni=1 Xi .
EXERCICE 5 - Suite récurrente aléatoire à deux états.
Soient α, β ∈ [0, 1] et soit (Un )n≥1 une suite de variables aléatoires indépendantes et de loi
uniforme sur [0, 1]. Pour X0 ∈ {0, 1} donnée, on définit (Xn )n≥0 par
Xn+1 = 1Xn =0 1Un+1 ≤α + 1Xn =1 1Un+1 ≤1−β ,
n ≥ 0.
C’est une suite récurrente aléatoire au sens de la définition 7.4.1, à valeurs dans l’espace
E = {0, 1}. En particulier, elle vérifie la propriété de Markov (proposition 7.4.2) :
P[Xn+1 = xn+1 |Xn = xn , . . . , X1 = x1 , X0 = x0 ] = P[Xn+1 = xn+1 |Xn = xn ]
pour tout x0 , . . . , xn+1 .
1. Identifier les quantités P[Xn+1 = xn+1 |Xn = xn ] à l’aide la matrice Q :=
1−α
α
β
1−β
2. Montrer par récurrence sur k que pour tout n ∈ N et x0 , . . . , xk ∈ E, on a
P[Xn = x0 , Xn+1 = x1 , . . . , Xn+k = xk ] = P[Xn = x0 ] Q(x0 , x1 )Q(x1 , x2 ) · · · Q(xk−1 , xk ).
En déduire que P[Xn+k = xk |Xn = x0 ] = [Qk ](x0 , xk ), où Qk est la puissance k-ième de la
matrice Q.
3. Que se passe-t-il dans le cas α = β = 0 ? dans le cas α = β = 1 ? On exclut dans la suite
ces deux cas.
4. Montrer que les puissances de Q s’écrivent
1−p p
p
−p
n
n
Q =
+ρ
,
1−p p
p−1 1−p
où p = α/(α + β) et ρ = 1 − α − β.
.
5. En déduire que limn→∞ Qn (x, .) = µ(.) pour tout x, où µ({0}) = 1 − p et µ({1}) = p.
Quelle est la limite en loi de Xn , lorsque n → ∞ ?
6. Vérifier que si X0 est de loi µ, alors Xn est de loi µ pour tout n. On dira que µ est la
probabilité invariante de la suite récurrente aléatoire.
EXERCICE 6 - Processus de Galton-Watson.
On considère une population évoluant de la façon suivante : à chaque génération, chaque individu
donne naissance à un nombre aléatoire X de descendants suivant une loi géométrique sur N de
1
paramètre a = 1+m
avec m > 0 (i.e., P(X = k) = a(1 − a)k ). Les nombres de descendants de
différents individus sont supposés indépendants. La génération suivante est alors constituée de
tous ces nouveaux individus, sans leurs parents.
On note Zn la taille de la population à la génération n et on suppose que Z0 = 1.
1. 1) Soit φn (s) = E(sZn ) la fonction génératrice de Zn . Montrer qu’il existe α > 0 tel que
1
α
=1+
.
1 − φ1 (s)
1−s
2. Montrer que φn = φ1 ◦ φn−1 . En déduire l’expression de φn et calculer E[Zn ].
3. Soit T = inf{n ≥ 0 : Zn = 0} le temps d’extinction de la population. Calculer explicitement
P(T ≤ n).
Indication : on pourra relier le calcul à Φn (0).
4. Pour quelles valeurs de m, T est-il fini p.s. ? Que vaut alors E(T ) ?
5. Dans le cas où m > 1, trouver la limite en loi de Zn /mn (Indication : On pourra utiliser les
fonctions caractéristiques). Cette limite est-elle également en probabilité ? presque sûre ?
Téléchargement