MAP 311 - Aléatoire - PC 1 Emmanuel Gobet Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/. Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard. Mots-clés de la semaine : probabilité, événement, expérience, indépendance, conditionnement, formule de Bayes, lemme de Borel-Cantelli. Probabilités EXERCICE 1 - Les anniversaires communs. (?) Si n personnes sont réunies dans une pièce, quelle est la probabilité qu’aucune paire d’individus n’ait un anniversaire commun ? Déterminer nmin pour que cette probabilité soit inférieure à 0.5 (on pourra utiliser l’équivalence ln(1 + x) ∼ x pour x 1). EXERCICE 2 - Tirage de boules. Une urne contient r boules rouges et b boules blanches. 1. Décrire l’espace probabilisé (Ω, A, P) associé aux expériences suivantes : a) On tire k boules une à une, sans remise. b) On tire k boules une à une, avec remise. 2. Pour les deux expériences précédentes, calculer la probabilité que le nombre de boules blanches tirées soit égal à j, pour j ∈ N. EXERCICE 3 - Formule du crible. (?) 1. Montrer la formule de Poincaré (formule du crible) : ! n [ X X P Ai = P(Ai ) − P(Ai1 ∩ Ai2 ) i=1 1≤i≤n = n X p=1 (−1)p+1 1≤i1 <i2 ≤n + · · · + (−1)n+1 P(A1 ∩ A2 ∩ · · · ∩ An ) X P(Ai1 ∩ · · · ∩ Ai2 ). 1≤i1 <···<ip ≤n Indication : on pourra utiliser le fait que 1 − 1Sni=1 Ai = récurrence. Qn i=1 (1 − 1Ai ), ou procéder par 2. Soit S une permutation aléatoire sur n objets, de loi uniforme. a) Quelle est la probabilité que S ait au moins un point fixe ? b) Quelle est la probabilité que S ait exactement k points fixes ? Montrer que ceci est en général très proche de exp(−1)/k!. 3. Une personne écrit n lettres et les ferme avant d’écrire les adresses sur les enveloppes. On suppose que tous les destinataires ont une adresse différente. Quelle est la probabilité pour qu’au moins une lettre arrive au bon destinataire ? Donner la limite de cette probabilité lorsque n → ∞. Evénements indépendants et conditionnement EXERCICE 4 - Indépendance deux à deux et indépendance mutuelle. Soit Ω := {ω1 , ω2 , ω3 , ω4 } muni de la loi uniforme (i.e., chaque élément a probabilité 1/4). On définit les événements A := {ω1 , ω2 }, B := {ω1 , ω3 } et C := {ω2 , ω3 }. Montrer que A, B et C sont indépendants deux à deux. Comparer P(A ∩ B ∩ C) et P(A)P(B)P(C). EXERCICE 5 - Rôle de l’information. (?) L’exercice suivant est très classique et a de nombreuses variantes. Il illustre l’utilité d’une formulation mathématique rigoureuse pour éviter des pièges et des paradoxes dus à des raisonnements spécieux. Une famille a deux enfants. Quelle est la probabilité pour que les deux enfants soient des filles sachant que l’enfant le plus jeune est une fille ? Quelle est la probabilité pour que les deux enfants soient des filles sachant que l’un des enfants est une fille ? EXERCICE 6 - Prendre la bonne porte. (?) Lors d’un jeu télévisé, le candidat a le choix entre trois portes. Derrière l’une se trouve un cadeau, derrière les deux autres il n’y a rien. Le présentateur demande au candidat de choisir une porte. S’il choisit celle où se trouve le cadeau il le gagne, sinon il s’en retourne les mains vides. Le candidat choisit sa porte. Pour faire monter le suspense, le présentateur décide d’ouvrir une autre porte, derrière laquelle il sait qu’il n’y a rien. Il redemande alors au candidat de choisir une porte. Quelle est la meilleure stratégie pour le candidat ? Garder la porte qu’il avait choisie, choisir au hasard une des deux portes restantes (à pile ou face), ou changer de porte ? EXERCICE 7 - Test de qualité de production. On considère une usine fabriquant des cartes électroniques. Lors de la production une carte sur 100 000 est défectueuse. En fin de production, on effectue un test pour savoir si la carte est défectueuse ou non. Pour les pièces défectueuses le test est positif dans 95 % des cas, pour les pièces correctes dans 1% des cas. Le test indique qu’une pièce donnée est défectueuse (test positif). Quelle est la probabilité que la pièce soit effectivement défectueuse ? EXERCICE 8 - Un exemple non trivial d’événements indépendants. Dans l’expérience suivante, on dispose de trois dés à 6 faces, deux d’entre eux étant normaux et le 3ème pipé. Un dé est normal si chaque face a même probabilité d’apparaître, alors qu’un dé est pipé si la face 6 est trois fois plus probable que les autres. 1. On choisit au hasard un dé et on le lance. Quelle est la probabilité que la face i apparaisse ? Sachant que le dé a donné un 6, quelle est la probabilité qu’il soit pipé ? 2. On choisit maintenant deux dés parmi les trois disponibles et on les lance. On note A = {le dé pipé fait partie des deux dés choisis}. a) Calculer P(A). Quelle est la probabilité de A sachant que la somme des résultats des deux dés vaut 12 ? b) Même question avec une somme égale à 7. c) Soit B = {la somme des résultats des deux dés lancés vaut 7}. Montrer que A et B sont indépendants. EXERCICE 9 - Mauvaise fouille. On dispose de n sacs numérotés de 1 à n ; une balle a été mise au hasard dans l’un d’eux. Elle se trouve dans le sac i avec la probabilité pi . Lorsqu’on fouille un sac, la probabilité de ne pas trouver la balle alors qu’elle s’y trouve vaut p (la fouille n’est pas assez minutieuse). 1. On fouille une première fois le sac 1 et on ne trouve pas la balle. Quelle est la probabilité qu’elle soit quand même dans le sac 1 ? dans le sac j (j 6= 1) ? 2. On recommence la fouille du sac 1 et on ne trouve toujours pas la boule. Calculer de nouveau la probabilité qu’elle soit dans le sac 1, puis dans le sac j (j 6= 1). EXERCICE 10 - Un buveur impénitent décide de ne plus boire . . . Un buveur impénitent décide d’essayer de ne plus boire. S’il ne boit pas un jour donné, alors la probabilité qu’il ne boive pas le lendemain est de 0,4. En revanche, s’il succombe un jour il ne boira pas le lendemain par remords avec une probabilité de seulement 0,2. 1. Quelle est la probabilité que ce buveur ne boive pas le n-ième jour ? 2. Que se passe-t-il quand n tend vers l’infini ? Interpréter. 3. On suppose à présent qu’à chaque Nouvel An, notre homme prend la résolution d’arrêter de boire. Il ne boit donc jamais le 1er janvier, indépendamment de son comportement de la veille, puis l’engrenage fatal le rattrape et il se comporte les jours suivants comme décrit précédemment. En utilisant le lemme de Borel-Cantelli, montrer qu’avec probabilité 1 il existe une année pendant laquelle il ne boira pas du tout, tandis que la probabilité qu’il existe une année à partir de laquelle il ne boira plus jamais est nulle. (On supposera que notre buveur est immortel.) Evénements, tribus EXERCICE 11 - Tribu engendrée par une famille finie. 1. Montrez qu’une tribu engendrée par une famille finie de parties est engendrée par une partition finie. 2. Décrire tous les éléments de cette tribu. 3. Montrez que ce résultat est faux si on remplace fini par dénombrable. (Utiliser la tribu borélienne de R.) EXERCICE 12 - Un exemple d’ensemble non mesurable. Sur R on définit la relation d’équivalence x ∼ y si x − y ∈ Q. En utilisant l’axiome du choix (si A est une fonction sur un ensemble I telle que A(x) 6= ∅ pour tout x de I, il existe une fonction f telle que f (x) ∈ A(x) pour tout x ∈ I), construire un ensemble A ∈ [0, 1[ qui contient exactement un point de chaque classe d’équivalence. Supposons A mesurable, et soit α = λ(A) sa mesure de Lebesgue. Montrer que si r, s ∈ Q et r 6= s, alors (A+s)∩(A+r) = ∅, où A+x = {y +x : y ∈ A}, et que λ(A + s) = λ(A). Remarquer que [ 1 = λ [0, 1] ≤ λ (A + r) ≤ λ [−1, 2] = 3. r∈Q∩]−1,1[ En utilisant la σ-additivité de λ, montrer que cette inégalité conduit d’une part à α = 0, d’autre part à α > 0. Conclure. MAP 311 - Aléatoire - PC 2 Emmanuel Gobet Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/. Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard. Mots-clés de la semaine : variable aléatoire, loi, espérance, variance, fonction génératrice, indépendance de v.a., loi conditionnelle. Variables aléatoires discrètes EXERCICE 1 - Loi-produit uniforme. Soient E et F des ensembles finis. Montrer qu’il est équivalent de supposer que X et Y sont deux v.a. indépendantes de lois uniformes sur E et F , et de supposer que le couple (X, Y ) est de loi uniforme sur E × F . EXERCICE 2 - Caractérisation de la loi géométrique. Trouver toutes les lois sur N satisfaisant la propriété suivante d’absence de mémoire : ∀(i, j) ∈ N2 : P(X > i + j|X > i) = P(X > j). EXERCICE 3 - Somme de Poisson. Soit X1 , X2 des variables aléatoires indépendantes de loi de Poisson de paramètres respectifs θ1 > 0 et θ2 > 0. 1. Calculer la loi de X1 + X2 . 2. Calculer la loi de X1 sachant X1 + X2 . Reconnaître cette loi. 3. Calculer E(X1 | X1 + X2 ). EXERCICE 4 - Le vendeur de glaces. Un vendeur de glaces installé dans la rue voit passer un nombre N de passants dans la journée. On suppose que la variable aléatoire N suit une loi de Poisson de paramètre λ > 0. On appelle Gi le nombre de glaces achetées par le i-ème passant. On fait l’hypothèse que les N, G1 , G2 , . . . sont indépendantes et que chaque passant achète une glace avec probabilité p et aucune glace avec probabilité 1 − p. Quelle est la loi du nombre X de glaces vendues pendant une journée ? EXERCICE 5 - Pari sportif OL-OM. Au cours d’un match de foot, le nombre de buts B marqué par une équipe suit une loi géométrique de paramètre p ∈]0, 1[, indépendamment de l’équipe adverse : P(B = i) = p(1 − p)i pour i ≥ 0. 1. En moyenne, l’équipe de l’Olympique de Massy marque 1 but par match, alors que pour l’Olympique de Longjumeau, la moyenne est de 2. Quels paramètres respectifs pM et pL choisir pour modéliser leur nombre de but marqué par match ? 2. Le prochain match oppose l’OL à l’OM. La cote pour l’OL gagnant est de 23 (signifiant que pour 1 misé, on reçoit 32 , soit un gain total de 12 ). Quelle est la cote pour OM gagne ou fait match nul ? 3. Est-il préférable de miser pour OL gagnant ? On cherchera à justifier son choix par des arguments probabilistes ! EXERCICE 6 - Quelques formules bonnes à retenir. 1. (?) Soit X une v.a. discrète à valeurs dans N. Montrer que X P(X > n). E(X) = n≥0 2. Soient X1 , . . . , Xp des v.a. P indépendantes de même loi, à valeurs dans N. On pose pk = P(X = k), k ∈ N et rn = k≥n pk . Montrer que E(min(X1 , . . . , Xp )) = X rnp . n≥1 EXERCICE 7 - Minimum et maximum de v.a. géométriques. Soient X1 , . . . , Xn des variables aléatoires géométriques de paramètre p : P(Xj = n) = p(1 − p)n−1 , n ∈ N∗ . 1. Déterminer la loi de X = min(X1 , . . . , Xn ) et Y = max(X1 , . . . , Xn ). 2. Déterminer la loi jointe de (X, Y ). EXERCICE 8 - Encore des boules. On répartit au hasard n boules dans r cases. On définit les v.a. (Yi )1≤i≤r et (Xi )1≤i≤r par Yi = nombre de boules dans la case i Xi = 1 si la case i est occupée, 0 sinon. 1. Quelle est la loi de Yi ? de Xi ? Calculer E[Xi ] et Var(Xi ). 2. Pour i 6= j, calculer Cov(Xi , Xj ). 3. Soit Sr le nombre de cases vides. Calculer E[Sr ] et Var(Sr ). EXERCICE 9 - Nombre de succès. Soient X1 , . . . , Xn des variables aléatoires i.i.d. (indépendantes et identiquement distribuées) suivant la loi de Bernoulli de paramètre p ∈]0, 1[ et S = X1 + . . . + Xn leur somme. Pour s ∈ {0, . . . , n}, donner la loi conditionnelle de X1 sachant S = s et calculer E(X1 | S). EXERCICE 10 - Instant de succès. Soit (Xn )n∈N une suite de variables aléatoires indépendantes, de même loi de Bernoulli de paramètre p. Pour tout n ≥ 1, on définit par récurrence, Tn = inf{k > Tn−1 ; Xk = 1} si cet infimum est fini, Tn = ∞ sinon, et T0 = 0. 1. Démontrer que les variables aléatoires T1 , T2 − T1 , . . . , Tn − Tn−1 , . . . sont indépendantes et de même loi. 2. Calculer la loi de T1 et sa fonction génératrice. En déduire la loi de Tn . 3. Calculer l’espérance et la variance de Tn de manière directe (formule du cours), puis en utilisant sa fonction génératrice. EXERCICE 11 - Le jeu de la poule. Trois joueurs A, B, C jouent une suite de parties suivant la règle suivante : chaque partie oppose deux joueurs et le perdant de la partie s’efface à la partie suivante au profit des deux autres joueurs. Les parties sont indépendantes entre elles et chaque participant y a la même probabilité 1/2 de gagner ; les joueurs A et B commencent. Le jeu s’arrête la première fois qu’un joueur a gagné deux fois de suite ; ce joueur est le gagnant du jeu. 1. Quelle est la probabilité de chacun de gagner ? 2. Soit T la durée du jeu. Calculer la loi de T, sa fonction génératrice, son espérance et sa variance. Montrer que P(T < ∞) = 1. EXERCICE 12 - Le cambrioleur amnésique. Un trousseau de a clés contient une seule clé pouvant ouvrir une porte donnée. Une personne tente d’ouvrir cette porte en essayant tour à tour les diverses clés du trousseau jusqu’à tomber sur la bonne. On note X le nombre d’essais nécessaires pour ouvrir la porte. Déterminer la loi de X dans les cas suivants : 1. la personne n’essaie jamais d’ouvrir avec une clé déjà essayée en vain. 2. la personne n’a pas de mémoire et ne tient jamais compte des essais précédents. 3. la personne n’a qu’une mémoire limitée et fait chaque essai avec n’importe quelle clé autre que celle qu’elle vient d’essayer immédiatement en vain. EXERCICE 13 - De longues études. Pour avoir son diplôme, un étudiant doit réussir les examens des M cours qui sont proposés, et obtenir ainsi les M unités de valeur correspondantes. On suppose que l’étudiant a une probabilité p ∈]0, 1[ de réussir chacun des examens. D’année en année, l’étudiant peut reporter les unités de valeur obtenues, et il ne passe alors que les examens des cours qu’il n’a pas réussis. 1. Soit Xn le nombre d’unités obtenues pendant les n premières années (si Xn = M , alors Xm = M pour m ≥ n). Calculer la loi de Xn . 2. Soit N le nombre total d’examens passés. Calculer E(N ). Indication : comment s’exprime N en fonction des Xn ? 3. Soit T le nombre d’années nécessaires pour obtenir le diplôme. Calculer E(T ). Indication : comment s’exprime {T > j} en fonction des Xn ? EXERCICE 14 - Cartes mémoires défectueuses. La compagnie MicroHard produit des cartes mémoires pour micro-ordinateurs. Ces cartes comportent en particulier un composant C. On admet que chaque carte est défectueuse avec probabilité p, indépendamment des autres. D’autre part, si une carte est défectueuse, la probabilité que le composant C soit défectueux vaut q. On examine un lot de n cartes produites et on note N le nombre de celles qui sont défectueuses et K le nombre de celles dont le composant C est défectueux (0 ≤ K ≤ N ≤ n). 1. Quelle est la loi de N ? 2. Quelle est la loi conditionnelle de K sachant {N = m} ? 3. En déduire que la loi de K est une binomiale avec des paramètres à préciser. MAP 311 - Aléatoire - PC 3 Emmanuel Gobet Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/. Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard. Mots-clés de la semaine : variable aléatoire réelle, fonction de répartition, espérance, mesure de Lebesgue, densité, simulation par inversion de la f.d.r., inégalités classiques (Markov, BienayméChebyshev, Jensen). Lois et densités EXERCICE 1 - Loi de Weibull. Soit Z une variable aléatoire de loi exponentielle de paramètre 1. Pour tout α, β > 0 on pose X = βZ 1/α . 1. Quelle est la fonction de répartition de X ? 2. La loi de X admet-elle une densité ? La loi de X est appelée loi de Weibull de paramètre (α, β). Elle est beaucoup utilisée (notamment pour modéliser des temps de panne) car en ajustant ses deux paramètres il est possible d’approcher correctement de nombreuses lois de v.a.r. positives. EXERCICE 2 - Loi de Cauchy. Une particule est émise dans le plan à partir du point origine O et dans la direction du vecteur aléatoire ~u. L’extrémité de ~u est un point de loi uniforme sur le demi-cercle {x2 + y 2 = 1, x > 0}. Après une trajectoire rectiligne, la particule heurte la droite D = {x = 1} en un point M d’abscisse X. 1. (?) Montrer X est égale à tan(θ) avec θ de loi uniforme sur ] − π2 , π2 [. En déduire la loi de X (fonction de répartition, densité, . . .). 2. Montrer que 1/X a la même loi que X. (Indication : on pourra tirer parti des relations trigonométriques.) 3. Quelle est la probabilité que la particule heurte D dans le segment I = {|y| ≤ 1} ? 4. Le point O émet maintenant un nombre aléatoire poissonien de paramètre λ de particules. Chacune d’entre elles se comporte comme ci-dessus, indépendamment des autres. Quelle est la loi du nombre Z de particules heurtant I ? EXERCICE 3 - Variables aléatoires normales et log-normales. Posons X = eY , où Y est de loi N (µ, σ 2 ). On dit que X est de loi Log-Normale. 1. Trouver a) la fonction de densité f de la v.a. X ; b) E(X) et Var(X). 2. Un contre-exemple célèbre, d’après W. Feller. On prend µ = 0 et σ = 1. Fixons |a| ≤ 1 et définissons fa (x) = (1 + a sin(2π log(x))) f (x). a) Montrer que fa est une densité de probabilité. (Indication : On pourra écrire l’intégrale de fa comme l’espérance d’une fonction de X.) b) Montrer que fa admet des moments de tout ordre qui ne dépendent pas de a. c) En déduire qu’une variable aléatoire n’est pas caractérisée de manière unique par ses moments polynômiaux. On peut montrer toutefois que c’est vrai dès que la variable est bornée. d) Trouver des fonctions ϕ : R 7→ R non nulles dont la projection orthogonale sur l’espace vectoriel des polynômes de degré n est nulle (projection au sens du produit scalaire induit par la loi log-normale de X), c’est-à-dire E ϕ(X)X n = 0, ∀n ∈ N. Moments d’une v.a.r. EXERCICE 4 - Moments et médiane d’une variable aléatoire réelle. Soit X une variable aléatoire réelle à densité, de fonction de répartition F . Montrer que : 1. (?) Si X est à valeurs positives et k ≥ 0, alors Z ∞ E(X k+1 ) = (k + 1) xk (1 − F (x)) dx. 0 On retiendra en particulier le cas k = 0 (comparer avec la formule donnée pour les v.a. discrètes). 2. Pour tout réel a, on a Z a E(|X − a|) = Z ∞ (1 − F (x)) dx. F (x) dx + −∞ a 3. Pour quelle(s) valeur(s) de a la quantité E(|X − a|) est-elle minimale ? EXERCICE 5 - Des inégalités importantes. 1. Inégalité de Hölder. Soit p, q > 0. Montrer que si 1 p + 1 q = 1, alors 1/p q 1/q E |XY | ≤ E |X|p E |Y | . Le cas p = q = 2 est aussi appelé inégalité de Cauchy-Schwarz et est à retenir absolument. 2. En déduire que µ(λ) = ln E[eλX ] est convexe en λ. Pour éviter les problèmes d’intégrabilité, on supposera que X est bornée. 1/p 1/p 1/p . 3. Inégalité de Minkowski. Montrer que si p ≥ 1, E |X + Y |p ≤ E |X|p + E |Y |p Inégalité de Chernov. Montrer que pour toute v.a. réelle X bornée et λ ≥ 0, P(X ≥ a) ≤ e−(aλ−µ(λ)) , où l’on a posé à nouveau µ(λ) = ln E[eλX ]. EXERCICE 6 - L’espérance minimise (presque) les écarts d’ordre p. On considère une v.a.r. X ayant des moments d’ordre p ≥ 1 finis, et on note h i1/p mp := inf E |X − x|p . x∈R 1. Montrer que x = E[X] minimise mp pour p = 2. 2. Plus généralement, montrer que E[X] minimise la norme Lp pour tout p ≥ 1, à une constante 1/2 près : h i1/p i1/p 1h E |X − E[X]|p ≤ mp ≤ E |X − E[X]|p . 2 Indication : On pourra utiliser l’inégalité de convexité |x + y|p ≤ 2p−1 (|x|p + |y|p ). EXERCICE 7 - Une minoration utile. Soit X une v.a. réelle de carré intégrable et 0 < a < E[|X|]. Etablir la minoration 2 E[|X|] − a P(|X| ≥ a) ≥ . E[X 2 ] Simulation de v.a.r. EXERCICE 8 - Générer une loi géométrique. La fonction « rand » de Scilab vous permet de générer une variable aléatoire U de loi uniforme sur [0, 1]. 1. Comment générer à partir de U une variable X de loi exponentielle de paramètre λ > 0 ? 2. Soit a > 0. Quelle est la loi de Y = baXc + 1 ? EXERCICE 9 - Ecriture dyadique. P Tout réel x ∈ [0, 1] peut s’écrire x = k≥1 yk 2−k , où yk ∈ {0, 1} : cette écriture est unique sauf sur l’ensemble dénombrable des nombres dyadiques (qui admettent deux développements, l’un avec yk ≡ 0 pour k assez grand, l’autre avec yk ≡ 1 pour k assez grand). Soient Yk une suite de v.a. indépendantes de loi de Bernoulli de paramètre 1/2 et définissons la v.a. X par X X := Yk 2−k . k≥1 L’objectif est de montrer de deux manières différentes que X suit la loi uniforme sur [0, 1]. 1. Montrer que pour tous 0 ≤ a ≤ b ≤ 1, P(a ≤ X ≤ b) = b − a (on pourra d’abord montrer que P(X ≥ a) = 1 − a si a est dyadique). Conclure. 2. a) Calculer la fonction caractéristique de la loi uniforme sur [0, 1], i.e. la fonction t 7→ E[eitU ] où U P est une v.a. de loi uniforme. b) Soit Xn := nk=1 Yk 2−k . Calculer la fonction caractéristique φn de Xn . En montrant par récurrence que Y n λ λ sin λ sin cos = n , n k 2 2 2 k=1 déterminer la limite de φn lorsque n → ∞. En admettant que la fonction caractéristique caractérise la loi d’une v.a.r., conclure. 3. En déduire un algorithme de simulation d’une v.a. de loi uniforme sur [0, 1] avec une précision arbitrairement grande. MAP 311 - Aléatoire - PC 4 Emmanuel Gobet Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/. Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard. Mots-clés de la semaine : vecteur aléatoire, densité marginale, loi conditionnelle, loi gaussienne dans Rd , espérance conditionnelle, covariance, indépendance, méthode de rejet, somme de variables indépendantes. EXERCICE 1 - La cerise sur le gâteau. On considère un gâteau circulaire avec une cerise sur le bord. On découpe le gâteau en deux parts en coupant suivant deux rayons choisis uniformément au hasard. 1. Avec quelle probabilité la part contenant la cerise est-elle plus petite que l’autre part ? 2. Quelle est la taille (longueur angulaire) moyenne de la part contenant la cerise ? EXERCICE 2 - Principe de symétrie. P Posons Sn = ni=1 Xi , où les Xi sont des v.a. indépendantes de même loi, symétriques (X1 et −X1 ont même loi). Montrer que pour tout y ≥ 0 et N ∈ N∗ , P sup Sn ≥ y ≤ 2 P[SN ≥ y] = P[|SN | ≥ y]. n≤N EXERCICE 3 - Matrice de covariance. On considère un vecteur aléatoire (X1 , . . . , Xn ), de matrice de covariance K. Montrer que la matrice K n’est pas inversible si et seulement si les v.a. Xi sont linéairement dépendantes : a1 X1 + a2 X2 + · · · + an Xn = c avec probabilité 1 (avec a1 , . . . , an non tous nuls). EXERCICE 4 - Minimum de n exponentielles. Soit (Tk , 1 ≤ k ≤ n) une famille de v.a. réelles indépendantes telles que P (Tk = x) = 0 pour tout 1 ≤ k ≤ n et x ∈ R. (Vérifier que c’est le cas si les variables sont à densité.) 1. Montrer que P (Ti = Tj ) = 0 pour tout 1 ≤ i < j ≤ n, puis que P (∃i 6= j : Ti = Tj ) = 0. Nous pouvons donc définir une v.a. M comme étant l’indice de la plus petite des variables Tk , 1 ≤ k ≤ n, ainsi que S := min Tk = TM , 1≤k≤n et Ri = Ti − S , 1 ≤ i ≤ n. Nous supposerons désormais que chaque Tk est une v.a. exponentielle de paramètre αk > 0. 2. Montrer que pour tout indice j et toutes fonctions positives f et gi (i 6= j), Z Y Y Z E 1{M =j} f (S) gi (Ri ) = αj f (t)e−(α1 +···+αn )t dt × αi gi (u)e−αi u du . i6=j i6=j Indication : On cherchera à écrire directement la quantité à l’intérieur de l’espérance comme une fonction de (T1 , . . . , Tn ). 3. En déduire que {M = j} est un événement indépendant de la v.a. S, que P(M = j) = αj , α1 + · · · + αn et que S est de loi exponentielle de paramètre α1 + · · · + αn . 4. En déduire aussi que, conditionnellement à {M = j}, pour i 6= j les v.a. S et Ri sont indépendantes et que chaque Ri suit une loi exponentielle de paramètre αi . 5. Application : Trois personnes A, B et C arrivent en même temps pour téléphoner près de deux cabines téléphoniques. A et B occupent les cabines en premier et C remplace le premier sorti. On désigne par XA , XB et XC les v.a. correspondant à la durée de la communication pour chaque personne. On suppose qu’il s’agit de v.a. de loi exponentielle de paramètre λ. a) Calculer la probabilité que C sorte le dernier. b) Donner la loi du temps total que C passe à attendre et à téléphoner. c) Déterminer la loi de l’instant du dernier départ. EXERCICE 5 - Somme d’exponentielles. Soit X1 , . . . , Xn des v.a. indépendantes de loi exponentielle de paramètre λ > 0. Pn 1. (?) Trouver par récurrence la densité de Sn = i=1 Xi . On appelle la loi de Sn la loi Gamma de paramètres n et λ. On la note Γ(n, λ). 2. Calculer la densité conditionnelle de Xi sachant Sn . 3. En déduire la valeur de E[Xi | Sn = t]. 4. Retrouver ce résultat par un argument de symétrie. EXERCICE 6 - Quelques identités remarquables sur les variables gaussiennes. 1. Pourquoi la méthode d’inversion de la fonction de répartition pose-t-elle problème lorsqu’on veut simuler une v.a. gaussienne ? 2. (?) Transformation de Box-Muller. Soient ρ et θ deux variables aléatoires indépendantes, la première de loi exponentielle de paramètre 1/2 et la seconde de loi uniforme √ √ sur [0, 2π]. Montrer que ρ sin(θ) et ρ cos(θ) sont deux v.a. gaussiennes N (0, 1) indépendantes. En déduire une manière de simuler deux v.a. normales indépendantes à partir de deux v.a. de loi uniforme sur [0, 1] indépendantes. 3. Soient X et Y deux v.a. normales centrées réduites indépendantes. Montrer que X/Y a la loi de Cauchy, c.à.d. qu’elle a pour densité 1 . π(1 + x2 ) 4. Seconde application : Montrer que Z=√ 2XY X2 + Y 2 et X2 − Y 2 W =√ X2 + Y 2 définissent à nouveau deux v.a. N (0, 1) indépendantes. EXERCICE 7 - Indépendance de v.a. réelles et racines d’équations. Soient X et Y deux variables aléatoires réelles indépendantes dont les lois ont des densités données respectivement par pX (x) = exp(−x)1{x≥0} , pY (y) = 1{0<y<1} . On considère l’équation en λ λ2 − 2λX + Y = 0. Calculer la probabilité que 1. l’équation ait une racine double ; 2. l’équation n’ait aucune racine réelle. EXERCICE 8 - Roméo et Juliette. Roméo et Juliette se sont donnés rendez-vous entre midi et 13h. Chacun des deux a promis de ne pas attendre l’autre plus de 15 minutes. On suppose qu’ils arrivent indépendamment à des instants uniformément distribués entre midi et 13h. 1. Quelle est la probabilité qu’ils se rencontrent ? 2. Roméo décide d’arriver à l’heure H. Quelle est la probabilité de la rencontre ? 3. Roméo arrive à l’heure H et ne trouve personne. Quelle est la probabilité de la rencontre ? EXERCICE 9 - Espérance conditionnelle pour un vecteur gaussien. Soit (X, Y ) un vecteur gaussien non dégénéré. L’objectif est de montrer que E(Y |X) = a0 + b0 X, (1) pour des constantes a0 et b0 à évaluer. 1. Montrer que l’espérance conditionnelle E[Y |X] est la meilleure approximation de Y sachant X, au sens où il s’agit de la variable aléatoire Φ qui minimise E[(Y − Φ)2 ], dans l’ensemble de toutes les v.a. Φ de carré intégrable dépendant uniquement de X. 2. En utilisant le fait que le vecteur (X, Y − (a + bX)) est gaussien pour tout a et b, montrer (1). 3. En calculant la densité conditionnelle de Y sachant X, retrouver le résultat (1). Pour simplifier, on pourra supposer ici que (X, Y ) est d’espérance nulle et de matrice variance1 ρ covariance , pour |ρ| < 1. ρ 1 MAP 311 - Aléatoire - PC 5 Emmanuel Gobet Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/. Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard. Mots-clés de la semaine : convergence en probabilité, en moyenne et presque sûre, lois faibles et fortes des grands nombres. Convergence de variables aléatoires EXERCICE 1 - Différents modes de convergence. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes à valeurs dans N. 1. Montrer que (Xn )n≥1 converge en probabilité vers 0 si et seulement si (P(Xn > 0))n≥1 tend vers 0. P 2. Montrer que (Xn )n≥1 converge presque sûrement vers 0 ssi n≥1 P(Xn > 0) < +∞. 3. On suppose que pour tout n ≥ 1, Xn suit une loi binômiale B(n, pn ). Préciser si la suite (Xn )n≥1 converge vers 0 en moyenne, en probabilité, presque sûrement, dans le cas où pn = n12 puis dans le cas où pn = n13 . 4. On suppose que pour tout n ≥ 1, Xn suit une loi de Poisson P(αn ). Préciser si la suite (Xn )n≥1 converge vers 0 en moyenne, en probabilité, presque sûrement, dans le cas où αn = n1 puis dans le cas où αn = n12 . 5. On suppose que pour tout n ≥ 1, la loi de Xn est donnée par P(Xn = n2 ) = βn et P(Xn = 0) = 1 − βn . Préciser si la suite (Xn )n≥1 converge vers 0 en moyenne, en probabilité, presque sûrement, dans le cas où βn = n1 , βn = n12 , puis dans le cas où βn = n13 . EXERCICE 2 - Majoration presque sûre. Soit (Xn )n≥0 une suite quelconque de variables aléatoires telles que P(|Xn | < ∞) = 1 pour tout n. Montrer qu’il existe une suite (cn )n≥0 telle que limn→∞ Xcnn = 0 p.s. EXERCICE 3 - Lois uniformes. Soit (Un )n≥1 une suite de v.a. indépendantes, toutes de loi uniforme sur un intervalle [a, b]. Trouver les limites presque sûres de mini≤n Ui et maxi≤n Ui . EXERCICE 4 - Lois de Cauchy. 1 Soit (Xi )i≥1 une suite de v.a. i.i.d. de loi de Cauchy, i.e. de densité sur R égale à pX (x) = π(1+x 2) . P n 1 On admettra que pour tout n ∈ N, Sn := n i=1 Xi suit également une loi de Cauchy (ceci se démontre facilement en utilisant les fonctions caractéristiques, introduites dans le prochain cours). 1. Que nous dit la loi des grands nombres sur la convergence de Sn lorsque n → ∞ ? 2. Calculer la loi de S2n − Sn . En déduire le comportement de P[|S2n − Sn | > 1] lorsque n → ∞. Indication : on utilisera plusieurs fois la propriété énoncée ci-dessus, ainsi que la symétrie de X. 3. La suite (Sn )n≥1 converge-t-elle en probabilité ? 4. Finalement, la suite (Sn )n≥1 converge-t-elle presque sûrement ? Loi des grands nombres EXERCICE 5 - De l’art de gaspiller sa fortune. Soit (Xi )i≥1 une suite de variables aléatoires i.i.d. strictement positives et d’espérance 1, telles que P(X1 = 1) < 1 et ∃α > 0 t.q. P(X1 ≥ α) = 1. La première condition garantit que X n’est pas la constante égale à 1 p.s., tandis que la seconde condition nous dit Qque X est p.s. bornée inférieurement par une constante α > 0. Posons Yn = ni=1 Xi . 1. En remarquant que pour x ∈]0, ∞[\{1}, ln(x) < x − 1, vérifier que E(ln(X1 )) < 0. 2. En étudiant le comportement de ln(Yn )/n lorsque n → +∞, montrer que la suite Yn converge presque sûrement vers une limite que l’on précisera. 3. Un joueur met tous les jours en jeu le dixième de sa fortune à pile ou face avec un ami. Quelle est l’évolution de cette fortune au bout d’un temps très long ? 4. Calculer E(Yn ). La suite Yn converge-t-elle en moyenne ? EXERCICE 6 - Loi des grands nombres déguisée. Soit (Xn )n≥1 une suite de v.a. i.i.d. de loi normale N (µ, σ 2 ). Trouver la limite presque sûre de Pn X n 1 Xi i=1 Xi P ln et e n 2. n i=1 Xi i=1 EXERCICE 7 - Calcul d’intégrales. Pour f : R → R continue bornée et α > 0, calculer les limites suivantes : Z k X x1 + . . . + xn k −αn (αn) e lim f dx1 . . . dxn et lim f . n→∞ [0,1]n n→∞ n k! n k≥0 EXERCICE 8 - Estimation de paramètres. Un standard téléphonique reçoit chaque jour un nombre aléatoire d’appels, dont on suppose qu’il suit une loi de Poisson de paramètre θ > 0 inconnu. On suppose en outre que d’un jour à l’autre, ces nombres sont indépendants. Afin de trouver le nombre optimal de standardistes pour subvenir aux besoins des clients, on cherche à estimer le paramètre θ grâce à la donnée d’une série (Jn )1≤n≤N de nombres d’appels journaliers. P 1. Calculer l’espérance et la variance de N1 N i=1 Ji . Proposer un estimateur θ̂N de θ, i.e. une fonction des données (Ji )i qui donne une information sur la valeur du paramètre recherché. 2. On dit d’un estimateur qu’il est sans biais lorsque E[θ̂N ] = θ (il est dit biaisé sinon). L’estimateur ci-dessus est-il biaisé ? P 2 3. Calculer l’espérance de N1 N i=1 Ji . Proposer un nouvel estimateur θ̃N de θ. Est-il biaisé ? Lequel de ces estimateurs vous semble le meilleur ? MAP 311 - Aléatoire - PC 6 Emmanuel Gobet Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/. Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard. Mots-clés de la semaine : fonctions caractéristiques, convergence en loi, théorème de la limite centrale, méthode de Monte Carlo. Fonctions caractéristiques EXERCICE 1 - Loi Gamma. Pour tout r > 0, on pose Γ(r) = probabilité de densité R∞ 0 e−t tr−1 dt et on appelle loi Γr,λ (r > 0, λ > 0) la loi de γr,λ (t) = λr −λt r−1 e t 1R+ (t). Γ(r) 1. Calculer la fonction caractéristique de Γr,λ . En déduire l’espérance et la variance de cette loi. 2. Montrer que si X et Y sont des v.a indépendantes de loi respective Γr,λ et Γs,λ , alors X +Y a une loi Γr+s,λ . Pourrait-on aussi faire varier le paramètre λ ? 3. Soient X1 , . . . , Xn des v.a indépendantes de loi exponentielle de paramètre λ. Calculer la loi de X1 + . . . + Xn . 4. Soient X1 , . . . , Xn des v.a indépendantes de loi N (0, 1). Montrer que X12 a une loi Γ et en déduire la loi de X12 + . . . + Xn2 . On appelle cette loi la loi du χ2 à n degrés de liberté ; elle a de nombreuses applications en statistiques (voir Proposition 6.2.8, Aléatoire). EXERCICE 2 - Vecteurs gaussiens. Soient (X1 , . . . , Xn ) des variables aléatoires i.i.d gaussiennes centrées réduites. On pose X = (X1 , . . . , Xn ). 1. Calculer la fonction caractéristique de X. 2. Soit A ∈ Mn (R) une matrice inversible et b ∈ Rn . Calculer la fonction caractéristique du vecteur aléatoire AX + b, ainsi que la densité de sa loi. 3. Soit P ∈ Mn (R) une matrice orthogonale. Montrer que X et P X ont la même loi. En X déduire que la loi de kXk est une mesure de probabilité sur la sphère unité S (n−1) de Rn invariante par toute transformation orthogonale (cette propriété caractérise la mesure uniforme sur S (n−1) ). EXERCICE 3 - Convergence en loi. 1. Etudier la convergence en loi de la suite paramètre pn = λ n Xn , où Xn suit une loi géométrique de n n≥1 et λ > 0 est fixé. 2. Soit Xn une v.a. de loi uniforme sur {0, n1 , n2 , . . . , n−1 n , 1}. a) Trouver la limite en loi de la suite (Xn )n≥1 . On notera X une v.a. ayant cette loi. b) Montrer que P(Xn ∈ Q) ne converge pas vers P(X ∈ Q). Comparer avec la définition de la convergence en loi. Théorème de la limite centrale EXERCICE 4 - Stabilité des lois gaussiennes. (?) Considérons X1 et X2 , deux v.a. indépendantes de même loi µ, de variance finie égale à σ 2 et qui satisfont la propriété suivante : X1 + X2 √ a encore la loi µ. (P) 2 L’objectif est de montrer que nécessairement, µ est la loi normale N (0, σ 2 ). 1. Montrer que si µ est la loi normale N (0, σ 2 ), alors la propriété (P) est satisfaite. 2. On suppose maintenant que (P) est satisfaite. a) Montrer que E(X1 ) = 0. b) Prouver que si X1 , X2 , · · · , X2n sont des v.a. indépendantes de même loi µ, alors X1 + X2 + · · · + X2n √ a la loi µ. 2n c) Conclure que µ est la loi normale N (0, σ 2 ). EXERCICE 5 - Dilemme du couturier. Un couturier fabrique deux modèles de chemise, le modèle A à rayures et le modèle B à carreaux, pour 2000 clients. Chaque client choisit le modèle A avec probabilité 1/4 et donc le modèle B avec probabilité 3/4. Combien ce couturier doit-il fabriquer de chemises de type A pour qu’il y en ait suffisamment avec probabilité 90% ? Estimation statistique EXERCICE 6 - Estimation paramétrique de loi uniforme. Soit (Xn )n∈N une suite de v.a. i.i.d. de loi uniforme sur [0, a] avec a > 0. On suppose que la valeur de a n’est pas connue, et l’objectif est de l’estimer en utilisant les observations (Xn )1≤i≤n . n 1X 1. Que vaut E(X1 ) ? En déduire un estimateur sans biais de a à partir de X n = Xi . n i=1 Quelle est sa vitesse d’estimation de a ? 2. On pose Mn = max Xi . Calculer la loi de Mn et son espérance. Montrer que Mn converge 1≤i≤n p.s vers a. 3. Quelle est limite en loi de n(a − Mn ) ? Des deux estimateurs précédents, lequel vous parait le plus intéressant ? Méthode de Monte-Carlo EXERCICE 7 - Réduction de variance. (?) Soit f une fonction monotone bornée sur [0, 1]. On souhaite calculer l’intégrale I = à l’aide d’un générateur de v.a. (Xn )n≥1 i.i.d., de loi uniforme sur [0, 1]. 1. Comparer les performances des estimateurs 2n 1 X In = f (Xi ) 2n i=1 R1 0 f (x) dx n et In0 1 X = f (Xi ) + f (1 − Xi ) , 2n i=1 qui requièrent tous deux 2n évaluations de la fonction f . Indication : on pourra commencer par montrer que si X et Y sont i.i.d. et uniformes sur [0, 1], on a E[(f (X) − f (Y ))(f (1 − X) − f (1 − Y ))] ≤ 0. 2. Donner pour le cas (d’école) f (x) = x2 le nombre n minimal permettant d’obtenir avec 95% de chances une précision de calcul de 1%. EXERCICE 8 - Echantillonnage d’importance. R On cherche à calculer par une méthode de Monte-Carlo l’intégrale I = Rd f (x)p(x) dx, où p est une densité de probabilité. Pour ce faire, on utilise une suite de tirages i.i.d. (Xn )n≥1 de v.a. à valeurs dans Rd dont la loi a pour densité de probabilité q ne s’annulant pas. On note w le rapport (appelé fonction d’importance) w(x) = p(x) q(x) et on considère l’estimateur pondéré n In = 1X w(Xi )f (Xi ). n i=1 1. Vérifier la limite presque sûre de cet estimateur et donner une condition sous laquelle il vérifie le théorème de la limite centrale. 2. Sous l’hypothèse obtenue à la question précédente et en supposant que f (x)p(x) est strictement positif pour tout x, trouver le choix optimal de la densité q (qui minimise la variance de In ). Pourquoi ce choix est-il en général impossible en pratique ? MAP 311 - Aléatoire - PC 7 Emmanuel Gobet Feuille de PC disponible en avance sur le site http://www.cmap.polytechnique.fr/~gobet/. Les exercices marqués (?) sont corrigés dans le livre Aléatoire de S. Méléard. Mots-clés de la semaine : intervalles de confiance, modèles dynamiques aléatoires, marches aléatoires, somme aléatoire de variables aléatoires indépendantes, processus de branchement EXERCICE 1 - Intervalle de confiance. On effectue une enquête durant une épidémie de grippe, dans le but de connaître la proportion p de personnes présentant ensuite des complications graves. On observe un échantillon représentatif de 400 personnes et pour un tel échantillon, 40 personnes ont présenté des complications. 1. Donner un intervalle de confiance pour p de niveau 95%. 2. On désire que la valeur estimée p̂ diffère de la proportion inconnue exacte p de moins de 0.005 avec une probabilité égale à 95%. Combien de personnes notre échantillon devra-t-il contenir ? 3. Quel devrait être le risque pour obtenir le même intervalle qu’à la question précédente en conservant l’effectif n = 400 ? Quelle conclusion peut-on en tirer ? EXERCICE 2 - Temps d’atteinte d’une marche aléatoire dans Z. Un joueur parie avec une pièce biaisée qui donne Pile avec probabilité p ∈]0, 1[ et Face avec probabilité q = 1 − p : il la lance de manière répétée et indépendante et gagne 1e si la pièce donne Pile et perd 1e sinon. Notons Sn ses gains cumulés à l’instant n, qu’on peut écrire à l’aide d’une marche aléatoire sur Z en posant Sn = X1 + · · · + Xn , où (Xi )i≥1 est une suite de v.a. indépendantes de même loi donnée par P(X1 = 1) = p et P(X1 = −1) = q. Considérons maintenant le premier instant Tr où le joueur atteint un richesse r ∈ N∗ : Tr = inf{n ≥ 0 : Sn = r} avec la convention Tr = +∞ si Sn 6= r pour tout n. 1. Montrer que T1 et T2 − T1 sont deux v.a. indépendantes de même loi. 2. Montrer que P(T1 − 1 = k|S1 = −1) = P(T2 = k) pour tout k ∈ N. 3. En conditionnant par rapport aux valeurs de S1 , montrer que ϕ, la fonction génératrice de T1 , vérifie ϕ(s) = ps + qsϕ(s)2 pour |s| ≤ 1. En déduire l’expression de ϕ. 4. Calculer P(T1 < +∞) et E(T1 ) en distinguant les cas selon que p <, =, > 1/2. 5. Quelle est la loi de M = supn∈N Sn ? EXERCICE 3 - Marche aléatoire dans Z3 . Imaginons une particule de plancton se promenant de manière totalement aléatoire dans un océan immense. Pour simplifier, supposons qu’elle se déplace en sautant d’un point à l’autre de Z3 de la manière suivante : si Sn ∈ Z3 est sa position spatiale à l’instant n, alors Sn+1 = Sn + Un+1 où Un+1 est indépendante de {S0 , . . . , Sn } et suit une loi uniforme sur {(±1, ±1, ±1)}. On suppose que S0 = (0, 0, 0). 1. (?) Calculer P[Sn = (0, 0, 0)]. Donner un équivalent√ de cette probabilité lorsque n → ∞ (on se rappellera la formule de Stirling, n! ∼ e−n nn 2πn). 2. (?) Montrer qu’avec probabilité 1, la particule ne revient qu’un nombre fini de fois en (0, 0, 0). 3. Pour (x, y, z) ∈ Z3 , donnerPune majoration de P[Sn = (x, y, x)]. Pour quel exposant α la suite rn = nα vérifie-t-elle n≥1 P(|Sn | ≤ rn ) < +∞. 4. En déduire que presque sûrement la particule « part à l’infini » et donner un minorant de sa vitesse de fuite. EXERCICE 4 - Modèle AutoRégressif d’ordre 1 (AR(1)). Soit (Yn )n≥1 une suite de v.a. i.i.d. de loi normale N (µ, σ 2 ). Soient a ∈ R et X0 une v.a. de loi normale N (µ0 , σ02 ), indépendante des (Yn )n . Pour tout n ≥ 1, on définit la suite récurrente aléatoire (Xn )n par Xn = aXn−1 + Yn . 1. Montrer que (X0 , · · · , Xn ) est un vecteur gaussien. Déterminer la loi de Xn et calculer Cov(Xk , Xn ) pour 0 ≤ k ≤ n. 2. A quelle condition sur a, la v.a. Xn converge-t-elle en loi ? Quelle est alors la loi limite ? Quelle est la loi de Xn si X0 a la loi limite ? 3. Montrer que si a ∈] − 1, 1[, le vecteur (Xn , Xn+1 ) converge en loi vers un vecteur gaussien dont on déterminera les paramètres. P 4. Pour a ∈] − 1, 1[, étudier la convergence en loi de la moyenne empirique n1 ni=1 Xi . EXERCICE 5 - Suite récurrente aléatoire à deux états. Soient α, β ∈ [0, 1] et soit (Un )n≥1 une suite de variables aléatoires indépendantes et de loi uniforme sur [0, 1]. Pour X0 ∈ {0, 1} donnée, on définit (Xn )n≥0 par Xn+1 = 1Xn =0 1Un+1 ≤α + 1Xn =1 1Un+1 ≤1−β , n ≥ 0. C’est une suite récurrente aléatoire au sens de la définition 7.4.1, à valeurs dans l’espace E = {0, 1}. En particulier, elle vérifie la propriété de Markov (proposition 7.4.2) : P[Xn+1 = xn+1 |Xn = xn , . . . , X1 = x1 , X0 = x0 ] = P[Xn+1 = xn+1 |Xn = xn ] pour tout x0 , . . . , xn+1 . 1. Identifier les quantités P[Xn+1 = xn+1 |Xn = xn ] à l’aide la matrice Q := 1−α α β 1−β 2. Montrer par récurrence sur k que pour tout n ∈ N et x0 , . . . , xk ∈ E, on a P[Xn = x0 , Xn+1 = x1 , . . . , Xn+k = xk ] = P[Xn = x0 ] Q(x0 , x1 )Q(x1 , x2 ) · · · Q(xk−1 , xk ). En déduire que P[Xn+k = xk |Xn = x0 ] = [Qk ](x0 , xk ), où Qk est la puissance k-ième de la matrice Q. 3. Que se passe-t-il dans le cas α = β = 0 ? dans le cas α = β = 1 ? On exclut dans la suite ces deux cas. 4. Montrer que les puissances de Q s’écrivent 1−p p p −p n n Q = +ρ , 1−p p p−1 1−p où p = α/(α + β) et ρ = 1 − α − β. . 5. En déduire que limn→∞ Qn (x, .) = µ(.) pour tout x, où µ({0}) = 1 − p et µ({1}) = p. Quelle est la limite en loi de Xn , lorsque n → ∞ ? 6. Vérifier que si X0 est de loi µ, alors Xn est de loi µ pour tout n. On dira que µ est la probabilité invariante de la suite récurrente aléatoire. EXERCICE 6 - Processus de Galton-Watson. On considère une population évoluant de la façon suivante : à chaque génération, chaque individu donne naissance à un nombre aléatoire X de descendants suivant une loi géométrique sur N de 1 paramètre a = 1+m avec m > 0 (i.e., P(X = k) = a(1 − a)k ). Les nombres de descendants de différents individus sont supposés indépendants. La génération suivante est alors constituée de tous ces nouveaux individus, sans leurs parents. On note Zn la taille de la population à la génération n et on suppose que Z0 = 1. 1. 1) Soit φn (s) = E(sZn ) la fonction génératrice de Zn . Montrer qu’il existe α > 0 tel que 1 α =1+ . 1 − φ1 (s) 1−s 2. Montrer que φn = φ1 ◦ φn−1 . En déduire l’expression de φn et calculer E[Zn ]. 3. Soit T = inf{n ≥ 0 : Zn = 0} le temps d’extinction de la population. Calculer explicitement P(T ≤ n). Indication : on pourra relier le calcul à Φn (0). 4. Pour quelles valeurs de m, T est-il fini p.s. ? Que vaut alors E(T ) ? 5. Dans le cas où m > 1, trouver la limite en loi de Zn /mn (Indication : On pourra utiliser les fonctions caractéristiques). Cette limite est-elle également en probabilité ? presque sûre ?