L3 - Intégration 2 - Probabilités 2013-2014 : TD 1 Transformée de Fourier Exercice 1.— Premiers exemples de transformées de Fourier Calculer les transformées de Fourier des fonctions suivantes : f = 1[a,b] 1 : x 7→ exp(−cx)1R+ (x), et où les réels a, b et c vérifient a < b et c > 0. Exercice 2.— Des séries de Fourier à la transformée de Fourier... On rappelle que le n-ième coefficient de Fourier d’une fonction T-périodique f , intégrable sur sa période, est défini par 1 cn ( f ) := T Z T/2 f (x)e−i 2πnx T dx. −T/2 Soit f ∈ L1 (R). À T > 0, on associe la fonction T-périodique fT qui coïncide avec f sur ] − T/2, T/2]. Montrer que pour tout λ ∈ R, on a TcbλTc ( fT ) −→ fˆ(−2πλ). T→∞ Exercice 3.— Transformée de Fourier d’une fonction radiale Soit f ∈ L1 (Rd ) une fonction radiale, au sens où il existe une fonction mesurable 1 de R+ dans R telle que ∀x ∈ Rd , f (x) = 1(|x|), où |x| désigne la norme euclidienne de x. Montrer que sa transformée de Fourier fˆ est également radiale. Exercice 4.— Autre preuve de Riemann-Lebesgue Le théorème de Riemann-Lebesgue affirme que pour toute fonction f ∈ L1 (Rd ), sa transformée de Fourier fˆ(ξ) tend vers 0 lorsque |ξ| → ∞. 1. Montrer que le théorème est valide pour f fonction indicatrice d’un pavé de Rd . Ici, un pavé désigne un produit de segments. 2. En déduire le théorème pour toute f ∈ L1 (Rd ) par linéarité de la transformée de Fourier et densité dans L1 (Rd ) des fonctions combinaisons linéaires d’indicatrices de pavés. On détaillera bien l’argument. 1 Exercice 5.— Espace de Schwartz L’espace de Schwartz est défini par ∞ d k S := f ∈ C (R ), ∀k ∈ N, ∀α multi-indice, |x| Dα f (x) −→ 0 , |x|→∞ où Dα f désigne la dérivée partielle de f par rapport au multi-indice α. Montrer que l’espace de Schwartz est stable par la transformée de Fourier, au sens où Ŝ := { fˆ, f ∈ S} ⊂ S. Montrer qu’on a en fait Ŝ = S. Remarque : Cette remarquable propriété de stabilité fait de cet espace de Schwartz un espace de travail souvent très agréable à manipuler. Exercice 6.— Convolution dans différents espaces Lp Soient p, q, et r dans [1, +∞] vérifiant 1/p + 1/q − 1/r = 1. On cherche à montrer que le produit de convolution de f ∈ Lp (R) avec 1 ∈ Lq (R) est bien défini dans Lr (R), et vérifie l’inégalité suivante due à Young : k f ∗ 1kr ≤ k f kp k1kq . (1) 1. Préliminaires (a) Montrer l’inégalité d’Hölder à trois paramètres : si f ∈ La (R), 1 ∈ Lb (R) et h ∈ Lc (R), avec 1/a + 1/b + 1/c = 1, alors f 1h ∈ L1 (R) et k f 1hk1 ≤ k f ka k1kb khkc . (b) Montrer que l’on peut se ramener au cas où les fonctions f et 1 sont à valeurs positives. Alors la convolée f ∗ 1 est bien définie comme fonction mesurable à valeurs dans R+ ∪ {+∞}, et l’on doit juste montrer que (1) est bien vérifiée. C’est ce qu’on démontre dans la question 2. 2. On suppose f et 1 positives. (a) Montrer que l’on a " kf ∗ 1krr = ( f ∗ 1)r−1 (x) f (y)1(x − y)dxdy. R2 (b) En observant que les exposants conjugués p0 = p/(p − 1) et q0 = q/(q − 1) vérifient 1/p0 + 1/q0 + 1/r = 1 et en écrivant ( f ∗ 1)r−1 = ( f ∗ 1)r(1/p +1/q ) , 0 f = f p(1/q +1/r) , 0 1 = 1q(1/p +1/r) , 0 prouver que l’on a 0 k f ∗ 1krr ≤ k f ∗ 1kr−1 r k f kp k1kq . (c) Conclure. 0 Remarque : Ce cas recouvre les cas de convolution Lp − Lp ainsi que L1 − Lp ... Noter toutefois qu’en général, il faut avoir 1/p + 1/q ≥ 1 pour que le produit de convolution soit bien défini. 2 L3 - Intégration 2 - Probabilités 2013-2014 : TD 2 Transformée de Fourier (bis) Exercice 1.— Calculs d’intégrales Dans le premier TD, ont été calculées les transformées de Fourier des fonctions suivantes : f = 1[a,b] 1(x) = exp(−cx)1R+ (x), et où les réels a, b et c vérifient a < b et c > 0. Déduire de ces calculs les valeurs des intégrales suivantes : Z Z sin2 (x) 1 dx et dx. 2 2 x R R 1+x Exercice 2.— Uniforme continuité d’une transformée de Fourier Soit µ une mesure signée sur R. Démontrer que la transformée de Fourier de µ est uniformément continue. Exercice 3.— Algèbres associatives unifères ? L’espace L1 (R) est une algèbre pour la convolution. Il en est de même pour l’espace des mesures signées. Ces algèbres sont-elles associatives ? Admettent-elles une unité ? Exercice 4.— Formule sommatoire de Poisson Soit f : R → C de classe C1 . On suppose qu’il existe C tel que ∀x ∈ R, | f (x)| + | f 0 (x)| ≤ C . 1 + x2 P P 1. Montrer que les séries n∈Z f (n) et n∈Z fˆ(2πn) sont absolument convergentes et P de même somme. (On pourra justifier l’existence de x 7→ n∈Z f (x + n) et utiliser la théorie des séries de Fourier.) 2. Application : Pour x > 0, montrer l’égalité suivante, X n∈Z π X −2π|n|x π 1 + e−2πx 1 = e = , x2 + n2 x n∈Z x 1 − e−2πx et en déduire la valeur de P n≥1 1/n2 . Exercice 5.— Résolution d’une équation différentielle On rappelle que l’espace de Schwartz sur R est défini par ∞ k (l) S := f ∈ C (R) : ∀k, l ∈ N, |x| f (x) −→ 0 |x|→∞ Soit f ∈ S. Démontrer qu’il existe une unique solution u dans S à l’équation u00 − u = f et l’exprimer comme produit de convolution d’une fonction explicite et de f . 1 Exercice 6.— Moments et dérivées Soit µ une mesure de probabilité sur R. 1. Montrer que µ̂ est deux fois dérivable en 0 si et seulement si l’intégrale est finie. R R x2 dµ(x) 2. Pour tout entier R positif pair k, montrer que µ̂ est k fois dérivable en 0 si et seulement si l’intégrale R xk dµ(x) est finie. R Remarque : Par contre, µ̂ dérivable en 0 n’implique pas que l’intégrale R |x|dµ(x) est finie. 2 L3 - Intégration 2 - Probabilités 2013-2014 : TD 3 Espaces de probabilité Exercice 1.— Votre premier couplage Soit p ∈ [0, 1]. Soit X et Y deux variables aléatoires de Bernoulli de paramètre p définies sur le même espace probabilisé. Que peut être la loi de la variable aléatoire Z := max(X, Y) ? Exercice 2.— Modélisation Un magicien vous présente un chapeau contenant deux cartes. L’une de ces cartes est noire des deux côtés, l’autre a un côté noir et un côté rouge. Vous tirez une carte et observez seulement son recto. Il est noir. Quelle est la probabilité que le verso de la carte soit rouge ? Exercice 3.— Les mains au poker En tirant cinq cartes dans un jeu de cinquante-deux, quelle est la probabilité d’obtenir : (a) . . . un brelan ? (b) . . . une et une seule paire ? (c) . . . deux paires ? (d) . . . une suite ? On tire toujours cinq cartes dans un jeu de cinquante-deux. On désigne par A l’événement “avoir une suite” et B celui “avoir une couleur”. Comparer P[A|B] et P[A]. Exercice 4.— Perte de mémoire et loi exponentielle On rappelle que, si λ ∈ R?+ , une variable aléatoire est dite exponentielle de paramètre λ si elle a pour loi λ exp(−λx)1R+ (x)dx. Une variable aléatoire est dite exponentielle s’il existe un paramètre λ ∈ R?+ pour lequel elle est exponentielle de paramètre λ. 1. Soit X une variable aléatoire exponentielle. Démontrer que, pour tous s et t réels positifs, P[X > t + s|X > t] = P[X > s]. Expliquer en quoi il s’agit d’une propriété de “perte de mémoire” de l’exponentielle. 2. Soit X une variable aléatoire à valeurs dans R?+ . On suppose que, pour tous s et t réels positifs, P[X > t + s|X > t] = P[X > s]. Démontrer que X est une variable exponentielle. 3. Soit f : R?+ → R?+ une fonction mesurable d’intégrale 1. Soit X de loi f (x)dx. Pour R t f (x) x réel, on note F(x) := P[X ≤ x]. Enfin, pour t positif, on note At := 0 1−F(x) dx. On va étudier les propriétés de la variable aléatoire AX . (a) Calculer f (x) 1−F(x) dans le cas où f est la densité d’une variable exponentielle. (b) Dans le cas où f est continue, montrer que, pour tout x ∈ R+ , ε−1 P[X < x + ε|X > x] −→+ ε→0 1 f (x) . 1 − F(x) (c) On écrit G(t) = P(AX > t). Toujours dans le cas f continue, écrire une équation différentielle vérifiée par G, et en déduire que AX est une variable exponentielle de paramètre 1. (d) On note t 7→ A−1 t la réciproque de la bijection que t 7→ At définit de R+ vers R+ . Sans supposer f continue, démontrer la formule de changement de variable suivante : Z t Z A−1 t h(u) f (u) du = h(A−1 v )dv, 1 − F(u) −1 s As pour s < t réels positifs et h : R?+ → R+ mesurable. On pourra commencer par traiter le cas des fonctions indicatrices. R +∞ (e) Montrer que G vérifie l’équation intégrale G(t) = t G(u)du, pour tout t ≥ 0, et en déduire que AX est une variable exponentielle de paramètre 1. ∗ Exercice 5.— Mesure de Lebesgue et mesure ( 12 δ1 + 12 δ0 )N ∗ Soit Ω = {0, 1}N , muni de la tribu produit. En cours, vous avez vu comment construire, ∗ à partir de la mesure de Lebesgue, la mesure produit P = ( 12 δ1 + 12 δ0 )N sur Ω, définie comme étant l’unique mesure telle que, pour tout n ∈ N∗ et (ε1 , ...εn ) ∈ {0, 1}{1,...,n} , on ait P(Aε1 ,...,εn ) = 2−n , où l’on a noté ∗ Aε1 ,...,εn = {(ε1 , ..., εn )} × {0, 1}N \{1,...,n} . Dans cet exercice on propose la construction inverse, ou comment construire la mesure de Lebesgue à partir de P. P 1. On définit ψ de Ω dans [0, 1] par ψ(ω) = k∈N∗ ωk 2−k , où ωk désigne la k-ième coordonnée de ω. Montrer que ψ est bien définie et mesurable (pour la tribu borélienne sur [0, 1]). 2. Montrer la mesure de Lebesgue sur [0, 1] est la mesure image de P par ψ. Remarque : Cet exercice permet, à partir d’une suite de pile ou face indépendants, de simuler une variable aléatoire uniforme sur [0, 1]. Exercice 6.— D’autres mesures produit ∗ ∗ Sur [0, 1)N , on définit la tribu borélienne produit B([0, 1))N comme étant la plus petite tribu rendant mesurable toutes les applications coordonnées. On cherche à définir sur cet ∗ espace la mesure de Lebesgue produit λN , vérifiant, pour tout n ∈ N∗ et tous boréliens A1 , ..., An , ∗ ∗ λN A1 × ... × An × B([0, 1))N \{1,...,n} = λn (A1 × ... × An ). (1) ∗ 1. Prouver qu’il existe au plus une mesure λN vérifiant (1). ∗ ∗ ∗ 2. Déterminer une application mesurable f de {0, 1}N dans {0, 1}N ×N telle que N∗ N∗ ×N∗ = ( 12 δ1 + 21 δ0 ) . f∗ ( 12 δ1 + 12 δ0 ) ∗ ∗ On précisera les tribus utilisées et le sens de la mesure produit ( 12 δ1 + 21 δ0 )N ×N . ∗ ∗ ∗ 3. Déterminer une application mesurable 1 de {0, 1}N ×N dans [0, 1)N telle que N∗ ×N∗ 1∗ ( 12 δ1 + 12 δ0 ) ∗ vérifie (1). On a donc prouvé l’existence et l’unicité de la mesure λN . ∗ 4. Application : Soit p ∈ [0, 1]. Définir Pp := (pδ1 + (1 − p)δ0 )N , mesure de Bernoulli ∗ ∗ ∗ produit sur {0, 1}N , en utilisant une application mesurable h de [0, 1)N dans {0, 1}N . 2 L3 - Intégration 2 - Probabilités 2013-2014 : TD 4 Événements, variables aléatoires, espérance. Exercice 1.— La main à la pâte Calculer la fonction caractéristique, l’espérance et la variance des variables aléatoires de Bernoulli, binomiales, géométriques, de Poisson et exponentielles. Exercice 2.— Des probabilités à l’espérance Soit X une variable aléatoire positive. Soit p > 0. Montrer que Z ∞ p E[X ] = pxp−1 P[X > x]dx. 0 Exercice 3.— Formule d’inclusion-exclusion Soit E1 , . . . , En des événements définis sur un même espace probabilisé. 1. Établir la formule d’inclusion-exclusion, à savoir n X [ \ P Ek = (−1)|S|−1 P Ei , k=1 i∈S ∅,S⊂[n] où l’on a noté [n] = {1, . . . , n}. 2. Pour tout k ∈ N, on pose Mk := X S⊂[n] 1≤|S|≤k \ (−1)|S|−1 P Ei . i∈S Montrer que, pour tout entier naturel k, on a les inégalités suivantes n [ M2k ≤ P Ek ≤ M2k+1 . k=1 Il s’agit des inégalités de Bonferroni. Exercice 4.— Les chapeaux Dans une soirée mondaine, chaque invité laisse son chapeau dans le hall d’entrée. Une fois la soirée terminée, les n invités, éméchés, repartent chacun avec un chapeau “choisi de manière totalement aléatoire”. 1. Modéliser mathématiquement la situation. 2. Comment évolue la probabilité de l’événement “aucun individu ne repart avec son chapeau” quand n tend vers l’infini ? 3. Comment évolue la probabilité de l’événement “exactement k individus repartent avec leur chapeau” quand n tend vers l’infini ? Discuter. 1 Exercice 5.— Approximations déterministes dans L1 et L2 Sot X une variable aléatoire réelle. 1. On suppose que X2 est intégrable. Déterminer la “variable aléatoire constante” la plus proche de X dans L2 , ainsi que sa distance à X. (On justifiera l’existence et l’unicité de cette “variable aléatoire constante”.) 2. Maintenant, X est seulement supposée intégrable. Soit F sa fonction de répartition. Montrer que pour tout réel a, Z a Z ∞ E[|X − a|] = F(x)dx + (1 − F(x))dx. a −∞ Montrer que mina∈R E[|X − a|] est atteint, et dire pour quelles valeurs de a. Exercice 6.— Une énigme Le faux mage blanc de Miécrémée a pris 2000 mathématiciens en otages. Voulant tester leur acuité intellectuelle, il leur propose un “jeu”. “J’ai choisi une manière de vous numéroter entre 1 et 2000. Sachez que chaque numéro n’est porté qu’une fois. J’ai rentré toutes ces données dans l’ordinateur central. Au début du jeu, je vous mettrai chacun dans un cachot, de telle sorte que vous ne pourrez plus communiquer. Vous aurez chacun à votre disposition un petit ordinateur dont la seule fonctionnalité est la suivante : si vous rentrez un nombre entre 1 et 2000, le nom de l’individu correspondant s’affiche. Chacun d’entre vous aura 1000 tentatives. Si ne serait-ce que l’un d’entre vous ne voit pas s’afficher son nom au cours de ses 1000 tentatives, vous serez tous exécutés. Tout est clair ? Je vous laisse une semaine pour, ensemble, mettre au point une stratégie. Alea jacta est.” Les mathématiciens sont parvenus à trouver une stratégie leur garantissant une probabilité de survie supérieure à 30%. Êtes-vous capables d’en faire autant ? 2 L3 – Intégration 2 - Probabilités 2013-2014 DM 1 Exercice 1.— Moments de la gaussienne Soit m ∈ R et σ ∈ R?+ . Soit X une variable aléatoire de loi 1 √ exp(−(x − m)2 /(2σ 2 ))dx. 2 2πσ Calculer les moments de X, c’est-à-dire les E[Xk ] pour k ∈ N. Exercice 2.— Fonction de répartition inverse Soit U une variable aléatoire uniforme sur ]0, 1[ et µ une mesure de probabilité sur R. Soit F : R ∪ {−∞, +∞} → [0, 1] la fonction de répartition de µ, définie pour t réel par F(t) = µ(] − ∞, t]), et prolongée en −∞ et en +∞ en posant F(−∞) = 0 et F(+∞) = 1. I. Cas bijectif 1. Caractériser en termes probabilistes la surjectivité de F. 2. Caractériser en termes probabilistes l’injectivité de F. 3. Supposant F bijective, démontrer que F−1 (U) a pour loi µ. II. Cas général On définit sur [0, 1] la fonction G : x → 7 sup{t : F(t) < x} à valeurs dans R ∪ {−∞, +∞} (en utilisant la convention habituelle sup ∅ = −∞). 1. Démontrer que G(]0, 1[) ⊂ R, et montrer que G est continue à gauche. 2. Montrer que, si F est bijective, alors G est son inverse. 3. Démontrer, en toute généralité, que G(U) est de loi µ. Remarque : On a vu dans l’exercice 5 du TD3 qu’à partir d’une infinité de lancers de pile ou face, on pouvait obtenir une variable aléatoire uniforme sur ]0, 1[. On vient donc de démontrer que n’importe quelle loi réelle peut être réalisée à partir d’une pièce de monnaie équilibrée. Noter la portée algorithmique de cette remarque. Exercice 3.— Être ou ne pas être la transformée de Fourier d’une mesure de probabilité. I. Le critère de Polya Soit ϕ une fonction positive sur R, paire, telle que ϕ(0) = 1, limt→+∞ ϕ(t) = 0 et ϕ est décroissante convexe sur R+ . On veut montrer que ϕ est la transformée de Fourier d’une mesure de probabilité. 1. Montrer que pour tout s > 0, la fonction ϕs : t 7→ max{0, 1−| st |} vérifie les hypothèses de l’énoncé, et est la transformée de Fourier d’une mesure de probabilité que l’on explicitera. 2. Montrer que ϕ admet une dérivée à droite ϕ0 en tout point de ]0, +∞[. Montrer que ϕ0 est continue à droite et croissante. 3. Montrer qu’il existe une mesure positive µ sur ]0, +∞[ telle que pour tous réels strictement positifs a et b vérifiant a < b, on a µ(]a, b]) = ϕ0 (b) − ϕ0 (a). 4. Soit ν la mesure donnée par dν(s) = sdµ(s). Montrer que pour t > 0, on a Z ∞ ϕs (t)dν(s). ϕ(t) = 0 En déduire que ν est une mesure de probabilité. 5. Conclure. II. Application α On considère la fonction t 7→ e−|t| pour α > 0. 1. Montrer que si α ∈]0, 1] ∪ {2}, alors elle est la transformée de Fourier d’une mesure de probabilité. α 2. Montrer que t 7→ e−|t| n’est pas la transformée de Fourier d’une mesure de probabilité si α > 2. On pourra utiliser sans justification le résultat de l’exercice 6 du TD2. α Remarque : En fait, t 7→ e−|t| est la transformée de Fourier d’une mesure de probabilité pour tout α ∈]0, 2], et la mesure de probabilité correspondante est appelée mesure α-stable. L3 - Intégration 2 - Probabilités 2013-2014 : TD 5 Markov, Tchebychev et moments des variables aléatoires Exercice 1.— L’inégalité de Tchebychev est-elle optimale ? 1. Oui. Montrer que si a > 0, alors il existe une variable aléatoire réelle X de variance finie non-nulle telle que h i Var(X) P |X − E[X]| ≥ a = . a2 2. Non. Démontrer que si X est une variable aléatoire de carré sommable, alors h i a2 P |X − E[X]| ≥ a −→ 0. a→+∞ 3. Presque. Montrer que, pour tout ε > 0, il existe une variable aléatoire réelle X de carré intégrable telle que h i a2+ε P |X − E[X]| ≥ a −→ ∞. a→+∞ Exercice 2.— Proportion d’urnes vides Soit (rn )n≥1 une suite de nombres entiers telle que rn /n converge vers une constante c > 0. Pour n donné, on se donne n urnes et rn boules. On place chaque boule, successivement, dans une urne choisie uniformément au hasard. On note Nn le nombre d’urnes laissées vides. Montrer que pour tout ε > 0, la probabilité que Nn /n diffère de la valeur déterministe e−c de plus de ε, tend vers 0 quand n → ∞. Remarque : D’après une terminologie à venir du cours, la suite de variables aléatoires Nn /n converge en probabilité vers e−c . Exercice 3.— Processus de Bienaymé On note T l’arbre binaire enraciné défini formellement comme suit : T est l’ensemble des mots finis définis sur l’alphabet {0, 1} et un mot m0 est dit père d’un mot m si m est formé de m0 suivi d’une unique lettre. L’ensemble T étant en bijection avec N, d’après le TD 3, on peut tirer X une variable aléatoire à valeurs dans {0, 1}T et de loi Ber(p)T , où p ∈ [0, 1]. La variable X étant tirée, on définit le mot vide comme vivant. Récursivement, on définit comme vivant tout individu m dont le père est vivant et l’étiquette Xm égale à 1. Si un individu n’est pas décrété vivant au bout d’un nombre fini d’étapes précédentes, il est dit mort. Pour n entier naturel, on note Nn la variable aléatoire “nombre d’individus vivants de la génération n”. 1. On suppose que p < 1/2. Montrer que l’espérance de Nn tend vers 0. En déduire que, presque sûrement, l’ensemble des individus vivants est fini. 2. On suppose désormais que p > 1/2. Pour n ∈ N, calculer explicitement les moments d’ordre 1 et 2 de la variable aléatoire Nn définie comme “nombre d’individus vivants de la génération n”. Montrer que infn E[Nn ]2 /E[N2n ] > 0. En déduire que la probabilité que l’ensemble des individus vivants soit infini est strictement positive. 1 Exercice 4.— Droite de régression Soient X et Y des variables aléatoires réelles de carré intégrable définies sur un espace de probabilité (Ω, F , P). On suppose la variance de Y strictement positive. Montrer que la meilleure approximation de X dans L2 (Ω, F , P) par une fonction affine de Y est Z = E[X] + Cov(X, Y) (Y − E[Y]). Var(Y) Exercice 5.— Le problème des moments, variable bornée. 1. Soit X une variable aléatoire réelle bornée. Montrer que sa fonction caractéristique est une série entière de rayon de convergence infini. 2. En déduire que la loi d’une variable réelle bornée est caractérisée par ses moments. Exercice 6.— Le problème des moments 1. On considère la fonction f : R∗+ → R définie par ! sin(2π ln x) −(ln x)2 f (x) = exp . √ 2 x 2π Pour k ∈ N, calculer R xk f (x)dx. 2. La loi d’une variable aléatoire réelle de signe constant dont les moments sont tous finis est-elle caractérisée par ses moments ? 2 L3 - Intégration 2 - Probabilités 2013-2014 : TD 6 Indépendance Exercice 1.— Échauffement 1 : autour de la défition d’indépendance 1. Soit A, B, C 3 événements. On suppose P[A ∩ B ∩ C] = P[A]P[B]P[C]. Est-ce que A, B et C sont indépendants ? 2. On suppose que A et c B sont deux événements indépendants. Est-ce que A et B sont indépendants ? 3. Soit X1 , . . . , Xn des variables aléatoires à valeurs dans des espaces mesurables (E1 , E1 ), . . . (En , En ). Montrer que X1 , . . . , Xn sont indépendantes si et seulement si pour tout 1 ≤ k ≤ n − 1, la variable aléatoire Xk+1 est indépendante de la variable aléatoire (X1 , . . . , Xk ). Exercice 2.— Échauffement 2 : fonction de répartition et densité Soit F la fonction de répartition d’une variable aléatoire réelle X. 1. On suppose F de classe C 1 . Montrer que X est à densité et calculer celle-ci. 2. On suppose F continue. Est-ce que X est à densité ? Exercice 3.— Maximum de variables à densité Soit X, Y deux variables aléatoires réelles indépendantes et à densité. Montrer que max (X, Y) est à densité et calculer celle-ci. Exercice 4.— Une condition forte Soient X et Y deux hvariables i aléatoires indépendantes, à valeurs dans h [0, 1] . i On suppose que P X ≤ Y = 1. Montrer qu’il existe a ∈ R tel que P X ≤ a ≤ Y = 1. Exercice 5.— Indépendance et variables à densité 1. Soit m = (m1 , . . . , md ) ∈ Rd , σ > 0. On considère une variable aléatoire gaussienne 1 X = (X1 , . . . , Xd ) dans Rd , de moyenne m et de matrice de variance-covariance σ2 Id . Montrer, sans utiliser la fonction caractéristique, que X1 , . . . , Xd sont indépendantes et déterminer leurs lois. 2. Soit U une variable de loi exponentielle de paramètre 1 et soit V une variable uniforme sur l’intervalle [0, 2π[. On suppose que U et V sont indépendantes. Montrer √ que les variables aléatoires X et Y définies par (X, Y) = U(cos(V), sin(V)) sont indépendantes et calculer leurs lois. 1. On rappelle, que dans ce cas, la loi de X admet pour densité par rapport à la mesure de Lebesgue kx − mk2d 2 −d/2 1(x1 , . . . , xd ) = (2πσ ) exp − 2σ2 1 Exercice 6.— Formule d’Euler La fonction ζ de Riemann est définie pour s > 1 par ζ(s) = +∞ X n−s . On munit N∗ de la n=1 tribu totale P(N∗ ) et de la mesure de probabilité P définie par : ∀ A ∈ P(N∗ ), P(A) = 1 X −s n . ζ(s) n∈A Pour p premier, on pose A(p) = pN∗ l’événement « n est multiple de p ». 1. Justifiez que P est bien une mesure de probabilité. 2. Montrer que pour p1 , . . . , pk premiers distincts, les évenements A(p1 ), . . . , A(pk ) sont indépendants. 3. Montrer la formule d’Euler ! Y 1 1 = 1− s . ζ(s) p premier p Exercice 7.— Mesure uniforme sur un groupe Soit G un groupe fini. Soit X et Y deux variables aléatoires indépendantes à valeurs dans G. On pose Z := XY, le produit dans G des éléments aléatoires X et Y. Montrer que si X est uniforme, alors Z l’est aussi. Prouver le même résultat dans le cas où G n’est pas un groupe fini, mais R/Z ; “uniforme” signifiera dans ce cadre “distribué suivant la mesure de Lebesgue sur [0, 1[”. 2 L3 - Intégration 2 - Probabilités 2013-2014 : TD 7 Lois du 0-1... y compris le lemme de Borel-Cantelli et la loi des grands nombres ! Exercice 1.— Échauffement Soit α > 0, et soit Zn une suite de variables aléatoires indépendantes de lois données par P(Zn = 1) = 1 1 et P(Zn = 0) = 1 − α . α n n Montrer que Zn → 0 dans L1 , mais que presque sûrement, 1 si α ≤ 1 lim sup Zn = 0 si α > 1. n→∞ Exercice 2.— Plus longue suite de piles consécutifs Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi de Bernoulli de paramètre 1/2. Pour n ≥ 1, on note Pn = sup{k ≥ 1, Xn = Xn+1 = · · · = Xn+k−1 = 1}, où sup ∅ = 0, et Rn = sup{P1 , . . . , Pn } la plus longue suite de 1 “démarrée avant l’instant n + 1”. Dans les deux premières questions, ε est quelconque dans (0, 1). 1. Calculer P(Pn ≥ k) pour n ≥ 1 et k ≥ 0. En appliquant ce calcul à kn = b(1+ε) log2 (n)c, montrer que p.s., Rn ≤ 1 + ε. lim sup log2 (n) n→∞ 2. Calculer, pour k ≥ 1 et l ≥ 1, la probabilité de l’événement {Pik+1 < k pour tous i = 0, . . . , l}. En l’appliquant à kn = b(1 − ε) log2 (n)c et à ln = b(n − 1)/kn c, montrer que presque sûrement, pour n assez grand, on a Rn ≥ kn . 3. En déduire que Rn est presque sûrement équivalent à log2 (n) quand n → ∞. Exercice 3.— Marche aléatoire simple sur N Soit (Xn )n≥1 une suite de variables aléatoires i.i.d. telle que P(X1 = 1) = P(X1P= −1) = 1/2. On définit la marche aléatoire simple (Sn )n≥0 sur N par S0 = 0 et Sn := | nk=1 Xk | pour n ≥ 1. 1. Montrer que la suite (Sn ) est presque sûrement non-bornée. 2. On définit, pour k ≥ 0, l’instant Tk := inf{n ≥ 0, Sn = k}, presque sûrement fini. Montrer que l’événement {∃n ∈ [Tk , T2k [, Sn = 0} est indépendant de (Sn )n≤Tk , et déterminer sa probabilité. 3. Montrer que presque sûrement, la suite (Sn ) passe une infinité de fois par 0. 1 Exercice 4.— Théorème limite et convergence d’intégrale Déterminer la loi d’une somme de n variables exponentielles de paramètres 1 indépendantes, puis déterminer la limite de Z ∞ n x −x x f e dx, n! n 0 pour f fonction continue bornée, lorsque n tend vers l’infini. Exercice 5.— Marche aléatoire exponentielle Soit (Ui ) une suite de variables aléatoires i.i.d. telle que P(Ui = 2) = 1 − P(Ui = 21 ) = p. On définit par récurrence X0 = 1 et pour n ≥ 1, Xn = Un Xn−1 . Les Xn représentent le cours d’une action au temps n qui peut à chaque étape doubler avec probabilité p ou voir sa valeur divisée par 2 avec probabilité 1 − p. 1. Calculer l’espérance et la variance de Xn , et déterminer péq tel que EXn est constamment égale à 1 pour p = péq . 2. Montrer qu’il existe une valeur p0 ∈]péq , 1[ telle que Xn converge vers 0 p.s. si p < p0 tandis que Xn diverge vers l’infini p.s. si p > p0 . Et pour p = p0 ? On cherche à devenir infiniment riche dans des cas un peu moins favorables que p > p0 . 3. On définit maintenant Zn par Z0 = 1 et pour n ≥ 1, 1 Zn = (U2n−1 + U2n )Zn−1 . 2 (a) Interpréter le processus Zn comme évolution de sa fortune si l’on suit un certain schéma d’investissement. Calculer EZn . (b) Déterminer la loi de Vn = 12 (U2n−1 + U2n ). (c) Démontrer qu’il existe une valeur p1 ∈]péq , p0 [ tel que Zn tend vers l’infini p.s. dès que p > p1 . 4. Montrer que pour tout p > péq , on peut définir une stratégie telle que sa fortune tende vers l’infini presque-sûrement. Cela reste-t-il possible si p ≤ péq ? 2 L3 – Intégration 2 - Probabilités 2013-2014 DM2 Exercice 1.— Théorème des trois séries de Kolmogorov Soit (XP n )n≥1 une suite de variables aléatoires réelles indépendantes. Pour n ≥ 1, on pose n Sn = k=1 Xk . On suppose, sauf dans la dernière question, que les variables Xn sont d’espérance nulle et de variance finie Var(Xn ) = un , où (un ) est le terme général d’une série convergente. On se propose d’étudier la convergence presque sûre de la suite Sn . 1. Soit c une constante strictement positive quelconque, et m ≥ 0. Justifier l’inégalité suivante ∞ 1 X 1 2 uk . P(|Sn − Sm | ≥ c) ≤ 2 E[(Sn − Sm ) ] ≤ 2 c c k=m+1 ∀n > m, (1) 2. On introduit Tm,c := inf{k > m, |Sk − Sm | ≥ c}, avec la convention inf ∅ = +∞. Montrer que l’on a, pour n ≥ k > m, P(Tm,c = k) ≤ 1 1 E[(Sk − Sm )2 1{Tm,c =k} ] ≤ 2 E[(Sn − Sm )2 1{Tm,c =k} ]. 2 c c 3. En déduire l’amélioration suivante de l’inégalité (1) : ∞ 1 X uk . P(∃k > m, |Sk − Sm | ≥ c) ≤ 2 c k=m+1 4. Montrer que la suite (Sn ) est presque sûrement de Cauchy donc convergente. 5. Dans cette question les hypothèses d’intégrabilité et de moments de la suite (Xn ) sont remplacées par les hypothèses suivantes : P (a) P(|Xn | > 1) < ∞. (b) La série des E[Xn 1|Xn |≤1 ] converge P (c) Var(Xn 1|Xn |≤1 ) < ∞. Montrer que la suite (Sn ) est encore presque sûrement convergente. Remarque : Le théorème des trois séries de Kolmogorov dit que la suite (Sn ) converge si et seulement si les trois séries introduites dans la question 5 sont convergentes. Par ailleurs, le nombre 1 qui apparaît dans chacune de ces séries pourrait être remplacé par un nombre réel strictement positif quelconque. Exercice 2.— Percolation Soit d ≥ 1. On note Ad l’ensemble des couples {u, v}, où u et v sont deux points de Zd tels que kx − yk1 = 1. On appelle chemin auto-évitant une application π : I → Zd telle que – I est N ou de la forme {0, . . . , n} ; – i ∈ I, i + 1 ∈ I ⇒ {π(i), π(i + 1)} ∈ A ; – π est injective. Un chemin auto-évitant π est dit de longueur n si I = {0, . . . , n}, infini si I = N. Pour p ∈ [0, 1], on prend une suite (Xa )a∈Ad de variables aléatoires indépendantes de Bernoulli de paramètre p. À valeurs fixées des (Xa ), un chemin auto-évitant π est dit ouvert si ∀i, X{π(i),π(i+1)} = 1. 1. Soient p > 0 et d ≥ 1. Montrer que presque sûrement, pour tout n ≥ 0 il existe un (et même une infinité) chemin auto-évitant ouvert de longueur n. 2. On note θd (p) la probabilité qu’il existe un chemin auto-évitant infini ouvert partant du vecteur nul. Vérifier que θd (p) est bien définie. 3. Montrer que θ1 (p) = 0 pour tout p < 1. 4. Soit p ∈ [0, 1] tel que θd (p) = 0. Montrer que presque sûrement, il n’existe aucun chemin auto-évitant infini ouvert. 5. On considère Cn l’ensemble des chemins auto-évitants π de longueur n et tels que 1 . π(0) = 0, vérifier que Card(Cn ) ≤ (2d)n . En déduire que θd (p) = 0 si p < 2d 6. (Question difficile) Montrer que, pour tout d ≥ 2, il existe p < 1 tel que θd (p) > 0. Remarque : On peut montrer que la fonction θd est une fonction croissante de p. En définissant pc (d) = sup{p / θd (p) = 0}, on obtient – pour tout p < pc (d), θd (p) = 0 ; – pour tout p > pc (d), θd (p) > 0. Le réel pc (d) est appelé la probabilité critique de Zd . La question 3 montre que pc (1) = 1. Le modèle devient plus intéressant en dimension d ≥ 2, où les questions 5 et 6 montrent que 0 < pc (d) < 1. On dit alors qu’il y a une transition de phase à pc (d). L3 - Intégration 2 - Probabilités 2013-2014 : TD 8 Convergence de variables aléatoires Exercice 1.— Il y a convergence et convergence 1. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, telle que pour tout n, Xn est une variable de Bernoulli de paramètre un ∈ [0, 1]. Pour quelles suites (un ) a-t-on : (a) Xn → 0 dans Lp , où p ∈ [1, ∞[. (b) Xn → 0 presque-sûrement. 2. Donner un exemple de suite de variables aléatoires convergeant vers 0 en probabilités mais pas presque-sûrement 3. Donner un exemple de suite convergeant presque sûrement mais pas dans L1 . 4. Les critères 1a et 1b restent-ils valables si l’on retire l’hypothèse d’indépendance ? Exercice 2.— Théorème de Bernstein-Weierstass Soit f une fonction continue de [0, 1] dans C. Le n-ième polynôme de Bernstein de f est ! n X n k k Bn : x 7→ x (1 − x)n−k f ( ). n k k=0 1. Exprimer Bn (x) à l’aide d’une variable aléatoire de loi binomiale de paramètres n et x. 2. En déduire le théorème de Bernstein-Weierstrass kBn − f k∞ → 0. Exercice 3.— Théorème limite et convergence d’intégrale Déterminer la loi d’une somme de n variables exponentielles de paramètre 1 indépendantes, puis déterminer la limite de Z ∞ xn−1 x f ( )e−x dx, (n − 1)! n 0 pour f fonction continue bornée, lorsque n tend vers l’infini. Exercice 4.— LFGN, cas non intégrable Soit (Xn )n≥1 une suite de v.a. réelles i.i.d. non intégrables, et soit Sn = Pn k=1 Xk . 1. Si l’on suppose de plus que X−1 = min(0, −X1 ) est intégrable, montrer que Sn /n tend vers +∞ presque sûrement. 2. Dans tous les cas, montrer que l’on a {Sn /n a une limite finie} ⊂ (lim sup{|Xn | ≥ n})c . et en déduire que (Sn /n)n≥1 diverge presque sûrement. 1 3. Plus généralement, montrer que presque sûrement, Sn /n n’est pas bornée. 4. On suppose maintenant que X1 et −X1 ont même loi (on dit que la loi de X1 est symétrique). Montrer que presque sûrement, sup Sn /n = +∞ et inf Sn /n = −∞. Exercice 5.— [Nombre de cycles d’une grande permutation aléatoire] Dans ce problème, on cherche à estimer le nombre de cycles que contient une grande permutation aléatoire. Pour n ≥ 1, on notera Sn le groupe des permutations de l’ensemble {1, .., n}, et Sn une variable aléatoire uniforme sur Sn . Cette permutation aléatoire s’écrit de manière unique comme produit de cycles à supports disjoints, et on note c(Sn ) le nombre de cycles dans cette écriture. Ce nombre est donc une variable aléatoire à valeurs comprises entre 1 (si Sn (ω) est un cycle) et n (si Sn (ω) est l’identité). On va montrer qu’en fait c(Sn ) est proche de log(n) lorsque n est grand. I : De Sn à Sn+1 ... Pour n ≥ 1, soit Φn l’application Φn : Sn × {1, ..., n + 1} → Sn+1 (σ, i) 7→ σ̃ ◦ (i (n + 1)), où (i (n + 1)) désigne la transposition échangeant i et (n + 1) (ou bien l’identité si i = n + 1), et où σ̃ est l’élément de Sn+1 laissant fixe n + 1 et agissant comme σ sur {1, ..., n}. 1. Montrer que Φn est une bijection. 2. Pour σ ∈ Sn et i ∈ {1, ..., n + 1}, exprimer c(Φn (σ, i)) en fonction de c(σ) et de i. II : Le processus (Xn )n≥1 . Soit (Un )n≥1 une suite de variables aléatoires indépendantes telles que Ui est uniforme sur {1, ..., i + 1}. Soit (Xn )n≥1 la suite de variables aléatoires telle que X1 est le seul élément de S1 , et, pour n ≥ 1, on a Xn+1 = Φn (Xn , Un ). 1. Montrer que c(Xn ) est une somme de variables aléatoires de Bernoulli indépendantes dont on précisera les paramètres. 2. Montrer que, pour n ≥ 1, les variables aléatoires Xn et Sn ont la même loi. 3. Calculer l’espérance et la variance de c(Sn ), puis montrer que c(Sn )/log(n) converge en probabilité vers 1. 2 L3 - Intégration 2 - Probabilités 2013-2014 : TD 9 Théorème central limite Exercice 1.— Échauffement 1. Soit (Xn )n≥1 suite de variables i.i.d. de loi N(0, 1). Montrer que la suite de terme Pune n 1 général n i=1 Xi eXi converge presque sûrement lorsque n tend vers l’infini vers une limite que l’on précisera. 2. Soit (Yn )n∈N une suite de variables i.i.d. de Bernoulli de paramètre p ∈ [0, 1]. On considère Sn = Y1 + · · · + Yn . Calculer la limite de P(Sn ∈ In ) quand n tend vers l’infini, lorsque (a) In = [0, an], où a ∈]0, 1[ ; √ √ (b) In = [pn − 4 n, pn − n] ; (c) In = [pn − n1/3 , pn]. Exercice 2.— Étude de suite On pose, pour n entier et α réel positif, Tn (α) = e −n bαnc k X n k=0 k! . 1. Soit X, Y deux variables de Poisson, de paramètres respectifs λ > 0 et µ > 0. Montrer que X + Y suit encore une loi de Poisson, dont on précisera le paramètre. 2. Montrer que lim Tn (α) = 0 si α < 1, et lim Tn (α) = 1 si α > 1. n→∞ n→∞ 3. Montrer que limn→∞ Tn (1) = 1 . 2 Exercice 3.— Lemme de Slutsky 1. Soit (Xn )n∈N une suite de variables aléatoires réelles convergeant en loi vers une constante c, et soit (Yn )n∈N une suite de variables aléatoires réelles convergeant en loi vers une variable aléatoire Y. Montrer que (Xn Yn )n∈N converge en loi vers cY, et que Xn + Yn converge en loi vers c + Y. 2. Soit (Zn )n∈N une suite de variables aléatoires réelles i.i.d. de moyenne nulle et telles que EZ21 < +∞. On pose n 1X Zk ∀n ∈ N, Mn = n n et Σ2n k=0 Montrer que 1X 2 = Zk n k=0 √ nMn L −→ N(0, 1) Σn n→∞ Ce résultat est utilisé en statistiques quand on ne connaît pas la variance σ2 et qu’on doit la remplacer par Σ2n , la “variance empirique”. 1 Exercice 4.— Loi stable dans L2 Une variable aléatoire réelle X est dite stable si pour tout entier n, il existe des réels an et bn telle qu’une somme de n copies indépendantes de X a même loi que an X + bn . Dans cet exercice, on s’intéresse au cas où X est de carré intégrable. 1. Soit e X = X−EX. Montrer que e X suit encore une loi stable, avec les réels an inchangés et les réels bn tous nuls. √ 2. Montrer que pour tout n, on a an = ± n, puis montrer que X est une variable gaussienne. 2 L3 - Intégration 2 - Probabilités 2013-2014 : TD 10 Vecteurs gaussiens Exercice 1.— Couper une gaussienne en deux Soient X et Y deux variables aléatoires gaussiennes réelles centrées réduites indépendantes. Démontrer que ! X X + Y (loi) X + Y ,X . = √ , √ 2 2 2 Exercice 2.— Convergence en loi et indépendance Soit (Xn , Yn ) une suite de variables aléatoires à valeurs dans Rd × Rd . On suppose que (Xn ) converge en loi, que (Yn ) converge en loi et que, pour tout n, les variables Xn et Yn sont indépendantes. Démontrer que la suite (Xn , Yn ) converge en loi. Peut-on retirer l’hypothèse d’indépendance ? Exercice 3.— Vecteur gaussien isotrope Soit X un vecteur gaussien dont la loi est invariante sous l’action du groupe orthogonal : si X est à valeurs dans Rd , cela signifie que, pour tout O ∈ O(d), les variables X et OX ont même loi. Montrer que X a une loi de la forme N(0, σ2 Id ). La réciproque est-elle vraie ? Exercice 4.— Étude asymptotique d’une marche aléatoire Soit (Xn ) une suite de v.a.i.i.d. de loi δ−12+δ1 . Pour n ∈ N, on pose Sn := X1 +· · ·+Xn . Montrer que P(Sn < 0 et S2n > 0) converge quand n tend vers l’infini et calculer la limite de cette suite. Exercice 5.— Suite de variables gaussiennes Soit (Xn ) une suite de variables aléatoires réelles gaussiennes. Montrer que si ces variables convergent dans L2 , c’est vers une variable gaussienne. Ce résultat demeure-t-il si on suppose que la convergence a seulement lieu en loi ? Exercice 6.— Régression linéaire Soit (Y1 , . . . , Yn , X) un vecteur gaussien. Montrer que la meilleure approximation L2 de X mesurable par rapport à (Y1 , . . . , Yn ) — c’est-à-dire la projection orthogonale de X sur L2 (Ω, σ(Y1 , . . . , Yn ), P) — est une fonction affine de (Y1 , . . . , Yn ). Montrer que ce n’est en général pas le cas si le vecteur n’est pas supposé gaussien. L3 - Intégration 2 - Probabilités 2013-2014 : TD 10 Théorème central limite Si X est une variable aléatoire réelle gaussienne centrée réduite, alors P(|X| < 1, 96) vaut environ 95%. Exercice 1.— Statistique et démographie En Suisse, entre 1871 et 1900, sont nés 1 359 670 garçons et 1 286 086 filles. Est-il raisonnable de penser que la probabilité de naître garçon ou fille est de 50% sur cette période ? Exercice 2.— Démonstration du TCL à la Lindeberg 1. On note C3b l’ensemble des fonctions de classe C3 sur R, bornées, et dont les trois premières dérivées sont bornées. Soit 1 une telle fonction. Montrer qu’il existe une constante C telle que : 1 00 0 2 ∀x, h ∈ R, R1 (x, h) := 1(x + h) − 1(x) − 1 (x)h − 1 (x)h ≤ C min h2 , |h|3 . 2 2. Soit (Xi ) une suite de variables réelles i.i.d. On suppose que EX1 = 0 et EX21 = 1. Soit (Yi ) une suite de variables i.i.d. de loi N(0, 1). On pose, pour f ∈ C3b , ! ! X1 + · · · + Xn Y1 + · · · + Yn In ( f ) = E f − Ef . √ √ n n Montrer qu’on peut réécrire In ( f ) sous la forme In ( f ) = n X k=1 ! ! Yk Xk E f Zk + √ − E f Zk + √ n n où Z1 , . . . , Zn sont des variables aléatoires qu’on exprimera en fonction des Xi et Yi . 3. Montrer qu’il existe des constantes C1 et C2 — indépendantes de k et n mais pouvant dépendre de f — telles que, pour tout ε > 0, ! Yk C1 ER f Zk , √ ≤ 3/2 n n ! Xk C2 ER f Zk , √ ≤ ε + EX2k 1|Xk |≥εn n n 4. Déduire des deux questions précédentes que, pour tout f ∈ C3b , on a lim |In ( f )| = 0. n→∞ 5. Démontrer le théorème central limite unidimensionnel.