L3 - Intégration 2 - Probabilités 2013

publicité
L3 - Intégration 2 - Probabilités
2013-2014 : TD 1
Transformée de Fourier
Exercice 1.— Premiers exemples de transformées de Fourier
Calculer les transformées de Fourier des fonctions suivantes :
f = 1[a,b]
1 : x 7→ exp(−cx)1R+ (x),
et
où les réels a, b et c vérifient a < b et c > 0.
Exercice 2.— Des séries de Fourier à la transformée de Fourier...
On rappelle que le n-ième coefficient de Fourier d’une fonction T-périodique f , intégrable
sur sa période, est défini par
1
cn ( f ) :=
T
Z
T/2
f (x)e−i
2πnx
T
dx.
−T/2
Soit f ∈ L1 (R). À T > 0, on associe la fonction T-périodique fT qui coïncide avec f sur
] − T/2, T/2]. Montrer que pour tout λ ∈ R, on a
TcbλTc ( fT ) −→ fˆ(−2πλ).
T→∞
Exercice 3.— Transformée de Fourier d’une fonction radiale
Soit f ∈ L1 (Rd ) une fonction radiale, au sens où il existe une fonction mesurable 1 de R+
dans R telle que
∀x ∈ Rd ,
f (x) = 1(|x|),
où |x| désigne la norme euclidienne de x. Montrer que sa transformée de Fourier fˆ est
également radiale.
Exercice 4.— Autre preuve de Riemann-Lebesgue
Le théorème de Riemann-Lebesgue affirme que pour toute fonction f ∈ L1 (Rd ), sa
transformée de Fourier fˆ(ξ) tend vers 0 lorsque |ξ| → ∞.
1. Montrer que le théorème est valide pour f fonction indicatrice d’un pavé de Rd .
Ici, un pavé désigne un produit de segments.
2. En déduire le théorème pour toute f ∈ L1 (Rd ) par linéarité de la transformée de
Fourier et densité dans L1 (Rd ) des fonctions combinaisons linéaires d’indicatrices
de pavés. On détaillera bien l’argument.
1
Exercice 5.— Espace de Schwartz
L’espace de Schwartz est défini par
∞
d
k
S := f ∈ C (R ), ∀k ∈ N, ∀α multi-indice, |x| Dα f (x) −→ 0 ,
|x|→∞
où Dα f désigne la dérivée partielle de f par rapport au multi-indice α. Montrer que
l’espace de Schwartz est stable par la transformée de Fourier, au sens où
Ŝ := { fˆ, f ∈ S} ⊂ S.
Montrer qu’on a en fait Ŝ = S.
Remarque : Cette remarquable propriété de stabilité fait de cet espace de Schwartz un espace de
travail souvent très agréable à manipuler.
Exercice 6.— Convolution dans différents espaces Lp
Soient p, q, et r dans [1, +∞] vérifiant 1/p + 1/q − 1/r = 1. On cherche à montrer que le
produit de convolution de f ∈ Lp (R) avec 1 ∈ Lq (R) est bien défini dans Lr (R), et vérifie
l’inégalité suivante due à Young :
k f ∗ 1kr ≤ k f kp k1kq .
(1)
1. Préliminaires
(a) Montrer l’inégalité d’Hölder à trois paramètres : si f ∈ La (R), 1 ∈ Lb (R) et
h ∈ Lc (R), avec 1/a + 1/b + 1/c = 1, alors f 1h ∈ L1 (R) et
k f 1hk1 ≤ k f ka k1kb khkc .
(b) Montrer que l’on peut se ramener au cas où les fonctions f et 1 sont à valeurs
positives. Alors la convolée f ∗ 1 est bien définie comme fonction mesurable
à valeurs dans R+ ∪ {+∞}, et l’on doit juste montrer que (1) est bien vérifiée.
C’est ce qu’on démontre dans la question 2.
2. On suppose f et 1 positives.
(a) Montrer que l’on a
"
kf ∗
1krr
=
( f ∗ 1)r−1 (x) f (y)1(x − y)dxdy.
R2
(b) En observant que les exposants conjugués p0 = p/(p − 1) et q0 = q/(q − 1)
vérifient 1/p0 + 1/q0 + 1/r = 1 et en écrivant
( f ∗ 1)r−1 = ( f ∗ 1)r(1/p +1/q ) ,
0
f = f p(1/q +1/r) ,
0
1 = 1q(1/p +1/r) ,
0
prouver que l’on a
0
k f ∗ 1krr ≤ k f ∗ 1kr−1
r k f kp k1kq .
(c) Conclure.
0
Remarque : Ce cas recouvre les cas de convolution Lp − Lp ainsi que L1 − Lp ... Noter toutefois
qu’en général, il faut avoir 1/p + 1/q ≥ 1 pour que le produit de convolution soit bien défini.
2
L3 - Intégration 2 - Probabilités
2013-2014 : TD 2
Transformée de Fourier (bis)
Exercice 1.— Calculs d’intégrales
Dans le premier TD, ont été calculées les transformées de Fourier des fonctions suivantes :
f = 1[a,b]
1(x) = exp(−cx)1R+ (x),
et
où les réels a, b et c vérifient a < b et c > 0. Déduire de ces calculs les valeurs des intégrales
suivantes :
Z
Z
sin2 (x)
1
dx et
dx.
2
2
x
R
R 1+x
Exercice 2.— Uniforme continuité d’une transformée de Fourier
Soit µ une mesure signée sur R. Démontrer que la transformée de Fourier de µ est
uniformément continue.
Exercice 3.— Algèbres associatives unifères ?
L’espace L1 (R) est une algèbre pour la convolution. Il en est de même pour l’espace des
mesures signées. Ces algèbres sont-elles associatives ? Admettent-elles une unité ?
Exercice 4.— Formule sommatoire de Poisson
Soit f : R → C de classe C1 . On suppose qu’il existe C tel que
∀x ∈ R, | f (x)| + | f 0 (x)| ≤
C
.
1 + x2
P
P
1. Montrer que les séries n∈Z f (n) et n∈Z fˆ(2πn) sont absolument
convergentes et
P
de même somme. (On pourra justifier l’existence de x 7→ n∈Z f (x + n) et utiliser la
théorie des séries de Fourier.)
2. Application : Pour x > 0, montrer l’égalité suivante,
X
n∈Z
π X −2π|n|x π 1 + e−2πx
1
=
e
=
,
x2 + n2
x n∈Z
x 1 − e−2πx
et en déduire la valeur de
P
n≥1
1/n2 .
Exercice 5.— Résolution d’une équation différentielle
On rappelle que l’espace de Schwartz sur R est défini par
∞
k (l)
S := f ∈ C (R) : ∀k, l ∈ N, |x| f (x) −→ 0
|x|→∞
Soit f ∈ S. Démontrer qu’il existe une unique solution u dans S à l’équation
u00 − u = f
et l’exprimer comme produit de convolution d’une fonction explicite et de f .
1
Exercice 6.— Moments et dérivées
Soit µ une mesure de probabilité sur R.
1. Montrer que µ̂ est deux fois dérivable en 0 si et seulement si l’intégrale
est finie.
R
R
x2 dµ(x)
2. Pour tout entier
R positif pair k, montrer que µ̂ est k fois dérivable en 0 si et seulement
si l’intégrale R xk dµ(x) est finie.
R
Remarque : Par contre, µ̂ dérivable en 0 n’implique pas que l’intégrale R |x|dµ(x) est finie.
2
L3 - Intégration 2 - Probabilités
2013-2014 : TD 3
Espaces de probabilité
Exercice 1.— Votre premier couplage
Soit p ∈ [0, 1]. Soit X et Y deux variables aléatoires de Bernoulli de paramètre p définies sur
le même espace probabilisé. Que peut être la loi de la variable aléatoire Z := max(X, Y) ?
Exercice 2.— Modélisation
Un magicien vous présente un chapeau contenant deux cartes. L’une de ces cartes est
noire des deux côtés, l’autre a un côté noir et un côté rouge. Vous tirez une carte et
observez seulement son recto. Il est noir. Quelle est la probabilité que le verso de la carte
soit rouge ?
Exercice 3.— Les mains au poker
En tirant cinq cartes dans un jeu de cinquante-deux, quelle est la probabilité d’obtenir :
(a) . . . un brelan ?
(b) . . . une et une seule paire ?
(c) . . . deux paires ?
(d) . . . une suite ?
On tire toujours cinq cartes dans un jeu de cinquante-deux. On désigne par A l’événement
“avoir une suite” et B celui “avoir une couleur”. Comparer P[A|B] et P[A].
Exercice 4.— Perte de mémoire et loi exponentielle
On rappelle que, si λ ∈ R?+ , une variable aléatoire est dite exponentielle de paramètre λ
si elle a pour loi
λ exp(−λx)1R+ (x)dx.
Une variable aléatoire est dite exponentielle s’il existe un paramètre λ ∈ R?+ pour lequel
elle est exponentielle de paramètre λ.
1. Soit X une variable aléatoire exponentielle. Démontrer que, pour tous s et t réels
positifs, P[X > t + s|X > t] = P[X > s]. Expliquer en quoi il s’agit d’une propriété
de “perte de mémoire” de l’exponentielle.
2. Soit X une variable aléatoire à valeurs dans R?+ . On suppose que, pour tous s et
t réels positifs, P[X > t + s|X > t] = P[X > s]. Démontrer que X est une variable
exponentielle.
3. Soit f : R?+ → R?+ une fonction mesurable d’intégrale 1. Soit X de loi f (x)dx. Pour
R t f (x)
x réel, on note F(x) := P[X ≤ x]. Enfin, pour t positif, on note At := 0 1−F(x) dx. On
va étudier les propriétés de la variable aléatoire AX .
(a) Calculer
f (x)
1−F(x)
dans le cas où f est la densité d’une variable exponentielle.
(b) Dans le cas où f est continue, montrer que, pour tout x ∈ R+ ,
ε−1 P[X < x + ε|X > x] −→+
ε→0
1
f (x)
.
1 − F(x)
(c) On écrit G(t) = P(AX > t). Toujours dans le cas f continue, écrire une équation
différentielle vérifiée par G, et en déduire que AX est une variable exponentielle
de paramètre 1.
(d) On note t 7→ A−1
t la réciproque de la bijection que t 7→ At définit de R+ vers R+ .
Sans supposer f continue, démontrer la formule de changement de variable
suivante :
Z t
Z A−1
t
h(u) f (u)
du =
h(A−1
v )dv,
1
−
F(u)
−1
s
As
pour s < t réels positifs et h : R?+ → R+ mesurable. On pourra commencer par
traiter le cas des fonctions indicatrices.
R +∞
(e) Montrer que G vérifie l’équation intégrale G(t) = t G(u)du, pour tout t ≥ 0,
et en déduire que AX est une variable exponentielle de paramètre 1.
∗
Exercice 5.— Mesure de Lebesgue et mesure ( 12 δ1 + 12 δ0 )N
∗
Soit Ω = {0, 1}N , muni de la tribu produit. En cours, vous avez vu comment construire,
∗
à partir de la mesure de Lebesgue, la mesure produit P = ( 12 δ1 + 12 δ0 )N sur Ω, définie
comme étant l’unique mesure telle que, pour tout n ∈ N∗ et (ε1 , ...εn ) ∈ {0, 1}{1,...,n} , on ait
P(Aε1 ,...,εn ) = 2−n ,
où l’on a noté
∗
Aε1 ,...,εn = {(ε1 , ..., εn )} × {0, 1}N \{1,...,n} .
Dans cet exercice on propose la construction inverse, ou comment construire la mesure
de Lebesgue à partir de P.
P
1. On définit ψ de Ω dans [0, 1] par ψ(ω) = k∈N∗ ωk 2−k , où ωk désigne la k-ième
coordonnée de ω. Montrer que ψ est bien définie et mesurable (pour la tribu
borélienne sur [0, 1]).
2. Montrer la mesure de Lebesgue sur [0, 1] est la mesure image de P par ψ.
Remarque : Cet exercice permet, à partir d’une suite de pile ou face indépendants, de simuler
une variable aléatoire uniforme sur [0, 1].
Exercice 6.— D’autres mesures produit
∗
∗
Sur [0, 1)N , on définit la tribu borélienne produit B([0, 1))N comme étant la plus petite
tribu rendant mesurable toutes les applications coordonnées. On cherche à définir sur cet
∗
espace la mesure de Lebesgue produit λN , vérifiant, pour tout n ∈ N∗ et tous boréliens
A1 , ..., An ,
∗
∗
λN A1 × ... × An × B([0, 1))N \{1,...,n} = λn (A1 × ... × An ).
(1)
∗
1. Prouver qu’il existe au plus une mesure λN vérifiant (1).
∗
∗
∗
2. Déterminer une application mesurable f de {0, 1}N dans {0, 1}N ×N telle que
N∗
N∗ ×N∗
= ( 12 δ1 + 21 δ0 )
.
f∗ ( 12 δ1 + 12 δ0 )
∗
∗
On précisera les tribus utilisées et le sens de la mesure produit ( 12 δ1 + 21 δ0 )N ×N .
∗
∗
∗
3. Déterminer une application mesurable 1 de {0, 1}N ×N dans [0, 1)N telle que
N∗ ×N∗
1∗ ( 12 δ1 + 12 δ0 )
∗
vérifie (1). On a donc prouvé l’existence et l’unicité de la mesure λN .
∗
4. Application : Soit p ∈ [0, 1]. Définir Pp := (pδ1 + (1 − p)δ0 )N , mesure de Bernoulli
∗
∗
∗
produit sur {0, 1}N , en utilisant une application mesurable h de [0, 1)N dans {0, 1}N .
2
L3 - Intégration 2 - Probabilités
2013-2014 : TD 4
Événements, variables aléatoires, espérance.
Exercice 1.— La main à la pâte
Calculer la fonction caractéristique, l’espérance et la variance des variables aléatoires de
Bernoulli, binomiales, géométriques, de Poisson et exponentielles.
Exercice 2.— Des probabilités à l’espérance
Soit X une variable aléatoire positive. Soit p > 0. Montrer que
Z ∞
p
E[X ] =
pxp−1 P[X > x]dx.
0
Exercice 3.— Formule d’inclusion-exclusion
Soit E1 , . . . , En des événements définis sur un même espace probabilisé.
1. Établir la formule d’inclusion-exclusion, à savoir
 n



X
[ 
\ 
P  Ek  =
(−1)|S|−1 P  Ei  ,
k=1
i∈S
∅,S⊂[n]
où l’on a noté [n] = {1, . . . , n}.
2. Pour tout k ∈ N, on pose
Mk :=
X
S⊂[n]
1≤|S|≤k


\ 
(−1)|S|−1 P  Ei  .
i∈S
Montrer que, pour tout entier naturel k, on a les inégalités suivantes
 n

[ 
M2k ≤ P  Ek  ≤ M2k+1 .
k=1
Il s’agit des inégalités de Bonferroni.
Exercice 4.— Les chapeaux
Dans une soirée mondaine, chaque invité laisse son chapeau dans le hall d’entrée. Une
fois la soirée terminée, les n invités, éméchés, repartent chacun avec un chapeau “choisi
de manière totalement aléatoire”.
1. Modéliser mathématiquement la situation.
2. Comment évolue la probabilité de l’événement “aucun individu ne repart avec son
chapeau” quand n tend vers l’infini ?
3. Comment évolue la probabilité de l’événement “exactement k individus repartent
avec leur chapeau” quand n tend vers l’infini ? Discuter.
1
Exercice 5.— Approximations déterministes dans L1 et L2
Sot X une variable aléatoire réelle.
1. On suppose que X2 est intégrable. Déterminer la “variable aléatoire constante” la
plus proche de X dans L2 , ainsi que sa distance à X. (On justifiera l’existence et
l’unicité de cette “variable aléatoire constante”.)
2. Maintenant, X est seulement supposée intégrable. Soit F sa fonction de répartition.
Montrer que pour tout réel a,
Z a
Z ∞
E[|X − a|] =
F(x)dx +
(1 − F(x))dx.
a
−∞
Montrer que mina∈R E[|X − a|] est atteint, et dire pour quelles valeurs de a.
Exercice 6.— Une énigme
Le faux mage blanc de Miécrémée a pris 2000 mathématiciens en otages. Voulant tester
leur acuité intellectuelle, il leur propose un “jeu”.
“J’ai choisi une manière de vous numéroter entre 1 et 2000. Sachez que chaque
numéro n’est porté qu’une fois. J’ai rentré toutes ces données dans l’ordinateur
central. Au début du jeu, je vous mettrai chacun dans un cachot, de telle sorte
que vous ne pourrez plus communiquer. Vous aurez chacun à votre disposition
un petit ordinateur dont la seule fonctionnalité est la suivante : si vous rentrez
un nombre entre 1 et 2000, le nom de l’individu correspondant s’affiche. Chacun
d’entre vous aura 1000 tentatives. Si ne serait-ce que l’un d’entre vous ne voit
pas s’afficher son nom au cours de ses 1000 tentatives, vous serez tous exécutés.
Tout est clair ? Je vous laisse une semaine pour, ensemble, mettre au point une
stratégie. Alea jacta est.”
Les mathématiciens sont parvenus à trouver une stratégie leur garantissant une probabilité de survie supérieure à 30%. Êtes-vous capables d’en faire autant ?
2
L3 – Intégration 2 - Probabilités
2013-2014
DM 1
Exercice 1.— Moments de la gaussienne
Soit m ∈ R et σ ∈ R?+ . Soit X une variable aléatoire de loi
1
√
exp(−(x − m)2 /(2σ 2 ))dx.
2
2πσ
Calculer les moments de X, c’est-à-dire les E[Xk ] pour k ∈ N.
Exercice 2.— Fonction de répartition inverse
Soit U une variable aléatoire uniforme sur ]0, 1[ et µ une mesure de probabilité sur R.
Soit F : R ∪ {−∞, +∞} → [0, 1] la fonction de répartition de µ, définie pour t réel par
F(t) = µ(] − ∞, t]), et prolongée en −∞ et en +∞ en posant F(−∞) = 0 et F(+∞) = 1.
I. Cas bijectif
1. Caractériser en termes probabilistes la surjectivité de F.
2. Caractériser en termes probabilistes l’injectivité de F.
3. Supposant F bijective, démontrer que F−1 (U) a pour loi µ.
II. Cas général
On définit sur [0, 1] la fonction G : x →
7 sup{t : F(t) < x} à valeurs dans R ∪ {−∞, +∞}
(en utilisant la convention habituelle sup ∅ = −∞).
1. Démontrer que G(]0, 1[) ⊂ R, et montrer que G est continue à gauche.
2. Montrer que, si F est bijective, alors G est son inverse.
3. Démontrer, en toute généralité, que G(U) est de loi µ.
Remarque : On a vu dans l’exercice 5 du TD3 qu’à partir d’une infinité de lancers de pile
ou face, on pouvait obtenir une variable aléatoire uniforme sur ]0, 1[. On vient donc de
démontrer que n’importe quelle loi réelle peut être réalisée à partir d’une pièce de monnaie
équilibrée. Noter la portée algorithmique de cette remarque.
Exercice 3.— Être ou ne pas être la transformée de Fourier d’une mesure de
probabilité.
I. Le critère de Polya
Soit ϕ une fonction positive sur R, paire, telle que ϕ(0) = 1, limt→+∞ ϕ(t) = 0 et ϕ est
décroissante convexe sur R+ . On veut montrer que ϕ est la transformée de Fourier d’une
mesure de probabilité.
1. Montrer que pour tout s > 0, la fonction ϕs : t 7→ max{0, 1−| st |} vérifie les hypothèses
de l’énoncé, et est la transformée de Fourier d’une mesure de probabilité que l’on
explicitera.
2. Montrer que ϕ admet une dérivée à droite ϕ0 en tout point de ]0, +∞[. Montrer que
ϕ0 est continue à droite et croissante.
3. Montrer qu’il existe une mesure positive µ sur ]0, +∞[ telle que pour tous réels
strictement positifs a et b vérifiant a < b, on a µ(]a, b]) = ϕ0 (b) − ϕ0 (a).
4. Soit ν la mesure donnée par dν(s) = sdµ(s). Montrer que pour t > 0, on a
Z ∞
ϕs (t)dν(s).
ϕ(t) =
0
En déduire que ν est une mesure de probabilité.
5. Conclure.
II. Application
α
On considère la fonction t 7→ e−|t| pour α > 0.
1. Montrer que si α ∈]0, 1] ∪ {2}, alors elle est la transformée de Fourier d’une mesure
de probabilité.
α
2. Montrer que t 7→ e−|t| n’est pas la transformée de Fourier d’une mesure de probabilité
si α > 2. On pourra utiliser sans justification le résultat de l’exercice 6 du TD2.
α
Remarque : En fait, t 7→ e−|t| est la transformée de Fourier d’une mesure de probabilité
pour tout α ∈]0, 2], et la mesure de probabilité correspondante est appelée mesure α-stable.
L3 - Intégration 2 - Probabilités
2013-2014 : TD 5
Markov, Tchebychev et moments des variables aléatoires
Exercice 1.— L’inégalité de Tchebychev est-elle optimale ?
1. Oui. Montrer que si a > 0, alors il existe une variable aléatoire réelle X de variance
finie non-nulle telle que
h
i Var(X)
P |X − E[X]| ≥ a =
.
a2
2. Non. Démontrer que si X est une variable aléatoire de carré sommable, alors
h
i
a2 P |X − E[X]| ≥ a −→ 0.
a→+∞
3. Presque. Montrer que, pour tout ε > 0, il existe une variable aléatoire réelle X de
carré intégrable telle que
h
i
a2+ε P |X − E[X]| ≥ a −→ ∞.
a→+∞
Exercice 2.— Proportion d’urnes vides
Soit (rn )n≥1 une suite de nombres entiers telle que rn /n converge vers une constante c > 0.
Pour n donné, on se donne n urnes et rn boules. On place chaque boule, successivement, dans une urne choisie uniformément au hasard. On note Nn le nombre d’urnes
laissées vides. Montrer que pour tout ε > 0, la probabilité que Nn /n diffère de la valeur
déterministe e−c de plus de ε, tend vers 0 quand n → ∞.
Remarque : D’après une terminologie à venir du cours, la suite de variables aléatoires Nn /n
converge en probabilité vers e−c .
Exercice 3.— Processus de Bienaymé
On note T l’arbre binaire enraciné défini formellement comme suit : T est l’ensemble des
mots finis définis sur l’alphabet {0, 1} et un mot m0 est dit père d’un mot m si m est formé
de m0 suivi d’une unique lettre. L’ensemble T étant en bijection avec N, d’après le TD 3,
on peut tirer X une variable aléatoire à valeurs dans {0, 1}T et de loi Ber(p)T , où p ∈ [0, 1].
La variable X étant tirée, on définit le mot vide comme vivant. Récursivement, on définit
comme vivant tout individu m dont le père est vivant et l’étiquette Xm égale à 1. Si un
individu n’est pas décrété vivant au bout d’un nombre fini d’étapes précédentes, il est
dit mort.
Pour n entier naturel, on note Nn la variable aléatoire “nombre d’individus vivants de
la génération n”.
1. On suppose que p < 1/2. Montrer que l’espérance de Nn tend vers 0. En déduire
que, presque sûrement, l’ensemble des individus vivants est fini.
2. On suppose désormais que p > 1/2. Pour n ∈ N, calculer explicitement les moments
d’ordre 1 et 2 de la variable aléatoire Nn définie comme “nombre d’individus
vivants de la génération n”. Montrer que infn E[Nn ]2 /E[N2n ] > 0. En déduire que la
probabilité que l’ensemble des individus vivants soit infini est strictement positive.
1
Exercice 4.— Droite de régression
Soient X et Y des variables aléatoires réelles de carré intégrable définies sur un espace
de probabilité (Ω, F , P). On suppose la variance de Y strictement positive. Montrer que
la meilleure approximation de X dans L2 (Ω, F , P) par une fonction affine de Y est
Z = E[X] +
Cov(X, Y)
(Y − E[Y]).
Var(Y)
Exercice 5.— Le problème des moments, variable bornée.
1. Soit X une variable aléatoire réelle bornée. Montrer que sa fonction caractéristique
est une série entière de rayon de convergence infini.
2. En déduire que la loi d’une variable réelle bornée est caractérisée par ses moments.
Exercice 6.— Le problème des moments
1. On considère la fonction f : R∗+ → R définie par
!
sin(2π ln x)
−(ln x)2
f (x) =
exp
.
√
2
x 2π
Pour k ∈ N, calculer
R
xk f (x)dx.
2. La loi d’une variable aléatoire réelle de signe constant dont les moments sont tous
finis est-elle caractérisée par ses moments ?
2
L3 - Intégration 2 - Probabilités
2013-2014 : TD 6
Indépendance
Exercice 1.— Échauffement 1 : autour de la défition d’indépendance
1. Soit A, B, C 3 événements. On suppose P[A ∩ B ∩ C] = P[A]P[B]P[C]. Est-ce que
A, B et C sont indépendants ?
2. On suppose que A et c B sont deux événements indépendants. Est-ce que A et B
sont indépendants ?
3. Soit X1 , . . . , Xn des variables aléatoires à valeurs dans des espaces mesurables
(E1 , E1 ), . . . (En , En ). Montrer que X1 , . . . , Xn sont indépendantes si et seulement si
pour tout 1 ≤ k ≤ n − 1, la variable aléatoire Xk+1 est indépendante de la variable
aléatoire (X1 , . . . , Xk ).
Exercice 2.— Échauffement 2 : fonction de répartition et densité
Soit F la fonction de répartition d’une variable aléatoire réelle X.
1. On suppose F de classe C 1 . Montrer que X est à densité et calculer celle-ci.
2. On suppose F continue. Est-ce que X est à densité ?
Exercice 3.— Maximum de variables à densité
Soit X, Y deux variables aléatoires réelles indépendantes et à densité. Montrer que
max (X, Y) est à densité et calculer celle-ci.
Exercice 4.— Une condition forte
Soient X et Y deux hvariables
i aléatoires indépendantes, à valeurs dans
h [0, 1] . i
On suppose que P X ≤ Y = 1. Montrer qu’il existe a ∈ R tel que P X ≤ a ≤ Y = 1.
Exercice 5.— Indépendance et variables à densité
1. Soit m = (m1 , . . . , md ) ∈ Rd , σ > 0. On considère une variable aléatoire gaussienne 1
X = (X1 , . . . , Xd ) dans Rd , de moyenne m et de matrice de variance-covariance σ2 Id .
Montrer, sans utiliser la fonction caractéristique, que X1 , . . . , Xd sont indépendantes
et déterminer leurs lois.
2. Soit U une variable de loi exponentielle de paramètre 1 et soit V une variable uniforme sur l’intervalle [0, 2π[. On suppose que U et V sont indépendantes.
Montrer
√
que les variables aléatoires X et Y définies par (X, Y) = U(cos(V), sin(V)) sont
indépendantes et calculer leurs lois.
1. On rappelle, que dans ce cas, la loi de X admet pour densité par rapport à la mesure de Lebesgue


 kx − mk2d 
2 −d/2


1(x1 , . . . , xd ) = (2πσ )
exp −
2σ2 
1
Exercice 6.— Formule d’Euler
La fonction ζ de Riemann est définie pour s > 1 par ζ(s) =
+∞
X
n−s . On munit N∗ de la
n=1
tribu totale P(N∗ ) et de la mesure de probabilité P définie par :
∀ A ∈ P(N∗ ),
P(A) =
1 X −s
n .
ζ(s) n∈A
Pour p premier, on pose A(p) = pN∗ l’événement « n est multiple de p ».
1. Justifiez que P est bien une mesure de probabilité.
2. Montrer que pour p1 , . . . , pk premiers distincts, les évenements A(p1 ), . . . , A(pk ) sont
indépendants.
3. Montrer la formule d’Euler
!
Y
1
1
=
1− s .
ζ(s) p premier
p
Exercice 7.— Mesure uniforme sur un groupe
Soit G un groupe fini. Soit X et Y deux variables aléatoires indépendantes à valeurs
dans G. On pose Z := XY, le produit dans G des éléments aléatoires X et Y. Montrer que
si X est uniforme, alors Z l’est aussi. Prouver le même résultat dans le cas où G n’est
pas un groupe fini, mais R/Z ; “uniforme” signifiera dans ce cadre “distribué suivant la
mesure de Lebesgue sur [0, 1[”.
2
L3 - Intégration 2 - Probabilités
2013-2014 : TD 7
Lois du 0-1...
y compris le lemme de Borel-Cantelli et la loi des grands nombres !
Exercice 1.— Échauffement
Soit α > 0, et soit Zn une suite de variables aléatoires indépendantes de lois données par
P(Zn = 1) =
1
1
et P(Zn = 0) = 1 − α .
α
n
n
Montrer que Zn → 0 dans L1 , mais que presque sûrement,



1 si α ≤ 1
lim sup Zn = 

0 si α > 1.
n→∞
Exercice 2.— Plus longue suite de piles consécutifs
Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi de Bernoulli de paramètre 1/2. Pour n ≥ 1, on note
Pn = sup{k ≥ 1, Xn = Xn+1 = · · · = Xn+k−1 = 1},
où sup ∅ = 0, et Rn = sup{P1 , . . . , Pn } la plus longue suite de 1 “démarrée avant l’instant
n + 1”. Dans les deux premières questions, ε est quelconque dans (0, 1).
1. Calculer P(Pn ≥ k) pour n ≥ 1 et k ≥ 0. En appliquant ce calcul à kn = b(1+ε) log2 (n)c,
montrer que p.s.,
Rn
≤ 1 + ε.
lim sup
log2 (n)
n→∞
2. Calculer, pour k ≥ 1 et l ≥ 1, la probabilité de l’événement {Pik+1 < k pour tous
i = 0, . . . , l}. En l’appliquant à kn = b(1 − ε) log2 (n)c et à ln = b(n − 1)/kn c, montrer
que presque sûrement, pour n assez grand, on a Rn ≥ kn .
3. En déduire que Rn est presque sûrement équivalent à log2 (n) quand n → ∞.
Exercice 3.— Marche aléatoire simple sur N
Soit (Xn )n≥1 une suite de variables aléatoires i.i.d. telle que P(X1 = 1) = P(X1P= −1) = 1/2.
On définit la marche aléatoire simple (Sn )n≥0 sur N par S0 = 0 et Sn := | nk=1 Xk | pour
n ≥ 1.
1. Montrer que la suite (Sn ) est presque sûrement non-bornée.
2. On définit, pour k ≥ 0, l’instant Tk := inf{n ≥ 0, Sn = k}, presque sûrement fini.
Montrer que l’événement {∃n ∈ [Tk , T2k [, Sn = 0} est indépendant de (Sn )n≤Tk , et
déterminer sa probabilité.
3. Montrer que presque sûrement, la suite (Sn ) passe une infinité de fois par 0.
1
Exercice 4.— Théorème limite et convergence d’intégrale
Déterminer la loi d’une somme de n variables exponentielles de paramètres 1 indépendantes, puis déterminer la limite de
Z ∞ n x −x
x
f
e dx,
n! n
0
pour f fonction continue bornée, lorsque n tend vers l’infini.
Exercice 5.— Marche aléatoire exponentielle
Soit (Ui ) une suite de variables aléatoires i.i.d. telle que P(Ui = 2) = 1 − P(Ui = 21 ) = p.
On définit par récurrence
X0 = 1
et pour n ≥ 1,
Xn = Un Xn−1 .
Les Xn représentent le cours d’une action au temps n qui peut à chaque étape doubler
avec probabilité p ou voir sa valeur divisée par 2 avec probabilité 1 − p.
1. Calculer l’espérance et la variance de Xn , et déterminer péq tel que EXn est constamment égale à 1 pour p = péq .
2. Montrer qu’il existe une valeur p0 ∈]péq , 1[ telle que Xn converge vers 0 p.s. si p < p0
tandis que Xn diverge vers l’infini p.s. si p > p0 . Et pour p = p0 ?
On cherche à devenir infiniment riche dans des cas un peu moins favorables que p > p0 .
3. On définit maintenant Zn par
Z0 = 1
et pour n ≥ 1,
1
Zn = (U2n−1 + U2n )Zn−1 .
2
(a) Interpréter le processus Zn comme évolution de sa fortune si l’on suit un
certain schéma d’investissement. Calculer EZn .
(b) Déterminer la loi de Vn = 12 (U2n−1 + U2n ).
(c) Démontrer qu’il existe une valeur p1 ∈]péq , p0 [ tel que Zn tend vers l’infini p.s.
dès que p > p1 .
4. Montrer que pour tout p > péq , on peut définir une stratégie telle que sa fortune
tende vers l’infini presque-sûrement. Cela reste-t-il possible si p ≤ péq ?
2
L3 – Intégration 2 - Probabilités
2013-2014
DM2
Exercice 1.— Théorème des trois séries de Kolmogorov
Soit (XP
n )n≥1 une suite de variables aléatoires réelles indépendantes. Pour n ≥ 1, on pose
n
Sn =
k=1 Xk . On suppose, sauf dans la dernière question, que les variables Xn sont
d’espérance nulle et de variance finie Var(Xn ) = un , où (un ) est le terme général d’une
série convergente. On se propose d’étudier la convergence presque sûre de la suite Sn .
1. Soit c une constante strictement positive quelconque, et m ≥ 0. Justifier l’inégalité
suivante
∞
1 X
1
2
uk .
P(|Sn − Sm | ≥ c) ≤ 2 E[(Sn − Sm ) ] ≤ 2
c
c k=m+1
∀n > m,
(1)
2. On introduit Tm,c := inf{k > m, |Sk − Sm | ≥ c}, avec la convention inf ∅ = +∞.
Montrer que l’on a, pour n ≥ k > m,
P(Tm,c = k) ≤
1
1
E[(Sk − Sm )2 1{Tm,c =k} ] ≤ 2 E[(Sn − Sm )2 1{Tm,c =k} ].
2
c
c
3. En déduire l’amélioration suivante de l’inégalité (1) :
∞
1 X
uk .
P(∃k > m, |Sk − Sm | ≥ c) ≤ 2
c k=m+1
4. Montrer que la suite (Sn ) est presque sûrement de Cauchy donc convergente.
5. Dans cette question les hypothèses d’intégrabilité et de moments de la suite (Xn )
sont remplacées par les hypothèses suivantes :
P
(a)
P(|Xn | > 1) < ∞.
(b) La série des E[Xn 1|Xn |≤1 ] converge
P
(c)
Var(Xn 1|Xn |≤1 ) < ∞.
Montrer que la suite (Sn ) est encore presque sûrement convergente.
Remarque : Le théorème des trois séries de Kolmogorov dit que la suite (Sn ) converge si et
seulement si les trois séries introduites dans la question 5 sont convergentes. Par ailleurs,
le nombre 1 qui apparaît dans chacune de ces séries pourrait être remplacé par un nombre
réel strictement positif quelconque.
Exercice 2.— Percolation
Soit d ≥ 1. On note Ad l’ensemble des couples {u, v}, où u et v sont deux points de Zd tels
que kx − yk1 = 1. On appelle chemin auto-évitant une application π : I → Zd telle que
– I est N ou de la forme {0, . . . , n} ;
– i ∈ I, i + 1 ∈ I ⇒ {π(i), π(i + 1)} ∈ A ;
– π est injective.
Un chemin auto-évitant π est dit de longueur n si I = {0, . . . , n}, infini si I = N. Pour
p ∈ [0, 1], on prend une suite (Xa )a∈Ad de variables aléatoires indépendantes de Bernoulli
de paramètre p. À valeurs fixées des (Xa ), un chemin auto-évitant π est dit ouvert si
∀i, X{π(i),π(i+1)} = 1.
1. Soient p > 0 et d ≥ 1. Montrer que presque sûrement, pour tout n ≥ 0 il existe un
(et même une infinité) chemin auto-évitant ouvert de longueur n.
2. On note θd (p) la probabilité qu’il existe un chemin auto-évitant infini ouvert partant
du vecteur nul. Vérifier que θd (p) est bien définie.
3. Montrer que θ1 (p) = 0 pour tout p < 1.
4. Soit p ∈ [0, 1] tel que θd (p) = 0. Montrer que presque sûrement, il n’existe aucun
chemin auto-évitant infini ouvert.
5. On considère Cn l’ensemble des chemins auto-évitants π de longueur n et tels que
1
.
π(0) = 0, vérifier que Card(Cn ) ≤ (2d)n . En déduire que θd (p) = 0 si p < 2d
6. (Question difficile) Montrer que, pour tout d ≥ 2, il existe p < 1 tel que θd (p) > 0.
Remarque :
On peut montrer que la fonction θd est une fonction croissante de p. En définissant pc (d) =
sup{p / θd (p) = 0}, on obtient
– pour tout p < pc (d), θd (p) = 0 ;
– pour tout p > pc (d), θd (p) > 0.
Le réel pc (d) est appelé la probabilité critique de Zd . La question 3 montre que pc (1) = 1. Le
modèle devient plus intéressant en dimension d ≥ 2, où les questions 5 et 6 montrent que 0 <
pc (d) < 1. On dit alors qu’il y a une transition de phase à pc (d).
L3 - Intégration 2 - Probabilités
2013-2014 : TD 8
Convergence de variables aléatoires
Exercice 1.— Il y a convergence et convergence
1. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, telle que pour tout n,
Xn est une variable de Bernoulli de paramètre un ∈ [0, 1]. Pour quelles suites (un )
a-t-on :
(a) Xn → 0 dans Lp , où p ∈ [1, ∞[.
(b) Xn → 0 presque-sûrement.
2. Donner un exemple de suite de variables aléatoires convergeant vers 0 en probabilités mais pas presque-sûrement
3. Donner un exemple de suite convergeant presque sûrement mais pas dans L1 .
4. Les critères 1a et 1b restent-ils valables si l’on retire l’hypothèse d’indépendance ?
Exercice 2.— Théorème de Bernstein-Weierstass
Soit f une fonction continue de [0, 1] dans C. Le n-ième polynôme de Bernstein de f est
!
n
X
n k
k
Bn : x 7→
x (1 − x)n−k f ( ).
n
k
k=0
1. Exprimer Bn (x) à l’aide d’une variable aléatoire de loi binomiale de paramètres n
et x.
2. En déduire le théorème de Bernstein-Weierstrass
kBn − f k∞ → 0.
Exercice 3.— Théorème limite et convergence d’intégrale
Déterminer la loi d’une somme de n variables exponentielles de paramètre 1 indépendantes, puis déterminer la limite de
Z ∞
xn−1
x
f ( )e−x dx,
(n − 1)! n
0
pour f fonction continue bornée, lorsque n tend vers l’infini.
Exercice 4.— LFGN, cas non intégrable
Soit (Xn )n≥1 une suite de v.a. réelles i.i.d. non intégrables, et soit Sn =
Pn
k=1
Xk .
1. Si l’on suppose de plus que X−1 = min(0, −X1 ) est intégrable, montrer que Sn /n tend
vers +∞ presque sûrement.
2. Dans tous les cas, montrer que l’on a
{Sn /n a une limite finie} ⊂ (lim sup{|Xn | ≥ n})c .
et en déduire que (Sn /n)n≥1 diverge presque sûrement.
1
3. Plus généralement, montrer que presque sûrement, Sn /n n’est pas bornée.
4. On suppose maintenant que X1 et −X1 ont même loi (on dit que la loi de X1 est
symétrique). Montrer que presque sûrement, sup Sn /n = +∞ et inf Sn /n = −∞.
Exercice 5.— [Nombre de cycles d’une grande permutation aléatoire]
Dans ce problème, on cherche à estimer le nombre de cycles que contient une grande
permutation aléatoire. Pour n ≥ 1, on notera Sn le groupe des permutations de l’ensemble {1, .., n}, et Sn une variable aléatoire uniforme sur Sn . Cette permutation aléatoire
s’écrit de manière unique comme produit de cycles à supports disjoints, et on note c(Sn )
le nombre de cycles dans cette écriture. Ce nombre est donc une variable aléatoire à valeurs comprises entre 1 (si Sn (ω) est un cycle) et n (si Sn (ω) est l’identité). On va montrer
qu’en fait c(Sn ) est proche de log(n) lorsque n est grand.
I : De Sn à Sn+1 ...
Pour n ≥ 1, soit Φn l’application
Φn : Sn × {1, ..., n + 1} → Sn+1
(σ, i)
7→ σ̃ ◦ (i (n + 1)),
où (i (n + 1)) désigne la transposition échangeant i et (n + 1) (ou bien l’identité si i = n + 1),
et où σ̃ est l’élément de Sn+1 laissant fixe n + 1 et agissant comme σ sur {1, ..., n}.
1. Montrer que Φn est une bijection.
2. Pour σ ∈ Sn et i ∈ {1, ..., n + 1}, exprimer c(Φn (σ, i)) en fonction de c(σ) et de i.
II : Le processus (Xn )n≥1 .
Soit (Un )n≥1 une suite de variables aléatoires indépendantes telles que Ui est uniforme
sur {1, ..., i + 1}. Soit (Xn )n≥1 la suite de variables aléatoires telle que X1 est le seul élément
de S1 , et, pour n ≥ 1, on a Xn+1 = Φn (Xn , Un ).
1. Montrer que c(Xn ) est une somme de variables aléatoires de Bernoulli indépendantes dont on précisera les paramètres.
2. Montrer que, pour n ≥ 1, les variables aléatoires Xn et Sn ont la même loi.
3. Calculer l’espérance et la variance de c(Sn ), puis montrer que c(Sn )/log(n) converge
en probabilité vers 1.
2
L3 - Intégration 2 - Probabilités
2013-2014 : TD 9
Théorème central limite
Exercice 1.— Échauffement
1. Soit (Xn )n≥1
suite de variables i.i.d. de loi N(0, 1). Montrer que la suite de terme
Pune
n
1
général n i=1 Xi eXi converge presque sûrement lorsque n tend vers l’infini vers une
limite que l’on précisera.
2. Soit (Yn )n∈N une suite de variables i.i.d. de Bernoulli de paramètre p ∈ [0, 1]. On
considère Sn = Y1 + · · · + Yn . Calculer la limite de P(Sn ∈ In ) quand n tend vers
l’infini, lorsque
(a) In = [0, an], où a ∈]0, 1[ ;
√
√
(b) In = [pn − 4 n, pn − n] ;
(c) In = [pn − n1/3 , pn].
Exercice 2.— Étude de suite
On pose, pour n entier et α réel positif,
Tn (α) = e
−n
bαnc k
X
n
k=0
k!
.
1. Soit X, Y deux variables de Poisson, de paramètres respectifs λ > 0 et µ > 0.
Montrer que X + Y suit encore une loi de Poisson, dont on précisera le paramètre.
2. Montrer que lim Tn (α) = 0 si α < 1, et lim Tn (α) = 1 si α > 1.
n→∞
n→∞
3. Montrer que limn→∞ Tn (1) =
1
.
2
Exercice 3.— Lemme de Slutsky
1. Soit (Xn )n∈N une suite de variables aléatoires réelles convergeant en loi vers une
constante c, et soit (Yn )n∈N une suite de variables aléatoires réelles convergeant en
loi vers une variable aléatoire Y. Montrer que (Xn Yn )n∈N converge en loi vers cY, et
que Xn + Yn converge en loi vers c + Y.
2. Soit (Zn )n∈N une suite de variables aléatoires réelles i.i.d. de moyenne nulle et telles
que EZ21 < +∞. On pose
n
1X
Zk
∀n ∈ N, Mn =
n
n
et
Σ2n
k=0
Montrer que
1X 2
=
Zk
n
k=0
√
nMn L
−→ N(0, 1)
Σn n→∞
Ce résultat est utilisé en statistiques quand on ne connaît pas la variance σ2 et qu’on doit
la remplacer par Σ2n , la “variance empirique”.
1
Exercice 4.— Loi stable dans L2
Une variable aléatoire réelle X est dite stable si pour tout entier n, il existe des réels an
et bn telle qu’une somme de n copies indépendantes de X a même loi que an X + bn . Dans
cet exercice, on s’intéresse au cas où X est de carré intégrable.
1. Soit e
X = X−EX. Montrer que e
X suit encore une loi stable, avec les réels an inchangés
et les réels bn tous nuls.
√
2. Montrer que pour tout n, on a an = ± n, puis montrer que X est une variable
gaussienne.
2
L3 - Intégration 2 - Probabilités
2013-2014 : TD 10
Vecteurs gaussiens
Exercice 1.— Couper une gaussienne en deux
Soient X et Y deux variables aléatoires gaussiennes réelles centrées réduites indépendantes. Démontrer que
!
X X + Y (loi) X + Y
,X .
=
√ , √
2
2
2
Exercice 2.— Convergence en loi et indépendance
Soit (Xn , Yn ) une suite de variables aléatoires à valeurs dans Rd × Rd . On suppose que
(Xn ) converge en loi, que (Yn ) converge en loi et que, pour tout n, les variables Xn et
Yn sont indépendantes. Démontrer que la suite (Xn , Yn ) converge en loi. Peut-on retirer
l’hypothèse d’indépendance ?
Exercice 3.— Vecteur gaussien isotrope
Soit X un vecteur gaussien dont la loi est invariante sous l’action du groupe orthogonal :
si X est à valeurs dans Rd , cela signifie que, pour tout O ∈ O(d), les variables X et OX ont
même loi. Montrer que X a une loi de la forme N(0, σ2 Id ). La réciproque est-elle vraie ?
Exercice 4.— Étude asymptotique d’une marche aléatoire
Soit (Xn ) une suite de v.a.i.i.d. de loi δ−12+δ1 . Pour n ∈ N, on pose Sn := X1 +· · ·+Xn . Montrer
que P(Sn < 0 et S2n > 0) converge quand n tend vers l’infini et calculer la limite de cette
suite.
Exercice 5.— Suite de variables gaussiennes
Soit (Xn ) une suite de variables aléatoires réelles gaussiennes. Montrer que si ces variables
convergent dans L2 , c’est vers une variable gaussienne. Ce résultat demeure-t-il si on
suppose que la convergence a seulement lieu en loi ?
Exercice 6.— Régression linéaire
Soit (Y1 , . . . , Yn , X) un vecteur gaussien. Montrer que la meilleure approximation L2 de
X mesurable par rapport à (Y1 , . . . , Yn ) — c’est-à-dire la projection orthogonale de X sur
L2 (Ω, σ(Y1 , . . . , Yn ), P) — est une fonction affine de (Y1 , . . . , Yn ). Montrer que ce n’est en
général pas le cas si le vecteur n’est pas supposé gaussien.
L3 - Intégration 2 - Probabilités
2013-2014 : TD 10
Théorème central limite
Si X est une variable aléatoire réelle gaussienne centrée réduite, alors P(|X| < 1, 96) vaut
environ 95%.
Exercice 1.— Statistique et démographie
En Suisse, entre 1871 et 1900, sont nés 1 359 670 garçons et 1 286 086 filles. Est-il raisonnable de penser que la probabilité de naître garçon ou fille est de 50% sur cette
période ?
Exercice 2.— Démonstration du TCL à la Lindeberg
1. On note C3b l’ensemble des fonctions de classe C3 sur R, bornées, et dont les trois
premières dérivées sont bornées. Soit 1 une telle fonction. Montrer qu’il existe une
constante C telle que :
1 00
0
2
∀x, h ∈ R, R1 (x, h) := 1(x + h) − 1(x) − 1 (x)h − 1 (x)h ≤ C min h2 , |h|3 .
2
2. Soit (Xi ) une suite de variables réelles i.i.d. On suppose que EX1 = 0 et EX21 = 1.
Soit (Yi ) une suite de variables i.i.d. de loi N(0, 1). On pose, pour f ∈ C3b ,
!
!
X1 + · · · + Xn
Y1 + · · · + Yn
In ( f ) = E f
− Ef
.
√
√
n
n
Montrer qu’on peut réécrire In ( f ) sous la forme
In ( f ) =
n
X
k=1
!
!
Yk
Xk
E f Zk + √ − E f Zk + √
n
n
où Z1 , . . . , Zn sont des variables aléatoires qu’on exprimera en fonction des Xi et Yi .
3. Montrer qu’il existe des constantes C1 et C2 — indépendantes de k et n mais pouvant
dépendre de f — telles que, pour tout ε > 0,
!
Yk
C1
ER f Zk , √ ≤ 3/2
n
n
!
Xk
C2 ER f Zk , √ ≤
ε + EX2k 1|Xk |≥εn
n
n
4. Déduire des deux questions précédentes que, pour tout f ∈ C3b , on a
lim |In ( f )| = 0.
n→∞
5. Démontrer le théorème central limite unidimensionnel.
Téléchargement