Concentration de la mesure et inégalité de Sobolev logarithmique.

publicité
Concentration de la mesure et inégalité de Sobolev
logarithmique.
Stage de M1 encadré par Christophe Dupont.
Céline Abraham, septembre 2010.
1
Introduction.
On s’intéresse au rapport entre les mesures satisfaisant une inégalité de Sobolev logarithmique
d’une part, et la concentration de la mesure d’autre part.
Dans une première partie, on définit l’entropie et l’énergie puis les inégalités de Poincaré et de
Sobolev logarithmique. On expose aussi des propriétés de tensorisation de la variance et de
l’entropie. Ces inégalités sont cruciales, elles permettent de montrer, à l’aide du théorème
central limite, que la loi gaussienne vérifie les inégalités de Poincaré et de Sobolev
logarithmique.
Dans un second temps, on présente l’argument de Herbst qui fait le lien entre l’inégalité de
Sobolev logarithmique et une inégalité de concentration gaussienne pour les fonctions
lipschitziennes. La preuve consiste à étudier la transformée de Laplace λ 7→ E(eλF ) de la
fonction lipschitzienne F considérée.
Dans une dernière section, on fait le lien entre concentration gaussienne pour les fonctions
lipschitziennes et concentration gaussienne pour les mesures. Nous verrons qu’une mesure
satisfaisant l’inégalité de Sobolev logarithmique vérifie une propriété de concentration
gaussienne.
Les résultats présentés ont été empruntés à l’ouvrage collectif [A] et aux articles [C] et [L] . On
trouvera dans ces travaux une bibliographie plus étendue.
2
Table des matières
1 Inégalités de Poincaré et de Sobolev logarithmique.
1.1 Définitions de l’entropie et de l’énergie. . . . . . . . . . . . . . . . . . . . . . .
1.2 Définitions des inégalités de Poincaré et de Sobolev logarithmique. . . . . . . .
1.3 Tensorisation de la variance et de l’entropie. . . . . . . . . . . . . . . . . . . .
1.4 Inégalités de Poincaré et de Sobolev logarithmique pour la mesure gaussienne.
.
.
.
.
4
4
5
7
9
2 Concentration et inégalité de Sobolev logarithmique.
14
2.1 Argument de Herbst. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Concentration pour les moyennes empiriques. . . . . . . . . . . . . . . . . . . . . 19
3 Concentration de la mesure.
21
3.1 Inégalité de concentration gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Fonction de concentration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3 Concentration et fonctions lipschitziennes. . . . . . . . . . . . . . . . . . . . . . 25
3
1
Inégalités de Poincaré et de Sobolev logarithmique.
Soit (E, F , µ) un espace de probabilités.
Pour f : E →
R µ-intégrable l’espérance de f sous µ est
Eµ (f ) =
Z
f dµ.
E
La variance de f est
V arµ (f ) = Eµ ((f − Eµ (f ))2 ) = Eµ (f 2 ) − Eµ (f )2 .
1.1
Définitions de l’entropie et de l’énergie.
Définition : on définit l’entropie de f : E →
R+ par
Entµ (f ) = Eµ (f log(f )) − Eµ (f ) log(Eµ (f )).
R
Propriétés de l’entropie : * Pour toute f : E → + , Entµ (f ) > 0.
*On a Entµ (f ) = sup{g mesurable} {Eµ (f g), Eµ (eg ) = 1}.
Cette propriété sera utile pour démontrer la propriété de tensorisation de l’entropie.
Preuve : - La fonction
ϕ:
R∗+ → R
x 7→ x log(x)
est convexe car ϕ00 (x) = x1 > 0.
On applique l’inégalité de Jensen :
Eµ (ϕ(f )) > ϕ(Eµ (f )).
soit
Eµ (f log(f )) > Eµ (f ) log(Eµ (f )).
- On montre d’abord : pour u > 0 et v ∈
R, on a :
uv 6 u log(u) − u + ev .
Soit pour v fixé :
φv (u) = uv − u log(u) + u − ev .
On a :
φ0v (u) = v − log(u).
Donc φv atteint son maximum en ev et φv (ev ) = 0. Donc on a bien :
uv 6 u log(u) − u + ev .
Pour Eµ (f ) = 1, on applique cette inégalité à f et g, on obtient :
f g 6 f log(f ) − f + eg .
Alors :
Eµ (f g) 6 Eµ (f log(f )) = Entµ (f ).
De plus, si on pose g = log(f ), alors Eµ (eg ) = Eµ (f ) = 1.
Donc le sup est atteint.
Si Eµ (f ) > 0, on considère Eµf(f ) et on obtient le résultat souhaité par linéarité de l’espérance.
4
R
Rn, µ), on
Définition : pour E = n et f de classe C 1 dont le gradient ∇f est dans L2 (
définit l’énergie de f par :
εµ (f ) = Eµ (|∇f |2 ).
Pour E = {0, 1}, µ la loi de Bernoulli de paramètre p ∈]0, 1[ et f : E →
de f par :
εµ (f ) = p(1 − p)|f (0) − f (1)|2 .
R, on définit l’énergie
Propriétés de l’énergie : * εµ (f ) est toujours positive comme espérance d’une fonction
positive.
*εµ est invariante par translation et homogène d’ordre 2.
*Pour µ mesure gaussienne sur n , ou µ mesure de Bernoulli sur {0, 1}, une fonction d’énergie
nulle est constante.
Preuve : -Pour µ mesure de Bernoulli sur {0, 1}, de paramètre p, et f : {0, 1} → , si
εµ (f ) = 0, alors
p(1 − p)|f (0) − f (1)|2 = 0.
R
R
donc
f (0) = f (1).
Donc f est constante.
-Pour µ mesure gaussienne sur
1
εµ (f ) =
2π

n Z
Rn
Donc :
n
X
Rn et f : Rn → R, on a
∂f
∂x1



Z

!2
∂f

Rn ∂xi
i=1
∂f
+ ... +
∂xn
!2 
e
!2 
2
−(x2
1 +...+xn )
2
e
2
−(x2
1 +...+xn )
2
dx1 ...dxn = 0.

dx1 ...dxn  = 0.
Donc ∀i ∈ {1, ..., n}, on a

∂f

Rn ∂xi
Z
!2 
e
2
−(x2
1 +...+xn )
2
dx1 ...dxn = 0.
Donc ∀i ∈ {1, ..., n},
∂f
∂xi
!2
= 0.
Donc f est constante.
1.2
Définitions des inégalités de Poincaré et de Sobolev
logarithmique.
Définition : on dit que µ satisfait à une inégalité de Poincaré sur une classe de fonctions
CP (E, µ) s’il existe c > 0 telle que ∀f ∈ CP (E, µ),on a :
V arµ (f ) 6 c εµ (f ).
La constante de Poincaré optimale, notée cP (µ), est définie par :
(
cP (µ) = inf
)!−1
εµ (f )
, f ∈ CP (E, µ), f non µ − ps constante
V arµ (f )
5
.
Définition : On dit que µ satisfait à une inégalité de Sobolev logarithmique sur une classe de
fonctions CLS (E, µ) s’il existe c > 0 telle que ∀f ∈ CLS (E, µ),on a :
Entµ (f 2 ) 6 c εµ (f ).
On note cLS (µ) la constante de Sobolev logarithmique optimale.
Théorème sur la loi de Bernoulli.
La loi de Bernoulli satisfait à une inégalité de Poincaré et à une inégalité de Sobolev
logarithmique.
On a plus précisément : ∀f : {0, 1} → ,
R
∗ V arµ (f ) = εµ (f ).
∗ Entµ (f 2 ) 6 2 εµ (f )
et 2 est la constante optimale.
Preuve :
-On a :
V arµ (f ) = Eµ (f 2 ) − (Eµ (f )2 )
2
1
1
2
2
= (f (1) − f (0) ) −
(f (1) − f (0))
2
2
1
= (f (1) − f (0))2
4
= εµ (f ).
- On a :
Entµ (f 2 ) = Eµ (f 2 log(f 2 )) − Eµ (f 2 ) log(Eµ (f 2 ))
1
1
1
= (f (0)2 log f (0)2 + f (1)2 log f (1)2 ) − (f (0)2 + f (1)2 ) log (f (0)2 + f (1)2 )
2
2
2
1
1
=
f (0)2 log f (0)2 + f (1)2 log f (1)2 − (f (0)2 + f (1)2 ) log (f (0)2 + f (1)2 )
2
2
1
6 (f (0) − f (1))2
2
1
= 2 (f (0) − f (1))2
4
= 2εµ (f ).
Pour l’inégalité, on se reportera à [C], il s’agit d’étudier une fonction d’une variable réelle.
Comparaison entre l’inégalité de Poincaré et l’inégalité de Sobolev logarithmique.
Théorème : si CLS (E, µ) est constituée de fonctions mesurables bornées et si µ satisfait à une
inégalité de Sobolev logarithmique sur CLS (E, µ) de constante cLS (µ), alors µ satisfait à une
inégalité de Poincaré sur CP (E, µ) = CLS (E, µ) et de plus, on a
cP (µ) 6
Preuve : soit f ∈ CLS (E, µ) et ε > 0.
6
cLS (µ)
.
2
Commençons par montrer :
Entµ ((1 + εf )2 ) = 2ε2 V arµ (f ) + O(ε3 ).
On rappelle que f est bornée. On a :
Entµ ((1 + εf )2 ) = Eµ ((1 + εf )2 log(1 + εf )2 ) − Eµ ((1 + εf )2 ) log Eµ ((1 + εf )2 ) = A − B.
On a : A = 2 Eµ ((1 + εf )2 (εf −
ε2 f 2
2
+ O(ε3 )) donc on obtient
A = 2εEµ (f ) + 3ε2 Eµ (f 2 ) + O(ε3 ).
Pour B, on a : log Eµ ((1 + εf )2 ) = 2εEµ (f ) + ε2 Eµ (f 2 ) − 2ε2 (Eµ (f ))2 + O(ε3 ), d’où
B = Eµ ((1 + εf )2 ) log Eµ ((1 + εf )2 ).
B = 2εEµ (f ) + 2ε2 (Eµ (f ))2 + ε2 Eµ (f 2 ) + O(ε3 ).
D’où on obtient :
Entµ ((1 + εf )2 ) = 2ε2 [Eµ (f 2 ) − (Eµ (f ))2 ] + O(ε3 ).
On a bien montré :
Entµ ((1 + εf )2 ) = 2ε2 V arµ (f ) + O(ε3 ).
Par hypothèse, µ satisfait à une inégalité de Sobolev logarithmique et 1 + εf est bornée car f
est bornée.
Maintenant, on a :
Entµ ((1 + εf )2 ) 6 cLS (µ) εµ (1 + εf ).
On a :
εµ (1 + εf ) = ε2 εµ (f )
car εµ est invariante par translation et homogène d’ordre 2.
Le développement limité précédent fournit :
2ε2 V arµ (f ) + O(ε3 ) 6 cLS (µ) ε2 εµ (f ).
Avec ε → 0+ on obtient :
cLS (µ)
εµ (f ).
2
Donc f satisfait bien à une inégalité de Poincaré avec
V arµ (f ) 6
cLS (µ)
.
2
cP (µ) 6
1.3
Tensorisation de la variance et de l’entropie.
Proposition : soient (Ei , Fi , µi ) , i ∈ {1, ..., n} n espaces de probabilité. On note
E n = E1 × ... × En , F n = F1 ⊗ ... ⊗ Fn et µn = µ1 ⊗ ... ⊗ µn .
Alors on a pour f : E n → :
R
V arµn (f ) 6
n
X
Eµn (V arµi (f ))
i=1
et pour f : E n →
R+
Entµn (f ) 6
n
X
Eµn (Entµi (f )).
i=1
7
R
Preuve pour la variance : on traite le cas particulier où n = 2 et f : E 2 → est telle que
f (x, y) = g(x)h(y). On note alors µ1 = µ et µ2 = ν. On consultera [C] pour le cas général.
On a :
V arµ⊗ν (gh) =
=
Z
E2
Z
(gh)2 dµ ⊗ ν −
Z
2
g dµ
E
Z
E2
gh dµ ⊗ ν
Z
2
h dν −
g dµ
E
E
2
Z
2
2
h dν
E
2
= Eµ (g 2 ) Eν (h2 ) − Eµ (g) Eν (h)
= Eν (h2 )(Eµ (g 2 ) − Eµ (g)2 ) + Eµ (g)2 (Eν (h2 ) − Eν (h)2 )
= Eν (h2 ) V arµ (g) + Eµ (g)2 V arν (h).
Par l’inégalité de Jensen, on a : Eµ (g)2 6 Eµ (g 2 ) donc
V arµ⊗ν (gh) 6 Eν (h2 ) V arµ (g) + Eµ (g 2 ) V arν (h).
On montre maintenant que :
V arµ (g) Eν (h2 ) = Eµ⊗ν (V arµ (gh)).
On a :
Eµ⊗ν (V arµ (gh)) =
=
"Z
Z
E2
Z
E
2
2
g(x) h(y) dµ(x) −
2 #
Z
g(x)h(y) dµ(x)
E
dµ(x)dν(y)
E
2
h(y)
"Z
2
g(x) dµ(x) −
E
2 #
Z
g(x) dµ(x)
dν(y)
E
= Eν (h2 ) V arµ (g).
De même, on a :
V arν (h) Eµ (g 2 ) = Eµ⊗ν (V arν (gh)).
Donc on obtient :
V arµ⊗ν (gh) 6 Eµ⊗ν (V arµ (gh)) + Eµ⊗ν (V arν (gh))
c’est-à-dire :
V arµ⊗ν (f ) 6 Eµ⊗ν (V arµ (f )) + Eµ⊗ν (V arν (f )).
La tensorisation de la variance est donc démontrée pour n = 2 et f (x, y) = g(x)h(y).
Preuve pour l’entropie : dans le cas particulier n = 2. Cette preuve peut s’écrire de la même
manière pour n quelconque.
Soit f : E1 × E2 → + .
R
On va utiliser la formule variationnelle : Entµ (f ) = sup{g mesurable} {Eµ (f g), Eµ (eg ) = 1}. Soit g
définie sur E 2 telle que Eµ1 ⊗µ2 (eg ) = 1, on pose
g1 = g − log
et
Z
E1
eg dµ1
.
g
E1 ×E2 e dµ1 dµ2
R
g2 = log R
eg dµ1 (x1 )
E1
8
On a g1 + g2 = g − log E1 ×E2 eg dµ1 dµ2 = g car Eµ1 ⊗µ2 (eg ) = 1. On a de plus
Eµ1 (eg1 ) = Eµ2 (eg2 ) = 1.
La formule variationnelle pour µ1 et µ2 entraîne alors :
R
Eµ1 (f g1 ) 6 Entµ1 (f ).
De même :
Eµ2 (f g2 ) 6 Entµ2 (f ).
Il s’ensuit :
Eµ1 (f g1 ) + Eµ2 (f g2 ) 6 Entµ1 (f ) + Entµ2 (f ).
Or,
Eµ2 (f g) = Eµ2 (f g1 ) + Eµ2 (f g2 )
car g = g1 + g2 . Donc
Eµ2 (f g) = Eµ2 (Eµ1 (f g1 )) + Eµ2 (Eµ2 (f g2 ))
donc
Eµ2 (f g) 6 Eµ2 (Entµ1 (f g1 )) + Eµ2 (Entµ2 (f g2 ))
donc
sup{g mesurable} {Eµ2 (f g), Eµ2 (eg ) = 1} 6 Eµ2 (Entµ1 (f g1 )) + Eµ2 (Entµ2 (f g2 ))
c’est-à-dire
Entµ2 (f ) 6 Eµ2 (Entµ1 (f g1 )) + Eµ2 (Entµ2 (f g2 )).
La tensorisation de l’entropie est donc démontrée.
1.4
Inégalités de Poincaré et de Sobolev logarithmique pour la
mesure gaussienne.
R
R
Dans ce paragraphe, E = , F = B( ) et µ = γ est la mesure gaussienne standard N (0, 1).
On va utiliser la propriété de tensorisation de la variance prouvée dans la section précédente
pour démontrer l’inégalité de Poincaré, et la propriété de tensorisation de l’entropie pour
l’inégalité de Sobolev logarithmique.
Théorème : la mesure gaussienne standard vérifie une inégalité de Poincaré sur la classe
Cc2 ( , ) , avec constante optimale cP (γ) = 1.
RR
RR
Preuve : Soit f ∈ Cc2 ( , ). On va montrer que :
V arγ (f ) 6 εγ (f ).
On aura alors :
cP (γ) 6 1.
RR
RR
Pour montrer cP (γ) = 1, on considère f0 : x 7→ x, f0 ∈ C 2 ( , ). f0 n’est pas à support
compact mais on peut la ramener à une fonction de Cc2 ( , ) par troncature et régularisation.
On a V arγ (f0 ) = 1 et εγ (f0 ) = Eγ ((f00 )2 ) = 1 donc
V arγ (f0 ) = εγ (f0 ),
ce qui montre :
cP (γ) = 1.
9
RR
Pour montrer que ∀f ∈ Cc2 ( , ), V arγ (f ) 6 εγ (f ), on utilise la propriété de tensorisation de
la variance. La loi normale va apparaître en utilisant le théorème central limite. Pour
i ∈ {1, ...n}, on pose Ei = {0, 1} et µi est la mesure de Bernoulli de paramètre 12 .
Soit F : E n = {0, 1}n →
R. Par la propriété de tensorisation de la variance, on a :
V arµn (F ) 6
n
X
Eµn (V arµi (F )).
i=1
De plus, ∀i ∈ {1, ...n}, on a :
1
V arµi (F ) = (Fi (1) − Fi (0))2
4
d’après le théorème sur l’inégalité de Poincaré pour la mesure de Bernoulli démontré
précédemment. L’indice i indique que seule la composante i est concernée. Donc on obtient :
V arµn (F ) 6
Soit maintenant φn : {0, 1}n →
n
1X
Eµn ((Fi (0) − Fi (1))2 ).
4 i=1
R définie par :
n
P
φn : (x1 , ..., xn ) 7→
xi −
i=1
q
n
2
n
4
RR
et fixons f ∈ Cc2 ( , ).
On pose F = f ◦ φn et on applique la propriété de tensorisation de la variance à F :
V arµn (f ◦ φn ) 6
n
1X
Eµn [((f ◦ φn )i (0) − (f ◦ φn )i (1))2 ]. (∗)
4 i=1
-Par le théorème central limite, l’image de µn par φn : {0, 1}n →
Donc, pour f ∈ Cc2 ( , ),
V arµn (f ◦ φn ) −−−−→ V arγ (f ).
RR
R converge en loi vers N (0, 1).
n→+∞
-On va maintenant montrer que
1
4
n
P
i=1
Eµn [((f ◦ φn )i (0) − (f ◦ φn )i (1))2 ] possède une limite
supérieure plus petite que εγ (f ).
On sait que f ∈ Cc2 ( , ) donc il existe K > 0 tel que kf 0 k∞ 6 K et kf 00 k∞ 6 K où
kf k∞ = sup |f (x)|.
RR
R
x∈
On fait apparaître la dérivée f 0 à l’aide d’un développement limité :
1
1
(f ◦ φn )i (1) = (f ◦ φn )i (0)+(φn )0i (0) (f 0 ◦ φn )i (0)+ (φn )0i (0)2 (f 00 ◦ φn )i (0)+ (φn )00i (0) (f 0 ◦ φn )i (0)+...
2
2
Des calculs élémentaires fournissent : ∀i ∈ {1, ...n}
s
(φn )0i (xi )
=
4
.
n
(φn )00i (xi ) = 0.
10
(f 0 ◦ φn )i (0) = f 0 (φn,i (x))
où on a posé : ∀i ∈ {1, ...n}
s
φn,i (x) =


n
4 X
n
xj −  .
n j=1,j6=i
2
On obtient ∀i ∈ {1, ...n} :
s
|(f ◦ φn )i (0) − (f ◦ φn )i (1)| 6
4 0
2K
|f (φn,i (x))| +
.
n
n
On obtient en intégrant par rapport à µn et en notant ν (n) la loi image de µn par φn,i (cette loi
ne dépend pas de i car on a des variables aléatoires iid) :
Eµn [((f ◦ φn )i (0) − (f ◦ φn )i (1))2 ] 6
8K
4K 2
4
Eν (n) (|f 0 |2 ) + √ Eν (n) (|f 0 |) + 2 .
n
n n
n
Il s’ensuit en utilisant kf 0 k∞ 6 K :
n
X
8K 2 4K 2
.
Eµn [((f ◦ φn )i (0) − (f ◦ φn )i (1))2 ] 6 4Eν (n) (|f 0 |2 ) + √ +
n
n
i=1
Pour X = (X1 , ..., Xn ) où les Xi sont iid et suivent une loi de Bernoulli de paramètre 12 , le
théorème central limite donne la convergence en loi :
φn,i (X) −−−−→ γ = N (0, 1).
n→+∞
On remarque qu’il manque un terme dans φn,i (X), on peut prouver grâce aux fonctions
caractéristiques que le résultat donné par le théorème central limite est encore vrai.
Donc la loi ν (n) tend vers γ quand n → +∞.
On en déduit :
lim sup
n
X
n→+∞ i=1
Donc :
lim sup
n→+∞
Eµn [((f ◦ φn )i (0) − (f ◦ φn )i (1))2 ] 6 4Eγ (|f 0 |2 ).
n
1X
Eµn [((f ◦ φn )i (0) − (f ◦ φn )i (1))2 ] 6 εγ (f ).
4 i=1
-Par l’inégalité (∗), on obtient finalement en passant à la limite quand n → +∞ :
V arγ (f ) 6 εγ (f ).
Cela termine la preuve.
Théorème : la mesure gaussienne standard N (0, 1) vérifie une inégalité de Sobolev
logarithmique sur la classe Cc2 ( , + ), avec constante optimale cLS (γ) = 2.
RR
Preuve : on va adapter la preuve de l’inégalité de Poincaré pour la loi gaussienne. On prend
f ∈ Cc2 ( , + ).
On montrera à la fin de la démonstration que pour une certaine classe de fonctions , on a :
RR
Entγ (f 2 ) = 2εγ (f ).
11
On montre d’abord que :
Entγ (f 2 ) 6 2εγ (f ).
On utilise pour cela la propriété de tensorisation de l’entropie. Pour i ∈ {1, ...n}, on pose
Ei = {0, 1} et µi est la mesure de Bernoulli de paramètre 12 .
Soit F : E n = {0, 1}n → . Par la propriété de tensorisation de l’entropie, on a :
R
Entµn (F 2 ) 6
n
X
Eµn (Entµi (F 2 )).
i=1
On a vu dans le théorème sur l’inégalité de Sobolev logarithmique pour la loi de Bernoulli que
cLS (β 1 ) = 2, pour la loi de Bernoulli de paramètre 21 , on a ainsi :
2
Entµi (F 2 ) 6 2εµi (F ).
On sait par ailleurs que εµi (F ) = 14 (Fi (0) − Fi (1))2 par définition de l’énergie pour la mesure de
Bernoulli.
Donc :
n
1X
Entµn (F 2 ) 6
Eµn ((Fi (0) − Fi (1))2 ).
2 i=1
R R+) et φn : {0, 1}n → R définie par :
Soit maintenant f ∈ Cc2 ( ,
n
P
φn : (x1 , ..., xn ) 7→
xi −
i=1
q
n
2
n
4
.
On pose F = f ◦ φn et on applique la propriété de tensorisation de l’entropie à F 2 :
n
1X
Eµn [((f ◦ φn )i (0) − (f ◦ φn )i (1))2 ]. (∗∗)
Entµn ((f ◦ φn ) ) 6
2 i=1
2
- Si X = (X1 , ..., Xn ) où les Xi sont iid et suivent une loi de Bernoulli de paramètre 12 , alors on
a comme précédemment la convergence en loi :
φn (X) −−−−→ γ = N (0, 1).
n→+∞
R R+),
Donc, pour f ∈ Cc2 ( ,
Entµn ((f ◦ φn )2 ) −−−−→ Entγ (f 2 ).
n→+∞
-On a déjà montré dans la preuve de l’inégalité de Poincaré pour la mesure gaussienne que :
lim sup
n
X
n→+∞ i=1
Donc :
lim sup
n→+∞
Eµn [((f ◦ φn )i (0) − (f ◦ φn )i (1))2 ] 6 4εγ (f ).
n
1X
Eµn [((f ◦ φn )i (0) − (f ◦ φn )i (1))2 ] 6 2εγ (f ).
2 i=1
-Par l’inégalité (∗∗), on obtient finalement en passant à la limite quand n → +∞, pour
f ∈ Cc2 ( , + )
Entγ (f 2 ) 6 2εγ (f ).
RR
12
R R+),
Il reste à montrer que pour une certaine classe de fonctions de Cc2 ( ,
Entγ (f 2 ) = 2εγ (f ).
R
On considère à cet effet fλ (x) = eλx avec λ ∈ ∗ . fλ n’est pas à support compact mais on peut
la ramener à une fonction de Cc2 ( , + ) par troncature et régularisation.
On calcule Entγ (fλ2 ) et 2εγ (fλ ).
2
R
R
−x2
−x2
1 R
1
1
2
2λx
2λx −x
2λx
2λx
√
√
√
- Entγ (fλ ) = 2π R e log(e )e 2 dx −
e e 2 dx log 2π R e e 2 dx =
2π R
RR
A − B log B.
On a :
1
B=√
2π
1
=√
2π
2λ2
=e .
Z
R
Z
R
e2λx e
e
−x2
2
−(x−2λ)2
2
dx
2
e2λ dx
et :
1
A= √
2π
−2λ
=√
2π
Z
2λx e2λx e
R
Z
e
R
= −2λ e
−x2
+2λx
2
−x2
+2λx
2
−x2
2
dx
4λ2 Z −x2 +2λx
e 2
(−x + 2λ)dx + √
dx
2π R
+∞
+ 4λ2 e2λ
2
−∞
2 2λ2
= 4λ e
.
On obtient finalement :
2
2
2
Entγ (fλ2 ) = 4λ2 e2λ − 2λ2 e2λ = 2λ2 e2λ .
- εγ (fλ ) = Eγ (fλ02 )
1 Z 2 2λx −x2
2
λ e e 2 dx = λ2 e2λ .
εγ (fλ ) = √
2π R
Donc pour fλ (x) = eλx avec λ ∈
R∗ :
2
Entγ (fλ2 ) = 2λ2 e2λ = 2εγ (fλ ).
Donc on a montré que cLS (γ) = 2 pour γ mesure gaussienne standard.
13
2
2.1
Concentration et inégalité de Sobolev logarithmique.
Argument de Herbst.
Le théorème suivant dit que pour une mesure de probabilité µ vérifiant une inégalité de Sobolev
logarithmique, toute fonction F : ( n , µ) → lipschitzienne satisfait une inégalité de
concentration gaussienne autour de son espérance. Nous verrons dans la troisième partie que
cela entraîne une inégalité de concentration gaussienne autour de tout point.
|F (x)−F (y)|
.
On définit : kF kLip =
sup
kx−yk
R
R
Rn , x6=y
x,y∈
R
Théorème : soit µ une mesure de probabilité sur n vérifiant l’inégalité de Sobolev
logarithmique :
∀f ∈ Cb∞ ( n ), Entµ (f 2 ) 6 c Eµ (|∇f |2 ).
R
Alors, pour toute fonction lipschitzienne F telle que kF kLip 6 1, pour tout r > 0 on a :
µ(F > Eµ (F ) + r) 6 e
−r 2
c
et
µ(|F − Eµ (F )| > r) 6 2e
−r 2
c
.
On commence par faire la preuve dans le cas où F est C ∞ et bornée. Nous en déduirons le cas
général par un argument de troncature et un résultat élémentaire de théorie de l’intégration.
Donnons l’idée de la démonstration.
Celle-ci consiste à étudier la transformée de Laplace de la fonction F , c’est-à-dire la fonction
H(λ) = Eµ (eλF ). On introduit à cet effet la fonction auxiliaire K(λ) = λ1 log H(λ). Nous
observerons qu’un développement limité permet de prolonger K par continuité en 0 avec la
valeur K(0) = Eµ (F ).
Tout d’abord, l’inégalité de Sobolev logarithmique appliquée à F entraîne K(λ) 6 4c .
L’inégalité des accroissements finis donne alors K(λ) 6 Eµ (F ) + cλ
, il s’ensuit que
4
cλ2
H(λ) 6 eλEµ (F )+ 4 .
La preuve se termine alors à l’aide de l’inégalité de Markov, on obtiendra la borne annoncée en
spécifiant λ = 2rc .
Preuve du théorème (argument de Herbst).
Dans un premier temps, on suppose que F est C ∞ bornée telle que kF kLip 6 1 et on montre
que
µ(F > Eµ (F ) + r) 6 e
−r 2
c
.
Ensuite on étendra cette inégalité à toutes les fonctions lipschitziennes F telles que kF kLip 6 1
à l’aide du lemme d’intégration, car F vérifiant kF kLip 6 1 n’est pas nécessairement C ∞ ni
bornée.
- Soit F une fonction C ∞ bornée telle que kF kLip 6 1.
Pour λ > 0, on pose :
H(λ) = Eµ eλ F ,
H est la transformée de Laplace de F . H(λ) = Eµ eλ F et eλ F est C ∞ bornée sur
peut dériver sous le signe
On pose pour λ > 0 :
R
et H 0 (λ) = Eµ F eλ F .
f =e
14
λF
2
,
Rn donc on
R
cette fonction est C ∞ bornée sur n car F est C ∞ bornée.
Appliquons à f l’inégalité de Sobolev logarithmique :
Entµ eλ F 6 c Eµ ∇e
λF
2
2 .
On a :
Entµ eλ F = Eµ eλ F log eλ F
− Eµ eλ F log Eµ eλ F
= λ Eµ F eλ F − Eµ eλ F log Eµ eλ F .
Donc :
Entµ eλ F = λ H 0 (λ) − H(λ) log H(λ).
On a d’autre part :
λ F 2
∇e 2 
λF
2

λF
2
∂e 2 
∂e 2 
=
+ ... + 
∂x1
∂xn
=
λ ∂F λ F
e 2
2 ∂x1
!2

λ2
∂F
= eλ F 
4
∂x1
λ ∂F λ F
+ ... +
e 2
2 ∂xn
!2
∂F
+ ... +
∂xn
!2
!2 

λ2 λ F
e |∇F |2
4
λ2 λ F
6 e
4
=
car kF kLip 6 1.
Donc :
λ2
λ2
Eµ eλ F = H(λ).
4
4
Ceci combiné à l’inégalité de Sobolev logarithmique entraîne l’inégalité :
λ F 2
2
Eµ ∇e 6
λ H 0 (λ) − H(λ) log H(λ) 6 c
λ2
H(λ).
4
Or ∀λ > 0, H(λ) > 0 donc on obtient :
H 0 (λ)
log H(λ)
c
−
6
.
λ H(λ)
λ2
4
On pose alors :
K(λ) =
Alors :
K 0 (λ) = −
Donc l’inégalité devient :
1
log H(λ).
λ
1
1 H 0 (λ)
log
H(λ)
+
.
λ2
λ H(λ)
c
K 0 (λ) 6 .
4
On va maintenant montrer que :
K(λ) −−→ Eµ (F ).
λ→0
15
On a par définition K(λ) =
Quand λ → 0 :
1
λ
log Eµ eλ F .
eλ F = 1 + λ F + o(λ F ).
Donc quand λ → 0 :
Eµ eλ F = 1 + Eµ (λ F ) + o(Eµ (λ F )).
Finalement quand λ → 0 :
K(λ) =
1
1
log Eµ (F ) = Eµ (λ F ) + o Eµ eλ F .
λ
λ
Donc :
K(λ) −−→ Eµ (F ).
λ→0
On pose K(0) = Eµ (F ), donc pour tout λ > 0, K est continue sur [0, λ] et dérivable sur ]0, λ[.
Donc de K 0 (λ) 6 4c on déduit :
c
K(λ) − K(0) 6 λ
4
donc :
c
K(λ) 6 Eµ (F ) + λ.
4
c
log H(λ) 6 λ Eµ (F ) + λ2 .
4
c
2
H(λ) 6 eλ Eµ (F )+ 4 λ . (∗)
Pour r > 0 et λ > 0, on a alors :
µ(F > Eµ (F ) + r) = µ eλ F > eλ Eµ (F )+λr .
Par l’inégalité de Markov :
µ(F > Eµ (F ) + r) 6
1
eλ Eµ (F )+λr
Eµ (eλ F ) =
Donc avec (∗), on obtient :
1
eλ Eµ (F )+λr
H(λ).
c
µ(F > Eµ (F ) + r) 6 eλ( 4 λ−r) .
On minimise le terme de droite avec λ =
2r
c
pour obtenir :
2r
c 2r
−r
c
µ(F > Eµ (F ) + r) 6 e c ( 4
2
) = e− rc .
Pour F C ∞ bornée telle que kF kLip 6 1, on a finalement montré que :
r2
µ(F > Eµ (F ) + r) 6 e− c .
Il suffit ensuite d’appliquer cette inégalité à −F pour obtenir :
µ(|F − Eµ (F )| > r) 6 2e
−r 2
c
.
Donc le théorème est démontré dans le cas C ∞ borné.
-Soit maintenant F lipschitzienne telle que kF kLip 6 1.
On peut prendre (Fn )n∈N une suite de fonctions C ∞ bornées telles que ∀n ∈
Fn −−−−→ F presque sûrement. On consultera [B] pour une preuve.
N, Fn vérifie (∗) donc ∀n ∈ N, ∀λ > 0, on a :
n→+∞
∀n ∈
Eµ eλ(Fn −Eµ (Fn )) 6 e
16
c λ2
4
.
N,kF kLip 6 1 et
Le lemme suivant permet d’obtenir ∀λ > 0 :
Eµ eλ(F −Eµ (F )) 6 e
c λ2
4
.
On termine alors comme précédemment par l’inégalité de Markov.
Lemme d’intégration : soit (X, d) un espace métrique et µ une mesure de probabilité sur X.
Soit (Fn )n∈N une suite de fonctions intégrables uniformément lipschitziennes, c’est-à-dire
kFn kLip 6 1 pour tout n ∈ , tendant presque sûrement vers F , et telle que pour tout n ∈
et pour tout λ > 0 :
λ2
Eµ eλ(Fn −Eµ (Fn )) 6 e 2 .
N
N
Alors :
F est intégrable et pour tout λ > 0
λ2
Eµ eλ(F −Eµ (F )) 6 e 2 .
Preuve du lemme :
On montre d’abord que la suite (Fn )n est uniformément intégrable, c’est-à-dire
sup Eµ (|Fn |) < +∞.
n∈
N
On a :
|Fn | 6 |Fn − Eµ (Fn )| + |Eµ (Fn )|.
Donc :
Eµ (|Fn |) 6 Eµ (|Fn − Eµ (Fn )|) + |Eµ (Fn )|.
-On va d’abord contrôler Eµ (|Fn − Eµ (Fn )|).
Pour r > 0 et λ > 0, on a :
µ(Fn − Eµ (Fn ) > r) = µ(eλ (Fn −Eµ (Fn )) > eλ r ).
Donc, par l’inégalité de Markov :
µ(Fn − Eµ (Fn ) > r) 6 e−λ r Eµ eλ(Fn −Eµ (Fn )) .
L’hypothèse du lemme entraîne pour r > 0 et λ > 0 :
λ2
µ(Fn − Eµ (Fn ) > r) 6 e−λ r+ 2 .
En prenant λ = r, on obtient :
µ(Fn − Eµ (Fn ) > r) 6 e
−r 2
2
.
On utilise ensuite le résultat suivant, conséquence du théorème de Fubini :
Eµ (|Fn − Eµ (Fn )|) =
Comme µ(Fn − Eµ (Fn ) > r) 6 e
−r 2
2
Z +∞
0
µ(|Fn − Eµ (Fn )| > r) dr.
entraîne µ(|Fn − Eµ (Fn )| > r) 6 2e
Eµ (|Fn − Eµ (Fn )|) 6 2
Donc, ∀n ∈
N:
Z +∞
−r 2
2
0
Eµ (|Fn − Eµ (Fn )|) 6
17
e
√
2π.
dr.
−r 2
2
, on obtient alors :
- On s’intéresse maintenant au terme |Eµ (Fn )|.
On choisit d’abord m > 0 tel que µ(|F | 6 m) >
µ(|Fn − F | > 1) 6 41 .
Comme |F | − |F − Fn | 6 |Fn |, on a :
3
4
et n0 ∈
N tel que pour tout n > n0,
µ(|Fn | 6 m + 1) > µ(|F | − |F − Fn | 6 m + 1).
Donc :
µ(|Fn | 6 m + 1) > µ(|F | 6 m) − µ(|F − Fn | > 1).
Donc pour n > n0 :
µ(|Fn | 6 m + 1) >
On choisit maintenant r1 tel que 2e
On regarde pour n > n0 :
2
−r1
2
1
3 1
− = .
4 4
2
< 21 .
µ({|Fn | 6 m + 1} \ {|Fn − Eµ (Fn )| > r1 }) > µ(|Fn | 6 m + 1) − µ(|Fn − Eµ (Fn )| > r1 )
2
−r1
1
> − 2e 2 > 0.
2
Donc l’ensemble {|Fn | 6 m + 1} \ {|Fn − Eµ (Fn )| > r1 } est non vide pour n > n0 .
Donc pour n > n0 , il existe x0 tel que :
|Fn (x0 )| 6 m + 1
et
|Fn (x0 ) − Eµ (Fn )| < r1 .
Comme |Eµ (Fn )| 6 |Fn (x0 )| + |Fn (x0 ) − Eµ (Fn )|, on obtient pour n > n0 :
|Eµ (Fn )| 6 m + 1 + r1 .
Les contrôles de Eµ (|Fn − Eµ (Fn )|) et |Eµ (Fn )| fournissent finalement pour n > n0 :
√
Eµ (|Fn |) 6 2π + m + 1 + r1 .
Donc (Fn )n∈N est uniformément intégrable. Le théorème de convergence dominée montre que
Eµ (|F |) vérifie la même borne, en particulier F est intégrable.
Il reste à montrer que pour λ > 0 :
λ2
Eµ eλ(F −Eµ (F )) 6 e 2 .
C’est équivalent à ∀λ > 0
λ2
Eµ eλ F e−λ Eµ (F ) 6 e 2 ,
soit
Eµ eλ F 6 e
On sait par hypothèse que ∀n ∈
λ2
+λ Eµ (F )
2
N, ∀λ > 0 :
Eµ eλ Fn 6 e
.
λ2
+λ Eµ (Fn )
2
.
Le lemme de Fatou donne à λ > 0 fixé :
λF
Eµ e
= Eµ lim inf e
λ Fn
n→+∞
18
6 lim inf Eµ eλ Fn .
n→+∞
Donc :
Eµ eλ F 6 lim inf e
λ2
+λ Eµ (Fn )
2
n→+∞
=e
λ2
+λ Eµ (F )
2
.
Donc pour λ > 0,
λ2
Eµ eλ(F −Eµ (F )) 6 e 2 .
Le lemme est démontré.
2.2
Concentration pour les moyennes empiriques.
R
R
Soit µ une loi de probabilité sur , soit f ∈ Cb∞ ( ) et soit (Xi )i∈N une suite de variables
aléatoires indépendantes identiquement distribuées de loi µ.
On rappelle la loi forte des grands nombres : pour N ∈
N,
N
1 X
p.s
f (Xi ) −−−−→ Eµ (f ).
N →+∞
N i=1
La propriété de concentration de µ implique une concentration dynamique de la suite des
mesures empiriques
1
N
N
P
i=1
δXi autour de µ :
proposition : on suppose que µ vérifie une inégalité de Sobolev logarithmique, c’est-à-dire
∀f ∈ Cb∞ , on a : Entµ (f 2 ) 6 c Eµ (|∇f |2 ).
Alors, pour toute fonction f lipschitzienne sur telle que kF kLip 6 1, pour tout r > 0 on a :
R
P
N
1 X
f
(X
)
−
E
(f
)
i
µ
N
!
> r 6 2e−
N r2
c
.
i=1
Preuve de la proposition.
On admet le lemme crucial suivant. On se reportera au chapitre 3 de [A] pour une
démonstration, l’argument présenté utilise l’inégalité de tensorisation de l’entropie.
Lemme : la loi de (X1 , ..., XN ) sur N , qui est µ⊗N , vérifie encore une inégalité de Sobolev
logarithmique de même constante c indépendante de N que l’inégalité de Sobolev logarithmique
vérifiée par µ.
On pose :
N
1 X
FN (x1 , ..., xN ) =
f (xi ).
N i=1
√
On montre que : N FN est 1-lipschitzienne sur ( N , k k2 ), où k k2 est la norme euclidienne sur
N
, c’est-à-dire FN est √1N -lipschitzienne sur ( N , k k2 ).
Soient x = (x1 , ..., xN ) ∈ N et y = (y1 , ..., yN ) ∈ N .
On a :
N
1 X
|FN (x1 , ..., xN ) − FN (y1 , ..., yN )| 6
|f (xi ) − f (yi )|.
N i=1
R
R
R
R
R
R
Comme f est lipschitzienne avec kf kLip 6 1, on obtient :
|FN (x1 , ..., xN ) − FN (y1 , ..., yN )| 6
Soit (a1 , ..., aN ) ∈
RN .
On a : (a1 + ... + aN )2 =
N
P
a2
i=1
i
+
P
16i<j6N
N
1 X
|xi − yi |.
N i=1
2ai aj , et 2ai aj 6 a2i + a2j car (ai − aj )2 > 0.
19
P
Donc
16i<j6N
2ai aj 6 (N − 1)(a21 + ... + a2N ). Donc :
(a1 + ... + aN )2 6 N (a21 + ... + a2N ).
On obtient :
q
|a1 + ... + aN | 6
Donc :
N
X
|xi − yi | 6
N (a21 + ... + a2N ).
v
u
N
u X
tN
(x
i=1
Donc :
Donc FN est
i
− yi )2 .
i=1
1
|FN (x1 , ..., xN ) − FN (y1 , ..., yN )| 6 √ k(x1 , ..., xN ) − (y1 , ..., yN )k2 .
N
√1 -lipschitzienne
N
On applique l’argument de Herbst à
P
R√N , k k2).
sur (
N FN et à µ⊗N , la loi de (X1 , ..., XN ) :
√
√
N FN (X1 , ..., XN ) − Eµ⊗N ( N FN )
√
>
N r 6 2e
−
√
( N r)2
c
et, comme les Xi sont identiquement distribuées :
√
√
√
Eµ⊗N ( N FN ) = N Eµ⊗N (FN ) = N Eµ (f ).
Donc :
√
√
√ N r2
P N FN (X1 , ..., XN ) − N Eµ (f ) > N r 6 2e− c ,
c’est-à-dire :
P
N
1 X
f
(X
i ) − Eµ (f )
N
!
> r 6 2e−
N r2
c
.
i=1
La proposition de concentration pour les moyennes empiriques est démontrée.
20
,
3
Concentration de la mesure.
3.1
Inégalité de concentration gaussienne.
Définition : soit (E, F , µ) un espace de probabilité et F une fonction mesurable sur E. On
dit que F satisfait une inégalité de concentration gaussienne autour de a ∈ s’il existe c > 0,
C > 0, tels que pour tout r > 0 :
R
r2
µ(|F − a| > r) 6 Ce− c .
Remarque : on a vu (argument de Herbst) que si µ satisfait une inégalité de Sobolev
logarithmique, alors F lipschitzienne telle que kF kLip 6 1 vérifie une inégalité de concentration
gaussienne autour de Eµ (F ).
Le lemme suivant montre que si F vérifie une inégalité de concentration gaussienne autour d’un
point, alors F vérifie une inégalité de concentration gaussienne autour de tout réel.
Lemme : si F satisfait une inégalité de concentration gaussienne autour de a ∈
tout autre réel b, il existe cb et Cb tels que pour tout r > 0 :
R, alors pour
r2
µ(|F − b| > r) 6
b − bc .
Ce
On a :
cb = 4c
et
Cb = max{C, e
(a−b)2
c
}.
De plus, dans le cas particulier b = Eµ (F ), on peut prendre cb = 4c et Cb = e
particulier b est une médiane de F , on peut prendre cb = 4c et Cb = 4C.
cb et Cb ne dépendent pas de a et b mais seulement de c et C.
Preuve du lemme.
On distingue deux cas.
-Premier cas : r > 2|a − b|.
Soit x ∈ {|F − b| > r}.
Alors par l’inégalité triangulaire :
|F (x) − a| > |F (x) − b| − |a − b|.
Donc :
|F (x) − a| > r −
Donc :
Donc :
r
r
= .
2
2
r
{|F − b| > r} ⊂ {|F − a| > }.
2
r2
r2
r
b − bc
µ(|F − b| > r) 6 µ(|F − a| > ) 6 Ce− 4c = Ce
2
en posant Cb = C et cb = 4c.
-Deuxième cas : r 6 2|a − b|.
21
πC 2
4
, et dans le cas
2
2
2
On a : (a − b)2 − r4 > 0, donc pour c > 0, (a−b)
− r4c > 0.
c
De plus, µ(|F − b| > r) 6 1 car µ est une mesure de probabilité, donc :
µ(|F − b| > r) 6 e
r2
2
(a−b)2
− r4c
c
=
b − bc
Ce
2
(a−b)
en posant Cb = e c et cb = 4c.
r2
b − bc avec :
On a bien : µ(|F − b| > r) 6 Ce
cb = 4c
et
Cb = max{C, e
(a−b)2
c
}.
-Cas particulier b = Eµ (F ).
2
lorsque b = Eµ (F ). On a :
Estimons (a−b)
c
|Eµ (F ) − a| = |Eµ (F − a)|
6 Eµ (|F − a|)
=
Z +∞
0
6C
µ(|F − a| > r)dr
Z +∞
r2
e− c dr
√0
πc
=C
.
2
D’où :
(a − Eµ (F ))2
πC 2
6
.
c
4
r2
Donc µ(|F − b| > r) 6
b − bc
Ce
avec :
cb = 4c
et
Cb = max{C, e
π C2
4
}.
Cb et cb ne dépendent que de C et c.
-Cas particulier b = m médiane de F c’est-à-dire : µ(F < m) 6
2
Estimons (a−m)
. On pose :
c
q
λ=
c log(4C).
On a :
µ(|F − a| > λ) 6 Ce−
λ2
c
1
= .
2
Donc :
µ(F − a > λ) = µ(F > a + λ) 6
et
1
2
1
2
1
µ(a − F > λ) = µ(F 6 a − λ) 6 .
2
Donc :
m ∈ [a − λ, a + λ].
22
6 µ(F 6 m).
Donc |a − m| 6 λ, et
(a−m)2
c
6
λ2
c
r2
b − bc avec :
= log(4C). On a : µ(|F − b| > r) 6 Ce
cb = 4c
et
λ2
Cb = max{C, e c } = max{C, 4C} = 4C.
Cb et cb ne dépendent que de C et c.
Le lemme est démontré.
3.2
Fonction de concentration.
Définition : soit (X, d) un espace métrique et µ une mesure de probabilité sur X. Pour A
partie de X, on désigne par Ar = {x ∈ X, d(x, A) < r} le r-voisinage de A, où
d(x, A) = inf d(x, a).
a∈A
Définition : la fonction de concentration de µ est définie pour r > 0 par :
αµ (r) = sup µ(Ar C ), µ(A) >
1
.
2
Exemple : on peut montrer que si µ = N (0, 1), alors
1 Z +∞ − u2
e 2 du.
αµ (r) = √
2π r
On pourra se reporter à [L] .
Remarque : on a aussi :
1
αµ (r) = 1 − inf µ(Ar ), µ(A) >
.
2
Donc ∀B borélien de X tel que µ(B) > 12 , ∀r > 0,
µ(Br ) > inf µ(Ar ), µ(A) >
1
2
= 1 − αµ (r).
Lemme : αµ décroît vers 0 quand r → +∞.
Preuve. Vérifions d’abord que αµ est décroissante.
Soient 0 < r < r0 et A ∈ B( ) tel que µ(A) > 21 . On a :
R
Ar = {x ∈ X, d(x, A) < r}
et :
Ar0 = {x ∈ X, d(x, A) < r0 }.
L’inclusion Ar ⊂ Ar0 entraîne Ar0 C ⊂ Ar C .
Donc :
µ(Ar0 C ) 6 µ(Ar C ).
Ainsi, ∀A tel que µ(A) > 21 , on a :
µ(Ar0 C ) 6 sup µ(Ar C ), µ(A) >
23
1
2
= αµ (r).
Finalement :
0
αµ (r ) = sup µ(Ar0
C
1
), µ(A) >
2
6 αµ (r).
Donc αµ est bien décroissante.
On montre à présent que :
αµ (r) −−−−→ 0.
r→+∞
Soit ε <
1
2
et x ∈ X. Puisque
!
µ
[
B(x, r) = 1,
r>0
il existe une boule B telle que µ(B) > 1 − ε.
Soit A ⊂ X tel que µ(A) > 12 .
Si A ne rencontre pas B, on a :
A ∩ B = ∅.
Donc :
1
+ 1 − ε > 1.
2
On a une contradiction. Donc toute partie A de X telle que µ(A) > 12 rencontre B.
Pour r > diam(B), avec diam(B) = sup d(x, y) est le diamètre de B, Ar recouvre B. Donc :
µ(A ∪ B) = µ(A) + µ(B) >
x,y∈B
µ(Ar ) > µ(B) > 1 − ε.
En particulier
inf µ(Ar ), µ(A) >
1
2
> 1 − ε.
Donc :
1 − αµ (r) > 1 − ε.
Autrement dit, pour r > diam(B), on a :
αµ (r) 6 ε.
On en déduit :
αµ (r) −−−−→ 0.
r→+∞
Le lemme est démontré.
Définition : on dit que µ satisfait une propriété de concentration gaussienne s’il existe c > 0
et C > 0 tels que :
r2
αµ (r) 6 Ce− c .
R
Théorème : soit µ une mesure sur n vérifiant une inégalité de concentration gaussienne sur
la classe Cb∞ ( n ), c’est-à-dire pour toute fonction f de Cb∞ ( n ) :
R
R
Entµ (f 2 ) 6 cEµ (|∇f |2 ).
Alors, µ vérifie une propriété de concentration gaussienne.
Preuve.
Par l’argument de Herbst exposé dans la deuxième partie, on obtient que toute fonction F
lipschitzienne satisfait une inégalité de concentration gaussienne par rapport à son espérance
24
Eµ (F ).
Par le lemme précédent, toute fonction F lipschitzienne satisfait alors une inégalité de
concentration gaussienne par rapport à tout réel, en particulier par rapport à ses médianes.
Par la proposition suivante, c’est équivalent à µ satisfait une propriété de concentration
gaussienne.
3.3
Concentration et fonctions lipschitziennes.
Soient (X, d) un espace métrique et µ une mesure sur X.
Proposition : les deux propriétés suivantes sont équivalentes. Soit βµ :
décroissante.
(i) Pour tout r > 0, pour tout borélien A de X tel que µ(A) > 21 , on a :
R+ → [0, 1]
µ(Ar ) > 1 − βµ (r).
(ii) Pour toute F : (X, d) →
a:
R lipschitzienne , pour toute médiane m de F , pour tout r > 0, on
!
µ(F > m + r) 6 βµ
r
.
kF kLip
Preuve de la proposition.
⇒ On suppose que ∀r > 0, ∀A ∈ B(X) tel que µ(A) > 12 , µ(Ar ) > 1 − βµ (r). Soit
F : (X, d) → lipschitzienne. On peut supposer que F n’est pas constante et que kF kLip = 1,
(on s’y ramène en s’intéressant à kF FkLip ).
Soit m une médiane de F . Soir r > 0. On a :
R
(
)
{F 6 m}r = y ∈ X,
inf
x∈{F 6m}
d(x, y) < r .
Soit y ∈ {F 6 m}r .
Il existe alors x ∈ {F 6 m} tel que d(x, y) < r. Donc :
|F (x) − F (y)| 6 kF kLip d(x, y) < r.
Donc :
F (y) < r + F (x),
soit :
F (y) < r + m.
Donc :
{F 6 m}r ⊂ {F < m + r}.
Ainsi :
µ ({F 6 m}r ) 6 µ(F < m + r)
et :
µ(F > m + r) = 1 − µ(F < m + r) 6 1 − µ ({F 6 m}r ) .
Or µ(F 6 m) >
1
2
car m est une médiane de F . Donc :
!
µ(F > m + r) 6 βµ (r) = βµ
25
r
.
kF kLip
⇐ On suppose que ∀F lipschitzienne, ∀m médiane de F , ∀r > 0,
!
µ(F > m + r) 6 βµ
r
.
kF kLip
La fonction F (x) = d(x, A) est lipschitzienne sur X et kF kLip 6 1.
Observons aussi que l’on a :
1
µ(F < 0) = 0 6
2
et :
1
µ(F 6 0) = µ(F = 0) = µ({x ∈ X, d(x, A) = 0}) = µ(Ā) > µ(A) > .
2
Donc 0 est une médiane de F .
On a alors par hypothèse :
!
r
.
µ(F > r) 6 βµ
kF kLip
Comme kF kLip 6 1 et βµ est décroissante, on obtient :
µ(F > r) 6 βµ (r).
Or :
Ar = {F < r} = {F > r}C .
Donc :
µ(Ar ) > 1 − βµ (r).
La proposition est démontrée.
Remarque : le pont (ii) entraîne : pour toute F : (X, d) →
médiane m de F , pour tout r > 0,
R lipschitzienne , pour toute
!
µ(|F − m| > r) 6 2βµ
26
r
.
kF kLip
Références
[A] Ané , Cécile ; Blachère , Sébastien ; Chafaï , Djalil ; Fougères , Pierre ; Gentil ,
Ivan ; Malrieu , Florent ; Roberto , Cyril ; Scheffer, Grégory
Sur les inégalités de Sobolev logarithmiques.
Panoramas et Synthèses, 10. Société Mathématique de France, 2000.
[B] Brézis, Haïm
Analyse fonctionnelle. Théorie et applications.
Collection Mathématiques Appliquées pour la Maîtrise. Masson, 1983.
[C] Chafaï, Djalil
Inégalités de Poincaré et de Gross pour les mesures de Bernoulli, de Poisson, et de Gauss.
hal, archives ouvertes, ccsd-00012428, 2005.
[L] Ledoux , Michel
Concentration of measure and logarithmic Sobolev inequalities.
Séminaire de Probabilités XXXIII. Lecture Notes in Math. 1709, 120-216. Springer, 1999.
27
Téléchargement