Entropie et Distribution des Nombres Premiers

publicité
Alexandre Bailleul - Paul Alphonse
Entropie et Distribution des Nombres Premiers
ENS Rennes - Avril 2014
Introduction
La question de la distribution des nombres premiers parmi les entiers naturels est
ancienne. On sait depuis Euclide (environ 300 ans avant J.-C.) qu’il existe une infinité
de nombres premiers, mais il n’y eut presque aucune avancée dans l’étude de leur
distribution pendant plusieurs siècles. A la fin du XVIIIème siècle, Gauss conjectura,
alors qu’il n’avait que 17 ans, ce qu’on appelle aujourd’hui le théorème des nombres
premiers, qui énonce que la quantité de nombres premiers inférieurs à un entier n est
asymptotiquement de l’ordre de lnnn . Si l’on note π(n) le nombre de nombres premiers
inférieurs à n, le théorème stipule que
π(n)
n
∼
n→+∞
ln n
Une première avancée fut faite par Tchebytchev qui démontra en 1848 que
Œ
‚
Œ
‚
π(n) ln(n)
π(n) ln(n)
≤ 1 ≤ lim sp
lim inf
n→+∞
n
n
n→+∞
π(n) ln(n)
ce qui montre que si le quotient
a une limite, celle-ci ne peut être que 1.
n
Le théorème des nombres premiers fut finalement démontré par Hadamard et De La
Vallée Poussin, indépendamment, en 1896. On va ici s’intéresser à la formule dite de
Mertens, qui permet d’arriver au résultat de Tchebytchev. Cette formule énonce que
X
ln p
p
p premier : p ≤ n
∼
n→+∞
ln n
Historiquement, ce résultat a été montré par des méthodes d’analyse. Nous allons en
donner ici une démonstration élémentaire reposant uniquement sur des notions de
probabilité, notamment la notion d’entropie de Shannon.
1
1
ENTROPIE
Table des matières
1 Entropie
1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Le cas des lois géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
2
4
2 Théorème de Mertens
2.1 Mise en place . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Une minoration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Démonstration du théorème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
6
7
8
Notations
Dans toute la présentation, on adoptera les notations suivantes
1. N désigne l’ensemble des entiers naturels.
2. p désigne toujours un nombre premier.
1 . Entropie
Soit (Ω, F , P) un espace de probabilité fixé pour toute cette partie.
L’objectif est ici de définir la notion d’entropie sur (Ω, F , P) et d’étudier en détail le
cas des lois géométriques.
1.1 - Définition et premières propriétés
Définissons tout d’abord l’entropie d’une variable aléatoire discrète.
Définition 1.1.1. Soit X une variable aléatoire discrète sur (Ω, F , P) de support S(X).
On appelle entropie de X la quantité
X
P(X = k) ln(P(X = k))
H(X) = −
k∈S (X)
Nous allons montrer un premier lemme, fondamental pour la suite, donnant l’entropie
d’une loi uniforme.
Lemme 1.1.1. Soit N une variable aléatoire de loi uniforme sur J1, nK avec n entier
naturel non nul. Alors l’entropie de N est donnée par
H(N) = ln n
Démonstration. Par définition de l’entropie
H(N) = −
n
X
P(N = k) ln(P(N = k)) = −
k=1
n − ln n
X
k=1
n
= ln n
Une autre propriété importante pour la suite est la sous-additivité de l’entropie, que
l’on démontre dans la proposition suivante.
Alexandre Bailleul
2
Paul Alphonse
1
ENTROPIE
Proposition 1.1.1. Soit (X )∈ une famille finie de variables aléatoires discrètes sur
(Ω, F , P). Alors
X
H(X :  ∈ ) ≤
H(X )
∈
Démonstration. On démontre le résultat dans le cas de deux variables aléatoires, le
cas général se traite ensuite par récurrence. Soient donc X1 et X2 variables aléatoires.
X
H(X1 , X2 ) = −
P(X1 = , X2 = j) ln(P(X1 = , X2 = j))
(,j)∈N2
X
=−
P(X1 = , X2 = j) ln
X
Œ
P(X1 = )P(X2 = j)
(,j)∈N2
−
P(X1 = , X2 = j)
‚
P(X1 = , X2 = j) ln (P(X1 = )P(X2 = j))
(,j)∈N2
X
=−
P(X1 = , X2 = j) ln
(,j)∈N2
−
X
P(X1 = , X2 = j)
‚
Œ
P(X1 = )P(X2 = j)
X
P(X1 = , X2 = j) ln (P(X1 = )) −
(,j)∈N2
P(X1 = , X2 = j) ln (P(X2 = j))
(,j)∈N2
Or :
X
(,j)∈N2


X X

P(X1 = , X2 = j) ln (P(X1 = )) =
P(X1 = , X2 = j) ln (P(X1 = ))

∈N
=
X
j∈N
P(X1 = ) ln (P(X1 = ))
∈N
= −H(X1 )
par propriété sur les lois des marginales d’un vecteur aléatoire. De même
X
P(X1 = , X2 = j) ln (P(X2 = j)) = −H(X2 )
(,j)∈N2
donc on obtient
H(X1 , X2 ) = −
X
P(X1 = , X2 = j) ln
‚
(,j)∈N2
P(X1 = , X2 = j)
P(X1 = )P(X2 = j)
Œ
+ H(X1 ) + H(X2 )
On utilise à présent l’inégalité bien connue
∀ ∈ R∗
: ln  ≤  − 1
+
Alexandre Bailleul
3
Paul Alphonse
1
ENTROPIE
pour écrire
ln
P(X1 = )P(X2 = j)
P(X1 = , X2 = j)
P(X1 = , X2 = j) ln
≤
P(X1 = )P(X2 = j)
P(X1 = , X2 = j)
P(X1 = )P(X2 = j)
P(X1 = , X2 = j)
− P(X1 = , X2 = j) ln
−1
≤ P(X1 = )P(X2 = j) − P(X1 = , X2 = j)
P(X1 = , X2 = j)
≤ P(X1 = )P(X2 = j) − P(X1 = , X2 = j)
P(X1 = )P(X2 = j)
Il ne reste plus qu’à sommer :
X
H(X1 , X2 ) − H(X1 ) − H(X2 ) ≤
P(X1 = )P(X2 = j) −
(,j)∈N2
≤
X
X
P(X1 = , X2 = j)
(,j)∈N2
P(X1 = )
∈N
X
P(X2 = j) −
j∈N
X
P(X1 = , X2 = j)
(,j)∈N2
≤1−1
≤0
pour obtenir le résultat escompté.
1.2 - Le cas des lois géométriques
On s’intéresse dans cette partie à l’entropie des lois géométriques. Une variable aléatoire discrète X suit une loi géométrique de paramètre p lorsque
∀k ≥ 0 : P(X = k) = (1 − p)k p
La proposition suivante donne l’entropie d’une telle variable aléatoire.
Proposition 1.2.1. Soit X une variable aléatoire suivant une loi géométrique de
paramètre p. Alors
p−1
ln(1 − p)
H(X) = − ln p −
p
Démonstration. Par définition de l’entropie :
X
H(X) = −
P(X = k) ln(P(X = k))
k≥0
=−
X
(1 − p)k p ln((1 − p)k p)
k≥0
=−
X
(1 − p)k p ln p −
k≥0
k(1 − p)k p ln(1 − p)
k≥0
= − ln p − p ln(1 − p)
= − ln p −
X
1−p
p
1−p
p2
ln(1 − p)
ce qui est le résultat annoncé.
Alexandre Bailleul
4
Paul Alphonse
1
ENTROPIE
Il est également possible d’exprimer cette entropie en fonction de l’espérance μ de
X. En effet :
X
X
p(1 − p)
1−p
μ = E[X] =
k P(X = k) = p
k(1 − p)k =
=
2
p
p
k≥0
k≥0
on obtient une nouvelle forme de H(X) sous la forme suivante
H(X) = (μ + 1) ln(μ + 1) − μ ln μ
Pour μ réel strictement positif, on pose H(μ) l’entropie d’une loi géométrique d’espérance μ. La fonction H ainsi définie vérifie la propriété suivante
Lemme 1.2.1. La fonction H est croissante.
Démonstration. Comme on l’a vu plus tôt dans cette partie H(μ) vaut pour tout μ réel
H(μ) = (μ + 1) ln(μ + 1) − μ ln μ
et une simple étude de fonction montre que H croît.
Les lois géométriques jouent un rôle particulier dans l’étude de l’entropie comme le
montre la proposition suivante.
Proposition 1.2.2. A moyenne fixée, les lois géométriques maximisent l’entropie
pour les lois à support dans N.
Démonstration. Soient X une variable aléatoire suivant une loi géométrique de paramètre p et Y une variable aléatoire discrète d’espérance celle de X, ie en notant
pk = P(Y = k) pour tout k entier naturel
X
1−p
kpk =
p
k≥0
A partir de là :
1−p
H(X) − H(Y) = − ln p −
= − ln p
p
X
ln(1 − p) +
pk − ln(1 − p)
=
‚
pk
ln
k≥0
=
X
pk ln
k≥0
pk ln pk
k≥0
k≥0
X
X
X
kpk +
k≥0
1
p
+ ln
X
pk ln pk
k≥0
Œ
1
(1 − p)k
+ ln pk
pk
p(1 − p)k
Il ne reste donc plus qu’à montrer que cette dernière quantité est positive. Partant de
l’inégalité de convexité
∀ ∈ R∗
: ln  ≤  − 1
+
on obtient les inégalités suivantes
ln
p(1 − p)k
pk ln
pk ln
Alexandre Bailleul
pk
≤
p(1 − p)k
pk
pk
p(1 − p)k
p(1 − p)k
pk
−1
≤ p(1 − p)k − pk
≥ pk − p(1 − p)k
5
Paul Alphonse
2
THÉORÈME DE MERTENS
En sommant, le résultat souhaité tombe
X
X
H(X) − H(Y) ≥
pk −
p(1 − p)k = 1 − 1 = 0
k≥0
k≥0
La maximalité de l’entropie d’une loi géométrique à moyenne fixée va nous permettre
d’obtenir une minoration de la somme que l’on étudie dans la prochaine section.
2 . Théorème de Mertens
L’objectif de cette section est de démontrer le théorème suivant
Théorème (Mertens).
X ln p
p
p≤n
∼
n→+∞
ln n
par une méthode probabiliste. On s’inspirera d’une démonstration de I. Kontoyiannis
publiée en 2007.
2.1 - Mise en place
On se fixe (Ω, F , P) un espace de probabilité et n un entier naturel non nul.
Soit N une variable aléatoire sur (Ω, F , P) suivant une loi uniforme sur J1, nK. Pour tout
p nombre premier inférieur ou égal à n, on pose
Xp = νp (N)
la valuation p-adique de N. Par le théorème fondamental de l’arithmétique, on a alors
Y
pXp
N=
p≤n
Les lois des variables aléatoires Xp vérifient
P(Xp ≥ k) =
1
œ
Ÿ
n
pk
n
pour tout k de N∗ . En effet
P(Xp ≥ k) = P(N est un multiple de p ) =
k
car il y a
j
n
pk
k
1
œ
n
Ÿ
n
pk
multiples de pk entre 1 et n.
Ce résultat permet de démontrer un premier lemme sur les moments des variables
aléatoires Xp :
Lemme 2.1.1. Pour tout nombre premier p inférieur ou égal à n
1
p
−
1
n
≤ E[Xp ] ≤
1
p−1
Démonstration. Soit p un nombre premier inférieur ou égal à n. Xp est une variable
aléatoire discrète positive, donc par propriété
E[Xp ] =
X
k≥1
Alexandre Bailleul
P(Xp ≥ k) =
X 1
k≥1
n
6
œ
n
pk
Ÿ
≤
X
‚ Œk
1
k≥1
p
=
1
p−1
Paul Alphonse
2
THÉORÈME DE MERTENS
D’autre part
E[Xp ] ≥ P(Xp ≥ 1) =
1
œ Ÿ
n
n
p
≥
1
p
−
1
n
par définition de la partie entière.
De plus, la proposition suivante donne un lien entre l’entropie de N et celle des variables aléatoires Xp
Proposition 2.1.1. L’entropie de N est donnée par
H(N) = H(Xp : p ≤ n) = ln n
Démonstration. Démontrons la première égalité, la seconde étant immédiate avec le
le lemme 1.1.1
H(N) = −
n
X
P(N = k) ln(P(N = k))
k=1
=−
n
X
!!
!
Y
P
k=1
p Xp = k
X
(k1 ,...,kπ(n) )∈Nπ(n)
pXp = k
p≤n
π(n)
Y
P
(k1 ,...,kπ(n) )∈Nπ(n)
=−
ln P
p≤n
X
=−
Y
Xp
p 
=1
=
π(n)
Y
!
k
p 
ln P
=1
π(n)
Y
Xp
p 
=1
=
π(n)
Y
!!
k
p 
=1
P(∀ ∈ J1, π(n)K : Xp = k ) ln(P(∀ ∈ J1, π(n)K : Xp = k ))
= H(Xp : p ≤ n)
où l’on a noté π la fonction de répartition des nombres premiers définie pour tout 
réel par
X
1
π() =
p≤
et p le -ème nombre premier.
2.2 - Une minoration
L’objectif est ici de démontrer le résultat suivant
Proposition 2.2.1.
lim inf
n→+∞
1 X ln p
ln n p≤n p
!
≥1
après avoir étudié le lemme suivant
Lemme 2.2.1. Pour tout entier naturel n supérieur ou égal à 2
‚
‚
ŒŒ
X
ln p
1
− ln 1 −
≥ ln n
p
p≤n p − 1
Démonstration. Avec la proposition 2.1.1 et les résultats préliminaires concernant
l’entropie, on obtient
X
X
ln n = H(Xp : p ≤ n) ≤
H(Xp ) ≤
H(E[Xp ])
p≤n
Alexandre Bailleul
7
p≤n
Paul Alphonse
2
THÉORÈME DE MERTENS
car à moyenne fixée, la loi géométrique majore l’entropie. De plus, la croissance de
H et le lemme 2.1.1 donnent
Œ
–
‚
Œ
‚
Ϊ
‚
X
X
1
p
p
1
1
=
ln
−
ln
ln n ≤
H
p−1
p−1
p−1
p−1
p≤n p − 1
p≤n
grâce à la proposition sur l’entropie d’une loi géométrique. C’est le résultat annoncé
à réarrangement des termes près.
Passons à présent à la démonstration de la proposition 2.2.1
Démonstration de la proposition 2.2.1. Soient M et n des entiers naturels avec M ≥ 2
et n ≥ M. Alors via le lemme précédent
‚
‚
ŒŒ
X
1
ln p
ln n ≤
− ln 1 −
p
p≤n p − 1
=
X
‚
p−1
p≤M
≤
X
ln p
‚
p≤M
ln p
p−1
‚
− ln 1 −
‚
− ln 1 −
1
ŒŒ
+
p
1
‚
X
M<p≤n
ŒŒ
p
+

X 

M<p≤n
ln p
p−1
‚
− ln 1 −
1−
1
p
ŒŒ
p

1
+

p
M−1p
ln p
1
1
M
La dernière étape provenant de l’inégalité
–
™
1

∀ ∈ 0,
: − ln(1 − ) ≤
1
M
1− M
qui se montre par un argument de convexité par exemple. La croissance de la fonction
ln donne ensuite


‚
‚
ŒŒ
X
X  1 ln p
ln p
1
M ln p 1 
ln n ≤
− ln 1 −
+
+


p
M − 1 ln M p
1 − 1p p
p≤M p − 1
M<p≤n
≤
X
p≤M
‚
ln p
p−1
‚
− ln 1 −
1
p
ŒŒ
‚
+
M
Œ‚
M−1

Œ
X ln p
X ln p


1+
−
ln M
p≤n p
p≤M p
1
A présent, on divise par ln n et on passe à la lim inf quand n → +∞
!
1 X ln p
(M − 1) ln M
lim inf
≥
n→+∞
ln n p≤n p
M(1 + ln M)
M a été choisi quelconque, on le fait tendre vers +∞ pour obtenir le résultat.
2.3 - Démonstration du théorème
Le résultat démontré dans le paragraphe précédent montre la moitié du résultat final
que l’on veut obtenir. L’objectif de ce paragraphe est d’obtenir une majoration qui
permettra de démontrer le théorème de Mertens. Elle requiert la démonstration d’un
lemme, due à Paul Erdös.
Lemme 2.3.1. Pour tout n entier naturel supérieur à 2
X
ln p ≤ (2 ln 2)n
p≤n
Alexandre Bailleul
8
Paul Alphonse
2
THÉORÈME DE MERTENS
Démonstration (Erdös). On pose pour tout n plus grand que 2
X
θ(n) :=
ln p
p≤n
Remarquons tout d’abord que comme 2 est le seul nombre premier pair, θ vérifie
∀n ≥ 2 : θ(2n) = θ(2n − 1)
on se limite donc à l’étude de l’inégalité pour les nombres impairs.
Soit à présent n ≥ 2 fixé. Chaque nombre premier p entre n + 2 et 2n + 1 divise le
coefficient binomial
‚
Œ
2n + 1
B :=
n
puisque
‚
2n + 1
Œ
n
=
1
2n+1
Y
n! k=n+2
soit
k=
p
Y
n! k∈Jn+2,2n+1K\{p}
k
Œ
‚
2n + 1
p n!
n
et le lemme de Gauss donne le résultat, p et n! étant premiers entre eux. Le produit
de ces nombres premiers divise également B, leur produit reste donc inférieur à B, ce
qui donne
Y
p≤B=
n+1<p≤2n+1
Œ
‚
1 2n + 1
n
2
+
Œ
‚
1 2n + 1
n+1
2
≤
(1 + 1)2n+1
2
= 22n
par formule du binôme de Newton. En passant au logarithme, on obtient alors
X
θ(2n + 1) − θ(n + 1) =
ln p ≤ (2 ln 2)n
n+1<p≤2n+1
et un raisonnement par récurrence achève la démonstration, l’initialisation étant immédiate.
Proposition 2.3.1. Pour tout n élément de N supérieur ou égal à 2
X ln p
p≤n
p
≤ ln n + 2 ln 2
Démonstration. Soit Q la fonction de masse de la variable aléatoire N. Alors
Q(N) =
1
n
et comme N ≤ n, on obtient

ln n = H(N) = E[− ln Q(N)] ≥ E[ln N] = E ln
!
Y
p≤n
p
Xp
=
X
E[Xp ] ln p
p≤n
Ensuite le lemme 2.1.1 et le lemme précédent fournissent le résultat
‚
Œ
X 1
X ln p
X ln p
1
1 X
−
ln p =
−
ln p ≥
− 2 ln 2
ln n ≥
n
n p≤n
p≤n p
p≤n p
p≤n p
Alexandre Bailleul
9
Paul Alphonse
RÉFÉRENCES
Finalement, on a démontré dans les sous-parties 1 et 2 les deux résultats suivants
!
1 X ln p
≥1
lim inf
n→+∞
ln n p≤n p
∀n ≥ 2 :
X ln p
p≤n
p
≤ ln n + 2 ln 2
qui à eux deux démontrent le théorème de Mertens.
Références
[1]
I.Kontoyannis, Some Information-Theoretic Computations Related to the Distribution of Prime Numbers, 2007.
[2]
Sources diverses sur l’entropie.
Alexandre Bailleul
10
Paul Alphonse
Téléchargement