Alexandre Bailleul - Paul Alphonse
Entropie et Distribution des Nombres Premiers
ENS Rennes - Avril 2014
Introduction
La question de la distribution des nombres premiers parmi les entiers naturels est
ancienne. On sait depuis Euclide (environ 300 ans avant J.-C.) qu’il existe une infinité
de nombres premiers, mais il n’y eut presque aucune avancée dans l’étude de leur
distribution pendant plusieurs siècles. A la fin du XVIIIème siècle, Gauss conjectura,
alors qu’il n’avait que 17 ans, ce qu’on appelle aujourd’hui le théorème des nombres
premiers, qui énonce que la quantité de nombres premiers inférieurs à un entier nest
asymptotiquement de l’ordre de n
ln n. Si l’on note π(n)le nombre de nombres premiers
inférieurs à n, le théorème stipule que
π(n)
n+
n
ln n
Une première avancée fut faite par Tchebytchev qui démontra en 1848 que
lim inf
n+π(n)ln(n)
n1lim sp
n+π(n)ln(n)
n
ce qui montre que si le quotient π(n)ln(n)
na une limite, celle-ci ne peut être que 1.
Le théorème des nombres premiers fut finalement démontré par Hadamard et De La
Vallée Poussin, indépendamment, en 1896. On va ici s’intéresser à la formule dite de
Mertens, qui permet d’arriver au résultat de Tchebytchev. Cette formule énonce que
X
ppremier : pn
ln p
p
n+ln n
Historiquement, ce résultat a été montré par des méthodes d’analyse. Nous allons en
donner ici une démonstration élémentaire reposant uniquement sur des notions de
probabilité, notamment la notion d’entropie de Shannon.
1
1 ENTROPIE
Table des matières
1 Entropie 2
1.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Le cas des lois géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Théorème de Mertens 6
2.1 Miseenplace ....................................... 6
2.2 Uneminoration ...................................... 7
2.3 Démonstrationduthéorème.............................. 8
Notations
Dans toute la présentation, on adoptera les notations suivantes
1. Ndésigne l’ensemble des entiers naturels.
2. pdésigne toujours un nombre premier.
1.Entropie
Soit (,F,P)un espace de probabilité fixé pour toute cette partie.
L’objectif est ici de définir la notion d’entropie sur (,F,P)et d’étudier en détail le
cas des lois géométriques.
1.1 -Définition et premières propriétés
Définissons tout d’abord l’entropie d’une variable aléatoire discrète.
Définition 1.1.1. Soit Xune variable aléatoire discrète sur (,F,P)de support S(X).
On appelle entropie de Xla quantité
H(X) = X
kS(X)
P(X=k)ln(P(X=k))
Nous allons montrer un premier lemme, fondamental pour la suite, donnant l’entropie
d’une loi uniforme.
Lemme 1.1.1. Soit Nune variable aléatoire de loi uniforme sur J1, nKavec nentier
naturel non nul. Alors l’entropie de Nest donnée par
H(N) = ln n
Démonstration. Par définition de l’entropie
H(N) =
n
X
k=1
P(N=k)ln(P(N=k)) =
n
X
k=1
ln n
n=ln n
Une autre propriété importante pour la suite est la sous-additivité de l’entropie, que
l’on démontre dans la proposition suivante.
Alexandre Bailleul 2 Paul Alphonse
1 ENTROPIE
Proposition 1.1.1. Soit (X)une famille finie de variables aléatoires discrètes sur
(,F,P). Alors
H(X:)X
H(X)
Démonstration. On démontre le résultat dans le cas de deux variables aléatoires, le
cas général se traite ensuite par récurrence. Soient donc X1et X2variables aléatoires.
H(X1, X2) = X
(,j)N2
P(X1=, X2=j)ln(P(X1=, X2=j))
=X
(,j)N2
P(X1=, X2=j)ln P(X1=, X2=j)
P(X1=)P(X2=j)
X
(,j)N2
P(X1=, X2=j)ln (P(X1=)P(X2=j))
=X
(,j)N2
P(X1=, X2=j)ln P(X1=, X2=j)
P(X1=)P(X2=j)
X
(,j)N2
P(X1=, X2=j)ln (P(X1=))X
(,j)N2
P(X1=, X2=j)ln (P(X2=j))
Or :
X
(,j)N2
P(X1=, X2=j)ln (P(X1=))=X
N
X
jN
P(X1=, X2=j)
ln (P(X1=))
=X
N
P(X1=)ln (P(X1=))
=H(X1)
par propriété sur les lois des marginales d’un vecteur aléatoire. De même
X
(,j)N2
P(X1=, X2=j)ln (P(X2=j))=H(X2)
donc on obtient
H(X1, X2) = X
(,j)N2
P(X1=, X2=j)ln P(X1=, X2=j)
P(X1=)P(X2=j)+H(X1) + H(X2)
On utilise à présent l’inégalité bien connue
R
+: ln 1
Alexandre Bailleul 3 Paul Alphonse
1 ENTROPIE
pour écrire
ln P(X1=)P(X2=j)
P(X1=, X2=j)
P(X1=)P(X2=j)
P(X1=, X2=j)1
P(X1=, X2=j)ln P(X1=)P(X2=j)
P(X1=, X2=j)P(X1=)P(X2=j)P(X1=, X2=j)
P(X1=, X2=j)ln P(X1=, X2=j)
P(X1=)P(X2=j)P(X1=)P(X2=j)P(X1=, X2=j)
Il ne reste plus qu’à sommer :
H(X1, X2)H(X1)H(X2)X
(,j)N2
P(X1=)P(X2=j)X
(,j)N2
P(X1=, X2=j)
X
N
P(X1=)X
jN
P(X2=j)X
(,j)N2
P(X1=, X2=j)
11
0
pour obtenir le résultat escompté.
1.2 -Le cas des lois géométriques
On s’intéresse dans cette partie à l’entropie des lois géométriques. Une variable aléa-
toire discrète Xsuit une loi géométrique de paramètre plorsque
k0 : P(X=k) = (1p)kp
La proposition suivante donne l’entropie d’une telle variable aléatoire.
Proposition 1.2.1. Soit Xune variable aléatoire suivant une loi géométrique de
paramètre p. Alors
H(X) = ln pp1
pln(1p)
Démonstration. Par définition de l’entropie :
H(X) = X
k0
P(X=k)ln(P(X=k))
=X
k0
(1p)kpln((1p)kp)
=X
k0
(1p)kpln pX
k0
k(1p)kpln(1p)
=ln ppln(1p)1p
p2
=ln p1p
pln(1p)
ce qui est le résultat annoncé.
Alexandre Bailleul 4 Paul Alphonse
1 ENTROPIE
Il est également possible d’exprimer cette entropie en fonction de l’espérance μde
X. En effet :
μ=E[X] = X
k0
kP(X=k) = pX
k0
k(1p)k=p(1p)
p2=1p
p
on obtient une nouvelle forme de H(X)sous la forme suivante
H(X) = (μ+1)ln(μ+1)μln μ
Pour μréel strictement positif, on pose H(μ)l’entropie d’une loi géométrique d’espé-
rance μ. La fonction Hainsi définie vérifie la propriété suivante
Lemme 1.2.1. La fonction Hest croissante.
Démonstration. Comme on l’a vu plus tôt dans cette partie H(μ)vaut pour tout μréel
H(μ) = (μ+1)ln(μ+1)μln μ
et une simple étude de fonction montre que Hcroît.
Les lois géométriques jouent un rôle particulier dans l’étude de l’entropie comme le
montre la proposition suivante.
Proposition 1.2.2. A moyenne fixée, les lois géométriques maximisent l’entropie
pour les lois à support dans N.
Démonstration. Soient Xune variable aléatoire suivant une loi géométrique de pa-
ramètre pet Yune variable aléatoire discrète d’espérance celle de X,ie en notant
pk=P(Y=k)pour tout kentier naturel
X
k0
kpk=1p
p
A partir de là :
H(X)H(Y) = ln p1p
pln(1p) + X
k0
pkln pk
=ln pX
k0
pkln(1p)X
k0
kpk+X
k0
pkln pk
=X
k0
pkln 1
p+ln 1
(1p)k+ln pk
=X
k0
pkln pk
p(1p)k
Il ne reste donc plus qu’à montrer que cette dernière quantité est positive. Partant de
l’inégalité de convexité
R
+: ln 1
on obtient les inégalités suivantes
ln p(1p)k
pk
p(1p)k
pk
1
pkln p(1p)k
pk
p(1p)kpk
pkln pk
p(1p)kpkp(1p)k
Alexandre Bailleul 5 Paul Alphonse
1 / 10 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !