GRAPHES ALÉATOIRES Table des matières 1 Arbres de Galton

publicité
GRAPHES ALÉATOIRES
Cours de B. Blaszczyszyn (M2 PMA, 2016).
Table des matières
1
2
Arbres de Galton-Watson.
1.1 Description de l’arbre. . . . . . . . . . . .
1.2 Fonction génératrice. . . . . . . . . . . . .
1.3 Probabilité d’extinction. . . . . . . . . . .
1.4 Exploration d’un arbre. . . . . . . . . . . .
1.5 Le cas sur-critique. . . . . . . . . . . . . .
1.6 Taille de l’arbre dans le cas sous-critique.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
2
3
4
7
Graphes d’Erdös-Rényi.
2.1 Le modèle. . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Exploration du voisinage d’un noeud. . . . . . . . . . .
2.3 Structure locale d’arbre de Galton-Watson poissonnien.
2.4 Transition de phase. . . . . . . . . . . . . . . . . . . . . .
2.5 Les nœuds isolés dans G (n, p). . . . . . . . . . . . . . .
2.6 Seuil pour la connexité. . . . . . . . . . . . . . . . . . . .
2.7 Exercices sur le modèle d’Erdös-Rényi. . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
8
9
9
10
11
14
16
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 Arbres de Galton-Watson.
1.1. Description de l’arbre.
On se donne une famille de variables aléatoires {ξi,j : i, j ∈ N}, indépendantes et toutes distribuées
selon une même loi ξ sur N, admettant une variance et une espérance. On note
pk = P(ξ = k).
On définit une suite de variables aléatoires Z0 , Z1 , ... par Z0 = 1 (la racine de l’arbre) et
ξn+1,1 + ... + ξn+1,Zn si Zn > 0
Zn+1 =
0 sinon.
La variable Zn est la taille de la génération n ; le noeud i de la génération n meurt, et engendre
ξn+1,i descendants directs. Pour rendre cela rigoureux, il faut décrire une manière un peu plus formelle
d’explorer le graphe : nous le ferons quelques pages plus loin.
1
Graphes aléatoires.
1.2. Fonction génératrice.
P
k
ξ
Soit φ(s) = ∞
k=0 s pk = E[s ] la fonction génératrice de ξ. Elle est bien définie si s ∈ [0, 1] et c’est
une série entière de rayon de convergence supérieur ou égal à 1. En particulier, elle est de clase C ∞ sur
son domaine de définition.
Notons ψn la fonction génératrice de Zn , c’est-à-dire ψn (s) = E[sZn ]. On a
PZn
ψn+1 (s) = E s i=1 ξn+1,i
∞
h
i
X
Pk
=
E 1Zn =k s i=1 ξn+1,i
=
k=0
∞
X
P(Zn = k)φ(s)k
k=0
= ψn φ(s)
On vient donc de montrer par récurrence que ψn = φ ◦ ... ◦ φ = φn (au sens de la composition).
R EMARQUE 1.1. C’est cette propriété cruciale qui va permettre d’étudier les probabilités d’extinction
de l’arbre. Elle n’est pas du tout évidente, et en particulier elle repose sur l’identité E[sX+Y ] = E[sX ]E[sY ]
qui fait intervenir de la commutativité (dans R) et de l’indépendance.
1.3. Probabilité d’extinction.
Notons τ = inf{n ∈ N, Zn = 0} l’instant d’extinction (noter que l’on peut avoir τ = +∞). On veut
calculer la probabilité d’extinction p= = P(τ < ∞). Il est clair que si p0 = 0, chaque noeud possède au
moins un enfant et il n’est pas possible que l’arbre meure. On supposera donc que p0 >0.
Remarquons que les événements {Zn = 0} sont croissants, donc la suite P(Zn = 0) n est croissante
et majorée (par 1), donc elle est convergente. Comme P(Zn = 0) = ψn (0), on a
p= = P(∃n : Zn = 0) = lim ψn (0).
n→∞
Comme ψn = φn et que φ est continue, on en déduit que p= est un point fixe dans [0, 1] de φ.
On sait que φ(1) = p0 +p1 +... = 1, donc 1 est un point fixe de φ, et c’est la limite de la suite récurrence
associée à φ et issue de 0. Comme la fonction φ est convexe, p= est le plus petit point fixe de φ dans [0, 1].
Plusieurs cas de se présentent en fonction de la dérivée de φ en 1. Notons que φ 0 (1) = E[ξ] := m.
– Si m 6 1, le seul point fixe de φ dans [0, 1] est 1, donc p= = 1 et la population s’éteint presque
sûrement.
– Si m > 1, il existe un unique point fixe distinct de 1 et il est dans ]0, 1[.
m>1
m=1
F IGURE 1 – Les trois cas possibles.
2
m<1
Graphes aléatoires.
T HÉORÈME 1.2. — Si E[ξ] 6 1, l’abre de Galton-Watson est fini presque sûrement. Si E[ξ] > 1, l’arbre de
Galton-Watson est fini avec probabilité p= ∈]0, 1[ et p= est la plus petite solution de l’équation φ(x) = x.
On adoptera dorénavant les termes suivants :
D ÉFINITION 1.3. On dit que l’arbre de Galton-Watson est dans le cas
– sur-critique lorsque E[ξ] > 1,
– critique lorsque E[ξ] = 1,
– sous-critique lorsque E[ξ] < 1.
On donne maintenant quelques exemples de calculs dans le cas « intéressant » où m > 1 et l’arbre
n’est pas forcément fini.
E XEMPLE 1.4. Si ξ est une loi de Poisson de paramètre λ > 1, alors un calcul classique donne φ(s) =
eλ(s−1) , et ainsi p= vérifie
=
p= = eλ(p −1) .
?
(1)
?
=
En particulier, si l’on note p la probabilité de survie éternelle (p = 1 − p ), on a
?
p? = 1 − e−λp .
Il n’y a pas de solution explicite. On remarque cependant que p? est une fonction croissante de λ, ce
qui se comprend facilement : plus λ est élevé, plus il y a de descendants, plus la probabilité de survie est
élevée.
E XEMPLE 1.5. Si ξ est une loi binomiale de paramètres (n, p) alors un calcul classique donne φ(s) =
(ps + 1 − p)n , et donc p= vérifie
p= = (p= s + 1 − p= )n .
1.4. Exploration d’un arbre.
On pose A0 = 1 et on définit par récurrence les An . Si, à l’instant n, on a An 6= 0, on choisit un nœud
actif 1 , on le désactive, et on active ses hn enfants. La variable An représente le nombre de noeuds actifs
à l’instant n, elle obéit à la récurrence suivante :
0 si An = 0
An+1 =
An − 1 + hn sinon.
On pose T = inf{t ∈ N : At = 0}. C’est le premier moment où il n’y a plus de noeuds actifs, donc
l’arbre s’est éteint et sa taille est T .
Une récurrence immédiate permet de vérifier que An = 1 + h1 + h2 + ... + hn − n lorsque n 6 T . On
en déduit notamment que si T est fini, on a la relation
T =1+
T
X
hi
(2)
i=1
R EMARQUE 1.6. Lorsque l’arbre est un arbre aléatoire de Galton-Watson, A − 1 est une marche aléatoire
issue de 0, dont les incréments sont de loi ξ − 1.
D ÉFINITION 1.7 (historique d’exploration). L’historique d’exploration d’un arbre, noté H, est la suite
H = (h1 , h2 , ..., hT ).
1. Par exemple, en prenant le plus à gauche.
3
Graphes aléatoires.
Toutes les suites ne sont pas des historiques d’exploration : il est nécessaire et suffisant qu’une suite
vérifie la relation (2) pour être un historique d’exploration. Dans ce cas, l’historique H caractérise parfaitement l’arbre.
Dans le cadre des arbres aléatoires de Galton-Watson, le processus d’exploration est aléatoire. Chaque
hi a pour loi ξ − 1 et T est le temps (aléatoire) d’atteinte de 0 par la marche aléatoire A, qui est issue de
1.
1.5. Le cas sur-critique.
Dans toute cette partie, on se place dans le cas sur-critique. On va s’intéresser à la loi de l’arbre
conditionnellement à son extinction. Nous allons voir que la loi d’un arbre de Galton-Watson surcritique conditionné à s’éteindre est encore la loi d’un arbre de Galton-Watson pour une loi de descendance modifiée.
1.5.1. La loi duale.
L EMME 1.8. — Il existe un unique s0 dans ]0, 1[ tel que φ(s0 )/s0 = φ 0 (s0 ). De plus, pour tout s ∈]0, s0 [
on a φ(s)/s > φ 0 (s) et pour tout s ∈]s0 , 1[ on a φ(s)/s < φ 0 (s) .
s 7→ φ 0 (s0 ) · s
φ
s0
F IGURE 2 – Illustration du lemme 1.8.
Démonstration. La fonction g : s 7→ φ(s)/s est strictement convexe (on peut l’écrire comme une somme
de fonctions convexes positives en développant φ) et dérivable sur ]0, 1[. De plus, on a g(p= ) = 1 et
g(1) = 1, donc il existe nécessairement un s0 ∈]p= , 1[ vérifiant g 0 (s0 ) = 0. En dérivant g, on obtient
φ 0 (s0 )s0 − φ(s0 ) = 0 et donc φ 0 (s0 ) = φ(s0 )/s0 . La dernière assertion résulte de la stricte convexité de
g.
J
D ÉFINITION 1.9 (loi recadrée). Soit p = {pk : k ∈ N} une loi de probabilité sur N. La loi λ-recadrée de p
est la loi p(λ) = {pk (λ) : k ∈ N} sur N définie par
pk (λ) = pk
(s0 λ)k
.
φ(s0 λ)
On notera p= (λ) la probabilité d’extinction pour la loi λ-recadrée.
4
Graphes aléatoires.
φ(s0 λ)
φ̄
φ
s0
p= (λ)
s0 λ
s0
F IGURE 3 – La loi λ-recadrée. Dans la figure de droite, le cadre jaune de la figure de gauche a été renormalisé.
La fonction génératrice φ̄ de p(λ) est donnée par
φ̄(s) =
φ(ss0 λ)
.
φ(s0 λ)
Autrement dit, c’est la fonction génératrice de φ restreinte à l’intervalle [0, s0 λ] et convenablement
renormalisée, d’où la terminologie « loi recadrée » . Dans la figure 3 de gauche, la loi λ-recadrée est
correspond à la portion dans le rectangle jaune. Elle est renormalisée dans la figure de droite.
Lorsque λ < 1, c’est la fonction génératrice d’une loi sous-critique : en effet, dans ce cas φ̄ 0 (1) =
φ 0 (s0 λ)s0 λ/φ(s0 λ), et tout cela est strictement inférieur à 1 d’après le lemme précédent.
Par le même raisonnement, lorsque λ > 1, on voit que φ̄ est la fonction génératrice d’une loi surcritique.
L EMME 1.10. — Pour tout λ > 1, il existe un unique µ 6= λ dans ]0, 1[ tel que
φ(s0 λ)
φ(s0 µ)
=
λ
µ
et de plus, on a la formule
µ = λp= (λ).
(3)
Démonstration. Là encore, tout résulte de la stricte convexité de la fonction g : s 7→ φ(s)/s. Nous avons
déjà vu qu’elle atteint son minimum en s0 . De plus, lims→0 g(s) = +∞ : ainsi, pour tout λ > 1 il existe
un unique t ∈]0, s0 [ tel que g(t) = g(s0 λ) et le lemme est vérifié avec µ = s/s0 . On voit bien les choses
sur la figure 4.
J
5
Graphes aléatoires.
φ(s0 λ)
φ(s0 µ)
φ
s0 µ
s0
s0 λ
F IGURE 4 – Construction de la loi duale.
D ÉFINITION 1.11 (loi duale). Pour tout λ > 1, on appelle pk (µ) la loi duale de pk (λ), où µ est le réel
donné par le lemme précédent.
Nous avions vu que si λ > 1, la loi λ-recadrée était encore une loi sur-critique, mais cette fois la loi
µ-recadrée est sous-critique.
1.5.2.
Cas sur-critique conditionné à s’éteindre.
Notons H(λ) = {ξ1 , ..., ξT } l’histoire d’exploration de l’arbre de Galton-Watson engendré par p(λ), où
λ > 1.
T HÉORÈME 1.12. — Soit p une loi sur-critique et λ > 1. Alors,
L H(λ)|T < ∞ = L H(µ) .
Autrement dit, la loi d’un arbre de Galton-Watson conditionné à s’éteindre est encore la loi d’un
arbre de Galton-Watson généré par la loi duale.
Démonstration. Soit k > 1 et x = (x1 , ..., xk ) un k-uplet vérifiant xi > 0 et k =
que P(H(λ) = x|T < ∞) = P(H(µ) = x).
1 Y
pxi (λ)
p= (λ)
k
P H(λ) = x|T < ∞ =
i=1
=
=
1
p= (λ)
k
Y
i=1
xi
pxi
(s0 λ)
φ(s0 λ)
k
(s0 λ)k−1 Y
pxi .
p= (λ)φ(s0 λ)k
i=1
Or, le lemme 1.10 montre que λp= (λ) = µ, et que
µk
λk
=
.
k
φ(s0 λ)
φ(s0 µ)k
On a donc bien l’égalité
6
Pk
i=1
xi + 1. On va montrer
Graphes aléatoires.
k
k
Y
Y
µk
P H(λ) = x|T < ∞ =
pxi =
pxi (µ),
φ(s0 µ)k
i=1
i=1
qui montre que la loi de H(λ) conditionnellement à {T < ∞} est bien la loi de H(µ).
J
En particulier, toute loi p sur-critique vérifie p(s/s0 ) = p. La loi de l’arbre conditionné à s’éteindre
est donc celle d’un arbre de Galton-Watson de paramètre µ, le dual de s/s0 .
1.6. Taille de l’arbre dans le cas sous-critique.
Soit p une loi sous-critique. L’arbre généré par p s’éteint presque sûrement : on cherche à estimer sa
taille. Pour cela, on va donner une inégalité de déviation via la méthode classique de Chernoff. On note
f la fonction génératrice de ξ (c’est donc aussi celle de tous les hi ), et f? sa transformée de Legendre :
f? (r) = max tr − ln E[etξ ] .
t∈R
T HÉORÈME 1.13. — Soit S la taille de l’arbre de Galton-Watson généré par une loi sous-critique p, et soit
n un entier. Alors,
?
P(S > n) 6 e−nf (1)
(4)
Démonstration. Reprenons le processus d’exploration de l’arbre, H = (h1 , ..., hT ). L’événement {S > n}
n’est autre que {Ak > 1}. Or, Ak = h1 + ... + hk − (k − 1), donc on a
P(T > k) = P (h1 + ... + hn > n) .
En appliquant la méthode de Chernoff à h1 + ... + hn , on obtient bien
P(T > n) 6 e−nf
?
(1)
.
J
En particulier, si β est une constante positive quelconque, on a
P(S > β ln(n)) 6
1
nβf? (1)
.
Dans le cas sous-critique, la taille de l’arbre est donc de l’ordre de ln(n) avec une très grande probabilité.
E XEMPLE 1.14. Prenons un arbre de Galton-Watson généré par une loi de Poisson de paramètre c. Sa
x
transformée de Laplace est donnée par f(x) = ec(e −1) et un calcul simple donne f? (1) = c − 1 − ln(c),
qui est bien positive si c < 1.
Par exemple, si c = 1/2 on a f? (1) ≈ 0, 19. Prenant β = 5 dans la remarque précédente, on obtient
P(S > 5 ln(n)) 6 1/n.
Ainsi, lorsque c = 0, 5 il y a moins de 1% de chances que la taille de l’arbre excède 23.
2 Graphes d’Erdös-Rényi.
Il y a plusieurs modèles de graphes aléatoires : on peut mettre de l’aléa dans tous les aspects du
graphe, par exemple son nombre de sommets, son nombre d’arêtes, ses degrés. Dans le modèle d’ErdösRényi , le nombre de sommets est fixé et chaque arête possible apparaît avec une certaine probabilité
p, identique pour toutes les arêtes et indépendamment les unes des autres. Ce modèle est souvent noté
G (n, p), avec n le nombre de sommets.
L’objectif de ce chapitre est d’étudier en fonction du choix de p divers événements macroscopiques
le graphe : connexité, comportement des composantes connexes, apparition de sous-graphes.
7
Graphes aléatoires.
2.1. Le modèle.
Formellement, notons Sn = {1, ..., n} les sommets du graphe. Soit {δi,j : i, j ∈ S} une famille de
variables aléatoires de Bernoulli de paramètre p. Le graphe d’Erdös-Rényi issu du modèle G (n, p) est le
graphe aléatoire Gn dont les sommets sont Sn , et dont l’ensemble En des arêtes est
En = {(u, v) : δu,v = 1, u 6= v}.
N OTATION 2.1. En général, on laissera tomber les indices n et on notera simplement G le graphe aléatoire. On dira qu’une propriété P est vérifiée « asymptotiquement presque sûrement » si la probabilité
que G vérifie P tend vers 1 lorsque n tend vers +∞.
E XEMPLE 2.2. Dans G (3, 1/2), il y a trois sommets et chacune des 3 arêtes potentielles est sélectionnée
avec probabilité 1/2. La probabilité d’avoir un triangle est donc 1/8.
F IGURE 5 – L’espace dans lequel G (3, p) prend ses valeurs. Si p = 1/2 chacun de ces huit graphes est
équiprobable avec probabilité p3 = 1/8.
On donne d’abord quelques propriétés simples de G (n, p). La linéarité de l’espérance et le fait qu’il
y a n(n − 1)/2 couple distincts de sommets donnent
P ROPOSITION 2.3. — Dans G (n, p), l’espérance du nombre d’arêtes est :
pn(n − 1)/2.
On choisit souvent p sous la forme λn. Le paramètre λ représentera le nombre moyen d’arêtes par
sommet. On dit souvent que le modèle G (n, λ/n) est en régime creux 2 (ou éparpillé).
P ROPOSITION 2.4. — Notons T le nombre de triangles dans le graphe aléatoire G issu de G (n, p). Alors,
E[T ] =
n(n − 1)(n − 2) 3
p
6
Démonstration. Il suffit d’utiliser la linéarité de l’espérance. Un triangle est le donnée de trois sommets
(ce qui fait m = C3n choix possibles) et de l’apparition des trois arêtes joignant ces sommets (ce qui arrive
avec probabilité p3 ). Si l’on note t1 , t2 , ..., tm tous les triplets possibles, alors on a
T=
m
X
1{ti est un triangle dans G} ,
i=1
donc E[T ] = mp3 = p3 n(n − 1)(n − 2)/6.
J
En fait, on a la première généralisation suivante, dont la démonstration est identique :
P ROPOSITION 2.5. — Soit Xs le nombre de graphes complets à s sommets (s 6 n) dans le graphe
aléatoire G issu de G (n, p). Alors,
E[Xs ] = Csn p
2. Sparse, en anglais.
8
s(s−1)
2
.
Graphes aléatoires.
Par exemple, dans un graphe avec 10 sommets, si p = 1/2, il y aura en moyenne 15 triangles et 3, 3
quadrilatères complets (le graphe K4 ).
On peut aussi aller plus loin et compter exactement l’espérance du nombre de sous-graphes isomorphes à un certain graphe (exercice 2.20 pour les cycles).
2.2. Exploration du voisinage d’un noeud.
Soit v un sommet choisi indépendamment du graphe (par exemple, prendre v = 1). On va décrire un
procédé d’exploration des sommets et des arêtes du graphe.
– Au temps t = 0, on pose A0 = {v} (un seul noeud actif) et B0 = ∅. L’ensemble Bt contient tous les
noeuds inactifs, c’est-à-dire déjà explorés mais ayant été désactivés.
– Au temps t = 1, on désactive le seul noeud actif v et on découvre tous ses voisins D(v). On a donc
B1 = {v}.
et
A1 = D(v)
– Au temps t quelconque, on sélectionne un noeud quelconque vt dans At−1 . On le désactive, et on
active l’ensemble D(vt ) de ses voisins qui ne sont ni dans At−1 ni dans Bt−1 , autrement dit ceux qui
n’ont pas été explorés. On a donc
At = At−1 \ {vt } ∪ D(vt )
et
Bt = Bt−1 ∪ {vt }.
On continue l’exploration jusqu’à ce qu’il n’y ait plus de noeuds actifs. On note en lettres minscules
les cardinaux des ensembles utilisés : at = |At |, bt = |Bt | et dt = |D(vt )|. Contrairement au cas de l’arbre
de Galton-Watson, la famille {di : i > 1} n’est pas iid : en fait, les di ne sont pas indépendants et n’ont
pas la même distribution. Cependant, on sait que dt suit une loi binomiale conditionnellement au passé
avant t :
L (dt |d1 , ..., dt−1 ) = B n − at−1 − bt−1 , p .
(5)
D’autre part, les suites (ai ) et (bi ) vérifient les récurrences suivantes : a0 = 1, b0 = 0, et
at = −(t − 1) +
t
X
di .
i=1
bt = t.
On pose T = inf{t > 1 : at = 0}. C’est la fin de l’exploration, il n’y a plus de noeuds actifs. On a
clairement T 6 n. Noter qu’en T , on a complètement exploré la composante connexe issue du sommet
initialement choisi, v, et on a construit un arbre couvrant pour cette composante.
N OTATION 2.6. Comme dans le cas des arbres, on notera H = (d1 , ..., dT ) l’historique d’exploration de
la composante connexe issue de v dans un graphe quelconque.
Un vecteur (x1 , ..., xt ) est un historique d’exploration admissible si et seulement s’il vérifie les contraintes
suivantes :


x1 + x2 + ... + xj − j + 1 > 0 pour tout 1 < j < k
(6)
x1 + x2 + ... + xt − t + 1 = 0 si et ssi t = T


x1 + ... + xt + 1 6 n
2.3. Structure locale d’arbre de Galton-Watson poissonnien.
Localement, l’exploration d’un graphe d’Erdös-Rényi est asymptotiquement celle d’un arbre de
Galton-Watson.
9
Graphes aléatoires.
P ROPOSITION 2.7. — Soit G un graphe aléatoire issu de G (n, λ/n) et soit H l’historique d’exploration
d’une composante de G. Soit t un entier fixé et soit (x1 , ..., xt ) une suite vérifiant (6). Alors
lim P(d1 = x1 , ..., dt = xt ) =
n→∞
k
Y
e−λ
i=1
λx i
.
xi !
(7)
Démonstration. En conservant les notations de la section précédente, si H = (x1 , ..., xt ) on a ai = −i +
1 + x1 + ... + xj et bi = i, pour i = 1, ..., t. On note pn = λ/n. En conditionnant de manière répétée et en
utilisant (5), on obtient
P(d1 = x1 , ..., dt = xt ) =
t
Y
i
Cxn−a
pxi (1 − pn )n−ai−1 −bi−1 −xi .
i−1 −bi−1 n
i=1
Il suffit maintenant de faire tendre n vers +∞ et d’utiliser les équivalents classiques (Stirling, formule
exponentielle) pour avoir le résultat.
J
R EMARQUE 2.8. La proposition précédente suggère que l’exploration de G (n, λ/n) possède asymptotiquement les mêmes lois fini-dimensionnelles que l’exploration de l’arbre de Galton-Watson généré par
une loi de Poisson de paramètre λ. Ainsi, localement, le graphe d’Erdös-Rényi ressemble à un arbre.
2.4. Transition de phase.
2.4.1. Le théorème d’Erdös-Rényi.
Le célèbre théorème d’Erdös-Rényi décrit le comportement des composantes connexes d’un graphe
aléatoire.
T HÉORÈME 2.9. — Soit G un graphe aléatoire issu de G (n, λ/n).
– Si λ < 1, il existe une constante a dépendant de λ telle que
P(|C1 | 6 a ln(n)) → 1.
– Si λ > 1, il existe une constante a 0 dépendant de λ telle que pour tout δ > 0, on a
|C1 |
= 0
− (1 − p ) 6 δ, |C2 | 6 a ln(n) → 1,
P n
où p= désigne la probabilité d’extinction d’un arbre de Galton-Watson généré par une loi de Poisson de paramètre λ.
– Si λ = 1, il existe une constante κ > 0 telle que pour tout b > 0, on a
κ
P |C1 | > bn2/3 6 2 .
b
On ne va pas démontrer rigoureusement ce théorème, mais dans le paragraphes suivants on va tout
de même indiquer l’heuristique qui permet de retrouver ce résultat.
2.4.2. Approximation dans le cas sous-critique.
Nous avons vu dans les sections précédentes que le comportement local du graphe d’Erdös-Rényi
est environ celui d’un arbre de Galton-Watson généré par une loi de Poisson de paramètre λ. Supposons
que cette approximation est valable globalement, et plus seulement localement. Alors, dans le cas λ < 1,
cela signifie que la taille de C(v), la composante connexe qui contient le sommet v, est environ celle de
l’arbre de Galton-Watson pour la paramètre λ.
Nous avons vu dans la section 1.6 que la taille de cet arbre est d’ordre a ln(n). Plus précisément, dans
le cas d’une loi de Poisson on a précisé la probabilité de déviation dans l’exemple 1.14 :
10
Graphes aléatoires.
P(|C(v)| > a ln(n)) ≈ P(S > a ln(n)) 6 n−a(λ−1−ln(λ)) .
La probabilité qu’il existe un sommet v tel que C(v) a plus de a ln(n) éléments peut donc se borner
par n1−a(λ−1−ln(λ)) , et si a est assez grand tout cela tend vers 0.
2.4.3. Approximation dans le cas sur-critique.
Dans le cas λ > 1, il y a une composante géante C1 et la proportion de sommets dans cette composante est |C1 |/n. Cela s’interprète aussi comme la probabilité de tomber dans C1 si l’on choisit un
sommet arbitraire v avant de tirer les arêtes du graphe.
Compte tenu de la comparaison (heuristique) entre le comportement de C1 et un arbre de GaltonWatson qui survit, on peut supposer qu’on a l’approximation suivante, où S est la taille d’un arbre de
Galton-Watson généré par une loi de Poisson de paramètre λ :
P(v ∈ C1 ) ≈ P(S = ∞) = 1 − p= (λ).
Cela suggère donc
|C1 |
≈ 1 − p= (λ)
(8)
n
Quel est le comportement des autres composantes ? Notons G le graphe. Alors G \ C1 est encore un
graphe d’Erdös-Rényi avec même paramètre λ/n et n−|C1 | sommets, qui est d’ordre np= (λ). Dès lors, on
a n 0 pn ≈ µ := λp= (λ). Le comportement de G \ C1 est donc semblable à celui d’un graphe d’Erdös-Rényi
avec paramètre µ, qui est le paramètre dual de la loi de Poisson de paramètre λ au sens de la définition
1.11.
Notons que µ < 1. Ainsi, le comportement de G\C1 est semblable à celui de l’arbre de Galton-Watson
dans le cas sous-critique, donc C2 , C3 , ... ont une taille n’excédant pas a ln(n) pour une constante a, par
la section précédente.
2.4.4. Borne dans le cas critique via les techniques de martingales.
Dans (5), nous avons vu que les variables aléatoires
di avaient pour loi conditionnelle des lois binomiales : L (dt |d1 , ..., dt−1 ) = B n − at−1 − bt−1 , pn . Or, cette loi conditionnelle est stochastiquement
dominée 3 par B(n, pn ), donc on peut trouver un espace probabilisé et des variables aléatoires di0 de loi
B(n, pn ) telles que di0 > di pour tout i.
On pose ai0 = −i + 1 + d10 + ... + di0 . Comme λ = 1, il s’agit d’une martingale. On peut donc utiliser les
résultats de la théorie des martingales (inégalité maximale de Doob par exemple) pour borner la taille
de n’importe quelle composante connexe dans le régime critique.
2.5. Les nœuds isolés dans G (n, p).
Considérons un graphe aléatoire G issu de G (n, p). Combien a-t-il de sommets isolés en moyenne ?
Pour chacun des n sommets, notons Xi l’indicatrice de l’événement « le sommet i est isolé », et notons
X = X1 + ... + Xn . Formellement, X dépend de n, donc on le notera X(n) au besoin. Nous allons montrer
qu’asymptotiquement, le nombre de noeuds isolés est une loi de Poisson. Pour cela, on va utiliser la
méthode de Stein.
2.5.1. La méthode de Stein-Chen.
La méthode de Stein est une méthode générale pour démontrer des convergences en loi. Elle consiste
à trouver une relation caractéristique de la loi limite, et montrer que cette relation est asymptotiquement
vérifiée par la suite de variables aléatoires étudiée. On présente ici le cas poissonnien.
3. Soient deux variables aléatoires X, Y. On dit que Y domine stochastiquement X si pour tout t, on a P(X > t) 6 P(Y > t).
Dans ce cas on cas on peut construire sur un espace probabilisé deux variables X 0 et Y 0 ayant même loi que X, Y et telles que
X 0 6 Y 0 presque sûrement (théorème de Strassen).
11
Graphes aléatoires.
L EMME 2.10. — Une variable aléatoire N sur N suit la loi de Poisson de paramètre λ si et seulement si
pour toute fonction f ∈ L2 (P), on a
λE[f(N + 1)] = E[Nf(N)]
(9)
Démonstration. On vérifie sans peine que les lois de Poisson vérifient (9). Pour la réciproque, il suffit
de considérer les fonctions f = 1{k} pour obtenir la relation P(N = k + 1) = λP(N = k)/(k + 1). Par
récurrence, on obtient donc P(N = k) = P(N = 0)λk /k!, et le reste découle du fait que N est une loi de
probabilité.
J
Nous allons maintenant montrer que si une suite de variables aléatoire vérifie à peu près (9), alors
elle est approximativement
poissonnienne. Notons P(λ) la mesure de Poisson de paramètre λ (c’est-à
P
dire, P(λ) (A) = i∈A e−λ λi /i! ). Pour toute partie A de N, soit fA une fonction sur N qui satisfait
l’équation suivante, dite de Stein-Chen :
1A (x) − P(λ) (A) = λfA (x + 1) − xfA (x)
(10)
Pour toute partie A, l’équation (10) possède une solution explicite, donnée par
P(λ) A ∩ {0, ..., x} − P(λ)(A) · P(λ)({0, ..., x})
.
fA (x + 1) =
λP(λ)({x})
En fait, cette expression exacte importe peu : ce qui va nous intéresser est le fait que fA est lipschitzienne, à savoir
|fA (x + 1) − fA (x)| 6
1 − e−λ
λ
(11)
En utilisant fA , on a
P(X ∈ A) − P(λ)(A) = λE[fA (X + 1)] − E[XfA (X)].
Si µX est la loi de X, les inégalités suivantes sur la distance en variation totale sont alors vérifiées 4 :
dVT (µX , P(λ)) = 2 sup E[fA (X + 1)] − E[XfA (X)],
A⊂N
et ainsi
dVT (µX , P(λ)) 6 2 sup E[f(X + 1)] − E[Xf(X)],
(12)
f∈F (λ)
où F (λ) désigne l’ensemble des fonctions sur N telles que |f(x + 1) − f(x)| 6 (1 − e−λ )/λ pour tout
x. L’inégalité (12) est en général utilisée pour montrer que la distance entre la loi de X et P(λ) est petite.
Nous en donnons un exemple tout de suite.
2.5.2. Approximation de Chen-Stein pour une somme de variables de Bernoulli.
On suppose dorénavant que X est une somme de variables aléatoires {Ii : i ∈ S} (on rappelle que
S = {1, ..., n}) et on note µX sa loi ; les Ii sont des variables de Bernoulli de paramètres respectifs πi ; elles
ne sont pas nécessairement indépendantes. On note enfin λ l’espérance de X, donc λ = π1 + ... + πn .
Supposons qu’il existe une famille {Ji,j : i, j ∈ S, i 6= j} de variables aléatoires 5 , vérifiant la contrainte
suivante sur leur loi jointe :
L {Ij , j ∈ S, j 6= i}|Ii = 1 = L {Ji,j , j ∈ S, j 6= i} .
(13)
T HÉORÈME 2.11. — On conserve les notations et le cadre précédents, et on note P(λ) la loi de Poisson
de paramètre λ. On a
X
1 − e−λ X
dVT µX , P(λ) 6 2
πi πi +
E[|Ij − Ji,j |] .
λ
i∈S
(14)
j6=i
4. On rappelle que dVT (µ, ν) = 2 supA |µ(A) − ν(A)|, et que la topologie de dVT est plus fine que la topologie de la
convergence étroite : si dVT (µn , µ) → 0, alors µn
µ au sens de la convergence étroite.
5. Si possible, définies sur le même espace probabilisé que les Ii .
12
Graphes aléatoires.
Démonstration. Il faut borner le terme de droite de (12). Commençons par développer les espérances :
notons m = λE[f(X + 1)] − E[Xf(X)]. On a
m=
X
 
πi E f 1 +
i∈S
=
X
=
πi E f 1 +
X

Ij  − E 
X


X
Ii f 
Ij 
X

i∈S
j∈S
 
Ij  − E E 
j∈S
 
πi E f 1 +
X
 
πi E f 1 +
i∈S
X
X

πi f 1 +
i∈S


Ij  − E 
X


Ij  − f 1 +
j∈S
X


Ij  | Ii = 1
j6=i

πi f 1 +
i∈S
j∈S
i∈S
=

j∈S
 
i∈S
X
X
X

Ji,j 
j6=i
X

Ji,j  .
j6=i
La troisième égalité vient de la contrainte (13) sur la loi jointe des Ji,j . Maintenant, l’inégalité (12)
devient
 



X
X





dVT (µX , P(λ)) 6 2 sup
Ji,j 
πi E f 1 +
Ij − f 1 +
f∈F (λ) i∈S
j∈S
j6=i


X X
1 − e−λ X

62
πi E Ij −
Ji,j 
λ
i∈S
j∈S
j6=i


X
1 − e−λ X
62
|Ij − Ji,j |
πi E Ii +
λ
X
i∈S
j6=i
Cela correspond bien à (14).
J
2.5.3. Approximation poissonnienne des noeuds isolés.
On rappelle que pour chacun des n sommets, Xi est l’indicatrice de l’événement « le sommet i est
isolé », et on note X = X1 + ... + Xn le nombre totale de sommets isolés.
L EMME 2.12. — Pour tout i, Xi est une variable aléatoire de Bernoulli de paramètre (1 − p)n−1 , et donc
E[X] = n(1 − p)n−1 .
Existe-t-il un pn tel que X converge en loi lorsque n → ∞ ? On commence par chercher pn de sorte
que E[X] converge vers une constante.
P ROPOSITION 2.13. — Soit c une constante réelle. On pose
pn =
ln(n) + c
.
n
(15)
Soit X(n) le nombre de sommets isolés dans le graphe aléatoire issu de G (n, pn ). Lorsque n → ∞ on
a
E[X(n) ] −→ e−c .
Démonstration. C’est une simple étude asymptotique : on a (1 − pn )n−1 ∼ e− ln(n)−c , donc E[X(n) ] ∼
nn−1 e−c .
J
13
Graphes aléatoires.
Cela apporte déjà quelques informations sur le graphe d’Erdös-Rényi. D’abord, on sent que la valeur
pn = ln(n)/n va être un seuil important : lorsque c = 0, il y a en moyenne 1 sommet isolé. Lorsque c > 0
il y en a moins de 1 (potentiellement très peu) et lorsque c < 0 il y en a beaucoup. À titre d’exemple,
lorsque n = 100 ce seuil est de ln(100)/100 ∼ 4, 6%.
On démontre maintenant que X(n) est asymptotiquement poissonnien en utilisant la méthode de
Stein-Chen.
T HÉORÈME 2.14. — Soit c une constante réelle et pn comme dans (15). Alors, X(n) converge étroitement
vers une loi de Poisson de paramètre e−c .
Démonstration. Notons µn la loin de X(n) . Il suffit de montrer la convergence en variation totale, c’est-àdire dVT (µn , P(e−c )) → 0. C’est l’inégalité (14) qui va faire tout le travail. Posons
Y
Ji,j =
(1 − δk,j ).
k6=i,j
La variable Ji,j vaut 1 si et seulement s’il n’y a aucune arête incidente à j, sauf éventuellement celle
entre i et j. On se convaincra que la famille des Ji,j vérifie la contrainte (13) pour les Xi .
J
2.6. Seuil pour la connexité.
Le théorème d’Erdös-Rényi nous donnait une transition de phase sur le comportement des composantes connexes d’un graphe aléatoire. Autour de 1/n, le graphe passe subitement d’une réunion de
composantes connexes de taille d’ordre ln(n) à une réunion de composantes connexes avec une composante géante d’ordre n et d’autres composantes plus petites. Cependant, autour de 1/n, le graphe est
non connexe avec très forte probabilité. Pour qu’il soit connexe, il faut mettre beaucoup plus d’arêtes.
Dans cette section, nous montrons que le seuil pour la connexité se situe à ln(n)/n, conformément à
l’intuition donnée par la section précédente.
T HÉORÈME 2.15. — Soit G un graphe aléatoire issu de G (n, pn ), où pn a été défini en (15). Lorsque
n → ∞, on a
−c
P G est connexe −→ e−e .
(16)
E XEMPLE 2.16. En prenant c = − ln ln(2) ≈ 0, 37, on obtient que la probabilité que G soit connexe
s’approche de 1/2. Lorsque n = 100, cela revient à peu près à choisir p = 5%.
R EMARQUE 2.17. Une obstruction fondamentale à la connexité de G est l’apparition de sommets isolés.
Or, par le théorème 2.14, le nombre de sommets isolés est approximativement une loi de Poisson de
paramètre e−c . Ainsi,
−c
lim sup P G est connexe 6 lim P(X(n) = 0) = e−e .
Pour montrer le théorème 2.15, il suffit donc de montrer que l’apparition des sommets isolés est en
fait la seule obstruction à la connexité de G, autrement dit que l’apparition de composantes connexesde
taille strictement supérieure à 1 est asymptotiquement négligeable. On aura donc P G est connexe ∼
P(X(n) = 0) et on pourra conclure par le théorème 2.14.
Démonstration. On adopte la stratégie décrite dans la remarque précédente : on montre que la probabilité
d’apparition d’une composante connexe de taille supérieure ou égale à 2 tend vers 0.
La taille des composantes est nécessairement inférieure à m := dn/2e. Notons Cr le nombre de
composantes de taille r, pour r = 2, 3, ..., dn/2e. On cherche à montrer que P(C2 > 0, ..., Cm > 0) tend
vers 0. La sous-additivité nous donne déjà la majoration suivante :
P(C2 > 0, ..., Cm > 0) 6
m
X
r=2
14
P(Cr > 0).
Graphes aléatoires.
Supposons que Cr > 0. Il existe donc une composante connexe à r sommets. On va calculer la
probabilité d’un tel événement en traitant à part le cas r = 2.
Étude du cas r = 2. On utilise la majoration P(C2 > 0) 6 E[C2 ]. Pour qu’une composante connexe de
taille 2 apparaisse, il faut
– Choisir deux sommets distincts, ce qui laisse C2n choix.
– Faire apparaître l’arête les reliant (probabilité pn ).
– S’assurer qu’aucun des deux sommets n’est relié aux n − 2 autres sommets, ce qui arrive avec
probabilité (1 − p)2(n−2) .
On a donc P(C2 > 0) 6 E[C2 ] = C2n pn (1 − pn )2(n−2) . Il faut ensuite vérifier que cela tend vers 0, ce qui
est laissé à la sagacité du lecteur.
Étude du cas r > 2. Supposons qu’il y a une composante de taille r > 2. Elle possède un arbre
couvrant. Le graphe G possède donc comme sous-graphe un arbre à r sommets, qui est totalement
déconnecté des n − r autres sommets.
– Il faut d’abord choisir les r sommets parmi les n sommets du graphe, ce qui laisse Crn choix.
– Une fois choisis les sommets, il faut choisir l’arbre sur ces r sommets. La formule de Cayley dit
qu’il y a précisément rr−2 choix possibles.
– Cet arbre doit apparaître comme sous-graphe de G, c’est-à-dire que ses r − 1 arêtes doivent apparaître : la probabilité est pr−1
n .
– Aucun des r sommets ne peut être connecté à un des n − r sommets restants : la probabilité de
cet événement est (1 − pn )r(n−r) (la probabilité qu’un des r sommets ne soit connecté à aucun des
n − r sommets restants est (1 − pn )n−r ).
On obtient donc la formule suivante, valable si r > 2 :
r−1
P(Cr > 0) 6 Crn rr−2 pn
(1 − pn )r(n−r) .
La suite se résume à une étude asymptotique un peu pénible. On va séparer les étapes.
Tout d’abord, on a Crn 6 nr /r!.
On a aussi n − r > n/2, de sorte que (1 − pn )r(n−r) 6 (1 − pn )rn/2 6 e−rnpn /2 .
De ces deux remarques, on déduit que
exp r(ln(npn ) − npn /2)
r r−1
r(n−r)
.
Cn pn (1 − pn )
6
pn r!
Or, lorsque n est grand, npn est grand : il existe un n à partir duquel on a ln(npn ) − npn /2 =
ln(npn ) − npn + npn /2 6 (1/2 − )npn , pour un > 0 petit. Comme pn > 1/n si n est assez grand, on
a l’inégalité :
exp − r(npn (1/2 − ))
r r−1
r(n−r)
.
(17)
Cn pn (1 − pn )
6n
r!
√
On utilise enfin l’inégalité s! > 2 s(s/e)s , valable pour tout s. L’inégalité (17) devient alors
er exp − r(npn (1/2 − ))
r(n−r)
r r−1
√
6n
Cn pn (1 − pn )
.
rr r
En sommant pour r allant de 3 à m et en majorant brutalement r−2−1/2 par 1, on obtient
m
X
Crn rr−2 pr−1
n (1
− pn )
r(n−r)
6n
∞
X
exp r − r(npn (1/2 − ))
r=3
r=3
ne3(1−npn (1/2−))
6
1 − e1−npn (1/2−)
6 O n−1/2+3 −→ 0
La démonstration est donc terminée.
J
15
Graphes aléatoires.
En prenant un c qui se rapproche lentement de 1 (il faut que c soit négligeable devant ln(n) ), on
obtient le corollaire suivant :
C OROLLAIRE 2.18. — Soit cn un réel qui tend vers +∞ très lentement, par exemple cn = O(ln(ln(n))).
On pose
ln(n) + cn
.
n
Si G est un graphe aléatoire issu de G (n, pn ), on a
pn =
P G est connexe → 1.
2.7. Exercices sur le modèle d’Erdös-Rényi.
2.19. Le complémentaire Ḡ d’un graphe G sur n sommets est le graphe obtenu en enlevant toutes les arêtes existantes et en mettant toutes celles inexistantes. Montrer que si G est un graphe aléatoire issu de G (n, p), alors Ḡ est
issu de G (n, 1 − p).
2.20. Soit k un entier fixé. Calculer le nombre moyen de cycles de longueur k dans G (n, λ/n) et montrer que sa
limite si n → ∞ est λk /2k.
2.21. Soit G un graphe aléatoire issu de G√(n, 1/2). Montrer
qu’asymptotiquement presque sûrement, les degrés des
√
sommets de G sont compris entre n/2 − n et n/2 + n.
2.22. Soit G un graphe aléatoire issu de G (n, p). Montrer qu’asymptotiquement presque sûrement, le nombre
d’arêtes est compris entre pn2 /2(1 − ) et pn2 /2(1 + ).
1
2.23. Soit G un graphe aléatoire issu de G (n, 1/2). Montrer qu’asymptotiquement presque sûrement, il y a n 3
sommets de degré exactement bn/2c.
2.24. On munit l’humanité 6 du graphe de l’amitié, c’est-à-dire que deux personnes sont reliées par une arête si et
seulement si elles sont amies. C’est un graphe d’Erdös-Rényi G (n, λ/n), où λ = 5 (chaque personne a environ 5
amis). Calculer
– Le nombre moyen de gens qui n’ont pas d’amis.
– La probabilité approximative que B. Blaszczyszyn appartienne à la plus grande composante connexe 7 .
2.25. Montrer que le nombre d’arêtes non découvertes lors de l’exploration de G (n, λ/n) jusqu’à la k-ème génération converge vers 0 lorsque n → ∞.
6. En 2015, il y avait sur Terre environ 7 300 000 000 humains.
7. C’est la solution de x + e−5x = 1. D’après mes calculs, c’est environ 0, 993, ce qui est tout de même très élevé. Cela veut
dire que l’humanité comporte un énorme groupe d’environ 7 250 000 000 personnes qui ont des amis en commun, et qu’aucune
personne parmi les 50 000 000 restantes n’a de liens avec elles.
16
Téléchargement