Vecteurs propres de matrices aléatoires : Convergence de fluctuations

publicité
Vecteurs propres de matrices aléatoires :
Convergence de fluctuations
réalisé par :
Ali BOUFERROUM
Encadré par : Mr. Djalil Chafaï
Master 2, Mathématiques et Applications
UPEMLV, Septembre 2011
Table des matières
1 Introduction
4
2 Définitions et Notations
2.1 Ensembles gaussiens : GOE/GUE . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Matrices de Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Théorème de Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
6
7
7
3 Modèle pour les matrices de covariance empirique
12
T
3.1 Structure de y = On x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Conversion du problème à D[0, +∞) . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Convergence vers le pont Brownien . . . . . . . . . . . . . . . . . . . . . . . 19
4 Modèle pour les matrices de Wigner
24
4.1 Preuve du problème d’universalité . . . . . . . . . . . . . . . . . . . . . . . 25
Conversion du problème à D([0, 1] × R) . . . . . . . . . . . . . . . . . . . . 25
Convergence vers la loi gaussienne . . . . . . . . . . . . . . . . . . . . . . . 30
5 Problèmes ouverts
38
6 Annexe
39
6.1 Graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.2 Matrices orthogonales et Matrices unitaires . . . . . . . . . . . . . . . . . . 40
2
Avant propos
Le présent mémoire est basé sur l’étude approfondie de deux articles 1 qui ayant
traité la problématique d’universalité de convergence de fluctuations des vecteurs propres
de matrices aléatoires. Ce phénomène est une sorte de généralisation du cas gaussien
GUE/GOE où les vecteurs propres sont distribués selon la mesure de Haar sur le groupe
unitaire/orthogonal, c’est le même genre d’universalité que représente le théorème de Wigner mais cette fois pour les vecteurs propres et non pas les valeurs propres. Une poursuite
en thèse est envisagée sous la direction de Mr.D.Chafaï pour étudier des problèmes en
relation avec tout ça et qui restent toujours ouverts (voir page 38).
Remerciements
Je tiens tout d’abord à exprimer ma profonde gratitude à mon professeur Mr.Djalil
Chafaï qui m’a donné la chance et l’opportunité de réaliser ce travail, et m’avoir communiqué son enthousiasme pour ce sujet très riche et très courant. Son expérience, ses conseils
judicieux, son soutien et sa bonne humeur m’ont beaucoup apporté. Pour sa confiance en
moi d’avoir accepté de diriger mon projet de recherche en thèse je lui dit Merci, et je lui
souhaite tout le bonheur dans sa vie personnelle et scientifique.
J’adresse également mes plus sincères remerciements à Mr. Damien Lamberton pour
m’avoir donné le goût des probabilités lors de ses enseignements mémorables, et pour
m’avoir beaucoup aidé durant mes premiers pas à l’université de Marne la vallée en tant
que responsable de mon master de recherche. Pour tout ce qu’il a fait pour moi je lui dis
Merci.
Je tiens également à remercier les membres de jury d’avoir accepté de juger mon travail.
Il me serait impossible de ne pas saluer ma famille pour le soutien immense et les
encouragements qu’ils n’ont pas cessé de me prodiguer tout au long de mes études.
A tous ceux qui m’ont aidé de loin ou de près, je leur dis très sincèrement Merci.
1. Premier article : "Eigenvectors of Wigner matrices : Universality of global flutuations" de
F. Benaych-Georges.
Deuxième article : "Weak convergence of random functions defined by the eigenvectors of sample
covariance matrices" de J.W.Silverstein.
3
1
Introduction
Dans ce mémoire, on va étudier certains résultats sur la théorie des matrices aléatoires.
Cette théorie originellement créée par E. Wigner pour des modèles de la physique nucléaire s’est propagée à la théorie des nombres avec une liaison intéressante avec l’étude
des fonctions L comme la fonction Zéta de Riemann. De plus, on compte parmi les applications de cette théorie : les systèmes intégrables, le chaos quantique et plusieurs d’autres
applications en mathématiques pures.
L’étude ici porte sur le comportement asymptotique de certaines fonctions aléatoires
définies à partir de ces matrices. Plus précisément, on va traiter des résultats de convergence de certaines fonctions aléatoires basées sur les vecteurs propres de certains types de
matrices aléatoires dans un aspect très universel en généralisant le cas gaussien GOE/GUE
où la distribution de vecteurs propres est bien connue et bien précisée. Pour plus de simplicité et sans perte de généralité, on s’intéresse dans ce papier au cas réel.
Soit Xn une matrice aléatoire symétrique définie avec certaines conditions sur ses éléments (indépendance, contrôle des moments) que l’on précise ultérieurement. Considérons
la décomposition spectrale de cette matrice donnée sous la forme Xn = On Dn OnT , où On
est une matrice orthogonale (unitaire dans le cas complexe) dont les colonnes sont les vecteurs propres de la matrice Xn , Dn est une matrice diagonale dont les éléments diagonaux
sont les valeurs propres de Xn classées dans l’ordre croissant, et OnT désigne la transposée
de la matrice On . Dans le cas gaussien GOE (voir page 6), la matrice orthogonale On
est distribuée selon la mesure de Haar sur le groupe orthogonal. On peut voir une telle
matrice comme une matrice de rotation uniforme (i.e. n vecteurs uniformément distribués
sur Sn la sphère unité de Rn et orthonormalisés). Ainsi, si on applique cette matrice sur
un vecteur xn quelconque tel que kxn k = 1 où k · k désigne la norme Euclidienne sur Rn ,
on trouve un vecteur y = OnT xn uniformément distribué sur Sn .
Un vecteur uniforme sur la sphère unité est très lié à la distribution gaussienne dans
les deux sens : U nif orme Gaussien.
Uniforme → Gaussien :
√
Soit y est un vecteur uniforme sur Sn ( n), alors la mesure de comptage définie sur ses
coordonnées converge en loi vers la distribution gaussienne (cf. [7]),
n
X
δyi
i=1
n
−→ N (0, 1).
De plus, pour tout k ≥ 1, la projection de y sur Rk converge vers la loi N (0, Ik ) quand
n → ∞ . On a aussi, une convergence des fluctuations de y définies par la formule suivante
vers le pont Brownien :
r
bntc nX
1
2
|yi | −
−→ W 0
2 i=1
n D[0,1]
( W0 est un pont Brownien)
4
(1)
Gaussien → Uniforme :
Si (zi )i=1→n sont des variables gaussiennes centrées réduites i.i.d. alors, le vecteur norz
malisé Z = kzk
défini à partir de ces variables est uniformément distribué sur la sphère
unité.
Résultats de convergence de fulctuations :
On peut voir le même phénomène de convergence qu’on a vu dans l’expression (1) en
regardant les fluctuations sur un bloc d’une matrice Haar orthogonale au lieu d’un seul
vecteur uniforme sur Sn , c’est un résultat de C.Donati-Martin et A.Rouault qui ont
prouvé récemment en [6] que le processus bivarié càdlàg

r 1

n
Bs,t = 
 2

X
|Oi,j |2 −
1≤i≤bnsc
1≤j≤bntc
1
n




(2)
s,t∈[0,1]2
converge pour la topologie de Skorokhod, vers le pont Brownien bivarié, i.e. le processus
gaussien centré continu (Bs,t )s,t∈[0,1]2 avec covariance
E[Bs,t Bs0 ,t0 ] = (min{s, s0 } − ss0 )(min{t, t0 } − tt0 ).
Ces résultats restent valables pour des matrices Xn plus universelles et pas uniquement
dans le cas gaussien. Il suffit seulement de mettre certaines conditions sur les lois des éléments de ces matrices : contrôle des moments (moyenne, variance, certaine égalité entre
eux et ceux d’une matrice GOE et surtout le moment d’ordre 4 ! ! !), et éventuellement,
d’autres conditions de symétrie et de continuité absoluée par rapport à la mesure de Lebesgue sont exigées.
Le premier résultat d’universalité qu’on va traiter dans la suite est dû à J.W.Silverstein
pour le modèle (1) au dessus, il a prouvé le même type de convergence pour des matrices
plus générales, il s’agit de matrices de covariance empirique.
Le deuxième résultat d’universalité concerne le modèle (2) au dessus pour des matrices
de Wigner générales. Ce résultat est conjecturé par D.Chafaï qui a conjecturé le même
phénomène de convergence pour différents types de décompositions matricielles (décomposition spectrale, décomposition en valeurs singulières, décomposition de Householder pour
des matrices non symétriques) tant que ses premiers moments coïncident avec ceux d’une
matrice GOE.
La conjecture dans le cas de décomposition spectrale d’une matrice de Wigner - qu’on va
étudier dans ce papier - est prouvée par F.Benaych-Georges très récemment. Dans les
autres cas, le problème reste toujours ouvert.
5
2
Définitions et Notations
Dans cette section on va définir certaines notions qu’on va utiliser fréquemment dans
ce papier.
2.1
Ensembles gaussiens : GOE/GUE
Le GUE et GOE sont des ensembles classiques de matrices aléatoires introduits par
E. Wigner pour la théorie des spectres nucléaires.
Le GUE a été introduit pour les systèmes invariants par action du groupe unitaire, il est
défini sur l’espace des matrices hermitiennes Hn et muni de la loi de probabilité suivante
2 /2
Pu (dM ) = (2π)−n
1
2
e− 2 Tr(M ) m(dM )
2
par rapport à m la mesure de Lebesgue sur Hn ∼ Rn . Ce qui est équivalent à une matrice aléatoire hermitienne M n dont les éléments hors diagonaux sont gaussiens complexes
i.i.d centrés et de variance 1 (les parties réelles et imaginaires sont indépendantes de loi
N (0, 1/2)), et les éléments diagonaux sont réels i.i.d de loi N (0, 1).
Le GOE a été introduit pour les systèmes invariants par action du groupe orthogonal, il
est défini sur l’espace des matrices symétriques Sn et muni de la loi de probabilité
2 /2
Pu (dM ) = (2π)−n
1
2
e− 4 Tr(M ) m(dM )
par rapport à m la mesure de Lebesgue sur Sn ∼ Rn(n+1)/2 . Ce qui est équivalent à une
matrice aléatoire symétrique dont les éléments hors diagonaux sont i.i.d de loi N (0, 1), et
les éléments diagonaux sont i.i.d de loi N (0, 2).
Pour ces ensembles gaussiens, les lois des matrices de leurs décompositions spectrales sous
la forme (Un Dn UnT ) sont bien déterminées et précisées. En fait, la loi de ses valeurs propres
est donnée par la formule suivante :
P(dλ1 , . . . , dλn ) =
1
Zβ,n
e−
P
i
λ2i /2
Y
|λi − λj |β ,
i<j
où β = 1 dans le cas GOE, β = 2 dans le cas GUE, et Zβ,n est une constante de normalisation, ainsi on connait bien la loi de la matrice D de la décomposition spectrale. Sans
oublier bien sûr l’information donnée par le théorème de Wigner pour la distribution de la
mesure spectrale empirique dans les grandes dimensions. D’autre part, la loi de la matrice
unitaire (orthogonale) U de la décomposition spectrale est donnée par la mesure de Haar 2
sur le groupe unitaire (orthogonal) (cf. [7]).
2. C’est l’unique mesure positive invariante par les translations à gauche ou à droite sur un groupe
topologique localement compact à un facteur multiplicatif près.
6
2.2
Matrices de Wigner
L’étude sur les matrices aléatoires et ses valeurs propres est commencée à partir de
1930, où des physiciens, statisticiens (plus particulièrement Wishart) se sont intéressés à
certaines matrices de covariance aléatoire. Cette étude s’est particulièrement développée
dans les années 1950, pour essayer de comprendre la spectroscopie des atomes lourds en
étudiant des fonctions de valeurs propres d’opérateurs auto-adjoints très complexes, l’idée
de ça est due à E. Wigner qui a introduit certains types de matrices aléatoires (comme
le GOE/GUE) pour la théorie de spectres nucléaires.
Pour définir une matrice de Wigner générale, commençons par introduire deux familles
de variables aléatoires
i.i.d et centrées
{Zi,j }1≤i,j≤n et {Yi }1≤i≤n , tels que E|Zi,j |2 = 1, et
∀k ≥ 1 : max E|Zi,j |k + E|Yi |k < ∞. Considérons la matrice carrée symétrique Xn ∈
M(n × n) définie par
Xni,j = Xnj,i =
√
Zi,j / n
√
Yi / n
n
si i<j
si i=j
(3)
On appelle cette matrice Xn une matrice de Wigner. De plus, si Zi,j et Yi sont des variables
gaussiennes i.i.d., Xn est dite une matrice de Wigner gaussienne. Le cas d’une matrice de
Wigner gaussienne où E|Yi |2 = 2 a une particularité importante, c’est le cas des matrices
GOE (Gaussian orthogonal ensemble).
2.3
Théorème de Wigner
Ce théorème est un théorème fondamental de la théorie des spectres de matrices aléatoires de grandes dimensions. Ce théorème nous dit que la distribution des valeurs propres
de telles matrices est de la forme d’un semi-cercle. Soient λni les valeurs propres d’une
matrice de Wigner Xn classées dans l’ordre croissant, et définissons la mesure spectrale
empirique de Xn par cette mesure de comptage sur ses valeurs propres,
Ln =
n
1X
δλn .
n i=1 i
Définissons la loi de semi-cercle sur R par la loi suivante définie avec sa densité par rapport
à la mesure de Lebesque :
σ(x) =
1 p
4 − x2 1|x|≤2
2π
(4)
Théorème 2.1. Pour une matrice de Wigner Xn , la masure spectrale empirique Ln
converge faiblement en probabilité vers la loi de semi-cercle, dans le sens, ∀f ∈ Cb (R),
et ∀ > 0,
lim P (| hLn , f i − hσ, f i | > ) = 0.
N →∞
7
Programme en Scilab pour générer une matrice de Wigner
Loi de semi-cercle et Nombres de Catalan
En combinatoire, les nombres de Catalan forment une séquence de nombres naturels
qui apparaissent et aident à resoudre des problèmes de comptage. Ils sont appelés ainsi en
l’honneur du mathématicien belge E. C. Catalan. Ils représentent par exemple le nombre
de chemins de Dyck 3 . Ils représentent aussi le nombre des arbres orientés enracinés avec
n arêtes.
Le nombre de Catalan d’ordre n s’exprime par :
Cn =
2n
n
n+1
=
(2n)!
.
(n + 1)!n!
Proposition 2.2. Les nombres de Catalan satisfont la relation de récurrence suivante :
C0 = 1,
Cn+1 =
2(2n + 1)
Cn .
n+2
(5)
On peut vérifier cette formule de récurrence par un calcul direct.
Proposition 2.3. Désignons par mk les moments de la loi de semi-cercle,
Z
mk =
R
1 p
4 − x2 1|x|≤x xk dx,
2π
alors on a,
mk = 0 si k est impaire
et
m2k = Ck .
En effet : Par symétrie de loi de semi-cercle, on obtient directement que
mk = 0 si k est impaire. Pour les ordres paires, on a
Z
m2k =
R
1
=
2π
1 p
4 − x2 1|x|≤2 x2k dx
2π
Z 2 p
4 − x2 x2k dx
−2
3. Un chemin de Dyck de longueur 2n, c : {(1, 2, . . . , 2n) → N} est un chemin qui commence et se
termine à l’origine, avec c(i + 1) − c(i) ∈ {−1, 1} et qui reste au dessus de l’axe non négatif.
8
On procède à un changement de variables en posant x = 2 sin(θ), on trouve
m2k
1
=
π
=
=
2
Z π/2
q
2k
(2 sin) (θ) 4 − 4 sin2 (θ) cos(θ) dθ
−π/2
Z
× 22k π/2
π
sin2k (θ)(1 − sin2 (θ)) dθ
−π/2
22k
2×
π
Z π/2
sin2k (θ) dθ −
−π/2
2 × 22k
π
Z π/2
sin2k+2 (θ) dθ
−π/2
0
Posons u = sin2k+1 (θ) et v = sin(θ). Par intégration par parties, on trouve
Z π/2
Z π/2
iπ/2
h
sin2k+2 (θ) dθ = − sin2k+1 (θ) cos(θ)
−π/2
−π/2
+ (2k + 1)
sin2k (θ) cos2 (θ) dθ,
−π/2
donc,
m2k =
2 × 22k
π
Z π/2
−π/2
sin2k (θ) dθ − (2k + 1)m2k ,
donc,
(2k + 2)m2k =
2 × 22k
π
Z π/2
sin2k (θ) dθ.
−π/2
En intégrant encore une fois par parties, on trouve
2 × 22k
π
Z π/2
−π/2
sin2k (θ) dθ = 4(2k − 1)m2k−2 .
Ainsi,
m2k =
4(2k − 1)
2(2k − 1)
m2k−2 =
m2k−2 ,
2k + 2
k+1
ce qui est la même relation de récurrence qu’on a vu pour les nombres de Catalan.
Voici maintenant une simulation programmée en Scilab pour la convergence de la mesure
de comptage des valeurs propres d’une matrice de Wigner gaussienne vers la loi de semicercle.
9
Code en Scilab :
10
Notations
Dans la suite de ce papier on va utiliser les espaces fonctionnels suivants avec ces notations,
• C([0, 1]2 ) (respectivement Dc ([0, 1] × R)) désigne l’espace des fonctions continues
sur ([0, 1]2 ) (respectivement continues à support compact sur ([0, 1] × R)), muni de
la topologie de la convergence uniforme.
• D([0, 1]) est l’espace des fonctions càdlàg muni de la topologie de Skorokhod définie
par la notion de convergence suivante : on dit qu’une suite xn (t) ∈ D([0, 1]) converge
vers x(t) ∈ D([0, 1]) s’il existe une suite d’homéomorphismes croissants
λn : [0, 1] → [0, 1], tel que
sup |λn (t) − t| −→ 0,
t∈[0,1]
n→∞
sup |xn (λn (t)) − x(t)| −→ 0.
et
t∈[0,1]
n→∞
• Dc (R, [0, 1]) désigne l’espace des fonctions càdlàg à support compact sur R à valeurs
dans [0, 1], muni de topologie définie par : fn −→ f si et seulement si :
(a) le support de fn tend vers le support de f quand n → ∞ .
(b) ∀M > 0 , après restriction à [−M, M ], fn −→D([−M,M ]) f quand n → ∞.
• D([0, 1]2 ) (respectivement Dc ([0, 1] × R)) désigne l’espace des fonctions càdlàg sur
[0, 1]2 (respectivement càdlàg à support compact sur ([0, 1]×R)) muni de la topologie
de Skorokhod, et Dc ([0, 1], R) est muni de la topologie définie par : ∀M > 0 , après
restriction à [−M, M ], fn −→D([0,1]×[−M,M ]) f.
• D0 ([0, 1]2 ) est le sous espace de D([0, 1]2 ) formé des fonctions nulles au bord, muni
de la topologie induite.
Et pour les processus aléatoires définis sur l’un des espaces précédents, par défaut, les
convergences sont considérées au sens faible, pour le quel on regarde les lois marginales
fini-dimensionnelles,
Btn −→ B
n→∞
si ∀k < ∞, pour toute collection finie d’indices (s1 , . . . , sk ) dans l’ensemble de départ du
processus,
Bsn1 , . . . , Bsnk −→ (Bs1 , . . . , Bsk )
en loi.
n→∞
11
3
Modèle pour les matrices de covariance empirique
Dans ce modèle, on va étudier la convergence de fluctuations dans les vecteurs propres
pour des matrices de covariance d’un échantillon vectoriel i.i.d. Soit {vi,j }i,j:1,2,... des variables aléatoires i.i.d, avec E(v1,1 ) = 0. Considérons la matrice Vn = (vi,j ) ; i = 1, 2, . . . , n,
j = 1, . . . , s = s(n), qu’on peut la voir comme un échantillon de s vecteurs aléatoires i.i.d
de dimension n. On suppose que n/s(n) −→n→∞ y > 0. Définissons la matrice symétrique
définie positive Mn comme la matrice de covariance de cet échantillon vectoriel de la façon
suivante : Mn = 1s Vn VnT . On s’intéresse au comportement asymptotique de ses vecteurs
propres. On note On Dn OnT la décomposition spectrale de la matrice Mn , où Dn est une
matrice diagonale contient les valeurs propres de Mn classées dans l’ordre croissant, On est
une matrice orthogonale dont les colonnes représentent une base orthonormée de vecteurs
propres de Mn , et OnT désigne la transposée de On .
Dans le cas spécial, où Mn est une matrice de Wishart (c’est le cas où v1,1 suit une
loi gaussienne centrée réduite), il est bien connu que On consiste à une matrice Haar
orthogonale. Ainsi, pour un vecteur x quelconque dans la sphère unité Sn , le vecteur
y = OnT x est uniformément distribué sur Sn . Et
Xng (t) =
r
bntc nX
1
−→ W 0 ,
|yi |2 −
D
2 i=1
n
où W 0 désigne le pont Brownien, et D désigne la convergence faible dans D[0, 1]. Pour
v1,1 de loi générale, on veut étudier la loi asymptotique de On , une question qui se pose
naturellement est la convergence de On vers la mesure de Haar sur le groupe orthogonal
On . Pour cela on étudie le comportement asymptotique du processus
r
Xn (t) =
bntc nX
1
|yi |2 −
2 i=1
n
où y = OnT x, pour un vecteur x ∈ Sn .
L’étude de Xn (t) nous permet d’avoir une idée sur la distribution de vecteurs propres de
Mn en regardant la similarité avec le cas gaussien. D’une autre façon, on veut regarder le
degré d’uniformité de la matrice On . Pour ça, on vérifie que
Xn −→ W 0
D
(6)
Si c’est le cas, on dit que la distribution de On est asymptotiquement proche de la mesure
de Haar sur le groupe orthogonal On . Dans un article précédent de J.W.Silverstein (cf.
4 ) < ∞, E(v 4 ) = E(N (0, 1)4 ) = 3,
[5]), il est remarqué que sous l’hypothèse : E(v1,1
1,1
Xk(n) (t) −→ W 0 ,
D
pour toute sous-suite faiblement convergente en D[0, 1]. Si on suppose seulement que
4 ) < ∞, la convergence (6) ne sera pas vérifiée pour tous les x .
E(v1,1
n
12
Dans le cas où xn = (± √1n , . . . , ± √1n ), la convergence de (6) est bien vérifiée, ceci nous
permet de déduire qu’une certaine régularité est exigée entre les composantes du vecteur
xn , et que la distribution de v1,1 doit avoir une certaine similarité avec la loi normale pour
obtenir des résultats de convergence plus générales.
Théorème 3.1 (Universalité pour les matrices de covariance empirique).
Sous les notations précédentes, supposons que v1,1 est de loi symétrique
d
v1,1 = −v1,1 ,
4 ) < ∞, alors
et E(v1,1
Xn −→ W
D
0
1
1
.
xn = ± √ , . . . , ± √
n
n
pour
Preuve du théorème (3.1)
La preuve de ce théorème repose sur deux points essentiels :
• Le premier consiste en une bonne connaissance de la mesure de comptage sur les
P
valeurs propres de Mn qu’on note Fn (x) = n1 ni=1 1{λi ≤x} sa fonction de répartition.
Ce qui nous permet de ramener le problème à étudier la convergence du processus
r
Xn (Fn (x)) =
n X
1
|yi |2 −
2 i:λ ≤x
n
i
sur D[0, ∞) vers le pont Brownien W 0 (Fy (x)) pris en Fy (x) = limD Fn (x).
• Le deuxième point est la nécessité de faire une extension d’un théorème dû à J.W.Silverstein
en (1989) (cd. [5]) pour établir l’unicité de la limite pour toute sous-suite faiblement
convergente de ce processus. Le théorème affirme que les moments de la loi,
r
δXn =
n
nX
1
|yi |2 −
δλi
2 i=1
n
convergent vers ceux d’un pont Brownien Wyx = W 0 (Fy (x)) pour tous les vecteurs
x dans Sn , si et seulement si, E(v1,1 ) = 0, E(v1,1 )2 = 1, et E(v1,1 )4 = 3,
13
E
r δX
n
r
n
n
X
n X
λri
yi2 λri −
2 i=1
n
i=1
r
n
1
xTn Mnr xn − tr (Mnr )
2
n
=
=
"
Z ∞
=
0
=−
#
xr dXn (Fn (x))
Z ∞
rxr−1 Xn (Fn (x)) dx
0
?
−→D
Z (1−√y)2
√
(1+ y)2
xr
dWyx
pour tout r ∈ N∗ .
Pour obtenir la convergence sous les hypothèses du théorème (3.1) (sans condition sur
E(v1,1 )4 sauf qu’il soit fini) il faut mettre d’autres conditions d’uniformité et de régularité
sur la structure de x.
3.1
Structure de y = OnT x
Dans ce point, on donne plus de détail sur la distribution de On pour obtenir une idée
sur la structure de y = OnT x.
Pour une valeur propre λr d’ordre de multiplicité r, on considère les r colonnes correspondantes choisies uniformément sur l’espace propre Eλr , ainsi, on construit une matrice
n × r. La structure de cette matrice est la même que On,r Or , où On,r est une matrice n × r
contient r vecteurs orthonormaux de l’espace propre Eλr , et Or est une matrice Haar
orthogonale sur le groupe orthogonal Or indépendante de la matrice Mn (De même, les
différentes matrices Or correspondantes aux différentes valeurs propres λr sont supposées
indépendantes). Ainsi, les r coordonnées de y correspondantes à λr sont de la forme :
T
T
(On,r Or )T xn = OrT On,r
xn = kOn,r
xn kwr ,
où wr est un vecteur uniformément distribué sur Sr (la sphère unité de Rr ).
Comme on a vu dans l’introduction, wr peut être représenté par un échantillon normalisé
de r variables gaussiennes centrées réduites indépendantes {zi }i=1,2,...,r ,
d
wr =
z
(z1 , . . . , zr )T
=
.
kzk
kzk
T x k est la norme de la projection du vecteur x sur E . Donc, on peut
Notons que kOn,r
n
λr
représenter y de la façon suivante :
On construit n variables {zi }1≤i≤n i.i.d de loi gaussienne centrée réduite indépendante
de Mn . Soient λ1 , . . . , λt les valeurs propres de Mn d’ordres de multiplicité m1 , . . . , mt
respectivement, tel que (m1 + · · · + mt = n), pour i ∈ {1, . . . , t}, désignons par ai la norme
de la projection de xn sur l’espace propre Eλi , et posons m0 = 0. Donc pour chaque i on
définit
ym1 +···+mi−1 +1 , . . . , ym1 +···+mi
14
les coordonnées de y correspondantes à λi par :
ai
3.2
zm1 +···+mi−1 +1 , . . . , zm1 +···+mi
qP
mi
2
k=1 zm1 +···+mi−1 +k
.
(7)
Conversion du problème à D[0, +∞)
Comme on a dit précédemment, on commence par prouver que notre problème peut
se ramener au problème suivant :
Xn (Fn (·)) −→ WF0y (·) ,
D[0,∞)
Fn (x) −→ Fy (x).
p
Preuve
On sait que la convergence faible d’une suite de fonctions aléatoires sur D est équivalente
à : ∀B > 0, ∃b > B t.q. la suite (correspondante dans D[0, b]) converge faiblement en
D[0, b]. Notons par ρ la distance usuelle des espaces métriques C[0, 1] et D[0, 1] définie
par : ∀x, y ∈ D[0, 1]
ρ(x, y) = sup |x(t) − y(t)|.
t∈[0,1]
On a besoin de certains résultats de convergence faible qu’on peut les trouver dans le livre
de Billingsley (cf. [8]). Soit
D[0, 1] = {x ∈ D[0, 1] : x
croissant positif }.
Comme D est fermé dans D[0, 1], on prend comme topologie de D la topologie induite sur
D[0, 1] . Pour h définie par
h : D[0, ∞) × D[0, 1] −→ D[0, 1]
h(x, φ) = x ◦ φ
h est mesurable , de plus elle est continue pour toute :
(x, φ) dans C[0, ∞) × C[0, 1] ∩ D[0, 1]. Donc, si on a (voir [8])
(Yn , ϕn ) −→ (Y, ϕ)
et
en
D[0, ∞) × D[0, 1]
P(Y ∈ C[0, ∞)) = P(ϕ ∈ C[0, 1]) = 1
alors
Yn ◦ ϕn −→ Y ◦ ϕ
D
en
Montrons maintenant que le fait de prouver que
Xn (Fn (·)) −→ WF0y (·)
D[0,∞)
suffit pour prouver notre théorème.
15
D[0, 1].
(8)
Il est bien connu d’après les études sur les spectres de matrices aléatoires (cf. [9],[10]) que
2 ) = 1, alors
si E(v1,1
∀x > 0
Fn (x) =
n
1X
1
−→ Fy (x)
n i=1 {λi ≤x} p
où Fy est une fonction de répartition continue, non aléatoire, qui dépend seulement d’un
√
√
nombre y > 0, supportée sur [(1 − y)2 , (1 + y)2 ]. De plus, si E(v1,1 ) = 0, E(v1,1 )2 = 1,
alors la plus grande valeur propre λmax satisfait :
√
λmax (Mn ) −→ (1 + y)2
si et seulement si, E(v1,1 )4 < ∞. Pour t ∈ [0, 1], posons Fn−1 (t) la plus grande
valeur propre
λj tel que Fn (λj ) ≤ t (= 0 si t < n1 ). On trouve que Xn Fn Fn−1 (t) = Xn (t) sauf
m+1
−1
sur les intervalles [ m
n , n [ où λm = λm+1 . Et soit Fy (x) l’inverse de Fy (x) à valeurs
dans
√
√
[(1 − y)2 , (1 + y)2 ].
Cas où y ≤ 1 :
Soit Fy−1 (0) = (1 −
√
y)2 , on obtient directement que :
∀t ∈ (0, 1] Fn−1 (t) −→ Fy−1 (t).
Soit Fbn−1 (t) = max (1 −
√
y)2 , Fn−1 (t) , alors on a
∀t ∈ [0, 1] Fbn−1 (t) −→ Fy−1 (t)
√
Et comme λmax (Mn ) −→ (1 + y)2 , on obtient
ρ(Fbn−1 , Fy−1 ) −→ 0
p.s.
p.s.
Il en résulte par la formule : Xn (Fn (·)) −→D[0,∞) WF0y (·) que
Xn (Fn (Fbn−1 (·))) −→ WF0y (F −1 (·)) .
D[0,∞)
Comme Fy (x) = 0 pour x ∈ [0, (1 −
donc en probabilité.
Ainsi, on obtient
sup
√
x∈[0,(1− y)2 ]
√
y)2 ], on a Xn (Fn (·)) −→ 0 sur D[0, (1 −
|Xn (Fn (x))| −→ 0
en
probabilité.
D’autre part, on a
ρ Xn (Fn (Fn−1 (·)), Xn (Fn (Fbn−1 (·)) ≤ 2 ×
sup
√
x∈[0,(1− y)2 ]
|Xn (Fn (x))| −→ 0
Donc, on trouve que :
Xn (Fn (Fn−1 (·)) −→ W 0
D
16
en
D[0, 1].
√
y)2 ] et
Dans le cas où v1,1 admet une densité, on trouve directement le résultat souhaité :
Xn −→ W 0 .
D
En effet, comme y ≤ 1 =⇒ n ≤ s asymptotiquement. Ainsi, les valeurs propres de Mn
sont distinctes avec probabilité 1, donc Xn (Fn (Fn−1 (·)) = Xn (·) p.s.
Pour v1,1 de loi plus générale, il nous faut prendre en considération les ordres de multiplicité des valeurs propres de Mn . Prenons les mêmes notations que précédemment :
(λ1 , . . . , λt ), (m1 , . . . , mt ), et (a1 , . . . , at ). On obtient de la formule (7)
ρ Xn (·), Xn (Fn (Fn−1 (·)) = max
r
1≤i≤t
1≤j≤mi
Pj
2
n 2 l=1 zm1 +···+mi−1 +l
j
ai Pmi 2
− 2
n
k=1 zm1 +···+mi−1 +k
(9)
La fonction mesurable h en D[0, 1] définie par :
h(x) = ρ x(t), x− (t)
est continue sur D[0, 1] et identique à la fonction nulle sur C[0, 1], donc
h Xn (Fn (Fn−1 (·), Xn (·)) −→ 0.
D
Ce qui est équivalent à :
r
max
1≤i≤t
n 2 mi a −
−→ 0
2 i
n en probabilité.
(10)
Pour tout i ≤ t et j ≤ mi , on a :
r
r
=
r
+
j
2
n 2 l=1 zm1 +···+mi−1 +l
j − a P i 2
2 i m
n
k=1 zm1 +···+mi−1 +k
P
n 2 mi
ai −
2
n

Pj z 2
l=1 m +···+mi−1 +l
Pmi 2 1
k=1 zm1 +···+mi−1 +k
Pj
2
l=1 zm1 +···+mi−1 +l
(11)

n mi  2
j
− 
ai Pmi 2
2 n
n
z
k=1 m1 +···+mi−1 +k
(12)
De (10), on obtient que (11)−→ 0 en probabilité (comme le maximum de la valeur absolue
tend vers 0).
Pour (12), on sait que le rapport de deux variables χ2 indépendantes suit la loi bêta, dans
notre cas c’est une loi bêta de paramètres p = 2j et q = mi2−j . Ainsi, elle admet mj i comme
17
2
j
moyenne et son moment d’ordre 4 est borné par C m
4 tel que C ne dépend que de j et mi .
i
Soit
 P

j
2
z
j
l=1 m +···+mi−1 +l
bmi ,j = a2i Pmi 2 1
− 
n
k=1 zm1 +···+mi−1 +k
et soit ε > 0. Par application directe du théorème 12.2 dans [8], on obtient :
r
n mi
P
max 2 n
1≤j≤mi
bmi ,j > εMn ≤
Cm2i
.
4n2 ε4
On obtient par l’inégalité de Bool :

r
n mi
C
mi


P  max bmi ,j > εMn  ≤ 4 max
,
1≤j≤mi
2 n
4ε 1≤i≤t n

1≤i≤t
donc,

r
C
mi
n mi


bmi ,j > ε ≤ 4 E max
P  max 1≤j≤mi
1≤i≤t n
2 n
4ε

(13)
1≤i≤t
Or Fn (x) −→ Fy (x) p.s., Fy est à support compact et continue sur (−∞, ∞), on a
sup |Fn (x) − Fy (x)| = 0 p.s.
x∈[0,∞)
⇒ sup Fn (x) − Fn− (x) = 0 p.s.
x∈[0,∞)
Ce qui est équivalent à :
max
1≤i≤t
mi
−→ 0
n
p.s.
et par convergence dominée, on obtient que le terme de gauche en (13) −→ 0, donc
(9)−→ 0, et pour conclusion
Xn −→ W 0
en
D
D[0, 1].
Cas où y > 1 :
On suppose que n est suffisamment grand par rapport à s de telle sorte que : ns > 1. Donc
√
Fn (0) = mn1 ≥ 1− y1 ' 1− ns > 0. Considérons que pour t ∈ [0, 1− y1 ] Fn−1 (t) = (1− y)2 .
Pour t ∈ (1 − y1 , 1], on obtient
Fn−1 (t) −→ Fy−1 (t) p.s.
√
Définissons Fbn−1 (t) = max (1 − y)2 , Fn−1 (t) comme précédent. On a : ρ(Fbn−1 , Fy−1 ) −→
0 p.s., et d’après (8) et théorème (2.4) dans [8] , on obtient
Xn (Fn (Fbn−1 (t)) −→ WF0
D
18
−1
y (Fy (t))
=
On a

0
W1−
1
t∈[0,1− y1 ]
Wt0
t∈(1− y1 ,1]
y
ρ Xn (Fn (Fn−1 (t))), Xn (Fn (Fbn−1 (t))
=
sup√
x∈[0,(1− y)2 ]
−→
D
√
Xn (Fn (x)) − Xn (Fn ((1 − y)2 ))
sup√
x∈[0,(1− y)2 ]
0
WFy (x) − WF0y ((1−√y)2 )) = 0 ,
ce qui nous donne
ρ Xn (Fn (Fn−1 (·))), Xn (Fn (Fbn−1 (·)) −→ 0
en
probabilité.
Ainsi, on obtient le résultat souhaité
Xn (Fn (Fn−1 (·))) −→ WF0
−1
y (Fy (·))
D
.
3.3
Convergence vers le pont Brownien
Dans la suite, on va prouver que
Xn (Fn (·)) −→ WF0y (·) .
D[0,∞)
Pour t < Fn (0) + n1 ,
r
Xn (t) =
Pbntc
n
bntc
z2
a2i PnFi=1(0) i −
n
2
n
z2
a2
=p i
Fn (0)
bntc
+
nFn (0)
Notons que
s l=1
l
!
Pbntc 2
bntc
i=1 zi
PnFn (0) 2 − nF (0)
n
zl
l=1
nFn (0)
2
r
!
n 2
a − Fn (0) .
2 i
n/2(a2i − Fn (0)) = Xn (Fn (0)). Pour t ∈ [0, 1], posons
p
t
ϕn (t) = min
,1 ,
Fn (0)
ϕ(t) = min
r
et
Yn (t) =
n
2
t
,1
Fy (0)
!
t
= min
,1 ,
1 − (1/y)
!
Pbntc 2
z
bntc
i=1 i
.
PnFn (0) 2 − n
l=1
19
zl
et soit D0 = {x ∈ D[0, 1] : x(1) ≤}, donc ϕn −→ ϕ en probabilité sur D0 , et pour
t < Fn (0) + n1 ,
s
YnFn (0) (ϕn (t)) =
!
Pbntc 2
bntc
i=1 zi
PnFn (0) 2 − nF (0) .
n
z
nFn (0)
2
l=1
l
Posons pour tout t ∈ [0, 1],
a2i
YnFn (0) (ϕn (t))
Fn (0)
bnFn (0)ϕn (t)c
+ Xn (Fn (0))
− 1 + Xn (Fn (Fn−1 (t))).
nFn (0)
Hn (t) = p
m+1
Donc, Hn (t) = Xn (t) sauf sur les intervalles [ m
n , n [ où 0 < λm = λm+1 .
Montrons que Hn −→ W 0 sur D[0, 1]. Soit φn (t) = Fn (0)t, φ(t) = (1 − y1 )t , et
D
bntc
1 X 2
(zi − 1).
Vn (t) = √
2n i=1
On a : φn −→ φ en probabilité sur D0 et :
Yn (t) =
Vn (t) −
1+
bntc
n Vn (1)
q
(14)
2
n Vn (1)
Or, Xn (Fn (Fn−1 (·))) et Vn sont indépendants, on a
Xn (Fn (Fn−1 (·))), Vn , ϕn , φn −→ WF0
−1
y (Fy (·))
D
, W , ϕ, φ ,
où W est un mouvement Brownien indépendant de W 0 . Ainsi
Xn (Fn (Fn−1 (·))), Vn ◦ φn , ϕn −→ WF0
D
Comme Vn (φn (t)) =
−1
y (Fy (·))
, W ◦ φ, ϕ .
p
Fn (0)VnFn (0) (t), on trouve
s
1
1 − VnFn (0)
y
ρ Vn ◦ φn ,
s
q
1 = Fn (0) − 1 − sup VnFn (0) (t) −→ 0
y t∈[0,1]
!
en
probabilité.
Ainsi,
!
Xn (Fn (Fn−1 (·))), VnFn (0) , ϕn −→
D
20
1
WF0 (F −1 (·)) , p
W ◦ φ, ϕ
y
y
1 − 1/y
(15)
p
Remarquons que 1 − 1/y W ◦ φ est aussi un mouvement Brownien (par scaling) indépendant de W 0 . L’expression (14) nous donne
Yn (t) − (Vn (t) − tVn (1)) = Vn (t)
p
t − bntc/n +
1+
2/n(tVn (1) − Vn (t))
q
2
n Vn (1)
(16)
Donc
ρ YnFn (0) (t), VnFn (0) (t) − tVnFn (0) (1) −→ 0
en
probabilité.
(17)
Rappelons que Wt − tW1 est un pont Brownien. De (15) et (16), on obtient
Xn (Fn (Fn−1 (·))), YnFn (0) , ϕn −→ WF0
−1
y (Fy (·))
D
c 0, ϕ ,
,W
c 0 est un autre pont Brownien indépendant de W 0 . Considérons la structure
tel que W
h : D[0, 1] × D[0, 1] × D0 −→ D[0, 1] définie par
h(x1 , x2 , z) =
q
1 − (1/y)x2 ◦ z + x1 (0)(z − 1) + x1 ,
h est continue sur C[0, 1] × C[0, 1] × D0 ∩ C[0, 1]. D’autre part, on a
a21 −→ 1 − (1/y)
p
et
bnFn (0)ϕn (t)c
− 1 −→ 0·
p
nFn (0)
Ainsi,
Hn −→
D
q
0
c0 ◦ ϕ + W 0
1 − (1/y)W
1−(1/y) (ϕ − 1) + WF
−1
y (Fy (·))
≡ H.
Il est clair que H est un processus gaussien centré continu sur [0, 1]. Calculons E(Hs Ht )
pour 0 ≤ s ≤ t ≤ 1. Pour cela on pose A = (1 − (1/y)), et remarquons que Aϕ(s) =
min(s, A) et Aϕ(t) = min(t, A), on a
=E
h√
E(Hs Ht )
√
i
c 0 ◦ ϕ)(s) + W 0 (ϕ − 1)(s) + W 0
c 0 ◦ ϕ)(t) + W 0 (ϕ − 1)(t) + W 0
A(W
A(
W
A
s
A
t
= Aϕ(s)(1 − ϕ(t)) + A(ϕ − 1)(s)(ϕ − 1)(t) + t(1 − A)(ϕ − 1)(s) + s(1 − A)(ϕ − 1)(t) + s(1 − t)
= s(1 − t).
Ce qui est bien la fonction de covariance d’un pont Brownien. On a ρ(Xn , Hn ) est donnée
par
r Pj
2
n 2 l=1 zm1 +···+mi−1 +l
j max
a P i 2
− ,
2≤i≤t
2 i m
n
k=1 zm1 +···+mi−1 +k
1≤j≤mi
(Pour i = 1, ils sont les mêmes). Appliquons les mêmes arguments qu’on a vu précédemment dans (10) et (13), comme max1≤i≤t { mni } −→ 0, par convergence dominée on
p
obtient
ρ(Xn , Hn ) −→ 0.
p
Ainsi, on obtient que Xn converge faiblement vers le pont Brownien.
21
La figure suivante consiste à une simulation du processus Xn (t) pour n = 600, et s(n) =
2 × n, dont les entrées de la matrice Vn sont gaussiennes i.i.d.
Code en Scilab :
Fonction qui calcule X n (t) pour t ∈ [0, 1] :
22
Programme de Simulation :
23
4
Modèle pour les matrices de Wigner
Ce modèle donne une autre vision sur la convergence de fluctuations des vecteurs
propres pour des matrices universelles (de type Wigner) vers celles du cas spécial gaussien
GOE.
Soit Xn une matrice de Wigner (pour plus de simplicité on prend le cas réel),
(xni,j )
Xn = √ ,
n
dont les éléments sont indépendants, avec la même loi sur la diagonale et la même loi hors
la diagonale (qu’on les appelle les lois atomes de Xn ). Soit
Xn = On Dn OnT ,
la décomposition spectrale de Xn , tels que, Dn est une matrice diagonale dont les éléments diagonaux sont les valeurs propres de Xn classées dans l’ordre croissant, On est une
matrice orthogonale dont les colonnes forment une base de vecteurs propres de la matrice
Xn , et OnT désigne la transposée de la matrice On .
Considérons le processus bivarié càdlàg défini par :

r 1

n
Bs,t = 
 2

X
|Oi,j |2 −
1≤i≤bnsc
1≤j≤bntc
1
n




(18)
s,t∈[0,1]2
On va montrer dans la suite que ce processus converge sous certaines conditions sur les
éléments de Xn vers le pont Brownien bivarié sur D[0, 1]2 dans le sens faible (convergence
en lois fini-dimensionnelles ). Pour obtenir des résultats de convergence plus forts (convergence pour la topologie de Skorokhod sur D[0, 1]2 ), on doit mettre des conditions plus
fortes.
Théorème 4.1 (Universalité de convergence des fluctuations pour les matrices de Wigner).
Sous les notations précédentes, supposons que
1. ∀k ≥ 1,
E |x1,1 |k + |x1,2 |k < ∞.
2. E(x1,1 ) = E(x1,2 ) = 0
et
E(|x1,2 |2 ) = 1.
3. limn→∞ E(|x1,2 |4 ) existe.
alors, la loi de (B n )n≥1 admet un unique point d’accumulation possible sur C[0, 1]2 , ce dernier n’est que la distribution d’un processus gaussien centré qui ne dépend de lois atomes
de Xn qu’en limn→∞ E(|x1,2 |4 ), et ce qui est le pont Brownien bivarié si et seulement si,
lim E(|x1,2 |4 ) = 3 = E(|g|4 ) t.q.
n→∞
24
g ∼ N (0, 1).
n converge faiRemarque 4.2. On peut voir ce théorème comme ceci, toute suite de Bs,t
blement, elle converge vers un processus gaussien centré qui dépend de lois atomes de Xn
seulement en limn→∞ E(|x1,2 |4 ), et qui est le pont Brownien bivarié si et seulement si
limn→∞ E(|x1,2 |4 ) = 3 (Notons que les lois atomes de Xn peuvent dépendre de n).
Remarque 4.3 (Nécessité et suffisance des conditions).
Mêmes si les condition ne sont pas optimales (avoir des moments finis de tout ordre),
une certaine bornitude sur les queues de lois atomes semble être nécessaire pour pouvoir
n . En effet, ce schéma montre l’influence de
contrôler la discontinuité dans le processus Bs,t
ces queues sur les fluctuations (i/n, j/n) → |Oi,j |2 −
1
n
n .
dans Bs,t
Figure 1 – À gauche : matrice GOE.
À droite : matrice de Wigner admettant des
moments d’ordre au plus 2 + pour un suffisamment petit. Les deux matrices sont de
dimension n × n avec n = 50 (cf, Fig.1 dans [3]).
4.1
Preuve du problème d’universalité
Conversion du problème à D([0, 1] × R)
La preuve du théorème (4.1) est basée sur la technique de J.W.Silverstein qu’on a vu
dans la première partie [conversion du problème à D([0, 1] × R)]. En fait, on n’a pas un
accès direct aux vecteurs propres de Xn dans cet aspect général, mais on a un accès au
processus
n
Bs,F
,
(u)
µ
Xn
s∈[0,1],u∈R
25
où FµXn (u) désigne toujours la fonction de répartition cumulative de la loi spectrale empirique Xn ,
n
1X
FµXn (u) =
(1λ ≤u ).
n i=1 i
Par suite, on peut transformer notre problème au problème sur les moments d’une loi
basée sur les valeurs propres de Xn ( ce qu’on appelle la loi spectrale pondérée) en utilisant
la bonne connaissance du comportement asymptotique de FµXn (u) qui converge vers la
fonction de répartition cumulative de la loi de semi-cercle (théorème de Wigner) dont sa
fonction
inverse à droite est
bien connue, ce qui nous permet d’aller dans les deux sens
D([0, 1]2 ) D([0, 1] × R) . On a,
n
Bs,F
µ
Xn
r
1
(u) = 
X X
2 1≤i≤bnsc j:λ
j ≤u

1 
.
|Oi,j |2 −
n
n
Ainsi, pour tout s ∈ [0, 1], la fonction u ∈ R −→ Bs,F
(u) est la fonction de répartition
µX
n
cumulative de la mesure signée (loi spectrale pondérée) suivante
r


n
1 X X
1
|Oi,j |2 −
δλj .
2 1≤i≤bnsc j=1
n
(19)
Ce qu’on peut étudier à l’aide de ses moments
X
1
− TrXnk
n
e∗i Xnk ei
1≤i≤bnsc
(k ≥ 1),
où ei désigne le iièm vecteur de la base canonique de Rn . En effet, ∀k ≥ 1

r
 1
E
X
n X
2 1≤i≤bnsc j=1
1
|Oi,j |2 −
n
k  r
1

δλj   = 
n X
X
2 1≤i≤bnsc j=1
r
=

n
X

1
|Oi,j |2 −
λkj 
n

1
1

Oi,j λkj Oj,i − λkj 
2 1≤i≤bnsc j=1
n
X
(∗)
Comme : T r(X k ) = T r(O.Dk .OT ), on trouve que
r
(∗) =
=
1 X
1
(Xnk )i,i − TrXnk ,
2 1≤i≤bnsc
n
X
e∗i Xnk ei −
1≤i≤bnsc
1
TrXnk .
n
Ainsi, on peut déterminer le comportement asymptotique de la fonction de répartition
cumulative précédente en déterminant le comportement asymptotique des moments de la
n
loi pondérée. Une fois la distribution asymptotique de Bs,F
(u) est déterminée, on peut
µ
Xn
26
n en utilisant la fonction inverse de F
trouver celle du processus Bs,t
semi−cercle .
L’étape principale dans la preuve qu’on est entrain de faire est de prouver la proposition
suivante, ce qui nous permet de transformer le problème à étudier une situation plus
accessible (la loi spectrale pondérée de Xn ).
Proposition 4.4 (Conversion du problème à l’étude des moments de la loi spectrale
pondérée).
Désignons par ei le iièm vecteur de la base canonique de Rn . Pour prouver le théorème
(4.1) il suffit de prouver que le processus des moments de la loi spectrale pondérée de Xn
1
TrXnk
n
e∗i Xnk ei −
X
1≤i≤bnsc
(k ≥ 1)
(20)
converge en lois fini-dimensionnelles vers un processus gaussien centré, et que la covariance
du processus limite dépend des lois atomes de Xn seulement en limn→∞ E(|x1,2 |4 ).
Preuve de la proposition 4.4
Soit µXn = n1 ni=1 δλi la loi spectrale empirique de Xn , et soit FµXn sa fonction de répartition cumulative. Le théorème de Wigner affirme que FµXn converge en probabilité vers
Fsemi−cercle la fonction de répartition cumulative de la loi de semi-cercle sur Dc (R, [0, 1]).
De plus la structure
P
D0 ([0, 1]2 ) × Dc (R, [0, 1]) −→ Dc ([0, 1] × R)
(Gs,t )s,t∈[0,1] , g(u)u∈R 7−→ Gs,g(u)
(s,u)∈[0,1]×R
est continue sur C0 ([0, 1]2 ) × Cc (R, [0, 1]). Ainsi, par la théorie de théorèmes limites (réf.
[8]), pour tout processus Bs,t dont sa distribution est un point d’accumulation de la suite
(distribution(B n ))n≥1 sur D0 ([0, 1]2 ), le processus
n
(Bs,F
µ
Xn
(u))(s,u)∈[0,1]×R
converge vers le processus
(Bs,Fsemi−cercle (u) )(s,u)∈[0,1]×R .
Notons que Fsemi−cercle (u) : R −→ [0, 1] admet une fonction inverse à droite, donc le
processus B(s,t) est entièrement déterminé par le processus (Bs,Fsemi−cercle (u) )(s,u)∈[0,1]×R .
Il en résulte de ça et de lemmes suivants que pour prouver le théorème (4.1), il suffit de
prouver que la séquence
n
distribution(Bs,F
µ
Xn
(u))(s,u)∈[0,1]×R
(21)
admet un unique point d’accumulation possible dans Cc ([0, 1], R).
Notons que pour toute fonction
f ∈ Cc ([0,
R
1] × R), f est strictement déterminée par
k
la collection des nombres u∈R u f (s, u)du
. Ce résultat reste vrai si f est un
s∈[0,1],k≥0
processus aléatoire, voyons ça par ce lemme.
27
Lemme 4.5. Soit f une fonction aléatoire définie sur Cc ([0, 1] × R) tel que, presque sûrement f (s, u) = 0 quand |u| > 2, alors, la distribution de f est entièrement déterminée
par la loi fini-dimensionnelle du processus
Z
uk f (s, u)du
·
u∈R
(22)
s∈[0,1],k≥0
De plus, si la distribution fini-dimensionnelle du (22) est gaussienne centrée, alors celle
de f est aussi gaussienne centrée.
Preuve
Fixons (s, u0 ) ∈ [0, 1] × [−2, 2], et pour tout p ≥ 1, soit (Pp,q )q≥1 une suite de polynômes
uniformément bornés sur [−3, 3] qui converge simplement vers 1[u0 ,u0 +(1/P )] sur [−3, 3],
alors par le théorème de la moyenne on trouve p.s.,
Z u0 +1/p
f (s, u0 ) = lim p
p→∞
f (s, u)du
u0
Z
= lim lim p
Pp,q (u)f (s, u)du.
p→∞ q→∞
u∈R
Ce qui nous prouve le lemme, car toute limite p.s. d’une suite de variables gaussiennes
centrées est gaussienne centrée.
Il est bien connu que les valeurs propres extrémales de la matrice de Wigner Xn (λmin , λmax )
converge vers −2 et 2. par conséquence, si f est le processus limite de la suite
n
ditribuion(Bs,F
µ
Xn
(u))(s,u)∈[0,1]×R ,
alors f (s, u) = 0 pour |u| > 2. Donc, par tout ce qui précède, il résulte que pour prouver
le théorème (4.1) il nous suffit de prouver que toute loi fini-dimensionnelle du processus
Z
k
u
u∈R
n
Bs,F
µX
(u)du
n
s∈[0,1],k≥0
converge vers un processus gaussien centré. Et que le processus limite ne dépend de lois
atomes de Xn qu’en limn→∞ E(|x1,2 |4 ).
Pour terminer la preuve, Il reste seulement de montrer la liaison entre
Z
u∈R
n
uk Bs,F
µ
Xn
X
et
(u)du
s∈[0,1],k≥0
e∗i Xnk ei −
1≤i≤bnsc
1
TrXnk .
n
On a ∀(s, u) ∈ [0, 1] × R
n
Bs,F
µ
Xn
r
1
(u) = 
X
X 2 1≤i≤bnsc j:λ
28
j ≤u

1 
.
|Oi,j |2 −
n
Donc,
n
Bs,F
µ
Xn
r
1
(u) = 

X
2 1≤i≤bnsc
FµXn ,ei −µXn (u) ,
où :
• µXn est la loi spectrale de Xn .
• µXn ,ei est la loi définie par : µXn ,ei =
Pn
j=1
|Oi,j |2 δλj .
• FµXn ,ei −µXn (u) est La fonction de répartition cumulative de la mesure pondérée de
masse nulle µXn ,ei − µXn .
Lemme 4.6. Soit µ une mesure signée à support compact de masse nulle, et Fµ =
µ((−∞, u]). Alors pour tout k ≥ 0,
Z
k
u Fµ (u)du = −
Z
u∈R
x∈R
xk+1
dµ(x)
k+1
Preuve
Soit a<b, tel que le support de µ est contenu dans l’intervalle (a, b). Ainsi, Fµ est nulle en
dehors de (a,b) et satisfait :
Fµ (u) = µ((−∞, u]) = 0 − µ(u, b) = −µ(u, b).
Par théorème de Fubini, on trouve
Z
uk Fµ (u)du =
Z
Z b
−uk dµ(x)du
u∈R x=u
Z b Z x
u∈R
=
−uk dudµ(x)
x=a u=a
−xk+1
Z b
=
x=a
Z b
=
x=a
dµ(x) +
k+1
−xk+1
dµ(x).
k+1
ak+1
µ((a, b))
k+1
Il résulte par ce lemme que,
Z
k
u
u∈R
n
Bs,F
µX
∀s ∈ [0, 1], k ≥ 0,
−1
(u)du =
n
k+1
r
1 X
1
e∗i Xnk ei − TrXnk .
2 1≤i≤bnsc
n
Ce qui nous prouve la proposition (4.4).
29
Convergence vers la loi gaussienne
Le théorème (4.1) est une conséquence directe de la proposition suivante.
Proposition 4.7 (Convergence vers la loi gaussienne).
Sous l’hypothèse du théorème (4.1), toute distribution fini-dimensionnelle du processus

X

1≤i≤bnsc

1
e∗i Xnk ei − TrXnk 
n
s∈[0,1],k≥1
converge vers une distribution gaussienne centrée. La covariance de la distribution limite
qu’on la note :
(Covs1 ,s2 (k1 , k2 ))s1 ,s2 ∈[0,1],k1 ,k2 ≥1 ,
ne dépend de lois atomes de Xn qu’en limn→∞ E(|x1,2 |4 ). De plus,
Covs1 ,s2 (2, 2) = E(|x1,2 |4 − 1) (min(s1 , s2 ) − s1 s2 ) .
Preuve de la proposition 4.7
Notons que la mesure µXn ,ei ne dépend pas de i, du fait que la loi de Xn est invariante
par permutations pour tout s dans [0, 1] et k ≥ 1. On trouve
X
e∗i Xnk ei
1≤i≤bnsc
=
X
e∗i Xnk ei − E[e∗i Xnk ei ] −
1≤i≤bnsc
1
− TrXnk
n
bnsc X ∗ k
ei Xn ei − E[e∗i Xnk ei ] ·
n 1≤i≤n
(23)
Ainsi, il nous suffit d’étudier le comportement asymptotique de la loi fini-dimensionnelle
du processus
X
e∗i Xnk ei − E[e∗i Xnk ei ]
(24)
1≤i≤bnsc
Pour ça, on va étudier les moments de l’expression précédente (24). Fixons p ≥ 1, s1 , . . . , sp ∈
[0, 1] et k1 , . . . , kp ≥ 1, et étudions la limite quand n → ∞ de :

E
p
Y
X

e∗ X kl ei − E[e∗ X kl ei ] 
i
n
i
n
(25)
l=1 1≤i≤bnsl c
Introduisons l’ensemble d’indices :
1
1
p
p
Ξ = {0 , . . . , k1 } ∪ · · · · · · ∪ {0 , . . . , kp }
1
1
2
2
p
p
(26)
où les ensembles {0 , . . . , k1 },{0 , . . . , k2 }, . . . , {0 , . . . , kp } sont p copies disjointes de
l’ensemble des entiers positifs. On ordonne les éléments de l’ensemble Ξ comme il est
30
décrit dans l’expression (26). Pour toute partition π de l’ensemble Ξ, pour tout x ∈ Ξ, on
note π(x) l’indice de la classe d’équivalence de x de la façon suivante :
1
1
π(0 ) = 1,
1∼0
π(1 ) = 1 si
et
1
π(1 ) = 2 si
1 0·
Comme (xi,j ) admet des moments de tout ordre, on peut écrire l’expression (25) et la
développer sous la forme :

E

p
Y
X
e∗i Xnkl ei − E[e∗i Xnkl ei ] 
(27)
l=1 1≤i≤bnsl c
=n
−
k1 +···+kp
2
X
A(n, p)E
" p Y
#
xπ(0l ),π(1l ) , . . . , x
l=1
π∈Part(Ξ)
l
l
π(kl −1 ),π(kl )
− E[xπ(0l ),π(1l ) , . . . , x
l
tel que, pour chaque π ∈ Part(Ξ), A(n, p) est le nombre de familles d’indices de
i01 , . . . , ik 1 , . . . . . . , i0p , . . . , ikp p
1
qui sont répartis selon la partition π, et qui vérifient, pour chaque l = 1, . . . , p,
1 ≤ i01 = ik
1
1
≤ nsl
(28)
Pour toute π ∈ Part(Ξ), définissons Gπ par le graphe dont l’ensemble des sommets est
donné par {π(x); x ∈ Ξ}, et l’ensemble des arêtes est donné par
l
Eπ = {{π(m − 1 ), π(ml );
1 ≤ l ≤ p,
m ∈ {0, . . . , kl }}}.
Comme les xi,j sont de lois centrées et indépendantes. Pour que les termes associés à π
dans l’expression (27) ne soient pas nuls, on doit avoir
l
l
(i) π(0 ) = π(kl )
∀l : 1, . . . , p pour obtenir une puissance d’ordre kl .
l
l
(ii) Toute arête de Gπ est visitée au moins deux fois par l’union de p chemins {0 , . . . , kp }
pour l : 1, . . . , p.
0
l
l
(iii) ∀ l : 1, . . . , p, il existe l 6= l, tel qu’au moins une arête est visitée par {0 , . . . , kp }
l
0
l
0
et {0 , . . . , kp }.
Définissons maintenant une fonction s sur l’ensemble d’indices Ξ par,
∀l : 1, . . . , p,
s(ml ) =
n
sl
1
m ∈ {0, . . . , kl }
si m=0
sinon
ou
m=kl
Et
sπ =
Y
B bloc de π
31
min s(x).
x∈B
l
π(kl −1 ),π(kl )
(29)
]
,
Par suite, on trouve
A(n, π) ∼ sπ n|π| ·
(30)
En effet, il est facile de voir que le nombre de familles d’indices de
i01 , . . . , ik 1 , . . . . . . , i0p , . . . , ikp p
1
qui sont réparties selon la partition π est d’ordre n|π| , et la présence de sπ dans la formule
est justifiée par la condition : 1 ≤ i0l = i l ≤ nsl ∀ l : 1, . . . , p. Ainsi, pour que la
kl
contribution de π dans l’expression (27) soit non nulle asymptotiquement, il faut ajouter
cette condition,
(iv)
k1 +···+kp
2
≤ |π|.
Maintenant, on va donner un lemme clé de la théorie combinatoire correspondant à notre
situation.
Lemme 4.8. Soit π ∈ P art(Ξ) satisfait (i), (ii), (iii) et (iv), le nombre cπ des composantes
connexes dans le graphe Gπ vérifie : cπ ≤ p2 et
|π| ≤ cπ −
p k1 + · · · + kp
+
.
2
2
Par conséquence, si π satisfait encore (iv), on trouve
(a) cπ =
p
.
2
(b) p est paire.
(c) |π| =
k1 + · · · + kp
, (ainsi, k1 + · · · + kp est paire).
2
(d) par (ii), on trouve aussi que, Eπ ≤
k1 +···+kp
.
2
Ainsi, par (27) et (30), on obtient

lim E 
n→∞
=
X
π∈P art(Ξ)
sπ lim E
n→∞
" p Y
l=1
p
Y

X
e∗i Xnkl ei − E[e∗i Xnkl ei ] 
(31)
l=1 1≤i≤bnsl c
#
xπ(0l ),π(1l ) , . . . , x
l
l
π(kl −1 ),π(kl )
− E[xπ(0l ),π(1l ) , . . . , x
l
l
π(kl −1 ),π(kl )
]
où la somme est considérée pour les partitions π de Ξ qui vérifient (i), (ii), (iii), (iv) et
(a), (b), (c), (d).
32
Cas où p est impaire
Par (b), on sait qu’il n’y a pas de partition qui vérifie les conditions précédentes, donc
par (31),


lim E 
n→∞
p
Y
X
e∗i Xnkl ei − E[e∗i Xnkl ei ]  = 0.
l=1 1≤i≤bnsl c
Cas où p = 2
Dans ce cas, (a) implique que toute partition π satisfait (i), (ii), (iii) et (iv). Gπ est
2
2
connecté, ainsi |π| − 1 ≤ |Eπ |, donc par (c) et (d) : soit |Eπ | = k1 +k
ou |Eπ | = k1 +k
− 1.
2
2
2
− 1, le graphe Gπ a un sommet de plus par rapport
Dans le cas où |Eπ | = k1 +k
2
1
1
aux arêtes, donc Gπ est un arbre. Par conséquence, les chemins {π(0 ), . . . , π(k1 )} et
2
2
{π(0 ), . . . , π(k2 )} qui commencent et se terminent par les mêmes sommets, visitent
chaque arête un nombre paire de fois, il est facile de voir qu’une seule arête doit être
visitée quatre fois (2 dans chaque sens), Il en résulte que l’espérance associé à π en (30)
est égale à E(|x1,2 |4 ) − 1.
2
Dans le cas où |Eπ | = k1 +k
2 , on peut voir que chaque arête de Gπ est visitée exactement
deux fois (Gπ est un bracelet), ainsi l’espérance associée à π dans ce cas est égale à 1. Par
conséquence, quand n → ∞

E

X
e∗i Xnk1 ei − E[e∗i Xnk1 ei ] ×
1≤i≤bns1 c
X
e∗i Xnk2 ei − E[e∗i Xnk2 ei ] 
1≤i≤bns2 c
converge vers un nombre qu’on le note
Covcs1 ,s2 (k1 , k2 )
(32)
et qui ne dépend de lois atomes de Xn qu’en limn→∞ E(|x1,2 |4 ).
Cas où p est paire > 2
Par le point (a) précédent, on peut voir que pour toute partition π qui satisfait
(i), (ii), (iii) et (iv), Gπ admet exactement p2 composantes connexes. Par (iii), chaque
composante entre eux contient le support de deux chemins parmi les p chemins
l
l
{π(0 ), . . . , π(kl )}
l : 1, . . . , p
Définissons σπ par le matching de {1, . . . , p} (i.e. une permutation dont tous les cycles
sont de longueur 2), tel que pour tout l ∈ {1, . . . , p} les chemins avec indices l et σπ (l)
sont supportés par la même composante connexe de Gπ . Développons la somme (31) selon
la valeur du matching défini par π, on obtient

lim E 
n→∞
p
Y

X
e∗i Xnkl ei − E[e∗i Xnkl ei ] 
l=1 1≤i≤bnsl c
33
=
X
X
sπ lim E
" p Y
xπ(0l ),π(1l ) , . . . , x
n→∞
σ π∈P art(Ξ)
#
l=1
l
l
π(kl −1 ),π(kl )
− E[xπ(0l ),π(1l ) , . . . , x
l
l
π(kl −1 ),π(kl )
telle que la première somme est sur les matchings σ de {1, . . . , p} et la deuxième somme
est sur les partitions π satisfaisant (i), (ii), (iii) et (iv) et pour les quelles σπ = σ. Notons
que pour tout matching σ, une partition π ∈ Part (Ξ) tel que σπ = σ peut s’écrire comme
0
le produit cartésien indexé par les cycles {l, l } de partitions τ des ensembles de type
l
l
l
0
l
0
Ξl,l0 = {0 , . . . , kl } ∪ {0 , . . . , kl0 } (sous ensemble de Ξ)
satisfaisant les conditions suivantes
: 0
0
l
l
l
l
(i.2) τ (0 ) = τ (kl ) et τ (0 ) = π(kl ).
(ii.2) Chaque arête du graphe Gτ est visitée au moins deux fois par l’union des deux
1
1
l
0
l
0
chemins {τ (0 ), . . . , τ (k1 )} et {τ (0 ), . . . , τ (kl0 )}.
(iii.2) Au moins, une arête de Gτ est visitée deux fois par chacun de chemins précédents.
kl + kl0
≤ |τ |.
(iv.2)
2
De plus, par indépendance des variables xi,j l’espérance
E
" p Y
#
xπ(0l ),π(1l ) , . . . , x
l=1
l
l
π(kl −1 ),π(kl )
− E[xπ(0l ),π(1l ) , . . . , x
l
l
π(kl −1 ),π(kl )
]
se factorise le long des composantes connexes de Gπ . le facteur sπ défini dans l’expression
(30) se factorise aussi le long de ces composantes connexes, ainsi on obtient

lim E 
n→∞
p
Y

X
e∗i Xnkl ei − E[e∗i Xnkl ei ] 
l=1 1≤i≤bnsl c

=
X Y
σ {l,l0 }
lim E 

n→∞

X
e∗i Xnkl ei − E[e∗i Xnkl ei ] ×
1≤i≤bnsl c
X
k
0
k
0
e∗i Xnl ei − E[e∗i Xnl ei ]  ,

1≤i≤bns 0 c
l
où la somme est sur les matchings σ de {1, . . . , p}, et pour tout σ, le produit est sur les
0
cycles {l, l } de σ. Par la définition de Covcs1 ,s2 (k1 , k2 ), on obtient

lim E 
n→∞
=
p
Y

X
e∗i Xnkl ei − E[e∗i Xnkl ei ] 
l=1 1≤i≤bnsl c
X
Y
σ matching {l,l0 } cycle de σ
Covcsl ,s 0 (kl , kl0 ),
l
ce qui est la formule de covariance pour un processus gaussien (par la formule de Vick).
Ainsi, la première partie de la proposition (4.7) est prouvée.
34
]
,
Maintenant, il ne nous reste que le calcul de Covcs1 ,s2 (2, 2). Par le calcul qu’on a vu dans
le traitement du cas “p = 2”.
X
Covcs1 ,s2 (2, 2) =
X
sπ ∗ (E(|x1,2 |4 − 1) +
π,Gπ est un arbre
sπ .
π,Gπ est un bracelet
Avec deux sommets, on a exactement un arbre et zéro de bracelets, donc
X
Covcs1 ,s2 (2, 2) = (E(|x1,2 |4 − 1)
sπ ·
π,Gπ est un arbre
On représente cet arbre par {◦ − •}, Il y a deux partitions associées π dans l’ensemble
1 1 1
2 2 2
Ξ = {0 , 1 , 2 } ∪ {0 , 1 , 2 } qui vérifient les conditions précédentes,
– La première est définie par
1
1
1
2
2
2
π(0 ), π(1 ), π(2 ) = π(0 ), π(1 ), π(2 ) = (•, ◦, •).
On a
Y
sπ =
min s(x).
B bloc de π
1
1
1
2
2
x∈B
2
Ainsi, 0 ∼ 1 ∼ 2 et 0 ∼ 1 ∼ 2 , et par définition de la fonction s on trouve :
sπ = min(s1 , s2 ).
– La deuxième est définie par
1
1
1
π(0 ), π(1 ), π(2 ) = (•, ◦, •),
1
1
2
et
2
2
2
π(0 ), π(1 ), π(2 ) = (◦, •, ◦).
2
Ainsi, 0 1 et 0 1 , et toujours par définition de la fonction s on trouve :
sπ = s1 s2 .
Par conséquence,
Covcs1 ,s2 (2, 2) = (E(|x1,2 |4 − 1)(min{s1 , s2 } + s1 s2 ).
Par la formule (23) supposons que s1 ≤ s2 , alors on a

X
E
1≤i≤bns1 c
1
e∗i Xn2 ei − TrXn2
n
X
1≤i≤bns2 c

1
e∗i Xn2 ei − TrXn2 
n
= Covs1 ,s2 (2, 2) − s2 Covs1 ,1 (2, 2) − s1 Cov1,s2 (2, 2) + s1 s2 Cov1,1 (2, 2)
= E(|x1,2 |4 − 1) (s1 +s1 s2 )−2s1 s2 E(|x1,2 |4 − 1) −2s2 s1 E(|x1,2 |4 − 1) +2s1 s2 E(|x1,2 |4 − 1)
= E(|x1,2 |4 − 1) (s1 − s1 s2 ).
Ce qui nous prouve le résultat.
35
Cette figure représente une simulation du processus Bn (s, t) avec une matrice de départ
de Wigner gaussienne.
36
Code en Scilab :
Fonction qui calcule B n (s, t) pour s, t ∈ [0, 1] :
Programme de Simulation :
37
n
Maintenant, on va énoncer un résultat de convergence plus forte du processus Bs,t
2
vers le pont Brownien bivarié pour la topologie de Skorokhod sur l’espace D([0, 1] ). Pour
ça, nous avons dû faire quelques d’autres hypothèses sur les lois atomes de la matrice
Xn : la continuité absolue, des moments de tout ordre et la coïncidence de leurs 10 (sur
le diagonale) et 12 (hors la diagonale) premiers moments avec ceux d’une matrice GOE.
Ce résultat est toujours conjecturé par D.Chafaï et prouvé par F.Benaych-Georges.
Notons que ces conditions restent toujours non optimales.
Théorème 4.9. Supposons que
1. Les lois atomes de la matrice de Wigner Xn sont absolument continues par rapport
à la mesure de Lebesgue.
2. ∀k ≥ 1,
E |x1,1 |k + |x1,2 |k < ∞. De plus, ∀r ≥ 0,
h
i
h
i
h
i
h
i
r | ,
• r ≤ 10 =⇒ E |xr1,1 | = E |g1,1
r | ,
• r ≤ 12 =⇒ E |xr1,2 | = E |g1,2
où g1,1 et g1,2 sont les éléments d’une matrice GOE standard.
Alors, le processus bivarié B n converge pour la topologie de Skorokhod sur D([0, 1]2 ) vers
le pont Brownien bivarié.
5
Problèmes ouverts
Question 1
Prouver la conjecture de D.Chafaï concernant le même phénomène d’universalité de
convergence de fluctuations qu’on a vu dans la section (4) pour d’autres décompositions
matricielles (plus générales) :
• Décomposition en valeurs singulières pour des matrices pas nécessairement carrées.
• Décomposition de Householder pour des matrices non symétriques.
Question 2
Optimisation des conditions utilisées dans le théorème (4.1) pour la convergence faible du
processus de fluctuations des vecteurs propres et le théorème (4.9) pour la convergence au
sens fort de Skorokhod.
Question 3
Obtenir des résultats de convergence plus forts pour le modèle des matrices de covariance
empirique de Silverstein qu’on a vu dans la section (3).
38
6
Annexe
6.1
Graphes
Un graphe permet de représenter simplement la structure, les connexions, les cheminements
d’un ensemble complexe de situations en exprimant les dépendances éventuelles entre ses
éléments. Ainsi, un réseau routier ou ferroviaire, un réseau de communications ou encore
un arbre généalogique peuvent être représentés par des graphes. Pour pouvoir modéliser le
plus grand nombre possible de situations, plusieurs types de graphes ont été définis comme
par exemple : graphe orienté, non orienté, connexe...
Définition 6.1. (Graphe orienté )
Un graphe orienté G = (S, E)est déterminé par :
• Un ensemble S = {s1 , . . . , sk } dont les éléments sont appelés sommets.
• Un ensemble E = {e1 , . . . , ek } du produit cartésien S × S dont les éléments sont
appelés arcs.
Pour un arc e = (si , sj ) : si est l’extrémité initiale (origine), et sj est l’extrémité finale
(destination) et on dit que l’arc e part de si et arrive à sj et que si et sj sont adjacents.
On appelle les arc de la forme (si , si ) des boucles.
La distance entre deux sommets est la longueur de la plus petite chaîne les reliant, et le
diamètre d’un graphe est défini par la plus longue de distances entre deux sommets.
Définition 6.2. (Graphe non orienté )
Un graphe non orienté G = (S, Ě) est déterminé par :
• Un ensemble S = {s1 , . . . , sk } dont les éléments sont appelés sommets.
• Un ensemble Ě = {e1 , . . . , ek } qui est un sous ensemble du produit cartésien S × S
dont les éléments sont appelés arêtes, dans les quelles on ne s’intéresse pas à l’ordre
entre les éléments.
Définition 6.3. (chaîne )
Une chaîne est une séquence d’arcs telle que chaque arc ait une extrémité commune avec
le suivant. On dit qu’elle est élémentaire si chaque sommet apparaît au plus une fois, et
simple si chaque arc apparaît une seule fois, et on dit qu’elle fermée Si
sorigine = sdetination .
Définition 6.4. (Cycles )
Un cycle est une chaîne fermée simple tel que seul le sommet de départ apparaît deux fois
dans la chaîne.
39
Un graphe qui ne contient aucun cycle est dit : graphe acyclique.
Définition 6.5. (Graphe connexe )
Un graphe connexe est un graphe dans lequel chaque paire de sommets est reliée par une
chaîne. Un graphe qui n’est pas connexe est dit non connexe, et se décompose en composantes connexes.
Définition 6.6. (Arbre )
Un arbre est un graphe connexe acyclique. On dit qu’elle est un arbre n-aire si chaque
sommet a 0 ou n fils. Quand n = 2, on parle d’arbre binaire. Un arbre est dit orienté s’il
est dessiné sur un plan orienté, et dans ce cas l’orientation du plan devient l’orientation
de cet arbre.
Remarque 6.7. La notion d’orientation d’un arbre est différente de la notion d’orientation d’un graphe quelconque.
Lemme 6.8. Soit G = (S, E) un graphe connexe avec S l’ensemble des sommets et E
l’ensemble des arêtes. on a alors,
|S| ≤ |E| + 1,
Il y a égalité si et seulement si G est un arbre.
6.2
Matrices orthogonales et Matrices unitaires
Une matrice carrée A ∈ Mn×n à coefficients réels est dite orthogonale si elle vérifie :
AT .A = A.AT = In , où AT est la transposée de A et In est la matrice identité. L’ensemble
des matrices orthogonales forme le groupe orthogonal On .
• Une matrice A est orthogonale si et seulement si : A est inversible et son inverse est
égale à sa transposée : A−1 = AT .
• Le carré du déterminant d’une matrice orthogonale est égal à 1. Le déterminant
d’une matrice orthogonale est donc égal à +1 ou −1. Si A est une matrice orthogonale et que son déterminant est +1 (respectivement −1), on dit que A est directe
(respectivement indirecte).
• L’ensemble de ces matrices est un groupe appelé groupe orthogonal et noté On (R).
Il s’interprète de manière géométrique comme étant l’ensemble des isométries vectorielles, aussi appelées automorphismes orthogonaux, de l’espace euclidien Rn . Plus
précisément, un endomorphisme d’un espace euclidien est orthogonal si, et seulement
s’il existe une base orthonormée dans laquelle sa matrice est orthogonale (et si tel
est le cas, sa matrice dans toute base orthonormée sera encore orthogonale).
40
Une matrice A à coefficients complexes est dite unitaire si elle vérifie les égalités suivantes :
A∗ .A = A.A∗ = In avec A∗ la matrice adjointe (la conjuguée de la transposée) de la matrice A et I la matrice identité. L’ensemble des matrices unitaires forme le groupe unitaire
Un .
• Les matrices unitaires sont donc inversibles, d’inverse A−1 = A∗ .
• Les matrices unitaires à coefficients réels sont les matrices orthogonales.
• Les matrices réelles symétriques sont diagonalisables à l’aide d’une matrice orthogonale. Plus généralement les matrices normales, parmi lesquelles les matrices hermitiennes, antihermitiennes et unitaires sont diagonalisables à l’aide d’une matrice
unitaire (Théorème spectral).
Références
[1] G. Anderson, A. Guionnet, O. Zeitouni An Introduction to Random Matrices. Cambridge studies in advanced mathematics, 118 (2009).
[2] Z.D. Bai, J.W. Silverstein Spectral analysis of large dimensional random matrices.
Second Edition, Springer, New York, 2009.
[3] F. Benaych-Georges Eigenvectors of Wigner matrices : Universality of global flutuations. arXiv :1104.1219v5 [math.PR], (2011).
[4] J.W. Silverstein Weak convergence of random functions defined by the eigenvectors of
sample covariance matrices. Ann. Probab, 18 (1990), no. 3, 1174–1194.
[5] J.W. Silverstein On the eigenvectors of large dimensional matrices of independent elements J. Multivariate Anal 30 1-16. 1989.
[6] C. Donati-Martin, A. Rouault. T Truncations of Haar unitary matrices, traces and
bivariate Brownian bridge. arXiv :1007.1366.
[7] T. Jiang Approximation of Haar distributed matrices and limiting distributions of eigenvalues of Jacobi ensembles, on Probability Theory and Related Fields. Volume 144,
Numbers 1-2, 221-246.
[8] P. Billingsley Convergence of Probability Measures. New York, John Wiley and Sons
(1968).
[9] V.A. Marchenko, L.A. Pastur Distribution of eigenvalues for some sets of random
matrices. Math USSR-Sbornik 1 :457—486, (1967).
[10] D. Jonsson Some limit theorems for the eigenvalues of a sample covariance matrix.
J. Multivariate Anal, 12 1-38 (1982).
41
Téléchargement