INTRODUCTION AUX MATRICES ALÉATOIRES par Djalil Chafaï

INTRODUCTION AUX MATRICES ALÉATOIRES
par
Djalil Chafaï
Résumé. En concevant les mathématiques comme un graphe, où
chaque sommet est un domaine, la théorie des probabilités et l’al-
gèbre linéaire figurent parmi les sommets les plus connectés aux
autres. Or leur réunion constitue le cœur de la théorie des matrices
aléatoires. Cela explique peut-être la richesse exceptionnelle de cette
théorie très actuelle. Les aspects non linéaires de l’algèbre linéaire y
jouent un rôle profond et fascinant. Ces notes en présentent quelques
aspects.
1. Introduction
Les sources historiques de la théorie des matrices aléatoires sont
multiples. Parmi les plus connues, on trouve les travaux du statis-
ticien Wishart dans les années 1920–1930 lors de la naissance de la
statistique mathématique, les travaux de Goldstine et von Neumann
dans les années 1940–1950 lors de la naissance de l’informatique et de
l’analyse numérique, les travaux de Wigner, Mehta, Gaudin, et Dyson
dans les années 1950–1960 en physique nucléaire, à la jonction entre
mécanique quantique et mécanique statistique. Il y a ensuite les tra-
vaux de Marchenko, Pastur, Girko, Bai, et Silverstein dans les années
1960–1980, puis une multitude de travaux plus modernes, balayant un
spectre étonnamment vaste incluant opérateurs de Schrödinger, phy-
sique statistique, systèmes intégrables, systèmes de particules, algèbre
d’opérateurs et théorie des probabilités libres (Voiculescu), topologie
et combinatoire, combinatoire additive et graphes aléatoires, poly-
nômes orthogonaux, équations différentielles de Painlevé, problèmes
88 DJALIL CHAF
de Riemann-Hilbert, analyse harmonique, théorie des nombres et hy-
pothèse de Riemann, analyse géométrique de grande dimension, ana-
lyse numérique, classification statistique, théorie du signal et analyse
d’images, etc.
La motivation originelle de Wishart était d’étudier la matrice de co-
variance empirique des échantillons gaussiens multivariés. Cette ma-
trice de covariance empirique est une matrice hermitienne aléatoire
semi-définie positive, appelée aujourd’hui matrice de Wishart, du
même type que celle qui apparaît dans le théorème 1.2 de Marchenko-
Pastur. Ces aspects, trop brièvement abordés dans la section 3.3, sont
redevenus à la mode avec l’avènement de l’informatique et des masses
de données de grande dimension (big-data).
La motivation originelle de Goldstine et von Neumann était de
comprendre le comportement des algorithmes classiques de l’ana-
lyse numérique matricielle, comme ceux de résolution de systèmes
linéaires, lorsque les données du problème sont entachées d’erreurs.
Cela conduit tout naturellement a s’intéresser au conditionnement(1)
de matrices aléatoires. Les problèmes qu’ils ont formulés à l’époque
n’ont été résolus en toute généralité que dans les années récentes.
La motivation originelle de Wigner était d’expliquer la réparti-
tion des niveaux d’énergie dans les noyaux atomiques. En mécanique
quantique, les niveaux d’énergie sont liés à des spectres d’opérateurs
hermitiens. L’idée de Wigner a consisté à s’inspirer de la physique sta-
tistique de Boltzmann-Gibbs, ce qui conduit à rendre ces opérateurs
aléatoires, en utilisant par exemple des lois gaussiennes. La distribu-
tion des écarts entre les valeurs propres des matrices hermitiennes
aléatoires obtenues de la sorte coïncide assez bien avec le phénomène
observé ! L’approche pionnière de Wigner a été reprise et considéra-
blement développée en particulier par Dyson et Mehta. Par ailleurs,
à la même époque que Wigner, Philip Warren Anderson a prédit
une transition entre localisation et délocalisation pour les électrons
dans un semi-conducteur, phénomène qui se traduit mathématique-
ment par une localisation/délocalisation des vecteurs propres d’opé-
rateurs de Schrödinger aléatoires. La compréhension mathématique
(1)Si AMn(C), son conditionnement est κ(A) := λmax(AA)min(AA) =
kAk22/kA1k22.
INTRODUCTION AUX MATRICES ALÉATOIRES 89
de ce phénomène n’est toujours pas achevée à l’heure actuelle. En
dimension 1, ces opérateurs de Schrödinger aléatoires sont typique-
ment des matrices hermitiennes à bande, aléatoires. En télécommu-
nications, la transmission d’information entre un groupe d’antennes
émettrices et un groupe d’antennes réceptrices est modélisable par
une matrices aléatoire. La capacité du canal de communication asso-
ciée s’avère être une statistique linéaire du spectre de cette matrice,
ouvrant la voie à toute une gamme de questions mathématiques et
numériques. Ces quelques exemples historiques illustrent la grande
diversité des situations conduisant à des matrices aléatoires.
En anglais, on pourra consulter l’ouvrage encyclopédique [ABF],
qui fournit un panorama récent, peut-être plus accessible que les livres
[De, HP, M, ER, G1, DG, BS, AGZ, F, PS, HJ, T1, CD, EK].
En français, on pourra consulter par exemple les textes de vulgarisa-
tion [Bi1, Bi2, P] sur des sujets précis, et même s’aventurer dans l’ar-
ticle de synthèse [G2] qui présente des avancées relativement récentes
sur l’un des fronts actuels de la recherche. Signalons enfin que plu-
sieurs blogs Internet proposent des billets de vulgarisation autour de
la théorie des matrices aléatoires, comme le blog de Terence Tao par
exemple (en anglais) à l’adresse http://terrytao.wordpress.com/.
Ces notes constituent un point de départ, une invitation à la curio-
sité et à l’exploration. Nous débutons par des expériences numériques
en langage Scilab dont le code ainsi que la sortie graphique sont don-
nés dans les figures 1-2-3. Pour une matrice MMn(C), on note
M:= M>, et λ1(M), . . . , λn(M)les valeurs propres de M, c’est-à-
dire les racines dans Cde son polynôme caractéristique. La manière
de les numéroter importe peu à ce stade car la plupart des quantités
que nous allons considérer sont des fonctions symétriques des valeurs
propres. Pour tout n>1fixé, soit Mune matrice aléatoire n×n
dont les coefficients sont des variables aléatoires sur C(c’est-à-dire
des vecteurs aléatoires de R2) i.i.d.(2) de moyenne
m:= E(Mij) = E(<Mij) + 1E(=Mij)
(2)Signifie «indépendants et identiquement distribués» ou «independent and iden-
tically distributed».
90 DJALIL CHAF
et de variance
σ2:= E(|Mijm|2) = E(|Mij|2)−|m|2= Var(<Mij )+Var(=Mij)>0.
Ce modèle tolère tout à fait que Msoit réelle. La matrice Mde nos
expériences numériques 1-2-3 a des coefficients i.i.d. réels de loi de
Rademacher ou de de Gauss. Rappelons que la loi de Rademacher(3)
de paramètre p[0,1] est la loi sur Rdonnant les poids 1pet p
aux valeurs 1et 1. Sa moyenne vaut 2p1et sa variance 4p(1 p).
La loi de Gauss ou loi normale sur Rde moyenne met de variance σ2
a pour densité
x7−exp 1
2xm
σ2
σ2π.
Figure 1. Les valeurs propres de 1
nMsont approximativement
distribuées uniformément sur le disque unité du plan complexe, et ce
phénomène est d’autant plus apparent que nest grand. La normali-
sation en 1
nassure une stabilisation des lignes et des colonnes. En
effet, grâce à la loi des grands nombres, la norme de chaque ligne (et
de chaque colonne) de 1
nMconverge vers pσ2+|m|2= 1 quand
n→ ∞, tandis que leur produit scalaire tend vers |m|2= 0. Cette
structure unitaire asymptotique n’explique pas pourquoi le spectre
semble se répartir uniformément sur le disque unité (elle suggérerait
plutôt le cercle unité !) ;
Figure 2. Les valeurs propres de l’hermitisation multiplicative
1
nMM de 1
nMse distribuent approximativement comme la loi
du quart de cercle sur l’intervalle [0,2], et cela est d’autant plus ap-
parent que la dimension nest grande ;
Figure 3. Les valeurs propres de l’hermitisation additive(4)
1
n
M+M
2de 1
nMse distribuent approximativement comme la loi
du demi-cercle sur l’intervalle [2,2], et cela est d’autant plus clair
que la dimension nest grande, cf. figure 4.
(3)Le terme «Bernoulli» est plutôt réservé à la loi du même type sur {0,1}plutôt
que sur {−1,1}.
(4)La normalisation par 2rend les coefficients hors diagonale de variance 1.
INTRODUCTION AUX MATRICES ALÉATOIRES 91
Figure 1. Phénomène d’universalité de Girko. En noir les va-
leurs propres de 1
nMMest une matrice aléatoire carrée
n×nà coefficients i.i.d. de moyenne 0et de variance 1(de Gauss
à gauche et de Rademacher à droite). En bleu le cercle unité du
plan complexe. Note : il est également possible d’utiliser un his-
togramme en 3D.
 
function girk o ( di m ) // Foncti on S cil ab .
G = grand( dim , dim , ’ n or ,0 ,1);
// m a trice de coef . de Gauss standar d s
B = sign( G );
// m a trice de coef . de R a d emacher +/ -1
sG = spec(G/sqrt( dim ) );
// s p ectre et n o r m a l i sation en ra c ine de dim
sB = spec(B/sqrt( dim ) );
// idem pour le cas Ra d e m a cher
clf (); I = [ -1:0.01: 1]; J = sqrt( 1 - I . ^2) ;
subplot (1 ,2 , 1); titl e ( sprintf ( ’ Ga uss d im = % i ’ , di m ));
set ( g ca ( ) ," t ight_lim i ts " , " on " ); s et ( g ca () , " i sovi e w " ," on " );
plot( I ,J ,2 ); plot( I , -J ,2 );
plot(real( s G ), imag( sG ) , ’ Ma rke r ’ , ’. ’, ’ Ma r ke r Siz e ’ ,3 , ’ LineS t yl e ’ , ’ non e ’ );
subplot (1 ,2 , 2); titl e ( sprintf ( ’ Ra demac h er ␣ d im = %i ’ , di m ));
set ( g ca ( ) ," t ight_lim i ts " , " on " ); s et ( g ca () , " i sovi e w " ," on " );
plot( I ,J ,2 ); plot( I , -J ,2 );
plot(real( s B ), imag( sB ) , ’ Ma rke r ’ , ’. ’, ’ Ma r ke r Siz e ’ ,3 , ’ LineS t yl e ’ , ’ non e ’ );
endfunction
 
Ces expériences numériques permettent de dégager trois phéno-
mènes d’universalité en grande dimension, capturés mathématique-
ment par les théorèmes 1.1-1.2-1.3 ci-dessous. Soulignons au passage
que les hypothèses sont faites ici sur les coefficients de la matrice,
tandis que les résultats concernent les valeurs propres, qui sont des
fonctions non linéaires et non explicites des coefficients de la matrice.
1 / 36 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !