Vecteurs propres de matrices aléatoires : Convergence de fluctuations réalisé par : Ali BOUFERROUM Encadré par : Mr. Djalil Chafaï Master 2, Mathématiques et Applications UPEMLV, Septembre 2011 Table des matières 1 Introduction 4 2 Définitions et Notations 2.1 Ensembles gaussiens : GOE/GUE . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Matrices de Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Théorème de Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 7 7 3 Modèle pour les matrices de covariance empirique 12 T 3.1 Structure de y = On x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 3.2 Conversion du problème à D[0, +∞) . . . . . . . . . . . . . . . . . . . . . . 15 3.3 Convergence vers le pont Brownien . . . . . . . . . . . . . . . . . . . . . . . 19 4 Modèle pour les matrices de Wigner 24 4.1 Preuve du problème d’universalité . . . . . . . . . . . . . . . . . . . . . . . 25 Conversion du problème à D([0, 1] × R) . . . . . . . . . . . . . . . . . . . . 25 Convergence vers la loi gaussienne . . . . . . . . . . . . . . . . . . . . . . . 30 5 Problèmes ouverts 38 6 Annexe 39 6.1 Graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 6.2 Matrices orthogonales et Matrices unitaires . . . . . . . . . . . . . . . . . . 40 2 Avant propos Le présent mémoire est basé sur l’étude approfondie de deux articles 1 qui ayant traité la problématique d’universalité de convergence de fluctuations des vecteurs propres de matrices aléatoires. Ce phénomène est une sorte de généralisation du cas gaussien GUE/GOE où les vecteurs propres sont distribués selon la mesure de Haar sur le groupe unitaire/orthogonal, c’est le même genre d’universalité que représente le théorème de Wigner mais cette fois pour les vecteurs propres et non pas les valeurs propres. Une poursuite en thèse est envisagée sous la direction de Mr.D.Chafaï pour étudier des problèmes en relation avec tout ça et qui restent toujours ouverts (voir page 38). Remerciements Je tiens tout d’abord à exprimer ma profonde gratitude à mon professeur Mr.Djalil Chafaï qui m’a donné la chance et l’opportunité de réaliser ce travail, et m’avoir communiqué son enthousiasme pour ce sujet très riche et très courant. Son expérience, ses conseils judicieux, son soutien et sa bonne humeur m’ont beaucoup apporté. Pour sa confiance en moi d’avoir accepté de diriger mon projet de recherche en thèse je lui dit Merci, et je lui souhaite tout le bonheur dans sa vie personnelle et scientifique. J’adresse également mes plus sincères remerciements à Mr. Damien Lamberton pour m’avoir donné le goût des probabilités lors de ses enseignements mémorables, et pour m’avoir beaucoup aidé durant mes premiers pas à l’université de Marne la vallée en tant que responsable de mon master de recherche. Pour tout ce qu’il a fait pour moi je lui dis Merci. Je tiens également à remercier les membres de jury d’avoir accepté de juger mon travail. Il me serait impossible de ne pas saluer ma famille pour le soutien immense et les encouragements qu’ils n’ont pas cessé de me prodiguer tout au long de mes études. A tous ceux qui m’ont aidé de loin ou de près, je leur dis très sincèrement Merci. 1. Premier article : "Eigenvectors of Wigner matrices : Universality of global flutuations" de F. Benaych-Georges. Deuxième article : "Weak convergence of random functions defined by the eigenvectors of sample covariance matrices" de J.W.Silverstein. 3 1 Introduction Dans ce mémoire, on va étudier certains résultats sur la théorie des matrices aléatoires. Cette théorie originellement créée par E. Wigner pour des modèles de la physique nucléaire s’est propagée à la théorie des nombres avec une liaison intéressante avec l’étude des fonctions L comme la fonction Zéta de Riemann. De plus, on compte parmi les applications de cette théorie : les systèmes intégrables, le chaos quantique et plusieurs d’autres applications en mathématiques pures. L’étude ici porte sur le comportement asymptotique de certaines fonctions aléatoires définies à partir de ces matrices. Plus précisément, on va traiter des résultats de convergence de certaines fonctions aléatoires basées sur les vecteurs propres de certains types de matrices aléatoires dans un aspect très universel en généralisant le cas gaussien GOE/GUE où la distribution de vecteurs propres est bien connue et bien précisée. Pour plus de simplicité et sans perte de généralité, on s’intéresse dans ce papier au cas réel. Soit Xn une matrice aléatoire symétrique définie avec certaines conditions sur ses éléments (indépendance, contrôle des moments) que l’on précise ultérieurement. Considérons la décomposition spectrale de cette matrice donnée sous la forme Xn = On Dn OnT , où On est une matrice orthogonale (unitaire dans le cas complexe) dont les colonnes sont les vecteurs propres de la matrice Xn , Dn est une matrice diagonale dont les éléments diagonaux sont les valeurs propres de Xn classées dans l’ordre croissant, et OnT désigne la transposée de la matrice On . Dans le cas gaussien GOE (voir page 6), la matrice orthogonale On est distribuée selon la mesure de Haar sur le groupe orthogonal. On peut voir une telle matrice comme une matrice de rotation uniforme (i.e. n vecteurs uniformément distribués sur Sn la sphère unité de Rn et orthonormalisés). Ainsi, si on applique cette matrice sur un vecteur xn quelconque tel que kxn k = 1 où k · k désigne la norme Euclidienne sur Rn , on trouve un vecteur y = OnT xn uniformément distribué sur Sn . Un vecteur uniforme sur la sphère unité est très lié à la distribution gaussienne dans les deux sens : U nif orme Gaussien. Uniforme → Gaussien : √ Soit y est un vecteur uniforme sur Sn ( n), alors la mesure de comptage définie sur ses coordonnées converge en loi vers la distribution gaussienne (cf. [7]), n X δyi i=1 n −→ N (0, 1). De plus, pour tout k ≥ 1, la projection de y sur Rk converge vers la loi N (0, Ik ) quand n → ∞ . On a aussi, une convergence des fluctuations de y définies par la formule suivante vers le pont Brownien : r bntc nX 1 2 |yi | − −→ W 0 2 i=1 n D[0,1] ( W0 est un pont Brownien) 4 (1) Gaussien → Uniforme : Si (zi )i=1→n sont des variables gaussiennes centrées réduites i.i.d. alors, le vecteur norz malisé Z = kzk défini à partir de ces variables est uniformément distribué sur la sphère unité. Résultats de convergence de fulctuations : On peut voir le même phénomène de convergence qu’on a vu dans l’expression (1) en regardant les fluctuations sur un bloc d’une matrice Haar orthogonale au lieu d’un seul vecteur uniforme sur Sn , c’est un résultat de C.Donati-Martin et A.Rouault qui ont prouvé récemment en [6] que le processus bivarié càdlàg r 1 n Bs,t = 2 X |Oi,j |2 − 1≤i≤bnsc 1≤j≤bntc 1 n (2) s,t∈[0,1]2 converge pour la topologie de Skorokhod, vers le pont Brownien bivarié, i.e. le processus gaussien centré continu (Bs,t )s,t∈[0,1]2 avec covariance E[Bs,t Bs0 ,t0 ] = (min{s, s0 } − ss0 )(min{t, t0 } − tt0 ). Ces résultats restent valables pour des matrices Xn plus universelles et pas uniquement dans le cas gaussien. Il suffit seulement de mettre certaines conditions sur les lois des éléments de ces matrices : contrôle des moments (moyenne, variance, certaine égalité entre eux et ceux d’une matrice GOE et surtout le moment d’ordre 4 ! ! !), et éventuellement, d’autres conditions de symétrie et de continuité absoluée par rapport à la mesure de Lebesgue sont exigées. Le premier résultat d’universalité qu’on va traiter dans la suite est dû à J.W.Silverstein pour le modèle (1) au dessus, il a prouvé le même type de convergence pour des matrices plus générales, il s’agit de matrices de covariance empirique. Le deuxième résultat d’universalité concerne le modèle (2) au dessus pour des matrices de Wigner générales. Ce résultat est conjecturé par D.Chafaï qui a conjecturé le même phénomène de convergence pour différents types de décompositions matricielles (décomposition spectrale, décomposition en valeurs singulières, décomposition de Householder pour des matrices non symétriques) tant que ses premiers moments coïncident avec ceux d’une matrice GOE. La conjecture dans le cas de décomposition spectrale d’une matrice de Wigner - qu’on va étudier dans ce papier - est prouvée par F.Benaych-Georges très récemment. Dans les autres cas, le problème reste toujours ouvert. 5 2 Définitions et Notations Dans cette section on va définir certaines notions qu’on va utiliser fréquemment dans ce papier. 2.1 Ensembles gaussiens : GOE/GUE Le GUE et GOE sont des ensembles classiques de matrices aléatoires introduits par E. Wigner pour la théorie des spectres nucléaires. Le GUE a été introduit pour les systèmes invariants par action du groupe unitaire, il est défini sur l’espace des matrices hermitiennes Hn et muni de la loi de probabilité suivante 2 /2 Pu (dM ) = (2π)−n 1 2 e− 2 Tr(M ) m(dM ) 2 par rapport à m la mesure de Lebesgue sur Hn ∼ Rn . Ce qui est équivalent à une matrice aléatoire hermitienne M n dont les éléments hors diagonaux sont gaussiens complexes i.i.d centrés et de variance 1 (les parties réelles et imaginaires sont indépendantes de loi N (0, 1/2)), et les éléments diagonaux sont réels i.i.d de loi N (0, 1). Le GOE a été introduit pour les systèmes invariants par action du groupe orthogonal, il est défini sur l’espace des matrices symétriques Sn et muni de la loi de probabilité 2 /2 Pu (dM ) = (2π)−n 1 2 e− 4 Tr(M ) m(dM ) par rapport à m la mesure de Lebesgue sur Sn ∼ Rn(n+1)/2 . Ce qui est équivalent à une matrice aléatoire symétrique dont les éléments hors diagonaux sont i.i.d de loi N (0, 1), et les éléments diagonaux sont i.i.d de loi N (0, 2). Pour ces ensembles gaussiens, les lois des matrices de leurs décompositions spectrales sous la forme (Un Dn UnT ) sont bien déterminées et précisées. En fait, la loi de ses valeurs propres est donnée par la formule suivante : P(dλ1 , . . . , dλn ) = 1 Zβ,n e− P i λ2i /2 Y |λi − λj |β , i<j où β = 1 dans le cas GOE, β = 2 dans le cas GUE, et Zβ,n est une constante de normalisation, ainsi on connait bien la loi de la matrice D de la décomposition spectrale. Sans oublier bien sûr l’information donnée par le théorème de Wigner pour la distribution de la mesure spectrale empirique dans les grandes dimensions. D’autre part, la loi de la matrice unitaire (orthogonale) U de la décomposition spectrale est donnée par la mesure de Haar 2 sur le groupe unitaire (orthogonal) (cf. [7]). 2. C’est l’unique mesure positive invariante par les translations à gauche ou à droite sur un groupe topologique localement compact à un facteur multiplicatif près. 6 2.2 Matrices de Wigner L’étude sur les matrices aléatoires et ses valeurs propres est commencée à partir de 1930, où des physiciens, statisticiens (plus particulièrement Wishart) se sont intéressés à certaines matrices de covariance aléatoire. Cette étude s’est particulièrement développée dans les années 1950, pour essayer de comprendre la spectroscopie des atomes lourds en étudiant des fonctions de valeurs propres d’opérateurs auto-adjoints très complexes, l’idée de ça est due à E. Wigner qui a introduit certains types de matrices aléatoires (comme le GOE/GUE) pour la théorie de spectres nucléaires. Pour définir une matrice de Wigner générale, commençons par introduire deux familles de variables aléatoires i.i.d et centrées {Zi,j }1≤i,j≤n et {Yi }1≤i≤n , tels que E|Zi,j |2 = 1, et ∀k ≥ 1 : max E|Zi,j |k + E|Yi |k < ∞. Considérons la matrice carrée symétrique Xn ∈ M(n × n) définie par Xni,j = Xnj,i = √ Zi,j / n √ Yi / n n si i<j si i=j (3) On appelle cette matrice Xn une matrice de Wigner. De plus, si Zi,j et Yi sont des variables gaussiennes i.i.d., Xn est dite une matrice de Wigner gaussienne. Le cas d’une matrice de Wigner gaussienne où E|Yi |2 = 2 a une particularité importante, c’est le cas des matrices GOE (Gaussian orthogonal ensemble). 2.3 Théorème de Wigner Ce théorème est un théorème fondamental de la théorie des spectres de matrices aléatoires de grandes dimensions. Ce théorème nous dit que la distribution des valeurs propres de telles matrices est de la forme d’un semi-cercle. Soient λni les valeurs propres d’une matrice de Wigner Xn classées dans l’ordre croissant, et définissons la mesure spectrale empirique de Xn par cette mesure de comptage sur ses valeurs propres, Ln = n 1X δλn . n i=1 i Définissons la loi de semi-cercle sur R par la loi suivante définie avec sa densité par rapport à la mesure de Lebesque : σ(x) = 1 p 4 − x2 1|x|≤2 2π (4) Théorème 2.1. Pour une matrice de Wigner Xn , la masure spectrale empirique Ln converge faiblement en probabilité vers la loi de semi-cercle, dans le sens, ∀f ∈ Cb (R), et ∀ > 0, lim P (| hLn , f i − hσ, f i | > ) = 0. N →∞ 7 Programme en Scilab pour générer une matrice de Wigner Loi de semi-cercle et Nombres de Catalan En combinatoire, les nombres de Catalan forment une séquence de nombres naturels qui apparaissent et aident à resoudre des problèmes de comptage. Ils sont appelés ainsi en l’honneur du mathématicien belge E. C. Catalan. Ils représentent par exemple le nombre de chemins de Dyck 3 . Ils représentent aussi le nombre des arbres orientés enracinés avec n arêtes. Le nombre de Catalan d’ordre n s’exprime par : Cn = 2n n n+1 = (2n)! . (n + 1)!n! Proposition 2.2. Les nombres de Catalan satisfont la relation de récurrence suivante : C0 = 1, Cn+1 = 2(2n + 1) Cn . n+2 (5) On peut vérifier cette formule de récurrence par un calcul direct. Proposition 2.3. Désignons par mk les moments de la loi de semi-cercle, Z mk = R 1 p 4 − x2 1|x|≤x xk dx, 2π alors on a, mk = 0 si k est impaire et m2k = Ck . En effet : Par symétrie de loi de semi-cercle, on obtient directement que mk = 0 si k est impaire. Pour les ordres paires, on a Z m2k = R 1 = 2π 1 p 4 − x2 1|x|≤2 x2k dx 2π Z 2 p 4 − x2 x2k dx −2 3. Un chemin de Dyck de longueur 2n, c : {(1, 2, . . . , 2n) → N} est un chemin qui commence et se termine à l’origine, avec c(i + 1) − c(i) ∈ {−1, 1} et qui reste au dessus de l’axe non négatif. 8 On procède à un changement de variables en posant x = 2 sin(θ), on trouve m2k 1 = π = = 2 Z π/2 q 2k (2 sin) (θ) 4 − 4 sin2 (θ) cos(θ) dθ −π/2 Z × 22k π/2 π sin2k (θ)(1 − sin2 (θ)) dθ −π/2 22k 2× π Z π/2 sin2k (θ) dθ − −π/2 2 × 22k π Z π/2 sin2k+2 (θ) dθ −π/2 0 Posons u = sin2k+1 (θ) et v = sin(θ). Par intégration par parties, on trouve Z π/2 Z π/2 iπ/2 h sin2k+2 (θ) dθ = − sin2k+1 (θ) cos(θ) −π/2 −π/2 + (2k + 1) sin2k (θ) cos2 (θ) dθ, −π/2 donc, m2k = 2 × 22k π Z π/2 −π/2 sin2k (θ) dθ − (2k + 1)m2k , donc, (2k + 2)m2k = 2 × 22k π Z π/2 sin2k (θ) dθ. −π/2 En intégrant encore une fois par parties, on trouve 2 × 22k π Z π/2 −π/2 sin2k (θ) dθ = 4(2k − 1)m2k−2 . Ainsi, m2k = 4(2k − 1) 2(2k − 1) m2k−2 = m2k−2 , 2k + 2 k+1 ce qui est la même relation de récurrence qu’on a vu pour les nombres de Catalan. Voici maintenant une simulation programmée en Scilab pour la convergence de la mesure de comptage des valeurs propres d’une matrice de Wigner gaussienne vers la loi de semicercle. 9 Code en Scilab : 10 Notations Dans la suite de ce papier on va utiliser les espaces fonctionnels suivants avec ces notations, • C([0, 1]2 ) (respectivement Dc ([0, 1] × R)) désigne l’espace des fonctions continues sur ([0, 1]2 ) (respectivement continues à support compact sur ([0, 1] × R)), muni de la topologie de la convergence uniforme. • D([0, 1]) est l’espace des fonctions càdlàg muni de la topologie de Skorokhod définie par la notion de convergence suivante : on dit qu’une suite xn (t) ∈ D([0, 1]) converge vers x(t) ∈ D([0, 1]) s’il existe une suite d’homéomorphismes croissants λn : [0, 1] → [0, 1], tel que sup |λn (t) − t| −→ 0, t∈[0,1] n→∞ sup |xn (λn (t)) − x(t)| −→ 0. et t∈[0,1] n→∞ • Dc (R, [0, 1]) désigne l’espace des fonctions càdlàg à support compact sur R à valeurs dans [0, 1], muni de topologie définie par : fn −→ f si et seulement si : (a) le support de fn tend vers le support de f quand n → ∞ . (b) ∀M > 0 , après restriction à [−M, M ], fn −→D([−M,M ]) f quand n → ∞. • D([0, 1]2 ) (respectivement Dc ([0, 1] × R)) désigne l’espace des fonctions càdlàg sur [0, 1]2 (respectivement càdlàg à support compact sur ([0, 1]×R)) muni de la topologie de Skorokhod, et Dc ([0, 1], R) est muni de la topologie définie par : ∀M > 0 , après restriction à [−M, M ], fn −→D([0,1]×[−M,M ]) f. • D0 ([0, 1]2 ) est le sous espace de D([0, 1]2 ) formé des fonctions nulles au bord, muni de la topologie induite. Et pour les processus aléatoires définis sur l’un des espaces précédents, par défaut, les convergences sont considérées au sens faible, pour le quel on regarde les lois marginales fini-dimensionnelles, Btn −→ B n→∞ si ∀k < ∞, pour toute collection finie d’indices (s1 , . . . , sk ) dans l’ensemble de départ du processus, Bsn1 , . . . , Bsnk −→ (Bs1 , . . . , Bsk ) en loi. n→∞ 11 3 Modèle pour les matrices de covariance empirique Dans ce modèle, on va étudier la convergence de fluctuations dans les vecteurs propres pour des matrices de covariance d’un échantillon vectoriel i.i.d. Soit {vi,j }i,j:1,2,... des variables aléatoires i.i.d, avec E(v1,1 ) = 0. Considérons la matrice Vn = (vi,j ) ; i = 1, 2, . . . , n, j = 1, . . . , s = s(n), qu’on peut la voir comme un échantillon de s vecteurs aléatoires i.i.d de dimension n. On suppose que n/s(n) −→n→∞ y > 0. Définissons la matrice symétrique définie positive Mn comme la matrice de covariance de cet échantillon vectoriel de la façon suivante : Mn = 1s Vn VnT . On s’intéresse au comportement asymptotique de ses vecteurs propres. On note On Dn OnT la décomposition spectrale de la matrice Mn , où Dn est une matrice diagonale contient les valeurs propres de Mn classées dans l’ordre croissant, On est une matrice orthogonale dont les colonnes représentent une base orthonormée de vecteurs propres de Mn , et OnT désigne la transposée de On . Dans le cas spécial, où Mn est une matrice de Wishart (c’est le cas où v1,1 suit une loi gaussienne centrée réduite), il est bien connu que On consiste à une matrice Haar orthogonale. Ainsi, pour un vecteur x quelconque dans la sphère unité Sn , le vecteur y = OnT x est uniformément distribué sur Sn . Et Xng (t) = r bntc nX 1 −→ W 0 , |yi |2 − D 2 i=1 n où W 0 désigne le pont Brownien, et D désigne la convergence faible dans D[0, 1]. Pour v1,1 de loi générale, on veut étudier la loi asymptotique de On , une question qui se pose naturellement est la convergence de On vers la mesure de Haar sur le groupe orthogonal On . Pour cela on étudie le comportement asymptotique du processus r Xn (t) = bntc nX 1 |yi |2 − 2 i=1 n où y = OnT x, pour un vecteur x ∈ Sn . L’étude de Xn (t) nous permet d’avoir une idée sur la distribution de vecteurs propres de Mn en regardant la similarité avec le cas gaussien. D’une autre façon, on veut regarder le degré d’uniformité de la matrice On . Pour ça, on vérifie que Xn −→ W 0 D (6) Si c’est le cas, on dit que la distribution de On est asymptotiquement proche de la mesure de Haar sur le groupe orthogonal On . Dans un article précédent de J.W.Silverstein (cf. 4 ) < ∞, E(v 4 ) = E(N (0, 1)4 ) = 3, [5]), il est remarqué que sous l’hypothèse : E(v1,1 1,1 Xk(n) (t) −→ W 0 , D pour toute sous-suite faiblement convergente en D[0, 1]. Si on suppose seulement que 4 ) < ∞, la convergence (6) ne sera pas vérifiée pour tous les x . E(v1,1 n 12 Dans le cas où xn = (± √1n , . . . , ± √1n ), la convergence de (6) est bien vérifiée, ceci nous permet de déduire qu’une certaine régularité est exigée entre les composantes du vecteur xn , et que la distribution de v1,1 doit avoir une certaine similarité avec la loi normale pour obtenir des résultats de convergence plus générales. Théorème 3.1 (Universalité pour les matrices de covariance empirique). Sous les notations précédentes, supposons que v1,1 est de loi symétrique d v1,1 = −v1,1 , 4 ) < ∞, alors et E(v1,1 Xn −→ W D 0 1 1 . xn = ± √ , . . . , ± √ n n pour Preuve du théorème (3.1) La preuve de ce théorème repose sur deux points essentiels : • Le premier consiste en une bonne connaissance de la mesure de comptage sur les P valeurs propres de Mn qu’on note Fn (x) = n1 ni=1 1{λi ≤x} sa fonction de répartition. Ce qui nous permet de ramener le problème à étudier la convergence du processus r Xn (Fn (x)) = n X 1 |yi |2 − 2 i:λ ≤x n i sur D[0, ∞) vers le pont Brownien W 0 (Fy (x)) pris en Fy (x) = limD Fn (x). • Le deuxième point est la nécessité de faire une extension d’un théorème dû à J.W.Silverstein en (1989) (cd. [5]) pour établir l’unicité de la limite pour toute sous-suite faiblement convergente de ce processus. Le théorème affirme que les moments de la loi, r δXn = n nX 1 |yi |2 − δλi 2 i=1 n convergent vers ceux d’un pont Brownien Wyx = W 0 (Fy (x)) pour tous les vecteurs x dans Sn , si et seulement si, E(v1,1 ) = 0, E(v1,1 )2 = 1, et E(v1,1 )4 = 3, 13 E r δX n r n n X n X λri yi2 λri − 2 i=1 n i=1 r n 1 xTn Mnr xn − tr (Mnr ) 2 n = = " Z ∞ = 0 =− # xr dXn (Fn (x)) Z ∞ rxr−1 Xn (Fn (x)) dx 0 ? −→D Z (1−√y)2 √ (1+ y)2 xr dWyx pour tout r ∈ N∗ . Pour obtenir la convergence sous les hypothèses du théorème (3.1) (sans condition sur E(v1,1 )4 sauf qu’il soit fini) il faut mettre d’autres conditions d’uniformité et de régularité sur la structure de x. 3.1 Structure de y = OnT x Dans ce point, on donne plus de détail sur la distribution de On pour obtenir une idée sur la structure de y = OnT x. Pour une valeur propre λr d’ordre de multiplicité r, on considère les r colonnes correspondantes choisies uniformément sur l’espace propre Eλr , ainsi, on construit une matrice n × r. La structure de cette matrice est la même que On,r Or , où On,r est une matrice n × r contient r vecteurs orthonormaux de l’espace propre Eλr , et Or est une matrice Haar orthogonale sur le groupe orthogonal Or indépendante de la matrice Mn (De même, les différentes matrices Or correspondantes aux différentes valeurs propres λr sont supposées indépendantes). Ainsi, les r coordonnées de y correspondantes à λr sont de la forme : T T (On,r Or )T xn = OrT On,r xn = kOn,r xn kwr , où wr est un vecteur uniformément distribué sur Sr (la sphère unité de Rr ). Comme on a vu dans l’introduction, wr peut être représenté par un échantillon normalisé de r variables gaussiennes centrées réduites indépendantes {zi }i=1,2,...,r , d wr = z (z1 , . . . , zr )T = . kzk kzk T x k est la norme de la projection du vecteur x sur E . Donc, on peut Notons que kOn,r n λr représenter y de la façon suivante : On construit n variables {zi }1≤i≤n i.i.d de loi gaussienne centrée réduite indépendante de Mn . Soient λ1 , . . . , λt les valeurs propres de Mn d’ordres de multiplicité m1 , . . . , mt respectivement, tel que (m1 + · · · + mt = n), pour i ∈ {1, . . . , t}, désignons par ai la norme de la projection de xn sur l’espace propre Eλi , et posons m0 = 0. Donc pour chaque i on définit ym1 +···+mi−1 +1 , . . . , ym1 +···+mi 14 les coordonnées de y correspondantes à λi par : ai 3.2 zm1 +···+mi−1 +1 , . . . , zm1 +···+mi qP mi 2 k=1 zm1 +···+mi−1 +k . (7) Conversion du problème à D[0, +∞) Comme on a dit précédemment, on commence par prouver que notre problème peut se ramener au problème suivant : Xn (Fn (·)) −→ WF0y (·) , D[0,∞) Fn (x) −→ Fy (x). p Preuve On sait que la convergence faible d’une suite de fonctions aléatoires sur D est équivalente à : ∀B > 0, ∃b > B t.q. la suite (correspondante dans D[0, b]) converge faiblement en D[0, b]. Notons par ρ la distance usuelle des espaces métriques C[0, 1] et D[0, 1] définie par : ∀x, y ∈ D[0, 1] ρ(x, y) = sup |x(t) − y(t)|. t∈[0,1] On a besoin de certains résultats de convergence faible qu’on peut les trouver dans le livre de Billingsley (cf. [8]). Soit D[0, 1] = {x ∈ D[0, 1] : x croissant positif }. Comme D est fermé dans D[0, 1], on prend comme topologie de D la topologie induite sur D[0, 1] . Pour h définie par h : D[0, ∞) × D[0, 1] −→ D[0, 1] h(x, φ) = x ◦ φ h est mesurable , de plus elle est continue pour toute : (x, φ) dans C[0, ∞) × C[0, 1] ∩ D[0, 1]. Donc, si on a (voir [8]) (Yn , ϕn ) −→ (Y, ϕ) et en D[0, ∞) × D[0, 1] P(Y ∈ C[0, ∞)) = P(ϕ ∈ C[0, 1]) = 1 alors Yn ◦ ϕn −→ Y ◦ ϕ D en Montrons maintenant que le fait de prouver que Xn (Fn (·)) −→ WF0y (·) D[0,∞) suffit pour prouver notre théorème. 15 D[0, 1]. (8) Il est bien connu d’après les études sur les spectres de matrices aléatoires (cf. [9],[10]) que 2 ) = 1, alors si E(v1,1 ∀x > 0 Fn (x) = n 1X 1 −→ Fy (x) n i=1 {λi ≤x} p où Fy est une fonction de répartition continue, non aléatoire, qui dépend seulement d’un √ √ nombre y > 0, supportée sur [(1 − y)2 , (1 + y)2 ]. De plus, si E(v1,1 ) = 0, E(v1,1 )2 = 1, alors la plus grande valeur propre λmax satisfait : √ λmax (Mn ) −→ (1 + y)2 si et seulement si, E(v1,1 )4 < ∞. Pour t ∈ [0, 1], posons Fn−1 (t) la plus grande valeur propre λj tel que Fn (λj ) ≤ t (= 0 si t < n1 ). On trouve que Xn Fn Fn−1 (t) = Xn (t) sauf m+1 −1 sur les intervalles [ m n , n [ où λm = λm+1 . Et soit Fy (x) l’inverse de Fy (x) à valeurs dans √ √ [(1 − y)2 , (1 + y)2 ]. Cas où y ≤ 1 : Soit Fy−1 (0) = (1 − √ y)2 , on obtient directement que : ∀t ∈ (0, 1] Fn−1 (t) −→ Fy−1 (t). Soit Fbn−1 (t) = max (1 − √ y)2 , Fn−1 (t) , alors on a ∀t ∈ [0, 1] Fbn−1 (t) −→ Fy−1 (t) √ Et comme λmax (Mn ) −→ (1 + y)2 , on obtient ρ(Fbn−1 , Fy−1 ) −→ 0 p.s. p.s. Il en résulte par la formule : Xn (Fn (·)) −→D[0,∞) WF0y (·) que Xn (Fn (Fbn−1 (·))) −→ WF0y (F −1 (·)) . D[0,∞) Comme Fy (x) = 0 pour x ∈ [0, (1 − donc en probabilité. Ainsi, on obtient sup √ x∈[0,(1− y)2 ] √ y)2 ], on a Xn (Fn (·)) −→ 0 sur D[0, (1 − |Xn (Fn (x))| −→ 0 en probabilité. D’autre part, on a ρ Xn (Fn (Fn−1 (·)), Xn (Fn (Fbn−1 (·)) ≤ 2 × sup √ x∈[0,(1− y)2 ] |Xn (Fn (x))| −→ 0 Donc, on trouve que : Xn (Fn (Fn−1 (·)) −→ W 0 D 16 en D[0, 1]. √ y)2 ] et Dans le cas où v1,1 admet une densité, on trouve directement le résultat souhaité : Xn −→ W 0 . D En effet, comme y ≤ 1 =⇒ n ≤ s asymptotiquement. Ainsi, les valeurs propres de Mn sont distinctes avec probabilité 1, donc Xn (Fn (Fn−1 (·)) = Xn (·) p.s. Pour v1,1 de loi plus générale, il nous faut prendre en considération les ordres de multiplicité des valeurs propres de Mn . Prenons les mêmes notations que précédemment : (λ1 , . . . , λt ), (m1 , . . . , mt ), et (a1 , . . . , at ). On obtient de la formule (7) ρ Xn (·), Xn (Fn (Fn−1 (·)) = max r 1≤i≤t 1≤j≤mi Pj 2 n 2 l=1 zm1 +···+mi−1 +l j ai Pmi 2 − 2 n k=1 zm1 +···+mi−1 +k (9) La fonction mesurable h en D[0, 1] définie par : h(x) = ρ x(t), x− (t) est continue sur D[0, 1] et identique à la fonction nulle sur C[0, 1], donc h Xn (Fn (Fn−1 (·), Xn (·)) −→ 0. D Ce qui est équivalent à : r max 1≤i≤t n 2 mi a − −→ 0 2 i n en probabilité. (10) Pour tout i ≤ t et j ≤ mi , on a : r r = r + j 2 n 2 l=1 zm1 +···+mi−1 +l j − a P i 2 2 i m n k=1 zm1 +···+mi−1 +k P n 2 mi ai − 2 n Pj z 2 l=1 m +···+mi−1 +l Pmi 2 1 k=1 zm1 +···+mi−1 +k Pj 2 l=1 zm1 +···+mi−1 +l (11) n mi 2 j − ai Pmi 2 2 n n z k=1 m1 +···+mi−1 +k (12) De (10), on obtient que (11)−→ 0 en probabilité (comme le maximum de la valeur absolue tend vers 0). Pour (12), on sait que le rapport de deux variables χ2 indépendantes suit la loi bêta, dans notre cas c’est une loi bêta de paramètres p = 2j et q = mi2−j . Ainsi, elle admet mj i comme 17 2 j moyenne et son moment d’ordre 4 est borné par C m 4 tel que C ne dépend que de j et mi . i Soit P j 2 z j l=1 m +···+mi−1 +l bmi ,j = a2i Pmi 2 1 − n k=1 zm1 +···+mi−1 +k et soit ε > 0. Par application directe du théorème 12.2 dans [8], on obtient : r n mi P max 2 n 1≤j≤mi bmi ,j > εMn ≤ Cm2i . 4n2 ε4 On obtient par l’inégalité de Bool : r n mi C mi P max bmi ,j > εMn ≤ 4 max , 1≤j≤mi 2 n 4ε 1≤i≤t n 1≤i≤t donc, r C mi n mi bmi ,j > ε ≤ 4 E max P max 1≤j≤mi 1≤i≤t n 2 n 4ε (13) 1≤i≤t Or Fn (x) −→ Fy (x) p.s., Fy est à support compact et continue sur (−∞, ∞), on a sup |Fn (x) − Fy (x)| = 0 p.s. x∈[0,∞) ⇒ sup Fn (x) − Fn− (x) = 0 p.s. x∈[0,∞) Ce qui est équivalent à : max 1≤i≤t mi −→ 0 n p.s. et par convergence dominée, on obtient que le terme de gauche en (13) −→ 0, donc (9)−→ 0, et pour conclusion Xn −→ W 0 en D D[0, 1]. Cas où y > 1 : On suppose que n est suffisamment grand par rapport à s de telle sorte que : ns > 1. Donc √ Fn (0) = mn1 ≥ 1− y1 ' 1− ns > 0. Considérons que pour t ∈ [0, 1− y1 ] Fn−1 (t) = (1− y)2 . Pour t ∈ (1 − y1 , 1], on obtient Fn−1 (t) −→ Fy−1 (t) p.s. √ Définissons Fbn−1 (t) = max (1 − y)2 , Fn−1 (t) comme précédent. On a : ρ(Fbn−1 , Fy−1 ) −→ 0 p.s., et d’après (8) et théorème (2.4) dans [8] , on obtient Xn (Fn (Fbn−1 (t)) −→ WF0 D 18 −1 y (Fy (t)) = On a 0 W1− 1 t∈[0,1− y1 ] Wt0 t∈(1− y1 ,1] y ρ Xn (Fn (Fn−1 (t))), Xn (Fn (Fbn−1 (t)) = sup√ x∈[0,(1− y)2 ] −→ D √ Xn (Fn (x)) − Xn (Fn ((1 − y)2 )) sup√ x∈[0,(1− y)2 ] 0 WFy (x) − WF0y ((1−√y)2 )) = 0 , ce qui nous donne ρ Xn (Fn (Fn−1 (·))), Xn (Fn (Fbn−1 (·)) −→ 0 en probabilité. Ainsi, on obtient le résultat souhaité Xn (Fn (Fn−1 (·))) −→ WF0 −1 y (Fy (·)) D . 3.3 Convergence vers le pont Brownien Dans la suite, on va prouver que Xn (Fn (·)) −→ WF0y (·) . D[0,∞) Pour t < Fn (0) + n1 , r Xn (t) = Pbntc n bntc z2 a2i PnFi=1(0) i − n 2 n z2 a2 =p i Fn (0) bntc + nFn (0) Notons que s l=1 l ! Pbntc 2 bntc i=1 zi PnFn (0) 2 − nF (0) n zl l=1 nFn (0) 2 r ! n 2 a − Fn (0) . 2 i n/2(a2i − Fn (0)) = Xn (Fn (0)). Pour t ∈ [0, 1], posons p t ϕn (t) = min ,1 , Fn (0) ϕ(t) = min r et Yn (t) = n 2 t ,1 Fy (0) ! t = min ,1 , 1 − (1/y) ! Pbntc 2 z bntc i=1 i . PnFn (0) 2 − n l=1 19 zl et soit D0 = {x ∈ D[0, 1] : x(1) ≤}, donc ϕn −→ ϕ en probabilité sur D0 , et pour t < Fn (0) + n1 , s YnFn (0) (ϕn (t)) = ! Pbntc 2 bntc i=1 zi PnFn (0) 2 − nF (0) . n z nFn (0) 2 l=1 l Posons pour tout t ∈ [0, 1], a2i YnFn (0) (ϕn (t)) Fn (0) bnFn (0)ϕn (t)c + Xn (Fn (0)) − 1 + Xn (Fn (Fn−1 (t))). nFn (0) Hn (t) = p m+1 Donc, Hn (t) = Xn (t) sauf sur les intervalles [ m n , n [ où 0 < λm = λm+1 . Montrons que Hn −→ W 0 sur D[0, 1]. Soit φn (t) = Fn (0)t, φ(t) = (1 − y1 )t , et D bntc 1 X 2 (zi − 1). Vn (t) = √ 2n i=1 On a : φn −→ φ en probabilité sur D0 et : Yn (t) = Vn (t) − 1+ bntc n Vn (1) q (14) 2 n Vn (1) Or, Xn (Fn (Fn−1 (·))) et Vn sont indépendants, on a Xn (Fn (Fn−1 (·))), Vn , ϕn , φn −→ WF0 −1 y (Fy (·)) D , W , ϕ, φ , où W est un mouvement Brownien indépendant de W 0 . Ainsi Xn (Fn (Fn−1 (·))), Vn ◦ φn , ϕn −→ WF0 D Comme Vn (φn (t)) = −1 y (Fy (·)) , W ◦ φ, ϕ . p Fn (0)VnFn (0) (t), on trouve s 1 1 − VnFn (0) y ρ Vn ◦ φn , s q 1 = Fn (0) − 1 − sup VnFn (0) (t) −→ 0 y t∈[0,1] ! en probabilité. Ainsi, ! Xn (Fn (Fn−1 (·))), VnFn (0) , ϕn −→ D 20 1 WF0 (F −1 (·)) , p W ◦ φ, ϕ y y 1 − 1/y (15) p Remarquons que 1 − 1/y W ◦ φ est aussi un mouvement Brownien (par scaling) indépendant de W 0 . L’expression (14) nous donne Yn (t) − (Vn (t) − tVn (1)) = Vn (t) p t − bntc/n + 1+ 2/n(tVn (1) − Vn (t)) q 2 n Vn (1) (16) Donc ρ YnFn (0) (t), VnFn (0) (t) − tVnFn (0) (1) −→ 0 en probabilité. (17) Rappelons que Wt − tW1 est un pont Brownien. De (15) et (16), on obtient Xn (Fn (Fn−1 (·))), YnFn (0) , ϕn −→ WF0 −1 y (Fy (·)) D c 0, ϕ , ,W c 0 est un autre pont Brownien indépendant de W 0 . Considérons la structure tel que W h : D[0, 1] × D[0, 1] × D0 −→ D[0, 1] définie par h(x1 , x2 , z) = q 1 − (1/y)x2 ◦ z + x1 (0)(z − 1) + x1 , h est continue sur C[0, 1] × C[0, 1] × D0 ∩ C[0, 1]. D’autre part, on a a21 −→ 1 − (1/y) p et bnFn (0)ϕn (t)c − 1 −→ 0· p nFn (0) Ainsi, Hn −→ D q 0 c0 ◦ ϕ + W 0 1 − (1/y)W 1−(1/y) (ϕ − 1) + WF −1 y (Fy (·)) ≡ H. Il est clair que H est un processus gaussien centré continu sur [0, 1]. Calculons E(Hs Ht ) pour 0 ≤ s ≤ t ≤ 1. Pour cela on pose A = (1 − (1/y)), et remarquons que Aϕ(s) = min(s, A) et Aϕ(t) = min(t, A), on a =E h√ E(Hs Ht ) √ i c 0 ◦ ϕ)(s) + W 0 (ϕ − 1)(s) + W 0 c 0 ◦ ϕ)(t) + W 0 (ϕ − 1)(t) + W 0 A(W A( W A s A t = Aϕ(s)(1 − ϕ(t)) + A(ϕ − 1)(s)(ϕ − 1)(t) + t(1 − A)(ϕ − 1)(s) + s(1 − A)(ϕ − 1)(t) + s(1 − t) = s(1 − t). Ce qui est bien la fonction de covariance d’un pont Brownien. On a ρ(Xn , Hn ) est donnée par r Pj 2 n 2 l=1 zm1 +···+mi−1 +l j max a P i 2 − , 2≤i≤t 2 i m n k=1 zm1 +···+mi−1 +k 1≤j≤mi (Pour i = 1, ils sont les mêmes). Appliquons les mêmes arguments qu’on a vu précédemment dans (10) et (13), comme max1≤i≤t { mni } −→ 0, par convergence dominée on p obtient ρ(Xn , Hn ) −→ 0. p Ainsi, on obtient que Xn converge faiblement vers le pont Brownien. 21 La figure suivante consiste à une simulation du processus Xn (t) pour n = 600, et s(n) = 2 × n, dont les entrées de la matrice Vn sont gaussiennes i.i.d. Code en Scilab : Fonction qui calcule X n (t) pour t ∈ [0, 1] : 22 Programme de Simulation : 23 4 Modèle pour les matrices de Wigner Ce modèle donne une autre vision sur la convergence de fluctuations des vecteurs propres pour des matrices universelles (de type Wigner) vers celles du cas spécial gaussien GOE. Soit Xn une matrice de Wigner (pour plus de simplicité on prend le cas réel), (xni,j ) Xn = √ , n dont les éléments sont indépendants, avec la même loi sur la diagonale et la même loi hors la diagonale (qu’on les appelle les lois atomes de Xn ). Soit Xn = On Dn OnT , la décomposition spectrale de Xn , tels que, Dn est une matrice diagonale dont les éléments diagonaux sont les valeurs propres de Xn classées dans l’ordre croissant, On est une matrice orthogonale dont les colonnes forment une base de vecteurs propres de la matrice Xn , et OnT désigne la transposée de la matrice On . Considérons le processus bivarié càdlàg défini par : r 1 n Bs,t = 2 X |Oi,j |2 − 1≤i≤bnsc 1≤j≤bntc 1 n (18) s,t∈[0,1]2 On va montrer dans la suite que ce processus converge sous certaines conditions sur les éléments de Xn vers le pont Brownien bivarié sur D[0, 1]2 dans le sens faible (convergence en lois fini-dimensionnelles ). Pour obtenir des résultats de convergence plus forts (convergence pour la topologie de Skorokhod sur D[0, 1]2 ), on doit mettre des conditions plus fortes. Théorème 4.1 (Universalité de convergence des fluctuations pour les matrices de Wigner). Sous les notations précédentes, supposons que 1. ∀k ≥ 1, E |x1,1 |k + |x1,2 |k < ∞. 2. E(x1,1 ) = E(x1,2 ) = 0 et E(|x1,2 |2 ) = 1. 3. limn→∞ E(|x1,2 |4 ) existe. alors, la loi de (B n )n≥1 admet un unique point d’accumulation possible sur C[0, 1]2 , ce dernier n’est que la distribution d’un processus gaussien centré qui ne dépend de lois atomes de Xn qu’en limn→∞ E(|x1,2 |4 ), et ce qui est le pont Brownien bivarié si et seulement si, lim E(|x1,2 |4 ) = 3 = E(|g|4 ) t.q. n→∞ 24 g ∼ N (0, 1). n converge faiRemarque 4.2. On peut voir ce théorème comme ceci, toute suite de Bs,t blement, elle converge vers un processus gaussien centré qui dépend de lois atomes de Xn seulement en limn→∞ E(|x1,2 |4 ), et qui est le pont Brownien bivarié si et seulement si limn→∞ E(|x1,2 |4 ) = 3 (Notons que les lois atomes de Xn peuvent dépendre de n). Remarque 4.3 (Nécessité et suffisance des conditions). Mêmes si les condition ne sont pas optimales (avoir des moments finis de tout ordre), une certaine bornitude sur les queues de lois atomes semble être nécessaire pour pouvoir n . En effet, ce schéma montre l’influence de contrôler la discontinuité dans le processus Bs,t ces queues sur les fluctuations (i/n, j/n) → |Oi,j |2 − 1 n n . dans Bs,t Figure 1 – À gauche : matrice GOE. À droite : matrice de Wigner admettant des moments d’ordre au plus 2 + pour un suffisamment petit. Les deux matrices sont de dimension n × n avec n = 50 (cf, Fig.1 dans [3]). 4.1 Preuve du problème d’universalité Conversion du problème à D([0, 1] × R) La preuve du théorème (4.1) est basée sur la technique de J.W.Silverstein qu’on a vu dans la première partie [conversion du problème à D([0, 1] × R)]. En fait, on n’a pas un accès direct aux vecteurs propres de Xn dans cet aspect général, mais on a un accès au processus n Bs,F , (u) µ Xn s∈[0,1],u∈R 25 où FµXn (u) désigne toujours la fonction de répartition cumulative de la loi spectrale empirique Xn , n 1X FµXn (u) = (1λ ≤u ). n i=1 i Par suite, on peut transformer notre problème au problème sur les moments d’une loi basée sur les valeurs propres de Xn ( ce qu’on appelle la loi spectrale pondérée) en utilisant la bonne connaissance du comportement asymptotique de FµXn (u) qui converge vers la fonction de répartition cumulative de la loi de semi-cercle (théorème de Wigner) dont sa fonction inverse à droite est bien connue, ce qui nous permet d’aller dans les deux sens D([0, 1]2 ) D([0, 1] × R) . On a, n Bs,F µ Xn r 1 (u) = X X 2 1≤i≤bnsc j:λ j ≤u 1 . |Oi,j |2 − n n Ainsi, pour tout s ∈ [0, 1], la fonction u ∈ R −→ Bs,F (u) est la fonction de répartition µX n cumulative de la mesure signée (loi spectrale pondérée) suivante r n 1 X X 1 |Oi,j |2 − δλj . 2 1≤i≤bnsc j=1 n (19) Ce qu’on peut étudier à l’aide de ses moments X 1 − TrXnk n e∗i Xnk ei 1≤i≤bnsc (k ≥ 1), où ei désigne le iièm vecteur de la base canonique de Rn . En effet, ∀k ≥ 1 r 1 E X n X 2 1≤i≤bnsc j=1 1 |Oi,j |2 − n k r 1 δλj = n X X 2 1≤i≤bnsc j=1 r = n X 1 |Oi,j |2 − λkj n 1 1 Oi,j λkj Oj,i − λkj 2 1≤i≤bnsc j=1 n X (∗) Comme : T r(X k ) = T r(O.Dk .OT ), on trouve que r (∗) = = 1 X 1 (Xnk )i,i − TrXnk , 2 1≤i≤bnsc n X e∗i Xnk ei − 1≤i≤bnsc 1 TrXnk . n Ainsi, on peut déterminer le comportement asymptotique de la fonction de répartition cumulative précédente en déterminant le comportement asymptotique des moments de la n loi pondérée. Une fois la distribution asymptotique de Bs,F (u) est déterminée, on peut µ Xn 26 n en utilisant la fonction inverse de F trouver celle du processus Bs,t semi−cercle . L’étape principale dans la preuve qu’on est entrain de faire est de prouver la proposition suivante, ce qui nous permet de transformer le problème à étudier une situation plus accessible (la loi spectrale pondérée de Xn ). Proposition 4.4 (Conversion du problème à l’étude des moments de la loi spectrale pondérée). Désignons par ei le iièm vecteur de la base canonique de Rn . Pour prouver le théorème (4.1) il suffit de prouver que le processus des moments de la loi spectrale pondérée de Xn 1 TrXnk n e∗i Xnk ei − X 1≤i≤bnsc (k ≥ 1) (20) converge en lois fini-dimensionnelles vers un processus gaussien centré, et que la covariance du processus limite dépend des lois atomes de Xn seulement en limn→∞ E(|x1,2 |4 ). Preuve de la proposition 4.4 Soit µXn = n1 ni=1 δλi la loi spectrale empirique de Xn , et soit FµXn sa fonction de répartition cumulative. Le théorème de Wigner affirme que FµXn converge en probabilité vers Fsemi−cercle la fonction de répartition cumulative de la loi de semi-cercle sur Dc (R, [0, 1]). De plus la structure P D0 ([0, 1]2 ) × Dc (R, [0, 1]) −→ Dc ([0, 1] × R) (Gs,t )s,t∈[0,1] , g(u)u∈R 7−→ Gs,g(u) (s,u)∈[0,1]×R est continue sur C0 ([0, 1]2 ) × Cc (R, [0, 1]). Ainsi, par la théorie de théorèmes limites (réf. [8]), pour tout processus Bs,t dont sa distribution est un point d’accumulation de la suite (distribution(B n ))n≥1 sur D0 ([0, 1]2 ), le processus n (Bs,F µ Xn (u))(s,u)∈[0,1]×R converge vers le processus (Bs,Fsemi−cercle (u) )(s,u)∈[0,1]×R . Notons que Fsemi−cercle (u) : R −→ [0, 1] admet une fonction inverse à droite, donc le processus B(s,t) est entièrement déterminé par le processus (Bs,Fsemi−cercle (u) )(s,u)∈[0,1]×R . Il en résulte de ça et de lemmes suivants que pour prouver le théorème (4.1), il suffit de prouver que la séquence n distribution(Bs,F µ Xn (u))(s,u)∈[0,1]×R (21) admet un unique point d’accumulation possible dans Cc ([0, 1], R). Notons que pour toute fonction f ∈ Cc ([0, R 1] × R), f est strictement déterminée par k la collection des nombres u∈R u f (s, u)du . Ce résultat reste vrai si f est un s∈[0,1],k≥0 processus aléatoire, voyons ça par ce lemme. 27 Lemme 4.5. Soit f une fonction aléatoire définie sur Cc ([0, 1] × R) tel que, presque sûrement f (s, u) = 0 quand |u| > 2, alors, la distribution de f est entièrement déterminée par la loi fini-dimensionnelle du processus Z uk f (s, u)du · u∈R (22) s∈[0,1],k≥0 De plus, si la distribution fini-dimensionnelle du (22) est gaussienne centrée, alors celle de f est aussi gaussienne centrée. Preuve Fixons (s, u0 ) ∈ [0, 1] × [−2, 2], et pour tout p ≥ 1, soit (Pp,q )q≥1 une suite de polynômes uniformément bornés sur [−3, 3] qui converge simplement vers 1[u0 ,u0 +(1/P )] sur [−3, 3], alors par le théorème de la moyenne on trouve p.s., Z u0 +1/p f (s, u0 ) = lim p p→∞ f (s, u)du u0 Z = lim lim p Pp,q (u)f (s, u)du. p→∞ q→∞ u∈R Ce qui nous prouve le lemme, car toute limite p.s. d’une suite de variables gaussiennes centrées est gaussienne centrée. Il est bien connu que les valeurs propres extrémales de la matrice de Wigner Xn (λmin , λmax ) converge vers −2 et 2. par conséquence, si f est le processus limite de la suite n ditribuion(Bs,F µ Xn (u))(s,u)∈[0,1]×R , alors f (s, u) = 0 pour |u| > 2. Donc, par tout ce qui précède, il résulte que pour prouver le théorème (4.1) il nous suffit de prouver que toute loi fini-dimensionnelle du processus Z k u u∈R n Bs,F µX (u)du n s∈[0,1],k≥0 converge vers un processus gaussien centré. Et que le processus limite ne dépend de lois atomes de Xn qu’en limn→∞ E(|x1,2 |4 ). Pour terminer la preuve, Il reste seulement de montrer la liaison entre Z u∈R n uk Bs,F µ Xn X et (u)du s∈[0,1],k≥0 e∗i Xnk ei − 1≤i≤bnsc 1 TrXnk . n On a ∀(s, u) ∈ [0, 1] × R n Bs,F µ Xn r 1 (u) = X X 2 1≤i≤bnsc j:λ 28 j ≤u 1 . |Oi,j |2 − n Donc, n Bs,F µ Xn r 1 (u) = X 2 1≤i≤bnsc FµXn ,ei −µXn (u) , où : • µXn est la loi spectrale de Xn . • µXn ,ei est la loi définie par : µXn ,ei = Pn j=1 |Oi,j |2 δλj . • FµXn ,ei −µXn (u) est La fonction de répartition cumulative de la mesure pondérée de masse nulle µXn ,ei − µXn . Lemme 4.6. Soit µ une mesure signée à support compact de masse nulle, et Fµ = µ((−∞, u]). Alors pour tout k ≥ 0, Z k u Fµ (u)du = − Z u∈R x∈R xk+1 dµ(x) k+1 Preuve Soit a<b, tel que le support de µ est contenu dans l’intervalle (a, b). Ainsi, Fµ est nulle en dehors de (a,b) et satisfait : Fµ (u) = µ((−∞, u]) = 0 − µ(u, b) = −µ(u, b). Par théorème de Fubini, on trouve Z uk Fµ (u)du = Z Z b −uk dµ(x)du u∈R x=u Z b Z x u∈R = −uk dudµ(x) x=a u=a −xk+1 Z b = x=a Z b = x=a dµ(x) + k+1 −xk+1 dµ(x). k+1 ak+1 µ((a, b)) k+1 Il résulte par ce lemme que, Z k u u∈R n Bs,F µX ∀s ∈ [0, 1], k ≥ 0, −1 (u)du = n k+1 r 1 X 1 e∗i Xnk ei − TrXnk . 2 1≤i≤bnsc n Ce qui nous prouve la proposition (4.4). 29 Convergence vers la loi gaussienne Le théorème (4.1) est une conséquence directe de la proposition suivante. Proposition 4.7 (Convergence vers la loi gaussienne). Sous l’hypothèse du théorème (4.1), toute distribution fini-dimensionnelle du processus X 1≤i≤bnsc 1 e∗i Xnk ei − TrXnk n s∈[0,1],k≥1 converge vers une distribution gaussienne centrée. La covariance de la distribution limite qu’on la note : (Covs1 ,s2 (k1 , k2 ))s1 ,s2 ∈[0,1],k1 ,k2 ≥1 , ne dépend de lois atomes de Xn qu’en limn→∞ E(|x1,2 |4 ). De plus, Covs1 ,s2 (2, 2) = E(|x1,2 |4 − 1) (min(s1 , s2 ) − s1 s2 ) . Preuve de la proposition 4.7 Notons que la mesure µXn ,ei ne dépend pas de i, du fait que la loi de Xn est invariante par permutations pour tout s dans [0, 1] et k ≥ 1. On trouve X e∗i Xnk ei 1≤i≤bnsc = X e∗i Xnk ei − E[e∗i Xnk ei ] − 1≤i≤bnsc 1 − TrXnk n bnsc X ∗ k ei Xn ei − E[e∗i Xnk ei ] · n 1≤i≤n (23) Ainsi, il nous suffit d’étudier le comportement asymptotique de la loi fini-dimensionnelle du processus X e∗i Xnk ei − E[e∗i Xnk ei ] (24) 1≤i≤bnsc Pour ça, on va étudier les moments de l’expression précédente (24). Fixons p ≥ 1, s1 , . . . , sp ∈ [0, 1] et k1 , . . . , kp ≥ 1, et étudions la limite quand n → ∞ de : E p Y X e∗ X kl ei − E[e∗ X kl ei ] i n i n (25) l=1 1≤i≤bnsl c Introduisons l’ensemble d’indices : 1 1 p p Ξ = {0 , . . . , k1 } ∪ · · · · · · ∪ {0 , . . . , kp } 1 1 2 2 p p (26) où les ensembles {0 , . . . , k1 },{0 , . . . , k2 }, . . . , {0 , . . . , kp } sont p copies disjointes de l’ensemble des entiers positifs. On ordonne les éléments de l’ensemble Ξ comme il est 30 décrit dans l’expression (26). Pour toute partition π de l’ensemble Ξ, pour tout x ∈ Ξ, on note π(x) l’indice de la classe d’équivalence de x de la façon suivante : 1 1 π(0 ) = 1, 1∼0 π(1 ) = 1 si et 1 π(1 ) = 2 si 1 0· Comme (xi,j ) admet des moments de tout ordre, on peut écrire l’expression (25) et la développer sous la forme : E p Y X e∗i Xnkl ei − E[e∗i Xnkl ei ] (27) l=1 1≤i≤bnsl c =n − k1 +···+kp 2 X A(n, p)E " p Y # xπ(0l ),π(1l ) , . . . , x l=1 π∈Part(Ξ) l l π(kl −1 ),π(kl ) − E[xπ(0l ),π(1l ) , . . . , x l tel que, pour chaque π ∈ Part(Ξ), A(n, p) est le nombre de familles d’indices de i01 , . . . , ik 1 , . . . . . . , i0p , . . . , ikp p 1 qui sont répartis selon la partition π, et qui vérifient, pour chaque l = 1, . . . , p, 1 ≤ i01 = ik 1 1 ≤ nsl (28) Pour toute π ∈ Part(Ξ), définissons Gπ par le graphe dont l’ensemble des sommets est donné par {π(x); x ∈ Ξ}, et l’ensemble des arêtes est donné par l Eπ = {{π(m − 1 ), π(ml ); 1 ≤ l ≤ p, m ∈ {0, . . . , kl }}}. Comme les xi,j sont de lois centrées et indépendantes. Pour que les termes associés à π dans l’expression (27) ne soient pas nuls, on doit avoir l l (i) π(0 ) = π(kl ) ∀l : 1, . . . , p pour obtenir une puissance d’ordre kl . l l (ii) Toute arête de Gπ est visitée au moins deux fois par l’union de p chemins {0 , . . . , kp } pour l : 1, . . . , p. 0 l l (iii) ∀ l : 1, . . . , p, il existe l 6= l, tel qu’au moins une arête est visitée par {0 , . . . , kp } l 0 l 0 et {0 , . . . , kp }. Définissons maintenant une fonction s sur l’ensemble d’indices Ξ par, ∀l : 1, . . . , p, s(ml ) = n sl 1 m ∈ {0, . . . , kl } si m=0 sinon ou m=kl Et sπ = Y B bloc de π 31 min s(x). x∈B l π(kl −1 ),π(kl ) (29) ] , Par suite, on trouve A(n, π) ∼ sπ n|π| · (30) En effet, il est facile de voir que le nombre de familles d’indices de i01 , . . . , ik 1 , . . . . . . , i0p , . . . , ikp p 1 qui sont réparties selon la partition π est d’ordre n|π| , et la présence de sπ dans la formule est justifiée par la condition : 1 ≤ i0l = i l ≤ nsl ∀ l : 1, . . . , p. Ainsi, pour que la kl contribution de π dans l’expression (27) soit non nulle asymptotiquement, il faut ajouter cette condition, (iv) k1 +···+kp 2 ≤ |π|. Maintenant, on va donner un lemme clé de la théorie combinatoire correspondant à notre situation. Lemme 4.8. Soit π ∈ P art(Ξ) satisfait (i), (ii), (iii) et (iv), le nombre cπ des composantes connexes dans le graphe Gπ vérifie : cπ ≤ p2 et |π| ≤ cπ − p k1 + · · · + kp + . 2 2 Par conséquence, si π satisfait encore (iv), on trouve (a) cπ = p . 2 (b) p est paire. (c) |π| = k1 + · · · + kp , (ainsi, k1 + · · · + kp est paire). 2 (d) par (ii), on trouve aussi que, Eπ ≤ k1 +···+kp . 2 Ainsi, par (27) et (30), on obtient lim E n→∞ = X π∈P art(Ξ) sπ lim E n→∞ " p Y l=1 p Y X e∗i Xnkl ei − E[e∗i Xnkl ei ] (31) l=1 1≤i≤bnsl c # xπ(0l ),π(1l ) , . . . , x l l π(kl −1 ),π(kl ) − E[xπ(0l ),π(1l ) , . . . , x l l π(kl −1 ),π(kl ) ] où la somme est considérée pour les partitions π de Ξ qui vérifient (i), (ii), (iii), (iv) et (a), (b), (c), (d). 32 Cas où p est impaire Par (b), on sait qu’il n’y a pas de partition qui vérifie les conditions précédentes, donc par (31), lim E n→∞ p Y X e∗i Xnkl ei − E[e∗i Xnkl ei ] = 0. l=1 1≤i≤bnsl c Cas où p = 2 Dans ce cas, (a) implique que toute partition π satisfait (i), (ii), (iii) et (iv). Gπ est 2 2 connecté, ainsi |π| − 1 ≤ |Eπ |, donc par (c) et (d) : soit |Eπ | = k1 +k ou |Eπ | = k1 +k − 1. 2 2 2 − 1, le graphe Gπ a un sommet de plus par rapport Dans le cas où |Eπ | = k1 +k 2 1 1 aux arêtes, donc Gπ est un arbre. Par conséquence, les chemins {π(0 ), . . . , π(k1 )} et 2 2 {π(0 ), . . . , π(k2 )} qui commencent et se terminent par les mêmes sommets, visitent chaque arête un nombre paire de fois, il est facile de voir qu’une seule arête doit être visitée quatre fois (2 dans chaque sens), Il en résulte que l’espérance associé à π en (30) est égale à E(|x1,2 |4 ) − 1. 2 Dans le cas où |Eπ | = k1 +k 2 , on peut voir que chaque arête de Gπ est visitée exactement deux fois (Gπ est un bracelet), ainsi l’espérance associée à π dans ce cas est égale à 1. Par conséquence, quand n → ∞ E X e∗i Xnk1 ei − E[e∗i Xnk1 ei ] × 1≤i≤bns1 c X e∗i Xnk2 ei − E[e∗i Xnk2 ei ] 1≤i≤bns2 c converge vers un nombre qu’on le note Covcs1 ,s2 (k1 , k2 ) (32) et qui ne dépend de lois atomes de Xn qu’en limn→∞ E(|x1,2 |4 ). Cas où p est paire > 2 Par le point (a) précédent, on peut voir que pour toute partition π qui satisfait (i), (ii), (iii) et (iv), Gπ admet exactement p2 composantes connexes. Par (iii), chaque composante entre eux contient le support de deux chemins parmi les p chemins l l {π(0 ), . . . , π(kl )} l : 1, . . . , p Définissons σπ par le matching de {1, . . . , p} (i.e. une permutation dont tous les cycles sont de longueur 2), tel que pour tout l ∈ {1, . . . , p} les chemins avec indices l et σπ (l) sont supportés par la même composante connexe de Gπ . Développons la somme (31) selon la valeur du matching défini par π, on obtient lim E n→∞ p Y X e∗i Xnkl ei − E[e∗i Xnkl ei ] l=1 1≤i≤bnsl c 33 = X X sπ lim E " p Y xπ(0l ),π(1l ) , . . . , x n→∞ σ π∈P art(Ξ) # l=1 l l π(kl −1 ),π(kl ) − E[xπ(0l ),π(1l ) , . . . , x l l π(kl −1 ),π(kl ) telle que la première somme est sur les matchings σ de {1, . . . , p} et la deuxième somme est sur les partitions π satisfaisant (i), (ii), (iii) et (iv) et pour les quelles σπ = σ. Notons que pour tout matching σ, une partition π ∈ Part (Ξ) tel que σπ = σ peut s’écrire comme 0 le produit cartésien indexé par les cycles {l, l } de partitions τ des ensembles de type l l l 0 l 0 Ξl,l0 = {0 , . . . , kl } ∪ {0 , . . . , kl0 } (sous ensemble de Ξ) satisfaisant les conditions suivantes : 0 0 l l l l (i.2) τ (0 ) = τ (kl ) et τ (0 ) = π(kl ). (ii.2) Chaque arête du graphe Gτ est visitée au moins deux fois par l’union des deux 1 1 l 0 l 0 chemins {τ (0 ), . . . , τ (k1 )} et {τ (0 ), . . . , τ (kl0 )}. (iii.2) Au moins, une arête de Gτ est visitée deux fois par chacun de chemins précédents. kl + kl0 ≤ |τ |. (iv.2) 2 De plus, par indépendance des variables xi,j l’espérance E " p Y # xπ(0l ),π(1l ) , . . . , x l=1 l l π(kl −1 ),π(kl ) − E[xπ(0l ),π(1l ) , . . . , x l l π(kl −1 ),π(kl ) ] se factorise le long des composantes connexes de Gπ . le facteur sπ défini dans l’expression (30) se factorise aussi le long de ces composantes connexes, ainsi on obtient lim E n→∞ p Y X e∗i Xnkl ei − E[e∗i Xnkl ei ] l=1 1≤i≤bnsl c = X Y σ {l,l0 } lim E n→∞ X e∗i Xnkl ei − E[e∗i Xnkl ei ] × 1≤i≤bnsl c X k 0 k 0 e∗i Xnl ei − E[e∗i Xnl ei ] , 1≤i≤bns 0 c l où la somme est sur les matchings σ de {1, . . . , p}, et pour tout σ, le produit est sur les 0 cycles {l, l } de σ. Par la définition de Covcs1 ,s2 (k1 , k2 ), on obtient lim E n→∞ = p Y X e∗i Xnkl ei − E[e∗i Xnkl ei ] l=1 1≤i≤bnsl c X Y σ matching {l,l0 } cycle de σ Covcsl ,s 0 (kl , kl0 ), l ce qui est la formule de covariance pour un processus gaussien (par la formule de Vick). Ainsi, la première partie de la proposition (4.7) est prouvée. 34 ] , Maintenant, il ne nous reste que le calcul de Covcs1 ,s2 (2, 2). Par le calcul qu’on a vu dans le traitement du cas “p = 2”. X Covcs1 ,s2 (2, 2) = X sπ ∗ (E(|x1,2 |4 − 1) + π,Gπ est un arbre sπ . π,Gπ est un bracelet Avec deux sommets, on a exactement un arbre et zéro de bracelets, donc X Covcs1 ,s2 (2, 2) = (E(|x1,2 |4 − 1) sπ · π,Gπ est un arbre On représente cet arbre par {◦ − •}, Il y a deux partitions associées π dans l’ensemble 1 1 1 2 2 2 Ξ = {0 , 1 , 2 } ∪ {0 , 1 , 2 } qui vérifient les conditions précédentes, – La première est définie par 1 1 1 2 2 2 π(0 ), π(1 ), π(2 ) = π(0 ), π(1 ), π(2 ) = (•, ◦, •). On a Y sπ = min s(x). B bloc de π 1 1 1 2 2 x∈B 2 Ainsi, 0 ∼ 1 ∼ 2 et 0 ∼ 1 ∼ 2 , et par définition de la fonction s on trouve : sπ = min(s1 , s2 ). – La deuxième est définie par 1 1 1 π(0 ), π(1 ), π(2 ) = (•, ◦, •), 1 1 2 et 2 2 2 π(0 ), π(1 ), π(2 ) = (◦, •, ◦). 2 Ainsi, 0 1 et 0 1 , et toujours par définition de la fonction s on trouve : sπ = s1 s2 . Par conséquence, Covcs1 ,s2 (2, 2) = (E(|x1,2 |4 − 1)(min{s1 , s2 } + s1 s2 ). Par la formule (23) supposons que s1 ≤ s2 , alors on a X E 1≤i≤bns1 c 1 e∗i Xn2 ei − TrXn2 n X 1≤i≤bns2 c 1 e∗i Xn2 ei − TrXn2 n = Covs1 ,s2 (2, 2) − s2 Covs1 ,1 (2, 2) − s1 Cov1,s2 (2, 2) + s1 s2 Cov1,1 (2, 2) = E(|x1,2 |4 − 1) (s1 +s1 s2 )−2s1 s2 E(|x1,2 |4 − 1) −2s2 s1 E(|x1,2 |4 − 1) +2s1 s2 E(|x1,2 |4 − 1) = E(|x1,2 |4 − 1) (s1 − s1 s2 ). Ce qui nous prouve le résultat. 35 Cette figure représente une simulation du processus Bn (s, t) avec une matrice de départ de Wigner gaussienne. 36 Code en Scilab : Fonction qui calcule B n (s, t) pour s, t ∈ [0, 1] : Programme de Simulation : 37 n Maintenant, on va énoncer un résultat de convergence plus forte du processus Bs,t 2 vers le pont Brownien bivarié pour la topologie de Skorokhod sur l’espace D([0, 1] ). Pour ça, nous avons dû faire quelques d’autres hypothèses sur les lois atomes de la matrice Xn : la continuité absolue, des moments de tout ordre et la coïncidence de leurs 10 (sur le diagonale) et 12 (hors la diagonale) premiers moments avec ceux d’une matrice GOE. Ce résultat est toujours conjecturé par D.Chafaï et prouvé par F.Benaych-Georges. Notons que ces conditions restent toujours non optimales. Théorème 4.9. Supposons que 1. Les lois atomes de la matrice de Wigner Xn sont absolument continues par rapport à la mesure de Lebesgue. 2. ∀k ≥ 1, E |x1,1 |k + |x1,2 |k < ∞. De plus, ∀r ≥ 0, h i h i h i h i r | , • r ≤ 10 =⇒ E |xr1,1 | = E |g1,1 r | , • r ≤ 12 =⇒ E |xr1,2 | = E |g1,2 où g1,1 et g1,2 sont les éléments d’une matrice GOE standard. Alors, le processus bivarié B n converge pour la topologie de Skorokhod sur D([0, 1]2 ) vers le pont Brownien bivarié. 5 Problèmes ouverts Question 1 Prouver la conjecture de D.Chafaï concernant le même phénomène d’universalité de convergence de fluctuations qu’on a vu dans la section (4) pour d’autres décompositions matricielles (plus générales) : • Décomposition en valeurs singulières pour des matrices pas nécessairement carrées. • Décomposition de Householder pour des matrices non symétriques. Question 2 Optimisation des conditions utilisées dans le théorème (4.1) pour la convergence faible du processus de fluctuations des vecteurs propres et le théorème (4.9) pour la convergence au sens fort de Skorokhod. Question 3 Obtenir des résultats de convergence plus forts pour le modèle des matrices de covariance empirique de Silverstein qu’on a vu dans la section (3). 38 6 Annexe 6.1 Graphes Un graphe permet de représenter simplement la structure, les connexions, les cheminements d’un ensemble complexe de situations en exprimant les dépendances éventuelles entre ses éléments. Ainsi, un réseau routier ou ferroviaire, un réseau de communications ou encore un arbre généalogique peuvent être représentés par des graphes. Pour pouvoir modéliser le plus grand nombre possible de situations, plusieurs types de graphes ont été définis comme par exemple : graphe orienté, non orienté, connexe... Définition 6.1. (Graphe orienté ) Un graphe orienté G = (S, E)est déterminé par : • Un ensemble S = {s1 , . . . , sk } dont les éléments sont appelés sommets. • Un ensemble E = {e1 , . . . , ek } du produit cartésien S × S dont les éléments sont appelés arcs. Pour un arc e = (si , sj ) : si est l’extrémité initiale (origine), et sj est l’extrémité finale (destination) et on dit que l’arc e part de si et arrive à sj et que si et sj sont adjacents. On appelle les arc de la forme (si , si ) des boucles. La distance entre deux sommets est la longueur de la plus petite chaîne les reliant, et le diamètre d’un graphe est défini par la plus longue de distances entre deux sommets. Définition 6.2. (Graphe non orienté ) Un graphe non orienté G = (S, Ě) est déterminé par : • Un ensemble S = {s1 , . . . , sk } dont les éléments sont appelés sommets. • Un ensemble Ě = {e1 , . . . , ek } qui est un sous ensemble du produit cartésien S × S dont les éléments sont appelés arêtes, dans les quelles on ne s’intéresse pas à l’ordre entre les éléments. Définition 6.3. (chaîne ) Une chaîne est une séquence d’arcs telle que chaque arc ait une extrémité commune avec le suivant. On dit qu’elle est élémentaire si chaque sommet apparaît au plus une fois, et simple si chaque arc apparaît une seule fois, et on dit qu’elle fermée Si sorigine = sdetination . Définition 6.4. (Cycles ) Un cycle est une chaîne fermée simple tel que seul le sommet de départ apparaît deux fois dans la chaîne. 39 Un graphe qui ne contient aucun cycle est dit : graphe acyclique. Définition 6.5. (Graphe connexe ) Un graphe connexe est un graphe dans lequel chaque paire de sommets est reliée par une chaîne. Un graphe qui n’est pas connexe est dit non connexe, et se décompose en composantes connexes. Définition 6.6. (Arbre ) Un arbre est un graphe connexe acyclique. On dit qu’elle est un arbre n-aire si chaque sommet a 0 ou n fils. Quand n = 2, on parle d’arbre binaire. Un arbre est dit orienté s’il est dessiné sur un plan orienté, et dans ce cas l’orientation du plan devient l’orientation de cet arbre. Remarque 6.7. La notion d’orientation d’un arbre est différente de la notion d’orientation d’un graphe quelconque. Lemme 6.8. Soit G = (S, E) un graphe connexe avec S l’ensemble des sommets et E l’ensemble des arêtes. on a alors, |S| ≤ |E| + 1, Il y a égalité si et seulement si G est un arbre. 6.2 Matrices orthogonales et Matrices unitaires Une matrice carrée A ∈ Mn×n à coefficients réels est dite orthogonale si elle vérifie : AT .A = A.AT = In , où AT est la transposée de A et In est la matrice identité. L’ensemble des matrices orthogonales forme le groupe orthogonal On . • Une matrice A est orthogonale si et seulement si : A est inversible et son inverse est égale à sa transposée : A−1 = AT . • Le carré du déterminant d’une matrice orthogonale est égal à 1. Le déterminant d’une matrice orthogonale est donc égal à +1 ou −1. Si A est une matrice orthogonale et que son déterminant est +1 (respectivement −1), on dit que A est directe (respectivement indirecte). • L’ensemble de ces matrices est un groupe appelé groupe orthogonal et noté On (R). Il s’interprète de manière géométrique comme étant l’ensemble des isométries vectorielles, aussi appelées automorphismes orthogonaux, de l’espace euclidien Rn . Plus précisément, un endomorphisme d’un espace euclidien est orthogonal si, et seulement s’il existe une base orthonormée dans laquelle sa matrice est orthogonale (et si tel est le cas, sa matrice dans toute base orthonormée sera encore orthogonale). 40 Une matrice A à coefficients complexes est dite unitaire si elle vérifie les égalités suivantes : A∗ .A = A.A∗ = In avec A∗ la matrice adjointe (la conjuguée de la transposée) de la matrice A et I la matrice identité. L’ensemble des matrices unitaires forme le groupe unitaire Un . • Les matrices unitaires sont donc inversibles, d’inverse A−1 = A∗ . • Les matrices unitaires à coefficients réels sont les matrices orthogonales. • Les matrices réelles symétriques sont diagonalisables à l’aide d’une matrice orthogonale. Plus généralement les matrices normales, parmi lesquelles les matrices hermitiennes, antihermitiennes et unitaires sont diagonalisables à l’aide d’une matrice unitaire (Théorème spectral). Références [1] G. Anderson, A. Guionnet, O. Zeitouni An Introduction to Random Matrices. Cambridge studies in advanced mathematics, 118 (2009). [2] Z.D. Bai, J.W. Silverstein Spectral analysis of large dimensional random matrices. Second Edition, Springer, New York, 2009. [3] F. Benaych-Georges Eigenvectors of Wigner matrices : Universality of global flutuations. arXiv :1104.1219v5 [math.PR], (2011). [4] J.W. Silverstein Weak convergence of random functions defined by the eigenvectors of sample covariance matrices. Ann. Probab, 18 (1990), no. 3, 1174–1194. [5] J.W. Silverstein On the eigenvectors of large dimensional matrices of independent elements J. Multivariate Anal 30 1-16. 1989. [6] C. Donati-Martin, A. Rouault. T Truncations of Haar unitary matrices, traces and bivariate Brownian bridge. arXiv :1007.1366. [7] T. Jiang Approximation of Haar distributed matrices and limiting distributions of eigenvalues of Jacobi ensembles, on Probability Theory and Related Fields. Volume 144, Numbers 1-2, 221-246. [8] P. Billingsley Convergence of Probability Measures. New York, John Wiley and Sons (1968). [9] V.A. Marchenko, L.A. Pastur Distribution of eigenvalues for some sets of random matrices. Math USSR-Sbornik 1 :457—486, (1967). [10] D. Jonsson Some limit theorems for the eigenvalues of a sample covariance matrix. J. Multivariate Anal, 12 1-38 (1982). 41