Adhérence et intérieur de l’ensemble des matrices diagonalisables de Mn (C) ? Montrons que toute matrice de Mn (C) est limite d’une suite de matrices diagonalisables ; soit M ∈ Mn (C), on peut trigonaliser M = P T P −1 où P ∈ GLn (C), T ∈ Tn+ (C). Notons, si k ∈ N, Tk la matrice dont tous les coefficients non diagonaux sont égaux à ceux de T , et les coefficients diagonaux sont : (Tk )i,i = Ti,i + 1 i+k Alors, assez clairement, Tk −−−−→ T , donc (linéarité, donc continuité de k→+∞ A �→ P AP −1 ) P Tk P −1 −−−−→ M . Qui plus est, à partir d’un certain rang, k→+∞ les coefficients diagonaux de Tk sont deux à deux distincts (une justification : si tous les Ti,i sont égaux, c’est assez clair. Sinon, soit δ > 0 le plus petit des n |Ti,i − Tj,j | non nuls. A partir d’un certain rang k0 , on aura 2 < δ, et alors, k si i �= j (Tk )i,i = (Tk )j,j ⇒ Ti,i − Tj,j = i−j ⇒ 0 < |Ti,i − Tj,j | < δ (k + i)(k + j) qui montre par l’absurde ce qu’on voulait). Donc Tk est diagonalisable, et P Tk P −1 aussi. La caractérisation de l’adhérence par les suites montre : L’adhérence dans Mn (C) de l’ensemble des matrices diagonalisables est Mn (C) Cherchons maintenant (plus difficile) l’intérieur ; l’exemple simple 0 1/p 0 0 −−−−→ p→+∞ 0 0 0 0 7 montre que la matrice nulle, diagonalisable, est limite d’une suite de matrices non diagonalisables, donc la matrice nulle n’est pas dans l’intérieur de l’ensemble des matrices diagonalisables. S’inspirant de cet exemple, on peut penser qu’une matrice diagonalisable ayant au moins une valeur propres double n’est pas intérieure à l’ensemble des matrices diagonalisables. Soit en effet M une telle matrice ; elle s’écrit M = P DP −1 avec P inversible et D diagonale, et où l’on peut supposer D1,1 = D2,2 = λ. 1 Soit Tp = D + E1,2 (les coefficients de Tp sont ceux de D, sauf le coefficient p (1, 2)). Tp n’est pas diagonalisable (le rang de Tp − λIn est n − mλ + 1 où mλ est le nombre d’apparitions de λ sur la diagonale, c’est-à-dire la multiplicité de λ. Donc la dimension de Ker(Tp − λIn ) est mλ − 1, ce qui fait que Tp n’est pas diagonalisable). Comme P Tp P −1 −−−−→ P DP −1 = M p→+∞ M est dans l’adhérence de l’ensemble des matrices non diagonalisables, elle n’est donc pas dans l’intérieur des matrices diagonalisables. On conclut provisoirement que : L’intérieur dans Mn (C) de l’ensemble des matrices diagonalisables est inclus dans l’ensemble des matrices ayant n valeurs propres distinctes L’inclusion réciproque est le passage délicat. Soit (Mp ) une suite de matrices convergeant vers une matrice M . On suppose que M a n valeurs propres distinctes. Montrons qu’alors, à partir d’un certain rang, Mp a elle aussi n valeurs propres distinctes. Notons λ1 , . . . , λn les valeurs propres de M . Soit δ > 0, et supposons que Mp n’ait pas de valeur propre dans le disque D(λ1 , δ). Le polynôme caractéristique de Mp s’écrit χp (X) = n � i=1 8 (X − µi,p ) où les µi,p sont les valeurs propres de Mp , comptées avec leur multiplicité. On aurait, pour tout i, |µi,p − λ1 | ≥ δ, donc |χp (λ1 )| ≥ δ n Or, par continuité du déterminant, χp (λ1 ) = det(λ1 In − Mp ) −−−−→ det(λ1 In − M ) = 0 p→+∞ Donc, à partir d’un certain rang, |χp (λ1 )| < δ n ce qui permet de conclure que, pour tout δ > 0, il existe un rang à partir duquel Mp a au moins une valeur propre dans le disque D(λ1 , δ). Idem pour les autres λi . Choisissons alors δ strictement inférieur à la moitié de la plus petite distance entre deux λi : 0<δ< 1 min{|λi − λj | ; i �= j} 2 A partir d’un certain rang, Mp a au moins une valeur propre dans chacun des D(λi , δ), or ces disques sont disjoints, donc Mp a au moins n valeurs propres distinctes, donc Mp est diagonalisable. Il n’existe donc pas de suite de matrices non diagonalisables qui converge vers M . Donc M n’appartient pas à l’adhérence de l’ensemble des matrices non diagonalisables. Donc M appartient à l’intérieur de l’ensemble des matrices diagonalisables. L’intérieur dans Mn (C) de l’ensemble des matrices dia- gonalisables est l’ensemble des matrices ayant n valeurs propres distinctes Remarque : Il y a bien d’autres manières d’aborder cette question. Ici, on a évité de se poser des problèmes de continuité de l’application qui à une matrice associe son polynôme caractéristique, de « continuité » des racines d’un polynôme. . . 9 Commutant d’une matrice ou d’un endomorphisme La recherche du commutant d’une matrice ou d’un endomorphisme est un problème important, parfois sous-jacent à certains énoncés : par exemple, si on donne une matrice carrée A, si on cherche les matrices X telles que X 2 + X = A, on commencera par remarquer qu’une telle matrice commute nécessairement avec A. 1. Cas des endomorphismes diagonalisables Soit E un espace vectoriel de dimension n, f un endomorphisme de E. Le commutant de f est Cf , ensemble des endomorphismes de E qui commutent avec f . C’est un sous-espace vectoriel de L(E). (a) Trouver les matrices qui commutent avec une matrice carrée diagonale à coefficients distincts. Soit D une matrice diagonale de Mn (K) à coefficients diagonaux distincts (on les notera di plutôt que di,i ). Soit A ∈ Mn (K). Alors AD = DA ⇔ ∀(i, j) ∈ {1, . . . , n}2 ⇔ ∀(i, j) ∈ {1, . . . , n}2 (AD)i,j = (DA)i,j ai,j dj = di ai,j On obtient donc assez facilement (en distinguant ci-dessus les cas i = j et i �= j) : AD = DA ⇔ (A diagonale) (b) Si f est diagonalisable, déterminer la dimension de Cf en fonction des dimensions des sous-espaces propres de 10 f (on pourra remarquer qu’un endomorphisme qui commute avec f laisse stables les sous-espaces propres de f , et éventuellement poser le problème matriciellement). Soit f diagonalisable, λ1 , . . . , λp ses valeurs propres (distinctes) ; pour chaque i, on note Ei le sous-espace propre Ei = Ker(f −λi Id), et ni la dimension de Ei (qui est aussi la multiplicité de λi , f étant diagonalisable). Si g ∈ Cf , g commute avec f , donc avec f − λi Id, donc g laisse stable Ei (cours). Mais la réciproque est vraie : supposons que g laisse stable chaque � � Ei ; si x ∈ Ek , (f ◦ g)(x) = f g(x) = λk g(x) (car g(x) ∈ Ek ) ; et (g ◦ f )(x) = g(λk x) = λk g(x). g ◦ f et f ◦ g coïncident sur chaque p � Ek , or Ek = E (car f est diagonalisable), donc f ◦ g = g ◦ f . k=1 On a montré : Si f est diagonalisable, les endomorphismes qui commutent avec f sont les endomorphismes qui laissent stables les sous-espaces propres de f Maintenant, il reste à utiliser ceci pour calculer la dimension de Cf . Une première méthode (matricielle) : Soit B une base adaptée à la décomposition E = E1 ⊕ E2 ⊕ . . . ⊕ Ep (les n1 premiers vecteurs de B sont une base de E1 , les n2 suivants une base de E2 , etc. . .). On vient de voir que g était dans Cf si et seulement si g laissait stables tous les Ek , donc si et seulement si la matrice de g 11 dans la base B était diagonale par blocs de la forme : A1 A2 . .. Ap où chaque Ak est carrée d’ordre nk . Or l’espace F des matrices de cette forme est de dimension n21 + . . . + n2p [on peut en donner une base, ou dire que l’application qui à (A1 , . . . , Ap ) associe la matrice construite ci-dessus est un isomorphisme de Mn1 (K) × . . . × Mnp (K) dans F , or la dimension de p � Mn1 (K) × . . . × Mnp (K) est n2k ]. k=1 Comme l’application g �→ MB (g) est un isomorphisme de L(E) dans Mn (K) (et donc préserve la dimension), on conclut : dim(Cf ) = p � n2k k=1 Une deuxième méthode : Soit G le sous-espace de L(E) consti- tué des endomorphismes qui laissent stables les Ek ; l’application de G dans L(E1 )×. . .×L(Ep ) qui à g ∈ G associe (g1 , . . . , gp ), où gk désigne l’endomorphisme induit par g sur Ek , est un isomorphisme (la linéarité est simple, il suffit de l’écrire. La bijectivité est un corollaire du résultat sur « la définition d’une application linéaire par ses restrictions aux facteurs d’une somme directe supplémenp p � � � � taire »). Or dim L(E1 )×. . .×L(Ep ) = dim(L(Ek )) = n2k , ce qui donne la conclusion. 12 k=1 k=1 (c) Si f admet n valeurs propres distinctes, démontrer que Cf = K[f ]. Un polynôme de f commute avec f . Donc K[f ] ⊂ Cf . Mais le polynôme minimal de f a pour degré n (car il a n racines et ne peut être de degré > n). Donc dim(K[f ]) = n. Or, par ce qui précède, si f est diagonalisable à valeurs propres distinctes, dim(Cf ) = n. Ce qui conclut 2. Cas général On « rappelle » (ou plutôt on admet) que, si F est un espace vectoriel de dimension finie, si 0 ≤ p ≤ dim(F ), l’ensemble des endomorphismes de F de rang supérieur ou égal à p est un ouvert de L(F ). (a) Soit E un espace vectoriel de dimension n, f un endomor� � phisme de E. On note Φf l’élément suivant de L L(E) : Φf : g �→ g ◦ f − f ◦ g Démontrer que l’application f �→ Φf est continue. Elle est linéaire, et L(E) est de dimension finie car E l’est. (b) Soit E un espace vectoriel de dimension n, f un endomorphisme de E. Exprimer dim(Cf ) en fonction de rg(Φf ). Comme Cf = Ker(Φf ), on peut appliquer le théorème du rang pour obtenir dim(Cf ) = n2 − rg(Φf ) 13 (c) Soit E un espace vectoriel de dimension n, f un endomorphisme de E. Déduire du 1. que, si f est diagonalisable, dim(Cf ) ≥ n. Avec les notations de 1., p p � � 2 dim(Cf ) = nk ≥ nk = n (cette dernière égalité étant assuk=1 k=1 rée par le fait que f est diagonalisable). (d) Soit E un C-espace vectoriel de dimension n, f un endomorphisme de E. Déduire de tout ce qui précède que dim(Cf ) ≥ n dim(Cf ) ≥ n est équivalent à rg(Φf ) ≤ n2 − n ; mais {f ∈ L(E) ; rg(Φf ) ≤ n2 − n} est l’image réciproque par Φf , continue, de l’ensemble des endomorphismes de L(E) (i.e. l’ensemble des éléments de L(L(E))) de rang inférieur ou égal à n2 − n, fermé comme complémentaire de ceux de rang supérieur ou égal à n2 −n+1. C’est donc un fermé. Il contient les endomorphismes diagonalisables, qui sont denses dans L(E) (autre exercice classique), donc c’est L(E) tout entier. 14 L’ensemble des matrices de rang supérieur ou égal à r est un ouvert Ce résultat est utilisé, conjointement à la densité des matrices diagonalisables dans Mn (C), dans le cadre de l’exercice sur le commutant. Démontrons la propriété suivante : l’ensemble R des matrices de rang su- périeur ou égal à r est une partie ouverte de Mn (K), K désignant R ou C. On supposera bien entendu 0 ≤ r ≤ n. Si r = 0, pas de problème (R est l’espace Mn (K) tout entier). Si r = n, R est GLn (K), ouvert comme image réciproque de l’ouvert K \ {0} par l’application det. On doit montrer que R est voisinage de chacun de ses points. a. Cas de la matrice canonique de rang r : On commence par une matrice très simple de R : Ir (0) Jr = (0) (0) notons que l’application A �→ Ar , où Ar = (ai,j )1≤i,j≤r (Ar est le coin supérieur gauche r ×r de A) est continue (c’est presque évident, et elle est linéaire en dimension finie). Par composition, l’application φ : A �→ det(Ar ) est continue. L’image réciproque O par φ de K \ {0} est un ouvert contenant Jr , car φ(Jr ) = 1. Mais O ⊂ R (en effet, si A ∈ O, Ar est inversible. Il ne peut donc pas y avoir de relation de dépendance linéaire entre les r premières colonnes de A, car une telle relation donnerait une relation de dépendance linéaire (avec les mêmes coefficients) entre les colonnes de Ar , qui sont les premières colonnes de A tronquées. Donc A est au moins de rang r). Finalement, R est voisinage de Jr . Tout cela est assez technique ; il faut comprendre l’idée de départ : si une matrice est “proche” de Jr , son coin r × r en haut à gauche est proche de Ir , donc inversible, donc la matrice est au moins de rang r. 15 b. « Transport » des résultats du a. vers une matrice quelconque de rang r : Soit maintenant une matrice A de rang r. Il existe P , Q inversibles telles que A = P Jr Q. L’isomorphisme ψ : M �→ P −1 M Q−1 est continu car linéaire en dimension finie, et conserve le rang. L’image réciproque de O par ψ est un ouvert (car O est ouvert) contenant A (ψ(A) = Jr ∈ O) et inclus dans R (ψ −1 : M �→ P M Q conserve le rang). Donc R est un voisinage de A. c. Cas des matrices de rang > r Le même raisonnement que ci-dessus montre que, si A est de rang p > r, l’ensemble des matrices de rang supérieur ou égal à p est un voisinage de A, donc R aussi car il le contient. On a raisonné sur des matrices carrées, mais si elles sont rectangulaires ça marche aussi bien. 16