Préparation à l’agrégation 2009-2010 Philippe Lebacque Exercices d’algèbre linéaire 1. Polynôme minimal et polynôme caractéristique 1.1. — Soient P, Q ∈ K[X]. Donner une condition nécessaire et suffisante sur P, Q pour qu’il existe une matrice à coefficients dans K ayant P comme polynôme minimal et Q comme polynôme caractéristique. Solution : il existe une telle matrice M si et seulement si P et Q ont mêmes divir seurs irréductibles. En effet, la réduction de Frobenius nous assure que πM |χM |πM pour un certain entier r d’où le sens direct. De plus, si P et Q ont mêmes diviseurs irréductibles, alors la matrice M compagnon par bloc (C(Pi )) convient, où les Pi sont définis par P1 Q = P et pout tout i ≥ 2 Pi est le produit des polynômes irréductibles divisant Q/ j<i Pj . 1.2. [1]. — On suppose ici que K = R ou C. Montrer que l’ensemble des matrices dont le polynôme minimal est égal au polynôme caractéristique est un ouvert de Mn (K). Est-il connexe ? Est-il dense ? Solution : Notons A cet ensemble. Remarquons d’abord que A ∈ A si et seulement si A est semblable à la matrice compagnon C(πA ), d’après le théorème de décomposition de Frobenius. Soit A0 ∈ A. Il existe alors x0 ∈ K n telle que {x0 , A0 x0 , . . . , An−1 x0 } engendre K n c’est à dire a det non nul. Mais alors, si A 0 est suffisamment proche de A0 , det({x0 , Ax0 , . . . , An−1 x0 }) 6= 0 par continuité du déterminant et alors {x0 , Ax0 , . . . , An−1 x0 } est une base de K n et donc A est dans A. C’est donc un ouvert. Dans le cas complexe, on montre la connexité en voyant A comme l’image du connexe GLn (K) × Kn par l’application continue φK : (P, a0 , . . . , an−1 ) 7→ P C(a0 , . . . , an−1 ) P −1 . − Dans le cas réel, GLn (K) a deux composantes connexes, GL+ n et GLn , et l’en+ − + n − n semble A = A ∪ A = φK (GLn (K) × K ) ∪ φK (GLn (K) × K ) est réunion de deux ensembles connexes. Si n est impair, on voit directement que A = A+ + car si P ∈ GL− n (K), (−P ) ∈ GLn (K). Il faut donc montrer que, dans le cas où n est pair, A+ ∩ A− n’est pas vide. On considère alors J = C(1, 0, . . . , 0). Cette matrice J a déterminant −1 car n est pair, et elle appartient aux deux ensembles car c’est φK (In , (1, 0, . . . , 0) et φK (J, (1, 0, . . . 0)). 2 Enfin, pour montrer qu’il est dense, on fixe A ∈ Mn (K) et > 0. On considère le polynôme D(X11 , . . . , Xnn ) = det(e1 , Xe1 , . . . , X n−1 e1 ), où X = (Xij )1≤i,j≤n . C’est un polynôme non nul de K[X11 , . . . , Xnn ] (C(1, 0, . . . , 0) a une image non nulle). S’il était nul sur la boule de centre A et de rayon il serait nul, en vertu du théorème suivant, qui généralise le cas bien connu de la dimension 1 : Théorème 1.1. — Soit k un corps et P ∈ k[X1 , . . . , Xn ]. Si P est nul sur S1 × · · · × Sn où les Si sont des parties infinies de k, alors P est le polynôme nul. La preuve se fait par récurence, l’idée P est de fixer (x1i, . . . , xn ) ∈ S1 × · · · × Sn , et de considérer P (x1 , . . . , xn , X) = Pi (x1 , . . . , xn )X . C’est un polynôme nul sur Sn+1 une partie infinie de k, et qui est donc nul, donc tous les Pi sont nuls sur S1 × · · · × Sn , et l’hypothèse de récurrence nous mène au résultat. Ainsi cette application est non nulle dans la boule de centre A et de rayon . Donc il existe B aussi proche de A que l’on veut dont le polynôme caractéristique est égal au polynôme minimal, et A est dense. 2. Endomorphismes diagonalisables 2.1. — Soit E un K-espace vectoriel de dimension finie n et u un endomorphisme diagonalisable de E. Soit F un sous-espace stable. Montrer que la restriction de u à F est diagonalisable. Montrer que des endomorphismes diagonalisables de E commutant deux à deux sont simultanément diagonalisables. Solution : On s’appuie sur le résultat suivant, corollaire du lemme des noyaux : u est diagonalisable si et seulement si il existe un polynôme Qscindé à racines simples tel que P (u) = 0. Pour le sens direct, on considère P = (X − λi ), où les λi sont les valeurs propres distinctes de u. Le lemme des noyaux montre que P (u) = 0 car uQdiagonalisable. Pour le sens réciproque, on écrit le lemme des noyaux à P = (X − λi ) annulant u, et on voit que E est somme directe des sous espaces ker(u − λi id) qui sont ou bien nuls, ou bien des sous-espaces propres. Ainsi, si u est diagonalisable, uF est annulé par un polynôme scindé a racine simple qui annule u, et donc est diagonalisable. Pour le second point, on procède par récurrence sur n. Pour n = 1 le résultat est clair. Supposons la propriété vraie en dimension n − 1, montrons qu’elle est vraie en dimension n. Soit (ui )i∈I une famille d’endomorphismes diagonalisables commutant deux à deux. Si tous les ui sont des homothéties, le résultat est évident. Sinon on suppose que u = ui0 n’est pas une homothétie, et on considère ses sous espaces propres Eλ1 , . . . , Eλr . On a donc r ≥ 2 et pour tout j dim Eλj < n. Pour tout j = 1 . . . r et pour tout i ∈ I, Eλj est stable par ui car ui et u commutent. On a donc la restriction ui,j de ui à Eλj est donc diagonalisable et par hypothèse de récurrence, il existe une base de diagonalisation Bj de Eλj 3 commune à tous les ui,j . Alors B = B1 ∪ · · · ∪ Br est une base de E dans laquelle tous les ui admettent une matrice diagonale. 2.2. — Soit G un groupe abélien fini de GLn (C). Montrer que les éléments de G sont simultanément diagonalisables. En déduire une majoration de l’ordre de G en fonction de son exposant. Est-ce encore vrai pour un tel sous-groupe de GLn (R) ? Pour un tel sous groupe de GLn (k), où k est un corps algébriquement clos de caractéristique positive ? Solution : Tous les éléments de G sont annulés par le polynôme X |G| − 1 d’après le théorème de Lagrange. Ce polynôme est scindé à racines simples dans C donc tous les éléments de G sont diagonaisables. G est abéliens donc ils commutent deux à deux et ils sont donc simultanément diagonalisables dans une base B d’après 2.1. Soit m l’exposant de G. L’application G → GLn (C) qui à g associe P −1 gP, où P est la matrice de passage de B à la base canonique, est un morphisme injectif à valeur dans l’ensemble des matrices diagonales D telle que Dm = In . Ce dernier ensemble a cardinal mn , car les coefficients diagonaux sont racines de X m − 1. On en déduit que |G| ≤ mn . Le résultat final reste valable dans GLn (R) mais ne sont pas nécessairement diagonalisables dans les matrices 0 1 R (Ex : G =< >). Dans GLn (k), où k est algébriquement clos de −1 0 caractéristique positive p, tout reste que l’ordre de G est valide si on suppose 1 λ premier à p. Mais le groupe G = , λ ∈ Fp3 pour ordre p3 > p2 et il est 0 1 d’exposant p (aucune des matrices de G non égale à I2 n’est diagonalisable). 2.3. Un théorème de Burnside (RMS 89 − 90 vol 5.) : Soit G un sousgroupe d’exposant fini de GLn (C). Alors G est un groupe fini.— 2.3.1. — Montrer que Tr(G) est fini. Montrer que le seul élément de trace égale à n est In . On remarquera que les éléments de G sont diagonalisables. Solution : Soit g ∈ G. g est diagonalisable car le polynôme X m = 1, où m est l’exposant de G, est scindé à racines simples et annule g (cf 2.2). On a alors g = P −1 Diag(λ1 , . . . , λn )P, où tous les λi sont racines de X m − 1. De plus Tr(g) = T r(Diag(λ1 , . . . , λn )) = λ1 + · · · + λn . On obtient donc |Tr(G)| ≤ mn . De plus Tr(g) = λ1 + · · · + λn , somme sur des racines mième de l’unité, est égale à n si et seulement si tous les λi valent 1, c’est à dire si g est semblable à In , ce qui équivaut à g = In . 2.3.2. — Soit {g1 , . . . , gr } une base de V ect(G) formée d’éléments de G (existence ?). On considère l’application qui envoie g ∈ G sur le n-uplet (Tr(g −1 gi ))i∈{1,...,r} . Déduire de 2.3.1 que cette application est injective. Solution : Une telle base existe puisque la famille G étant génératrice de V ect(G), on peut en extraire une base {g1 , . . . , gn } de V ect(G). Prenons deux 4 éléments h Pet g de G ayant même image par cette application notée φ. Alors, on écrit g = λi gi , on a X X n = Tr(g −1 g) = λi Tr(g −1 gi ) = λi Tr(h−1 gi ) = Tr(h−1 g). On a donc, d’après 2.3.1, h−1 g = In et h = g. 2.3.3. — Conclure. Solution : Comme Tr(G) est fini, |φ(G)| ≤ |Tr(G)|r est fini. Comme φ est injective, |G| = |φ(G)| est fini. 2.4. Décomposition de Dunford. — Soit k un corps parfait. Soit M ∈ Mn (k). Soit K une extension où le polynôme minimal πM de M est scindé. Soient D et N deux matrices de Mn (K), telles que D soit diagonalisable, N nilpotente, DN = N D et M = N + D. Montrer que D, N ∈ Mn (k). Remarquons que D n’est pas nécessairement diagonalisable dans Mn (k). Solution : On considère L le corps des racines de πM dans K. Alors πM est scindé dans L[X] et D et N sont en fait des matrices de Mn (L) par unicité de la décomposition de Dunford dans Mn (K). Comme k est parfait, L/k est galoisienne. Soit σ ∈ Gal(L/k). On note encore σ l’isomorphisme d’anneaux Mn (L) → Mn (L) qui à A = (aij ) associe σ(A) = (σ(aij )). Mn (k) est alors l’ensemble des éléments de Mn (L) invariants par tous les τ ∈ Gal(L/k). On a M = σ(M ) = σ(N )+σ(D), σ(D)σ(N ) = σ(N )σ(D), σ(N ) nilpotente (σ(N )k = σ(N k )) et σ(D) diagonalisable (si D = P −1 dP, σ(D) = σ(P )−1 σ(d)σ(P )). Par unicité de la décomposition de Dunford dans L, on a σ(D) = D, σ(N ) = N. Ceci étant valable pour tout σ ∈ Gal(L/k) on a D, N ∈ Mn (k). 3. Endomorphismes normaux Sn>0 désignera par la suite l’ensemble des matrices réelles symétrique définie positive de Mn (R). 3.1. Racine carrée. — Soit N une matrice symétrique réelle définie positive. Montrer qu’il existe une unique matrice symétrique réelle définie positive S telle que S 2 = N. Solution : N est semblable à la matrice diagonale D = Diag(λi ) où les λi sont des réels strictement positifs. On pose alors N = P −1 DP où P est orthogonale. √ On −1 pose alors S = P EP où E est la matrice diagonale définie par E = Diag( λi ). S est bien une matrice symétrique définie positive et S 2 = N. Traitons alors √ l’unicité. Si Q est le polynôme d’interpolation de Lagrange de x 7→ x en les λi , on a alors E = Q(D) d’où N = P −1 DP = Q(P −1 EP ) = Q(S). Donc S est un polynôme en N. Si T est une autre racine carrée de N symétrique définie positive, on voit que S est un polynôme en T 2 donc en T et S commute donc avec T. On a alors S 2 − T 2 = (S − T )(S + T ) = 0. Comme T et S sont symétriques définies 5 positives, S + T l’est aussi et est donc inversible. On a alors S − T = 0. D’où l’unicité. 3.2. Exponentielle. — Montrer que l’exponentielle définit un homéomorphisme de l’ensemble des matrices symétriques réélles sur l’ensemble des matrices symétriques définies positives. Montrer que l’exponentielle définit un morphisme surjectif de l’ensemble des matrices antisymétriques réelles dans SOn (R). Est elle bijective ? Que se passe-t-il dans Mn (C) ? Solution :L’application exp : Mn (R) → Mn (R) définie par exp(A) = +∞ n X A n=0 n! est continue car la série est normalement convergente sur tout compact, donc sa restricition à S est continue. De plus, si M est symétrique réelle, il existe une matrice orthogonale N et des réels α1 , . . . , αn tels que M = N −1 Diag(α1 , . . . , αn )N. Alors exp M = N −1 Diag(eα1 , . . . , eαn )N est bien symétrique définie positive. Soit S ∈ S >0 . Il existe P ∈ On (R) et des réels strictement positifs λ1 , . . . , λn tels que S = P −1 Diag(λ1 , . . . , λn )P. On a alors S = P −1 exp Diag(ln λ1 , . . . , ln λn )P = exp P −1 Diag(ln λ1 , . . . , ln λn )P d’où la surjectivité. Supposons que T et R sont des matrices symétriques réelles vérifiant exp T = exp R. Comme T commute avec exp T (c’est même un polynôme en T, car R[T ] est fermé), T commute avec exp R. Mais R est aussi un polynôme en exp R. En effet, R est diagonalisable, et si R = Q−1 Diag(µ1 , . . . , µn )Q et Pµ est un polynôme tel que Pµ (exp µi ) = µi pour tout i = 1 . . . n, on a Pµ (exp R) = Q−1 Diag(Pµ (eµ1 ), . . . , Pµ (eµn ))Q = R. T commute donc avec R. Ils sont donc diagonalisables dans une même base, et l’injectivité de l’exponentielle réelle conduit à T = R. Reste à démontrer que l’application réciproque est aussi continue. On considère donc une suite (Ap ) de matrices de S >0 tendant vers A ∈ S >0 , et (Bp ) la suite de matrices symétriques définie par exp Bp = Ap pour tout p. Montrons que Bp converge vers la matrice B définie par exp B = A. On voit tout d’abord que la suite (Bm ) est bornée. En effet, (Ap ) converge donc est bornée. Soit M > 0 tel que kAp k22 ≤ M 2 pour tout p. Ap est diagonalisable dans une base orthonormée, kAp k22 est la somme des carrés des valeurs propres (qui sont réelles) de Ap , on en déduit donc que les valeurs propres des Ap sont bornées par M. De même, −1 donc est également bornée, ainsi les valeurs propres de A−1 A−1 p tend vers A p 1 sont bornées par 2 , où m > 0. Comme toutes ces valeurs propres sont réelles m et strictement positives, on en déduit que toutes les valeurs propres de Ap sont contenues dans [m, M ]. Ainsi les valeurs propres de Bp sont toutes contenues 6 dans [ln m, ln M ] et Bp est bornée. On considère alors une valeur d’adhérence B 0 de (Bp ). B 0 est bien symétrique, et on a donc, par continuité de l’exponentielle, exp B 0 = A. Par injectivité de l’exponentielle, on a B = B 0 . La suite (Bp ) n’a donc qu’une valeur d’adhérence, elle converge alors vers B. Soit S une matrice antisymétrique réelle. S = P −1 DP où P est orthogonale et 0 .. D= . 0 , avec bj 6= 0. −bs 0 0 0 −b1 b1 0 .. . 0 0 bs De plus, X X +∞ +∞ 2k+1 2k 1 0 0 −1 0 −b k b k b + (−1) exp = (−1) b 0 (2k)! 0 1 (2k + 1)! 1 0 k=0 k=0 Ainsi exp(S) = P −1 exp(D)P avec exp(D) = 1 .. . 0 1 cos b1 − sin b1 sin b1 cos b1 .. 0 . cos bs sin bs . − sin bs cos bs (∗) D’où exp(S) ∈ SOn (R). La surjectivité est alors claire d’après le calcul précédent, puisque toute matrice de SOn (R) est semblable à une matrice de la forme (∗) dans une base orthonormée. Elle n’est pas injective, puisque 0 −b + 2π 0 −b exp = exp . b + 2π 0 b 0 Le cas complexe se traite exactement de la même façon, l’exponentielle d’une matrice hermitienne étant hermitienne définie positive et celle d’une matrice antihermitienne étant unitaire. 7 3.3. — Montrer que toute matrice complexe est unitairement trigonalisable. Solution : On montre d’abord le résultat classique : M est trigonalisable si et seulement si πM est scindé. Le sens direct est aisé : on voit alors que χM est scindé en calculant le déterminant d’une matrice triangulaire supérieure à coefficient dans K[X], et donc πM est scindé aussi. Le sens réciproque découle par exemple de la réduction de Jordan et du fait qu’une matrice est semblable à sa transposée, la transposée d’un bloc de Jordan étant triangulaire supérieure. Soit M ∈ Mn (C). πM est scindé donc M est trigonalisable. Si u est l’endomorphisme représenté par M dans la base canonique, il existe alors une base B tel que M atB u est triangulaire supérieure. Alors on considère la base B 0 obtenue à partir de B par le procédé d’orthonormalisation de Gram-Schmidt. M atB 0 u est triangulaire supérieure et B 0 étant orthonormée, M = Q−1 M atB 0 (u)Q avec Q unitaire. 3.4. — Montrer que On (R) admet deux composantes connexes à déterminer. En déduire les composantes connexes de GLn (R). Solution : SOn (R) est connexe par arc. En effet, toute matrice S ∈ SOn (R) s’écrit P −1 AP où A estune matrice diagonale par blocs, les blocs étant définis cosθi sin θi par Ai = (1) ou Ai = . On considère alors le chemin φ : t 7→ −sinθi cos θi P −1 A(t)P où A(t) est définie par les mêmes blocs que A en remplaçant θi par θi t le cas échéant. Ce chemin est clairement continu, et on a φ(0) = In et φ(1) = A. Il existe ainsi un chemin continu reliant toute matrice de SOn (R) à In . De plus si on considère σ ∈ On (R) − SOn (R), l’application qui à S ∈ SOn (R) associe σS est clairement un homéomorphisme de SOn (R) dans On (R) − SOn (R). Ainsi On (R) − SOn (R) est aussi connexe. Comme cet ensemble et SOn (R) sont séparés par l’application continue det : On (R) → {−1, 1}, ils ne sont pas dans la même composante connexe. Ainsi On (R) a deux composantes connexes, SOn (R) et On (R) − SOn (R). L’application (décomposition polaire) ψ: On (R) × Sn>0 → GLn (R) (O × S) 7→ O S est un homéomorphisme. En effet ψ est continue en tant que restriction de l’application bilinéaire continue « produit » de Mn (R)2 dans Mn (R). La bijectivité est basée sur le fait que pour toute matrice M inversible, t M M est symétrique définie positive, et on obtient S en en prenant l’unique racine carrée. La compacité de On (R) donne la continuité de l’application réciproque. On a vu que On (R) a deux composantes connexes. Comme Sn>0 est convexe, il est aussi connexe (c’est n(n−1) même homéomorphe via l’exponentielle à R 2 ) et on a donc au plus deux composantes connexes dans GLn (R). >0 − GL+ n (R) = {M ∈ GLn (R) | detM > 0} = ψ(SOn (R) × Sn ) et GLn (R) = >0 {M ∈ GLn (R) | detM < 0} = ψ((On (R) − SOn (R)) × Sn ne sont pas dans la 8 même composante connexe car ils sont séparés par le déterminant, on en déduit donc que ce sont les deux composantes connexes de GLn (R). Références [1] Rached Mneimné et Frédéric Testard, Introduction à la théorie des groupes de Lie classiques, Collection Méthodes, Hermann, Paris, 1986. vi+346 pp.