INVARIANTS DE SIMILITUDE par Arnaud Moncet Table des matières Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Modules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Modules de type fini sur un anneau euclidien . . . . . . . . . . . . . . . . . . 3. Invariants de similitude et réduction de Frobénius . . . . . . . . . . . . . . 4. Lien avec la décomposition de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6. Unicité de la décomposition primaire . . . . . . . . . . . . . . . . . . . . . . . . . . Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 7 11 15 17 20 23 Introduction Soit K un corps (fixé tout au long du texte), et soit E un espace vectoriel de dimension finie sur K. Le but de ce cours est de classifier les endomorphismes de l’espace vectoriel E, à similitude près. Cela revient à décrire le quotient EndK (E)/S, où S est la relation d’équivalence sur EndK (E) décrite par : f Sf 0 ⇔ ∃u ∈ GLK (E), f 0 = uf u−1 (on dit que f et f 0 sont semblables). À chaque endomorphisme f , on va associer de manière unique des polynômes P1 , · · · , Pr ∈ K[X], appelés invariants de similitude, qui caractérisent la classe de similitude (c’est-à-dire la classe d’équivalence pour la relation S) ; autrement dit, f et g sont semblables si et seulement s’ils ont les mêmes invariants de similitude. On s’intéressera également au problème inverse : étant donné les invariants de similitude, on saura donner un élément de la classe de similitude, sous forme matricielle. Il s’agit de la réduction de Frobénius, qui généralise la réduction de Jordan (cette dernière ne concerne que les endomorphismes trigonalisables). INVARIANTS DE SIMILITUDE 2 La théorie des modules constitue un outil naturel pour aboutir à une telle décomposition. Signalons cependant qu’une approche sans utiliser les modules est aussi possible (voir [3]). 1. Modules Fixons un endomorphisme f du K-espace vectoriel E. On a envie d’étendre la multiplication par les scalaires sur E à une multiplication par des polynômes, grâce aux polynômes d’endomorphismes : ∀P ∈ K[X], ∀x ∈ E, P · x := P (f )(x). Le problème est que K[X] n’est pas un corps, donc on ne peut plus parler d’espace vectoriel. Ce que l’on obtient est un module sur l’anneau K[X]. Définition 1.1. — Soit A un anneau commutatif (1) . Un module sur l’anneau A (ou plus simplement A-module) est un groupe abélien (M, +) muni d’une loi externe · : A × M → M qui vérifie les axiomes suivants (les mêmes que pour les espaces vectoriels) : 1. a · (x + y) = a · x + a · y 2. (a + b) · x = a · x + b · x 3. (ab) · x = a · (b · x) 4. 1 · x = x pour tous (a, b) ∈ A2 et (x, y) ∈ M 2 . Remarque 1.2. — Soit M un A-module. La loi externe permet de définir une application µ : A → M M , a 7→ µa par µa (x) = a · x. Le premier axiome équivaut au fait que pour tout a ∈ A, µa est un endomorphisme du groupe M . Les axiomes 2, 3 et 4 équivalent quant à eux au fait que µ : A → End(M ) est un morphisme d’anneaux, où End(M ) est l’anneau des endomorphismes du groupe M , muni des opérations + et ◦. Comme la donnée de la loi externe ou de l’application µ sont équivalentes, on en déduit une autre définition pour les modules, plus compacte et parfois plus pratique à utiliser : Définition 1.1 bis. — Soit A un anneau commutatif. Un module sur l’anneau A est un groupe abélien (M, +) muni d’un morphisme d’anneaux µ : A → End(M ). Ce morphisme est appelé morphisme structural. Bien entendu, lorsque A est un corps, les notions de module et d’espace vectoriel sur A coïncident. On définit de la même manière que pour les espaces vectoriels les notions de sousmodules, applications linéaires, isomorphismes, familles libres, familles génératrices, 1. Pour simplifier, on ne considèrera ici que des modules sur des anneaux commutatifs. Dans le cas d’un anneau non commutatif, il faut faire la distinction entre module à gauche et module à droite. INVARIANTS DE SIMILITUDE 3 bases, sommes et sommes directes de sous-modules, produits de modules, modules quotients, etc. Exemple 1.3. — Tout anneau commutatif possède une structure intrinsèque de Amodule, avec la loi externe définie par a · b = a × b. Les sous-modules de A correspondent aux idéaux. Exemple 1.4. — Soient A un anneau commutatif, et soit B une A-algèbre commutative (un anneau commutatif muni d’un morphisme d’anneaux f : A → B). Tout B-module M possède une structure naturelle de A-module, obtenue en composant le morphisme structural par le morphisme f . Autrement dit, la loi externe A × M → M est définie par a · x := f (a) · x (2) . Par exemple, un C-espace vectoriel possède une structure naturelle de R-espace vectoriel. Cas particulier : toute A-algèbre B possède une structure naturelle de A-module (pour la loi externe a · b = f (a) × b). Par exemple, lorsque I est un idéal de A, la A-algèbre A/I est un A-module (qui correspond au quotient du module A par le sous-module I). Définition 1.5. — Un A-module M est dit cyclique lorsqu’il existe un idéal I 6= (0) tel que M est isomorphe à A/I. Exemple 1.6. — Le produit cartésien de modules est encore un module. Par exemple, Ar est un A-module, ainsi que A/I1 × · · · × A/Is , où les Ik sont des idéaux de A. À isomorphisme près, ce sont de tels modules qui vont nous intéresser. Exemple 1.7. — Tout groupe abélien (M, +) possède une unique structure de Zmodule (en effet, il existe un unique morphisme d’anneaux µ : Z → End(M )). La loi externe est définie par : si n ≥ 0, x + x + ··· + x {z } | n fois n·x= (−x) + · · · + (−x) si n < 0. {z } | |n| fois Réciproquement, tout Z-module est un groupe abélien, et ainsi les deux notions coïncident, ainsi que les notions d’applications Z-linéaires et de morphismes de groupes abéliens. De même, les Z-modules cycliques sont exactement les groupes cycliques. Exemple 1.8. — Soit f un endomorphisme d’un K-espace vectoriel E. On note µ : K → End(E) (3) le morphisme structural. D’après la propriété universelle des anneaux de polynômes, il existe un unique morphisme d’anneaux µ̃ : K[X] → End(E) qui prolonge µ et qui soit tel que µ̃X = f . Ce morphisme permet de munir E d’une structure de module sur l’anneau K[X] : ce module sera noté Ef (en tant que groupe 2. Dans le membre de gauche le point représente la loi externe de A-module, tandis que dans celui de droite il représente la loi de B-module. 3. Pour éviter toute confusion, on note End(E) les endomorphismes de groupe sur E, et EndK (E) les endomorphismes de K-espace vectoriel. Bien entendu, on a EndK (E) ⊂ End(E). INVARIANTS DE SIMILITUDE 4 abélien, Ef = E). Plus explicitement, le morphisme structural µ̃ envoie un polynôme P sur le polynôme d’endomorphisme P (f ), et donc la loi externe est définie par P · x = P (f )(x). Remarquons que la loi externe prolonge celle de K-espace vectoriel. De plus, les sous-modules de Ef correspondent aux sous-espaces vectoriels de E qui sont stables par f . Remarque 1.9. — Soit M un K[X]-module. Comme K[X] est une K-algèbre, M possède une structure naturelle de K-espace vectoriel : on note M ev l’espace vectoriel sous-jacent. L’application µX : M → M, x 7→ X · x définit un endomorphisme de cet espace vectoriel M ev , et le K[X]-module associé à cet endomorphisme n’est rien d’autre que le module M de départ : (M ev )µX = M . Le but de ce cours est d’étudier ce module Ef (lorsque E est de dimension finie) pour en déduire des informations sur la classe de similitude de f . Proposition 1.10. — Soient E et E 0 des K-espaces vectoriels, et soient f et f 0 des endomorphismes de ces espaces vectoriels. Les conditions suivantes sont équivalentes : 1. Les endomorphismes f et g sont conjugués, i.e. il existe un isomorphisme d’espaces vectoriels u : E → E 0 tel que f 0 = uf u−1 . 2. Les modules Ef et Ef0 0 sont isomorphes. En particulier lorsque E = E 0 , les endomorphismes f et f 0 sont semblables si et seulement si les modules Ef et Ef 0 sont isomorphes. Démonstration. — Supposons qu’il existe un isomorphisme d’espaces vectoriels u : E → E 0 tel que f 0 = uf u−1 . L’application u est aussi K[X]-linéaire vis-à-vis des structures de module sur Ef et Ef0 0 . En effet, on a pour tout entier k la relation u ◦ f k = f 0k ◦ u, qui se traduit par u(X k · x) = X k · u(x). Puis la linéarité par rapport à K implique que u(P · x) = P · u(x) pour tout P ∈ K[X]. La bijectivité de u implique que c’est un isomorphisme entre les modules Ef et Ef0 0 . Réciproquement, si u : Ef → Ef0 0 est un isomorphisme de modules, alors c’est en particulier un isomorphisme d’espaces vectoriels (être linéaire par rapport à K est plus faible qu’être linéaire par rapport à K[X]). La relation u(X · x) = X · u(x) se traduit par u(f (x)) = f 0 (u(x)) pour tout x ∈ E, autrement dit u ◦ f = f 0 ◦ u. Étudier les endomorphismes d’espace vectoriel à similitude près revient donc à étudier certains modules sur K[X] à isomorphisme près (on verra plus loin à quel type de modules on peut se restreindre). Voici deux exemples de K[X]-modules, qui vont constituer les "blocs de base" de notre étude. Exemple 1.11. — Soit P ∈ K[X] un polynôme unitaire de degré n, que l’on écrit Pn−1 P = X n + k=0 ak X k . On considère le K[X]-module K[X]/(P ). Ce module est en particulier un K-espace vectoriel (K[X] est une K-algèbre), dont une base est donnée par la famille (1, X, X 2 , · · · , X n−1 ) (4) . Considérons l’endomorphisme d’espace 4. On note Q la classe d’un polynôme Q modulo P . INVARIANTS DE SIMILITUDE 5 vectoriel suivant : µX : K[X]/(P ) → K[X]/(P ) Q 7→ X · Q = XQ. Dans la base ci-dessus, la matrice de µX est la matrice compagnon du polynôme P , définie par : 0 −a0 1 . . . −a1 .. . .. .. CP := . . . . . . 0 −a n−2 1 −an Proposition 1.12. — Soit f un endomorphisme d’un K-espace vectoriel E de dimension finie. Les conditions suivantes sont équivalentes : 1. le module Ef est cyclique ; 2. le module Ef soit isomorphe à K[X]/(P ), où P est le polynôme minimal de f ; 3. il existe une base de E dans laquelle la matrice de f est la matrice compagnon du polynôme minimal ; 4. il existe un vecteur x0 ∈ E tel que {Q(f )(x0 ) | Q ∈ K[X]} = E. Lorsqu’une de ces conditions est réalisée, on dit que f est un endomorphisme cyclique. Remarque 1.13. — En particulier, le degré du polynôme minimal d’un endomorphisme cyclique est égal à la dimension. On verra plus loin que cette propriété caractérise les endomorphismes cycliques. Démonstration. — 1 ⇒ 2 : Il existe un isomorphisme u : Ef → K[X]/I, où I est un idéal non nul de K[X]. L’idéal I est engendré par un unique polynôme unitaire P . Le polynôme P est un polynôme annulateur de f , car pour tout x ∈ Ef , on a P (f )(x) = P · x = u−1 (P · u(x)) = u−1 (P u(x)) = 0. En fait P est le polynôme minimal, car si Q(f ) = 0, on a 0 = Q · u−1 (1) = u−1 (Q), ce qui implique Q ∈ I. 2 ⇒ 3 : D’après la proposition 1.10, l’endomorphisme f est conjugué à l’endomorphisme µX sur K[X]/(P ) (5) : il existe un isomorphisme d’espaces vectoriels u : K[X]/(P ) → E tel que f = u ◦ µX ◦ u−1 . Dans la base (u(1), · · · , u(X n−1 )) (où n est le degré de P ), la matrice de f est donc la matrice compagnon CP . 3 ⇒ 4 : Soit (e1 , · · · , en ) une base dans laquelle la matrice de f est égale à CP . On a alors (e1 , · · · , en ) = (e1 , f (e1 ), · · · , f n−1 (e1 )). Tout vecteur x s’écrit comme combinaison linéaire de cette famille, donc comme un polynôme en f appliqué au vecteur e1 . 4 ⇒ 1 : On a un morphisme surjectif de K[X]-modules ϕ : K[X] → Ef , Q 7→ Q·x0 . D’après la propriété universelle des modules quotients, on a alors un isomorphisme 5. L’endomorphisme de K-espace vectoriel µX induit sur K[X]/(P ) la structure de K[X]-module usuelle. INVARIANTS DE SIMILITUDE 6 de modules entre Ef et K[X]/ ker(ϕ). Cet isomorphisme est en particulier un isomorphisme de K-espaces vectoriels, et on en déduit que ker(ϕ) 6= (0) (sinon E serait de dimension infinie). Le module Ef est donc cyclique. Exemple 1.14. — Soit n un entier positif, et soit λ ∈ K. Reprenons l’exemple précédent lorsque P = (X − λ)n , mais en prenant pour base du K-espace vectoriel K[X]/(P ) la famille ((X − λ)n−1 , (X − λ)n−2 , · · · , 1). La matrice de µX dans cette base est ce que l’on appelle un bloc de Jordan, défini par : λ 1 .. .. . . . Jn (λ) := .. . 1 λ L’intérêt de ce choix de base plutôt que celle de l’exemple 1.11 apparaîtra à la section 4. Avant de continuer, donnons un peu de vocabulaire spécifique aux modules. Définition 1.15. — Soit M un module sur un anneau commutatif A. On dit que M est de type fini lorsqu’il existe une famille génératrice finie. Attention : lorsque A n’est pas un corps, cela n’implique pas l’existence d’une base finie (comme dans le cadre des espaces vectoriels). En fait, certains modules (comme les modules cycliques) n’admettent aucune famille libre non vide. Définition 1.16. — Soit M un module sur un anneau commutatif A. On dit que M est libre lorsqu’il existe une base (pas nécessairement finie). Dans ce cas, toutes les bases sont équipotentes, et leur cardinal commun (6) est appelé rang du module. Remarque 1.17. — Lorsque A est un corps, tout A-module est libre (voir [2]). Démonstration succinte du fait que toutes les bases sont équipotentes : On admet le résultat lorsque A est un corps (voir [2]). Si A est l’anneau nul, c’est évident, car le seul module sur A est alors le module nul, dont la seule base est la base vide. Pour le cas général, soit I ⊂ A un idéal maximal (on montre son existence par le lemme de Zorn). On note K le corps A/I. Le A-module M/IM (7) admet une structure naturelle de K-espace vectoriel, et toute base (ei )i∈I de M en tant que Amodule donne une base (ei )i∈I de M/IM en tant que K-espace vectoriel : toutes ces bases sont donc équipotentes. Exemple 1.18. — Le module produit An (sur l’anneau A) est libre de rang n. En fait, tout A-module libre de rang n lui est isomorphe. 6. Celui-ci peut-être fini ou infini. 7. Lorsque M est un A-module et I un idéal de A, on note IM = {a · x | a ∈ I, x ∈ M } (c’est un sous-module de M ). Si I est engendré par un élément a, on note aM au lieu de IM . INVARIANTS DE SIMILITUDE 7 L’intérêt des modules libres de rang fini est de pouvoir représenter de manière unique les applications linéaires par des matrices, comme dans le cadre des espaces vectoriels. Ce point de vue est développé à la section suivante. Lorsque f est un endomorphisme sur un K-espace vectoriel E de dimension finie, le K[X]-module Ef est de type fini, car toute famille génératrice en tant que K-espace vectoriel est aussi génératrice en tant que K[X]-module. Il suffit donc, pour la suite, d’étudier les modules de type fini sur K[X]. 2. Modules de type fini sur un anneau euclidien Rappelons qu’un anneau euclidien est un anneau intègre (donc commutatif) qui admet une jauge euclidienne, c’est-à-dire une application δ : A\{0} → N telle que : 1. pour tout (a, b) ∈ (A\{0})2 , a|b =⇒ δ(a) ≤ δ(b) ; 2. pour tout (a, b) ∈ A × A\{0}, il existe (q, r) ∈ A2 , avec r = 0 ou δ(r) < δ(b), tel que a = bq + r. Par exemple, Z est euclidien pour la jauge δ(n) = |n|, et K[X] est euclidien pour la jauge δ(P ) = deg(P ). Rappelons que tout anneau euclidien est principal. Les résultats de cette section restent vrais si on travaille avec des anneaux principaux. Cependant, le cadre euclidien est ici suffisant. La démonstration du théorème 2.1 y est plus élémentaire, et elle est algorithmique, ce qui n’est pas le cas lorsque A est seulement principal. Dans toute cette section, A désignera un anneau euclidien, et δ sa jauge euclidienne. Théorème 2.1 (Facteurs invariants d’une matrice). — Soit B ∈ Mn,m (A). Il existe P ∈ GL n (A) et Q ∈ GLm (A) telles que la matrice P BQ soit de la forme D 0 (par blocs) , avec D = diag(d1 , · · · , dr ) pour un certain entier r, où les 0 0 scalaires di ∈ A\{0} sont non nuls et vérifient d1 |d2 | · · · |dr . De plus, les scalaires di sont uniques, àdes inversibles près :s’il existe P 0 ∈ GLn (A) diag(d01 , · · · , d0r0 ) 0 et Q0 ∈ GLm (A) telles que P 0 BQ0 = avec d01 | · · · |d0r0 6= 0, 0 0 alors r = r0 et (di ) = (d0i ) pour tout i. Les scalaires di sont appelés facteurs invariants de la matrice B. Démonstration. — On note (bi,j ) les coefficients de la matrice B. On démontre l’existence par double récurrence sur min(n, m) et sur δ(B) := min{δ(bi,j ) + 1 | bi,j 6= 0)} (avec la convention min(∅) = 0). On va appliquer à la matrice B des transfomations élémentaires sur les lignes (resp. sur les colonnes), ce qui revient à multiplier B à gauche (resp. à droite) par des matrices inversibles adéquates. Le résultat est acquis lorsque min(n, m) = 0, ou lorsque δ(B) = 0 (ce qui revient à dire que B est la matrice nulle). Dans la suite, on suppose que n, m ∈ N∗ et B 6= 0. Soit (i0 , j0 ) tel que δ(bi0 ,j0 ) + 1 = δ(B). Quitte à éventuellement inverser deux lignes et deux colonnes, on peut supposer que (i0 , j0 ) = (1, 1). INVARIANTS DE SIMILITUDE 8 Supposons qu’il existe un coefficient bi,1 sur la première colonne qui ne soit pas multiple de b1,1 . On effectue la division euclidienne de bi,1 par b1,1 : il existe des éléments q et r de A tels que bi,1 = qb1,1 + r, avec r 6= 0 et δ(r) < δ(b1,1 ). On effectue sur la matrice B l’opération élémentaire Li ← Li − qL1 , qui place le coefficient r en position (i, 1). On a donc une nouvelle matrice B 0 avec δ(B 0 ) ≤ δ(r) + 1 < δ(B) : on peut donc appliquer l’hypothèse de récurrence à B 0 . S’il existe un coefficient b1,j sur la première ligne qui ne soit pas multiple de b1,1 , on procède de même, en agissant sur la colonne j au lieu de la ligne i. On peut donc supposer que tous les coefficients de la première ligne et de la première colonne sont nuls, à l’exception du premier. En effectuant les opérations Li ← Li − b1,j bi,1 i, j > 1, on se ramène au cas où la matrice B est de b1,1 L1 et Cj ← Cj − b1,1 C1 pour b 0 la forme (par blocs) 1,1 , avec δ(b1,1 ) + 1 ≤ δ(B 0 ). 0 B0 Supposons maintenant qu’il existe un coefficient a de la sous-matrice B 0 qui ne soit pas un multiple de b1,1 , en position (i, j) de la matrice B. En effectuant C1 ← C1 + Cj (qui ramène le coefficient a en position (i, 1)), puis Li ← Li − qL1 (où q est le quotient de la division euclidienne de a par b1,1 ), on obtient en position (i, 1) un coefficient dont la jauge est strictement inférieure à b1,1 . On applique alors l’hypothèse de récurrence à cette nouvelle matrice. On peut donc supposer que b1,1 divise tous les coefficients de la sous-matrice B 0 . On applique alors l’hypothèse de récurrence à cette sous-matrice : il existe P 0 ∈ GLn−1 (A) et Q0 ∈ GLm−1 (A) telles P 0 B 0 Q0 soit que de la forme voulue. On forme alors les 1 0 1 0 b1,1 0 matrices par blocs P = et Q = , et on a P BQ = , 0 P0 0 Q0 0 P 0 B 0 Q0 avec b1,1 qui divise les coefficients de la matrice P 0 B 0 Q0 . Pour montrer l’unicité des facteurs invariants, il suffit de remarquer que le produit Qk i=1 di est nécessairement un pgcd des mineurs de taille k de la matrice M , où l’on a posé di = 0 pour i > r. Pour plus de détails, voir [1]. Théorème 2.2 (Théorème de la base adaptée). — Soit M un A-module libre de rang fini n, et soit N un sous-module de M . Il existe une base (e1 , · · · , en ) de M et des scalaires d1 , · · · , dr non nuls de A, avec r ≤ n et d1 |d2 | · · · |dr , tels que la famille (d1 e1 , · · · , dr er ) soit une base de N . De plus, les scalaires di sont uniques à des inversibles près : s’il existe une base (e01 , · · · , e0n ) de M telle que (d01 e01 , · · · , d0r0 e0r0 ) soit une base de N , avec d01 | · · · |d0r0 6= 0, alors r = r0 et (di ) = (d0i ) pour tout i. Lemme 2.3. — Soit M un A-module libre de rang fini n, et soit N un sous-module de M . Alors N est libre, de rang au plus n. Démonstration du lemme 2.3. — On procède par récurrence sur n. Le résultat est acquis lorsque n = 0. On suppose le résultat vrai au rang n. Soit M un module libre de rang n + 1, et soit N un sous-module de M . Quitte à appliquer un isomorphisme, on peut supposer que M = An+1 . Soit ϕ : An+1 → A la forme linéaire définie par ϕ(a0 , · · · , an ) = a0 . Soit M 0 le noyau de ϕ, et soit N 0 = N ∩ M 0 . Comme M 0 = {0} × An ' An est libre INVARIANTS DE SIMILITUDE 9 de rang n, on peut appliquer l’hypothèse de récurrence au sous-module N 0 ⊂ M 0 : N 0 admet une base (e1 , · · · , en0 ), avec n0 ≤ n. Soit I = f (N ) : c’est un idéal de A, engendré par un élément a0 ∈ A (car A est principal). Si a0 = 0, alors N ⊂ ker(ϕ) = M 0 , donc N = N 0 est libre de rang n0 ≤ n ≤ n + 1. Supposons à partir de maintenant que a0 6= 0, et prenons un élément e0 ∈ N tel que ϕ(e0 ) = a0 . On a alors la décomposition en somme directe N = Ae0 ⊕ N 0 (8) . En effet, pour tout x ∈ N , il existe λ ∈ A tel que ϕ(x) = λa0 , et x s’écrit alors : x = λ · e0 + (x − λ · e0 ) . | {z } | {z } ∈Ae0 ∈N 0 =N ∩ker(ϕ) D’autre part, si x = λ · e0 ∈ Ae0 ∩ N 0 , alors ϕ(x) = 0 = λa0 donc λ = 0 (A est intègre) et x = 0. On déduit de cette décomposition en sous-modules supplémentaires que la famille (e0 , e1 , · · · , en0 ) est une base de N 0 , de cardinal n0 + 1 ≤ n + 1. Démonstration du théorème de la base adaptée. — D’après le lemme 2.3, le sous-module N est libre de rang r ≤ n. Soit B la matrice de l’inclusion i : N → M dans deux bases quelconques A et B de N et M . D’après le théorème 2.1, il existe deux −1 matrices P ∈ GLn (A) et Q∈ GLr (A) telles que la matrice P BQ s’écrive par blocs diag(d1 , · · · , ds ) 0 D = avec d1 | · · · |ds 6= 0. Si A0 (resp. B 0 ) est la base de N 0 0 (resp. de M ) telle que Q (resp. P ) soit la matrice de passage de A à A0 (resp. de B à B 0 ), alors D est la matrice de i dans les bases A0 et B 0 . Autrement dit, si l’on note (e1 , · · · , en ) les vecteurs de la base B 0 , alors la base A0 de N est constituée des vecteurs (d1 e1 , · · · , ds es ) (en particulier on a r = s). L’unicité des (di ) découle de effet, deux celle dans le théorème 2.1 : en bases adapdiag(d1 , · · · , dr ) diag(d01 , · · · , d0r ) tées induisent deux matrices et qui sont équi0 0 valentes (pour l’action du groupe produit GLr (A) × GLn (A)). Exemple 2.4. — Soit M le Z-module Z3 , et soit N le sous-module engendré par les vecteurs v1 = (2, 6, −8) et v2 = (−4, 4, 12). La famille A = (v1 , v2 ) est une base de N (elle est libre dans Z3 , et génératrice par définition de N ). Notons B la base canonique de M . La matrice de l’inclusion i : N → M dans les bases A et B est : 2 −4 4 . B= 6 −8 12 En appliquant successivement les transformations L2 ← L2 − 3L1 , L3 ← L3 + 4L1 , C2 ← C2 + 2C1 , L2 ↔ L3 et L3 ← L3 + 4L2 , on obtient la matrice : 2 0 B 0 = 0 −4 . 0 0 8. Pour x ∈ M , on note Ax le sous-module de M engendré par x. INVARIANTS DE SIMILITUDE 10 Autrement dit, si l’on note Q ∈ GL2 (Z) la matrice obtenue à partir de I2 en appliquant C2 ← C2 + 2C1 , et P ∈ GL3 (Z) la matrice obtenue à partir de I3 en appliquant dans l’ordre inverse les transformations inverses sur les lignes, c’est-à-dire, les transformations L3 ← L3 − 4L2 , L2 ↔ L3 , L2 ← L2 + 3L1 , L3 ← L3 − 4L1 (les deux dernières opérations commutent), on a la relation B 0 = P −1 BQ. Un rapide calcul montre que : 1 0 0 P = 3 −4 1 . −4 1 0 Ainsi, si l’on pose e1 = (1, 3, −4), e2 = (0, −4, 1) et e3 = (0, 1, 0), la matrice P est la matrice de passage la base canonique B à la base B 0 = (e1 , e2 , e3 ). La démonstration du théorème de la base adaptée montre alors que la famille (2e1 , 4e2 ) est une base du sous-module N . Théorème 2.5 (Théorème de structure). — Soit M un A-module de type fini. Il existe r ∈ N, d1 , · · · , ds ∈ A non nuls et non inversibles, avec d1 | · · · |ds , tels qu’on ait un isomorphisme : A A × ··· × . M ' Ar × (d1 ) (ds ) Qs0 0 De plus, l’entier r et les idéaux (di ) sont uniques : si M ' Ar × i=1 A/(d0i ) avec d01 | · · · |d0s0 non nuls et non inversibles, on a r = r0 , s = s0 et (di ) = (d0i ) pour tout i. L’entier r est appelé rang du module M , et les scalaires di sont appelés facteurs invariants de M . Démonstration de l’existence (l’unicité sera montrée à la section 6) : Soit (g1 , · · · , gn ) une famille génératrice de M , de cardinal minimal. L’application linéaire An → M Pn ϕ: (a1 · · · , an ) 7→ i=1 ai gi n est surjective, donc M ' A / ker(ϕ). D’après le théorème de la base adaptée, il existe une base (e1 , · · · , en ) de An , ainsi que des scalaires non nuls d1 | · · · |ds tels que la famille (d1 e1 , · · · , ds es ) soit une base du sous-module ker(ϕ). On a alors les isomorphismes suivants : A A Ae1 ⊕ · · · ⊕ Aes ⊕ Aes+1 ⊕ · · · ⊕ Aen ' × ··· × × An−s M' Ad1 e1 ⊕ · · · ⊕ Ads es ⊕ {0} ⊕ · · · ⊕ {0} (d1 ) (ds ) (le dernier isomorphisme provient du lemme 2.6). Comme on a supposé que la famille (g1 · · · , gn ) était de cardinal minimal, alors aucun des di ne peut être inversible : en effet, si d1 ∈ A× , alors e1 ∈ ker(ϕ) et M est engendré par la famille (ϕ(e2 ), · · · , ϕ(en )). Lemme 2.6. — Soient M un A-module, M1 et M2 des sous-modules de M en somme directe, et N1 et N2 ds sous-modules respectivement de M1 et M2 . On a alors un isomorphisme : M1 ⊕ M2 M1 M2 ' × . N1 ⊕ N2 N1 N2 INVARIANTS DE SIMILITUDE 11 Démonstration du lemme 2.6. — Comme M1 et M2 sont en somme directe, on a un isomorphisme entre M1 ⊕ M2 et M1 × M2 , que l’on peut composer par les morphismes canoniques de passage au quotient : on obtient ainsi une surjection M1 ⊕ M2 → M1 /N1 ×M2 /N2 . Le noyau de cette surjection est exactement le sous-module N1 ⊕N2 , d’où l’isomorphisme recherché. Dans le cas où l’anneau A est égal à Z, on obtient un théorème de structure pour les groupes abéliens : Corollaire 2.7. — Soit G un groupe abélien de type fini. Il existe un entier r ∈ N, ainsi que des entiers d1 , · · · , ds ≥ 2 avec d1 | · · · |ds , tels que G ' Zr × Z Z × ··· × . d1 Z ds Z De plus, les entiers r, d1 · · · , ds sont uniques. 3. Invariants de similitude et réduction de Frobénius Soit E un K-espace vectoriel de dimension n, et soit f ∈ EndK (E). Appliquons le théorème de structure au module Ef : il existe un entier r et des polynômes Qs P1 , · · · , Ps unitaires non constants avec P1 |P2 | · · · |Ps tels que Ef ' K[X]r × i=1 K[X]/(Pi ). Comme E est de dimension finie, on a nécessairement r = 0, et donc Ef ' K[X] K[X] × ··· × . (P1 ) (Ps ) Définition 3.1. — Les polynômes P1 , · · · , Ps ci-dessus sont appelés invariants de similitude de f . De manière similaire, on parlera aussi des invariants de similitude d’une matrice carrée. Remarque 3.2. — L’endomorphisme f est cyclique si et seulement s’il n’y a qu’un seul invariant de similitude (grâce à l’unicité dans le théorème de structure). Proposition 3.3. — Soit E un K-espace vectoriel de dimension finie. Deux endomorphismes f et f 0 de E sont semblables si et seulement si leurs invariants de similitude sont les mêmes. Démonstration. — En effet, f et f 0 sont semblables si et seulement si Ef ' Ef 0 , ce qui équivaut à ce que les modules Ef et Ef 0 aient les mêmes facteurs invariants. Théorème 3.4 (Réduction de Frobénius). — Soit E un K-espace vectoriel de dimension finie, et soit f ∈ EndK (E). On note P1 , · · · , Ps ses invariants de similitude. Il existe des sous-espaces stables E1 , · · · Es tels que 1. E = E1 ⊕ · · · ⊕ Es ; 2. pour tout i, l’endomorphisme f|Ei est cyclique de polynôme minimal Pi . 12 INVARIANTS DE SIMILITUDE Autrement dit, il existe une base de E dans laquelle la matrice de f s’écrive : CP1 .. . . CPs Qs ) un isomorphisme de modules. Démonstration. — Soit u : Ef → i=1 K[X]/(PiQ s Pour k ∈ {1, · · · , s}, on note Ek0 = {(x1 , · · · , xs ) ∈ i=1Q K[X]/(Pi ) | xi = 0L ∀i 6= k}. s s 0 On a la décomposition en somme directe de sous-modules K[X]/(P ) = i i=1 Ei , Ls i=1 −1 0 donc si l’on note Ei = u (Ei ), on a également E = i=1 Ei . Les Ei sont des sousmodules de Ef , donc des sous-espaces stables par f . En tant que K[X]-module, on a Ei ' Ei0 ' K[X]/(Pi ), donc f|Ei est cyclique de polynôme minimal Pi . Pour avoir une base dans laquelle la matrice de f est diag(CP1 , · · · , CPs ), il suffit de prendre une base de chaque Ei dans laquelle la matrice de f|Ei est CPi , puis de regrouper les bases ainsi obtenues. Remarque 3.5. — La réduction de Frobénius caractérise les invariants de similitude : s’il existe une décomposition en sous-espaces stables E = E1 ⊕ · · · ⊕ Es , avec f|Ei cyclique de polynôme minimal Pi , et P1 |P2 | · · · |Ps , alors les polynômes P1 , · · · , Ps sont nécessairement les invariants de similitude de f . En effet, une telle décomposition implique Ef ' K[X]/(P1 ) × · · · × K[X]/(Ps ). Proposition 3.6. — Soit E un K-espace vectoriel de dimension finie, et soit f un endomorphisme de E. On note P1 , · · · , Ps ses invariants de similitude. Alors : 1. le polynôme minimal de f est égal à Ps ; 2. le polynôme caractéristique det(X idE −f ) ∈ K[X] (9) est égal à Qs i=1 Pi . Démonstration. — On a une décomposition en sous-espaces stables E = E1 ⊕· · ·⊕Es , où Pi est le polynôme minimal de f|Ei . On en déduit que le polynôme minimal de f est alors le ppcm des polynômes Pi , qui est égal à Ps . Qs Pour le polynôme caractéristique, on a det(X idE −f ) = i=1 det(X idEi −f|Ei ). Or le polynôme caractéristique de f|Ei est un polynôme unitaire qui est un mutliple du polynôme minimal Pi (d’après le théorème de Cayley-Hamilton), et de Qsmême degré que celui-ci. On a donc det(X idEi −f|Ei ) = Pi , puis det(X idE −f ) = i=1 Pi . Remarque 3.7. — En particulier, on a montré que le polynôme caractéristique de la matrice compagnon CP est égal à P . Cette propriété peut également se montrer par un simple calcul, par récurrence sur la taille de la matrice (voir par exemple [3]). Corollaire 3.8. — Soit E un K-espace vectoriel de dimension n, et soit f un endomorphisme de E. Alors f est cyclique si et seulement si son polynôme minimal est de degré n. 9. On choisit ici la convention qui correspond à prendre le polynôme caractéristique unitaire. INVARIANTS DE SIMILITUDE 13 Démonstration. — L’implication directe a déjà été montrée. Pour l’implication réciPs proque : soient P1 , · · · , Ps les invariants de similitude de f . On a n = i=1 deg(Pi ) = deg(Ps ), car Ps est le polynôme minimal. Comme deg(Pi ) > 0 pour tout i, on en déduit que s = 1, et donc f est cyclique. Exemple 3.9. — Cherchons toutes les classes de similitude de matrices de M5 (R) dont le polynôme caractéristique est (X 2 −2)(X−1)3 . Q Soit M une telle matrice. Notons s P1 , · · · , Ps ses invariants de similitude. On sait que i=1 Pi = (X 2 − 2)(X − 1)3 (et que P1 | · · · |Ps ), ce qui laisse 3 possibilités pour la liste (P1 , · · · , Ps ) : 1. s = 1 et P1 = (X 2 − 2)(X − 1)3 (cas où la matrice est cyclique) ; 2. s = 2, P1 = X − 1 et P2 = (X 2 − 2)(X − 1)2 ; 3. s = 3, P1 = P2 = X − 1 et P3 = (X 2 − 2)(X − 1). On a donc trois classes de similitude, et pour chacune d’entre elles, un élément de cette classe est donné par la matrice diag(CP1 , · · · , CPs ). Par exemple, dans le deuxième cas, on trouve la matrice : 1 0 0 0 0 0 0 0 0 2 0 1 0 0 −4 . 0 0 1 0 1 0 0 0 1 2 Exemple 3.10. — Cherchons toutes les classes de similitude de matrices de M5 (R) dont le polynôme minimal est (X − 2)3 . Soit M une telle matrice. PsNotons P1 , · · · , Ps ses invariants de similitude. On sait que Ps = (X − 2)3 et que i=1 deg(Pi ) = 5, ce qui laisse 2 possibilités pour la liste (P1 , · · · , Ps ) : 1. s = 2, P1 = (X − 2)2 et P2 = (X − 2)3 ; 2. s = 3, P1 = P2 = X − 2 et P3 = (X − 2)3 . On a donc deux classes de similitude, caractérisées par leurs invariants de similitude. Exemple 3.11. — Parfois, le nombre de classes de similitude de polynôme caractéristique ou minimal fixé dépend du corps sur lequel on regarde les matrices. Par exemple, cherchons les classes de similitude de matrices de M4 (K) dont le polynôme caractéristique est (X 2 + 2)2 . Lorsque K = R, les listes d’invariants de similitude (P1 , · · · , Ps ) possibles sont : 1. s = 1 et P1 = (X 2 + 2)2 ; 2. s = 2 et P1 = P2 = (X 2 + 2). Lorsque K = C, on a en plus de celles-ci deux nouvelles possibilités : 1. s = 2, P1 = X − i et P2 = (X − i)(X + i)2 ; 2. s = 2, P1 = X + i et P2 = (X − i)2 (X + i). Voici maintenant comment on peut calculer de manière algorithmique les invariants de similitude : 14 INVARIANTS DE SIMILITUDE Proposition 3.12. — Soit M ∈ Mn (K). Les invariants de similitude de la matrice M sont les facteurs invariants non inversibles de la matrice XIn −M ∈ Mn (K[X]). Démonstration. — Soient P1 , · · · , Ps les invariants = de similitude de M . On pose ni XIn1 − CP1 .. deg(Pi ). La matrice XIn − M est semblable à , . XIn − CPs Pn−1s donc il suffit de montrer que pour tout polynôme unitaire P = X n + i=1 ai X i , les facteurs invariants de la matrice X a0 −1 X a1 . . . . . . ∈ Mn (K[X]) . . . XIn − CP = .. . X an−2 −1 an−1 + X sont 1, · · · , 1, P . On applique d’abord la transformation L1 ← L1 + 0 ··· ··· 0 P −1 X a1 . . . .. .. .. . . .. X an−2 −1 an−1 + X Pn i=2 X i−1 Li : On applique ensuite, dans l’ordre, les transformations C2 ← C2 + XC1 , puis C3 ← C3 + XC2 , etc. jusqu’à Cn ← Cn + XCn−1 : 0 ··· ··· 0 P .. −1 0 . a1 .. .. . .. .. . . . . . . . 0 an−2 −1 an−1 En appliquant Cn ← Cn + Pn−1 i=1 0 −1 ai Ci , on obtient : ··· 0 .. . ··· .. . .. . 0 .. . .. . 0 −1 P 0 .. . . .. . 0 INVARIANTS DE SIMILITUDE 15 Enfin, par un échange de lignes adéquat, on obtient la matrice −1 .. . , −1 P qui nous donne les facteurs invariants attendus. Comme une matrice et sa transposée ont les mêmes facteurs invariants, on en déduit : Corollaire 3.13. — Toute matrice M ∈ Mn (K) est semblable à sa transposée tM . On en déduit aussi : Corollaire 3.14. — Deux matrices M et M 0 ∈ Mn (K) sont semblables si et seulement si les matrices XIn − M et XIn − M 0 sont équivalentes dans Mn (K[X]) (pour la relation M ∼ M 0 ⇔ ∃(P, Q) ∈ GLn (K[X]), M 0 = P −1 M Q). 4. Lien avec la décomposition de Jordan Le but de cette partie est de voir comment l’on peut retrouver la décomposition de Jordan à partir de celle de Frobénius. Commençons avec un résultat général sur les modules de type fini sur un anneau euclidien : Théorème 4.1 (Décomposition primaire). — Soit M un module de type fini sur un anneau euclidien A. Il existe un entier r ∈ N, des éléments irréductibles p1 , · · · , pk ∈ A et des entiers n1 , · · · , nk ∈ N∗ tels qu’on ait un isomorphisme : M ' Ar × A A . n1 × · · · × (p1 ) (pnk k ) De plus, l’entier r, ainsi que les idéaux (pni i ) qui apparaissent dans cette décomposition sont uniques, à permutation près. Démonstration de l’existence (l’unicité sera montrée à la section Qs6) : D’après le théorème de structure, M est isomorphe à Ar × i=1 (dAi ) . Comme les Qki ni,j anneaux euclidiens sont factoriels, chaque di s’écrit j=1 pi,j , où les pi,j sont des irréructibles deux à deux non liés. Le théorème chinois nous donne un isomorphisme Qki n de A-algèbres (donc de A-modules) entre A/(di ) et j=1 A/(pi,ji,j ). En regroupant les facteurs obtenus pour chaque A/(di ), on obtient l’existence de la décomposition primaire. INVARIANTS DE SIMILITUDE 16 Théorème 4.2 (Réduction de Jordan). — Soit E un K-espace vectoriel de dimension finie, et soit f ∈ EndK (E). On suppose que le polynôme caractéristique de f est scindé. Il existe alors une base de E dans laquelle la matrice de f s’écrit par blocs : (1) Jn1 (λ1 ) .. . . Jnk (λk ) De plus, on a unicité de cette réduction, à permutation près des blocs. Remarque 4.3. — En particulier, on retrouve le fait que les endomorphismes ayant un polynôme caractéristique scindé sont trigonalisables, la réciproque étant évidente. Démonstration. — On écrit la décomposition primaire de Ef : il existe un isomorQk phisme de modules u : Ef → i=1 K[X]/(Pini ), où Pi est un polynôme irréductible unitaire (il n’y a pas de facteur K[X]r , car E est de dimension finie). Une matrice de n CP1 1 Qk n .. f est , donc le polynôme caractéristique est i=1 Pi i . Comme . C P nk k celui-ci est scindé, chaque Pi est de la forme X − λi . On prend comme base du sous-espace vectoriel correspondant à K[X]/((X − λi )ni ) la famille qui correspond à ((X − λi )ni −1 , (X − λi )ni −2 , · · · , 1), puis on réunit ces bases : on obtient alors la forme voulue pour la matrice de f . Pour l’unicité : si f admet une matrice de la forme (1), on a nécessairement Ef ' Qk ni i=1 K[X]/((X −λi ) ). L’unicité découle alors de celle de la décomposition primaire. On a un moyen effectif de passer de la réduction de Frobénius à celle de Jordan (pour les endomorphismes trigonalisables), décrite dans la preuve du théorème 4.1 : Qk on décompose chaque invariant de similitude en un produit i=1 (X −λi )ni , qui donne lieu à des blocs de Jordan Jni (λi ), puis on réunit tous les blocs obtenus avec tous les invariants de similitude. Par exemple, si les invariants de similitude sont P1 = (X −1), P2 = (X − 1)2 (X − 2)2 et P3 = (X − 1)2 (X − 2)4 (X − 3), la forme de Jordan est diag(J1 (1), J2 (1), J2 (1), J2 (2), J4 (2), J1 (3)). Remarque 4.4. — Si le polynôme minimal est scindé à racines simples, tous les invariants de similitude le sont également, donc tous les blocs de Jordan obtenus sont de taille 1 : on retrouve ainsi le fait que f est diagonalisable lorsqu’il est annulé par un polynôme scindé à racines simples. INVARIANTS DE SIMILITUDE 17 De manière inverse, on peut retrouver les invariants de similitude à partir de la réduction de Jordan. Ce sera plus clair sur un exemple. Soit M la matrice J2 (1) J1 (1) . J (2) 3 J3 (2) J1 (2) On a ici : (K5 )M K[X] K[X] K[X] K[X] K[X] × × × × ((X − 1)2 ) ((X − 2)3 ) (X − 1) ((X − 2)3 ) (X − 2) | {z } | {z } | {z } K[X] K[X] K[X] ' × × ((X − 1)2 (X − 2)3 ) ((X − 1)(X − 2)3 ) (X − 2) ' (le deuxième isomorphisme est obtenu grâce au théorème chinois). Les invariants de similitude sont donc P1 = (X − 2), P2 = (X − 1)(X − 2)3 et P3 = (X − 1)2 (X − 2)3 (car on a la relation de divisibilité P1 |P2 |P3 ). Remarque 4.5. — Si M est diagonalisable, ses blocs de Jordan sont tous de taille 1, donc les invariants de similitude sont tous scindés à racines simples. On retrouve ainsi le fait que le polynôme minimal d’un endomorphisme diagonalisable est scindé à racines simples. 5. Applications 5.1. Matrices semblables et extensions de corps. — On note K ⊂ L une extension de corps. Proposition 5.1. — Soit M ∈ Mn (K). On note P1 , · · · , Ps ses invariants de similitude en tant que matrice de Mn (K), et Q1 , · · · , Qs0 ses invariants de similitude en tant que matrice de Mn (L). On a alors (P1 , · · · , Ps ) = (Q1 , · · · , Qs0 ). En particulier, les polynômes Q1 , · · · , Qs0 sont dans K[X]. On peut donc parler des invariants de similitude d’une matrice, sans préciser le corps sur lequel on se place. Démonstration. — D’après le théorème de réduction de Frobénius, il existe une matrice U ∈ GLn (K) telle que U M U −1 = diag(CP1 , · · · , CPs ). Cette égalité de matrices a également Qslieu dans Mn (L), d’où l’on déduit un isomorphisme de L[X]-modules (Ln )M ' i=1 L[X]/(Pi ). Comme la relation de divisibilité entre les polynômes Pi reste valable dans L[X], on en déduit que les Pi sont les facteurs invariants du module (Ln )M , c’est-à-dire les invariants de similitude de M vue comme matrice à coefficients dans L. Corollaire 5.2. — Soit M ∈ Mn (L). La matrice M est semblable à une matrice de Mn (K) si et seulement si ses invariants de similitude sont dans K[X]. INVARIANTS DE SIMILITUDE 18 Démonstration. — Le sens direct est évident. Notons P1 , · · · , Ps les invariants de similitude de M . La matrice M est semblable à diag(CP1 , · · · , CPs ), et lorsque les Pi sont dans K[X], cette matrice est à coefficients dans K. Exemple 5.3. — Soient i 0 M1 = 0 0 M1 et M2 les matrices complexes suivantes : 1 0 0 i 1 0 0 i 0 0 0 , M2 = 0 i 0 0 0 −i 1 . 0 −i 0 0 0 −i 0 0 0 −i On a : (C4 )M1 ' C[X] C[X] C[X] C[X] C[X] × × ' × , 2 2 ((X − i) ) (X + i) (X + i) ((X − i) (X + i)) (X + i) donc les invariants de similitude de M1 sont P1 = X + i et P2 = (X − i)2 (X + i) = X 3 − iX 2 + X − i. Comme ils ne sont pas dans R[X], M1 n’est pas semblable à une matrice réelle. En revanche, pour M2 , on a : (C4 )M2 ' C[X] C[X] C[X] C[X] × ' = , 2 2 2 2 ((X − i) ) ((X + i) ) ((X − i) (X + i) ) ((X + 1)2 ) donc la matrice M2 est cyclique, d’unique invariant de similitude P1 = (X 2 + 1)2 = X 4 + 2X 2 + 1 ∈ R[X] : M2 est alors semblable à la matrice réelle suivante : 0 0 0 −1 1 0 0 0 0 1 0 −2 . 0 0 1 0 Corollaire 5.4. — Soient M et N des matrices de Mn (K). On suppose que M et N sont semblables dans Mn (L). Alors elles sont semblables dans Mn (K). Démonstration. — Comme M et N sont semblables dans Mn (L), elles ont les mêmes invariants de similitude dans L[X], qui sont en fait dans K[X]. On en déduit que M et N sont semblables dans Mn (K). Dans le cas où l’extension K ⊂ L est de degré fini (i.e. dimK (L) < +∞) et le corps K est infini (par exemple R ⊂ C), ce résultat admet une démonstration indépendante de la théorie des invariants de similitude, que voici : Fixons (e1 · · · , ed ) une base de L en tant qu’espace vectoriel sur K. On sait qu’il existe une matrice U ∈ GLn (L) telle que M U = U N . On décompose la matrice U dans la base (e1 , · · · , ed ) : il existe (U1 , · · · , Ud ) ∈ Mn (K) tel que U = e1 U1 + · · · + ed Ud . On a donc les relations M Ui = Ui N pour tout i ∈ {1, · · · , d}. Par contre, on ne sait pas si les matrices Ui sont inversibles. Soit F = det(X1 U1 + · · · + Xd Ud ) ∈ K[X1 · · · , Xd ]. Le polynôme F est non nul, car il est non nul dans L[X1 , · · · , Xd ] (sa valeur en (e1 , · · · , ed ) est det(P ) 6= 0). Comme K est un corps infini, il existe donc un d-uplet (t1 , · · · , td ) ∈ Kd tel que F (t1 , · · · , td ) 6= 0. On en déduit que la matrice INVARIANTS DE SIMILITUDE 19 U 0 = t1 U1 + · · · td Ud est inversible, et l’on a M U 0 = U 0 N . Les matrices M et N sont ainsi semblables dans Mn (K). 5.2. Similitude en petite dimension. — Proposition 5.5. — Soit E un K-espace vectoriel de dimension n ≤ 3, et soient f et g des endomorphismes de E. On suppose que f et g ont même polynôme minimal et même polynôme caractéristique. Alors f et g sont semblables. Remarque 5.6. — Cerésultat n’estplus vrai dès que dim(E) ≥ 4, comme le montre 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 0 4 l’exemple des matrices 0 0 0 1 et 0 0 0 0, qui ont toutes les deux X 0 0 0 0 0 0 0 0 comme polynôme caractéristique et X 2 comme polynôme minimal. Démonstration. — On note P le polynôme minimal commun de f et g, et Q le polynôme caractéristique. Si deg(P ) = n, alors f et g sont cycliques de polynôme minimal P , donc semblables (ils admettent tous les deux CP pour matrice dans une certaine base). Si deg(P ) = 1, le polynôme P est irréductible, donc les invariants de similitude de f et de g sont nécessairement P, P, P : ils sont donc semblables. En fait, P est de la forme X − λ, et f et g sont tous deux égaux à l’homothétie de rapport λ. Supposons maintenant que 1 < deg(P ) < n. On a nécessairement n = 3 et deg(P ) = 2. Le polynôme R = Q/P est alors de degré 1, et les invariants de similitude de f et g sont nécessairement R, P . Là encore, on en déduit que f et g sont semblables. Remarque 5.7. — On a en fait montré un résultat plus fort lorsque dim(E) ≤ 2 : deux endomorphismes qui ont le même polynôme minimal sont semblables. 5.3. Commutant d’un endomorphisme. — Soit E un K-espace vectoriel de dimension finie, et soit f ∈ EndK (E). On définit le commutant de f : Com(f ) = {g ∈ EndK (E) | g ◦ f = f ◦ g}. On note également K[f ] la sous K-algèbre de Com(f ) engendrée par f , c’est-à-dire : K[f ] = {Q(f ) | Q ∈ K[X]} ⊂ Com(f ). Remarque 5.8. — Les éléments de Com(f ) correspondent aux endomorphismes du module Ef . Ceux de K[f ] correspondent aux endomorphismes de Ef qui s’écrivent µQ , pour un certain Q ∈ K[X]. Théorème 5.9. — On a l’égalité K[f ] = Com(f ) si et seulement si f est un endomorphisme cyclique. INVARIANTS DE SIMILITUDE 20 Démonstration. — Supposons que f soit cyclique. Il existe alors un vecteur x0 ∈ E qui engendre le K[X]-module Ef . Soit g ∈ Com(f ). Il existe Q ∈ K[X] tel que g(x0 ) = Q · x0 . Pour tout x ∈ Ef , il existe P ∈ K[X] tel que x = P · x0 , et on a alors : g(x) = g(P · x0 ) = P · g(x0 ) = P · (Q · x0 ) = (P Q) · x0 = Q · (P · x0 ) = Q · x. On en déduit que g = Q(f ) ∈ K[f ], et donc Com(f ) = K[f ]. Réciproquement, supposons que K[f ] = Com(f ). On écrit la réduction de Frobénius de f : E = E1 ⊕ · · · ⊕ Es , avec fi = f|Ei cyclique de polynôme minimal Pi , et P1 | · · · |Ps . Soit g ∈ Com(f ) la projection sur E1 ⊕ · · · ⊕ Es−1 parallèlement à Es . Par hypothèse, il existe Q ∈ K[X] tel que g = Q(f ). Pour tout x ∈ Es , on a : 0 = g(x) = Q(f )(x) = Q(fs )(x). Le polynôme Q est donc un multiple du polynôme minimal Ps de fs , qui est aussi le polynôme minimal de f . On en déduit que g = Q(f ) = 0, et donc E1 ⊕ · · · ⊕ Es−1 = {0}. Autrement dit, E = Es et f est cyclique. 6. Unicité de la décomposition primaire Dans toute cette section, A désigne un anneau euclidien. On fixe Σ un système d’irréductibles de A (par exemple pour A = K[X], on prend pour Σ l’ensemble des polynômes irréductibles unitaires). Soit M un A-module de type fini, et soit Y Y A vp,n Ar × (pn ) ∗ p∈Σ n∈N une décomposition primaire de M , où (vp,n )p∈Σ, n∈N∗ est une famille presque nulle d’entiers positifs. Le but est de caractériser l’entier r et la suite (vp,n ) par des invariants de M , ce qui montrera l’unicité de la décomposition primaire. La première étape est de caractériser r. Définition 6.1. — Soit M un A-module. On appelle sous-module de torsion de M le sous-module suivant : T (M ) = {x ∈ M | ∃a ∈ A\{0}, a · x = 0}. On dit que M est sans torsion lorsque T (M ) = {0}. Remarque 6.2. — T (M ) est bien un sous-module. En effet, soient (x, y) ∈ T (M )2 et (λ, µ) ∈ A2 . Il existe a, b ∈ A\{0} tels que a · x = 0 et b · y = 0. On a alors ab · (λ · x + µ · y) = 0, et ab 6= 0 car A est intègre, donc λ · x + µ · y ∈ T (M ). Proposition 6.3. — Soient M et N des A-modules. On a : 1. M ' N =⇒ T (M ) ' T (N ) et M/T (M ) ' N/T (N ) ; 2. T (M × N ) = T (M ) × T (N ). Démonstration. — 1. Soit u : M → M 0 un isomorphisme. On a alors, pour tous x ∈ M et a ∈ A\{0} : a · x = 0 ⇔ a · u(x) = 0, d’où u induit un isomorphisme entre T (M ) et T (M 0 ). 21 INVARIANTS DE SIMILITUDE 2. Soit (x, y) ∈ M × N . Si (x, y) ∈ T (M × N ), alors il existe a 6= 0 tel que (a · x, a · y) = (0, 0), donc x ∈ T (M ) et y ∈ T (M ). Réciproquement, si (x, y) ∈ T (M ) × T (N ), alors il existe a 6= 0 tel que a · x = 0, et il existe b 6= 0 tel que b · y = 0. On a alors ab · (x, y) = (0, 0), et ab 6= 0 car A est intègre. Revenons à notre module M de départ. On a : Y Y Y Y v v T (A/(pn )) p,n ' (A/(pn )) p,n , T (M ) ' T (A)r × p∈Σ n∈N∗ p∈Σ n∈N∗ et donc M/T (M ) ' Ar . L’entier r est donc le même pour toutes les décompositions primaires : c’est le rang du module libre M/T (M ). Remarque 6.4. — Au passage, on a montré qu’un A-module de type fini sans torsion est libre de rang fini, lorsque A est un anneau euclidien. On s’intéresse maintenant au sous-module de torsion T (M ). Définition 6.5. — Soit M un A-module, et soit p ∈ Σ un élément irréductible de A. k−1 Pour k ∈ N∗ , on note Mp,k le A-module quotient ppk MM . Remarque 6.6. — Le morphisme strucural µ : A → End(Mp,k ) envoie l’idéal (p) sur l’application nulle, d’où une factorisation µ : A/(p) → End(Mp,k ). Ainsi le module Mp,k hérite d’une structure naturelle d’espace vectoriel sur le corps A/(p). Proposition 6.7. — Soient M et N des A-modules, p ∈ Σ et k ∈ N∗ . On a : 1. M ' N =⇒ Mp,k ' Np,k ; 2. (M × N )p,k ' Mp,k × Np,k . Démonstration. — 1. Soit u : M → N un isomorphisme. L’application u induit alors des isomorphismes entre pk M et pk N , ainsi qu’entre pk−1 M et pk−1 N . On en déduit l’isomorphisme souhaité. 2. On a : (M × N )p,k = pk−1 (M × N ) pk−1 M × pk−1 N pk−1 M pk−1 N = ' × k = Mn,k × Nn,k . pk (M × N ) pk M × pk N pk M p N Dans notre cas, on en déduit que T (M )p,k ' donc ramené à l’étude des modules (A/(q n ))p,k . Q q∈Σ Q v n∈N∗ q,n (A/(q n ))p,k . On s’est Proposition 6.8. — Soient (p, q) ∈ Σ2 et (k, n) ∈ N∗ 2 . Soit M le A-module A/(q n ). 1. Si p 6= q, alors Mp,k = {0}. 2. Si p = q, alors dimA/(p) Mp,k = 1 0 si k ≤ n, sinon. 22 INVARIANTS DE SIMILITUDE Lemme 6.9. — Soit M un A-module, soient N et P des sous-modules de M avec P ⊂ N ⊂ M , et soit I un idéal de A. On a : M/P N/P M I· N ' = M , N IM + N . N Démonstration. — Le morphisme canonique M → M/P N/P est surjectif et a pour noyau N , d’où le premier isomorphisme. On note π : M → M/N la surjection canonique. Soit a ∈ I et x ∈ M/N . Il existe IM +N x ∈ M tel que x = π(x). On a alors a · x = π(a · x), d’où l’inclusion I · M . N ⊂ N D’autre part, soit (a, x, y) ∈ A × M × N . On a π(a · x + y) = a · π(x), d’où l’inclusion réciproque. k n )+(q ) . Démonstration de la proposition 6.8. — Grâce au lemme, on a pk M = (p (q n) k n k n Si p 6= q, p et q sont premiers entre eux et on a (p ) + (q ) = A, donc pk M = M . Comme on a aussi pk−1 M = M , on en déduit que Mp,k = {0}. Supposons à partir de maintenant que p = q. On a alors (pk ) + (pn ) = (pmin(n,k) ). De même, on obtient (pk−1 ) + (pn ) = (pmin(n,k−1) ). On a donc : ( (pn ) si n ≤ k − 1, (pmin(n,k−1) )/(pn ) (pmin(n,k−1) ) (pn ) = {0} Mp,k = ' = (pk−1 ) min(n,k) n min(n,k) A (p )/(p ) (p ) ' (p) si k ≤ n. (pk ) Revenons au cas qui nous intéresse. On a X X dimA/(p) T (M )p,k = vq,n dimA/(p) (A/(q n ))p,k q∈Σ n∈N∗ = +∞ X vp,n . n=k On a une formule similaire pour dimA/(p) T (M )p,k+1 , d’où l’on déduit que : vp,k = dimA/(p) T (M )p,k − dimA/(p) T (M )p,k+1 . On a donc caractérisé la suite (vp,n )p∈Σ, n∈N∗ , ainsi que l’entier r, en fonction d’invariants du module M . On en déduit l’unicité de la décomposition primaire. Démonstration de l’unicité dans le théorème de structure. — Soit M un A-module de type fini. Supposons que s Y A M ' Ar × (d i) i=1 0 s Y A ' A × 0), (d i i=1 r0 INVARIANTS DE SIMILITUDE 23 où les di sont des éléments non nuls et non inversibles de A tels que d1 | · · · |ds et d01 | · · · |d0s0 . On obtient alors, grâce au lemme chinois, deux décompositions primaires de M : Y Y A vp,n r M ' A × (pn ) ∗ p∈Σ n∈N ' 0 Y Y A vp,n A × , (pn ) ∗ r0 p∈Σ n∈N 0 vp,n ) où vp,n (resp. est le nombre de facteurs di (resp. d0i ) tels que pn divise di (resp. 0 n+1 di ) et p ne divise pas di (resp. d0i ). Par unicité de la décomposition primaire, on 0 0 ). Par ailleurs, pour tout p ∈ Σ, le nombre d’éléments di a r = r et (vp,n ) = (vp,n 0 (resp. di ) dans lesquels p apparaît à la puissance exactement n dans la décomposition en produit d’irréductibles est égal à vp,n . Comme les puissances de p apparaissent par ordre croissant dans la suite (d1 , · · · , ds ) (resp. (d01 , · · · , d0s0 )), on en déduit que s = s0 et que pour tout i, di et d0i ont la même décomposition en produit d’irréductibles, à un inversible près. Références [1] Vincent Beck, Jérôme Malick, and Gabriel Peyré. Objectif agrégation. H & K, 2004. [2] Antoine Chambert-Loir. Algèbre commutative, 2006. polycopié disponible à l’adresse perso.univ-rennes1.fr/antoine.chambert-loir/2006-07/g1/coursg1.pdf. [3] Xavier Gourdon. Les Maths en tête : mathématiques pour M’ : algèbre. Ellipses, 1994. Arnaud Moncet