Partie du cours d’Algèbre de Bac 2 en mathématiques Petite introduction aux anneau-modules et à leur algèbre linéaire. Anne-Marie Simon Université libre de Bruxelles Faculté des Sciences Département de mathématiques Première version : 8 novembre 2006 Deuxième version ; 10 décembre 2009 corrigée et complétée le 25 novembre 2010 ii Table des matières 1 Anneaux-Modules 1.1 Les anneaux-modules et leurs homomorphismes . . . . . . . 1.2 Factorisation des homomorphismes . . . . . . . . . . . . . . 1.3 Groupes d’homomorphismes et anneaux d’endomorphismes 1.4 Un théorème de Cayley-Hamilton . . . . . . . . . . . . . . . 1.5 Sommes et produits directs . . . . . . . . . . . . . . . . . . 1 1 10 12 18 23 2 Modules libres 2.1 Parties libres, bases . . . . . . . . . . . . 2.2 Modules libres de type fini et matrices . 2.3 L’axiome du choix et le lemme de Zorn 2.4 Autour des bases et de leur cardinal . . . . . . 29 29 36 52 57 61 61 63 66 70 75 77 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Étude d’un endomorphisme 3.1 Sous-espaces stables . . . . . . . . . . . . . . 3.2 Triangulation . . . . . . . . . . . . . . . . . . 3.3 Polynôme minimal, polynôme caractéristique 3.4 Composantes primaires . . . . . . . . . . . . . 3.5 Un théorème de Jordan-Chevalley . . . . . . 3.6 Forme normale de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Dualité 4.1 Point de vue . . . . . . . . . . . . . 4.2 Modules et homomorphismes duaux 4.3 Dualité coordonnée pour les modules 4.4 Le bidual . . . . . . . . . . . . . . . 4.5 Orthodualité . . . . . . . . . . . . . 4.6 Propriétés d’exactitude de la dualité 4.7 Dimension d’un dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 . 83 . 84 . 88 . 90 . 92 . 95 . 100 iii . . . . . . . . libres . . . . . . . . . . . . . . . . . . . . . . . iv TABLE DES MATIÈRES Chapitre 1 Anneaux-Modules 1.1. Les anneaux-modules et leurs homomorphismes Dans ces notes, les anneaux sont tous supposés unitaux (non nuls), leur addition est le plus souvent désignée par « + », leur multiplication par « · » bien que ce « · » soit le plus souvent omis de la notation, leur neutre additif est désigné par « 0 » et leur neutre multiplicatif par « 1 ». De même, les homomorphismes d’anneaux ici considérés sont tous des homomorphismes d’anneaux unitaux, ce qui signifie qu’ils appliquent le neutre multiplicatif du premier anneau sur le neutre multiplicatif du second. Dans la définition d’espace vectoriel sur un corps K, remplaçons le corps par un anneau (unital), nous obtenons alors la définition d’anneaumodule, à gauche ou à droite, selon que les coefficients, c.-à-d. les éléments de l’anneau, s’écrivent à gauche ou à droite des éléments du module. Plus précisément, nous avons. Définition 1.1.1. Soit A un anneau. Un A-module gauche est un groupe commutatif (M, +) muni d’une multiplication scalaire à gauche par les éléments de l’anneau A, c.-à-d. d’une fonction A × M → M : (a, w) 7→ aw telle que, ∀a, b ∈ A, ∀v, w ∈ M , on a : a(v + w) = av + aw, (a + b)v = av + bv a(bv) = (ab)v (associativité mixte), 1v = v. (double distributivité), Le neutre du groupe additif (M, +) sera aussi désigné par 0. Observons les identités suivantes valables pour un A-module gauche : ∀a ∈ A, ∀w ∈ M, 0w = 0, a0 = 0, (−1)w = −w. De la même façon, un A-module droit est un groupe commutatif (M, +) muni d’une multiplication scalaire à droite par les éléments de l’an1 2 CHAPITRE 1. ANNEAUX-MODULES neau A, c.-à-d. d’une fonction M × A → M : (w, a) 7→ wa telle que, ∀a, b ∈ A, ∀v, w ∈ M , on a : (v + w)a = va + wa v(a + b) = va + vb (va)b = v(ab) v1 = v. Notons dès à présent que tout ce que nous dirons pour les A-modules droits admet une version analogue pour les A-modules gauches et réciproquement. Mais notons aussi qu’en général, si M est un A-module gauche, nous ne pouvons pas faire passer les coefficients de gauche à droite tels quels impunément, nous ne pouvons pas écrire, ∀a ∈ A, ∀v ∈ M , va = av et prétendre qu’ainsi nous donnons à M une structure de A-module droit. Car en général cette « structure droite » ne satisfait plus l’associativité mixte. En effet, avec cette écriture nous avons, ∀a, b ∈ A, ∀v ∈ M , v(ab) = (ab)v et (va)b = (av)b = b(av) = (ba)v. Or les éléments (ab)v et (ba)v de M peuvent être distincts quand l’anneau A n’est pas commutatif. Évidemment ce problème ne se pose que quand l’anneau est non commutatif et nous amène à une première remarque. 1.1.2. Remarque. Quand l’anneau A est commutatif, tout A-module gauche M a aussi une structure naturelle de A-module droit définie par : ∀a ∈ A, ∀v ∈ M, va = av et vice-versa. Dès lors, quand A est commutatif, nous dirons parfois du A-module gauche ou droit M qu’il est est simplement un A-module. Définition 1.1.3. Soit M un A-module gauche. Une partie N de M est un sous-A-module gauche de M si N est un sous-groupe du groupe additif (M, +) et si, ∀a ∈ A, ∀v ∈ N, av ∈ N . Autrement dit, une partie N d’un A-module gauche M est un sous-Amodule gauche de M si l’addition de M et la multiplication scalaire par les éléments de A, convenablement restreintes, munissent N d’une structure de A-module gauche. 1.1.4. Remarque. Une partie non vide N d’un A-module gauche M est un sous-A-module gauche de M si et seulement si, ∀v, w ∈ M, ∀a ∈ A, v+w ∈M et av ∈ M. 1.1. LES ANNEAUX-MODULES ET LEURS HOMOMORPHISMES 3 1.1.5. Premiers exemples. (a) Si A = K est un corps, on dit d’ un K-module gauche (respectivement droit) qu’il est un K-vectoriel gauche (respectivement droit), ou un espace vectoriel à gauche (respectivement à droite) sur le corps K. (b) Tout groupe commutatif (M, +) est naturellement muni d’une structure de Z-module en posant, ∀n ∈ N0 , ∀w ∈ M , nw = w . . + w}, | + .{z 0w = 0, (−n)w = n(−w). n fois L’étude des groupes commutatifs équivaut à l’étude des Z-modules. (c) La multiplication dans un anneau A munit le groupe additif (A, +) d’une structure naturelle de A- module gauche et d’une structure naturelle de A-module droit. Les sous-A-modules gauches du A-module gauche A sont ses idéaux gauches et les sous-A-modules droits du A-module droit A sont ses idéaux droits. (d) Plus généralement, soit ϕ : A → B un homomorphisme d’anneaux. Cet homomorphisme ϕ munit tout B-module gauche M d’une structure de A-module gauche par A × M → M : (a, w) 7→ ϕ(a)w. Il munit aussi tout B-module droit d’une structure de A-module droit par M × A → M : (w, a) 7→ wϕ(a). En particulier ϕ munit B d’une structure de A-module gauche et d’une structure de A-module droit. 1.1.6. Fonctions à valeurs dans un module. Soit A un anneau, M un A-module gauche et I un ensemble. L’ensemble M I des fonctions de I dans M est naturellement muni d’une structure de A-module gauche définie par : ∀s, t ∈ M I , ∀a ∈ A et ∀i ∈ I, (s + t)(i) = s(i) + t(i) et (as)(i) = a(s(i)). Nous dirons que M I muni de cette structure est le produit direct de #I copies de M . Désignons maintenant par M (I) la partie de M I formée des fonctions presque nulles de I dans M , c.à-d. des fonctions s : I → M telles que l’ensemble {i ∈ I | s(i) 6= 0} soit fini. M (I) est un sous-A-module gauche de M I , appelé somme directe de #I copies de A. (Nous reviendrons plus loin sur cette terminologie.) En particulier l’ensemble AI des fonctions de I dans l’anneau A est naturellement muni d’une structure de A-module gauche et d’une autre structure de A-module droit. Notons cependant que, pour un a ∈ A et un 4 CHAPITRE 1. ANNEAUX-MODULES s ∈ AI , les éléments as et sa de AI peuvent être distincts quand l’anneau A n’est pas commutatif. Plus particulièrement encore l’ensemble An des n-uples d’éléments de A est aussi muni d’une structure de A-module gauche et d’une autre structure de A-module droit. Ici encore, si a ∈ A et si w ∈ An , les éléments aw et wa de An peuvent être différents quand l’anneau A n’est pas commutatif. Désormais nous désignerons par A1×n l’ensemble des n-uples d’éléments de A, écrits en ligne : A1×n = {(a1 , a2 , · · · , an ) | ai ∈ A, 1 6 i 6 n}. Cet ensemble A1×n sera naturellement muni de sa structure de A-module gauche, l’addition et la multiplication scalaire par les éléments de A étant définies composante par composante. Nous désignerons aussi par An×1 l’ensemble des n-uples d’éléments de A, écrits en colonnes : a1 a2 An×1 = { . | ai ∈ A, 1 6 i 6 n}. .. an Cet ensemble An×1 sera naturellement muni de sa structure de A-module droit, Ces conventions ont l’avantage d’être compatibles avec la multiplication matricielle (nous désignerons aussi par Am×n l’ensemble des matrices à m lignes et n colonnes à entrées dans A, en posant naturellement A1×1 = A). Elles précisent aussi laquelle des deux structures, gauche ou droite, on met sur l’ensemble des n-uples d’éléments de A, ce qui est précieux quand l’anneau A n’est pas commutatif. Proposition Définition 1.1.7. Intersection de sous-A-modules. Soit M un A-module gauche. Toute intersection de sous-A-modules gauches de M est un sous-Amodule gauche de M . En particulier, l’intersection des sous-A-modules gauches de M contenant une partie P de M est le plus petit sous-A-module gauche de M contenant P , il sera désigné par mod(P ) et nommé sous-A-module gauche engendré par P . On voit aisément que mod(P ) est l’ensemble des combinaisons linéaires à coefficients Pn dans A d’éléments de P , c.-à-d l’ensemble des éléments de la forme i=1 ai wi , où n ∈ N, ai ∈ A, wi ∈ P . (Par convention la somme de la partie vide de M est le zéro de M .) Définitions 1.1.8. Une partie génératrice d’un A-module gauche M est une partie G de M telle que mod(G) = M . 1.1. LES ANNEAUX-MODULES ET LEURS HOMOMORPHISMES 5 On dit que le A-module gauche M est de type fini s’il possède une partie génératrice finie. On dit que le A-module gauche M est cyclique s’il peut être engendré par un seul élément. Autrement dit, M est cyclique si et seulement si il existe w ∈ M tel que M = Aw (en notation globale). Si A = K est un corps on dit aussi d’ un K-module gauche (respectivement droit) de type fini qu’il est un K-vectoriel gauche (respectivement droit) de dimension finie. 1.1.9. Propriétés de la fonction mod : P(M ) → P(M ) : P 7→ mod(P ). Soient P, P 0 deux parties du A-module gauche M . (i) P ⊂ mod(P ), la fonction mod est expansive, (ii) P 0 ⊂ P ⇒ mod(P 0 ) ⊂ mod(P ), la fonction mod est croissante, (iii) Toute combinaison linéaire de combinaisons linéaires d’éléments de P est une combinaison linéaire d’éléments de P , mod(mod(P )) = mod(P ), la fonction mod est idempotente. De (i), (ii) et (iii) on déduit (iv) Si P 0 ⊂ mod(P ), alors mod(P 0 ) ⊂ mod(P ), (v) Toute partie du A-module droit M contenant une partie génératrice de M est elle-même une partie génératrice de M . De plus on a (vi) ∀x ∈ M, x ∈ mod(P ) ⇔ ∃P 0 ⊂ P, P 0 finie, telle que x ∈ mod(P 0 ). (vii) Notons que le sous-A-module gauche de M engendré par sa partie vide est le sous-A-module nul {0} de M . Proposition 1.1.10. Si M est un A-module gauche de type fini, toute partie génératrice de M contient une partie génératrice finie de M . ( La preuve se base sur 1.1.9, (vi) et est confiée au lecteur.) 1.1.11. Exemple. Les parties {1}, {2, 3} et {6, 10, 15} de Z sont des parties génératrices du Z-module (Z, +). Elles sont même des parties génératrices minimales du Z-module (Z, +) en ce sens qu’ aucune d’entre elles ne contient strictement une autre partie génératrice. Cet exemple illustre une première différence entre la théorie des anneaumodules et celle des espaces vectoriels. Nous avons vu au cours d’algèbre linéaire que, si V est un espace vectoriel gauche ou droit sur un corps K possédant une partie génératrice finie, alors toutes ses parties génératrices minimales ont même nombre d’éléments, appelé la dimension du K-vectoriel V et noté dimK V ou plus simplement dim V lorsque cette notation allégée ne prête pas à confusion. 6 CHAPITRE 1. ANNEAUX-MODULES 1.1.12. Somme de sous-modules. Soit (Mi )∈I une famille de sousmodules d’un A-module gauche M . Le plus petit sous-module de M contenant la réunion des Mi est l’ensemble des sommes (finies) d’élémentsPdes Mi . C’est pourquoi il est appelé somme des sous-modules Mi et noté i∈I Mi . Si I est un ensemble fini, disons I = {1, · · · , n}, nous avons Pn Pn i=1 Mi = { i=1 wi | wi ∈ Mi } et nous pouvons écrire en notation globale Pn i=1 Mi = M1 + · · · + Mn . 1.1.13. Modules quotients. Soit M 0 un sous-A-module gauche du Amodule gauche M . Le groupe quotient (M/M 0 , +) est naturellement muni d’une structure de A-module gauche définie par : ∀a ∈ A, ∀w ∈ M, a(w + M 0 ) = aw + M 0 . (Il convient d’abord de vérifier que la formule ci-dessus définit bien une fonction : A × (M/M 0 ) → M/M 0 , que, ∀w1 , w2 ∈ M, ∀a ∈ A, on a w1 +M 0 = w2 +M 0 ⇒ aw1 +M 0 = aw2 +M 0 . Voyons ceci : (w1 + M 0 = w2 + M 0 ) ⇔ w1 − w2 ∈ M 0 ⇒ aw1 − aw2 ∈ M 0 ⇔ (aw1 + M 0 = aw2 + M 0 ). Ceci étant fait, il est aisé de montrer que la fonction définie ci-dessus munit le groupe commutatif (M/M 0 , +) d’une structure de A-module gauche, appelé module quotient de M par son sous-A-module gauche M 0 .) Si G est une partie génératrice de M , on remarque que l’image de G dans le A-module gauche quotient M/M 0 , c.-à-d. {g + M 0 | g ∈ G}, est une partie génératrice du A-module gauche M/M 0 . On en déduit. Tout quotient d’un A-module gauche de type fini est un A-module gauche de type fini. On définit de la même façon le module quotient d’un A-module droit par un des ses sous-A-modules droits, ce quotient est alors un A-module droit. En particulier, si I est un idéal gauche de l’anneau A, le groupe quotient (A/I, +) est naturellement muni d’une structure de A-module gauche. Cet A-module gauche est cyclique, engendré par 1 + I. Mais si I est un idéal bilatère de l’anneau A (donc un idéal gauche et droit), le groupe quotient (A/I, +) est naturellement muni d’une structure de A-module gauche et d’une autre structure de A-module droit (dans ce cas A/I est par ailleurs muni d’une structure d’anneau). 1.1. LES ANNEAUX-MODULES ET LEURS HOMOMORPHISMES 7 Définitions 1.1.14. Homomorphismes de A-modules droits Soit A un anneau et M, N deux A-modules droits. Un homomorphisme de A-modules droits de M dans N est une fonction f :M →N telle que, ∀v, w ∈ M, ∀a ∈ A, on aie f (v + w) = f (v) + f (w) et f (va) = f (v)a. Un isomorphisme de A-modules droits ou homomorphisme de Amodules droits inversible est un homomorphisme de A-modules droits f : M → N tel qu’il existe un homomorphisme de A-modules droits g : N → M avec f ◦ g = 1N , g ◦ f = 1M . Un endomorphisme du A-module droit M est un homomorphisme (de A-modules droits) de M dans lui-même. Un automorphisme du A-module droit M est un isomorphisme M → M de A-modules droits, autrement dit un isomorphisme de M avec lui-même. 1.1.15. Remarque. Si un homomorphisme f : M → N de A-modules droits est bijectif, alors la fonction réciproque f −1 : N → M est aussi un homomorphisme de A-modules droits. Il en résulte qu’un homomorphisme de A-modules droits est un isomorphisme de A-modules droits si et seulement si il est bijectif. Définitions 1.1.16. Homomorphismes de A-modules gauches. Les homomorphismes, endomorphismes, isomorphismes et automorphismes de A-modules gauches se définissent de la même façon. Si M et N sont deux A-modules gauches, un homomorphisme de A-modules gauches de M dans N est une fonction f :M →N telle que, ∀v, w ∈ M, ∀a ∈ A, on aie f (v + w) = f (v) + f (w) et f (av) = af (v). 1.1.17. Remarques gauche-droite. Cependant, si f : M → N est un homomorphisme de A-modules gauches, il sera souvent commode d’écrire l’image d’un élément w de M par la fonction f non pas par f (w) mais bien par wf . Les conditions pour que cette fonction soit un homomorphisme de A-modules gauches s’écriront alors : (v + w)f = v f + wf , (av)f = a(v f ). 8 CHAPITRE 1. ANNEAUX-MODULES f g Si l’on suit cet usage, la composée de deux fonctions X → Y → Z, habituellement notée « g ◦ f » avec la « loi ◦ de composition gauche », sera notée avec la « loi · de composition droite » par « f · g » ou plus simplement par « f g ». La composition droite « · » des fonctions est définie par f · g = g ◦ f , de sorte que, ∀x ∈ X, on aie en composition droite xf g = (xf )g , en analogie avec la formule usuelle (g ◦ f )(x) = g(f (x)) en composition gauche. Cet usage, qui consiste à mettre les coefficients d’un coté et les fonctions de l’autre, est mentionné comme une règle d’or par Jacobson. Le respect de cette règle permet d’éviter pas mal de déboires lorsqu’on travaille avec des modules, gauches ou droits, sur un anneau non commutatif. Mais cette règle n’est pas impérative et il n’est pas toujours possible de la respecter, principalement lorsque l’un des modules concernés est muni d’une seconde structure de module sur un éventuel autre anneau. Nous verrons aussi des situations où il est judicieux de ne pas la respecter (mais dans ces situations l’anneau de base sera commutatif). 1.1.18. Les homomorphismes de A-modules (gauches ou droits) sont parfois appelés applications A-linéaires et les endomorphismes de Amodules (gauches ou droits) sont parfois appelés transformations Alinéaires, en analogie avec le vocabulaire des espaces vectoriels. 1.1.19. Sorites. L’application identique d’un A-module droit est un automorphisme de A-module droit. Toute composée d’homomorphismes de A-modules droits est un homomorphisme de A-modules droits. Si M 0 est un sous-A-module droit du A-module droit M , l’injection naturelle i : M 0 ,→ M : w0 7→ w0 et la projection naturelle p : M ³ M/M 0 : w 7→ w + M 0 sont des homomorphismes de A-modules droits. —————————————————————————————Exercice 1.1.20. Exhiber une partie génératrice minimale de 4 éléments du Z-module (Z, +). Exercice 1.1.21. *Annulateurs. Soit A un anneau quelconque, non nécessairement commutatif, et M un A-module gauche. (a) Soit w ∈ M . La partie {a ∈ A | aw = 0} de A est un idéal gauche de A, noté AnnA (w) et nommé annulateur de w dans A. 1.1. LES ANNEAUX-MODULES ET LEURS HOMOMORPHISMES 9 T (b) {a ∈ A | ∀w ∈ M, aw = 0} = w∈M AnnA (w) est un idéal bilatère de A, noté AnnA (M ) et nommé annulateur de M dans A. Notons que si A et M sont non nuls, l’idéal AnnA (M ) est un idéal propre de A (c.-à-d. un idéal de A distinct de A). (c) Pour tout idéal bilatère I de A inclus à AnnA (M ), M est naturellement muni d’une structure de A/I-module gauche. Cette structure est définie par : ∀a ∈ A, ∀w ∈ M, (a + I)w = aw. (Comme d’habitude il convient de vérifier d’abord que (a + I)w ainsi défini est bien défini. Ceci est assez clair : a + I = a0 + I ⇔ a − a0 ∈ I ⇒ (a − a0 )w = 0 ⇔ aw = a0 w.) (d) Observer que les énoncés précédents ont une version droite. (e) Considérons le Z-module (Z6 , +) des entiers modulo 6. Quel est l’annulateur, dans Z, de l’élément 2 de Z6 ? Déterminer aussi AnnZ (Z6 ). Exercice 1.1.22. Soit H le corps des quaternions. (a) Montrer que la fonction « multiplication droite par i » µ ¶ µ ¶ a1 a1 i 2×1 2×1 ri : H →H : 7→ a2 a2 i n’est pas un endomorphisme du H-module droit H2×1 . (b) Montrer que la fonction 2×1 fi : H 2×1 →H µ ¶ µ ¶ a1 ia1 : 7→ a2 ia2 est un automorphisme du H-module droit H2×1 . Montrer que l’automorphisme fi ne ressembleµen ¶ rien µ à une µ ¶ ¶ homothétie a1 a a 1 1 en exhibant un élément ∈ H2×1 tel que fi 6= i. a2 a2 a2 (Cet exemple sera repris en 2.2.12.) Exercice 1.1.23. *Réduction modulo un idéal. Soit M un A-module gauche et I un idéal dePA. On définit IM = { ni=1 ai wi | n ∈ N, ai ∈ I, wi ∈ M }. (Autrement dit IM est l’ensemble des combinaisons linéaires à coefficients dans I des éléments de M .) Cette partie IM de M est un sous-A-module gauche de M et le Amodule gauche quotient M/IM est annulé par I, il est donc muni d’une structure de A/I-module gauche. Expliciter cette structure. 10 CHAPITRE 1. ANNEAUX-MODULES 1.2. Factorisation des homomorphismes Définitions 1.2.1. Image et noyau d’un homomorphisme de Amodules droits Si f : M → N est un homomorphisme de A-modules droits, l’ image de f , Im(f ), et le noyau de f , Ker(f ), sont l’image et le noyau de f vu comme homomorphisme de groupes additifs : Ker(f ) = {w ∈ M | f (w) = 0}, Im(f ) = {v ∈ N | ∃w ∈ M, v = f (w)}. Théorème 1.2.2. Soit f : M → N un homomorphisme de A-modules droits. Alors (i) Im(f ) est un sous-A-module droit de N , (ii) Ker(f ) est un sous-A-module droit de M , (iii) ∀w ∈ M, {x ∈ M | f (x) = f (w)} = w + Ker(f ). (iv) l’homomorphisme de A-modules droits f admet une factorisation f = i ◦ f¯ ◦ p M py f −−−−→ N x i f¯ M/Ker(f ) −−−−→ Im(f ) où f¯ est un isomorphisme de A-modules droits défini par f¯(w + Ker(f ) = f (w), où i désigne l’injection naturelle et p la projection naturelle. Démonstration. Nous avons appris dans un premier cours d’algèbre que Im(f ) est un sous-groupe du groupe (N, +), que Ker(f ) est un sous-groupe du groupe (M, +) et que, ∀w ∈ M, {x ∈ M | f (x) = f (w)} = w + Ker(f ). Il nous faut maintenant vérifier que les sous-groupes Ker(f ) de M et Im(f ) de N sont des sous-A-modules droits : ∀w ∈ Ker(f ), ∀a ∈ A, f (wa) = f (w)a = 0a = 0, donc wa ∈ Ker(f ), ∀a ∈ A, ∀v ∈ Im(f ), ∃w ∈ M tel que v = f (w), donc va = f (w)a = f (wa) ∈ Im(f ). Le premier théorème d’isomorphisme pour les groupes nous dit aussi que f¯ est un isomorphisme de groupes additifs. Reste à vérifier que f¯ est un homomorphisme de A-modules droits, ce qui est aisé et confié au lecteur. Théorème 1.2.3. Propriété universelle des modules quotients. Soit M 0 un sous-A-module droit du A-module droit M . Tout homomorphisme de A-modules droits f : M → N s’annulant sur M 0 (c.à-d. tel que M 0 ⊂ Ker(f )) induit un unique homomorphisme f˜ : M/M 0 → N tel que f = f˜ ◦ p où p désigne la projection naturelle M ³ M/M 0 . 1.2. FACTORISATION DES HOMOMORPHISMES 11 Cet homomorphisme f˜ est défini par f˜(w + M 0 ) = f (w). M f GG GG G p GGG # / <N f˜ M/M 0 Démonstration. La propriété universelle des groupes quotients nous dit que la fonction f˜ définie par f˜(w + M 0 ) = f (w) est un homomorphisme de groupes additifs et est l’unique fonction telle que f = f˜ ◦ p. Reste à vérifier que f˜ est aussi un homomorphisme de A-modules droits, ce qui est aisé et confié au lecteur. Définition 1.2.4. Soit f : M → N un homomorphisme de A-modules droits. Puisque Im(f ) est un sous-A-module droit de N , nous pouvons prendre le module quotient N/Im(f ), ce quotient est souvent appelé le conoyau de f . 1.2.5. Observation. Nous pouvons montrer un élément w du A-module droit M au moyen de la fonction mw : A → M : a 7→ wa. Cette fonction mw est un homomorphisme de A-modules droits de noyau AnnA (w) et d’image mod(w) = wA. Nous voyons à nouveau que AnnA (w) est un idéal droit de l’anneau A et nous obtenons un isomorphisme de A-modules droits A/AnnA (w) ' wA. Corollaire 1.2.6. Tout A-module droit cyclique est isomorphe à un Amodule droit de la forme A/I, où I est un idéal droit de l’anneau A. (Ceci généralise le fait que tout groupe cyclique est isomorphe à un groupe de la forme Z/nZ, où n ∈ N.) 12 CHAPITRE 1. ANNEAUX-MODULES 1.3. Groupes d’homomorphismes et anneaux d’endomorphismes 1.3.1. Groupes d’homomorphismes. Soit A un anneau quelconque et soient M et N deux A-modules droits. On désigne l’ensemble des homomorphismes de A-modules droits de M dans N par HomA (M, N ). On définit la somme ou addition de deux homomorphismes h1 , h2 ∈ HomA (M, N ) par ∀v ∈ M, (h1 + h2 )(v) = h1 (v) + h2 (v). On remarque que h1 + h2 ainsi défini appartient à HomA (M, N ) et que HomA (M, N ) muni de cette addition est un groupe commutatif, autrement dit un Z-module. De plus si f et g sont deux homomorphismes de A-modules droits comme indiqué ci-dessous M0 f /M ) 5N g / N 00 alors les fonctions ◦f : HomA (M, N ) → HomA (M 0 , N ) : h 7→ h ◦ f g◦ : HomA (M, N ) → HomA (M, N 00 ) : h 7→ g ◦ h sont des homomorphismes de groupes commutatifs, autrement dit de Zmodules. (Les preuves de tout ceci sont directes et laissées au lecteur.) 1.3.2. Anneaux d’endomorphismes. Soit A un anneau quelconque et soit M un A-module droit. Il résulte des observations faites en 1.3.1 que l’ensemble EndA (M ) des endomorphismes du A-module droit M est muni d’une structure de groupe commutatif (EndA (M ), +) et que la composition gauche des fonctions munit ce groupe commutatif (EndA (M ), +) d’une structure d’anneau (EndA (M ), +, ◦) appelé l’ anneau des endomorphismes de M . Les éléments inversibles de cet anneau sont les automorphismes du A-module droit M et le groupe des inversibles de cet anneau, noté (AutA (M ), ◦), est appelé le groupe des automorphismes du A-module droit M . Il est utile d’observer que le groupe commutatif (M, +) est naturellement muni d’une structure de (EndA (M ), +, ◦)-module gauche définie par EndA (M ) × M → M : (f, w) 7→ f (w). 1.3.3. Remarquons que la composition droite des fonctions introduites en 1.1.17 munit aussi le groupe commutatif (EndA (M ), +) d’une autre structure d’anneau (EndA (M ), +, ·). 1.3. GROUPES D’HOMOMORPHISMES ET ANNEAUX D’ENDOMORPHISMES13 Le groupe commutatif (M, +) est aussi naturellement muni d’une structure de (EndA (M ), +, ·)-module droit définie par M × EndA (M ) → M : (w, f ) 7→ wf . Le groupe des inversibles (AutA (M ), ◦) de l’anneau (EndA (M ), +, ◦) et celui (AutA (M ), ·) de l’anneau (EndA (M ), +, ·) sont isomorphes (par la fonction qui applique un automorphisme de M sur son inverse : si f et g sont deux endomorphismes inversibles de M on a (f ◦ g)−1 = g −1 ◦ f −1 = f −1 ·g −1 ), mais en général, les anneaux (EndA (M ), +, ◦) et (EndA (M ), +, ·) ne sont pas isomorphes, même si l’anneau A est commutatif. (Un exemple assez simple est fourni par les endomorphismes d’un espace vectoriel V de dimension dénombrable sur le corps de deux éléments : les anneaux (EndZ2 (V ), +, ◦) et (EndZ2 (V, +, ·) ne sont pas isomorphes car leurs éléments inversibles à gauche ou à droite ont des propriétés différentes en ce qui concerne leurs nombres d’inverses droits ou gauches.) 1.3.4. Multiplication par un élément de l’anneau. Soit M un A-module gauche et soit a ∈ A. La multiplication à gauche des éléments de M par l’élément a ∈ A nous donne une transformation de M notée (a·)M ou de façon plus légère `a (a·)M = `a : M → M : w 7→ aw La définition d’A-module gauche nous dit que ces fonction (a·)M = `a sont des endomorphismes du groupe additif (M, +) : (a·)M ∈ EndZ (M ). Les définitions de A-modules gauches et d’homomorphismes de Amodules gauches nous disent aussi : ∀a, b ∈ A, ∀f ∈ EndA (M ) `a ◦ `b = `ab `a + `b = `a+b f ◦ `a = `a ◦ f. En général (a·)M ∈ / EndA (M ) mais (a·)M ∈ EndA (M ) si l’anneau A est commutatif. (Si a, b ∈ A, w ∈ M , les éléments `a (bw) = abw et b`a (w) = baw de M ne sont pas nécessairement égaux quand l’anneau A n’est pas commutatif.) De la même façon, si M est un A-module droit et a un élément de A, la fonction « multiplication à droite par a » ra = (·a)M : M → M : w 7→ wa est un endomorphisme du groupe additif (M, +) et n’est pas en général un endomorphisme du A-module droit M . Ces transformations (·a)M satisfont : ∀a, b ∈ A, (·ab)M = (·a)M ·(·b)M avec la notation pour la composition droite introduite en 1.1.17. 14 CHAPITRE 1. ANNEAUX-MODULES Avec ce qui précède nous obtenons immédiatement. Proposition 1.3.5. Anneaux d’endomorphismes d’un module sur un anneau commutatif. Soit A un anneau commutatif et M un A-module (gauche ou droit, peu importe). Alors : (i) ∀a ∈ A, la fonction (a·)M = `a : M → M : w 7→ aw est un endomorphisme du A-module M , appelé homothétie de M de rapport a. (ii) Ces homothéties (a·)M = `a commutent avec tous les endomorphismes du A-module M : ∀a ∈ A, ∀f ∈ EndA (M ) on a (a·)M ◦ f = f ◦ (a·)M . (iii) De plus la fonction (A, +, ·) → (EndA (M ), +, ◦) : a 7→ (a·)M est un homomorphisme d’anneau. L’image de cet homomorphisme est contenue dans le centre de (EndA (M ), +, ◦). (Rappelons que le centre d’un anneau (B, +, ·) est défini par Z(B) = {b ∈ B | ∀x ∈ B, bx = xb}, que ce centre Z(B) est un sous-anneau commutatif de B). Le noyau de cet homomorphisme d’anneau est l’annulateur de M dans A défini par AnnA (M ) := {a ∈ A | ∀w ∈ M, aw = 0}. (iv) Le groupe commutatif (EndA (M ), +) a aussi une structure naturelle de A-module définie par, ∀a ∈ A, ∀f ∈ EndA (M ) et ∀v ∈ M (af )(v) = af (v), autrement dit af = (a·)M ◦ f. Nous résumerons tout ceci en disant que (EndA (M ), +, ◦) a une structure naturelle de A-algèbre. 1.3.6. Modules d’homomorphismes sur un anneau commutatif. Supposons encore que l’anneau A est commutatif et soient M, N deux A-modules (droits ou gauches, peu importe). La définition des homomorphismes de A-modules nous donne ∀a ∈ A, ∀h ∈ HomA (M, N ) et ∀w ∈ M, on a h(aw) = ah(w), autrement dit h ◦ (a·)M = (a·)N ◦ h avec les notations introduites en 1.3.4. Comme les fonctions (a·)M , (a·)N sont des endomorphismes de Amodules (voir 1.3.5), la fonction composée h ◦ (a·)M = (a·)N ◦ h est aussi un homomorphisme de A-modules. Avec ceci et les observations en 1.3.1 nous voyons que le groupe commutatif (HomA (M, N ), +), tout comme (EndA (M ), +), possède une structure 1.3. GROUPES D’HOMOMORPHISMES ET ANNEAUX D’ENDOMORPHISMES15 naturelle de A-module (gauche ou droit) définie par : HomA (M, N ) et ∀w ∈ M , (ah)(w) = h(aw) = ah(w) autrement dit ∀a ∈ A, ∀h ∈ ah = h ◦ (a·)M = (a·)N ◦ h. Avec cette structure, HomA (M, N ) est alors appelé le A-module des homomorphismes de M dans N . De plus, si f : M 0 → M et g : N → N 00 sont deux homomorphismes de A-modules, les fonctions ◦f : HomA (M, N ) → HomA (M 0 , N ) : h 7→ h ◦ f g◦ : HomA (M, N ) → HomA (M, N 00 ) : h 7→ g ◦ h introduites en 1.3.1 sont aussi des homomorphismes de A-modules. ———————————————————————————— Exercice 1.3.7. (i) Soit A un anneau commutatif, M un A-module gauche et a un élément de A. 0 (M ) de M par On définit une partie H(a) 0 H(a) (M ) = {w ∈ M | ∃n ∈ N, an w = 0}. 0 (M ) est un sous-A-module de M et que l’endomorMontrer que H(a) 0 (M ) est injectif. phisme `a du module quotient M/H(a) 0 (Z/24Z) du Z-module Z/24Z. (ii) Décrire le sous-Z-module H(2) f Exercice 1.3.8. Soit M1 → M2 un homomorphisme de A-modules droits, i soit M0 = ker(f ) et soit M0 → M1 l’injection naturelle, ce qui nous donne une suite d’homomorphismes i f M0 → M1 → M2 . Soit encore X un A-module droit quelconque. Nous avons une suite d’homomorphismes de groupes commutatifs i◦ f◦ HomA (X, M0 ) → HomA (X, M1 ) → HomA (X, M2 ) Montrer que dans cette suite l’homomorphisme i◦ est injectif et que Im(i◦) = ker(f ◦). 16 CHAPITRE 1. ANNEAUX-MODULES f Exercice 1.3.9. Soit M2 → M1 un homomorphisme de A-modules droits. p Posons M0 = M1 /Im(f ) et soit M1 → M0 la projection naturelle, ce qui nous donne une suite d’homomorphismes f p M2 → M1 → M0 . Soit encore X un A-module droit quelconque. Nous avons une suite d’homomorphismes de groupes commutatifs ◦p ◦f HomA (M0 , X) → HomA (M1 , X) → HomA (M2 , X) Montrer que l’homomorphisme ◦p est injectif et que Im(◦p) = ker(◦f ). Exercice 1.3.10. Vers la dualité (i) Soit A un anneau et soit a ∈ A. Observer que la fonction (a·)A : A → A : x 7→ ax est un endomorphisme de A-modules droits, mais pas de A-modules gauches si A n’est pas commutatif. (ii) Soit M un A-module droit. Observer que le groupe commutatif HomA (M, A) a une structure naturelle de A-module gauche définie par ∀a ∈ A ∀s ∈ HomA (M, A) as = (a·)A ◦ s. Noter que l’élément as ∈ HomA (M, A) est aussi défini par : ∀w ∈ M (as)(w) = as(w). Le groupe commutatif HomA (M, A) muni de cette structure naturelle de A-module gauche est appelé « module dual de M » et souvent noté M ∗ . f (iii) Soit M →N un homomorphisme de A-module droit. Observer que la fonction f∗ N ∗ → M ∗ : s 7→ s ◦ f est un homomorphisme de A-module gauches, appelé « homomorphisme dual de M ». (iv) Soit f g M1 → M2 → M3 des homomorphismes de A-modules droits et soit f∗ g∗ M1∗ ← M2 ∗ ← M3∗ leurs homomorphismes duaux. Observer que (g ◦ f )∗ = f ∗ ◦ g ∗ = g ∗ · f ∗ 1.3. GROUPES D’HOMOMORPHISMES ET ANNEAUX D’ENDOMORPHISMES17 où « ◦ » désigne la composition gauche des fonctions et « · » désigne la composition droite. (v) Observer que, ∀w ∈ M , la fonction w̃ : M ∗ → A : s 7→ s(w) est un homomorphisme de A-modules gauches et que la fonction uM : M → M ∗∗ : w 7→ w̃ est un homomorphisme de A-modules droits, appelé « homomorphisme naturel de M dans son bidual ». 18 CHAPITRE 1. ANNEAUX-MODULES 1.4. Un théorème de Cayley-Hamilton Dans cette section nous commençons l’étude d’ un endomorphisme d’un module sur un anneau commutatif. Ceci nous donnera aussi quelques premières informations concernant les transformations linéaires d’un espace vectoriel de dimension finie sur un corps commutatif. 1.4.1. Soit A un anneau commutatif, M un A-module et f ∈ EndA (M ). Comme l’anneau (EndA (M ), +, ◦) a une structure naturelle de Amodule (voir 1.3.5), une expression de la forme an f n + an−1 f n−1 + · · · + a1 f + a0 , où les ai ∈ A, désigne un endomorphisme du A-module M : ∀w ∈ M (an f n + an−1 f n−1 + · · · + a1 f + a0 )(w) = an f n (w) + an−1 f n−1 (w) + · · · + a1 f (w) + a0 w. Les coefficients ai intervenant dans cette expression peuvent être vus comme les coefficients d’un polynôme P = an X n +an−1 X n−1 +· · ·+a1 X+a0 ∈ A[X] et nous pouvons écrire an f n + an−1 f n−1 + · · · + a1 f + a0 = P (f ). Avec cette notation nous avons : ∀P, Q ∈ A[X], (P Q)(f ) = P (f ) ◦ Q(f ) car l’endomorphisme f de M commute avec ses puissances f i et les homothéties (a·)M . L’addition des endomorphismes nous dit aussi que (P + Q)(f ) = P (f ) + Q(f ). Ceci nous donne. Proposition 1.4.2. Soit A un anneau commutatif, M un A-module et f ∈ EndA (M ). La fonction d’évaluation ef : (A[X], +, ·) → (EndA (M ), +, ◦) : P 7→ P (f ) est un homomorphisme d’anneaux. L’image de cet homomorphisme sera désignée par A[f ], A[f ] est un anneau commutatif et est le sous-anneau de (EndA (M ), +, ◦) engendré par f et les homothéties de M . Corollaire 1.4.3. Soit A un anneau commutatif, M un A-module et soit encore f ∈ EndA (M ). Alors M est naturellement muni d’une structure de A[f ]-module. M est aussi muni via f (ou ef ) d’une structure de A[X]-module définie par Xw = f (w) (an X n + an−1 X n−1 + · · · + a1 X + a0 )w = an f n (w) + an−1 f n−1 (w) + · · · + a1 f (w) + a0 w 1.4. UN THÉORÈME DE CAYLEY-HAMILTON 19 Démonstration. Nous savons que M est naturellement muni d’une structure de (EndA (M ), +, ◦)-module gauche. Comme A[f ] est un sous-anneau commutatif de l’anneau (EndA (M ), +, ◦), M est aussi muni d’une structure de A[f ]-module. L’homomorphisme d’anneau ef : (A[X], +, ·) → (EndA (M ), +, ◦) munit aussi le (EndA (M ), +, ◦)-module gauche M d’une structure de A[X]module gauche décrite par les formules de l’énoncé. Comme l’anneau de polynômes A[X] est aussi commutatif, cette structure est une structure de A[X]-module. 1.4.4. Remarque. Notons que ce dernier corollaire nous fournit enfin des exemples assez intéressants de modules sur des anneaux qui ne sont pas des corps. Nous sommes habitués à traiter avec les espaces vectoriels. Or, insistons, si V est un espace vectoriel sur un corps commutatif K, tout endomorphisme f de V munit V d’une structure de K[f ]-module et aussi d’une structure de K[X]-module via l’homomorphisme ef . Or l’anneau de polynômes K[X] n’est plus un corps. Cette structure de K[X]-module sur V sera particulièrement utile lorsque nous ferons l’étude d’un endomorphisme de V . Pour l’instant, lorsque M est un module sur un anneau commutatif A et f un endomorphisme de M , nous utiliserons la structure de A[f ]-module sur M pour obtenir de premières informations sur cet endomorphisme. Il est clair que l’idéal Ker(ef ) contient AnnA (M ). Nous nous proposons de montrer que Ker(ef ) comprend aussi un polynôme unitaire de degré positif dès que M est un A-module de type fini. Par polynôme unitaire on entend un polynôme de A[X] dont le coefficient du terme de degré le plus élevé est 1. Pour ce faire, nous utiliserons la théorie des déterminants, disponible dans tout anneau commutatif : le déterminant d’une matrice carrée n × n à coefficients dans un anneau commutatif étant défini comme celui d’une matrice carrée à coefficients dans un corps commutatif. 1.4.5. Rappels sur les déterminants. Soit G = (gij ) une matrice carrée n × n à entrées gij dans un anneau commutatif A. Soit Gij le déterminant de la matrice (n − 1) × (n − 1) obtenue à partir de la matrice G par suppression de la iième ligne et de la j ième colonne et rappelons le développement du déterminant de G selon la iième colonne : X det(G) = (−1)i+k Gki gki , 1 6 i 6 n. k Nous avons aussi 0= X (−1)i+k Gki gkj si i 6= j k car cette expression est le déterminant d’une matrice dont deux colonnes sont égales (la iième et la j ième ). 20 CHAPITRE 1. ANNEAUX-MODULES Posons maintenant g̃ik = (−1)i+k Gki , les g̃ik sont les entrées d’une matrice G̃, transposée de la matrice des cofacteurs de G avec leur signe. Avec ces notations nos équations se réécrivent G̃.G = det(G).In , où In désigne la matrice identique n × n. Rappelons aussi que det(G) = det(Gt ), où Gt désigne la matrice transposée de la matrice G, et que, pour toute autre matrice n × n H à entrées dans A, on a det(GH) = det(G)det(H) = det(HG). 1.4.6. Polynôme caractéristique d’une matrice carrée. Si C est une matrice carrée n × n à entrées dans un anneau commutatif A, nous formons la matrice (XIn − C), cette dernière est une matrice carrée à entrées dans l’anneau de polynômes A[X]. Le polynôme caractéristique de la matrice C est défini par ϕC = det(XIn − C). Notons que ϕC est un polynôme unitaire de degré n de A[X]. Théorème 1.4.7. Théorème de Cayley-Hamilton pour les modules. Soit A un anneau commutatif, M un A-module de type fini et soit encore f ∈ EndA (M ). Alors il existe un polynôme unitaire P ∈ A[X] tel que P (f ) = 0. Plus précisément, soit w1 , · · · , wn une partie génératrice du A-module M . Nous pouvons écrire f (wi ) = n X cij wj , 16i6n j=1 où les cij ∈ A. Voyons ces cij comme les entrées d’une matrice carrée C ∈ An×n . Alors le polynôme caractéristique det(XIn − C) de la matrice C est un polynôme unitaire de A[X] s’annulant en f : ϕC (f ) = 0. Démonstration. Réécrivons nos équations : 1 6 i 6 n, n X (δij f − cij )wj = 0, j=1 où δij est le symbole de Kronecker. Comme M a une structure de A[f ]module, nous voyons ceci comme un système d’équations à coefficients (δij f − cij ) dans l’anneau commutatif A[f ]. Réécrivons encore ce système sous forme matricielle : w1 0 .. .. (f In − C) . = . . wn 0 1.4. UN THÉORÈME DE CAYLEY-HAMILTON 21 Posons f In − C = G, G est une matrice carrée n × n à entrées dans l’anneau commutatif A[f ]. Multiplions notre dernière équation à gauche par la matrice G̃ introduite en 1.4.5. Comme G̃.G = det(G).In , il vient : w1 0 .. .. det(G)In · . = . et ∀i, 1 6 i 6 n, det(G).wi = 0. wn 0 Mais det(G) est un élément de A[f ] ⊂ EndA (M ), det(G) est un endomorphisme de M . Et comme l’endomorphisme det(G) s’annule sur une partie génératrice de M , il est nul : det(G) = 0. On conclut en observant que det(G) = ef (det(XIn − C)) et en se rappelant que ϕC = det(XIn − C) est un polynôme unitaire de degré n, positif dès que M est non nul. 1.4.8. Remarque. Dans la preuve de 1.4.7 nous avons tiré avantage de la structure de A[f ]-module de M, ce qui nous a amené à mettre les coefficients et les fonctions du même coté, ici à gauche. Ceci est un des rares cas où il est judicieux de ne pas respecter la règle d’or de Jacobson. 1.4.9. Rappels d’algèbre linéaire. Un cas particulier important de 1.4.7 est celui où A = K est un corps commutatif. Un K-module de type fini est alors un K-vectoriel de dimension finie et nous avons vu au cours d’algèbre linéaire qu’un K-vectoriel de dimension finie possède une base. Si A = K est un corps commutatif et si M = V est un K-vectoriel de dimension finie, dans la preuve de 1.4.7 nous pouvons prendre pour partie génératrice de V une base e = (e1 , · · · , en ) de V . La matrice C intervenant en 1.4.7 (ou sa transposée selon la convention matricielle adoptée) est alors la matrice représentant la transformation linéaire f de V dans cette base e. Nous avons vu aussi au cours d’algèbre linéaire que, si e0 = (e01 , · · · , e0n ) est une autre base de V et si C 0 est la matrice représentant f dans cette autre base e0 , alors det(C) = det(C 0 ) et det(XIn −C) = det(XIn −C 0 ). Ceci nous a permis de définir le déterminant et le polynôme caractéristique de la transformation linéaire f de V par det(f ) = det(C) et ϕf = det(XIn − C). Voici un cas particulier très important de 1.4.7. Théorème 1.4.10. Théorème de Cayley-Hamilton classique. Soit V un espace vectoriel de dimension finie sur un corps commutatif K et soit f une transformation linéaire de V . Alors le polynôme caractéristique de f s’annule en f : ϕf (f ) = 0. 1.4.11. Le polynôme caractéristique joue un rôle non négligeable dans l’étude d’une transformation linéaire f d’un espace vectoriel V de dimension finie sur un corps commutatif K. Au cours d’algèbre linéaire on a définit la notion de valeur propre. Un élément λ ∈ K est une valeur propre de f si Ker(λIV − f ) 6= {0}. 22 CHAPITRE 1. ANNEAUX-MODULES Les éléments de Ker(λIV − f ) sont alors appelés vecteurs propres de f de valeur propre λ, ils forment un sous-espace non nul de V . Rappelons aussi que : ∀λ ∈ K, Ker(λIV − f ) 6= {0} ⇔ det(λIV − f ) = 0 ⇔ ϕf (λ) = 0. Les valeurs propres de f sont exactement les racines dans K du polynôme caractéristique ϕf . ———————————————————————————— Exercice 1.4.12. Soit M un module sur l’anneau commutatif A et soit f un endomorphisme de M . On munit M de sa structure de A[f ]-module. (i) Pour tout sous-A-module M 0 de M on a : M 0 est un sous-A[f ]-module de M ⇔ f (M 0 ) ⊂ M 0 . Lorsque f (M 0 ) ⊂ M 0 , on dit aussi que M 0 est stable ou invariant par f , ou que M 0 est un sous-A-module f -stable de M . (ii) Ker(f ) et Im(f ) sont des sous-A[f ]-modules de M . (iii) Pour tout g ∈ EndA (M ) on a g est un endomorphisme de A[f ]-module si et seulement si g ◦ f = f ◦ g. Exercice 1.4.13. Soit V un espace vectoriel sur le corps commutatif K et soit f, g ∈ EndK (V ). Supposons que g ◦ f = f ◦ g. Alors : (i) Ker(g) et Im(g) sont non seulement des sous-K[g]-modules de V mais aussi des sous-K[f ]-modules de V . (ii) Si V1 est un sous-espace f -stable de V , alors g(V1 ) est un sous-espace f -stable de V En particulier, si v est un vecteur propre de f de valeur propre λ, alors g(v) est aussi un vecteur propre de f de valeur propre λ et, si V(λ,f ) désigne l’espace des vecteurs propres de f de valeur propre λ, on a aussi g(V(λ,f ) ) ⊂ V(λ,f ) . 1.5. SOMMES ET PRODUITS DIRECTS 23 1.5. Sommes et produits directs 1.5.1. Somme directe de deux modules. Si M1 et M2 sont deux Amodules droits l’ensemble produit M1 × M1 est naturellement muni d’une structure de A-module droit, l’addition et la multiplication scalaire par les éléments de A étant définies composante par composante. Le A-module droit ainsi obtenu est appelé somme directe des A-modules droits M1 et M2 et désigné par M1 ⊕ M2 . Ce module M1 ⊕ M2 est naturellement muni de deux homomorphismes injectifs u1 et u2 de A-modules droits M1 J JJ JJu1 JJ JJ % M91 ⊕ M2 M2 t tt tut t t 2 tt définis par u1 (w1 ) = (w1 , 0) et u2 (w2 ) = (0, w2 ). Cette somme directe a la propriété universelle suivante : pour tout Amodule droit X, tous homomorphismes f1 : M1 → X et f2 : M2 → X de A-modules droits, il existe un unique homomorphisme de A-modules droits f : M1 ⊕ M2 → X tels que f1 = f ◦ u1 et f2 = f ◦ u2 . Cet homomorphisme est défini par f (w1 , w2 ) = f1 (w1 ) + f2 (w2 ). M1 J f1 JJ JJu1 JJ JJ % M91 ⊕ M2 M2 t tt tut t t 2 tt f2 f &/ 8X 1.5.2. On dit aussi qu’un A-module droit M est somme directe de ses deux sous-A-modules droits M1 et M2 si l’une des conditions équivalentes suivantes est satisfaite : (i) M = M1 + M2 et M1 ∩ M2 = {0}, (ii) tout élément w de M s’écrit de façon unique w = w1 + w2 , où w1 ∈ M1 et w2 ∈ M2 , (iii) l’homomorphisme naturel M1 ⊕ M2 → M : (w1 , w2 ) 7→ w1 + w2 est un isomorphisme. Quand ces conditions sont satisfaites on écrit encore M = M1 ⊕ M2 . On dit que M1 (M2 ) est un sommant direct de M et que M2 est un complémentaire de M1 dans M . 1.5.3. Il n’y a pas grande différence entre 1.5.1 et 1.5.2 : notons que dans la situation de 1.5.1 le module M1 ⊕ M2 est somme directe au sens de 1.5.2 de ses deux sous-modules u1 (M1 ) et u2 (M2 ). 24 CHAPITRE 1. ANNEAUX-MODULES 1.5.4. Remarque Un sous-A-module droit d’un A-module droit quelconque M n’a pas nécessairement un complémentaire dans M . Par exemple, rappelons que les sous-Z-modules de Z sont les nZ, où n ∈ N, et observons que nZ n’a pas de complémentaire dans Z si n 6= 0, 1. Ceci illustre une des nombreuses différences entre la théorie des modules et celle des espaces vectoriels, qui sont des modules sur un corps K. On a sans doute vu au cours d’algèbre linéaire que tout sous-K-vectoriel V1 d’un K-vectoriel V admet un complémentaire. (Pour obtenir un complémentaire V2 de V1 dans V on peut procéder comme suit, on prolonge une base B1 de V1 en une base de V et on prend pour V2 le sous-K-vectoriel de V engendré par B \ V1 .) On peut généraliser 1.5.2. Proposition Définition 1.5.5. Soit M1 , · · · , Mn des sous -A-modules droits du A-module droit M . Les conditions suivantes sont équivalentes. (i) tout élément w de M s’écrit de façon unique w = w1 + · · · wn , où wi ∈ Mi , 1 6 i 6 n. (Nous dirons alors que wi est la composante de w dans Mi ou laPiième composante de w.) P (ii) M = ni=1 Mi et ∀k, 1 6 k 6 n, Mk ∩ ( i6=k Mi ) = {0}, P P (iii) M = ni=1 Mi et ∀k, 1 6 k < n, Mk+1 ∩ ( ki=1 Mi ) = {0}. Quand ces conditions sont satisfaites on dit que M estL somme directe de ses sous-A-modules droits M1 , · · · , Mn et on écrit M = 16i6n Mi . 1.5.6. On peut aussi définir la somme directe de deux homomorphismes de A-modules droits f1 : M1 → N1 et f2 : M2 → N2 par f1 ⊕ f2 : M1 ⊕ M2 → N1 ⊕ N2 : (w1 , w2 ) 7→ (f1 (w1 , f2 (w2 )). 1.5.7. Sommes et produits directs d’une famille quelconque de modules. Soit (Mi )i∈I une famille de A-modules gauches. Q (a) On munit l’ensemble produit i∈I Mi = {(wi )i∈I | ∀i ∈ I, wi ∈ Mi } d’une structure de A-module gauche en définissant l’addition et la multiplication scalaire par les éléments de l’anneau composante par composante. Le A-module gauche ainsi obtenuQ est appelé le produit direct des Mi . La projection naturelle pk de i∈I Mi sur son k ième facteur Mk définie Q par pk : i∈I Mi ³ Mk : (wi )i∈I 7→ wk est un homomorphisme de Amodules gauches. Le produit direct des Mi jouit de la propriété universelle suivante. Pour toute famille (fk : X → Mk )k∈I d’homomorphismes de A-modules gauches, Q il existe un et un seul homomorphisme de A-modules gauches f : X → i∈I Mi tel que ∀k ∈ I, fk = pk ◦ f , cet homomorphisme f est défini par f (x) = (fi (x))i∈I . 1.5. SOMMES ET PRODUITS DIRECTS 2 Mk : vv v v v vv vv pk fk X f / Q i∈I 25 Mi Q (b) La partie de i∈I Mi formée des éléments (wi )i∈I dont presque toutes les composantes wi ∈ Mi sont nulles, autrement dit tels que les wi sont nuls sauf un Q nombre fini d’entre eux, est un sous-A-module gauche du produit direct i∈I Mi ,L ce sous-A-module gauche est appelé somme directe des Mi et est noté i∈I Mi . L L’injection naturelle ukL: Mk ,→ i∈I Mi , qui applique un élément ième composante vaut w et w ∈ Mk sur l’élément de i∈I Mi dont la k dont toutes les autres composants sont nulles, est un homomorphisme de A-modules gauches. La somme directe des Mi jouit de la propriété universelle suivante. Pour toute famille (fi : Mi → X)i∈I d’homomorphismes de A-modules L gauches, il existe un et un seul homomorphisme f : i∈I Mi → X tel que ∀k ∈ I, fk = f ◦ uk . P Cet homomorphisme f est défini par f ((wi )(i∈I) ) = (i∈I) fi (wi ) (remarquons que cette dernière somme à un sens, elle est finie puisque presque tous les wi sont nuls, ce qui est indiqué par les parenthèses autour de « i ∈ I »). Mk I II IIuk II II L$ fk i∈I Mi f /& X 1.5.8. Cas particuliers de 1.5.7. Q (i) Lorsque L l’ensemble d’indices I est fini, nous avons évidemment i∈I Mi = i∈I Mi . (ii) Supposons que tous les Mi sont égaux, qu’il existe un module M tel que, ∀i ∈ I, Mi = M . Q I Alors l’ensemble produit i∈I Mi s’identifie à l’ensemble Q M des fonctions de I dans M , la structure de A-module gauche sur i∈I Mi s’identifiant à la structure de A-module gauche sur M I mentionnée en 1.1.6. L Q De plus, le sous-A-module gauche i∈I Mi de i∈I Mi s’identifie au (I) I sous-A-module gauche M de M décrit en 1.1.6. Si tous les Mi sont égaux à M on peut donc écrire Y M Mi = M I et Mi = M (I) . i∈I i∈I 1.5.9. Sorites. Soit (Mi )i∈I une famille de A-modules gauches. 26 CHAPITRE 1. ANNEAUX-MODULES (a) Soit σ une permutation de l’ensemble d’indices I . Alors M Mi ' i∈I M Mσ(i) . i∈I La somme directe est commutative. (b) Si I = I1 ∪ I2 , où I1 ∩ I2 = ∅, alors ( M Mj ) M M M ( Mk ) ' Mi . j∈I1 i∈I k∈I2 La somme directe est associative. ——————————————————————————Exercice 1.5.10. Dans le plan réel, choisissons un point, nommons-le origine et notons-le 0. Nous désignons par Π0 le plan réel avec son point 0 élu et le nommons plan réel pointé. La règle du parallélogramme munit le pan réel pointé Π0 d’une addition notée + et d’une structure de groupe commutatif. b a+b s s s v a 0 Nous pouvons aussi multiplier les points du plan réel par un nombre réel r. r 1s s v s s 0 a ra Ainsi le plan réel pointé a une structure d’espace vectoriel réel (de Rvectoriel). L’ensemble des points d’une droite D passant par l’origine en est un sous-vectoriel. Ce sous-vectoriel a-t’il un complémentaire ? Si oui, en montrer un. Exercice 1.5.11. (a) Le sous Z-module Z du Z-module (Q, +) a-t’il un complémentaire ? (Réponse : non. Pourquoi ?) (b) Le sous Z6 -module {0, 2, 4} du Z6 -module (Z6 , +) a-t’il un complémentaire ? (Réponse : oui, {0, 3} est un complémentaire de {0, 2, 4}.) 1.5. SOMMES ET PRODUITS DIRECTS 27 Exercice 1.5.12. Soit A un domaine, vu comme A-module. Les sous-Amodules de A sont donc les idéaux de A. Observer que l’intersection de deux idéaux non nuls de A est toujours non nulle. En déduire que les sous-A-modules non triviaux de A n’ont pas de complémentaire dans A. Exercice 1.5.13. Projections. (a) Soit M un A-module droit somme directe de ses deux sous-Amodules droits M1 et M2 : M = M1 ⊕ M2 . Écrivons tout élément w de M sous la forme w = w1 + w2 , où w1 ∈ M1 , w2 ∈ M2 . Comme cette écriture est unique, elle nous fournit une fonction p : M → M : w 7→ w1 . Nous dirons que p est la projection de M sur M1 parallèlement à M2 . Montrer que p est un endomorphisme du A-module droit M , et que p = p ◦ p. Observer que Ker(p) = M2 et que Im(p) = M1 . (b) Plus généralement nous dirons qu’un endomorphisme h du Amodule droit M est une projection de M si h = h ◦ h. Démontrer : si h une projection du A-module droit M , alors M = Im(h) ⊕ Ker(h) et h est une projection de M sur Im(h) parallèlement à Ker(h) au sens introduit en (a). (c) Le plan réel pointé de 1.5.10 est, en tant qu’espace vectoriel réel, somme directe de deux de ses droites distinctes passant par l’origine. Visualiser la projection sur l’une de ces droites parallèlement à l’autre. (d) Montrer par un exemple que la composée de deux projections n’est pas toujours une projection. (Dans le plan réel avec un point 0 élu Π0 , composer deux projections orthogonales sur des droites non perpendiculaires passant par l’origine.) 28 CHAPITRE 1. ANNEAUX-MODULES Chapitre 2 Modules libres 2.1. Parties libres, bases Définitions 2.1.1. Soit A un anneau et M un A-module droit. Une partie L de M est dite libre ou linéairement indépendante si, pour tout n > 0, toute suite finie w = (w1 , · · · , wn ) d’éléments de L distincts deux-à-deux et toute suite finie a = (a1 , · · · , an ) d’éléments de l’anneau A, Ã n ! X wi ai = 0 ⇒ (∀i, 1 6 i 6 n, ai = 0). i=1 Une partie B de M est une base de M si B est à la fois génératrice et libre. Un A-module droit libre est un A-module droit possédant une base. 2.1.2. Remarques. (i) Il découle de la définition qu’une partie L d’un Amodule droit (ou gauche) est libre si et seulement toutes les parties finies de L sont libres. (ii) Il résulte aussi de la définition que toute partie d’une partie libre d’un A-module droit M est une partie libre de M . En particulier la partie vide de M est libre. Et ∅ est une base de M si et seulement si M = 0. (iii) Une partie libre d’un A-module M , gauche ou droit, ne comprend jamais 0. 2.1.3. Exemples. (i) Soit A un anneau. Alors A vu comme A-module droit est un Amodule droit libre de base {1}. Si u ∈ A est un inversible de A, alors {u} est aussi une base de A. (ii) Si w est un élément du A-module droit M , la partie singleton {w} 29 30 CHAPITRE 2. MODULES LIBRES de M est libre si et seulement si AnnA (w) = {0}. Dans ce cas, mod(w) = wA ' A en tant que A-module droit. (iii) Dans un anneau commutatif A vu comme A-module, les parties libres sont toutes singletonnes. (iv) Si A n’est pas un corps, la plupart des A-modules droits ne possèdent pas de bases et ne sont pas libres. Par exemple, le Z-module Z/6Z n’est pas libre, sa seule partie libre est sa partie vide. Autre exemple. L’ensemble Q des nombres rationnels a une structure Zmodule. On observe que les parties libres du Z-module Q sont singletonnes et on en déduit que ce Z-module n’a pas de base. (v) Dans l’anneau Z[X] des polynômes à coefficients entiers en l’indéterminée X, vu comme module sur lui-même, la partie {2, X} n’est pas libre. L’idéal I de Z[X] engendré par cette partie {2, X} est un sous-Z[X]module du Z[X]-module libre Z[X], mais I n’est pas un Z[X]-module libre car l’idéal I n’est pas un idéal principal. 2.1.4. Coordonnée relativement à une base. Soit A un anneau et soit M un A-module droit libre de base B. Tout élément w de M s’écrit de façon unique comme combinaison liP néaire à coefficients dans A des éléments de la base B : w = (v∈B) vav , où (av )(v∈B) est une famille presque nulle d’éléments de A indicée par B. Nous dirons que cette famille (av )(v∈B) est la coordonnée de w dans la base B. P P Remarquons que, si c ∈ A, si w = (v∈B) vav et w0 = (v∈B) va0v , alors P P w + w0 = (v∈B) v(av + a0v ) et wc = (v∈B) v(av c). Voici maintenant une description des A-modules libres (gauches ou droits). Proposition 2.1.5. Soit A un anneau et I un ensemble. Le A-module gauche A(I) introduit en 1.1.6 est un A-module gauche libre, appelé A-module gauche libre construit sur l’ensemble I. Et réciproquement, tout A-module gauche libre de base B est isomorphe au A-module gauche libre A(B) . Démonstration. Exhibons une base de A(I) . Associons à chaque élément i de I la fonction ei ∈ AI définie par : ½ 1 si j = i ei : I → A : j 7→ . 0 si j 6= i I On remarque que ces fonctions ei forment une partie libre P de A (pour toute famille presque nulle (ai )i∈I d’éléments de A on a ( (i∈I) ai ei )(k) = ak , 2.1. PARTIES LIBRES, BASES 31 P donc (i∈I) ai ei = 0 ⇔ ∀k ∈ I, ak = 0). On remarque aussi que le sous Amodule gauche de AI engendré par ces fonctions est le sous-module A(I) des fonctions de I dans A nulles presque partout. Ces fonctions (ei )i∈I forment donc une base de A(I) . Réciproquement, soit M un A-module gauche libre de base B. Pour une fonction s ∈ AB il est commode de désigner par sb l’image d’un élément b ∈ B par cette fonction s. Si maintenant s ∈P A(B) , la famille (sb )b∈B d’éléments de A est presque nulle et l’expression (b∈B) sb b a un sens, elle représente une somme finie d’éléments de M (ce qui est indiqué par les parenthèses autour de « b ∈ B »). On a donc une fonction f : A(B) → M : s 7→ X sb b. (b∈B) On remarque que cette fonction f est un homomorphisme de A-modules gauches. De plus, comme la base B de M est libre et génératrice, cette fonction f est injective et surjective, f est donc un isomorphisme de Amodules gauches. 2.1.6. Conclusion. Ce qui précède nous permet de parler sans ambiguité du A-module gauche (resp. droit) libre construit surP un ensemble B. Les éléments de ce module sont le plus souvent notés par (b∈B) sb b (resp. par P bs ), où (s ) est une famille presque nulle d’éléments de A. b b b∈B (b∈B) 2.1.7. Remarques. (a) Si M est Lun A-module gauche libre de base B, on peut aussi observer que M = v∈B Av et que Av ' A dès que v ∈ B. Un A-module gauche libre M est donc isomorphe à une somme directe éventuellement infinie de copies de A (l’isomorphisme dépendant du choix d’une base de M ). (b) Si l’ensemble I est infini notons que A(I) ( AI , que les fonctions ei , i ∈ I ne forment pas une partie génératrice de AI (par exemple, soit t ∈ AI définie par ∀i ∈ I, t(i) = 1, t ∈ / A(I) ). Signalons d’ailleurs que si l’anneau A n’est pas un corps, s’il est assez « gros », le A-module droit AI peut très bien ne pas être libre. 2.1.8. Propriété universelle des modules libres. Soit M un A-module droit libre de base B. Avec l’écriture unique des éléments de M comme combinaisons linéaires, à coefficients dans A, des éléments de sa base B, nous voyons que toute fonction f 0 de B dans un autre A-module droit N se prolonge de façon unique en un homomorphisme f de A-modules droits de M dans N . 2N > f0 f B /M i 32 CHAPITRE 2. MODULES LIBRES (Si f : M → N est un P homomorphisme Pde A-module droits prolongeant f 0 , nous devons avoir f ( (v∈B) vav ) = (v∈B) f 0 (v)av . Ceci montre l’unicité du prolongement. D’autre part,P il est facile de P voir avec 2.1.4 que la fonction f : M → N définie par f ( (v∈B) vav ) = (v∈B) f 0 (v)av est un homomorphisme de A-modules droits.) Voici une autre façon d’exprimer cette propriété des bases. Si M est un A-module droit libre de base B, pour tout A-module droit N , la fonction HomA (M, N ) −→ Ens(B, N ) : f 7→ f|B est bijective. ( Ici, Ens(B, N ) désigne l’ensemble des fonctions de l’ensemble B dans N et f|B désigne la restriction de f à B.) Le vocabulaire introduit ici est le même que celui introduit dans l’étude des espaces vectoriels et applications linéaires. Cependant, le fait que nos coefficients ai soient pris dans un anneau et non plus dans un corps, qu’ils peuvent ne pas être inversibles, pire, qu’ils peuvent être diviseurs de zéro, aura comme conséquence que la situation pour les modules peut être beaucoup plus complexe que celle pour les espaces vectoriels. Pour illustrer ceci un peu de vocabulaire sera utile. 2.1.9. Vocabulaire. Soit P un ensemble de parties de l’ensemble E : P ⊂ P(E). Nous dirons qu’une partie P1 de P est maximale (dans P) si, ∀X ∈ P, (P1 ⊂ X) ⇒ (P1 = X). De façon analogue,nous dirons qu’une partie P0 de P est minimale (dans P) si, ∀Y ∈ E, (Y ⊂ P0 ) ⇒ (Y = P0 ). Proposition 2.1.10. Soit A un anneau, M un A-module gauche et P une partie de M . On a : (i) P libre ⇒ (∀x ∈ P, x ∈ / mod(P \ {x}). (ii) P libre maximale ⇐ P base ⇒ P génératrice minimale. Démonstration. (i) est aisé et (ii) découle de (i). Combinant 2.1.10 avec 1.1.10 nous obtenons Corollaire 2.1.11. Si M est un A-module gauche libre de type fini, toutes les bases de M sont finies. 2.1.12. Remarques. Dans la proposition 2.1.10 on ne peut retourner aucune des implications quand l’anneau A est quelconque, comme le montre l’exemple très simple suivant pris dans le Z-module libre (Z, +). 2.1. PARTIES LIBRES, BASES 33 La partie {2, 3} du Z-module (Z, +) n’est pas libre bien qu’aucun de ses éléments ne soit combinaison linéaire, à coefficients dans Z, des autres éléments de la partie. Cette partie {2, 3} de Z est aussi une partie génératrice minimale de Z, elle n’est pas une base de Z et ne contient aucune base de Z. La partie singleton {2} du Z-module (Z, +) est une partie libre maximale de Z, mais elle n’est pas une base de Z et n’est pas contenue dans une base de Z. Mais si A = K est un corps, nos implications deviennent des équivalences. Proposition 2.1.13. Soit K un corps, V un K-vectoriel gauche et P une partie de V . On a : (i) P libre ⇔ (∀x ∈ P, x ∈ / mod(P \ {x}). (ii) P libre maximale ⇔ P base ⇔ P génératrice minimale. ( La preuve de ceci est directe et encore confiée au lecteur, qui peut néanmoins se rappeler que cette preuve a vraisemblablement été donnée au cours d’algèbre linéaire.) Avec cette dernière proposition nous retrouvons un résultat déjà rencontré au cours d’algèbre linéaire. Théorème 2.1.14. Soit K un corps. Tout K-vectoriel droit ou gauche possédant une partie génératrice finie possède une base finie, autrement dit est libre de type fini. Démonstration. Une partie génératrice finie G d’un K-vectoriel droit ou gauche V contient une partie génératrice minimale de V . Nous concluons avec 2.1.13. 2.1.15. Annonces. Si A = K est un corps, nous verrons que tout Kvectoriel droit V possède une base, que toutes les bases de V ont même « nombre » d’éléments, plus précisément ont même cardinal, appelé la dimension de V et noté dimK V . Nous verrons aussi que toute partie libre de V est contenue dans une base de V et que toute partie génératrice de V contient une base de V . Dans le cas où le le K-vectoriel V possède une partie génératrice finie ces propriétés ont déjà été démontrées au premier cours d’algèbre linéaire. Mais les propriétés ci-dessus ne sont pas toutes valables pour un module droit (gauche) sur un anneau quelconque, ni même pour un A-module droit (gauche) libre de type fini, bien qu’il ressort de nos définitions qu’un module libre ressemble plus à un espace vectoriel qu’un module quelconque. Nous verrons en 2.2.21 un module libre sur un anneau non commutatif possédant une base de 1 élément et une autre base de 2 éléments. Mais nous verrons aussi à la fin de ce chapitre qu’un tel phénomène ne peut se produire sur un anneau commutatif. 34 CHAPITRE 2. MODULES LIBRES Voici enfin une propriété commune aux modules et aux espaces vectoriels Proposition 2.1.16. Si le A-module droit M est somme directe de ses deux sous-A-modules M1 et M2 : M = M1 ⊕ M2 , si M1 est un A-module droit libre de base B1 et si M2 est un A-module droit libre de base B2 , alors M est un A-module droit libre de base B1 ∪ B2 . Plus généralement, toute somme directe de A-modules droits libres est un A-module droit libre ( les preuves immédiates sont confiées au lecteur.) Mais ceci n’implique pas que tout sommant direct d’un A-module droit libre est libre. Regardons par exemple le Z6 -module Z6 . Nous avons un isomorphisme de Z6 -modules : Z6 ' Z2 ⊕ Z3 . Le Z6 -module Z6 est libre, les Z6 -modules Z2 et Z3 ne le sont pas. Ceci n’implique pas non plus que tout sous-A-module droit libre d’un A-module droit libre M est sommant direct de M . Par exemple, 2Z est un Z-module libre et un sous-Z-module de Z, mais 2Z n’est pas un sommant direct de Z. Pour terminer, redémontrons que toutes les bases d’un K-vectoriel (gauche ou droit) de type fini on même nombre d’éléments. Théorème 2.1.17. Remplacement. Soit K un corps, V un K-vectoriel gauche (ou droit) et G = {g1 , · · · , gs } une partie génératrice finie de V comprenant s éléments. Soit L = {b1 , · · · , bm } une partie libre de V de m éléments. Alors : (i) m 6 s, (ii) il y a s − m éléments de G que nous désignerons par gm+1 , · · · , gs (après une éventuelle renumérotation des gi si nécessaire) telle que la partie G0 = {b1 , · · · , bm , gm+1 , · · · , gs } soit encore une partie génératrice de V . Démonstration. La preuve se fait par induction sur le nombre m d’éléments de notre partie libre L. Si m = 0 il n’y a rien à faire. Supposons notre assertion vraie pour toute partie libre de V comprenant m − 1 éléments (nous supposons donc implicitement que m − 1 6 s), et appliquons ceci à la partie libre {b1 , · · · , bm−1 }. Après une éventuelle renumérotation des gi nous aurons que G00 = {b1 , · · · , bm−1 , gm , · · · , gs } est une partie génératrice de V , et donc bm est combinaison linéaire des éléments de G00 : bm = P Pque m−1 s 0 i=1 ai bi + j=m aj gj . Comme notre partie L de départ était libre, un au moins des coefficients a0m , · · · , a0s est non nul. Ceci montre déjà que m 6 s. Après renumérotation des gm , · · · , gs nous aurons a0m 6= 0. Ceci implique que gm est combinaison linéaire des b1 , · · · , bm , gm+1 , · · · , gs , que G0 est génératrice et que notre assertion est vraie pour toute partie libre de m éléments. De ceci on déduit aisément. 2.1. PARTIES LIBRES, BASES 35 Théorème 2.1.18. Si le K-vectoriel V (gauche ou droit) possède une partie génératrice finie, toutes ses bases sont finies et ont même nombre d’éléments, appelé la dimension de V sur K et noté dimK (V ). ——————————————————————————– Exercice 2.1.19. Soit V un espace vectoriel gauche de dimension dénombrable sur un corps K, de base (ei )i∈N . Montrer un isomorphime V ∼ → V ⊕V . Exercice 2.1.20. Soit Soit A un anneau, I un idéal propre de A et M un A-module gauche libre de base B. Désignons par (·) les images modulo I comme en 1.1.23 : M̄ = M/IM, Ā = A/I, ∀w ∈ M, w̄ = w + IM et ∀a ∈ A, ā = a + I. Alors M est un A-module gauche libre de base B. 36 CHAPITRE 2. MODULES LIBRES 2.2. Modules libres de type fini et matrices 2.2.1. Rappel sur le calcul matriciel. Désignons par Am×n l’ensembles des matrices à m lignes et n colonnes à coefficients dans A. Si F ∈ Am×n , nous dirons que F est une matrice de taille m × n et nous désignerons l’entrée de F située sur sa iième ligne et sa j ième colonne par Fji ou Fij selon le goût du moment. Si m = n, nous dirons que F est une matrice carrée de taille n. Nous avons appris à additionner des matrices de même taille, si F, G ∈ Am×n , la matrice F + G ∈ Am×n est définie par (F + G)ij = Fji + Gij . Nous observons que (Am×n , +) est un groupe commutatif dont le neutre additif est la matrice nulle de Am×n , c.-à-d. la matrice ∈ Am×n dont toutes les entrées sont nulles. Nous avons aussi appris à multiplier à droite une matrice F ∈ Am×n par une matrice G ∈ An×r : F G ∈ Am×r , (F G)ij = n X Fki Gkj . k=1 Nous savons que la multiplication matricielle est associative : si F ∈ Am×n , G ∈ An×r et H ∈ Ar×s , alors ((F G)H)ij = (F (GH))ij r n X X Fki Gkl Hjl . k=1 l=1 Pour tout naturel positif n, la matrice identique 1n ∈ An×n est définie par (1n )ij = 1 si i = j et (1n )ij = 0 si i 6= j. Ces matrices identiques jouent le rôle de neutres pour la multiplication : In est la seule matrice carrée de taille n telle que ∀F ∈ Am×n , ∀G ∈ An×r , , F 1n = F et 1n G = G. Ceci nous amène à dire qu’une matrice C ∈ An×m est inversible s’il existe une matrice D ∈ Am×n telle que CD = 1n et DC = 1m . Dans ce cas, nous avons une seule matrice D telle que CD = 1n et DC = 1m , nous dirons que cette matrice D est l’inverse de la matrice C et nous écrirons D = C −1 . (Signalons qu’une matrice inversible n’est pas forcément carrée lorsque l’anneau n’est pas commutatif, nous en verrons un exemple en 2.2.21.) Nous savons aussi que la multiplication matricielle distribue l’addition, à gauche comme à droite. En particulier nous savons que l’ensemble des matrices carrées de même taille n×n à coefficients dans A forme un anneau dont le neutre multiplicatif est la matrice identique 1n . L’ensemble An×n avec sa structure d’anneau sera souvent désigné par Mn (A). Notons : M1 (A) = A1×1 = A. Remarquons aussi que la multiplication matricielle munit le groupe additif (Am×n , +) d’une structure de Mm (A)-module gauche et d’une structure de Mn (A)-module droit. 2.2. MODULES LIBRES DE TYPE FINI ET MATRICES 37 Nous pouvons également munir le groupe additif (Am×n , +) d’une structure de A-module gauche et d’une autre structure de A-module droit. Si a ∈ A, F ∈ Am×n , nous pouvons définir des matrices aF, F a ∈ Am×n par (aF )ij = aFji , (F a)ij = Fji a. Si l’anneau A n’est pas commutatif, les matrices aF et F a ne sont pas forcément égales et ces structures ne retiendront pas notre attention. Mais si l’anneau A est commutatif, nous retenons que Am×n a aussi une structure de A-module. 2.2.2. Exemples types de modules libres de type fini. (a) A droite. Soit A un anneau. Nous pouvons multiplier une matrice v ∈ Am×1 à droite par un élément a de l’anneau A = A1×1 . La multiplication matricielle munit naturellement le groupe additif (Am×1 , +) d’une structure de A-module droit . Ce A-module droit Am×1 est un A-module droit libre de base 1 0 0 0 1 0 e1 = 0 , e2 = 0 , · · · , em = ... . .. .. . . 0 0 0 1 Cette base est souvent appelée la base canonique de Am×1 . Soit maintenant F ∈ Am×n . Pour tout v ∈ An×1 , nous avons F · v ∈ Am×1 et nous obtenons une fonction f définie par f : An×1 → Am×1 : v = a1 a2 .. . an 7→ F · v = F a1 a2 .. . . an Cette fonction est un homomorphisme de A-modules droits et tout homomorphisme de A-modules droits f : An×1 → Am×1 peut s’obtenir de cette manière. Remarquons aussi que l’image f (ei ) du iième élément de la base canonique de An×1 est la iième colonne de la matrice F , et que Im(f ) est le sous-A-module droit de Am×1 engendré par les colonnes de la matrice F , souvent appelé « espace colonne (à droite) » de la matrice F . Remarquons encore que f est injective si et seulement si les f (ei ) sont linéairement indépendants dans le A-module droit Am×1 , que f est surjective si et seulement si les f (ei ) forment une partie génératrice de Am×1 et que f est bijective si et seulement si les f (ei ) forment une base de Am×1 . 38 CHAPITRE 2. MODULES LIBRES (b) A gauche. De la même façon, nous pouvons multiplier une matrice v ∈ A1×n à gauche par un élément a de l’anneau A1×1 ' A et ceci munit naturellement le groupe additif (A1×n , +) d’une structure de A-module gauche . Ce A-module gauche A1×n est un A-module gauche libre de base e1 = (1, 0, 0, · · · , 0) e2 = (0, 1, 0, · · · , 0) .. . en = (0, 0, · · · , 0, 1) A nouveau, cette base est souvent appelée la base canonique de A1×n . Soit encore F ∈ Am×n . La fonction f 0 définie par f 0 : A1×m → A1×n : v = (v1 , · · · , vm ) 7→ vF = (v1 , · · · , vm )F est un homomorphisme de A-modules gauches. Ici, l’image par f 0 du iième élément de la base canonique de A1×m est la iième ligne de la matrice F et Im(f 0 ) est le sous-A-module gauche de A1×n engendré par les lignes de la matrice F , souvent appelé « espace ligne (à gauche) » de la matrice F . 2.2.3. Coordonnée relativement à une base finie. (a) Le cas des A-modules droits. Supposons que le A-module droit libre M possède une base finie. Nous écrirons alors les éléments de cette base en ligne, nous écrirons : e = (e1 , · · · , en ) est une base de M, signifiant par cela que les éléments ei , 1 6 i 6 n, de M sont distincts deux-à-deux et forment une base de M . Ecrivons un élément w de M comme combinaison linéaire des ei : w= n X ei w i , où wi ∈ A. i=1 La coordonnée de cet élément w de M s’écrira alors en colonne : 1 w .. e w = . . wn Ceci nous permettra d’utiliser allègrement la notation matricielle et d’écrire : 1 w n .. X e ei w i . w = e · w , ou w = (e1 · · · en ) . = wn i=1 2.2. MODULES LIBRES DE TYPE FINI ET MATRICES 39 (b) Le cas des A-modules gauches. Si le A-module gauche libre M possède une base finie, nous écrirons alors les éléments de cette base en colonne, nous écrirons : 1 e .. e = . est une base de M, en signifiant par cela que les éléments ei , 1 6 i 6 n, de M sont distincts deux-à-deux et forment une base de M . La coordonnée d’un élément w de M s’écrira alors en ligne we = (w1 · · · wn ), où les wi ∈ A. Ceci nous permettra à nouveau d’utiliser allègrement la notation matricielle, d’écrire : 1 e n .. X w = we · e, ou w = (w1 · · · wn ) . = wi ei . i=1 en Proposition 2.2.4. (i) Soit N un A-module gauche et soit w1 , · · · , wn ∈ N . La fonction A1×n → N : (a1 · · · , an ) 7→ n X ai w i i=1 est un homomorphisme de A-modules gauches. Cet homomorphisme est surjectif si et seulement si la partie {w1 , · · · , wn } de N est génératrice, il est injectif si et seulement si cette partie est libre. (ii) En particulier tout A-module gauche libre de type fini est isomorphe à un A-module gauche de la forme A1×n . Démonstration. Immédiat au vu de 2.1.4 et 2.1.8. 2.2.5. Changement de bases. (a) A droite. Soit M un A-module droit libre de type fini et soit e = (e1 , · · · , en ) et u = (u1 , · · · , um ) deux bases finies de M (nous ne supposons pas ici que m = n). Nous pouvons écrire les ei comme combinaisons linéaires, à coefficients dans A, des uj et vice-versa, cette écriture est unique et nous obtenons deux matrices C ∈ An×m , ∀j, 1 6 j 6 m, uj = C 0 ∈ Am×n n X k=1 telles que ek Cjk , ou, en écriture matricielle, u = eC, 40 CHAPITRE 2. MODULES LIBRES ∀i, 1 6 j 6 n, ei = m X k uk C 0 i , ou, en écriture matricielle, e = uC 0 . k=1 De plus, par associativité nous avons les égalités u = eC = uC 0 C et e = uC 0 = eCC 0 . Comme e et u sont deux bases de M , nous en déduisons : C 0 C = 1m , CC 0 = 1n , (où 1r désigne la matrice identique de taille r × r), ce qui signifie que les matrices C et C 0 sont inversibles, que C 0 = C −1 et C = C 0−1 . Regardons maintenant l’effet d’un changement de bases sur les coordonnées. Soit w ∈ M . Nous avons la coordonnée we de w dans la base e et la coordonnée wu de w dans la base u. Nous avons donc par associativité : w = e · we = u · wu = e · Cwu , et, comme e est une base de M , nous en déduisons : we = Cwu et wu = C −1 we . (b) A Gauche. 1 Soit M un A-module 1 gauche libre de type fini et soit e u .. .. e = . et u = . en um deux bases finies de M . Nous pouvons à nouveau écrire les ei comme combinaisons linéaires, à coefficients dans A, des uj et vice-versa, cette écriture est unique et nous obtenons deux matrices D ∈ Am×n , D0 ∈ An×m telles que u = De, e = D0 u. De plus, par associativité nous avons les égalités u = De = DD0 u et e = D0 u = D0 De. Comme e et u sont deux bases de M , nous en déduisons : DD0 = 1m , D 0 D = 1n , ce qui signifie que les matrices D et D0 sont inversibles. 2.2. MODULES LIBRES DE TYPE FINI ET MATRICES 41 Regardons maintenant les coordonnées d’un élément w de M . Nous avons : w = we · e = wu · u = wu D · e. Comme e est une base de M , nous en déduisons encore : we = wu D et wu = we D−1 . 2.2.6. Informations. Si A = K est un corps, commutatif ou non, nous avons vu au cours d’algèbre linéaire et revu en 2.1.18 que toutes les bases d’un K-vectoriel droit M de type fini ont même nombre d’éléments, appelé dimension de M et noté dimK M . On en déduit qu’une matrice inversible à entrées dans un corps est toujours carrée. On pourra aussi démontrer que, si A est un anneau commutatif, les matrices inversibles à entrées dans A sont nécessairement carrées, ce qui signifie que, si M est un A-module libre de type fini, alors toutes les bases de M ont même nombre d’éléments, appelé le rang du module. Mais un tel résultat n’est plus valable pour un anneau non commutatif quelconque, nous verrons en 2.2.21 des matrices inversibles qui ne sont pas carrées, un anneau non commutatif A pour lequel on a un isomorphisme de A-modules droits A ' A2×1 . 2.2.7. Homomorphismes de A-modules droits libres de type fini. (i) Soit A un anneau et soit M , N deux A-modules droits libres de type fini. Soit encore e = (e1 , · · · , em ) une base de M et u = (u1 , · · · , un ) une base de N . Tout homomorphisme de A-modules droits f :M →N est entièrement déterminé par les images f (ei ) des éléments de la base e de M . Nous écrivons ces f (ei ) ∈ N comme combinaisons linéaires des éléments de la base u de N et nous obtenons une matrice F ∈ An×m telle que ∀i, 1 6 i 6 m, f (ei ) = n X uk Fik . k=1 Ceci peut se réécrire en notation matricielle (f (e1 ), · · · , f (em )) = (u1 , · · · , un )F, ou encore, de façon plus compacte f (e) = uF. Nous dirons que cette matrice F est la matrice de l’homomorphisme f dans la base e de M et la base u de N , ou que f est représentée par la matrice F dans ces mêmes bases. 42 CHAPITRE 2. MODULES LIBRES Remarquons que la iième colonne de la matrice F est la coordonnée, dans la base u de N , de l’image par f du iième élément de base ei de M . Ainsi, f est injective si et seulement si les colonnes de la matrice F forment une partie libre du A-module droit An×1 et f est surjective si et seulement si les colonnes de la matrice F forment une partie génératrice du A-module droit An×1 . Remarquons aussi que la fonction An×m → HomA (M, N ) qui associe à toute matrice F ∈ An×m l’homomorphisme f de M dans N défini par f (e) = uF est un isomorphisme de groupes additifs, et même un isomorphisme de A-modules dans le cas où l’anneau A est commutatif. (ii) Regardons maintenant la matrice d’une composée d’homomorphismes. Soit P un autre A-module droit libre de type fini et de base v = (v1 , · · · , vp ). Soit f g M →N →P des homomorphismes de A-modules droits et soit G ∈ Ap×n la matrice de g dans la base u de N et la base v de P , de sorte que g(u) = vG. Nous avons : (g ◦ f )(e) = g(f (e)) = g(uF ) = g(u)F = vGF, la matrice de g ◦ f dans la base e de M et la base v de P est la matrice produit GF ∈ Ap×m . En particulier, nous observons que f est un isomorphisme si et seulement si la matrice F est inversible, c.-à-d. si et seulement si ∃G ∈ Am×n telle que F · G = 1n et G · F = 1m . (iii )Regardons maintenant la coordonnée dans la base u de N de l’image f (w) d’un élément w de M . Nous avons : w = ewe , d’où f (w) = f (e)we = uF we , et (f (w))u = F we . (iv) Regardons finalement l’effet de changements de bases dans M et N sur la matrice F . Soit e0 = (e01 , · · · , e0m ) une autre base de M et u0 = (u01 , · · · , u0n ) une autre base de N . Nous avons des matrices inversibles C ∈ Am×m et D ∈ An×n telles que e0 = eC, u0 = uD. 2.2. MODULES LIBRES DE TYPE FINI ET MATRICES 43 Nous en déduisons : f (e0 ) = f (eC) = f (e)C = uF C = u0 D−1 F C. La matrice de f dans les nouvelles bases e0 et u0 est la matrice D−1 F C. Corollaire 2.2.8. Soit A un anneau commutatif et soit M , N deux Amodules (droits) libres de type fini, de rang m et n respectivement. Alors le A-module HomA (M, N ) est un A-module libre de type fini de rang mn. Démonstration. Soit e = (e1 , · · · , em ) une base de M et u = (u1 , · · · , un ) une base de N . Nous avons vu que la fonction An×m → HomA (M, N ) qui associe à toute matrice F ∈ An×m l’homomorphisme f de M dans N défini par f (e) = uF est un isomorphisme de A-modules. Il nous reste à montrer que le A-module An×m est libre de type fini. Pour tout i, j, 1 6 i 6 n et 1 6 j 6 m, définissons une matrice Eji ∈ An×m par ½ 1 si i = k, j = l, i k (Ej )l = 0 sinon. On observe aisément que ces matrices Eji forment une base du A-module An×m . 2.2.9. Homomorphismes de A-modules gauches libres de type fini. (i) Soit A un anneau et soit M , N deux A-modules gauches libres de type fini. Soit encore 1 e .. e = . une base de M et em u1 u = ... une base de N . un Nous respectons la règle d’or de Jacobson et utilisons la composition droite pour les fonctions et les notations mentionnées en 1.1.17. Nous écrivons les images (ei )f des ei par f comme combinaisons linéaires des éléments de la base u de N , nous obtenons une matrice F ∈ Am×n telle que ∀i, 1 6 i 6 m, i f (e ) = n X k=1 Fki uk . 44 CHAPITRE 2. MODULES LIBRES Ceci peut se réécrire en notation matricielle 1 f 1 (e ) u .. .. . = F . , un (em )f ou encore, de façon plus compacte ef = F u. Nous dirons que cette matrice F est la matrice de l’homomorphisme f dans la base e de M et la base u de N . Remarquons ici que c’est la iième ligne de la matrice F qui est la coordonnée, dans la base u de N , de l’image par f du iième élément de base ei de M . Remarquons encore que la fonction Am×n → HomA (M, N ) qui associe à toute matrice F ∈ Am×n l’homomorphisme f de M dans N défini par ef = F u est un homomorphisme de groupes additifs, et même un homomorphisme de A-modules dans le cas où l’anneau A est commutatif. (ii) Regardons maintenant la matrice d’une composée d’homomorphismes. 1 v .. Soit P un autre A-module gauche libre de type fini et de base v = . . vp Soit f g M →N →P des homomorphismes de A-modules gauches et soit G ∈ An×p la matrice de g dans la base u de N et la base v de P , de sorte que ug = Gv. Nous avons : ef ·g = (ef )g = (F u)g = F ug = F Gv, la matrice de f · g = g ◦ f dans la base e de M et la base v de P est la matrice produit F G ∈ Am×p . (iii )Regardons maintenant la coordonnée dans la base u de N de l’image wf d’un élément w de M . Nous avons : w = we e, d’où wf = we ef = we F u, et (wf )u = we F . Voici maintenant quelques remarques utiles concernant les vectoriels de dimension finie sur un corps quelconque. 2.2. MODULES LIBRES DE TYPE FINI ET MATRICES 45 2.2.10. Remarques. Soit K un corps non nécessairement commutatif et soit f : V → W un homomorphisme de K-vectoriels droits de dimension finie. (a) dimK (V ) = dimK Ker(f ) + dimK Im(f ). Si f est injectif ou surjectif, alors f est un isomorphisme. (b) Nous définissons le rang de f par rang(f ) = dimK Im(f ). Soit dimK V = n et dimK W = m. Si f est représentée par une matrice F ∈ K m×n dans une base e de V et une base u de W , alors rang(f ) est la dimension, sur K, de l’espace colonne à droite de la matrice F , encore appelé rang colonne (à droite) de la matrice F , rang(f ) = rang colonne (à droite)(F ) (rappelons que l’espace colonne à droite de la matrice F est le sousespace du K-vectoriel droit K m×1 engendré par les colonnes de F ). Regardons maintenant dimK Ker(f ). La méthode de résolution des systèmes d’équations linéaires nous indique que dimK Ker(f ) = dimK V − rang ligne (à gauche)(F ), ici, par rang ligne (à gauche)(F ), nous entendons la dimension, sur K, de l’espace ligne à gauche de la matrice F , qui, rappelons-le, est le sous-espace du K-vectoriel gauche K 1×n engendré par les lignes de F . De ceci et des remarques précédentes nous déduisons que, pour toute matrice F à entrées dans un corps K, rang ligne (à gauche)(F ) = rang colonne (à droite)(F ). ———————————————————————————– Exercice 2.2.11. Soit H le corps des quaternions et soit V un H-vectoriel droit de base e = (e1 , e2 , e3 ). Les fonctions suivantes sont-elles des homomorphismes de H-vectoriels droits ? Si oui, quelle est leur matrice dans la base e de V et 1 de H ? s1 : V → H : 3 X ei λi 7→ λ1 + jλ2 , i=1 s2 : V → H : 3 X ei λi 7→ λ1 + λ2 j, i=1 s3 : V → H : 3 X ei λi 7→ λ1 · λ2 . i=1 (Indication pour s2 : s2 (e2 i) = ij = k 6= ji = s2 (e2 )i.) 46 CHAPITRE 2. MODULES LIBRES Exercice 2.2.12. Soit H le corps des quaternions. On a vu en 1.1.22 que la fonction µ ¶ µ ¶ a1 ia1 2×1 2×1 f :H →H : 7→ a2 ia2 est un automorphisme de H-module droit. 2×1 µ ¶Quelle µ ¶ est la matrice de f dans la base canonique de H , dans la base 1 0 , ? 0 j Exercice 2.2.13. Rappelons que le plan réel pointé Π0 est naturellement muni d’une structure d’espace vectoriel réel (voir 1.5.10). Observons que deux points du plan réel non alignés sur l’origine en forment une base. Par conséquent chacun des trois dessins suivants définit une transformation linéaire f du R-vectoriel Π0 . sc Isb ¾ ¾ s v 0 a sb j v ¾ s ¾ s 0 c a as N v s s c 0 3 s b Dans chacun des trois cas, dessiner Ker(f ), Im(f ), f −1 {c}, f (c), Im(f ◦ f ). Écrire la matrice de f dans une base judicieusement choisie, de façon à avoir la matrice la plus simple possible. Exercice 2.2.14. (a) Pour toute transformation linéaire d’un K-vectoriel droit V , on a Im(f ◦ f ) ⊂ Im(f ) et Ker(f ◦ f ) ⊃ Ker(f ). (b) Si f est une transformation linéaire d’un K-vectoriel droit V de dimension finie, les assertions suivantes sont équivalentes : (i) Im(f ◦ f ) = Im(f ), (ii) Ker(f ◦ f ) = Ker(f ), (iii) V = Im(f ) ⊕ Ker(f ). (c) L’ensemble R[X] des polynômes à coefficients réels en une variable X est naturellement muni d’une structure d’espace vectoriel réel, de dimension dénombrable, de base {1, X, X 2 , · · · , X n , · · · }. La fonction qui applique tout polynôme sur sa dérivée en est une transformation linéaire, désignons-la par d. 2.2. MODULES LIBRES DE TYPE FINI ET MATRICES 47 Cette transformation linéaire d de R[X] est surjective non injective. Que sont Ker(d) et Ker(d ◦ d) ? Cet exemple montre que l’hypothèse finidimensionnelle est essentielle en (b). Exercice 2.2.15. Soit K un corps commutatif et soit V0 , V1 , V2 , V3 des K-vectoriels de dimensions finies n0 , n1 , n2 , n3 respectivement. Soit f : V1 → V2 une application linéaire de rang r. Montrer que {g ∈ HomK (V2 , V3 ) | g ◦ f = 0} est un sous K-vectoriel de HomK (V2 , V3 ). Quelle est sa dimension ? Montrer que {h ∈ HomK (V0 , V1 ) | f ◦ h = 0} est un sous K-vectoriel de HomK (V0 , V1 ). Quelle est sa dimension ? µ ¶ 1 i Exercice 2.2.16. Soit H le corps des quaternions et soit F = ∈ j k H2×2 . (a) Observer que la fonction f : H1×2 → H1×2 : (λ1 , λ2 ) 7→ (λ1 , λ2 )F est un endomorphisme du H-vectoriel gauche H1×2 . Cet endomorphisme est-il injectif, bijectif ? Autrement dit, la matrice F est-elle inversible ? (Indication. Observer que les deux lignes de la matrice F forment une partie libre du H-vectoriel gauche H1×2 . 1×2 est un H-vectoriel gauche de base ½ Observer aussi que H e1 = (1, 0) et que ce sont les lignes de la matrice F qui fournissent e2 = (0, 1) µ ¶ e1 .) les coordonnées des f (ei ) dans la base e2 (b) Soit maintenant G = Ft µ ¶ 1 j = la transposée de la matrice F . i k Observer que la fonction g:H 2×1 2×1 →H µ 1¶ µ 1¶ λ λ : 7→ G 2 2 λ λ est un endomorphisme du H-vectoriel droit H2×1 . Cet endomorphisme est-il injectif, bijectif ? (Indication. Observer ici que les deux colonnes de la matrice G ne forment pas une partie libre du H-vectoriel droit H2×1 . que H2×1 est un H-vectoriel droit de base e1 = µ ¶Observerµencore ¶ 1 0 , e2 = et que cette fois ce sont les colonnes de la matrice G 0 1 qui fournissent les coordonnées des g(ei ) dans la base (e1 , e2 ).) 48 CHAPITRE 2. MODULES LIBRES Conclusion. La transposition des matrices peut être une opération très utile pour les matrices à entrées dans un anneau commutatif. Si C et D sont deux matrices à entrées dans l anneau commutatif A telles que le produit CD existe, nous avons (CD)t = Dt C t ; on en déduit que C t est inversible dès que C est inversible. Mais cette transposition est une opération très dangereuse pour les matrices à coefficients dans un anneau non commutatif, l’égalité ci-dessus n’est plus valable et la transposée d’une matrice inversible peut ne pas être inversible. Exercice 2.2.17. Rappels ou informations. (a) Rappelons que le conjugué d’un quaternion λ = a + bi + cj + dk est le quaternion λ̄ = a − bi − cj − dk, de sorte que λλ̄ = a2 + b2 + c2 + d2 ∈ R+ . Rappelons aussi que la conjugaison des quaternions a les propriétés suivantes : ∀λ, µ ∈ H, (λ + µ) = λ̄ + µ̄, λµ = µ̄λ̄, que de plus λ = 0 ⇔ λ̄ = 0. Ceci peut aussi s’exprimer en disant que la fonction de conjugaison H → H : λ 7→ λ̄ est un antiautomorphisme de H. (b) D’autre part, si C est une matrice à entrées complexes, la transposée conjuguée de C sera notée C + et parfois appelée adjointe de C. Une matrice carrée à entrées complexes C telle que CC + = 1 est appelée une matrice unitaire. Les matrices unitaires ∈ Cn×n forment un sousgroupe du groupe multiplicatif Gln (C) des matrices inversibles n × n à entrées complexes. (c) Une matrice carrée à entrées réelles F telle que F F t = 1 est appelée une matrice orthogonale. Les matrices orthogonales ∈ Rn×n forment un sous-groupe du groupe multiplicatif Gln (R) des matrices inversibles n × n à entrées réelles. (d) Les matrices unitaires sont aux complexes ce que les matrices orthogonales sont aux réels. Exercice 2.2.18. Soit V un H-vectoriel droit. Pour tout λ ∈ H et tout v ∈ V , écrivons λv = vλ. Nous venons de munir V d’une structure de H-vectoriel gauche. 2.2.19. Exercice. Soit H le corps des quaternions. (a) Le groupe (H), +) est naturellement muni d’une structure de Cvectoriel droit, de base (1, j). Quelle est la coordonnée, dans la base (1, j) de H, du quaternion λ = a + bi + cj + dk, a, b, c, d ∈ R ? (b) Vérifier que, ∀λ ∈ H, la fonction suivante est un endomorphisme du C-vectoriel droit H (λ·) : H → H : x 7→ λx. 2.2. MODULES LIBRES DE TYPE FINI ET MATRICES 49 Quelle est la matrice Fλ de (λ·) dans la base (1, j) du C-vectoriel droit H? (c) Vérifier que la fonction (H, +, ·) → (EndC (H), +, ◦) : λ 7→ (λ·) est un homomorphisme d’anneaux. En déduire un homomorphisme d’anneaux ρ : (H, +, ·) → (M2 (C), +, ·) : λ 7→ Fλ . (Nous dirons que ρ est une représentation matricielle complexe du corps des quaternions.) (d) Observer que Fλ est une matrice de déterminant λλ̄. Observer aussi (sans calculs) que Fλ̄ = Fλ+ , que, si λ est un quaternion de norme 1, c.-à-d. si λλ̄ = 1, alors Fλ Fλ + = 1, ce qui signifie que Fλ est une matrice unitaire. Remarquer que la restriction de ρ au groupe multiplicatif (H1 , ·) des quaternions de norme 1 et au groupe multiplicatif (GL2 (C), ·) des matrices 2 × 2 inversibles à coefficients complexes fournit un homomorphisme de groupes ρ : (H1 , ·) → (GL2 (C), ·). (Nous dirons de cet homomorphisme qu’il est une représentation linéaire complexe du groupe (H1 , ·) de degré 2.) Cet homomorphisme ρ est injectif et son image est le sous-groupe de (GL2 (C), ·) formé des matrices unitaires de déterminant 1, ce sous-groupe de GL2 (C) est souvent désigné par SU2 . Avec ces notations nous avons donc (H1 , ·) ' (SU2 , ·). (e) Le groupe additif (H, ·) est aussi muni d’une structure d’espace vectoriel réel de dimension 4. Les quaternions purs, c.-à-d. ceux dont la partie réelle est nulle, forment un espace vectoriel réel de dimension 3, noté Hp , de base i, j, k. Remarquons qu’un quaternion µ est pur si et seulement si µ + µ̄ = 0. Pour tout λ ∈ H, λ 6= 0, nous avons : ∀µ ∈ Hp , λµλ−1 ∈ Hp , et la fonction intλ : Hp → Hp : µ 7→ λµλ−1 est un automorphisme du R-vectoriel Hp . De plus, comme intλλ0 = intλ ◦ intλ0 , nous obtenons un homomorphisme de groupes θ : (H1 , ·) → (AutR (Hp ), ◦) : λ 7→ intλ . Nous avons : Ker(θ) = {1, −1}. 50 CHAPITRE 2. MODULES LIBRES Si Gλ désigne la matrice de intλ dans la base i, j, k de Hp , l’homomorphisme θ se traduit en un homomorphisme de groupes (H1 , ·) → (GL3 (R), ·) : λ 7→ Gλ . (On peut montrer que l’image de ce dernier homomorphisme est le sousgroupe de GL3 (R) formé des matrices orthogonales de déterminant 1, ce sous-groupe de GL3 (R) est souvent désigné par SO3 .) 2.2.20. Exercice. Utiliser la méthode de l’exercice précédent pour obtenir un homomorphisme d’anneaux (C, +, ·) → (M2 (R), +, ·). Que pouvez-vous dire de l’image d’un complexe de module 1 par cet homomorphisme si vous avez utilisé la base (1,i) de C sur R ? (Réponse. L’image d’un complexe z de module 1 est une matrice orthogonale, plus précisément c’est la matrice d’une rotation dont l’angle est l’argument de z.) 2.2.21. Exercice. Soit V un R-vectoriel droit de dimension dénombrable, de base (ei )i∈N et soit A = (EndR (V ), +, ◦) l’anneau des endomorphismes du R-vectoriel droit V , dont le neutre multiplicatif sera désigné par 1. Notre but est d’établir un isomorphisme de A-modules droits A1×1 → A2×1 . Définissons des endomorphismes α, β, α0 , β 0 ∈ A par : ∀i ∈ N, α(e2i ) = ei et α(e2i+1 ) = 0, β(e2i ) = 0 et β(e2i+1 ) = ei , α0 (ei ) = e2i , β 0 (ei ) = e2i+1 . Vérifier : α ◦ α0 = 1 = β ◦ β 0 , α ◦ β 0 = β ◦ α0 = 0. ce qui donne µ ¶ µ ¶ α 1 0 0 0 (α β ) = . β 0 1 Vérifier aussi : α0 ◦ α + β 0 ◦ β = 1, ce qui donne (α0 β 0 ) µ ¶ α = 1. β µ ¶ α Des calculs précédents on déduit que la matrice ∈ A2×1 est inverβ sible, que son inverse est la matrice (α0 β 0 ). 2.2. MODULES LIBRES DE TYPE FINI ET MATRICES 51 On en déduit aussi que nous avons un isomorphisme de A-modules droits µ ¶ µ ¶ α α◦γ 1×1 2×1 f :A →A : γ 7→ γ= β β◦γ dont l’isomorphisme réciproque est donné par µ ¶ µ ¶ γ γ f −1 : A2×1 → A1×1 : 7→ (α0 β 0 ) = α0 ◦ γ + β 0 ◦ δ. δ δ On en déduit encore que les éléments α0 et β 0 de A forment une base du A-module droit A, cette base comprend 2 éléments, bien que l’élément 1 de A forme une autre base du droit A. µ A-module ¶ α 2×1 De l’autre coté, l’élément de A forme à lui tout seul une base β du A-module droit A2×1 , bien que la base canonique de A2×1 comprenne deux éléments. 52 CHAPITRE 2. MODULES LIBRES 2.3. L’axiome du choix et le lemme de Zorn Si nous avons devant nous 2, 3, 5 ou même 100.000 ensembles non vides, nous pouvons choisir un élément parmi chacun d’eux, bien que cela puisse prendre un certain temps. Mais si nous avons en face de nous une infinité d’ensembles non vides, pouvons nous encore choisir simultanément un élément parmi chacun d’eux ? La réponse est oui, si on accepte d’ajouter l’axiome du choix aux autres axiomes de la théorie classique des ensembles. 2.3.1. L’axiome du choix. Etant donné un ensemble A d’ensemble non vides, nous pouvons choisir, ∀E ∈ A, un élément c(E) ∈ E, autrement dit il existe une fonction de choix [ c:A→ A telle que ∀E ∈ A, c(E) ∈ E. S Ici, A désigne S la réunion des ensembles appartenant à A : A = {x | ∃E ∈ A avec x ∈ E}. L’axiome du choix est indépendant des autres axiomes de la théorie classique des ensembles. Moyennant ces autres axiomes, il admet plusieurs formulations équivalentes, l’une d’elles concerne les ensembles ordonnés. 2.3.2. Vocabulaire. Rappelons qu’un ensemble ordonné (E, ≺) est un ensemble E munit d’une relation d’ordre ≺, c.-à-d. d’une relation réflexive, transitive et antisymétrique. Nous dirons qu’une partie C de E est une chaîne de l’ordonné (E, ≺) si (C, ≺) est totalement ordonné, c.-à-d. si ∀x, y ∈ C, on a x ≺ y ou y ≺ x. Nous dirons qu’une partie P de l’ordonné (E, ≺) est majorée si elle possède un majorant, c.-à-d. s’il existe b ∈ E tel que, ∀p ∈ P, p ≺ b. Un inductif est un ensemble ordonné non vide dont toute chaîne est majoreé. Nous dirons qu’un élément m de E est un élément maximal de l’ordonné (E, ≺) si, ∀x ∈ E, (m ≺ x) ⇒ (m = x). De façon analogue,nous dirons qu’un élément n de E est un élément minimal de l’ordonné (E, ≺) si, ∀x ∈ E, (x ≺ n) ⇒ (n = x). 2.3.3. Exemples. (a) Si l’ordonné (E, ≺) possède un maximum, ce maximum est son unique élément maximal. (b) Soit E un ensemble comprenant au moins deux éléments. L’ordonné ((P(E)\E), ⊂) ne possède pas de maximum, les compléments dans E des singletons de E sont ses éléments maximaux. Les chaînes de l’ordonné ((P(E) \ E), ⊂) ne sont pas toujours majorées, en général, l’ordonné ((P(E) \ E), ⊂) n’est pas un inductif. Exemple. Soit E = N. Pour tout i ∈ N posons Pi = {x ∈ N | x < i}. On a: ∅ = P0 ⊂ P1 ⊂ P2 ⊂ · · · ⊂ Pn ⊂ · · · , ∀i ∈ N, Pi 6= N. 2.3. L’AXIOME DU CHOIX ET LE LEMME DE ZORN 53 Cette chaîne {Pi }i∈N n’est pas majorée dans l’ordonné ((P(N) \ N), ⊂). (c) Soit E un ensemble infini et soit Pf (E) l’ensemble des parties finies de E. L’ordonné (Pf (E), ⊂) ne possède pas d’éléments maximaux et n’est pas un inductif. Voici un énoncé équivalent à l’axiome du choix dans la théorie classique des ensembles, bien qu’il soit présenté comme un lemme. 2.3.4. Le lemme de Zorn. Tout inductif possède un élément maximal. Désormais, nous adopterons l’axiome du choix, ainsi donc que le lemme de Zorn. Ce lemme sera utilisé dans la section suivante pour démontrer que tout espace vectoriel sur un corps K, commutatif ou non, de type fini ou non, possède une base. En voici une autre utilisation, tout aussi utile. 2.3.5. Exercice. Rappelons qu’un idéal propre de l’ anneau non nul A est un idéal I de A distinct de A : I 6= A. Comme l’anneau A possède un neutre pour sa multiplication, noté 1, on voit aisément qu’un idéal I de l’anneau A est propre si et seulement si 1 ∈ / I. Rappelons encore qu’un idéal maximal de A est un idéal propre de A, maximal parmi l’ensemble des idéaux propres de A. Regardons maintenant l’ensemble ordonné par inclusion des idéaux propres d’un anneau non nul A. Démontrer : dans tout anneau non nul, la réunion d’une chaîne d’idéaux propres est un idéal propre, et toute chaîne d’idéaux propres est majorée par sa réunion. En déduire : Proposition : tout anneau non nul A possède un idéal maximal. Couplons ceci avec un autre résultat de la théorie des anneaux. Proposition : le quotient d’un anneau commutatif non nul A par un idéal maximal est un corps. On obtient : tout anneau commutatif non nul se surjecte sur un corps. L’axiome du choix est aussi utile dans le calcul des cardinaux. 2.3.6. (a) Le cardinal d’un ensemble A, noté #A, est un objet mathématique mesurant la « taille » de A. Nous ne nous attachons pas ici à sa définition précise. Notons simplement que, dans la cas où A est un ensemble fini de n éléments, on écrit #A = n, signifiant par ceci que A est en bijection avec l’ensemble {0, 1, · · · , n − 1}. On dit que deux ensembles A et B ont même cardinal ou sont équipotents, et on écrit #A = #B ou A#B, s’il existe une bijection entre A et B. S’il existe une injection de A dans B, on écrit #A 6 #B. S’il existe une injection de A dans B et si aucune de ces injections n’est bijective, on écrit #A < #B. 54 CHAPITRE 2. MODULES LIBRES (b) Nous avons le théorème de Cantor-Bernstein : s’il existe une injection de l’ensemble A dans l’ensemble B et une injection de l’ensemble B dans l’ensemble A, alors il existe une bijection de A dans B. Autrement dit : #A 6 #B et #B 6 #A ⇒ #A = #B. (c) De plus, étant donné deux ensembles A et B, on peut prouver avec l’axiome du choix qu’il existe une injection de A dans B ou qu’il existe une injection une injection de B dans A : #A 6 #B ou #B 6 #A. (d) Désignons par N l’ensemble des nombres naturels. Comme par définition un ensemble E est fini si #E < #N, nous avons donc qu’un ensemble E est infini si et seulement si #E > #N. Si #E = #N, nous dirons que E est dénombrable. L’ensemble des nombres entiers Z, l’ensemble des nombres rationnels Q et les ensembles N, N × N, 2Z, sont dénombrables. L’ensemble R des nombres réels n’est pas dénombrable. (e) L’ argument diagonal de Cantor montre que, pour tout ensemble E, #E < #P(E). (Esquissons l’argument. On remarque d’abord que la fonction E → P(E) : e 7→ {e} est injective. Il nous suffit donc de montrer que toute fonction f : E → P(E) est non surjective. Soit donc f : E → P(E) une fonction et soit P = {x ∈ E | x∈ / f (x)}. Supposons que cette partie P de E appartient à Im(f ), nous avons alors un élément a ∈ E tel que P = f (a). Cet élément a appartient-il à P = f (a) ? En tentant de répondre à cette question nous arrivons à la contradiction : a ∈ f (a) ⇔ a ∈ / f (a). Donc P ∈ / Im(f ) et f n’est pas surjective.) (f ) On peut aussi montrer : #R = #P(N). (g) Pour terminer, remarquons qu’ un ensemble infini est un ensemble équipotent à une de ses parties propres. 2.3.7. Opérations sur les cardinaux. Soit A et B deux ensembles. On définit le produit de deux cardinaux par : #A · #B = #(A × B). 2.3. L’AXIOME DU CHOIX ET LE LEMME DE ZORN 55 On définit l’exponentiation par : #A#B = #(AB ). Ici AB désigne l’ensemble des fonctions de l’ensemble B dans l’ensemble A. On définit la somme de deux cardinaux par : #A + #B = #(A ∪dis B). Ici, A ∪dis B = A × {0} ∪ B × {1} est la réunion disjointe de A et B, c.-à-d. la réunion des deux copies disjointes A × {0} et B × {1} de A et B. Remarquons que ces opérations sur les cardinaux coïncident avec les opérations correspondantes sur les nombres naturels quand les ensembles concernés A et B sont finis. Rappelons encore que les fonctions caractéristiques des parties de E fournissent une bijection P(E) ∼ → 2E , ceci s’exprime maintenant par #P(E) = 2#E . 2.3.8. Exercices. #A · (#B + #C) = #A · #B + #A · #C, (#A#B )#C = #A(#B·#C ), (#A0 6 #A) ⇒ (#A0 · #B 6 #A · #B et #A0#B 6 #A#B ) et ainsi se suite. Voici quelques règles concernant le calcul des cardinaux. Proposition 2.3.9. Soit A et B deux ensembles dont l’un au moins est infini. Alors #A · #B = #A + #B = max(#A, #B). La preuve de cette proposition est laissée au cours de théorie des ensembles. Signalons seulement ici que cette preuve utilise l’axiome du choix. Corollaire 2.3.10. Soit A un ensemble infini et supposons que A = S i∈I Fi , où les Fi sont des parties finies de A. Alors : #A 6 #I. Démonstration. Comme l’ensemble A est infini, l’ensemble I est aussi infini et #N 6 #I, d’où #I = #(I ×N). Il nous suffit donc de montrer l’existence d’une injection de A dans I × N. Choisissons d’abord, pour tout élément a ∈ A, un élément c(a) ∈ I tel que a ∈ Fc(a) . Choisissons ensuite, ∀i ∈ I, une injection de Fi dans N. Ceci nous permet d’énumérer les éléments de chacune des parties finies Fi de A. Soit maintenant dc(a) le numéro d’ordre de a dans sa partie choisie Fc(a) , dc(a) est un nombre naturel. Avec un peu de réflexion on voit que la fonction f : A → I × N : a 7→ (c(a), dc(a) ) est injective. ————————————————————————————— 56 CHAPITRE 2. MODULES LIBRES 2.3.11. Exercice. Utiliser ce qui précède pour montrer : #R = 2#N #(RQ ) = #R #(RR ) = 2#R . 2.3.12. Exercice. Voici une chaîne infinie C = {{0}, {0, 2}, {0, 2, 4} · · · {0, 2, · · · , 2n}, · · · } de parties finies de N. Cette chaîne n’est pas majorée dans l’ordonné par inclusion des parties finies de N. Désignons maintenant par Pf (N) l’ensemble des parties finies de N et par Pcof (N) l’ensemble des parties cofinies de N, c.-à-d. l’ensemble S des parties de N dont le complément est fini. Dans l’ordonné (Pf (N) Pcof S (N), ⊂), toutes les chaînes sont majorées (par exemple par N), et (Pf (N) Pcof (N), ⊂) est un inductif. Mais l’ensemble des majorants de notre chaîne C introduite ci-haut n’y possède S pas de minimum, autrement dit C n’a pas de supremum dans (Pf (N) Pcof (N), ⊂). (Rappelons que le supremum d’une partie P d’un ordonné, s’il existe, est le minimum de l’ensemble des majorants de P .) 2.3.13. Exercice. L’ensemble ordonné par inclusion des parties finies ou dénombrables de R ne possède pas d’éléments maximaux et n’est donc pas un inductif, bien que la réunion d’une chaîne dénombrable de parties finies ou dénombrables soit dénombrable. (Prêtons attention à la définition : un inductif est un ordonné dont toutes les chaînes, dénombrables ou non, sont majorées.) Dans (P(R), ⊂), il est facile d’exhiber une chaîne non dénombrable de parties dénombrables, en voici une. Pour tout r ∈ R, posons Sr = {x ∈ Q | x < r}. Les parties Sr , r ∈ R, sont dénombrables et forment une chaîne. La réunion de cette chaîne est dénombrable mais nous savons avec le lemme de Zorn qu’il existe une autre chaîne, non dénombrable, de parties dénombrables de R dont la réunion n’est pas dénombrable, même si nous ne pouvons en exhiber une. 2.3.14. Exercice. Nous dirons qu’un anneau commutatif est noethérien si tout idéal I de A est de type fini (en tant que A-module). Montrer que toute famille non vide d’idéaux d’un anneau commutatif noethérien est maximalisée. ———————————————————————————– 2.4. AUTOUR DES BASES ET DE LEUR CARDINAL 57 2.4. Autour des bases et de leur cardinal Occupons-nous d’abord des bases des modules libres qui ne sont pas de type fini. Théorème 2.4.1. Soit A un anneau, non nécessairement commutatif, et soit M un A-module gauche ou droit libre ne possédant pas de partie génératrice finie. Alors, pour toute partie génératrice G de M et toute base B de M , nous avons : #B 6 #G. Démonstration. Les éléments de la partie génératrice G de M s’écrivent de façon unique comme combinaisons linéaires, à coefficients dans A, d’un nombre fini d’éléments de la base B. Nous pouvons donc associer à tout élément g de G la partie finie Fg de B telle que g est combinaison linéaire, à coefficients non S nuls, des éléments de Fg . Soit B 0 = g∈G Fg ⊂ B. Nous avons G ⊂ mod(B 0 ), d’où mod(G) ⊂ mod(B 0 ) et mod(B 0 ) = M car G est génératrice, ce qui signifie que la partie B 0 est génératrice. Comme la base B est une partie génératrice minimale 2.1.10, nous en déduisons que B 0 = B.S Mais la base B est infinie et B = g∈G Fg , nous concluons avec 2.3.10. Corollaire 2.4.2. Soi A un anneau, non nécessairement commutatif. Si M est un A-module gauche ou droit libre ne possédant pas de partie génératrice finie, alors toutes les bases de M sont infinies et ont même cardinal. Dans ce corollaire, l’hypothèse que M ne possède pas de parties génératrice finie ne peut être supprimée. Rappelons que nous avons eu en 2.2.21 un exemple de module libre de type fini sur un anneau non commutatif avec une base de 1 élément et une autre base de 2 éléments. Passons maintenant au cas des vectoriels. Nous voulons montrer que tout vectoriel possède une base, autrement dit est libre. Commençons d’abord par énoncer une proposition obtenue facilement en raffinant légèrement une des assertions en 2.1.13. Proposition 2.4.3. Soit K un corps et soit G une partie génératrice du K-vectoriel V (gauche ou droit). Toute partie libre contenue dans G, maximale parmi les parties libres contenues dans G, est une base de V . Théorème 2.4.4. Soit K un corps. Tout K-vectoriel V (gauche ou droit) possède une base. Toute partie libre de V est contenue dans une base de V . Toute partie génératrice de V contient une base de V . Si G est une partie génératrice de V contenant une partie libre L de V , il existe une base B de V telle que L ⊂ B ⊂ G. 58 CHAPITRE 2. MODULES LIBRES Démonstration. Soit G une partie génératrice de V et L une partie libre telles que L ⊂ G. Notons qu’un tel couple existe, nous pouvons prendre G = V et pour L une partie libre quelconque, ou L = ∅ et pour G une partie génératrice quelconque. Considérons l’ensemble L des parties libres L0 telles que L ⊂ L0 ⊂ G, l’ensemble L est Snon vide et Sordonné par inclusion. Soit C une chaîne dans L. Nous avons C ⊂ PG et C est encore une partie libre. En effet, si nous S avons une relation ni=1 ai vi = 0, où a1 , · · · , an ∈ K, v1 , · · · , vn ∈ C, chacun des vi appartient à une des pièces Ci de la chaîne C. Mais comme C est une chaîne, son sous-ensemble fini {C1 , · · · , Cn } admet un maximum, disons Cm et notre relation est une relation entre des éléments de la partie libre Cm ∈ C. Ceci implique que les coefficients a1 , · · · , an sont tous nuls. Dans l’ordonné par inclusion L, toute chaîne est donc majorée par sa réunion, L est un inductif et possède un élément maximal par 2.3.4. Un tel élément maximal de L est une base de V par 2.4.3. Les deux autres assertions s’obtiennent en appliquant ce qui précède au couple L ⊂ V où L est une partie libre de V et au couple ∅ ⊂ G où G est une partie génératrice de V . Théorème 2.4.5. Soit K un corps et V un K-vectoriel (gauche ou droit). Toutes les bases de V ont même cardinal, appelé dimension de V sur K et noté dimK V . Démonstration. Nous distinguons deux cas. Premier cas : V possède une partie génératrice finie. Dans ce cas notre assertion a été démontrée en 2.1.18 et au premier cours d’algèbre linéaire. Deuxième cas : V ne possède pas de partie génératrice finie. Le résultat est alors un cas particulier de 2.4.2. Nous pouvons étendre le résultat précédent aux modules libres sur un anneau commutatif non nul, en prenant avantage du fait que tout anneau non nul possède un idéal maximal et du fait que le quotient d’un anneau commutatif non nul par un idéal maximal est un corps, voir 2.3.5. Théorème 2.4.6. Soit A un anneau commutatif et soit M un A-module libre. Alors toutes les bases de M ont même cardinal, appelé le rang de M . Démonstration. Si le A-module libre M ne possède pas de partie génératrice finie, le résultat est encore un cas particulier de 2.4.2. Si M possède une partie génératrice finie, c.-à-d. si M est de type fini sur l’anneau commutatif A, nous savons avec 1.1.10 que toutes les bases de M sont finies et nous montrons qu’elles ont toutes même nombre d’éléments comme suit. Regardons M comme un A-module droit et soit 2.4. AUTOUR DES BASES ET DE LEUR CARDINAL 59 e = (e1 , · · · , en ) et u = (u1 , · · · , um ) deux bases de M , n, m ∈ N. Nous avons une matrice C ∈ An×m et une matrice D ∈ Am×n telles que u = eC et e = uD. u = uDC et e = eCD Il vient et, comme e et u sont des bases, on a encore DC = Im et CD = In Prenons les images modulo un idéal maximal P de A (un tel idéal existe, voir 2.3.5) et désignons les encore par (·). Nous obtenons une matrice C̄ ∈ Ān×m et une matrice D̄ ∈ Ām×n telles que D̄C̄ = Im et C̄ D̄ = In . Comme Ā = A/P est un corps, voir à nouveau 2.3.5 on en déduit avec 2.1.18 que m = n . 2.4.7. Remarque On pourrait aussi prouver 2.4.6 en utilisant 2.1.20. Terminons cette section avec quelques observations et exercices. 2.4.8. Observations. Dans cette série d’observations, les modules concernés sont tous des espaces vectoriels (à gauche ou à droite) sur un corps K. Nous rassemblons ici des faits d’usage courant déjà observés au premier cours d’algèbre linéaire pour les vectoriels de dimension finie, et qui s’étendent sans peine aux vectoriels de dimension quelconque. (a) Tout sous-vectoriel droit d’un K-vectoriel droit admet un complémentaire. (b) Si V = V1 ⊕ V2 , alors dimK V = dimK V1 + dimK V2 . (c) Si W1 et W2 sont deux sous-K-vectoriel du K vectoriel V , alors dimK (W1 + W2 ) + dimK (W1 ∩ W2 ) = dimK W1 + dimK W2 . (d) Soit f : V → W un homomorphisme de K-vectoriels droits. Soit V1 un complémentaire de Ker(f ) dans V et W1 un complémentaire de Im(f ) dans W . Alors la restriction f 0 de f à V1 et Im(f ) est un isomorphisme. V f = V1 ⊕ Ker(f ) −→ Im(f ) ⊕ W1 = W ↑ ↑ V1 f0 −→ Im(f ) On en déduit : dimK V = dimK Ker(f ) + dimK Im(f ). 60 CHAPITRE 2. MODULES LIBRES Si de plus V et W sont de dimension finie sur K, il existe une base de V et une base de W µtelles que ¶ f soit représentée dans ces bases par 1r 0 une matrice de la forme , où r = dimK (Im(f ), où 0 désigne une 0 0 matrice nulle de la bonne taille. (e) Si W est un sous-K-vectoriel droit du K-vectoriel droit V , dimK (V ) = dimK (W ) + dimK (V /W ). 2.4.9. Regardons maintenant le cardinal d’un vectoriel vis-à-vis de sa dimension. Ici encore nous avons deux cas, le premier est aisé à voir, nous signalons le second sans démonstration. Soit K un corps et V un K-vectoriel droit (ou gauche). Si dimK V est finie, on a #V = (#K)dimK V . Si dimK V est infinie, on a #V = (#K) · dimK V . —————————————————————————————2.4.10. Exercice. Le groupe additif des nombres réels a une structure naturelle de vectoriel sur le corps des nombres rationnels, nous savons que R en tant que Q-vectoriel possède une base, même si nous ne pouvons en exhiber une. Mais nous pouvons « calculer » sa dimension. Vérifier que dimQ R = #R. 2.4.11. Exercice. L’ensemble C des fonctions continues de R dans R est naturellement muni d’une structure d’espace vectoriel réel. Sachant que deux fonctions continues de R dans R sont égales si et seulement si leurs restrictions à Q sont égales, rappelant que #(RQ ) = #R, nous obtenons : #C 6 #R. D’autre part, pour tout nombre réel r, définissons une fonction continue ½ 0 si x 6 r fr : R → R : x 7→ . x − r si x > r On observe que les éléments fr du R-vectoriel C en forment une partie libre. On en déduit : #R 6 dimR C et finalement #R = dimR C = #C. 2.4.12. Exercice. Si V est un K-vectoriel de dimension infinie, alors V ' V ⊕V. Chapitre 3 Étude d’un endomorphisme 3.0.13. Hypothèse de chapitre. Dans tout ce chapitre, V désigne un espace vectoriel de dimension finie sur un corps commutatif K et a désigne une transformation linéaire de V . Un de nos buts est de trouver une base de V bien adaptée à cette transformation linéaire, c.à-d. une base de V dans laquelle notre transformation linéaire est représentée par une matrice aussi simple que possible. Certes, les matrices les plus simples à manier sont les matrices diagonales, mais il n’est pas toujours possible de représenter une transformation linéaire par une matrice diagonale, les transformations linéaires ne sont pas toutes diagonalisables, même si le corps K est algébriquement clos. Nous choisirons la convention matricielle en usage pour les K-vectoriels droits : si A est la matrice représentant la transformation linéaire a dans la base e = (e1 , · · · , en ) de V , les colonnes de cette matrice seront les coordonnées des images des ei dans cette base. Néanmoins, le corps étant commutatif, nous pouvons écrire et nous écrirons souvent les coefficients, c.à-d. les éléments de K, à gauche des vecteurs, des éléments de V . 3.1. Sous-espaces stables Un peu de vocabulaire est toujours utile. Définition 3.1.1. Un sous-espace V1 de V est dit stable ou invariant par la transformation linéaire a de V si a(V ) ⊂ V . Dans ce cas on dit aussi que V1 est a-stable ou a-invariant. 3.1.2. Exemples. Soit V un espace vectoriel sur le corps commutatif K et a une transformation linéaire de V . (i) Im(a) et ker(a) sont des sous-espaces a-stables de V . (ii) Pour tout sous-espace V 0 de V , le sous espace engendré par V 0 et les at (V 0 ), t ∈ N est a-stable et est le plus petit sous-espace a-stable engendré par v. (iii) Rappelons que V est muni d’une structure de K[a]-module de et aussi de K[X]-module via a, 1.4.3. Observons qu’un sous-espace V1 de V est 61 62 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME a-stable si et seulement si il est un sous-K[a]-module de V si et seulement si il est un sous-K[X]-module de V . Lemme 3.1.3. Soit V1 un sous-espace du K-vectoriel V stable par sa transformation linéaire a. (i) Alors a induit une transformation linéaire de l’espace vectoriel quotient V /V1 définie par ā : V /V1 → V /V1 : v + V1 7→ a(v) + V1 et s’insrivant dans un diagramme commutatif V p1 y a −−−−→ V p1 y ā V /V1 −−−−→ Ṽ /V1 ) où p1 désigne la projection naturelle V → V /V1 . (ii) Si de plus V1 admet un complémentaire V2 stable par a, c.-à-d. si V = V1 ⊕ V2 est la somme directe des deux sous-espaces stables V1 et V2 , désignons par i2 l’injection naturelle de V2 dans V . Alors la fonction p1 i2 composée V2 → V → V /V1 est un isomorphisme et, via cet isomorphisme, la transformation induite ā s’identifie à a2 , la restriction de a à V2 , ce qui signifie que le diagramme suivant est commutatif V2 i2 y −−−2−→ a V2 i y2 V p1 y −−−−→ a V p1 y ā V /V1 −−−−→ V /V1 ) . Démonstration. La preuve routinière est confiée au lecteur, qui peut s’il le désire utiliser la propriété universelle des modules quotients appliquée à l’application linéaire p ◦ a, où p désigne la projection naturelle V → V /V1 , ou qui peut fournir une preuve directe. Voici une version coordonnée de 3.1.3. Lemme 3.1.4. Dans la situation de 3.1.3, désignons par (.) les images « modulo V1 », écrivons V = V /V1 et, pour tout v ∈ V , v̄ = v + V1 . Soit u1 , · · · , ur , ur+1 , · · · un des vecteurs de V tels que les u1 , · · · , ur forment une base de V1 et que les ur+1 , · · · , un forment une base de V /V1 . Alors les vecteurs u1 , · · · , ur , ur+1 , · · · un forment une base de V et la matrice de a dans cette base est de la forme µ ¶ A1 T A= 0 A2 3.2. TRIANGULATION 63 où A1 est la matrice de la restriction a1 de a à V1 dans la base u1 , · · · , ur de V1 et ou A2 est la matrice de la transformation ā induite par a sur V dans la base ur+1 , · · · , un de V . De plus, la matrice T est nulle si et seulement si les vecteurs ur+1 , · · · un engendrent un sous-espace V2 stable par a. Dans ce cas nous dirons que V2 est un complémentaire a-stable de V1 , V = V1 ⊕V2 est somme directe de deux ¶ µ A1 0 sous-espaces a-stables et nous dirons aussi que la matrice A = 0 A2 est somme directe des deux matrices A1 et A2 . 3.1.5. En général un sous-espace a-stable de V n’admet pas nécessairement de complémentaire a-stable (un exemple est donné en 3.2.5). 3.2. Triangulation Observation-Définition 3.2.1. Une matrice triangulaire supérieure est une matrice carrée A = (aij ) ∈ K n×n dont les entrées sous la diagonale principale sont nulles (aij = 0 pour i > j). Les matrices triangulaires supérieures sont relativement simples à manier. Le lecteur est invité à écrire explicitement le produit µ ¶ µ 0 0¶ a b a b · 0 1 0 1 à remarquer que le produit de deux matrices triangulaires supérieures est encore une matrice triangulaire supérieure. D’autre part, si la transformation linéaire a de V est représentée dans une base e = (e1 , · · · , en ) par une matrice triangulaire supérieure A, alors e1 est un vecteur propre de a de valeur propre a11 et les sous-espaces Vi = mod(e1 , · · · , ei ) forment une chaîne de sous-espaces stables par a {0} ⊂ V1 ⊂ V2 ⊂ · · · ⊂ Vn−1 ⊂ Vn = V. De plus, le polynôme caractéristique ϕa de a est alors le polynôme (X − a11 )(X − a22 ) · · · (X − ann ), et, comme les racines de ϕa sont les valeurs propres de a (1.4.11), on observe que les entrées aii sur la diagonale principale de A sont les valeurs propres de a. Les matrices triangulaires inférieures se définissent de façon analogue et ont les mêmes jolies propriétés. Proposition 3.2.2. Supposons le corps K algébriquement clos. Alors il existe une base de V dans laquelle la transformation linéaire a de V est représentée par une matrice triangulaire supérieure. Démonstration. La preuve se fait par induction sur la dimension de V : soit n = dimK V . Si n = 1 il n’y a rien à faire. 64 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME Supposons donc la proposition prouvée pour les transformations linéaires des espaces de dimension < n. Comme le corps K est algébriquement clos, le polynôme caractéristique de la transformation a possède une racine λ ∈ K, cette racine est une valeur propre de a, 1.4.11, et nous avons un vecteur non nul u1 ∈ V de valeur propre λ. Le sous espace V1 = Ku1 engendré par u1 est stable par a, nous avons donc une transformation linéaire induite ā : V /V1 → V /V1 : v + V1 7→ a(v) + V1 . Comme en 3.1.4 désignons par (.) les image « modulo V1 ». Comme dimK V̄ = n − 1 < n, nous avons avec l’hypothèse d’induction une base (u2 , · · · , un ) de V̄ dans laquelle ā est représentée par une matrice triangulaire supérieure. Avec 3.1.4 on voit que les éléments u1 , u2 , · · · , un de V forment une base de V dans laquelle la transformation linéaire a est représentée par une matrice triangulaire supérieure. Notons qu’on peut aussi représenter une transformation linéaire par une une matrice triangulaire inférieure quand le corps commutatif est algébriquement clos, c’est une question de goût. Mais quand le corps commutatif K n’est pas algébriquement clos, il n’est plus toujours possible de représenter une transformation linéaire par une matrice triangulaire supérieure ou inférieure, il existe même des transformations linéaires a dont le polynôme caractéristique ϕa n’a pas de racine dans K. L’exemple le plus simple est celui d’une rotation autour de l’origine dans le plan réel coordonné, par exemple celui d’une transformation linéaire R2 représentée dans la base canonique par la maµ a du R-vectoriel ¶ 0 −1 trice , ici le polynôme caractéristique ϕa = X 2 + 1 n’a pas de 1 0 racine réelle. Sur un corps commutatif quelconque K nous avons pourtant une classe assez importante de transformations linéaires qui peuvent se représenter par une matrice triangulaire supérieure. Définition 3.2.3. Une transformation linéaire a d’un espace vectoriel V sur le corps K est dite nilpotente s’il existe un nombre naturel t > 0 tel que at = 0. Proposition 3.2.4. Soit a une transformation linéaire nilpotente de l’espace vectoriel V de dimension finie n sur le corps commutatif K et soit r = min{t ∈ N0 | at = 0}. Alors 0 est une valeur propre de a et est la seule valeur propre de a. De plus il existe une base de V dans laquelle a est représentée par une matrice triangulaire supérieure avec des 0 sur la diagonale principale. On a aussi ϕa = X n , an = 0 et r 6 dimK V . Démonstration. Si λ est une valeur propre de a, soit 0 6= v ∈ V un vecteur propre de valeur propre λ : a(v) = λv. Nous avons : 0 = ar (v) = λr v, d’où λr = 0 car v 6= 0 et finalement λ = 0 car K est un corps. 3.2. TRIANGULATION 65 Montrons maintenant que 0 est une valeur propre de A. Comme r = min{t ∈ N0 | at = 0} nous avons ar−1 (V ) 6= {0} et ∀v ∈ ar−1 (V ) nous avons aussi a(v) = 0 = 0v, ceci montre que 0 est une valeur propre de a. Soit maintenant V1 = Ku1 un sous-espace de V engendré par un vecteur propre non nul de valeur propre 0. Comme dans la preuve de 3.2.2, on voit que V1 est stable par a. On observe que la transformation linéaire ā de V /V1 est aussi nilpotente et on conclut par induction sur dimK V que a peut se représenter dans une certaine base par une matrice triangulaire supérieure avec des 0 sur la diagonale principale. Ceci joint au théorème de Cayley-Hamilton classique 1.4.10 donne la dernière assertion concernant ϕa et r. ——————————————————————————————– Exercice 3.2.5. Soit a une transformation linéaire nilpotente non nulle du K-vectoriel V . Montrer que le sous-espace a-stable Ker(a) de V n’admet pas de complémentaire a-stable. (Indication. ∀v ∈ V , v 6= 0, soit rv = min{t | at (v) = 0}. On a : rv > 0 et 0 6= a(rv −1) (v) ∈ Ker(a). Exercice 3.2.6. Une transformation linéaire b d’un espace vectoriel V de dimension finie sur un corps commutatif K est dite unipotente si elle est de la forme b = 1V + a, où a est nilpotente. (i) Observer que toute transformation linéaire unipotente b de V peut se représenter, dans une certaine base de V , par une matrice triangulaire supérieure avec des 1 sur la diagonale principale. (ii) Montrer qu’une transformation linéaire b de V est unipotente si et seulement si son polynôme caractéristique est de la forme ϕb = (X − 1)n , où n = dimK V . Exercice 3.2.7. Soit f une transformation linéaire du vectoriel complexe V représentée, dans une base (e1 , e2 , e3 ) de F par la matrice 3 0 3 F = 1 0 0 . 0 0 3 Déterminer une autre base de V dans laquelle la transformation f est représentée par une matrice triangulaire supérieure. 66 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME 3.3. Polynôme minimal, polynôme caractéristique 3.3.1. Rappels. On a défini en 1.4.6 le polynôme caractéristique ϕA d’une matrice carrée A ∈ K n×n et en 1.4.9 le polynôme caractéristique ϕa d’une transformation linéaire a d’un espace vectoriel de dimension finie sur un corps commutatif. On a vu au cours d’algèbre linéaire et rappelé en 1.4.11 que les racines de ϕa sont les valeurs propres de a. Le théorème de Cayley-Hamilton 1.4.10 nous apprend que le polynôme caractéristique ϕa d’une transformation linéaire a d’un vectoriel de dimension finie est un polynôme unitaire de K[X] s’annulant en a : ϕa (a) = 0. Nous pouvons aussi regarder le polynôme unitaire de degré minimum s’annulant en a. Définition 3.3.2. Le polynôme minimal µa d’une transformation linéaire a d’un espace vectoriel V sur un corps commutatif K est le polynôme unitaire de K[X] de plus petit degré s’annulant en f . 3.3.3. Une autre façon de voir le polynôme minimal. Comme K est un corps commutatif, l’anneau K[X] des polynômes en l’indéterminée X à coefficients dans K est un domaine principal. L’ensemble des polynômes de K[X] s’annulant en a, c.à-d. le noyau de l’homomorphisme ea : K[X] → EndK (V ) : P 7→ P (a) introduit en 1.4.2, est donc un idéal principal, et cet idéal est engendré par le polynôme unitaire de degré minimum s’annulant en a, autrement dit par le polynôme minimal µa de a. Nous obtenons un premier corollaire au théorème de Cayley-Hamilton 1.4.10. Corollaire 3.3.4. Soit a une transformation linéaire d’un espace vectoriel V de dimension finie sur un corps commutatif K. Alors le polynôme minimal de a divise le polynôme caractéristique de a dans l’anneau K[X] : µa | ϕa . Et degré(µa ) 6 degré(ϕa ) = dimK V. Mais la relation entre µa et ϕa est bien plus forte que celle indiquée par ce premier corollaire. Pour le voir, commençons par une petite remarque sur les déterminants et une petite définition matricielle. Observation 3.3.5. Soit A une matrice carrée à entrées dans un anneau commutatif B de la forme ¶ µ A1 T où A1 ∈ B r×r et A2 ∈ B s×s . A= 0 A2 3.3. POLYNÔME MINIMAL, POLYNÔME CARACTÉRISTIQUE 67 Alors det(A) = det(A1 ) · det(A2 ) et ϕA = ϕA1 · ϕA2 . (Indication. Procéder par induction sur r. Si r = 1 c’est aisé. Pour le pas inductif, développer selon la première colonne.) Lemme 3.3.6. Soit V1 un sous-K-espace vectoriel de V stable par sa transformation linéaire a. Désignons par a1 : V1 → V1 la restriction de a à V1 et désignons encore par ā : V /V1 → V /V1 : v + V1 7→ a(v) + V1 la transformation linéaire induite par a. Alors (i) µa1 | µa , (ii) ϕa = ϕa1 · ϕā , (iii) µā | µa . (iv) Si de plus V1 admet un complémentaire V2 stable par a et si a2 désigne la restriction de a à V2 , alors µa = ppcm(µa1 , µa2 ). De plus µā = µa2 et ϕā = ϕa2 Démonstration. Tout ceci est une conséquence directe des définitions et observations précédentes (voir aussi 3.1.3 et 3.1.4). Nous pouvons maintenant préciser les relations entre polynôme minimal et polynôme caractéristique. Proposition 3.3.7. Soit a une transformation linéaire d’un espace vectoriel V de dimension finie sur un corps commutatif K. Alors les polynômes µa et ϕa ont mêmes racines dans K. Si donc ϕa = (X − λ1 )s1 · · · (X − λk )sk , où 1 6 si , 1 6 i 6 k, et où les λi sont les valeurs propres de a, distinctes deux-à-deux, alors µa = (X − λ1 )r1 · · · (X − λk )rk , où 1 6 ri 6 si , 1 6 i 6 k. Démonstration. Comme µa | ϕa , toute racine de µa est une racine de ϕa . Réciproquement, soit λ ∈ K une racine de ϕa , λ est donc une valeur propre de a. Désignons par V(λ) l’espaces des vecteurs propres de V de valeur propre λ : V(λ) = {v ∈ V | a(v) = λv} = Ker(a − λ1V ). On remarque que V(λ) est un sous-espace non nul de V stable par a, et que, si a1 désigne la restriction de a à V(λ) , on a µa1 = (X − λ). Comme µa1 | µa , 3.3.6(i), on en déduit que λ est une racine de µa . 68 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME 3.3.8. Information. Lorsque le corps K n’est pas algébriquement clos, il n’est pas toujours possible d’écrire le polynôme ϕa comme produit de polynômes de degré 1. On peut cependant montrer que les polynômes µa et ϕa ont encore mêmes facteurs irréductibles dans K[X] (une façon de faire est de passer à une clôture algébrique de K). 3.3.9. Nous dirons que la transformation linéaire a de V est diagonalisable ou semi-simple si V admet une base de vecteurs propres de a, la matrice représentant a dans une telle base est alors une matrice diagonale. Nous dirons aussi qu’une matrice carrée A à entrées dans le corps commutatif K est diagonalisable si elle est la matrice d’une transformation linéaire diagonalisable dans une base quelconque, autrement dit s’il existe une matrice inversible D de même taille que A telle que la matrice D−1 AD soit diagonale. On peut aussi définir le polynôme minimal µA d’une matrice carrée n × n A à entrées dans le corps commutatif K comme étant le polynôme de plus petit degré s’annulant en A, ou, ce qui revient au même, comme étant le polynôme minimal d’une transformation linéaire d’un K-vectoriel V de dimension n représentée par la matrice A dans une certaine base de V . Dans la pratique, pour calculer µa ou µA , où A est la matrice représentant la transformation linéaire a de V dans une base de V , on peut regarder le plus petit nombre naturel t tel que At soit combinaison linéaire à coefficients dans K des Ai , 0 6 i < t : si At = a0 In + a1 A + · · · + at−1 At−1 , alors µa = µA = X t − at−1 X t−1 − · · · − a0 . Rappelons 3.3.4, comme µa | ϕa , on a aussi t = degré(µa ) 6 degré(ϕa ) = n = dim V , ————————————————————————————— Exercice 3.3.10. Soit V un espace vectoriel de dimension finie sur un corps commutatif K et soit f une transformation linéaire de V . Démontrer : f est inversible ⇔ µf (0) 6= 0 ⇔ ϕf (0) 6= 0. Si f est inversible, alors ∃P ∈ K[X] tel que f −1 = P (f ). Exercice 3.3.11. Déterminer le polynôme minimal, le polynôme caractéristique et les valeurs propres des matrices carrées complexes suivantes. Ces matrices sont-elles diagonalisables ? µ ¶ 2 0 0 2 µ ¶ 2 0 0 3 0 0 0 1 −2 0 0 1 3 µ ¶ 2 0 1 2 0 2 0 2 0 0 0 0 2 µ ¶ 2 0 1 3 1 0 0 0 1 0 2 0 1 3.3. POLYNÔME MINIMAL, POLYNÔME CARACTÉRISTIQUE 2 1 0 0 0 2 0 0 0 0 2 0 69 0 0 1 3 Exercice 3.3.12. Soit a une transformation linéaire nilpotente du Kvectoriel V de dimension n et soit r = min{t | at = 0}. Alors µa = X r , r 6 n et ϕa = X n . Exercice 3.3.13. Soit a une transformation linéaire du K-vectoriel V de dimension finie, et soit 0 6= v ∈ V . Soit V1 le sous-K-vectoriel de V engendré par la suite v a(v) a2 (v) ··· ai (v) ··· Observer que V1 est un sous-espace de V stable par a, que V1 en tant que K[a]-module (cf. 1.4.3) est engendré par {v}. (C’est pourquoi on dit souvent que V1 et le sous-espace a-cyclique engendré par v.) La suite (v a(v) a2 (v) · · · ai (v) · · · ) est linéairement dépendante car V est de dimension finie, un des termes de cette suite est donc combinaison linéaire des précédents : soit t le plus petit nombre naturel tel que at (v) soit combinaison linéaire des précédents. Nous avons une relation at (v) + ct−1 at−1 (v) + · · · + c1 a(v) + c0 v = 0, où c0 , c1 , · · · , ct−1 ∈ K. Formons le polynôme P = X t + ct−1 X t−1 + · · · + c1 X + c0 ∈ K[X]. Décrire la matrice de la restriction a1 de a à V1 dans la base (v, a(v), a2 (v), · · · , at−1 (v)) de V1 . La matrice ainsi obtenue est appelée matrice compagnon du polynôme du polynôme P . Observer que P (a)(v) = 0, en déduire que P (a)(V1 ) = 0, autrement dit que P (a1 ) = 0. Observer encore que, pour tout polynôme Q ∈ K[X] de degré <t, on a Q(a)(v) 6= 0. En déduire : P = µa1 = ϕa1 . Exercice 3.3.14. * Parmi les transformations linéaires diagonalisables d’un K-espace vectoriel V , seule la transformation nulle est nilpotente. Exercice 3.3.15. * Soit f et g deux transformations linéaires nilpotentes d’un K-espace vectoriel V . Si f ◦ g = g ◦ f , alors les transformations linéaires f + g et f ◦ g de V sont également nilpotentes. 70 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME 3.4. Composantes primaires Nous nous proposons de raffiner 3.2.2. Comme dans la preuve du théorème de Cayley-Hamilton nous allons tirer avantage du fait que V a une structure de K[a]-module, mieux du fait que V a une structure de K[X]module via l’homomorphisme d’évaluation ea : ∀P ∈ K[X], ∀v ∈ V, P · v = P (a)(v) (voir 1.4.3). Mais nous savons que l’anneau de polynômes K[X] en une indéterminée X est un domaine principal et nous savons aussi que AnnK[X] (V ) = µa K[X], où µa est le polynôme minimal de la transformation a. Regardons donc les modules sur les domaines principaux. Proposition 3.4.1. Soit A un domaine principal et M un A-module non nul tel que l’idéal AnnA (M ) soit non nul. Soit a un générateur de cet idéal et soit encore a = bc une factorisation de a, où b et c sont des éléments de A premiers entre eux. Écrivons M(b) = {w ∈ M | bw = 0} et M(c) = {w ∈ M | cw = 0}. Alors (i) M(b) et M(c) sont des sous-A-modules de M , (ii) M = M(b) ⊕ M(c) , (iii) AnnA (M(b) ) = bA et AnnA (M(c) ) = cA. Démonstration. (i) Ceci est assez clair : 0 est un élément de M(b) et de M(c) et, ∀w1 , w2 ∈ M, ∀x ∈ A, (bw1 = 0 et bw2 = 0) ⇒ (b(w1 ± w2 ) = 0 et b(xw1 ) = xbw1 = 0). (ii) Comme b et c sont premiers entre eux nous pouvons écrire 1 = sb+tc pour certains s, t ∈ A. Si w ∈ M(b) ∩ M(c) on a w = 1w = (sb + tc)w = sbw + tcw = 0, ce qui prouve M(b) ∩ M(c) = {0}. D’autre part, pour tout w ∈ M on a w = bsw + ctw. Mais c(bsw) = asw = 0 et b(ctw) = atw = 0, donc bsw ∈ M(c) et ctw ∈ M(b) . Ceci prouve que M = M(b) + M(c) . Le tout ensemble donne M = M(b) ⊕ M(c) . (iii) Soit b0 , c0 ∈ A tels que AnnA (M(b) ) = b0 A et AnnA (M(c) ) = c0 A. Nous avons : b ∈ b0 A et c ∈ c0 A, nous pouvons écrire b = b0 u1 où u1 , u2 ∈ A. c = c0 u2 3.4. COMPOSANTES PRIMAIRES 71 Comme M = M1 + M2 nous avons aussi b0 c0 ∈ AnnA (M ) = aA et nous pouvons écrire b0 c0 = au3 où u3 ∈ A. Il vient : b0 c0 = au3 = bcu3 = b0 c0 u1 u2 u3 et u1 u2 u3 = 1 car b0 c0 6= 0. On en déduit que u1 , u2 , u3 sont inversibles dans A et que bA = b0 A, cA = c0 A. Rappelons que dans un domaine principal A tout élément non nul non inversible peut s’écrire comme produit d’éléments irréductibles, et ce de façon essentiellement unique. Tout idéal propre non nul de A est donc engendré par un élément de la forme pr11 · · · prkk , où k ∈ N0 , où les pi sont des éléments irréductibles non associés deux-à-deux et où les exposants ri sont des nombres naturels strictement positifs. Corollaire 3.4.2. Soit M un module non nul sur un domaine principal A tel que l’idéal AnnA (M ) soit non nul. Cet idéal AnnA (M ) est engendré par un élément de la forme a = pr11 · · · prkk où les pi sont des éléments irréductibles non associés deux-à-deux et où r1 , · · · , rk > 0. Écrivons Mi = {w ∈ M | pri i w = 0} 1 6 i 6 k. Alors (i) Les Mi sont des sous-A-modules de M , (ii) M = Lk i=1 Mi , (iii) AnnA (Mi ) = pri i A 1 6 i 6 k. Démonstration. Les éléments pr11 et pr22 · · · prkk sont premiers entre eux, on utilise la proposition pour obtenir une première décomposition M = M1 ⊕ M 0 , où AnnA (M 0 ) = pr22 · · · prkk A. Ensuite on itère le procédé, ce qui signifie qu’on traite M 0 de la même façon que M . Nous allons maintenant appliquer 3.4.2 à notre espace vectoriel V vu comme K[X]-module via sa transformation linéaire a. Nous savons que l’idéal AnnK[X] (V ) de K[X] est engendré par le polynôme minimal µa de la transformation a, nous sommes amenés à regarder la factorisation de µa en produit d’irréductibles et à regarder les sous-espaces correspondant aux facteurs irréductibles de µa . Donnons-leur un nom. 72 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME Observation-Définition 3.4.3. Soit a une transformation linéaire de l’espace vectoriel V de dimension fine sur le corps commutatif K. Supposons que µa = (X − λ1 )r1 · · · (X − λk )rk , où ri > 0 et où les λ1 , · · · , λk sont des éléments de K distincts deux-à-deux. On sait que les λi sont les valeurs propres de a. La composante primaire de a correspondant à la valeur propre λi est définie par S(λi ) = Ker(a − λi 1V )ri . Désignons encore par V(λi ) l’espace des vecteurs propres de a. Notons que V(λi ) = Ker(a − λi 1V ) ⊂ S(λi ) . Théorème 3.4.4. Soit encore a une transformation linéaire de l’espace vectoriel V de dimension finie sur le corps commutatif K. Supposons que µa = (X − λ1 )r1 · · · (X − λk )rk , où ri > 0 et où les λ1 , · · · , λk sont des éléments de K distincts deux-à-deux. Alors (i) Les composantes primaires S(λi ) de a sont des sous-K-vectoriels de V stables par a, (ii) V = Lk i=1 S(λi ) , (iii) Le polynôme minimal de la restriction ai de a à S(λi ) est µai = (X − λi )ri . Démonstration. La transformation linéaire a de V munit V d’une structure de K[X]-module (voir 1.4.3) : Xv = a(v). Nous savons que AnnK[X] (V ) = µa K[X] et nous remarquons que les sous-K[X]-modules de V sont exactement les sous-K-vectoriels de V stables par a. Tout ceci est donc un cas particulier de 3.4.2. Corollaire 3.4.5. Supposons le corps K algébriquement clos. Toute transformation linéaire a de V peut s’écrire sous la forme a = aS + aN où aS est une transformation diagonalisable de V , où aN est une transformation nilpotente et où aS ◦ aN = aN ◦ aS . Démonstration. Comme K est algébriquement clos le polynôme minimal de a est de la forme µa = (X − λ1 )r1 · · · (X − λk )rk , 3.4. COMPOSANTES PRIMAIRES 73 où ri > 0 et où les λ1 , · · · , λk sont les valeurs propres de a, distinctes deuxà-deux. Avec 3.4.4 nous savons que V est la somme directe des ses composantes primaires S(λi ) pour a, et que celles-ci sont a-stables. Il nous suffit donc d’écrire chacune des restrictions ai de a à S(λi ) comme somme d’une transformation linéaire diagonalisable et d’une transformation linéaire nilpotente qui commutent. Ceci nous ramène au cas d’une transformation linéaire a dont le polynôme minimal à la forme µa = (X − λ)r , r > 0. Dans ce cas la transformation linéaire a − λ1V est nilpotente, la transformation linéaire λ1V est une homothétie, donc une transformation linéaire diagonalisable commutant avec toutes les transformations linéaires de V , et il suffit de prendre aN = a − λ1V et aS = λ1V . 3.4.6. Remarque. Le corollaire 3.4.2 a aussi des retombées intéressantes concernant les groupes commutatifs finis. Soit (M, +) un groupe commutatif fini non nul. On sait que M a une structure naturelle de Z-module, que AnnZ (M ) est un idéal propre non nul de Z puisque M est fini. Or Z est un domaine principal. On obtient que M est somme directe de Z-modules annulés chacun par une puissance d’un nombre premier. Notons encore qu’un Z-module annulé par une puissance du nombre premier p est un groupe commutatif dont l’ordre de tous les éléments est une puissance de p. (En général on définit un p-groupe comme étant un groupe, non nécessairement commutatif, dont tous les éléments sont d’ordre une puissance du nombre premier p.) On pourrait en dire davantage concernant la structure des groupes commutatifs finis, des groupes commutatifs de type fini ou des modules de type fini sur un domaine principal, mais ce que nous avons rassemblé ici suffit pour nos besoins du moment. ———————————————————————————— Exercice 3.4.7. Calculer les composantes primaires des transformations linéaires d’un vectoriel complexe V de base (e1 , · · · , en ) décrites par les matrices en 3.3.11, en donner une base. Pour chacune de ces transformations, calculer la nouvelle matrice la représentant dans une base de V adaptée à la décomposition de V en somme directe de ses composantes primaires. Exercice 3.4.8. * Soit g une transformation linéaire d’un espace vectoriel V de dimension finie sur le corps commutatif K. (i) La transformation linéaire g est diagonalisable si et seulement si son polynôme minimal est de la forme µa = (X − λ1 ) · · · (X − λk ) où les λi sont des éléments de K distincts deux-à-deux. (ii) Si g est diagonalisable et si V1 est un sous-espace g-stable de V , alors la restriction g1 de g à V1 est aussi diagonalisable. 74 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME Exercice 3.4.9. * Soit f, g deux transformations linéaires diagonalisables du K-vectoriel V de dimension finie et supposons que f ◦ g = g ◦ f . Alors il existe une base de V dans laquelle les transformations f et g sont toutes deux représentées par une matrice diagonale. En déduire que les transformations linéaires f + g et f ◦ g sont également diagonalisables. (Suggestion : regarder d’abord les exercices 1.4.12 et 1.4.13 et utiliser 3.4.8.) 3.5. UN THÉORÈME DE JORDAN-CHEVALLEY 75 3.5. Un théorème de Jordan-Chevalley Nous nous proposons de raffiner le corollaire 3.4.5. Commençons par un rappel. Proposition 3.5.1. Soit K un corps commutatif et soit P, Q ∈ K[X] deux polynômes premiers entre eux. Alors l’homomorphisme naturel g : K[X] → (K[X]/P K[X])×(K[X]/QK[X]) : T 7→ (T +P K[X], T +QK[X]) est surjectif et induit un isomorphisme d’anneaux K[X]/P QK[X] ∼ → (K[X]/P K[X]) × (K[X]/QK[X]) Démonstration. Comme P et Q sont premiers entre eux nous avons ker(g) = P QK[X] et Im(g) ' K[X]/ker(g) = K[X]/P QK[X]. Im(g) est donc un espace vectoriel sur K de dimension deg(P Q) = deg(P ) + deg(Q). Mais Im(g) est un sous-K-vectoriel de (K[X]/P K[X]) × (K[X]/QK[X]). En tant qu’espaces vectoriels nous avons que (K[X]/P K[X]) × (K[X]/QK[X]) = (K[X]/P K[X]) ⊕ (K[X]/QK[X]) est aussi un espace vectoriel sur K de dimension deg(P ) + deg(Q). On conclut avec un argument de dimension : Im(g) = (K[X]/P K[X]) × (K[X]/QK[X]). Corollaire 3.5.2. Soit encore K un corps commutatif et soit P1 , · · · , Pk ∈ K[X] des polynômes premiers entre eux deux à deux. Alors (i) l’homomorphisme naturel g : K[X] → k Y K[X]/(Pi )K[X] : T 7→ (T + Pi K[X]) i=1 est surjectif et induit un isomorphisme d’anneaux K[X]/(P1 · · · Pk )K[X] ∼ → k Y K[X]/Pi K[X] i=1 (ii) quels que soient les polynômes T1 , · · · , Tk ∈ K[X], il existe un polynôme T ∈ K[X] tel que T − Ti ∈ Pi K[X] ∀i 1 6 i 6 k. Démonstration. La première assertion se montre par induction sur le nombre k de polynômes concernés et la seconde assertion découle de la première : il suffit de prendre pour T un polynôme dont l’image par g est (T1 + P1 K[X], · · · , Tk + Pk K[X]). 76 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME Théorème 3.5.3. (Jordan-Chevalley) Si le corps K est algébriquement clos, toute transformation linéaire a d’un espace vectoriel V de dimension finie sur K s’écrit de façon unique sous la forme a = aS + aN où aS est diagonalisable, où aN est nilpotente et où aS ◦ aN = aN ◦ aS . De plus, il existe des polynômes P, Q ∈ K[X] tels que aS = P (a) et aN = Q(a). Démonstration. Soit aS et aN les transformations obtenues en 3.4.5 dont nous reprenons les notations. Montrons d’abord l’existence d’un polynôme P ∈ K[X] tel que aS = P (a) (le polynôme Q = X − P sera alors tel que Q(a) = aN ). En fait il suffit de prendre avec 3.5.2 un polynôme P tel que P − λi ∈ (X − λi )ri K[X] ∀i, 1 6 i 6 k. Car les composantes primaires S(λi ) sont stables par a et donc aussi par P (a) et pour un tel P nous avons avec 3.4.4 que la restriction de P (a) à S(λi ) est l’homothétie de rapport λi . Comme V est la somme directe de ses composantes primaires on en déduit P (a) = aS . Supposons maintenant qu’on puisse encore écrire a = a0S + a0N , où a0S est diagonalisable, a0N nilpotente et où a0S ◦ a0N = a0N ◦ a0S . Alors les transformations a0S et a0N , commutant entre elles, commutent avec leur somme a et donc aussi avec P (a) = aS et avec aN . Et nous avons aS − a0S = a0N − aN . Mais aS − a0S est diagonalisable, 3.4.9, et a0N − aN est nilpotente, 3.3.15. Avec 3.3.14 on obtient aS − a0S = 0 = a0N − aN . 3.6. FORME NORMALE DE JORDAN 77 3.6. Forme normale de Jordan Définition 3.6.1. Une matrice élémentaire de Jordan est une matrice carrée dont toutes les entrées sur la diagonale principale sont égales, dont les entrées sur la diagonale située juste au-dessus de la diagonale principale sont toutes égales à 1 et dont toutes les autres entrées sont nulles. Une matrice de Jordan est une matrice carrée somme directe de matrices élémentaires de Jordan Voici quelques 0 0 0 0 matrices élémentaires de Jordan de taille 4, 3, 2, 1 : 1 0 0 µ ¶ 2 1 0 2 1 0 1 0 0 2 1 (2) 0 2 0 0 1 0 0 2 0 0 0 Celle de gauche est nilpotente, de polynôme minimal X 4 . 3.6.2. Observations. Si la transformation linéaire a de V est représentée, dans une base (e1 , · · · , en ) de V , par une matrice élémentaire de Jordan dont les entrées sur la diagonale principale sont égales à λ, on a ϕa = (X − λ)n . On a aussi (a − λ1V )(ei ) = ei−1 pour 1 < i 6 n et (a − λ1V )(e1 ) = 0. On a donc (a − λ1V )i (en ) = en−i pour 1 6 i < n et (a − λ1V )n (en ) = 0. On en déduit que µa = ϕa = (X − λ)n , que a n’est pas diagonalisable si n > 1. Théorème 3.6.3. Supposons le corps K algébriquement clos et soit encore V un K-vectoriel de dimension finie. Pour toute transformation linéaire a de V il existe une base de V dans laquelle la transformation a est représentée par une matrice de Jordan. Une telle base sera appelée base de Jordan pour a. Démonstration. Avec 3.4.4 on se ramène au cas où la transformation a admet une seule composante primaire, où le polynôme minimal de a est de la forme µa = (X − λ)r , r 6 n = dimK V . Comme en 3.4.5 on écrit alors a = λIV + (a − λIV ). La transformation (a − λIV ) est nilpotente, et, comme l’homothétie λIV est représentée par la matrice diagonale λIn dans n’importe quelle base de V , il nous suffit de trouver une base de Jordan pour (a − λIV ). On est ramené au cas d’une transformation nilpotente. Soit donc a une transformation linéaire nilpotente de V de polynôme minimal µa = X r , r 6 dimK V . Procédons par étapes. 78 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME (i) On a {0} 6= ar−1 (V ) ⊂ Ker(a), prenons un vecteur non nul u1 ∈ ). Choisissons un vecteur e1 ∈ V tel que u1 = ar−1 (e1 ) et regardons la suite de vecteurs ar−1 (V u1 = ar−1 (e1 ) u2 = ar−2 (e1 ) ··· ur−1 = a(e1 ) ur = e1 . Pour cette suite on a ur 7→ ur−1 7→ · · · 7→ u2 7→ u1 7→ 0. Ces vecteurs engendrent donc un sous-espace V1 de V stable par a, on montre aisément qu’ils sont linéairement indépendants et forment donc une base de V1 . On remarque ensuite que la matrice de la restriction a1 de a à V1 dans cette base u ainsi numérotée est une matrice élémentaire de Jordan. (ii) Prenons maintenant une base v1 , · · · , vk de ar−1 (V ) (avec v1 = u1 ). Choisissons pour chacun des vi un vecteur ei tel que vi = ar−1 (ei ). On montre encore aisément que les vecteurs ar−1 (e1 ) ar−2 (e1 ) ar−1 (e2 ) ar−2 (e2 ) · · r−1 r−2 a (ek ) a (ek ) ··· ··· ··· ··· a(e1 ) e1 a(e2 ) e2 · · a(ek ) ek sont linéairement indépendants. Comme en (i) on remarque aussi que chacune des suites ar−1 (ei ), ar−2 (ei ), · · · , a(ei ), ei engendre un sous-espace Vi de V stable par a. Nous obtenons un sous-espace V 0 = V1 ⊕ V2 ⊕ · · · ⊕ Vk de V stable par a et la restriction de a à ce sous-espace est représentée par une matrice de Jordan dans la base de V 0 exhibée ci-haut et convenablement numérotée. Notons que ar−1 (V ) = ar−1 (V 0 ) par construction, nous dirons que ar−1 (V ) est servi par V 0 . (iii) Occupons-nous maintenant de ar−2 (V ). Si ar−2 (V ) ⊂ V 0 nous passons à l’étape suivante. Sinon, écrivons ar−2 (V ) = (ar−2 (V ) ∩ V 0 ) ⊕ W et prenons une base w1 , · · · , wh de W . Nous avons a(wi ) ∈ ar−1 (V ) = ar−1 (V 0 ) et nous pouvons choisir un vecteur wi00 ∈ ar−2 (V 0 ) tel que a(wi ) = a(wi00 ). Posons maintenant wi0 = wi − wi00 , on a encore wi0 ∈ ar−2 (V ) et on a aussi a(wi0 ) = 0. On observe que les vecteurs w10 , · · · , wh0 sont linéairement indépendants et engendrent un sous-espace W 0 ⊂ ar−2 (V ) pour lequel on a encore ar−2 (V ) = (ar−2 (V ) ∩ V 0 ) ⊕ W 0 . 3.6. FORME NORMALE DE JORDAN 79 Nous traitons maintenant nos wi0 comme nous avons traité u1 à la première étape, nous écrivons wi0 = ar−2 (e0 i), nous remarquons que les éléments at (e0i ) 1 6 i 6 h 0 6 t 6 r − 2 sont linéairement indépendants et que chacune des suites ar−2 (e0i ) ··· a(e0i ) e0i engendre un sous-espace Ti de V stable par a. Regardons maintenant le sous-espace T 0 = T1 ⊕ · · · ⊕ Th . T 0 est stable par a. Par construction nous avons ar−2 (T 0 ) = W 0 et a(W 0 ) = {0}. Nous avons aussi T 0 ∩ V 0 = {0}. Nous obtenons donc un sous-espace T 0 ⊕ V 0 de V stable par a tel que la restriction de a à ce sous-espace est représentée par une matrice de Jordan. Par construction nous avons aussi ar−2 (V ) ⊂ T 0 ⊕ V 0 , ar−2 (V ) est servi. (iv) On traite successivement ar−3 (V ), · · · , a(V ) et V de la même manière et on obtient finalement une décomposition de V en somme directe de sous-espaces stables par a pour lesquels la restriction de a à ces sous-espaces peut se représenter par une matrice de Jordan. Cette preuve descriptive est sans doute un peu longue. Après la première étape on aurait pu procéder par induction sur dimK V . Pour cela il aurait fallu montrer que le sous-espace V1 de la première étape admet un sousespace complémentaire stable par a. Mais ceci aussi est assez délicat, pour la simple raison que la plupart des sous-espaces de V stables par a n’ont pas de complémentaires stables par a. ———————————————————————————— Exercice 3.6.4. Soit f une transformation linéaire d’un vectoriel complexe droit V dont la matrice, dans une base e, est 1 1 F = 1 0 1 1 1 0 1 1 1 −1 . 1 0 0 0 On demande : (i) une base de Ker(f ), (ii) déterminer le polynôme minimal µf et le polynôme caractéristique ϕf de f , (iii) calculer les composantes primaires de f , (iv) calculer une base de Jordan et la forme normale de Jordan de f . 80 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME Exercice 3.6.5. Même exercice pour la transformation linéaire d’un vectoriel complexe droit V dont la matrice, dans une base e, est 0 0 0 0 4 0 1 0 G= 0 0 1 1 . 0 0 1 1 Exercice 3.6.6. Soit f une transformation linéaire d’un vectoriel complexe droit V de base e = (e1 , e2 , · · · , e7 ) décrite par e1 7→ e2 7→ e3 7→ 0 e4 7→ e5 7→ e3 e6 7→ e7 7→ 0 e8 7→ e7 Déterminer une base de Jordan et la forme normale de Jordan de f . Exercice 3.6.7. Quelles sont les formes normales de Jordan possibles pour une matrice carrée complexe A telle que (i) µA = (X − 1)2 (X − 2) et ϕA = (X − 1)4 (X − 2)2 , (ii) ϕA = X 4 (X − 1), (iii) µA = (X − 1)3 (X − 2) et A ∈ C7×7 . Exercice 3.6.8. Soit f une transformation linéaire d’un espace vectoriel complexe de dimension finie et soit ϕf = (X − λ1 )s1 · · · (X − λk )sk la factorisation de son polynôme caractéristique, où les λi sont des éléments de K distincts deux-à-deux. Que peut-on dire de dim S(λi ) ? Exercice 3.6.9. Toute permutation des vecteurs de base e1 , e2 , · · · en d’un espace vectoriel complexe de dimension n définit un transformation linéaire bijective de ce vectoriel. (i) Quel est le polynôme minimal des transformations linéaires correspondant aux permutations p = (e1 , e2 , e3 ) ◦ (e4 , e5 ) ◦ (e6 ), q = (e1 , e2 , e3 , e4 ) ◦ (e5 , e6 ). 3.6. FORME NORMALE DE JORDAN 81 (ii) Montrer que les transformations linéaires correspondant à une permutation des vecteurs de base d’un vectoriel complexe de dimension finie sont toutes diagonalisables et que leurs valeurs propres sont des complexes de modules 1. (Nota bene : vues comme transformations linéaires d’un espace vectoriel réel, ces transformations sont en fait des transformations orthogonales.) 82 CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME Chapitre 4 Dualité 4.1. Point de vue x Dans l’espace réel coordonné R3×1 , l’ensemble des points y tels que z 2x + 3y − 4z = 0 forme un plan passant par l’origine. Réécrivons son ¡ ¢ x équation : 2 3 −4 y = 0. Ce plan apparaît comme le noyau d’un z homomorphisme de R-modules droits x ¡ ¢ x 3×1 R → R : y 7→ 2 3 −4 y . z z Une forme linéaire sur R3×1 est un homomorphisme de R-modules droits R3×1 → R. Ces formes linéaires forment un vectoriel réel, appelé ∗ dual de R3×1 et noté (R3×1 ) . Cependant, comme l’ensemble de ces formes linéaires est naturellement en bijection avec R1×3 , nous le verrons plutôt comme un R-vectoriel gauche, alors que R3×1 est plutôt vu comme R-vectoriel droit. Un sous-espace W de Rn×1 peut se décrire de deux façons. Nous pouvons donner une partie génératrice de W , dont nous pouvons même extraire une base de W . Mais nous pouvons aussi décrire ce même sous-espace W par équations (linéaires homogènes), ce qui revient à le voir comme intersection d’hyperplans, c.-à-d. comme intersection de noyaux de formes linéaires non nulles. Ceci nous amène à regarder l’ensemble des formes linéaires sur Rn×1 qui s’annulent sur W , nous désignerons cet ensemble par W 0 et l’appellerons annulateur ou orthodual de W . Nous verrons que W est entièrement déterminé par W 0 , nous remarquons que W 0 est un sous∗ vectoriel de (Rn×1 ) . Une base de W 0 fournira donc un système minimal d’équations décrivant W . (Le passage d’une description du sous-vectoriel W de Rn×1 à l’autre se fera par la résolution d’un système d’équations linéaires.) 83 84 CHAPITRE 4. DUALITÉ Ce point de vue sera particulièrement utile pour prendre l’image inverse d’un sous vectoriel W de Rn×1 par une application linéaire f : Rm×1 → Rn×1 . En effet, si W est décrit par équations, si W = {y ∈ Rn×1 | s1 (y) = s2 (y) = · · · sk (y) = 0}, alors l’image inverse de W par f , c.-à-d. le sous-vectoriel f −1 (W ) de Rm×1 défini par f −1 (W ) = {x ∈ Rm×1 | f (x) ∈ W } sera aussi décrit par équations, nous aurons f −1 (W ) = {x ∈ Rm×1 | (s1 ◦ f )(x) = (s2 ◦ f )(x) = · · · (sk ◦ f )(x) = 0}. Nous voyons ici apparaître la duale de l’application linéaire f , c.-à-d ; l’application f ∗ définie par : f ∗ : (Rn×1 )∗ → (Rm×1 )∗ : s 7→ s ◦ f. On voit sans trop de peine que f ∗ est une application linéaire de R-vectoriels (gauches). Tout ceci mérite d’être regardé de près et peut se généraliser à des vectoriels droits ou gauches, finiment engendrés ou non, sur un corps quelconque, éventuellement non commutatif, et même à des A-modules. Notons aussi que la tactique décrite ci-haut peut aussi s’utiliser pour identifier l’image inverse par une transformation non linéaire d’une partie de Rn décrite par équations. 4.1.1. Exercice. L’inversion est une transformation du plan réel épointé R2 \ {(0, 0} décrite par f (x, y) = ( x2 ∗ où s1 , s2 , · · · , sk ∈ (Rn×1 ) , x y , 2 ). 2 + y x + y2 Remarquer que f ◦ f est la transformation identique du plan réel épointé, que f = f −1 . Quelle est l’image par f d’une droite d’équation ax + by + c = 0 ? 4.2. Modules et homomorphismes duaux 4.2.1. Le dual d’un A-module droit. Une forme A-linéaire sur un A-module droit M est un endomorphisme de A-modules droits s : M → A. Nous pouvons additionner deux formes A-linéaires sur M et nous savons déjà que l’ensemble de ces formes A-linéaires sur M forme un groupe commutatif (HomA (M, A), +), cf.1.3.1(a). Nous allons voir que ce groupe HomA (M, A) est naturellement muni d’une structure de A-module gauche. 4.2. MODULES ET HOMOMORPHISMES DUAUX 85 Remarquons d’abord que les formes A-linéaires sur le A-module droit A sont les fonctions (a·)A : A → A : x 7→ ax, où a ∈ A. (En effet, soit f est une forme A-linéaire sur le A-module droit A. Si f (1) = a, alors, ∀x ∈ A, f (x) = f (1x) = f (1)x = ax, donc f = (a·)A . Par ailleurs, la distributivité dans A de la multiplication par rapport à l’addition et l’associativité de la multiplication montre que les fonctions (a·)A : A → A : x 7→ ax, où a ∈ A sont des formes linéaires sur le A-module droit A.) Nous pouvons composer une forme A-linéaire s sur M avec une de ces fonctions (a·)A , nous obtenons une nouvelle forme A-linéaire (a·)A ◦ s sur M : (a·)A s M −→ A −→ A. Nous définissons alors : as = (a·)A ◦ s, de sorte que, ∀w ∈ M , (as)(w) = a · s(w). Nous avons : as ∈ HomA (M, A). Nous remarquons ensuite que la fonction A × HomA (M, A) → HomA (M, A) : (a, s) 7→ as munit le groupe additif HomA (M, A) d’une structure de A-module gauche. (La double distributivité, qui se vérifie aisément, est un cas particulier de 1.3.1(a). L’associativité mixte découle de l’associativité de la multiplication dans A : ∀a, b ∈ A, (a·)A ◦ (b·)A = ((ab)·)A .) Le groupe HomA (M, A) avec cette structure de A-module gauche sera appelé le dual (classique) du A-module droit M et sera noté M ∗ . 4.2.2. Exemples. (a) Soit A un anneau. L’isomorphisme de groupes additifs A1×n ∼ → HomA (An×1 , A) obtenu en 2.2.2(a) est maintenant un isomorphisme de A-modules gauches. Via cet isomorphisme, le dual du A-module droit An×1 s’identifie naturellement au A-module gauche A1×n . Après cette identification, nous écrirons donc ∗ (An×1 ) = A1×n . En particulier, le dual du A-module droit A s’identifie naturellement au A-module gauche A. (b) Soit M un A-module droit libre de base B. Comme toute fonction de B dans A se prolonge de façon unique en une A-forme linéaire sur M , nous voyons que M ∗ est naturellement isomorphe à M B avec sa structure de A-module gauche décrite en 1.1.6. M∗ (c) Si les deux A-modules droits M et N sont isomorphes, leurs duaux et N ∗ sont aussi isomorphes. 86 CHAPITRE 4. DUALITÉ Proposition 4.2.3. Si K est un corps et si V est un K-vectoriel droit de dimension finie, alors dimK V = dimK V ∗ . Démonstration. Si dimK V = n, alors V ' K n×1 et V ∗ ' K 1×n , d’où dimK V ∗ = n. 4.2.4. Exercices. (a) Le dual du Z-module droit Z6 est nul. (b) Les Z-modules Z et Z⊕Z6 ne sont pas isomorphes, mais leurs duaux sont isomorphes. (c) Soit M1 , M2 deux A-modules droits. On a : (M1 ⊕M2 )∗ ' M1∗ ⊕M2∗ . 4.2.5. Homomorphisme dual. Voici un homomorphisme de A-modules droits : f : M → N. Pour tout s ∈ N ∗ , la fonction composée s◦f est encore un homomorphisme de A-modules droits : s ◦ f ∈ M ∗ . s◦f M f /N 2A ~> ~ ~ ~~s ~~ ∗ Nous écrirons encore s ◦ f = sf . Nous obtenons une fonction ∗ f ∗ : N ∗ → M ∗ : s 7→ s ◦ f = sf . Nous savons déjà que f ∗ est un homomorphisme de groupes additifs, voir 1.3.1(a), et nous observons que de plus f ∗ est un homomorphisme de Amodules gauches. (En effet, l’associativité de la composition des fonctions et nos définitions donnent : (as) ◦ f = (a·)A ◦ s ◦ f = a(s ◦ f ).) Cet homomorphisme f ∗ de A-modules gauches est appelé l’ homomorphisme dual de f . 4.2.6. Premières propriétés de la dualité. (i) Le dual de l’application identique d’un A-module droit M est l’application identique de M ∗ . (ii) Voici maintenant une suite d’homomorphismes de A-modules droits f g M −→ N −→ P 4.2. MODULES ET HOMOMORPHISMES DUAUX 87 et leurs duaux, qui sont des homomorphismes de A-modules gauches f∗ g∗ M ∗ ←− N ∗ ←− P ∗ . Nous avons : (g◦f )∗ = f ∗ ◦g ∗ = g ∗ ·f ∗ , . car, ∀s ∈ P ∗ , s◦(g◦f ) = (s◦g)◦f (iii) Si f est un isomorphisme de A-modules droits, alors f ∗ est un isomorphisme de A-modules gauches. (iv) Soit f , g deux homomorphismes du A-module droit M dans le A-module droit N . f M Alors : g ) 5N (f + g)∗ = f ∗ + g ∗ . 4.2.7. Le dual d’un A-module gauche. Nous pouvons aussi prendre le dual d’un A-module gauche M . Cette fois, les formes A-linéaires sur le A-module gauche M seront les homomorphismes de A-modules gauches s : M → A. Pour toute forme A-linéaire sur M et pour tout a ∈ A, nous définissons une nouvelle forme A-linéaire sa sur M par : sa = s ◦ (·a)A . Autrement dit, sa est définie par : ∀w ∈ M, w(sa) = (ws )a. Ceci munit le groupe additif HomA (M, A) d’une structure d’A-module droit. Ce groupe additif HomA (M, A) avec sa structure d’A-module droit sera encore appelé le dual (classique) de M et noté M ∗ . De façon semblable, nous pouvons définir le dual f ∗ d’un homomorphisme f de A-modules gauches, ce dual f ∗ est alors un homomorphisme de A-modules droits. 4.2.8. Exemple. Soit A un anneau. Comme en 4.2.2 nous identifions (Ar×1 )∗ à A1×r au moyen de l’isomorphisme naturel de A-modules gauches A1×r ∼ → (Ar×1 )∗ . 1×r De façon semblable, nous identifions (A )∗ à Ar×1 au moyen de l’isomorphisme naturel de A-modules droits Ar×1 ∼ → (A1×r )∗ . Soit maintenant F ∈ Am×n . Cette matrice F nous donne un homomorphisme de A-modules droits f défini par f : An×1 → Am×1 : v 7→ F · v. Cette matrice F nous donne aussi un homomorphisme de A-modules gauches f 0 défini par f 0 : A1×m → A1×n : v 7→ v · F. Avec les identifications ci-dessus, nous avons : f∗ = f0 et f 0∗ = f. 88 CHAPITRE 4. DUALITÉ 4.3. Dualité coordonnée pour les modules libres 4.3.1. Duale d’une base. Soit M un A-module droit libre de base (ei )i∈I . Nous associons à cette base de M une famille (e∗i )i∈I d’éléments de M ∗ , la forme A-linéaire e∗i étant définie par : ∀k ∈ I, e∗i (ek ) = δki . Ici δki est le symbole de Kronecker, δki = 1 si i = k et δki = 0 si i 6= k. On remarque que les (e∗i )i∈I forment une partie libre du A-module ∗ gauche M duale de la base (ei )i∈I . Pn, appelée P ∗ik = 0, alors, ∀j, 1 6 j 6 n, ( n ∗ik )(e ) = e (Si a ij k=1 ik k=1 aik e Pn ∗ik (e )) = a = 0.) ij ij k=1 aik (e Si l’ensemble I est infini, c.-à-d. si M n’est pas de type fini, ces formes A-linéaires e∗i ne forment pas une partie génératrice de M ∗ . En effet, soit s la forme A-linéaire sur M définie par : ∀i ∈ I, s(ei ) = 1 ; On remarque que s n’appartient pas au sous-module de M ∗ engendré par les e∗i car toutes les formes appartenant à ce sous-module s’annulent en presque tous les ei . Mais si I est fini, nous allons voir que ces e∗i forment une base de M . Proposition 4.3.2. Si M est un A-module droit libre de type fini, de base e = (e1 , · · · , en ), alors M ∗ est un A-module gauche libre de type fini, ∗1 e .. ∗ de base e = . . e∗n Cette base e∗ de M ∗ est appelée base duale de la base e de M . De plus, ∀s ∈ M ∗ , la coordonnée de s dans la base e∗ , qui est une matrice ligne ∈ A1×n , est la matrice de s dans la base e de M et 1 de A. P Démonstration. Pour tout s ∈ M ∗ , on a s = ni=1 s(ei )e∗i car deux formes A-linéaires sur le A-module droit libre M sont égales si elles prennent la même valeur en chaque élément d’une base de M et car, ∀k, 1 6 k 6 n, on a: n n n X X X ( s(ei )e∗i )(ek ) = s(ei )(e∗i (ek )) = s(ei )δki = s(ek ). i=1 i=1 i=1 M∗ Ceci montre que tout élément de s’écrit de façon unique comme combinaison linéaire, à coefficients dans A, des e∗i , donc que les (e∗i )16i6n forment une base de M ∗ , ceci montre également notre assertion concernant la coordonnée de s dans la base e∗ . Regardons maintenant l’effet d’un changement de base dans M . Proposition 4.3.3. Soit M un A-module droit libre de type fini,de base e = (e1 , · · · , en ). Si u = (u1 , · · · , un ) = eC est une autre base de M (où C ∈ An×n est une matrice inversible), alors dans M ∗ nous avons : e∗ = Cu∗ . 4.3. DUALITÉ COORDONNÉE POUR LES MODULES LIBRES 89 Démonstration. Pour P tout i, 1 6 i 6 n, nous devons montrer l’égalité des deux formes e∗i et nk=1 Cki u∗k , et ceci peut se faire par évaluation en les éléments de la base u de M : ∀j, 1 6 j 6 n, on a : n n n X X X k ∗i k i e (uj ) = e ( ek Cj ) = e (ek )Cj = Cj = ( Cki u∗k )(uj ) ∗i ∗i k=1 k=1 k=1 . Occupons nous maintenant de la matrice représentant le dual d’un homomorphisme de modules libres de type fini. Proposition 4.3.4. Soit f : M → N un homomorphisme de A-modules droits libres de type fini, représenté par une matrice F ∈ An×m dans une base e = (e1 , · · · , em ) de M et une base u = (u1 , · · · , un ) de N . Alors l’homomorphisme dual f ∗ : N ∗ → M ∗ , qui est un homomorphisme de A-modules gauches libres de type fini, est représenté par la même matrice F dans la base u∗ de N ∗ et la base e∗ de M ∗ . ∗ Autrement dit, si f (e) = uF , alors (u∗ )f = F e∗ . Démonstration. Nous avons f (e) = uF et nous devons montrer que, P f∗ i ∗k ∀i, 1 6 i 6 n, on a (u∗i ) = m k=1 Fk e . Nous avons à montrer l’égalité de deux éléments de M ∗ , à nouveau, ceci peut se faire par évaluation en une base de M . Evaluons en la base e de M : ∀j, 1 6 j 6 m, on a : m n X X f∗ Fki e∗k )(ej ). uk Fjk ) = Fki = ( (u∗i ) (ej ) = (u∗i ◦f )(ej ) = u∗i (f (ej )) = u∗i ( k=1 k=1 4.3.5. Remarque. Dans la situation de la proposition, si l’anneau A est commutatif, tout A-module gauche peut être vu comme A-module droit, en particulier nous pouvons voir M ∗ comme un A-module droit, écrire ses bases en lignes et les coordonnées de ses éléments en colonne. Si nous faisons ceci, si nous permutons lignes et colonnes, il faudra aussi permuter les lignes et les colonnes dans la matrice représentant l’homomorphisme dual f ∗ , autrement dit il faudra remplacer la matrice F par sa transposée F t . Plus précisément, si A est commutatif, si l’homomorphisme dual f ∗ de notre proposition est vu comme un homomorphisme de A-modules droits, sa matrice dans les bases u∗ et e∗ est la transposée de la matrice représentant f dans la base e de M et la base u de N . 4.3.6. Exemple. Si nous identifions comme en 4.2.2 le dual de An×1 à A1×n , la duale de la base canonique de An×1 s’identifie à la base canonique de A1×n . 4.3.7. Exercice.Soit M un A-module droit libre de type fini. Nous savons déjà que son dual M ∗ est un A-module gauche libre de type fini. Montrer que toute base de M ∗ est la duale d’une base de M . 90 CHAPITRE 4. DUALITÉ 4.3.8. Exercices.Nous identifions le dual du R-vectoriel droit R3×1 à R1×3 . (a) Voici une base de R1×3 : ¡ ¢ 1 0 2 ¡ ¢ 0 3 0 ¡ ¢ 1 1 0 Déterminer une base de R3×1 dont cette base est la duale. (b) Déterminer la base duale de la base suivante de R3×1 . 1 0 1 0 , 0 , 1 . 2 1 1 4.3.9. Exercice. Soit f une transformation linéaire d’un vectoriel réel droit V dont la matrice, dans une base e, est 1 2 1 1 1 2 1 −1 F = 3 2 0 0 . 0 0 0 2 ∗ ∗ Ecrire les formes R-linéaires (e∗1 + 2e∗3 )f , (e∗1 − e∗2 − e∗4 )f comme combinaison linéaires des e∗i et calculer leurs valeurs en e2 + e4 3. 4.3.10. Exercice. L’ensemble C des fonctions continues de R dans R est naturellement muni d’une structure d’espace vectoriel réel. Tout nombre réel r définit une fonction « évaluation en r » : er : C → R : f 7→ f (r). Observer : er ∈ C∗ . 4.4. Le bidual 4.4.1. Si M est un A-module droit, son dual M ∗ est un A-module gauche dont nous pouvons aussi prendre le dual. M ∗∗ est à nouveau un A-module droit appelé module bidual de M . Nous allons voir quelle relation il y a entre M et son bidual. Soit w ∈ M . Nous évaluons les formes A-linéaires sur M en w, ce qui nous donne une fonction d’évaluation w e : M ∗ → A : s 7→ s(w). Cette fonction d’évaluation w e est un homomorphisme de A-modules gauches, donc w̃ ∈ M ∗∗ . (En effet, ∀s, t ∈ M ∗ , ∀a ∈ A, nous avons : (s + t)(w) = s(w) + t(w) par la définition de la somme s + t, 4.4. LE BIDUAL 91 et (as)(w) = a(s(w)) par la définition de as.) De plus, la fonction cM : M → M ∗∗ : w 7→ w e est un homomorphisme de A-modules droits appelé homomorphisme naturel de M dans son bidual M ∗∗ . (Montrons que cM est bien un homomorphisme de A-modules droits. Nous avons : (v^ + w) = ve + w e et wa f = wa, e car, ∀s ∈ M ∗ , s(v + w) = s(v) + s(w) et s(wa) = s(w)a.) 4.4.2. L’homomorphisme naturel cM de M dans son bidual n’est pas toujours bijectif, ni même injectif, il peut même être nul si M ∗ est nul. Ceci pose une première question : pour quels modules M l’homomorphisme naturel cM est-il injectif, bijectif ? Voici une première réponse évidente. Remarque. Soit M un A-module droit. L’homomorphisme naturel de M dans son bidual M ∗∗ est injectif si et seulement si, ∀w ∈ M, w 6= 0, ∃s ∈ M ∗ tel que s(w) 6= 0. De ceci on déduit. Proposition 4.4.3. Si M est un A-module droit libre, alors l’homomorphisme naturel cM : M → M ∗∗ est injectif. Si de plus M est libre de type fini, alors l’homomorphisme naturel cM de M dans son bidual est bijectif. Démonstration. Soit 0 6= v ∈ M . Nous écrivons v P comme combinaison linéaire des éléments d’une base (ei )i∈I de M : v = nk=1 eik v ik . Comme v 6= 0, un au moins des coefficients v ik est non nul, disons v i1 6= 0. On a alors e∗i1 (v) 6= 0 et l’injectivité de cM découle de la remarque précédente. Si de plus M est libre de type fini, de base e = (e1 , · · · , en ), nous observons que les images eei des ei dans M ∗∗ forment la base duale de la base e∗ de M ∗ . On en déduit que cM est bijectif. 4.4.4. Conclusion. Tout A-module droit M libre de type fini peut être vu comme le dual de son dual (en identifiant M à son bidual au moyen de l’isomorphisme naturel cM ). 4.4.5. Exercice. Soit f : M → N un homomorphisme de A-modules droits. Alors f ∗∗ ◦ cM = cN ◦ f. Autrement dit, le diagramme suivant est commutatif. M cM y f −−−−→ N c yN f ∗∗ M ∗∗ −−−−→ N ∗∗ 92 CHAPITRE 4. DUALITÉ 4.4.6. Exercices.Soit M un A-module droit. (a) Si M est un sous-A-module droit d’un A-module droit libre, alors l’homomorphisme naturel cM : M → M ∗∗ est injectif. (b) Réciproquement, si cM est injectif et si le A-module gauche M ∗ est de type fini, alors il existe un homomorphisme injectif de M dans un A-module droit libre de type fini. (c) cM est nul si et seulement si M ∗ est nul. 4.4.7. Exercice. Soit M un A-module droit. Tout élément w de M nous donne un homomorphisme de A-modules droits mw : A → M : a 7→ wa. En identifiant le dual du A-module droit A au A-module gauche A comme en 4.2.2, observer qu’ on a : (mw )∗ = w̃. 4.5. Orthodualité 4.5.1. Relation entre un module et son dual. Soit M un A-module droit. Il y a une relation privilégiée entre M et son dual M ∗ , la relation « s’annuler en », formée de l’ensemble des couples (s, w) ∈ M ∗ × M tels que s(w) = 0. Cette relation nous permet d’associer à toute partie P de M l’ensemble des formes A-linéaires sur M s’annulant en tous les éléments de P . Nous désignons cette partie par P 0 et nous dirons que P 0 est l’orthodual ou l’annulateur (dans M ∗ ) de P : P 0 = {s ∈ M ∗ | ∀p ∈ P, s(p) = 0} Remarquons que P 0 est un sous-A-module gauche de M ∗ , et que P 0 = (mod(P ))0 . De façon semblable, nous associons à toute partie S de M ∗ l’ensemble des éléments de M annulés par tous les éléments de S. Nous désignons cette partie par S M et nous dirons encore que S M est l’orthodual ou l’annulateur (dans M ) de S. S M = {w ∈ M | ∀s ∈ S, s(w) = 0} Remarquons que S M est un sous-A-module droit de M , et que S M = (mod(S))M . 4.5. ORTHODUALITÉ 93 Nous obtenons deux fonctions 0 P(M ) −→ P(M ∗ ) P 7→ P0 et M P(M ) ←− P(M ∗ ) SM ←[ S Ces fonctions renversent l’inclusion : ∀P1 , P2 ⊂ M, ∀S1 , S2 ⊂ M ∗ P1 ⊂ P2 ⇒ P10 ⊃ P20 S1M ⊃ S2M ⇐ S1 ⊂ S2 Nous avons aussi : P ⊂ SM ⇔ S(P ) = 0 P ⊂ P 0M ⇔ S ⊂ P0 S ⊂ S M0 Signalons que les deux dernières inclusions peuvent être strictes, même si P ou S sont des sous-A-modules. Nous avons encore : {0}M = M {0}0 = M ∗ M 0 = {0} 4.5.2. Remarque. Dans la situation générale, les inclusions P ⊂ P 0M , S ⊂ S M0 peuvent être strictes, même si P est un sous-A-module droit de M et S un sous-A-module gauche de M ∗ . Nous pouvons aussi avoir deux sous-A-modules distincts de M qui ont même annulateur dans M ∗ , un sous-A-module de M n’est pas toujours déterminé par son annulateur. De plus, l’annulateur dans M de M ∗ peut être non nul. Exemples.(a) Soit K un corps et soit V un K-vectoriel droit de dimension dénombrable, de base (ei )i∈N . Soit S le sous-K-vectoriel de V ∗ engendré par les e∗i , i ∈ N. Nous avons : S M = 0 et S ( S M0 = V ∗ . (b) Dans le Z-module Z, nous avons : (2Z) ( (2Z)0M = Z. (c) Pour le Z-module Z6 , nous avons (Z6 )∗ = 0 et ((Z6 )∗ )M = Z6 6= 0. Cependant, dans le cas où A = K est un corps, nous pourrons quand même tirer avantage du fait que toute partie libre d’un K-vectoriel V se prolonge en une base de V , que tout sous-K-vectoriel de V admet un complémentaire . 94 CHAPITRE 4. DUALITÉ Proposition 4.5.3. Soit K un corps et V un K-vectoriel droit (ou gauche). Soit encore W un sous-K-vectoriel droit de V . Alors (i) ∀v ∈ V \ W, ∃s ∈ V ∗ tel que s(W ) = 0 et s(v) 6= 0, (ii) W 0M = W , W est entièrement déterminé par son annulateur W 0 . Si de plus V est de dimension finie, alors (iii) dimK V = dimK W + dimK W 0 , (iv) Pour tout sous-K-vectoriel S de V ∗ , on a aussi S = S M0 . Démonstration. (i) Si B 0 est une base de W , alors, ∀v ∈ V \ W , la partie B 0 ∪ {v} est une partie libre de V que nous prolongeons en une base B de V . Toute fonction de B dans K s’annulant sur B 0 mais ne s’annulant pas en v se prolonge en une forme K-linéaire s sur V répondant à la question. (ii) Avec (i), nous voyons que, si v ∈ V \ W , alors v ∈ / W 0M . L’inclusion 0M W ⊂ W est donc une égalité. (iii) Ecrivons V = W ⊕ W 0 , et prenons une base de V adaptée à cette décomposition de V en somme directe. Autrement dit, prenons une base e = (e1 , · · · , en ) de V , n = dimK V , telle que (e1 , · · · ek ) soitPune base de W et (ek+1 , · · · , en ) une base de W 0 . Nous observons que s = ni=1 si e∗i s’annule sur W si seulement si s1 = · · · = sk = 0, autrement dit nous observons que W 0 est le sous-K-vectoriel de V ∗ engendré par e∗(k+1) , · · · , e∗n . Donc dimK W 0 = n − k = dimK V − dimK W . (iv) Le K-vectoriel V de dimension finie peut être vu comme le dual de son dual. Cette dernière assertion est donc une conséquence de la seconde, appliquée à V ∗ . 4.5.4. Exercices. Soit V un vectoriel réel droit de base (e1 , e2 , e3 , e4 , e5 ). (a) Décrire l’orthodual de chacun des sous-vectoriels suivants de V . W1 = mod(e1 + e2 , W2 = { W3 = { e3 − e4 ), P5 i | v 1 + v 2 = 0, P5 i | i=1 ei v i=1 ei v P5 i=1 v i 2v 2 + v 3 = 0}, = 0}, W4 = {v ∈ V | (e∗1 + 2e∗2 )(v) = 0, (e∗2 + e∗3 )(v) = 0}. (b) Décrire l’orthodual de chacun des sous-vectoriels suivants de V ∗ . S1 = mod(e∗1 , e∗2 , e∗3 ), S2 = mod(e∗1 + 2e∗2 , e∗2 + e∗3 ), S3 = {s ∈ V ∗ | s(e1 + e2 ) = 0, s(e2 − e3 ) = 0}, 4.6. PROPRIÉTÉS D’EXACTITUDE DE LA DUALITÉ S4 = { P5 i=1 ti e ∗i 95 | t1 = t2 = t3 = t4 = t5 }. 4.5.5. Exercices. (a) Soit f : M → N un homomorphisme de A-modules droits, soit S ⊂ N ∗ et N 0 = S M ⊂ N . Prenons l’image inverse f −1 (N 0 ) de N 0 par f : f −1 (N 0 ) = {w ∈ M | f (w) ∈ N 0 }. ∗ M Nous avons : f −1 (N 0 ) = (S f ) . (b) Soit f : V → W une application linéaire de K-vectoriels droits. Soit W1 ⊂ W un sous-K-vectoriel droit de W dont nous prenons l’image inverse par f . f∗ M On a : f −1 (W1 ) = ((W10 ) ) . En particulier, nous avons : Ker(f ) = (Im(f ∗ ))M . 4.5.6. Exercice. Soit f une transformation linéaire d’un vectoriel réel droit V dont la matrice, dans une base e, est 1 1 1 1 1 1 1 −1 F = 1 2 1 0 . 0 0 0 2 (a) Décrire ker(f ) et ker(f ∗ ) par équations. ∗ (b) Calculer (e∗1 − e∗3 )f . (c) Décrire f −1 (W ), si W = {e1 x + e2 y + e3 z + e4 u | x = ay = z}, et calculer la dimension de f −1 (W ) en fonction du paramètre réel a. (d) Décrire f −1 (W1 ), si W1 est le sous-vectoriel de V engendré par e1 + e2 , −e2 + e4 2. 4.5.7. Exercices. (a) Soit M1 , M2 deux sous-A-modules droits du Amodule droit M . On a : (M1 + M2 )0 = M10 ∩ M20 . (b) Soit W1 , W2 deux sous-K-vectoriels droits du K-vectoriel droit V . On a : (W1 ∩ W2 )0 = W10 + W20 . (c) Soit M un A-module droit. Pour toute partie P de M et toute partie S de M ∗ , nous avons : S M0M = S M P 0M0 = P 0 . 4.6. Propriétés d’exactitude de la dualité Nous savons depuis longtemps que le dual d’un isomorphisme est un isomorphisme. Dans cette section nous allons examiner le noyau et l’image 96 CHAPITRE 4. DUALITÉ d’un homomorphisme dual f ∗ vis-à-vis du noyau et de l’image de f . Voici une première remarque. Proposition 4.6.1. Soit f : M → N un homomorphisme de A-modules droits dont voici le dual f ∗ : N ∗ → M ∗ . Alors Ker(f ∗ ) = Im(f )0 et Im(f ∗ ) ⊂ Ker(f )0 . En particulier, si f est surjectif, alors f ∗ est injectif. Démonstration. Immédiat d’après les définitions. 4.6.2. Remarque. Dans cette situation générale, nous n’avons pas beaucoup à dire de plus, l’inclusion Im(f ∗ ) ⊂ Ker(f )0 peut être stricte et il existe des homomorphismes injectifs dont le dual n’est pas surjectif. Regarder par exemple le dual de l’homomorphisme de Z-modules Z → Z : z 7→ 2z. Nous pourrons quand même en dire un peu plus lorsque l’homomorphisme f est surjectif, plus généralement lorsque Im(f ) est un sommant direct de N . Regardons d’abord la duale d’une projection naturelle et la duale d’une injection naturelle. Lemme 4.6.3. Soit M1 un sous-A-module droit du A-module droit M , soit p : M → M/M1 la projection naturelle et soit i : M1 → M l’injection naturelle. Nous avons. (i) L’homomorphisme p∗ est injectif et Im(p∗ ) = M10 = Ker(i∗ ), (ii) Si M1 est un sommant direct de M , c.-à-d. si M = M1 ⊕M2 pour un certain sous-A-module M2 de M , alors l’homomorphisme i∗ est surjectif. Démonstration. L’image par i∗ d’une forme A-linéaire s ∈ M ∗ n’est rien d’autre que sa restriction s|M1 à M1 . Par conséquent Ker(i∗ ) = M10 . Par ailleurs, si M = M1 ⊕ M2 , tout élément w de M s’écrit de façon unique w = w1 + w2 , où w1 ∈ M1 , w2 ∈ M2 , et toute forme A-linéaire s1 sur M1 peut se prolonger en une forme A-linéaire s sur M définie par ∗ s(w) = s1 (w1 ). Nous avons alors s1 = si ∈ Im(i∗ ), ce qui montre que i∗ est surjectif. 2A > s1 s M1 i /M Regardons maintenant la duale de la projection naturelle p. Nous avons déjà observé l’inclusion Im(p∗ ) ⊂ M10 . 4.6. PROPRIÉTÉS D’EXACTITUDE DE LA DUALITÉ 97 D’autre part, toute forme A-linéaire s sur M s’annulant sur M1 se factorise à travers M/M1 (voir 1.2.3) : il existe une (et une seule) forme A-linéaire ∗ s̄ sur M/M1 telle que s = s̄ ◦ p = s̄p . M s /A < GG GG GG p GGG # s̄ M/M1 Donc l’inclusion Im(p∗ ) ⊂ M10 est en fait une égalité. Corollaire 4.6.4. Dans la situation de 4.6.3, on a : (M/M1 )∗ ' M10 . Si M1 est un sommant direct de M , on a aussi : (M1 )∗ ' M ∗ /M10 . Démonstration. Immédiat au vu de 4.6.3 et du théorème d’isomorphisme 1.2.2. Complétons maintenant la proposition 4.6.1. Proposition 4.6.5. Soit f : M → N un homomorphisme de A-modules droits. Si f est surjectif, plus généralement si Im(f ) est un sommant direct de N , alors Im(f ∗ ) = Ker(f )0 . Démonstration. L’homomorphisme f se factorise en f = i ◦ f¯ ◦ p M py f −−−−→ N x i f¯ M/Ker(f ) −−−−→ Im(f ) où i désigne l’injection naturelle, p la projection naturelle et où f¯ est l’isomorphisme induit par f . Dualisons cette factorisation, nous obtenons f ∗ = p∗ ◦ f¯∗ ◦ i∗ M∗ x p∗ f∗ ←−−−− N∗ ∗ yi f¯∗ (M/Ker(f ))∗ ←−−−− (Im(f ))∗ Sous nos hypothèses, i∗ est surjectif par 4.6.3. Comme de plus f¯∗ est bijectif, nous avons Im(f ∗ ) = Im(p∗ ). Et avec 4.6.3 nous avons encore Im(p∗ ) = Ker(f )0 . Reformulons maintenant une partie de nos résultats dans un autre langage bien adapté. 98 CHAPITRE 4. DUALITÉ Définitions 4.6.6. Voici une suite d’homomorphismes de A-modules (droits ou gauches) f g M −→ N −→ P. Nous dirons que cette suite est une 0-suite si g ◦ f = 0, autrement dit si Im(f ) ⊂ Ker(g). Nous dirons que cette suite est une suite exacte si de plus Im(f ) = Ker(g). Plus généralement, nous dirons qu’une suite longue M1 → M2 → M3 → M4 → M5 est exacte si elle est exacte en chacune de ses charnières. 4.6.7. Exemples. f La suite 0 −→ M 0 −→ M est exacte ⇔ f est injectif. g La suite M −→ M 00 −→ 0 est exacte ⇔ g est surjectif. i La suite 0 −→ M −→ N −→ 0 est exacte ⇔ i est bijectif. f g La suite 0 −→ M 0 −→ M −→ M 00 est exacte ⇔ f est injectif et Im(f ) = Ker(g). f g La suite M 0 −→ M −→ M 00 −→ 0 est exacte ⇔ g est surjectif et Im(f ) = Ker(g). Proposition 4.6.8. Soit f g M 0 −→ M −→ M 00 −→ 0 une suite exacte d’homomorphismes de A-modules droits. Alors la suite duale ∗ g∗ f∗ 0 −→ M 00 −→ M ∗ −→ M 0 ∗ est une suite exacte d’homomorphismes de A-modules gauches. Démonstration. Nous avons avec 4.6.1 que g ∗ est injectif et que Ker(f ∗ ) = Im(f )0 = Ker(g)0 . Avec 4.6.5 nous avons aussi Ker(g)0 = Im(g ∗ ). Occupons nous finalement de la dualité pour les vectoriels. Théorème 4.6.9. Soit f : V → W une application linéaire de K-vectoriels droits. Alors Ker(f ∗ ) = Im(f )0 , Im(f ∗ ) = Ker(f )0 , Ker(f ∗ )M = Im(f ), Im(f ∗ )M = Ker(f ). 4.6. PROPRIÉTÉS D’EXACTITUDE DE LA DUALITÉ 99 Démonstration. Les deux premières égalités découlent de 4.6.3, de 4.6.5 et du fait que tout sous-vectoriel de W admet un complémentaire. Les deux dernières découlent des premières et de l’égalité X10M = X1 valable pour tout sous-K-vectoriel X1 d’un K-vectoriel X. Corollaire 4.6.10. Soit f g V1 −→ V2 −→ V3 une suite d’applications linéaires de K-vectoriels droits. Cette suite est exacte si et seulement si sa duale f∗ g∗ V1∗ ←− V2∗ ←− V3∗ est exacte. Démonstration. Im(f ) = Ker(g) ⇔ Im(f )0 = Ker(g)0 ⇔ Ker(f ∗ ) = Im(g ∗ ). 4.6.11. Exercices. Soit f : V → W une application linéaire d’ espaces vectoriels droits V sur un corps K. (a) Démontrer : (Im(f ))∗ ' Im(f ∗ ). (b) Ranger les espaces suivants en classe d’isomorphismes : (W/Im(f ))∗ , Ker(f ∗ ), (W ∗ /Ker(f ∗ ))∗ , Im(f ∗ )M , V /Ker(f ). 4.6.12. Exercice. Soit f g M 0 −→ M −→ M 00 −→ 0 une suite exacte d’homomorphismes de A-modules droits. Alors, pour tout A-module droit N, la suite ◦f ◦g HomA (M 0 , N ) ←− HomA (M, N ) ←− HomA (M 00 , N ) ←− 0 est une suite exacte d’homomorphismes de groupes commutatifs (de Amodules si l’anneau A est commutatif). (Indication : utiliser 1.2.3 ou 1.2.2.) 100 CHAPITRE 4. DUALITÉ 4.7. Dimension d’un dual Nous avons vu en 4.2.3 que la dualité préserve la dimension des espaces vectoriels de dimension finie. Mais elle la fait exploser pour les espaces vectoriels de dimension infinie. Signalons sans démonstration le résultat suivant du à Erdös et Kaplansky. Théorème 4.7.1. Pour tout espace vectoriel V de dimension infinie sur le corps K, nous avons : #V ∗ = (#K)dimK V = dimK V ∗ . En conséquence, si V est un espace vectoriel de dimension infinie sur le corps K, nous avons : dimK V ∗ = (#K)dimK V > 2dimK V > dimK V, nous avons aussi : dimK V ∗ = (#K)dimK V > 2dimK V > 2#N = #R. En particulier, nous voyons qu’un espace vectoriel de dimension dénombrable n’est jamais un dual.