Partie du cours d`Algèbre de Bac 2 en mathématiques Petite

publicité
Partie du cours d’Algèbre de Bac 2 en
mathématiques
Petite introduction aux anneau-modules
et à leur algèbre linéaire.
Anne-Marie Simon
Université libre de Bruxelles Faculté des Sciences
Département de mathématiques
Première version : 8 novembre 2006
Deuxième version ; 10 décembre 2009
corrigée et complétée le 25 novembre 2010
ii
Table des matières
1 Anneaux-Modules
1.1 Les anneaux-modules et leurs homomorphismes . . . . . . .
1.2 Factorisation des homomorphismes . . . . . . . . . . . . . .
1.3 Groupes d’homomorphismes et anneaux d’endomorphismes
1.4 Un théorème de Cayley-Hamilton . . . . . . . . . . . . . . .
1.5 Sommes et produits directs . . . . . . . . . . . . . . . . . .
1
1
10
12
18
23
2 Modules libres
2.1 Parties libres, bases . . . . . . . . . . . .
2.2 Modules libres de type fini et matrices .
2.3 L’axiome du choix et le lemme de Zorn
2.4 Autour des bases et de leur cardinal . .
.
.
.
.
29
29
36
52
57
61
61
63
66
70
75
77
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Étude d’un endomorphisme
3.1 Sous-espaces stables . . . . . . . . . . . . . .
3.2 Triangulation . . . . . . . . . . . . . . . . . .
3.3 Polynôme minimal, polynôme caractéristique
3.4 Composantes primaires . . . . . . . . . . . . .
3.5 Un théorème de Jordan-Chevalley . . . . . .
3.6 Forme normale de Jordan . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Dualité
4.1 Point de vue . . . . . . . . . . . . .
4.2 Modules et homomorphismes duaux
4.3 Dualité coordonnée pour les modules
4.4 Le bidual . . . . . . . . . . . . . . .
4.5 Orthodualité . . . . . . . . . . . . .
4.6 Propriétés d’exactitude de la dualité
4.7 Dimension d’un dual . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
83
. 83
. 84
. 88
. 90
. 92
. 95
. 100
iii
. . . .
. . . .
libres
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
iv
TABLE DES MATIÈRES
Chapitre 1
Anneaux-Modules
1.1. Les anneaux-modules et leurs homomorphismes
Dans ces notes, les anneaux sont tous supposés unitaux (non nuls), leur
addition est le plus souvent désignée par « + », leur multiplication par « · »
bien que ce « · » soit le plus souvent omis de la notation, leur neutre additif
est désigné par « 0 » et leur neutre multiplicatif par « 1 ». De même, les
homomorphismes d’anneaux ici considérés sont tous des homomorphismes
d’anneaux unitaux, ce qui signifie qu’ils appliquent le neutre multiplicatif
du premier anneau sur le neutre multiplicatif du second.
Dans la définition d’espace vectoriel sur un corps K, remplaçons le
corps par un anneau (unital), nous obtenons alors la définition d’anneaumodule, à gauche ou à droite, selon que les coefficients, c.-à-d. les éléments
de l’anneau, s’écrivent à gauche ou à droite des éléments du module. Plus
précisément, nous avons.
Définition 1.1.1. Soit A un anneau. Un A-module gauche est un groupe
commutatif (M, +) muni d’une multiplication scalaire à gauche par les éléments de l’anneau A, c.-à-d. d’une fonction
A × M → M : (a, w) 7→ aw
telle que, ∀a, b ∈ A, ∀v, w ∈ M , on a :
a(v + w) = av + aw, (a + b)v = av + bv
a(bv) = (ab)v (associativité mixte),
1v = v.
(double distributivité),
Le neutre du groupe additif (M, +) sera aussi désigné par 0.
Observons les identités suivantes valables pour un A-module gauche :
∀a ∈ A, ∀w ∈ M,
0w = 0,
a0 = 0,
(−1)w = −w.
De la même façon, un A-module droit est un groupe commutatif
(M, +) muni d’une multiplication scalaire à droite par les éléments de l’an1
2
CHAPITRE 1. ANNEAUX-MODULES
neau A, c.-à-d. d’une fonction
M × A → M : (w, a) 7→ wa
telle que, ∀a, b ∈ A,
∀v, w ∈ M , on a :
(v + w)a = va + wa
v(a + b) = va + vb
(va)b = v(ab)
v1 = v.
Notons dès à présent que tout ce que nous dirons pour les A-modules
droits admet une version analogue pour les A-modules gauches et réciproquement.
Mais notons aussi qu’en général, si M est un A-module gauche, nous
ne pouvons pas faire passer les coefficients de gauche à droite tels quels
impunément, nous ne pouvons pas écrire, ∀a ∈ A, ∀v ∈ M , va = av et
prétendre qu’ainsi nous donnons à M une structure de A-module droit.
Car en général cette « structure droite » ne satisfait plus l’associativité
mixte. En effet, avec cette écriture nous avons, ∀a, b ∈ A, ∀v ∈ M ,
v(ab) = (ab)v
et (va)b = (av)b = b(av) = (ba)v.
Or les éléments (ab)v et (ba)v de M peuvent être distincts quand l’anneau
A n’est pas commutatif.
Évidemment ce problème ne se pose que quand l’anneau est non commutatif et nous amène à une première remarque.
1.1.2. Remarque. Quand l’anneau A est commutatif, tout A-module
gauche M a aussi une structure naturelle de A-module droit définie par :
∀a ∈ A, ∀v ∈ M, va = av
et vice-versa.
Dès lors, quand A est commutatif, nous dirons parfois du A-module
gauche ou droit M qu’il est est simplement un A-module.
Définition 1.1.3. Soit M un A-module gauche. Une partie N de M est un
sous-A-module gauche de M si N est un sous-groupe du groupe additif
(M, +) et si, ∀a ∈ A, ∀v ∈ N, av ∈ N .
Autrement dit, une partie N d’un A-module gauche M est un sous-Amodule gauche de M si l’addition de M et la multiplication scalaire par les
éléments de A, convenablement restreintes, munissent N d’une structure
de A-module gauche.
1.1.4. Remarque. Une partie non vide N d’un A-module gauche M est
un sous-A-module gauche de M si et seulement si, ∀v, w ∈ M, ∀a ∈ A,
v+w ∈M
et
av ∈ M.
1.1. LES ANNEAUX-MODULES ET LEURS HOMOMORPHISMES
3
1.1.5. Premiers exemples. (a) Si A = K est un corps, on dit d’ un
K-module gauche (respectivement droit) qu’il est un K-vectoriel gauche
(respectivement droit), ou un espace vectoriel à gauche (respectivement à
droite) sur le corps K.
(b) Tout groupe commutatif (M, +) est naturellement muni d’une structure de Z-module en posant, ∀n ∈ N0 , ∀w ∈ M ,
nw = w
. . + w},
| + .{z
0w = 0,
(−n)w = n(−w).
n fois
L’étude des groupes commutatifs équivaut à l’étude des Z-modules.
(c) La multiplication dans un anneau A munit le groupe additif (A, +)
d’une structure naturelle de A- module gauche et d’une structure naturelle
de A-module droit.
Les sous-A-modules gauches du A-module gauche A sont ses idéaux
gauches et les sous-A-modules droits du A-module droit A sont ses idéaux
droits.
(d) Plus généralement, soit ϕ : A → B un homomorphisme d’anneaux.
Cet homomorphisme ϕ munit tout B-module gauche M d’une structure
de A-module gauche par
A × M → M : (a, w) 7→ ϕ(a)w.
Il munit aussi tout B-module droit d’une structure de A-module droit par
M × A → M : (w, a) 7→ wϕ(a).
En particulier ϕ munit B d’une structure de A-module gauche et d’une
structure de A-module droit.
1.1.6. Fonctions à valeurs dans un module.
Soit A un anneau, M un A-module gauche et I un ensemble.
L’ensemble M I des fonctions de I dans M est naturellement muni d’une
structure de A-module gauche définie par : ∀s, t ∈ M I , ∀a ∈ A et ∀i ∈ I,
(s + t)(i) = s(i) + t(i) et (as)(i) = a(s(i)). Nous dirons que M I muni de
cette structure est le produit direct de #I copies de M .
Désignons maintenant par M (I) la partie de M I formée des fonctions
presque nulles de I dans M , c.à-d. des fonctions s : I → M telles que
l’ensemble {i ∈ I | s(i) 6= 0} soit fini. M (I) est un sous-A-module gauche
de M I , appelé somme directe de #I copies de A.
(Nous reviendrons plus loin sur cette terminologie.)
En particulier l’ensemble AI des fonctions de I dans l’anneau A est
naturellement muni d’une structure de A-module gauche et d’une autre
structure de A-module droit. Notons cependant que, pour un a ∈ A et un
4
CHAPITRE 1. ANNEAUX-MODULES
s ∈ AI , les éléments as et sa de AI peuvent être distincts quand l’anneau
A n’est pas commutatif.
Plus particulièrement encore l’ensemble An des n-uples d’éléments de A
est aussi muni d’une structure de A-module gauche et d’une autre structure
de A-module droit. Ici encore, si a ∈ A et si w ∈ An , les éléments aw et wa
de An peuvent être différents quand l’anneau A n’est pas commutatif.
Désormais nous désignerons par A1×n l’ensemble des n-uples d’éléments
de A, écrits en ligne :
A1×n = {(a1 , a2 , · · · , an ) | ai ∈ A, 1 6 i 6 n}.
Cet ensemble A1×n sera naturellement muni de sa structure de A-module
gauche, l’addition et la multiplication scalaire par les éléments de A étant
définies composante par composante.
Nous désignerons aussi par An×1 l’ensemble des n-uples d’éléments de
A, écrits en colonnes :
 
a1
 a2 
 
An×1 = { .  | ai ∈ A, 1 6 i 6 n}.
 .. 
an
Cet ensemble An×1 sera naturellement muni de sa structure de A-module
droit,
Ces conventions ont l’avantage d’être compatibles avec la multiplication
matricielle (nous désignerons aussi par Am×n l’ensemble des matrices à m
lignes et n colonnes à entrées dans A, en posant naturellement A1×1 =
A). Elles précisent aussi laquelle des deux structures, gauche ou droite, on
met sur l’ensemble des n-uples d’éléments de A, ce qui est précieux quand
l’anneau A n’est pas commutatif.
Proposition Définition 1.1.7. Intersection de sous-A-modules.
Soit M un A-module gauche.
Toute intersection de sous-A-modules gauches de M est un sous-Amodule gauche de M .
En particulier, l’intersection des sous-A-modules gauches de M contenant une partie P de M est le plus petit sous-A-module gauche de M contenant P , il sera désigné par mod(P ) et nommé sous-A-module gauche
engendré par P .
On voit aisément que mod(P ) est l’ensemble des combinaisons linéaires à coefficients
Pn dans A d’éléments de P , c.-à-d l’ensemble des éléments de la forme i=1 ai wi , où n ∈ N, ai ∈ A, wi ∈ P .
(Par convention la somme de la partie vide de M est le zéro de M .)
Définitions 1.1.8. Une partie génératrice d’un A-module gauche M est
une partie G de M telle que mod(G) = M .
1.1. LES ANNEAUX-MODULES ET LEURS HOMOMORPHISMES
5
On dit que le A-module gauche M est de type fini s’il possède une
partie génératrice finie.
On dit que le A-module gauche M est cyclique s’il peut être engendré
par un seul élément. Autrement dit, M est cyclique si et seulement si il
existe w ∈ M tel que M = Aw (en notation globale).
Si A = K est un corps on dit aussi d’ un K-module gauche (respectivement droit) de type fini qu’il est un K-vectoriel gauche (respectivement
droit) de dimension finie.
1.1.9. Propriétés de la fonction mod : P(M ) → P(M ) : P 7→ mod(P ).
Soient P, P 0 deux parties du A-module gauche M .
(i) P ⊂ mod(P ),
la fonction mod est expansive,
(ii) P 0 ⊂ P ⇒ mod(P 0 ) ⊂ mod(P ),
la fonction mod est croissante,
(iii) Toute combinaison linéaire de combinaisons linéaires d’éléments de
P est une combinaison linéaire d’éléments de P ,
mod(mod(P )) = mod(P ), la fonction mod est idempotente.
De (i), (ii) et (iii) on déduit
(iv) Si
P 0 ⊂ mod(P ),
alors
mod(P 0 ) ⊂ mod(P ),
(v) Toute partie du A-module droit M contenant une partie génératrice
de M est elle-même une partie génératrice de M .
De plus on a
(vi) ∀x ∈ M, x ∈ mod(P ) ⇔ ∃P 0 ⊂ P, P 0 finie, telle que x ∈ mod(P 0 ).
(vii) Notons que le sous-A-module gauche de M engendré par sa partie
vide est le sous-A-module nul {0} de M .
Proposition 1.1.10. Si M est un A-module gauche de type fini, toute
partie génératrice de M contient une partie génératrice finie de M .
( La preuve se base sur 1.1.9, (vi) et est confiée au lecteur.)
1.1.11. Exemple. Les parties {1}, {2, 3} et {6, 10, 15} de Z sont des parties génératrices du Z-module (Z, +). Elles sont même des parties génératrices minimales du Z-module (Z, +) en ce sens qu’ aucune d’entre elles ne
contient strictement une autre partie génératrice.
Cet exemple illustre une première différence entre la théorie des anneaumodules et celle des espaces vectoriels. Nous avons vu au cours d’algèbre
linéaire que, si V est un espace vectoriel gauche ou droit sur un corps K possédant une partie génératrice finie, alors toutes ses parties génératrices minimales ont même nombre d’éléments, appelé la dimension du K-vectoriel
V et noté dimK V ou plus simplement dim V lorsque cette notation allégée
ne prête pas à confusion.
6
CHAPITRE 1. ANNEAUX-MODULES
1.1.12. Somme de sous-modules. Soit (Mi )∈I une famille de sousmodules d’un A-module gauche M .
Le plus petit sous-module de M contenant la réunion des Mi est l’ensemble des sommes (finies) d’élémentsPdes Mi . C’est pourquoi il est appelé
somme des sous-modules Mi et noté i∈I Mi .
Si I est un ensemble fini, disons I = {1, · · · , n}, nous avons
Pn
Pn
i=1 Mi = { i=1 wi | wi ∈ Mi }
et nous pouvons écrire en notation globale
Pn
i=1 Mi = M1 + · · · + Mn .
1.1.13. Modules quotients. Soit M 0 un sous-A-module gauche du Amodule gauche M .
Le groupe quotient (M/M 0 , +) est naturellement muni d’une structure
de A-module gauche définie par :
∀a ∈ A,
∀w ∈ M,
a(w + M 0 ) = aw + M 0 .
(Il convient d’abord de vérifier que la formule ci-dessus définit bien une
fonction :
A × (M/M 0 ) → M/M 0 ,
que, ∀w1 , w2 ∈ M, ∀a ∈ A, on a w1 +M 0 = w2 +M 0 ⇒ aw1 +M 0 = aw2 +M 0 .
Voyons ceci : (w1 + M 0 = w2 + M 0 ) ⇔ w1 − w2 ∈ M 0 ⇒ aw1 − aw2 ∈
M 0 ⇔ (aw1 + M 0 = aw2 + M 0 ).
Ceci étant fait, il est aisé de montrer que la fonction définie ci-dessus munit le groupe commutatif (M/M 0 , +) d’une structure de A-module gauche,
appelé module quotient de M par son sous-A-module gauche M 0 .)
Si G est une partie génératrice de M , on remarque que l’image de G
dans le A-module gauche quotient M/M 0 , c.-à-d. {g + M 0 | g ∈ G}, est une
partie génératrice du A-module gauche M/M 0 . On en déduit.
Tout quotient d’un A-module gauche de type fini est un A-module gauche
de type fini.
On définit de la même façon le module quotient d’un A-module droit
par un des ses sous-A-modules droits, ce quotient est alors un A-module
droit.
En particulier, si I est un idéal gauche de l’anneau A, le groupe quotient
(A/I, +) est naturellement muni d’une structure de A-module gauche. Cet
A-module gauche est cyclique, engendré par 1 + I.
Mais si I est un idéal bilatère de l’anneau A (donc un idéal gauche et
droit), le groupe quotient (A/I, +) est naturellement muni d’une structure
de A-module gauche et d’une autre structure de A-module droit (dans ce
cas A/I est par ailleurs muni d’une structure d’anneau).
1.1. LES ANNEAUX-MODULES ET LEURS HOMOMORPHISMES
7
Définitions 1.1.14. Homomorphismes de A-modules droits
Soit A un anneau et M, N deux A-modules droits.
Un homomorphisme de A-modules droits de M dans N est une fonction
f :M →N
telle que, ∀v, w ∈ M,
∀a ∈ A, on aie
f (v + w) = f (v) + f (w)
et
f (va) = f (v)a.
Un isomorphisme de A-modules droits ou homomorphisme de Amodules droits inversible est un homomorphisme de A-modules droits f :
M → N tel qu’il existe un homomorphisme de A-modules droits g : N → M
avec f ◦ g = 1N , g ◦ f = 1M .
Un endomorphisme du A-module droit M est un homomorphisme
(de A-modules droits) de M dans lui-même.
Un automorphisme du A-module droit M est un isomorphisme
M → M de A-modules droits, autrement dit un isomorphisme de M avec
lui-même.
1.1.15. Remarque. Si un homomorphisme f : M → N de A-modules
droits est bijectif, alors la fonction réciproque f −1 : N → M est aussi un
homomorphisme de A-modules droits.
Il en résulte qu’un homomorphisme de A-modules droits est un isomorphisme de A-modules droits si et seulement si il est bijectif.
Définitions 1.1.16. Homomorphismes de A-modules gauches.
Les homomorphismes, endomorphismes, isomorphismes et automorphismes de A-modules gauches se définissent de la même façon. Si M et N
sont deux A-modules gauches, un homomorphisme de A-modules gauches
de M dans N est une fonction
f :M →N
telle que, ∀v, w ∈ M, ∀a ∈ A, on aie
f (v + w) = f (v) + f (w)
et
f (av) = af (v).
1.1.17. Remarques gauche-droite. Cependant, si f : M → N est un
homomorphisme de A-modules gauches, il sera souvent commode d’écrire
l’image d’un élément w de M par la fonction f non pas par f (w) mais bien
par wf . Les conditions pour que cette fonction soit un homomorphisme de
A-modules gauches s’écriront alors :
(v + w)f = v f + wf ,
(av)f = a(v f ).
8
CHAPITRE 1. ANNEAUX-MODULES
f
g
Si l’on suit cet usage, la composée de deux fonctions X → Y → Z,
habituellement notée « g ◦ f » avec la « loi ◦ de composition gauche », sera
notée avec la « loi · de composition droite » par « f · g » ou plus simplement
par « f g ».
La composition droite « · » des fonctions est définie par f · g = g ◦ f , de
sorte que, ∀x ∈ X, on aie en composition droite xf g = (xf )g , en analogie
avec la formule usuelle (g ◦ f )(x) = g(f (x)) en composition gauche.
Cet usage, qui consiste à mettre les coefficients d’un coté et les fonctions
de l’autre, est mentionné comme une règle d’or par Jacobson. Le respect
de cette règle permet d’éviter pas mal de déboires lorsqu’on travaille avec
des modules, gauches ou droits, sur un anneau non commutatif. Mais cette
règle n’est pas impérative et il n’est pas toujours possible de la respecter,
principalement lorsque l’un des modules concernés est muni d’une seconde
structure de module sur un éventuel autre anneau. Nous verrons aussi des
situations où il est judicieux de ne pas la respecter (mais dans ces situations
l’anneau de base sera commutatif).
1.1.18. Les homomorphismes de A-modules (gauches ou droits) sont
parfois appelés applications A-linéaires et les endomorphismes de Amodules (gauches ou droits) sont parfois appelés transformations Alinéaires, en analogie avec le vocabulaire des espaces vectoriels.
1.1.19. Sorites. L’application identique d’un A-module droit est un automorphisme de A-module droit.
Toute composée d’homomorphismes de A-modules droits est un homomorphisme de A-modules droits.
Si M 0 est un sous-A-module droit du A-module droit M , l’injection
naturelle
i : M 0 ,→ M : w0 7→ w0
et la projection naturelle
p : M ³ M/M 0 : w 7→ w + M 0
sont des homomorphismes de A-modules droits.
—————————————————————————————Exercice 1.1.20. Exhiber une partie génératrice minimale de 4 éléments
du Z-module (Z, +).
Exercice 1.1.21. *Annulateurs. Soit A un anneau quelconque, non nécessairement commutatif, et M un A-module gauche.
(a) Soit w ∈ M . La partie {a ∈ A | aw = 0} de A est un idéal gauche
de A, noté AnnA (w) et nommé annulateur de w dans A.
1.1. LES ANNEAUX-MODULES ET LEURS HOMOMORPHISMES
9
T
(b) {a ∈ A | ∀w ∈ M, aw = 0} = w∈M AnnA (w) est un idéal bilatère
de A, noté AnnA (M ) et nommé annulateur de M dans A.
Notons que si A et M sont non nuls, l’idéal AnnA (M ) est un idéal
propre de A (c.-à-d. un idéal de A distinct de A).
(c) Pour tout idéal bilatère I de A inclus à AnnA (M ), M est naturellement muni d’une structure de A/I-module gauche. Cette structure est
définie par : ∀a ∈ A, ∀w ∈ M, (a + I)w = aw.
(Comme d’habitude il convient de vérifier d’abord que (a + I)w ainsi
défini est bien défini. Ceci est assez clair : a + I = a0 + I ⇔ a − a0 ∈ I ⇒
(a − a0 )w = 0 ⇔ aw = a0 w.)
(d) Observer que les énoncés précédents ont une version droite.
(e) Considérons le Z-module (Z6 , +) des entiers modulo 6. Quel est
l’annulateur, dans Z, de l’élément 2 de Z6 ? Déterminer aussi AnnZ (Z6 ).
Exercice 1.1.22. Soit H le corps des quaternions.
(a) Montrer que la fonction « multiplication droite par i »
µ ¶
µ ¶
a1
a1 i
2×1
2×1
ri : H
→H
:
7→
a2
a2 i
n’est pas un endomorphisme du H-module droit H2×1 .
(b) Montrer que la fonction
2×1
fi : H
2×1
→H
µ ¶
µ ¶
a1
ia1
:
7→
a2
ia2
est un automorphisme du H-module droit H2×1 .
Montrer que l’automorphisme
fi ne ressembleµen ¶
rien µ
à une
µ ¶
¶ homothétie
a1
a
a
1
1
en exhibant un élément
∈ H2×1 tel que fi
6=
i.
a2
a2
a2
(Cet exemple sera repris en 2.2.12.)
Exercice 1.1.23. *Réduction modulo un idéal. Soit M un A-module
gauche et I un idéal dePA.
On définit IM = { ni=1 ai wi | n ∈ N, ai ∈ I, wi ∈ M }.
(Autrement dit IM est l’ensemble des combinaisons linéaires à coefficients dans I des éléments de M .)
Cette partie IM de M est un sous-A-module gauche de M et le Amodule gauche quotient M/IM est annulé par I, il est donc muni d’une
structure de A/I-module gauche.
Expliciter cette structure.
10
CHAPITRE 1. ANNEAUX-MODULES
1.2. Factorisation des homomorphismes
Définitions 1.2.1. Image et noyau d’un homomorphisme de Amodules droits
Si f : M → N est un homomorphisme de A-modules droits, l’ image de
f , Im(f ), et le noyau de f , Ker(f ), sont l’image et le noyau de f vu comme
homomorphisme de groupes additifs :
Ker(f ) = {w ∈ M | f (w) = 0},
Im(f ) = {v ∈ N | ∃w ∈ M, v = f (w)}.
Théorème 1.2.2. Soit f : M → N un homomorphisme de A-modules
droits. Alors
(i) Im(f ) est un sous-A-module droit de N ,
(ii) Ker(f ) est un sous-A-module droit de M ,
(iii) ∀w ∈ M, {x ∈ M | f (x) = f (w)} = w + Ker(f ).
(iv) l’homomorphisme de A-modules droits f admet une factorisation
f = i ◦ f¯ ◦ p
M


py
f
−−−−→
N
x

i
f¯
M/Ker(f ) −−−−→ Im(f )
où f¯ est un isomorphisme de A-modules droits défini par f¯(w + Ker(f ) =
f (w), où i désigne l’injection naturelle et p la projection naturelle.
Démonstration. Nous avons appris dans un premier cours d’algèbre que
Im(f ) est un sous-groupe du groupe (N, +), que Ker(f ) est un sous-groupe
du groupe (M, +) et que, ∀w ∈ M, {x ∈ M | f (x) = f (w)} = w + Ker(f ).
Il nous faut maintenant vérifier que les sous-groupes Ker(f ) de M et Im(f )
de N sont des sous-A-modules droits :
∀w ∈ Ker(f ), ∀a ∈ A, f (wa) = f (w)a = 0a = 0, donc wa ∈ Ker(f ),
∀a ∈ A, ∀v ∈ Im(f ), ∃w ∈ M tel que v = f (w), donc va = f (w)a =
f (wa) ∈ Im(f ).
Le premier théorème d’isomorphisme pour les groupes nous dit aussi
que f¯ est un isomorphisme de groupes additifs. Reste à vérifier que f¯ est
un homomorphisme de A-modules droits, ce qui est aisé et confié au lecteur.
Théorème 1.2.3. Propriété universelle des modules quotients.
Soit M 0 un sous-A-module droit du A-module droit M .
Tout homomorphisme de A-modules droits f : M → N s’annulant sur
M 0 (c.à-d. tel que M 0 ⊂ Ker(f )) induit un unique homomorphisme f˜ :
M/M 0 → N tel que f = f˜ ◦ p où p désigne la projection naturelle M ³
M/M 0 .
1.2. FACTORISATION DES HOMOMORPHISMES
11
Cet homomorphisme f˜ est défini par f˜(w + M 0 ) = f (w).
M
f
GG
GG
G
p GGG
#
/
<N
f˜
M/M 0
Démonstration. La propriété universelle des groupes quotients nous dit que
la fonction f˜ définie par f˜(w + M 0 ) = f (w) est un homomorphisme de
groupes additifs et est l’unique fonction telle que f = f˜ ◦ p. Reste à vérifier
que f˜ est aussi un homomorphisme de A-modules droits, ce qui est aisé et
confié au lecteur.
Définition 1.2.4. Soit f : M → N un homomorphisme de A-modules
droits. Puisque Im(f ) est un sous-A-module droit de N , nous pouvons
prendre le module quotient N/Im(f ), ce quotient est souvent appelé le
conoyau de f .
1.2.5. Observation. Nous pouvons montrer un élément w du A-module
droit M au moyen de la fonction
mw : A → M : a 7→ wa.
Cette fonction mw est un homomorphisme de A-modules droits de noyau
AnnA (w) et d’image mod(w) = wA.
Nous voyons à nouveau que AnnA (w) est un idéal droit de l’anneau A
et nous obtenons un isomorphisme de A-modules droits A/AnnA (w) ' wA.
Corollaire 1.2.6. Tout A-module droit cyclique est isomorphe à un Amodule droit de la forme A/I, où I est un idéal droit de l’anneau A.
(Ceci généralise le fait que tout groupe cyclique est isomorphe à un
groupe de la forme Z/nZ, où n ∈ N.)
12
CHAPITRE 1. ANNEAUX-MODULES
1.3. Groupes d’homomorphismes et anneaux
d’endomorphismes
1.3.1. Groupes d’homomorphismes. Soit A un anneau quelconque et
soient M et N deux A-modules droits. On désigne l’ensemble des homomorphismes de A-modules droits de M dans N par HomA (M, N ).
On définit la somme ou addition de deux homomorphismes h1 , h2 ∈
HomA (M, N ) par
∀v ∈ M,
(h1 + h2 )(v) = h1 (v) + h2 (v).
On remarque que h1 + h2 ainsi défini appartient à HomA (M, N ) et que
HomA (M, N ) muni de cette addition est un groupe commutatif, autrement
dit un Z-module.
De plus si f et g sont deux homomorphismes de A-modules droits
comme indiqué ci-dessous
M0
f
/M
)
5N
g
/ N 00
alors les fonctions
◦f : HomA (M, N ) → HomA (M 0 , N ) : h 7→ h ◦ f
g◦ : HomA (M, N ) → HomA (M, N 00 ) : h 7→ g ◦ h
sont des homomorphismes de groupes commutatifs, autrement dit de Zmodules.
(Les preuves de tout ceci sont directes et laissées au lecteur.)
1.3.2. Anneaux d’endomorphismes.
Soit A un anneau quelconque et soit M un A-module droit.
Il résulte des observations faites en 1.3.1 que l’ensemble EndA (M )
des endomorphismes du A-module droit M est muni d’une structure de
groupe commutatif (EndA (M ), +) et que la composition gauche des fonctions munit ce groupe commutatif (EndA (M ), +) d’une structure d’anneau
(EndA (M ), +, ◦) appelé l’ anneau des endomorphismes de M .
Les éléments inversibles de cet anneau sont les automorphismes du
A-module droit M et le groupe des inversibles de cet anneau, noté
(AutA (M ), ◦), est appelé le groupe des automorphismes du A-module
droit M .
Il est utile d’observer que le groupe commutatif (M, +) est naturellement muni d’une structure de (EndA (M ), +, ◦)-module gauche définie par
EndA (M ) × M → M : (f, w) 7→ f (w).
1.3.3. Remarquons que la composition droite des fonctions introduites en
1.1.17 munit aussi le groupe commutatif (EndA (M ), +) d’une autre structure d’anneau (EndA (M ), +, ·).
1.3. GROUPES D’HOMOMORPHISMES ET ANNEAUX D’ENDOMORPHISMES13
Le groupe commutatif (M, +) est aussi naturellement muni d’une structure de (EndA (M ), +, ·)-module droit définie par
M × EndA (M ) → M : (w, f ) 7→ wf .
Le groupe des inversibles (AutA (M ), ◦) de l’anneau (EndA (M ), +, ◦)
et celui (AutA (M ), ·) de l’anneau (EndA (M ), +, ·) sont isomorphes (par la
fonction qui applique un automorphisme de M sur son inverse : si f et g
sont deux endomorphismes inversibles de M on a (f ◦ g)−1 = g −1 ◦ f −1 =
f −1 ·g −1 ), mais en général, les anneaux (EndA (M ), +, ◦) et (EndA (M ), +, ·)
ne sont pas isomorphes, même si l’anneau A est commutatif.
(Un exemple assez simple est fourni par les endomorphismes d’un espace
vectoriel V de dimension dénombrable sur le corps de deux éléments : les
anneaux (EndZ2 (V ), +, ◦) et (EndZ2 (V, +, ·) ne sont pas isomorphes car
leurs éléments inversibles à gauche ou à droite ont des propriétés différentes
en ce qui concerne leurs nombres d’inverses droits ou gauches.)
1.3.4. Multiplication par un élément de l’anneau.
Soit M un A-module gauche et soit a ∈ A.
La multiplication à gauche des éléments de M par l’élément a ∈ A nous
donne une transformation de M notée (a·)M ou de façon plus légère `a
(a·)M = `a : M → M : w 7→ aw
La définition d’A-module gauche nous dit que ces fonction (a·)M = `a
sont des endomorphismes du groupe additif (M, +) :
(a·)M ∈ EndZ (M ).
Les définitions de A-modules gauches et d’homomorphismes de Amodules gauches nous disent aussi : ∀a, b ∈ A, ∀f ∈ EndA (M )
`a ◦ `b = `ab
`a + `b = `a+b
f ◦ `a = `a ◦ f.
En général (a·)M ∈
/ EndA (M ) mais (a·)M ∈ EndA (M ) si l’anneau A est
commutatif.
(Si a, b ∈ A, w ∈ M , les éléments `a (bw) = abw et b`a (w) = baw de M
ne sont pas nécessairement égaux quand l’anneau A n’est pas commutatif.)
De la même façon, si M est un A-module droit et a un élément de A,
la fonction « multiplication à droite par a »
ra = (·a)M : M → M : w 7→ wa
est un endomorphisme du groupe additif (M, +) et n’est pas en général
un endomorphisme du A-module droit M . Ces transformations (·a)M satisfont : ∀a, b ∈ A, (·ab)M = (·a)M ·(·b)M avec la notation pour la composition
droite introduite en 1.1.17.
14
CHAPITRE 1. ANNEAUX-MODULES
Avec ce qui précède nous obtenons immédiatement.
Proposition 1.3.5. Anneaux d’endomorphismes d’un module sur
un anneau commutatif.
Soit A un anneau commutatif et M un A-module (gauche ou droit, peu
importe). Alors :
(i) ∀a ∈ A, la fonction (a·)M = `a : M → M : w 7→ aw est un
endomorphisme du A-module M , appelé homothétie de M de rapport
a.
(ii) Ces homothéties (a·)M = `a commutent avec tous les endomorphismes du A-module M : ∀a ∈ A, ∀f ∈ EndA (M ) on a
(a·)M ◦ f = f ◦ (a·)M .
(iii) De plus la fonction
(A, +, ·) → (EndA (M ), +, ◦) : a 7→ (a·)M
est un homomorphisme d’anneau.
L’image de cet homomorphisme est contenue dans le centre de
(EndA (M ), +, ◦).
(Rappelons que le centre d’un anneau (B, +, ·) est défini par Z(B) =
{b ∈ B | ∀x ∈ B, bx = xb}, que ce centre Z(B) est un sous-anneau commutatif de B).
Le noyau de cet homomorphisme d’anneau est l’annulateur de M dans
A défini par AnnA (M ) := {a ∈ A | ∀w ∈ M, aw = 0}.
(iv) Le groupe commutatif (EndA (M ), +) a aussi une structure naturelle
de A-module définie par, ∀a ∈ A, ∀f ∈ EndA (M ) et ∀v ∈ M
(af )(v) = af (v),
autrement dit
af = (a·)M ◦ f.
Nous résumerons tout ceci en disant que (EndA (M ), +, ◦) a une structure naturelle de A-algèbre.
1.3.6. Modules d’homomorphismes sur un anneau commutatif.
Supposons encore que l’anneau A est commutatif et soient M, N deux
A-modules (droits ou gauches, peu importe).
La définition des homomorphismes de A-modules nous donne
∀a ∈ A,
∀h ∈ HomA (M, N ) et ∀w ∈ M, on a h(aw) = ah(w),
autrement dit h ◦ (a·)M = (a·)N ◦ h avec les notations introduites en 1.3.4.
Comme les fonctions (a·)M , (a·)N sont des endomorphismes de Amodules (voir 1.3.5), la fonction composée h ◦ (a·)M = (a·)N ◦ h est aussi
un homomorphisme de A-modules.
Avec ceci et les observations en 1.3.1 nous voyons que le groupe commutatif (HomA (M, N ), +), tout comme (EndA (M ), +), possède une structure
1.3. GROUPES D’HOMOMORPHISMES ET ANNEAUX D’ENDOMORPHISMES15
naturelle de A-module (gauche ou droit) définie par :
HomA (M, N ) et ∀w ∈ M ,
(ah)(w) = h(aw) = ah(w)
autrement dit
∀a ∈ A, ∀h ∈
ah = h ◦ (a·)M = (a·)N ◦ h.
Avec cette structure, HomA (M, N ) est alors appelé le A-module des homomorphismes de M dans N .
De plus, si f : M 0 → M et g : N → N 00 sont deux homomorphismes de
A-modules, les fonctions
◦f : HomA (M, N ) → HomA (M 0 , N ) : h 7→ h ◦ f
g◦ : HomA (M, N ) → HomA (M, N 00 ) : h 7→ g ◦ h
introduites en 1.3.1 sont aussi des homomorphismes de A-modules.
————————————————————————————
Exercice 1.3.7. (i) Soit A un anneau commutatif, M un A-module gauche
et a un élément de A.
0 (M ) de M par
On définit une partie H(a)
0
H(a)
(M ) = {w ∈ M | ∃n ∈ N,
an w = 0}.
0 (M ) est un sous-A-module de M et que l’endomorMontrer que H(a)
0 (M ) est injectif.
phisme `a du module quotient M/H(a)
0 (Z/24Z) du Z-module Z/24Z.
(ii) Décrire le sous-Z-module H(2)
f
Exercice 1.3.8. Soit M1 → M2 un homomorphisme de A-modules droits,
i
soit M0 = ker(f ) et soit M0 → M1 l’injection naturelle, ce qui nous donne
une suite d’homomorphismes
i
f
M0 → M1 → M2 .
Soit encore X un A-module droit quelconque. Nous avons une suite d’homomorphismes de groupes commutatifs
i◦
f◦
HomA (X, M0 ) → HomA (X, M1 ) → HomA (X, M2 )
Montrer que dans cette suite l’homomorphisme i◦ est injectif et que
Im(i◦) = ker(f ◦).
16
CHAPITRE 1. ANNEAUX-MODULES
f
Exercice 1.3.9. Soit M2 → M1 un homomorphisme de A-modules droits.
p
Posons M0 = M1 /Im(f ) et soit M1 → M0 la projection naturelle, ce qui
nous donne une suite d’homomorphismes
f
p
M2 → M1 → M0 .
Soit encore X un A-module droit quelconque. Nous avons une suite d’homomorphismes de groupes commutatifs
◦p
◦f
HomA (M0 , X) → HomA (M1 , X) → HomA (M2 , X)
Montrer que l’homomorphisme ◦p est injectif et que Im(◦p) = ker(◦f ).
Exercice 1.3.10. Vers la dualité
(i) Soit A un anneau et soit a ∈ A. Observer que la fonction (a·)A :
A → A : x 7→ ax est un endomorphisme de A-modules droits, mais pas de
A-modules gauches si A n’est pas commutatif.
(ii) Soit M un A-module droit. Observer que le groupe commutatif
HomA (M, A) a une structure naturelle de A-module gauche définie par
∀a ∈ A ∀s ∈ HomA (M, A)
as = (a·)A ◦ s.
Noter que l’élément as ∈ HomA (M, A) est aussi défini par :
∀w ∈ M
(as)(w) = as(w).
Le groupe commutatif HomA (M, A) muni de cette structure naturelle
de A-module gauche est appelé « module dual de M » et souvent noté M ∗ .
f
(iii) Soit
M →N
un homomorphisme de A-module droit.
Observer que la fonction
f∗
N ∗ → M ∗ : s 7→ s ◦ f
est un homomorphisme de A-module gauches, appelé « homomorphisme
dual de M ».
(iv) Soit
f
g
M1 → M2 → M3
des homomorphismes de A-modules droits et soit
f∗
g∗
M1∗ ← M2 ∗ ← M3∗
leurs homomorphismes duaux. Observer que
(g ◦ f )∗ = f ∗ ◦ g ∗ = g ∗ · f ∗
1.3. GROUPES D’HOMOMORPHISMES ET ANNEAUX D’ENDOMORPHISMES17
où « ◦ » désigne la composition gauche des fonctions et « · » désigne la
composition droite.
(v) Observer que, ∀w ∈ M , la fonction w̃ : M ∗ → A : s 7→ s(w) est un
homomorphisme de A-modules gauches et que la fonction
uM : M → M ∗∗ : w 7→ w̃
est un homomorphisme de A-modules droits, appelé « homomorphisme naturel de M dans son bidual ».
18
CHAPITRE 1. ANNEAUX-MODULES
1.4. Un théorème de Cayley-Hamilton
Dans cette section nous commençons l’étude d’ un endomorphisme d’un
module sur un anneau commutatif. Ceci nous donnera aussi quelques
premières informations concernant les transformations linéaires d’un espace
vectoriel de dimension finie sur un corps commutatif.
1.4.1. Soit A un anneau commutatif, M un A-module et f ∈ EndA (M ).
Comme l’anneau (EndA (M ), +, ◦) a une structure naturelle de Amodule (voir 1.3.5), une expression de la forme
an f n + an−1 f n−1 + · · · + a1 f + a0 ,
où les ai ∈ A, désigne un endomorphisme du A-module M : ∀w ∈ M
(an f n + an−1 f n−1 + · · · + a1 f + a0 )(w)
= an f n (w) + an−1 f n−1 (w) + · · · + a1 f (w) + a0 w.
Les coefficients ai intervenant dans cette expression peuvent être vus comme
les coefficients d’un polynôme P = an X n +an−1 X n−1 +· · ·+a1 X+a0 ∈ A[X]
et nous pouvons écrire an f n + an−1 f n−1 + · · · + a1 f + a0 = P (f ). Avec cette
notation nous avons : ∀P, Q ∈ A[X],
(P Q)(f ) = P (f ) ◦ Q(f )
car l’endomorphisme f de M commute avec ses puissances f i et les homothéties (a·)M . L’addition des endomorphismes nous dit aussi que
(P + Q)(f ) = P (f ) + Q(f ).
Ceci nous donne.
Proposition 1.4.2. Soit A un anneau commutatif, M un A-module et
f ∈ EndA (M ). La fonction d’évaluation
ef : (A[X], +, ·) → (EndA (M ), +, ◦) : P 7→ P (f )
est un homomorphisme d’anneaux.
L’image de cet homomorphisme sera désignée par A[f ], A[f ] est un
anneau commutatif et est le sous-anneau de (EndA (M ), +, ◦) engendré par
f et les homothéties de M .
Corollaire 1.4.3. Soit A un anneau commutatif, M un A-module et soit
encore f ∈ EndA (M ).
Alors M est naturellement muni d’une structure de A[f ]-module.
M est aussi muni via f (ou ef ) d’une structure de A[X]-module définie
par
Xw = f (w)
(an X n + an−1 X n−1 + · · · + a1 X + a0 )w
= an f n (w) + an−1 f n−1 (w) + · · · + a1 f (w) + a0 w
1.4. UN THÉORÈME DE CAYLEY-HAMILTON
19
Démonstration. Nous savons que M est naturellement muni d’une structure de (EndA (M ), +, ◦)-module gauche. Comme A[f ] est un sous-anneau
commutatif de l’anneau (EndA (M ), +, ◦), M est aussi muni d’une structure
de A[f ]-module.
L’homomorphisme d’anneau ef : (A[X], +, ·) → (EndA (M ), +, ◦) munit aussi le (EndA (M ), +, ◦)-module gauche M d’une structure de A[X]module gauche décrite par les formules de l’énoncé. Comme l’anneau de
polynômes A[X] est aussi commutatif, cette structure est une structure de
A[X]-module.
1.4.4. Remarque. Notons que ce dernier corollaire nous fournit enfin des
exemples assez intéressants de modules sur des anneaux qui ne sont pas des
corps.
Nous sommes habitués à traiter avec les espaces vectoriels. Or, insistons, si V est un espace vectoriel sur un corps commutatif K, tout endomorphisme f de V munit V d’une structure de K[f ]-module et aussi
d’une structure de K[X]-module via l’homomorphisme ef . Or l’anneau de
polynômes K[X] n’est plus un corps.
Cette structure de K[X]-module sur V sera particulièrement utile
lorsque nous ferons l’étude d’un endomorphisme de V .
Pour l’instant, lorsque M est un module sur un anneau commutatif A
et f un endomorphisme de M , nous utiliserons la structure de A[f ]-module
sur M pour obtenir de premières informations sur cet endomorphisme.
Il est clair que l’idéal Ker(ef ) contient AnnA (M ). Nous nous proposons
de montrer que Ker(ef ) comprend aussi un polynôme unitaire de degré
positif dès que M est un A-module de type fini. Par polynôme unitaire
on entend un polynôme de A[X] dont le coefficient du terme de degré le
plus élevé est 1. Pour ce faire, nous utiliserons la théorie des déterminants,
disponible dans tout anneau commutatif : le déterminant d’une matrice
carrée n × n à coefficients dans un anneau commutatif étant défini comme
celui d’une matrice carrée à coefficients dans un corps commutatif.
1.4.5. Rappels sur les déterminants. Soit G = (gij ) une matrice carrée
n × n à entrées gij dans un anneau commutatif A. Soit Gij le déterminant
de la matrice (n − 1) × (n − 1) obtenue à partir de la matrice G par suppression de la iième ligne et de la j ième colonne et rappelons le développement
du déterminant de G selon la iième colonne :
X
det(G) =
(−1)i+k Gki gki , 1 6 i 6 n.
k
Nous avons aussi
0=
X
(−1)i+k Gki gkj
si i 6= j
k
car cette expression est le déterminant d’une matrice dont deux colonnes
sont égales (la iième et la j ième ).
20
CHAPITRE 1. ANNEAUX-MODULES
Posons maintenant g̃ik = (−1)i+k Gki , les g̃ik sont les entrées d’une matrice G̃, transposée de la matrice des cofacteurs de G avec leur signe.
Avec ces notations nos équations se réécrivent
G̃.G = det(G).In ,
où In désigne la matrice identique n × n.
Rappelons aussi que det(G) = det(Gt ), où Gt désigne la matrice transposée de la matrice G, et que, pour toute autre matrice n × n H à entrées
dans A, on a det(GH) = det(G)det(H) = det(HG).
1.4.6. Polynôme caractéristique d’une matrice carrée. Si C est une
matrice carrée n × n à entrées dans un anneau commutatif A, nous formons
la matrice (XIn − C), cette dernière est une matrice carrée à entrées dans
l’anneau de polynômes A[X]. Le polynôme caractéristique de la matrice C
est défini par
ϕC = det(XIn − C).
Notons que ϕC est un polynôme unitaire de degré n de A[X].
Théorème 1.4.7. Théorème de Cayley-Hamilton pour les modules.
Soit A un anneau commutatif, M un A-module de type fini et soit encore
f ∈ EndA (M ).
Alors il existe un polynôme unitaire P ∈ A[X] tel que P (f ) = 0.
Plus précisément, soit w1 , · · · , wn une partie génératrice du A-module
M . Nous pouvons écrire
f (wi ) =
n
X
cij wj ,
16i6n
j=1
où les cij ∈ A. Voyons ces cij comme les entrées d’une matrice carrée
C ∈ An×n .
Alors le polynôme caractéristique det(XIn − C) de la matrice C est un
polynôme unitaire de A[X] s’annulant en f : ϕC (f ) = 0.
Démonstration. Réécrivons nos équations :
1 6 i 6 n,
n
X
(δij f − cij )wj = 0,
j=1
où δij est le symbole de Kronecker. Comme M a une structure de A[f ]module, nous voyons ceci comme un système d’équations à coefficients
(δij f − cij ) dans l’anneau commutatif A[f ].
Réécrivons encore ce système sous forme matricielle :

  
w1
0
 ..   .. 
(f In − C)  .  =  .  .
wn
0
1.4. UN THÉORÈME DE CAYLEY-HAMILTON
21
Posons f In − C = G, G est une matrice carrée n × n à entrées dans l’anneau commutatif A[f ]. Multiplions notre dernière équation à gauche par la
matrice G̃ introduite en 1.4.5. Comme G̃.G = det(G).In , il vient :

  
w1
0
 ..   .. 
det(G)In ·  .  =  .  et ∀i, 1 6 i 6 n, det(G).wi = 0.
wn
0
Mais det(G) est un élément de A[f ] ⊂ EndA (M ), det(G) est un endomorphisme de M . Et comme l’endomorphisme det(G) s’annule sur une partie
génératrice de M , il est nul : det(G) = 0. On conclut en observant que
det(G) = ef (det(XIn − C)) et en se rappelant que ϕC = det(XIn − C) est
un polynôme unitaire de degré n, positif dès que M est non nul.
1.4.8. Remarque. Dans la preuve de 1.4.7 nous avons tiré avantage de la
structure de A[f ]-module de M, ce qui nous a amené à mettre les coefficients
et les fonctions du même coté, ici à gauche. Ceci est un des rares cas où il
est judicieux de ne pas respecter la règle d’or de Jacobson.
1.4.9. Rappels d’algèbre linéaire. Un cas particulier important de 1.4.7
est celui où A = K est un corps commutatif. Un K-module de type fini est
alors un K-vectoriel de dimension finie et nous avons vu au cours d’algèbre
linéaire qu’un K-vectoriel de dimension finie possède une base.
Si A = K est un corps commutatif et si M = V est un K-vectoriel de
dimension finie, dans la preuve de 1.4.7 nous pouvons prendre pour partie
génératrice de V une base e = (e1 , · · · , en ) de V . La matrice C intervenant
en 1.4.7 (ou sa transposée selon la convention matricielle adoptée) est alors
la matrice représentant la transformation linéaire f de V dans cette base e.
Nous avons vu aussi au cours d’algèbre linéaire que, si e0 = (e01 , · · · , e0n ) est
une autre base de V et si C 0 est la matrice représentant f dans cette autre
base e0 , alors det(C) = det(C 0 ) et det(XIn −C) = det(XIn −C 0 ). Ceci nous
a permis de définir le déterminant et le polynôme caractéristique de
la transformation linéaire f de V par
det(f ) = det(C)
et ϕf = det(XIn − C).
Voici un cas particulier très important de 1.4.7.
Théorème 1.4.10. Théorème de Cayley-Hamilton classique. Soit V
un espace vectoriel de dimension finie sur un corps commutatif K et soit f
une transformation linéaire de V .
Alors le polynôme caractéristique de f s’annule en f : ϕf (f ) = 0.
1.4.11. Le polynôme caractéristique joue un rôle non négligeable dans
l’étude d’une transformation linéaire f d’un espace vectoriel V de dimension finie sur un corps commutatif K.
Au cours d’algèbre linéaire on a définit la notion de valeur propre.
Un élément λ ∈ K est une valeur propre de f si Ker(λIV − f ) 6= {0}.
22
CHAPITRE 1. ANNEAUX-MODULES
Les éléments de Ker(λIV − f ) sont alors appelés vecteurs propres de
f de valeur propre λ, ils forment un sous-espace non nul de V .
Rappelons aussi que : ∀λ ∈ K,
Ker(λIV − f ) 6= {0}
⇔
det(λIV − f ) = 0
⇔
ϕf (λ) = 0.
Les valeurs propres de f sont exactement les racines dans K du polynôme
caractéristique ϕf .
————————————————————————————
Exercice 1.4.12. Soit M un module sur l’anneau commutatif A et soit f
un endomorphisme de M .
On munit M de sa structure de A[f ]-module.
(i) Pour tout sous-A-module M 0 de M on a :
M 0 est un sous-A[f ]-module de M
⇔
f (M 0 ) ⊂ M 0 .
Lorsque f (M 0 ) ⊂ M 0 , on dit aussi que M 0 est stable ou invariant par
f , ou que M 0 est un sous-A-module f -stable de M .
(ii) Ker(f ) et Im(f ) sont des sous-A[f ]-modules de M .
(iii) Pour tout g ∈ EndA (M ) on a
g est un endomorphisme de A[f ]-module si et seulement si g ◦ f = f ◦ g.
Exercice 1.4.13. Soit V un espace vectoriel sur le corps commutatif K et
soit f, g ∈ EndK (V ). Supposons que g ◦ f = f ◦ g. Alors :
(i) Ker(g) et Im(g) sont non seulement des sous-K[g]-modules de V
mais aussi des sous-K[f ]-modules de V .
(ii) Si V1 est un sous-espace f -stable de V , alors g(V1 ) est un sous-espace
f -stable de V
En particulier, si v est un vecteur propre de f de valeur propre λ,
alors g(v) est aussi un vecteur propre de f de valeur propre λ et, si V(λ,f )
désigne l’espace des vecteurs propres de f de valeur propre λ, on a aussi
g(V(λ,f ) ) ⊂ V(λ,f ) .
1.5. SOMMES ET PRODUITS DIRECTS
23
1.5. Sommes et produits directs
1.5.1. Somme directe de deux modules. Si M1 et M2 sont deux Amodules droits l’ensemble produit M1 × M1 est naturellement muni d’une
structure de A-module droit, l’addition et la multiplication scalaire par les
éléments de A étant définies composante par composante. Le A-module
droit ainsi obtenu est appelé somme directe des A-modules droits M1 et
M2 et désigné par M1 ⊕ M2 . Ce module M1 ⊕ M2 est naturellement muni
de deux homomorphismes injectifs u1 et u2 de A-modules droits
M1 J
JJ
JJu1
JJ
JJ
%
M91 ⊕ M2
M2
t
tt
tut
t
t 2
tt
définis par u1 (w1 ) = (w1 , 0) et u2 (w2 ) = (0, w2 ).
Cette somme directe a la propriété universelle suivante : pour tout Amodule droit X, tous homomorphismes f1 : M1 → X et f2 : M2 → X de
A-modules droits, il existe un unique homomorphisme de A-modules droits
f : M1 ⊕ M2 → X tels que f1 = f ◦ u1 et f2 = f ◦ u2 . Cet homomorphisme
est défini par f (w1 , w2 ) = f1 (w1 ) + f2 (w2 ).
M1 J
f1
JJ
JJu1
JJ
JJ
%
M91 ⊕ M2
M2
t
tt
tut
t
t 2
tt
f2
f
&/
8X
1.5.2. On dit aussi qu’un A-module droit M est somme directe de ses
deux sous-A-modules droits M1 et M2 si l’une des conditions équivalentes
suivantes est satisfaite :
(i) M = M1 + M2 et M1 ∩ M2 = {0},
(ii) tout élément w de M s’écrit de façon unique w = w1 + w2 , où
w1 ∈ M1 et w2 ∈ M2 ,
(iii) l’homomorphisme naturel M1 ⊕ M2 → M : (w1 , w2 ) 7→ w1 + w2 est
un isomorphisme.
Quand ces conditions sont satisfaites on écrit encore M = M1 ⊕ M2 . On
dit que M1 (M2 ) est un sommant direct de M et que M2 est un complémentaire de M1 dans M .
1.5.3. Il n’y a pas grande différence entre 1.5.1 et 1.5.2 : notons que dans
la situation de 1.5.1 le module M1 ⊕ M2 est somme directe au sens de 1.5.2
de ses deux sous-modules u1 (M1 ) et u2 (M2 ).
24
CHAPITRE 1. ANNEAUX-MODULES
1.5.4. Remarque Un sous-A-module droit d’un A-module droit quelconque M n’a pas nécessairement un complémentaire dans M . Par exemple,
rappelons que les sous-Z-modules de Z sont les nZ, où n ∈ N, et observons
que nZ n’a pas de complémentaire dans Z si n 6= 0, 1.
Ceci illustre une des nombreuses différences entre la théorie des modules
et celle des espaces vectoriels, qui sont des modules sur un corps K. On a
sans doute vu au cours d’algèbre linéaire que tout sous-K-vectoriel V1 d’un
K-vectoriel V admet un complémentaire.
(Pour obtenir un complémentaire V2 de V1 dans V on peut procéder
comme suit, on prolonge une base B1 de V1 en une base de V et on prend
pour V2 le sous-K-vectoriel de V engendré par B \ V1 .)
On peut généraliser 1.5.2.
Proposition Définition 1.5.5. Soit M1 , · · · , Mn des sous -A-modules
droits du A-module droit M . Les conditions suivantes sont équivalentes.
(i) tout élément w de M s’écrit de façon unique w = w1 + · · · wn , où
wi ∈ Mi , 1 6 i 6 n. (Nous dirons alors que wi est la composante de w
dans Mi ou laPiième composante de w.)
P
(ii) M = ni=1 Mi et ∀k, 1 6 k 6 n, Mk ∩ ( i6=k Mi ) = {0},
P
P
(iii) M = ni=1 Mi et ∀k, 1 6 k < n, Mk+1 ∩ ( ki=1 Mi ) = {0}.
Quand ces conditions sont satisfaites on dit que M estL
somme directe
de ses sous-A-modules droits M1 , · · · , Mn et on écrit M = 16i6n Mi .
1.5.6. On peut aussi définir la somme directe de deux homomorphismes
de A-modules droits f1 : M1 → N1 et f2 : M2 → N2 par
f1 ⊕ f2 : M1 ⊕ M2 → N1 ⊕ N2 : (w1 , w2 ) 7→ (f1 (w1 , f2 (w2 )).
1.5.7. Sommes et produits directs d’une famille quelconque de
modules.
Soit (Mi )i∈I une famille de A-modules gauches.
Q
(a) On munit l’ensemble produit i∈I Mi = {(wi )i∈I | ∀i ∈ I, wi ∈ Mi }
d’une structure de A-module gauche en définissant l’addition et la multiplication scalaire par les éléments de l’anneau composante par composante.
Le A-module gauche ainsi obtenuQ
est appelé le produit direct des Mi .
La projection
naturelle pk de i∈I Mi sur son k ième facteur Mk définie
Q
par pk : i∈I Mi ³ Mk : (wi )i∈I 7→ wk est un homomorphisme de Amodules gauches.
Le produit direct des Mi jouit de la propriété universelle suivante.
Pour toute famille (fk : X → Mk )k∈I d’homomorphismes de A-modules
gauches, Q
il existe un et un seul homomorphisme de A-modules gauches
f : X → i∈I Mi tel que ∀k ∈ I, fk = pk ◦ f , cet homomorphisme f est
défini par f (x) = (fi (x))i∈I .
1.5. SOMMES ET PRODUITS DIRECTS
2 Mk
:
vv
v
v
v
vv
vv pk
fk
X
f
/
Q
i∈I
25
Mi
Q
(b) La partie de i∈I Mi formée des éléments (wi )i∈I dont presque
toutes les composantes wi ∈ Mi sont nulles, autrement dit tels que les wi
sont nuls sauf un Q
nombre fini d’entre eux, est un sous-A-module gauche
du produit direct i∈I Mi ,L
ce sous-A-module gauche est appelé somme
directe des Mi et est noté i∈I Mi .
L
L’injection naturelle ukL: Mk ,→
i∈I Mi , qui applique un élément
ième composante vaut w et
w ∈ Mk sur l’élément de
i∈I Mi dont la k
dont toutes les autres composants sont nulles, est un homomorphisme de
A-modules gauches.
La somme directe des Mi jouit de la propriété universelle suivante.
Pour toute famille (fi : Mi → X)i∈I d’homomorphismes
de A-modules
L
gauches, il existe un et un seul homomorphisme f : i∈I Mi → X
tel que ∀k ∈ I, fk = f ◦ uk .
P
Cet homomorphisme f est défini par f ((wi )(i∈I) ) = (i∈I) fi (wi ) (remarquons que cette dernière somme à un sens, elle est finie puisque presque tous
les wi sont nuls, ce qui est indiqué par les parenthèses autour de « i ∈ I »).
Mk I
II
IIuk
II
II
L$
fk
i∈I
Mi
f
/& X
1.5.8. Cas particuliers de 1.5.7.
Q (i) Lorsque
L l’ensemble d’indices I est fini, nous avons évidemment
i∈I Mi =
i∈I Mi .
(ii) Supposons que tous les Mi sont égaux, qu’il existe un module M tel
que, ∀i ∈ I, Mi = M .
Q
I
Alors l’ensemble produit i∈I Mi s’identifie à l’ensemble
Q M des fonctions de I dans M , la structure de A-module gauche sur i∈I Mi s’identifiant à la structure de A-module gauche sur M I mentionnée en 1.1.6.
L
Q
De plus, le sous-A-module gauche
i∈I Mi de
i∈I Mi s’identifie au
(I)
I
sous-A-module gauche M de M décrit en 1.1.6.
Si tous les Mi sont égaux à M on peut donc écrire
Y
M
Mi = M I et
Mi = M (I) .
i∈I
i∈I
1.5.9. Sorites. Soit (Mi )i∈I une famille de A-modules gauches.
26
CHAPITRE 1. ANNEAUX-MODULES
(a) Soit σ une permutation de l’ensemble d’indices I . Alors
M
Mi '
i∈I
M
Mσ(i) .
i∈I
La somme directe est commutative.
(b) Si I = I1 ∪ I2 , où I1 ∩ I2 = ∅, alors
(
M
Mj )
M M
M
(
Mk ) '
Mi .
j∈I1
i∈I
k∈I2
La somme directe est associative.
——————————————————————————Exercice 1.5.10. Dans le plan réel, choisissons un point, nommons-le origine et notons-le 0. Nous désignons par Π0 le plan réel avec son point 0 élu
et le nommons plan réel pointé.
La règle du parallélogramme munit le pan réel pointé Π0 d’une addition
notée + et d’une structure de groupe commutatif.
b
a+b
s
s
s
v
a
0
Nous pouvons aussi multiplier les points du plan réel par un nombre réel r.
r
1s
s
v
s
s
0
a
ra
Ainsi le plan réel pointé a une structure d’espace vectoriel réel (de Rvectoriel).
L’ensemble des points d’une droite D passant par l’origine en est un
sous-vectoriel. Ce sous-vectoriel a-t’il un complémentaire ? Si oui, en montrer un.
Exercice 1.5.11. (a) Le sous Z-module Z du Z-module (Q, +) a-t’il un
complémentaire ?
(Réponse : non. Pourquoi ?)
(b) Le sous Z6 -module {0, 2, 4} du Z6 -module (Z6 , +) a-t’il un complémentaire ?
(Réponse : oui, {0, 3} est un complémentaire de {0, 2, 4}.)
1.5. SOMMES ET PRODUITS DIRECTS
27
Exercice 1.5.12. Soit A un domaine, vu comme A-module. Les sous-Amodules de A sont donc les idéaux de A.
Observer que l’intersection de deux idéaux non nuls de A est toujours
non nulle.
En déduire que les sous-A-modules non triviaux de A n’ont pas de
complémentaire dans A.
Exercice 1.5.13. Projections.
(a) Soit M un A-module droit somme directe de ses deux sous-Amodules droits M1 et M2 : M = M1 ⊕ M2 . Écrivons tout élément w de
M sous la forme w = w1 + w2 , où w1 ∈ M1 , w2 ∈ M2 . Comme cette écriture
est unique, elle nous fournit une fonction p : M → M : w 7→ w1 . Nous
dirons que p est la projection de M sur M1 parallèlement à M2 .
Montrer que p est un endomorphisme du A-module droit M , et que
p = p ◦ p.
Observer que Ker(p) = M2 et que Im(p) = M1 .
(b) Plus généralement nous dirons qu’un endomorphisme h du Amodule droit M est une projection de M si h = h ◦ h.
Démontrer : si h une projection du A-module droit M , alors M =
Im(h) ⊕ Ker(h) et h est une projection de M sur Im(h) parallèlement à
Ker(h) au sens introduit en (a).
(c) Le plan réel pointé de 1.5.10 est, en tant qu’espace vectoriel réel,
somme directe de deux de ses droites distinctes passant par l’origine. Visualiser la projection sur l’une de ces droites parallèlement à l’autre.
(d) Montrer par un exemple que la composée de deux projections n’est
pas toujours une projection.
(Dans le plan réel avec un point 0 élu Π0 , composer deux projections
orthogonales sur des droites non perpendiculaires passant par l’origine.)
28
CHAPITRE 1. ANNEAUX-MODULES
Chapitre 2
Modules libres
2.1. Parties libres, bases
Définitions 2.1.1. Soit A un anneau et M un A-module droit.
Une partie L de M est dite libre ou linéairement indépendante
si, pour tout n > 0, toute suite finie w = (w1 , · · · , wn ) d’éléments de L
distincts deux-à-deux et toute suite finie a = (a1 , · · · , an ) d’éléments de
l’anneau A,
à n
!
X
wi ai = 0 ⇒ (∀i, 1 6 i 6 n, ai = 0).
i=1
Une partie B de M est une base de M si B est à la fois génératrice et
libre.
Un A-module droit libre est un A-module droit possédant une base.
2.1.2. Remarques. (i) Il découle de la définition qu’une partie L d’un Amodule droit (ou gauche) est libre si et seulement toutes les parties finies
de L sont libres.
(ii) Il résulte aussi de la définition que toute partie d’une partie libre
d’un A-module droit M est une partie libre de M .
En particulier la partie vide de M est libre. Et ∅ est une base de M si
et seulement si M = 0.
(iii) Une partie libre d’un A-module M , gauche ou droit, ne comprend
jamais 0.
2.1.3. Exemples.
(i) Soit A un anneau. Alors A vu comme A-module droit est un Amodule droit libre de base {1}. Si u ∈ A est un inversible de A, alors {u}
est aussi une base de A.
(ii) Si w est un élément du A-module droit M , la partie singleton {w}
29
30
CHAPITRE 2. MODULES LIBRES
de M est libre si et seulement si AnnA (w) = {0}. Dans ce cas, mod(w) =
wA ' A en tant que A-module droit.
(iii) Dans un anneau commutatif A vu comme A-module, les parties
libres sont toutes singletonnes.
(iv) Si A n’est pas un corps, la plupart des A-modules droits ne possèdent pas de bases et ne sont pas libres.
Par exemple, le Z-module Z/6Z n’est pas libre, sa seule partie libre est
sa partie vide.
Autre exemple. L’ensemble Q des nombres rationnels a une structure Zmodule. On observe que les parties libres du Z-module Q sont singletonnes
et on en déduit que ce Z-module n’a pas de base.
(v) Dans l’anneau Z[X] des polynômes à coefficients entiers en l’indéterminée X, vu comme module sur lui-même, la partie {2, X} n’est pas
libre.
L’idéal I de Z[X] engendré par cette partie {2, X} est un sous-Z[X]module du Z[X]-module libre Z[X], mais I n’est pas un Z[X]-module libre
car l’idéal I n’est pas un idéal principal.
2.1.4. Coordonnée relativement à une base.
Soit A un anneau et soit M un A-module droit libre de base B.
Tout élément w de M s’écrit de façon unique comme combinaison
liP
néaire à coefficients dans A des éléments de la base B : w = (v∈B) vav ,
où (av )(v∈B) est une famille presque nulle d’éléments de A indicée par B.
Nous dirons que cette famille (av )(v∈B) est la coordonnée de w dans la base
B.
P
P
Remarquons que, si c ∈ A, si w = (v∈B) vav et w0 = (v∈B) va0v , alors
P
P
w + w0 = (v∈B) v(av + a0v ) et wc = (v∈B) v(av c).
Voici maintenant une description des A-modules libres (gauches ou
droits).
Proposition 2.1.5. Soit A un anneau et I un ensemble.
Le A-module gauche A(I) introduit en 1.1.6 est un A-module gauche
libre, appelé A-module gauche libre construit sur l’ensemble I.
Et réciproquement, tout A-module gauche libre de base B est isomorphe
au A-module gauche libre A(B) .
Démonstration. Exhibons une base de A(I) . Associons à chaque élément i
de I la fonction ei ∈ AI définie par :
½
1 si j = i
ei : I → A : j 7→
.
0 si j 6= i
I
On remarque que ces fonctions ei forment une partie libre
P de A (pour toute
famille presque nulle (ai )i∈I d’éléments de A on a ( (i∈I) ai ei )(k) = ak ,
2.1. PARTIES LIBRES, BASES
31
P
donc (i∈I) ai ei = 0 ⇔ ∀k ∈ I, ak = 0). On remarque aussi que le sous Amodule gauche de AI engendré par ces fonctions est le sous-module A(I) des
fonctions de I dans A nulles presque partout. Ces fonctions (ei )i∈I forment
donc une base de A(I) .
Réciproquement, soit M un A-module gauche libre de base B. Pour une
fonction s ∈ AB il est commode de désigner par sb l’image d’un élément
b ∈ B par cette fonction s. Si maintenant s ∈P
A(B) , la famille (sb )b∈B
d’éléments de A est presque nulle et l’expression (b∈B) sb b a un sens, elle
représente une somme finie d’éléments de M (ce qui est indiqué par les
parenthèses autour de « b ∈ B »). On a donc une fonction
f : A(B) → M : s 7→
X
sb b.
(b∈B)
On remarque que cette fonction f est un homomorphisme de A-modules
gauches. De plus, comme la base B de M est libre et génératrice, cette
fonction f est injective et surjective, f est donc un isomorphisme de Amodules gauches.
2.1.6. Conclusion. Ce qui précède nous permet de parler sans ambiguité
du A-module gauche (resp. droit) libre construit surP
un ensemble B. Les
éléments
de
ce
module
sont
le
plus
souvent
notés
par
(b∈B) sb b (resp. par
P
bs
),
où
(s
)
est
une
famille
presque
nulle
d’éléments
de A.
b
b b∈B
(b∈B)
2.1.7. Remarques. (a) Si M est
Lun A-module gauche libre de base B,
on peut aussi observer que M = v∈B Av et que Av ' A dès que v ∈ B.
Un A-module gauche libre M est donc isomorphe à une somme directe
éventuellement infinie de copies de A (l’isomorphisme dépendant du choix
d’une base de M ).
(b) Si l’ensemble I est infini notons que A(I) ( AI , que les fonctions
ei , i ∈ I ne forment pas une partie génératrice de AI (par exemple, soit
t ∈ AI définie par ∀i ∈ I, t(i) = 1, t ∈
/ A(I) ).
Signalons d’ailleurs que si l’anneau A n’est pas un corps, s’il est assez
« gros », le A-module droit AI peut très bien ne pas être libre.
2.1.8. Propriété universelle des modules libres. Soit M un A-module
droit libre de base B.
Avec l’écriture unique des éléments de M comme combinaisons linéaires,
à coefficients dans A, des éléments de sa base B, nous voyons que toute
fonction f 0 de B dans un autre A-module droit N se prolonge de façon
unique en un homomorphisme f de A-modules droits de M dans N .
2N
>
f0
f
B
/M
i
32
CHAPITRE 2. MODULES LIBRES
(Si f : M → N est un P
homomorphisme
Pde A-module droits prolongeant
f 0 , nous devons avoir f ( (v∈B) vav ) = (v∈B) f 0 (v)av . Ceci montre l’unicité du prolongement. D’autre part,P
il est facile de P
voir avec 2.1.4 que la
fonction f : M → N définie par f ( (v∈B) vav ) = (v∈B) f 0 (v)av est un
homomorphisme de A-modules droits.)
Voici une autre façon d’exprimer cette propriété des bases.
Si M est un A-module droit libre de base B, pour tout A-module droit
N , la fonction
HomA (M, N ) −→ Ens(B, N ) : f 7→ f|B
est bijective.
( Ici, Ens(B, N ) désigne l’ensemble des fonctions de l’ensemble B dans
N et f|B désigne la restriction de f à B.)
Le vocabulaire introduit ici est le même que celui introduit dans l’étude
des espaces vectoriels et applications linéaires. Cependant, le fait que nos
coefficients ai soient pris dans un anneau et non plus dans un corps, qu’ils
peuvent ne pas être inversibles, pire, qu’ils peuvent être diviseurs de zéro,
aura comme conséquence que la situation pour les modules peut être beaucoup plus complexe que celle pour les espaces vectoriels. Pour illustrer ceci
un peu de vocabulaire sera utile.
2.1.9. Vocabulaire. Soit P un ensemble de parties de l’ensemble E : P ⊂
P(E).
Nous dirons qu’une partie P1 de P est maximale (dans P) si,
∀X ∈ P, (P1 ⊂ X) ⇒ (P1 = X).
De façon analogue,nous dirons qu’une partie P0 de P est minimale
(dans P) si,
∀Y ∈ E, (Y ⊂ P0 ) ⇒ (Y = P0 ).
Proposition 2.1.10. Soit A un anneau, M un A-module gauche et P une
partie de M . On a :
(i) P libre ⇒ (∀x ∈ P, x ∈
/ mod(P \ {x}).
(ii) P libre maximale ⇐ P base ⇒ P génératrice minimale.
Démonstration. (i) est aisé et (ii) découle de (i).
Combinant 2.1.10 avec 1.1.10 nous obtenons
Corollaire 2.1.11. Si M est un A-module gauche libre de type fini, toutes
les bases de M sont finies.
2.1.12. Remarques. Dans la proposition 2.1.10 on ne peut retourner aucune des implications quand l’anneau A est quelconque, comme le montre
l’exemple très simple suivant pris dans le Z-module libre (Z, +).
2.1. PARTIES LIBRES, BASES
33
La partie {2, 3} du Z-module (Z, +) n’est pas libre bien qu’aucun de
ses éléments ne soit combinaison linéaire, à coefficients dans Z, des autres
éléments de la partie.
Cette partie {2, 3} de Z est aussi une partie génératrice minimale de Z,
elle n’est pas une base de Z et ne contient aucune base de Z.
La partie singleton {2} du Z-module (Z, +) est une partie libre maximale de Z, mais elle n’est pas une base de Z et n’est pas contenue dans une
base de Z.
Mais si A = K est un corps, nos implications deviennent des équivalences.
Proposition 2.1.13. Soit K un corps, V un K-vectoriel gauche et P une
partie de V . On a :
(i) P libre ⇔ (∀x ∈ P, x ∈
/ mod(P \ {x}).
(ii) P libre maximale ⇔ P base ⇔ P génératrice minimale.
( La preuve de ceci est directe et encore confiée au lecteur, qui peut
néanmoins se rappeler que cette preuve a vraisemblablement été donnée au
cours d’algèbre linéaire.)
Avec cette dernière proposition nous retrouvons un résultat déjà rencontré au cours d’algèbre linéaire.
Théorème 2.1.14. Soit K un corps. Tout K-vectoriel droit ou gauche
possédant une partie génératrice finie possède une base finie, autrement dit
est libre de type fini.
Démonstration. Une partie génératrice finie G d’un K-vectoriel droit ou
gauche V contient une partie génératrice minimale de V . Nous concluons
avec 2.1.13.
2.1.15. Annonces. Si A = K est un corps, nous verrons que tout Kvectoriel droit V possède une base, que toutes les bases de V ont même
« nombre » d’éléments, plus précisément ont même cardinal, appelé la dimension de V et noté dimK V . Nous verrons aussi que toute partie libre
de V est contenue dans une base de V et que toute partie génératrice de V
contient une base de V .
Dans le cas où le le K-vectoriel V possède une partie génératrice finie
ces propriétés ont déjà été démontrées au premier cours d’algèbre linéaire.
Mais les propriétés ci-dessus ne sont pas toutes valables pour un module
droit (gauche) sur un anneau quelconque, ni même pour un A-module droit
(gauche) libre de type fini, bien qu’il ressort de nos définitions qu’un module
libre ressemble plus à un espace vectoriel qu’un module quelconque. Nous
verrons en 2.2.21 un module libre sur un anneau non commutatif possédant
une base de 1 élément et une autre base de 2 éléments. Mais nous verrons
aussi à la fin de ce chapitre qu’un tel phénomène ne peut se produire sur
un anneau commutatif.
34
CHAPITRE 2. MODULES LIBRES
Voici enfin une propriété commune aux modules et aux espaces vectoriels
Proposition 2.1.16. Si le A-module droit M est somme directe de ses
deux sous-A-modules M1 et M2 : M = M1 ⊕ M2 , si M1 est un A-module
droit libre de base B1 et si M2 est un A-module droit libre de base B2 , alors
M est un A-module droit libre de base B1 ∪ B2 .
Plus généralement, toute somme directe de A-modules droits libres est
un A-module droit libre
( les preuves immédiates sont confiées au lecteur.)
Mais ceci n’implique pas que tout sommant direct d’un A-module droit
libre est libre. Regardons par exemple le Z6 -module Z6 . Nous avons un
isomorphisme de Z6 -modules : Z6 ' Z2 ⊕ Z3 . Le Z6 -module Z6 est libre,
les Z6 -modules Z2 et Z3 ne le sont pas.
Ceci n’implique pas non plus que tout sous-A-module droit libre d’un
A-module droit libre M est sommant direct de M . Par exemple, 2Z est un
Z-module libre et un sous-Z-module de Z, mais 2Z n’est pas un sommant
direct de Z.
Pour terminer, redémontrons que toutes les bases d’un K-vectoriel
(gauche ou droit) de type fini on même nombre d’éléments.
Théorème 2.1.17. Remplacement. Soit K un corps, V un K-vectoriel
gauche (ou droit) et G = {g1 , · · · , gs } une partie génératrice finie de V
comprenant s éléments. Soit L = {b1 , · · · , bm } une partie libre de V de m
éléments.
Alors : (i) m 6 s,
(ii) il y a s − m éléments de G que nous désignerons par gm+1 , · · · , gs
(après une éventuelle renumérotation des gi si nécessaire) telle que la partie
G0 = {b1 , · · · , bm , gm+1 , · · · , gs } soit encore une partie génératrice de V .
Démonstration. La preuve se fait par induction sur le nombre m d’éléments
de notre partie libre L. Si m = 0 il n’y a rien à faire. Supposons notre
assertion vraie pour toute partie libre de V comprenant m − 1 éléments
(nous supposons donc implicitement que m − 1 6 s), et appliquons ceci à
la partie libre {b1 , · · · , bm−1 }. Après une éventuelle renumérotation des gi
nous aurons que G00 = {b1 , · · · , bm−1 , gm , · · · , gs } est une partie génératrice
de V , et donc
bm est combinaison linéaire des éléments de G00 : bm =
P
Pque
m−1
s
0
i=1 ai bi +
j=m aj gj . Comme notre partie L de départ était libre, un au
moins des coefficients a0m , · · · , a0s est non nul. Ceci montre déjà que m 6 s.
Après renumérotation des gm , · · · , gs nous aurons a0m 6= 0. Ceci implique
que gm est combinaison linéaire des b1 , · · · , bm , gm+1 , · · · , gs , que G0 est
génératrice et que notre assertion est vraie pour toute partie libre de m
éléments.
De ceci on déduit aisément.
2.1. PARTIES LIBRES, BASES
35
Théorème 2.1.18. Si le K-vectoriel V (gauche ou droit) possède une partie génératrice finie, toutes ses bases sont finies et ont même nombre d’éléments, appelé la dimension de V sur K et noté dimK (V ).
——————————————————————————–
Exercice 2.1.19. Soit V un espace vectoriel gauche de dimension dénombrable sur un corps K, de base (ei )i∈N . Montrer un isomorphime V ∼
→ V ⊕V .
Exercice 2.1.20. Soit Soit A un anneau, I un idéal propre de A et M un
A-module gauche libre de base B. Désignons par (·) les images modulo I
comme en 1.1.23 : M̄ = M/IM, Ā = A/I, ∀w ∈ M, w̄ = w + IM et ∀a ∈
A, ā = a + I.
Alors M est un A-module gauche libre de base B.
36
CHAPITRE 2. MODULES LIBRES
2.2. Modules libres de type fini et matrices
2.2.1. Rappel sur le calcul matriciel. Désignons par Am×n l’ensembles
des matrices à m lignes et n colonnes à coefficients dans A. Si F ∈ Am×n ,
nous dirons que F est une matrice de taille m × n et nous désignerons
l’entrée de F située sur sa iième ligne et sa j ième colonne par Fji ou Fij selon
le goût du moment. Si m = n, nous dirons que F est une matrice carrée de
taille n.
Nous avons appris à additionner des matrices de même taille, si F, G ∈
Am×n , la matrice F + G ∈ Am×n est définie par (F + G)ij = Fji + Gij . Nous
observons que (Am×n , +) est un groupe commutatif dont le neutre additif
est la matrice nulle de Am×n , c.-à-d. la matrice ∈ Am×n dont toutes les
entrées sont nulles.
Nous avons aussi appris à multiplier à droite une matrice F ∈ Am×n
par une matrice G ∈ An×r :
F G ∈ Am×r ,
(F G)ij =
n
X
Fki Gkj .
k=1
Nous savons que la multiplication matricielle est associative :
si F ∈ Am×n , G ∈ An×r et H ∈ Ar×s , alors
((F G)H)ij = (F (GH))ij
r
n X
X
Fki Gkl Hjl .
k=1 l=1
Pour tout naturel positif n, la matrice identique 1n ∈ An×n est définie par
(1n )ij = 1 si i = j et (1n )ij = 0 si i 6= j. Ces matrices identiques jouent
le rôle de neutres pour la multiplication : In est la seule matrice carrée de
taille n telle que ∀F ∈ Am×n , ∀G ∈ An×r , , F 1n = F et 1n G = G.
Ceci nous amène à dire qu’une matrice C ∈ An×m est inversible s’il
existe une matrice D ∈ Am×n telle que CD = 1n et DC = 1m . Dans ce
cas, nous avons une seule matrice D telle que CD = 1n et DC = 1m , nous
dirons que cette matrice D est l’inverse de la matrice C et nous écrirons D =
C −1 . (Signalons qu’une matrice inversible n’est pas forcément carrée lorsque
l’anneau n’est pas commutatif, nous en verrons un exemple en 2.2.21.)
Nous savons aussi que la multiplication matricielle distribue l’addition,
à gauche comme à droite.
En particulier nous savons que l’ensemble des matrices carrées de même
taille n×n à coefficients dans A forme un anneau dont le neutre multiplicatif
est la matrice identique 1n .
L’ensemble An×n avec sa structure d’anneau sera souvent désigné par
Mn (A).
Notons : M1 (A) = A1×1 = A.
Remarquons aussi que la multiplication matricielle munit le groupe additif (Am×n , +) d’une structure de Mm (A)-module gauche et d’une structure de Mn (A)-module droit.
2.2. MODULES LIBRES DE TYPE FINI ET MATRICES
37
Nous pouvons également munir le groupe additif (Am×n , +) d’une structure de A-module gauche et d’une autre structure de A-module droit. Si
a ∈ A, F ∈ Am×n , nous pouvons définir des matrices aF, F a ∈ Am×n par
(aF )ij = aFji , (F a)ij = Fji a. Si l’anneau A n’est pas commutatif, les matrices
aF et F a ne sont pas forcément égales et ces structures ne retiendront pas
notre attention.
Mais si l’anneau A est commutatif, nous retenons que Am×n a aussi une
structure de A-module.
2.2.2. Exemples types de modules libres de type fini.
(a) A droite. Soit A un anneau. Nous pouvons multiplier une matrice
v ∈ Am×1 à droite par un élément a de l’anneau A = A1×1 . La multiplication matricielle munit naturellement le groupe additif (Am×1 , +) d’une
structure de A-module droit .
Ce A-module droit Am×1 est un A-module droit libre de base
 
 
 
1
0
0
0
1
0
 
 
 
 
 
 
e1 = 0 , e2 = 0 , · · · , em =  ...  .
 .. 
 .. 
 
.
.
0
0
0
1
Cette base est souvent appelée la base canonique de Am×1 .
Soit maintenant F ∈ Am×n .
Pour tout v ∈ An×1 , nous avons F · v ∈ Am×1 et nous obtenons une
fonction f définie par



f : An×1 → Am×1 : v = 

a1
a2
..
.
an




 7→ F · v = F





a1
a2
..
.



.

an
Cette fonction est un homomorphisme de A-modules droits et tout homomorphisme de A-modules droits f : An×1 → Am×1 peut s’obtenir de cette
manière.
Remarquons aussi que l’image f (ei ) du iième élément de la base canonique de An×1 est la iième colonne de la matrice F , et que Im(f ) est le
sous-A-module droit de Am×1 engendré par les colonnes de la matrice F ,
souvent appelé « espace colonne (à droite) » de la matrice F .
Remarquons encore que f est injective si et seulement si les f (ei ) sont
linéairement indépendants dans le A-module droit Am×1 , que f est surjective
si et seulement si les f (ei ) forment une partie génératrice de Am×1 et que
f est bijective si et seulement si les f (ei ) forment une base de Am×1 .
38
CHAPITRE 2. MODULES LIBRES
(b) A gauche. De la même façon, nous pouvons multiplier une matrice
v ∈ A1×n à gauche par un élément a de l’anneau A1×1 ' A et ceci munit naturellement le groupe additif (A1×n , +) d’une structure de A-module
gauche .
Ce A-module gauche A1×n est un A-module gauche libre de base
e1 = (1, 0, 0, · · · , 0)
e2 = (0, 1, 0, · · · , 0)
..
.
en = (0, 0, · · · , 0, 1)
A nouveau, cette base est souvent appelée la base canonique de A1×n .
Soit encore F ∈ Am×n .
La fonction f 0 définie par
f 0 : A1×m → A1×n : v = (v1 , · · · , vm ) 7→ vF = (v1 , · · · , vm )F
est un homomorphisme de A-modules gauches. Ici, l’image par f 0 du iième
élément de la base canonique de A1×m est la iième ligne de la matrice F et
Im(f 0 ) est le sous-A-module gauche de A1×n engendré par les lignes de la
matrice F , souvent appelé « espace ligne (à gauche) » de la matrice F .
2.2.3. Coordonnée relativement à une base finie.
(a) Le cas des A-modules droits.
Supposons que le A-module droit libre M possède une base finie. Nous
écrirons alors les éléments de cette base en ligne, nous écrirons :
e = (e1 , · · · , en ) est une base de M,
signifiant par cela que les éléments ei , 1 6 i 6 n, de M sont distincts
deux-à-deux et forment une base de M .
Ecrivons un élément w de M comme combinaison linéaire des ei :
w=
n
X
ei w i ,
où
wi ∈ A.
i=1
La coordonnée de cet élément w de M s’écrira alors en colonne :
 1
w
 .. 
e
w =  . .
wn
Ceci nous permettra d’utiliser allègrement la notation matricielle et
d’écrire :
 1
w
n
 ..  X
e
ei w i .
w = e · w , ou w = (e1 · · · en )  .  =
wn
i=1
2.2. MODULES LIBRES DE TYPE FINI ET MATRICES
39
(b) Le cas des A-modules gauches.
Si le A-module gauche libre M possède une base finie, nous écrirons
alors les éléments de cette base en colonne, nous écrirons :
 1
e
 .. 
e =  .  est une base de M,
en
signifiant par cela que les éléments ei , 1 6 i 6 n, de M sont distincts
deux-à-deux et forment une base de M .
La coordonnée d’un élément w de M s’écrira alors en ligne
we = (w1 · · · wn ),
où les wi ∈ A.
Ceci nous permettra à nouveau d’utiliser allègrement la notation matricielle, d’écrire :
 1
e
n
 ..  X
w = we · e, ou w = (w1 · · · wn )  .  =
wi ei .
i=1
en
Proposition 2.2.4. (i) Soit N un A-module gauche et soit w1 , · · · , wn ∈
N . La fonction
A1×n → N : (a1 · · · , an ) 7→
n
X
ai w i
i=1
est un homomorphisme de A-modules gauches.
Cet homomorphisme est surjectif si et seulement si la partie
{w1 , · · · , wn } de N est génératrice, il est injectif si et seulement si cette
partie est libre.
(ii) En particulier tout A-module gauche libre de type fini est isomorphe
à un A-module gauche de la forme A1×n .
Démonstration. Immédiat au vu de 2.1.4 et 2.1.8.
2.2.5. Changement de bases.
(a) A droite. Soit M un A-module droit libre de type fini et soit
e = (e1 , · · · , en ) et u = (u1 , · · · , um )
deux bases finies de M (nous ne supposons pas ici que m = n).
Nous pouvons écrire les ei comme combinaisons linéaires, à coefficients
dans A, des uj et vice-versa, cette écriture est unique et nous obtenons
deux matrices
C ∈ An×m ,
∀j, 1 6 j 6 m,
uj =
C 0 ∈ Am×n
n
X
k=1
telles que
ek Cjk , ou, en écriture matricielle, u = eC,
40
CHAPITRE 2. MODULES LIBRES
∀i, 1 6 j 6 n,
ei =
m
X
k
uk C 0 i , ou, en écriture matricielle, e = uC 0 .
k=1
De plus, par associativité nous avons les égalités
u = eC = uC 0 C
et e = uC 0 = eCC 0 .
Comme e et u sont deux bases de M , nous en déduisons :
C 0 C = 1m ,
CC 0 = 1n ,
(où 1r désigne la matrice identique de taille r × r), ce qui signifie que les
matrices C et C 0 sont inversibles, que C 0 = C −1 et C = C 0−1 .
Regardons maintenant l’effet d’un changement de bases sur les coordonnées.
Soit w ∈ M . Nous avons la coordonnée we de w dans la base e et la
coordonnée wu de w dans la base u. Nous avons donc par associativité :
w = e · we = u · wu = e · Cwu ,
et, comme e est une base de M , nous en déduisons :
we = Cwu
et wu = C −1 we .
(b) A Gauche.
 1  Soit M un A-module
 1  gauche libre de type fini et soit
e
u
 .. 
 .. 
e =  .  et u =  . 
en
um
deux bases finies de M .
Nous pouvons à nouveau écrire les ei comme combinaisons linéaires, à
coefficients dans A, des uj et vice-versa, cette écriture est unique et nous
obtenons deux matrices
D ∈ Am×n ,
D0 ∈ An×m
telles que
u = De,
e = D0 u.
De plus, par associativité nous avons les égalités
u = De = DD0 u
et e = D0 u = D0 De.
Comme e et u sont deux bases de M , nous en déduisons :
DD0 = 1m ,
D 0 D = 1n ,
ce qui signifie que les matrices D et D0 sont inversibles.
2.2. MODULES LIBRES DE TYPE FINI ET MATRICES
41
Regardons maintenant les coordonnées d’un élément w de M . Nous
avons :
w = we · e = wu · u = wu D · e.
Comme e est une base de M , nous en déduisons encore :
we = wu D
et wu = we D−1 .
2.2.6. Informations. Si A = K est un corps, commutatif ou non, nous
avons vu au cours d’algèbre linéaire et revu en 2.1.18 que toutes les bases
d’un K-vectoriel droit M de type fini ont même nombre d’éléments, appelé
dimension de M et noté dimK M .
On en déduit qu’une matrice inversible à entrées dans un corps est
toujours carrée.
On pourra aussi démontrer que, si A est un anneau commutatif, les
matrices inversibles à entrées dans A sont nécessairement carrées, ce qui
signifie que, si M est un A-module libre de type fini, alors toutes les bases
de M ont même nombre d’éléments, appelé le rang du module.
Mais un tel résultat n’est plus valable pour un anneau non commutatif
quelconque, nous verrons en 2.2.21 des matrices inversibles qui ne sont pas
carrées, un anneau non commutatif A pour lequel on a un isomorphisme
de A-modules droits A ' A2×1 .
2.2.7. Homomorphismes de A-modules droits libres de type fini.
(i) Soit A un anneau et soit M , N deux A-modules droits libres de type
fini. Soit encore
e = (e1 , · · · , em ) une base de M et
u = (u1 , · · · , un ) une base de N .
Tout homomorphisme de A-modules droits
f :M →N
est entièrement déterminé par les images f (ei ) des éléments de la base e de
M . Nous écrivons ces f (ei ) ∈ N comme combinaisons linéaires des éléments
de la base u de N et nous obtenons une matrice F ∈ An×m telle que
∀i, 1 6 i 6 m,
f (ei ) =
n
X
uk Fik .
k=1
Ceci peut se réécrire en notation matricielle
(f (e1 ), · · · , f (em )) = (u1 , · · · , un )F,
ou encore, de façon plus compacte
f (e) = uF.
Nous dirons que cette matrice F est la matrice de l’homomorphisme f dans
la base e de M et la base u de N , ou que f est représentée par la matrice
F dans ces mêmes bases.
42
CHAPITRE 2. MODULES LIBRES
Remarquons que la iième colonne de la matrice F est la coordonnée,
dans la base u de N , de l’image par f du iième élément de base ei de M .
Ainsi, f est injective si et seulement si les colonnes de la matrice F forment
une partie libre du A-module droit An×1 et f est surjective si et seulement
si les colonnes de la matrice F forment une partie génératrice du A-module
droit An×1 .
Remarquons aussi que la fonction
An×m → HomA (M, N )
qui associe à toute matrice F ∈ An×m l’homomorphisme f de M dans N
défini par f (e) = uF est un isomorphisme de groupes additifs, et même un
isomorphisme de A-modules dans le cas où l’anneau A est commutatif.
(ii) Regardons maintenant la matrice d’une composée d’homomorphismes.
Soit P un autre A-module droit libre de type fini et de base v =
(v1 , · · · , vp ). Soit
f
g
M →N →P
des homomorphismes de A-modules droits et soit G ∈ Ap×n la matrice de
g dans la base u de N et la base v de P , de sorte que g(u) = vG.
Nous avons :
(g ◦ f )(e) = g(f (e)) = g(uF ) = g(u)F = vGF,
la matrice de g ◦ f dans la base e de M et la base v de P est la matrice
produit GF ∈ Ap×m .
En particulier, nous observons que f est un isomorphisme si et seulement si la matrice F est inversible, c.-à-d. si et seulement si ∃G ∈ Am×n
telle que F · G = 1n et G · F = 1m .
(iii )Regardons maintenant la coordonnée dans la base u de N de l’image
f (w) d’un élément w de M .
Nous avons : w = ewe , d’où f (w) = f (e)we = uF we , et (f (w))u = F we .
(iv) Regardons finalement l’effet de changements de bases dans M et N
sur la matrice F .
Soit
e0 = (e01 , · · · , e0m ) une autre base de M et
u0 = (u01 , · · · , u0n ) une autre base de N .
Nous avons des matrices inversibles C ∈ Am×m et D ∈ An×n telles que
e0 = eC,
u0 = uD.
2.2. MODULES LIBRES DE TYPE FINI ET MATRICES
43
Nous en déduisons :
f (e0 ) = f (eC) = f (e)C = uF C = u0 D−1 F C.
La matrice de f dans les nouvelles bases e0 et u0 est la matrice D−1 F C.
Corollaire 2.2.8. Soit A un anneau commutatif et soit M , N deux Amodules (droits) libres de type fini, de rang m et n respectivement. Alors le
A-module HomA (M, N ) est un A-module libre de type fini de rang mn.
Démonstration. Soit e = (e1 , · · · , em ) une base de M et u = (u1 , · · · , un )
une base de N .
Nous avons vu que la fonction
An×m → HomA (M, N )
qui associe à toute matrice F ∈ An×m l’homomorphisme f de M dans N
défini par f (e) = uF est un isomorphisme de A-modules.
Il nous reste à montrer que le A-module An×m est libre de type fini.
Pour tout i, j, 1 6 i 6 n et 1 6 j 6 m, définissons une matrice
Eji ∈ An×m par
½
1 si i = k, j = l,
i k
(Ej )l =
0
sinon.
On observe aisément que ces matrices Eji forment une base du A-module
An×m .
2.2.9. Homomorphismes de A-modules gauches libres de type fini.
(i) Soit A un anneau et soit M , N deux A-modules gauches libres de
type fini. Soit encore
 1
e
 .. 
e =  .  une base de M et
em

u1
 
u =  ... 

une base de N .
un
Nous respectons la règle d’or de Jacobson et utilisons la composition
droite pour les fonctions et les notations mentionnées en 1.1.17. Nous écrivons les images (ei )f des ei par f comme combinaisons linéaires des éléments de la base u de N , nous obtenons une matrice F ∈ Am×n telle que
∀i, 1 6 i 6 m,
i f
(e ) =
n
X
k=1
Fki uk .
44
CHAPITRE 2. MODULES LIBRES
Ceci peut se réécrire en notation matricielle
 1 f
 1
(e )
u
 .. 
 .. 
 .  = F  . ,
un
(em )f
ou encore, de façon plus compacte
ef = F u.
Nous dirons que cette matrice F est la matrice de l’homomorphisme f dans
la base e de M et la base u de N .
Remarquons ici que c’est la iième ligne de la matrice F qui est la coordonnée, dans la base u de N , de l’image par f du iième élément de base ei
de M .
Remarquons encore que la fonction
Am×n → HomA (M, N )
qui associe à toute matrice F ∈ Am×n l’homomorphisme f de M dans N
défini par ef = F u est un homomorphisme de groupes additifs, et même un
homomorphisme de A-modules dans le cas où l’anneau A est commutatif.
(ii) Regardons maintenant la matrice d’une composée d’homomorphismes.
 1
v
 .. 
Soit P un autre A-module gauche libre de type fini et de base v =  . .
vp
Soit
f
g
M →N →P
des homomorphismes de A-modules gauches et soit G ∈ An×p la matrice
de g dans la base u de N et la base v de P , de sorte que ug = Gv.
Nous avons :
ef ·g = (ef )g = (F u)g = F ug = F Gv,
la matrice de f · g = g ◦ f dans la base e de M et la base v de P est la
matrice produit F G ∈ Am×p .
(iii )Regardons maintenant la coordonnée dans la base u de N de l’image
wf d’un élément w de M .
Nous avons : w = we e, d’où wf = we ef = we F u, et (wf )u = we F .
Voici maintenant quelques remarques utiles concernant les vectoriels de
dimension finie sur un corps quelconque.
2.2. MODULES LIBRES DE TYPE FINI ET MATRICES
45
2.2.10. Remarques. Soit K un corps non nécessairement commutatif et
soit f : V → W un homomorphisme de K-vectoriels droits de dimension
finie.
(a) dimK (V ) = dimK Ker(f ) + dimK Im(f ).
Si f est injectif ou surjectif, alors f est un isomorphisme.
(b) Nous définissons le rang de f par rang(f ) = dimK Im(f ).
Soit dimK V = n et dimK W = m. Si f est représentée par une matrice
F ∈ K m×n dans une base e de V et une base u de W , alors rang(f ) est
la dimension, sur K, de l’espace colonne à droite de la matrice F , encore
appelé rang colonne (à droite) de la matrice F ,
rang(f ) = rang colonne (à droite)(F )
(rappelons que l’espace colonne à droite de la matrice F est le sousespace du K-vectoriel droit K m×1 engendré par les colonnes de F ).
Regardons maintenant dimK Ker(f ). La méthode de résolution des systèmes d’équations linéaires nous indique que
dimK Ker(f ) = dimK V − rang ligne (à gauche)(F ),
ici, par rang ligne (à gauche)(F ), nous entendons la dimension, sur K, de
l’espace ligne à gauche de la matrice F , qui, rappelons-le, est le sous-espace
du K-vectoriel gauche K 1×n engendré par les lignes de F .
De ceci et des remarques précédentes nous déduisons que, pour toute
matrice F à entrées dans un corps K,
rang ligne (à gauche)(F ) = rang colonne (à droite)(F ).
———————————————————————————–
Exercice 2.2.11. Soit H le corps des quaternions et soit V un H-vectoriel
droit de base e = (e1 , e2 , e3 ). Les fonctions suivantes sont-elles des homomorphismes de H-vectoriels droits ? Si oui, quelle est leur matrice dans la
base e de V et 1 de H ?
s1 : V → H :
3
X
ei λi 7→ λ1 + jλ2 ,
i=1
s2 : V → H :
3
X
ei λi 7→ λ1 + λ2 j,
i=1
s3 : V → H :
3
X
ei λi 7→ λ1 · λ2 .
i=1
(Indication pour s2 : s2 (e2 i) = ij = k 6= ji = s2 (e2 )i.)
46
CHAPITRE 2. MODULES LIBRES
Exercice 2.2.12. Soit H le corps des quaternions.
On a vu en 1.1.22 que la fonction
µ ¶
µ ¶
a1
ia1
2×1
2×1
f :H
→H
:
7→
a2
ia2
est un automorphisme de H-module droit.
2×1
µ ¶Quelle
µ ¶ est la matrice de f dans la base canonique de H , dans la base
1
0
,
?
0
j
Exercice 2.2.13. Rappelons que le plan réel pointé Π0 est naturellement
muni d’une structure d’espace vectoriel réel (voir 1.5.10). Observons que
deux points du plan réel non alignés sur l’origine en forment une base. Par
conséquent chacun des trois dessins suivants définit une transformation
linéaire f du R-vectoriel Π0 .
sc
Isb
¾ ¾ s
v
0
a
sb
j
v ¾ s
¾
s
0
c
a
as
N
v
s
s
c
0
3
s b
Dans chacun des trois cas, dessiner Ker(f ), Im(f ), f −1 {c}, f (c), Im(f ◦ f ).
Écrire la matrice de f dans une base judicieusement choisie, de façon à
avoir la matrice la plus simple possible.
Exercice 2.2.14. (a) Pour toute transformation linéaire d’un K-vectoriel
droit V , on a Im(f ◦ f ) ⊂ Im(f ) et Ker(f ◦ f ) ⊃ Ker(f ).
(b) Si f est une transformation linéaire d’un K-vectoriel droit V de
dimension finie, les assertions suivantes sont équivalentes :
(i) Im(f ◦ f ) = Im(f ),
(ii) Ker(f ◦ f ) = Ker(f ),
(iii) V = Im(f ) ⊕ Ker(f ).
(c) L’ensemble R[X] des polynômes à coefficients réels en une variable X
est naturellement muni d’une structure d’espace vectoriel réel, de dimension
dénombrable, de base {1, X, X 2 , · · · , X n , · · · }.
La fonction qui applique tout polynôme sur sa dérivée en est une transformation linéaire, désignons-la par d.
2.2. MODULES LIBRES DE TYPE FINI ET MATRICES
47
Cette transformation linéaire d de R[X] est surjective non injective. Que
sont Ker(d) et Ker(d ◦ d) ?
Cet exemple montre que l’hypothèse finidimensionnelle est essentielle
en (b).
Exercice 2.2.15. Soit K un corps commutatif et soit V0 , V1 , V2 , V3 des
K-vectoriels de dimensions finies n0 , n1 , n2 , n3 respectivement.
Soit f : V1 → V2 une application linéaire de rang r.
Montrer que {g ∈ HomK (V2 , V3 ) | g ◦ f = 0} est un sous K-vectoriel de
HomK (V2 , V3 ). Quelle est sa dimension ?
Montrer que {h ∈ HomK (V0 , V1 ) | f ◦ h = 0} est un sous K-vectoriel de
HomK (V0 , V1 ). Quelle est sa dimension ?
µ
¶
1 i
Exercice 2.2.16. Soit H le corps des quaternions et soit F =
∈
j k
H2×2 .
(a) Observer que la fonction
f : H1×2 → H1×2 : (λ1 , λ2 ) 7→ (λ1 , λ2 )F
est un endomorphisme du H-vectoriel gauche H1×2 .
Cet endomorphisme est-il injectif, bijectif ?
Autrement dit, la matrice F est-elle inversible ?
(Indication. Observer que les deux lignes de la matrice F forment une
partie libre du H-vectoriel gauche H1×2 .
1×2 est un H-vectoriel gauche de base
½ Observer aussi que H
e1 = (1, 0)
et que ce sont les lignes de la matrice F qui fournissent
e2 = (0, 1)
µ ¶
e1
.)
les coordonnées des f (ei ) dans la base
e2
(b) Soit maintenant G =
Ft
µ
¶
1 j
=
la transposée de la matrice F .
i k
Observer que la fonction
g:H
2×1
2×1
→H
µ 1¶
µ 1¶
λ
λ
:
7→ G 2
2
λ
λ
est un endomorphisme du H-vectoriel droit H2×1 .
Cet endomorphisme est-il injectif, bijectif ?
(Indication. Observer ici que les deux colonnes de la matrice G ne
forment pas une partie libre du H-vectoriel droit H2×1 .
que H2×1 est un H-vectoriel droit de base e1 =
µ ¶Observerµencore
¶
1
0
, e2 =
et que cette fois ce sont les colonnes de la matrice G
0
1
qui fournissent les coordonnées des g(ei ) dans la base (e1 , e2 ).)
48
CHAPITRE 2. MODULES LIBRES
Conclusion. La transposition des matrices peut être une opération très
utile pour les matrices à entrées dans un anneau commutatif. Si C et D sont
deux matrices à entrées dans l anneau commutatif A telles que le produit
CD existe, nous avons (CD)t = Dt C t ; on en déduit que C t est inversible
dès que C est inversible.
Mais cette transposition est une opération très dangereuse pour les matrices à coefficients dans un anneau non commutatif, l’égalité ci-dessus n’est
plus valable et la transposée d’une matrice inversible peut ne pas être inversible.
Exercice 2.2.17. Rappels ou informations. (a) Rappelons que le
conjugué d’un quaternion λ = a + bi + cj + dk est le quaternion
λ̄ = a − bi − cj − dk, de sorte que λλ̄ = a2 + b2 + c2 + d2 ∈ R+ .
Rappelons aussi que la conjugaison des quaternions a les propriétés
suivantes :
∀λ, µ ∈ H, (λ + µ) = λ̄ + µ̄, λµ = µ̄λ̄,
que de plus λ = 0 ⇔ λ̄ = 0.
Ceci peut aussi s’exprimer en disant que la fonction de conjugaison
H → H : λ 7→ λ̄ est un antiautomorphisme de H.
(b) D’autre part, si C est une matrice à entrées complexes, la transposée
conjuguée de C sera notée C + et parfois appelée adjointe de C.
Une matrice carrée à entrées complexes C telle que CC + = 1 est appelée
une matrice unitaire. Les matrices unitaires ∈ Cn×n forment un sousgroupe du groupe multiplicatif Gln (C) des matrices inversibles n × n à
entrées complexes.
(c) Une matrice carrée à entrées réelles F telle que F F t = 1 est appelée
une matrice orthogonale. Les matrices orthogonales ∈ Rn×n forment un
sous-groupe du groupe multiplicatif Gln (R) des matrices inversibles n × n
à entrées réelles.
(d) Les matrices unitaires sont aux complexes ce que les matrices orthogonales sont aux réels.
Exercice 2.2.18. Soit V un H-vectoriel droit. Pour tout λ ∈ H et tout
v ∈ V , écrivons λv = vλ. Nous venons de munir V d’une structure de
H-vectoriel gauche.
2.2.19. Exercice. Soit H le corps des quaternions.
(a) Le groupe (H), +) est naturellement muni d’une structure de Cvectoriel droit, de base (1, j).
Quelle est la coordonnée, dans la base (1, j) de H, du quaternion λ =
a + bi + cj + dk, a, b, c, d ∈ R ?
(b) Vérifier que, ∀λ ∈ H, la fonction suivante est un endomorphisme du
C-vectoriel droit H
(λ·) : H → H : x 7→ λx.
2.2. MODULES LIBRES DE TYPE FINI ET MATRICES
49
Quelle est la matrice Fλ de (λ·) dans la base (1, j) du C-vectoriel droit
H?
(c) Vérifier que la fonction
(H, +, ·) → (EndC (H), +, ◦) : λ 7→ (λ·)
est un homomorphisme d’anneaux.
En déduire un homomorphisme d’anneaux
ρ : (H, +, ·) → (M2 (C), +, ·) : λ 7→ Fλ .
(Nous dirons que ρ est une représentation matricielle complexe du corps
des quaternions.)
(d) Observer que Fλ est une matrice de déterminant λλ̄.
Observer aussi (sans calculs) que Fλ̄ = Fλ+ , que, si λ est un quaternion
de norme 1, c.-à-d. si λλ̄ = 1, alors Fλ Fλ + = 1, ce qui signifie que Fλ est
une matrice unitaire.
Remarquer que la restriction de ρ au groupe multiplicatif (H1 , ·) des
quaternions de norme 1 et au groupe multiplicatif (GL2 (C), ·) des matrices
2 × 2 inversibles à coefficients complexes fournit un homomorphisme de
groupes
ρ : (H1 , ·) → (GL2 (C), ·).
(Nous dirons de cet homomorphisme qu’il est une représentation linéaire
complexe du groupe (H1 , ·) de degré 2.)
Cet homomorphisme ρ est injectif et son image est le sous-groupe de
(GL2 (C), ·) formé des matrices unitaires de déterminant 1, ce sous-groupe
de GL2 (C) est souvent désigné par SU2 . Avec ces notations nous avons donc
(H1 , ·) ' (SU2 , ·).
(e) Le groupe additif (H, ·) est aussi muni d’une structure d’espace vectoriel réel de dimension 4.
Les quaternions purs, c.-à-d. ceux dont la partie réelle est nulle, forment
un espace vectoriel réel de dimension 3, noté Hp , de base i, j, k. Remarquons
qu’un quaternion µ est pur si et seulement si µ + µ̄ = 0.
Pour tout λ ∈ H, λ 6= 0, nous avons : ∀µ ∈ Hp , λµλ−1 ∈ Hp , et la
fonction
intλ : Hp → Hp : µ 7→ λµλ−1
est un automorphisme du R-vectoriel Hp .
De plus, comme intλλ0 = intλ ◦ intλ0 , nous obtenons un homomorphisme
de groupes
θ : (H1 , ·) → (AutR (Hp ), ◦) : λ 7→ intλ .
Nous avons : Ker(θ) = {1, −1}.
50
CHAPITRE 2. MODULES LIBRES
Si Gλ désigne la matrice de intλ dans la base i, j, k de Hp , l’homomorphisme θ se traduit en un homomorphisme de groupes
(H1 , ·) → (GL3 (R), ·) : λ 7→ Gλ .
(On peut montrer que l’image de ce dernier homomorphisme est le sousgroupe de GL3 (R) formé des matrices orthogonales de déterminant 1, ce
sous-groupe de GL3 (R) est souvent désigné par SO3 .)
2.2.20. Exercice. Utiliser la méthode de l’exercice précédent pour obtenir
un homomorphisme d’anneaux
(C, +, ·) → (M2 (R), +, ·).
Que pouvez-vous dire de l’image d’un complexe de module 1 par cet homomorphisme si vous avez utilisé la base (1,i) de C sur R ?
(Réponse. L’image d’un complexe z de module 1 est une matrice orthogonale, plus précisément c’est la matrice d’une rotation dont l’angle est
l’argument de z.)
2.2.21. Exercice. Soit V un R-vectoriel droit de dimension dénombrable,
de base (ei )i∈N et soit A = (EndR (V ), +, ◦) l’anneau des endomorphismes
du R-vectoriel droit V , dont le neutre multiplicatif sera désigné par 1.
Notre but est d’établir un isomorphisme de A-modules droits
A1×1 → A2×1 .
Définissons des endomorphismes α, β, α0 , β 0 ∈ A par : ∀i ∈ N,
α(e2i ) = ei et α(e2i+1 ) = 0,
β(e2i ) = 0 et β(e2i+1 ) = ei ,
α0 (ei ) = e2i ,
β 0 (ei ) = e2i+1 .
Vérifier : α ◦ α0 = 1 = β ◦ β 0 ,
α ◦ β 0 = β ◦ α0 = 0.
ce qui donne
µ ¶
µ
¶
α
1 0
0
0
(α β ) =
.
β
0 1
Vérifier aussi : α0 ◦ α + β 0 ◦ β = 1,
ce qui donne
(α0 β 0 )
µ ¶
α
= 1.
β
µ ¶
α
Des calculs précédents on déduit que la matrice
∈ A2×1 est inverβ
sible, que son inverse est la matrice (α0 β 0 ).
2.2. MODULES LIBRES DE TYPE FINI ET MATRICES
51
On en déduit aussi que nous avons un isomorphisme de A-modules droits
µ ¶
µ
¶
α
α◦γ
1×1
2×1
f :A
→A
: γ 7→
γ=
β
β◦γ
dont l’isomorphisme réciproque est donné par
µ ¶
µ ¶
γ
γ
f −1 : A2×1 → A1×1 :
7→ (α0 β 0 )
= α0 ◦ γ + β 0 ◦ δ.
δ
δ
On en déduit encore que les éléments α0 et β 0 de A forment une base
du A-module droit A, cette base comprend 2 éléments, bien que l’élément
1 de A forme une autre base du
droit A.
µ A-module
¶
α
2×1
De l’autre coté, l’élément
de A
forme à lui tout seul une base
β
du A-module droit A2×1 , bien que la base canonique de A2×1 comprenne
deux éléments.
52
CHAPITRE 2. MODULES LIBRES
2.3. L’axiome du choix et le lemme de Zorn
Si nous avons devant nous 2, 3, 5 ou même 100.000 ensembles non
vides, nous pouvons choisir un élément parmi chacun d’eux, bien que cela
puisse prendre un certain temps. Mais si nous avons en face de nous une
infinité d’ensembles non vides, pouvons nous encore choisir simultanément
un élément parmi chacun d’eux ? La réponse est oui, si on accepte d’ajouter
l’axiome du choix aux autres axiomes de la théorie classique des ensembles.
2.3.1. L’axiome du choix.
Etant donné un ensemble A d’ensemble non vides, nous pouvons choisir,
∀E ∈ A, un élément c(E) ∈ E, autrement dit il existe une fonction de choix
[
c:A→
A telle que ∀E ∈ A, c(E) ∈ E.
S
Ici, A désigne S
la réunion des ensembles appartenant à A :
A = {x | ∃E ∈ A avec x ∈ E}.
L’axiome du choix est indépendant des autres axiomes de la théorie
classique des ensembles. Moyennant ces autres axiomes, il admet plusieurs
formulations équivalentes, l’une d’elles concerne les ensembles ordonnés.
2.3.2. Vocabulaire. Rappelons qu’un ensemble ordonné (E, ≺) est un
ensemble E munit d’une relation d’ordre ≺, c.-à-d. d’une relation réflexive,
transitive et antisymétrique.
Nous dirons qu’une partie C de E est une chaîne de l’ordonné (E, ≺)
si (C, ≺) est totalement ordonné, c.-à-d. si ∀x, y ∈ C, on a x ≺ y ou y ≺ x.
Nous dirons qu’une partie P de l’ordonné (E, ≺) est majorée si elle
possède un majorant, c.-à-d. s’il existe b ∈ E tel que, ∀p ∈ P, p ≺ b.
Un inductif est un ensemble ordonné non vide dont toute chaîne est
majoreé.
Nous dirons qu’un élément m de E est un élément maximal de l’ordonné (E, ≺) si,
∀x ∈ E, (m ≺ x) ⇒ (m = x).
De façon analogue,nous dirons qu’un élément n de E est un élément
minimal de l’ordonné (E, ≺) si,
∀x ∈ E, (x ≺ n) ⇒ (n = x).
2.3.3. Exemples. (a) Si l’ordonné (E, ≺) possède un maximum, ce maximum est son unique élément maximal.
(b) Soit E un ensemble comprenant au moins deux éléments.
L’ordonné ((P(E)\E), ⊂) ne possède pas de maximum, les compléments
dans E des singletons de E sont ses éléments maximaux.
Les chaînes de l’ordonné ((P(E) \ E), ⊂) ne sont pas toujours majorées,
en général, l’ordonné ((P(E) \ E), ⊂) n’est pas un inductif.
Exemple. Soit E = N. Pour tout i ∈ N posons Pi = {x ∈ N | x < i}. On
a:
∅ = P0 ⊂ P1 ⊂ P2 ⊂ · · · ⊂ Pn ⊂ · · · , ∀i ∈ N, Pi 6= N.
2.3. L’AXIOME DU CHOIX ET LE LEMME DE ZORN
53
Cette chaîne {Pi }i∈N n’est pas majorée dans l’ordonné ((P(N) \ N), ⊂).
(c) Soit E un ensemble infini et soit Pf (E) l’ensemble des parties finies
de E. L’ordonné (Pf (E), ⊂) ne possède pas d’éléments maximaux et n’est
pas un inductif.
Voici un énoncé équivalent à l’axiome du choix dans la théorie classique
des ensembles, bien qu’il soit présenté comme un lemme.
2.3.4. Le lemme de Zorn. Tout inductif possède un élément maximal.
Désormais, nous adopterons l’axiome du choix, ainsi donc que le lemme
de Zorn. Ce lemme sera utilisé dans la section suivante pour démontrer que
tout espace vectoriel sur un corps K, commutatif ou non, de type fini ou
non, possède une base.
En voici une autre utilisation, tout aussi utile.
2.3.5. Exercice. Rappelons qu’un idéal propre de l’ anneau non nul A est
un idéal I de A distinct de A : I 6= A. Comme l’anneau A possède un neutre
pour sa multiplication, noté 1, on voit aisément qu’un idéal I de l’anneau
A est propre si et seulement si 1 ∈
/ I.
Rappelons encore qu’un idéal maximal de A est un idéal propre de A,
maximal parmi l’ensemble des idéaux propres de A.
Regardons maintenant l’ensemble ordonné par inclusion des idéaux
propres d’un anneau non nul A.
Démontrer : dans tout anneau non nul, la réunion d’une chaîne d’idéaux
propres est un idéal propre, et toute chaîne d’idéaux propres est majorée
par sa réunion.
En déduire :
Proposition : tout anneau non nul A possède un idéal maximal.
Couplons ceci avec un autre résultat de la théorie des anneaux.
Proposition : le quotient d’un anneau commutatif non nul A par un
idéal maximal est un corps.
On obtient : tout anneau commutatif non nul se surjecte sur un corps.
L’axiome du choix est aussi utile dans le calcul des cardinaux.
2.3.6. (a) Le cardinal d’un ensemble A, noté #A, est un objet mathématique mesurant la « taille » de A. Nous ne nous attachons pas ici à sa
définition précise. Notons simplement que, dans la cas où A est un ensemble
fini de n éléments, on écrit #A = n, signifiant par ceci que A est en bijection
avec l’ensemble {0, 1, · · · , n − 1}.
On dit que deux ensembles A et B ont même cardinal ou sont équipotents, et on écrit #A = #B ou A#B, s’il existe une bijection entre A et
B.
S’il existe une injection de A dans B, on écrit #A 6 #B.
S’il existe une injection de A dans B et si aucune de ces injections n’est
bijective, on écrit #A < #B.
54
CHAPITRE 2. MODULES LIBRES
(b) Nous avons le théorème de Cantor-Bernstein : s’il existe une
injection de l’ensemble A dans l’ensemble B et une injection de l’ensemble
B dans l’ensemble A, alors il existe une bijection de A dans B. Autrement
dit :
#A 6 #B
et
#B 6 #A
⇒
#A = #B.
(c) De plus, étant donné deux ensembles A et B, on peut prouver avec
l’axiome du choix qu’il existe une injection de A dans B ou qu’il existe une
injection une injection de B dans A :
#A 6 #B
ou
#B 6 #A.
(d) Désignons par N l’ensemble des nombres naturels. Comme par définition un ensemble E est fini si #E < #N, nous avons donc qu’un ensemble
E est infini si et seulement si #E > #N.
Si #E = #N, nous dirons que E est dénombrable.
L’ensemble des nombres entiers Z, l’ensemble des nombres rationnels
Q et les ensembles N, N × N, 2Z, sont dénombrables. L’ensemble R des
nombres réels n’est pas dénombrable.
(e) L’ argument diagonal de Cantor montre que, pour tout ensemble
E,
#E < #P(E).
(Esquissons l’argument. On remarque d’abord que la fonction
E → P(E) : e 7→ {e}
est injective.
Il nous suffit donc de montrer que toute fonction f : E → P(E) est
non surjective. Soit donc f : E → P(E) une fonction et soit P = {x ∈ E |
x∈
/ f (x)}. Supposons que cette partie P de E appartient à Im(f ), nous
avons alors un élément a ∈ E tel que P = f (a). Cet élément a appartient-il
à P = f (a) ? En tentant de répondre à cette question nous arrivons à la
contradiction : a ∈ f (a) ⇔ a ∈
/ f (a). Donc P ∈
/ Im(f ) et f n’est pas
surjective.)
(f ) On peut aussi montrer : #R = #P(N).
(g) Pour terminer, remarquons qu’ un ensemble infini est un ensemble
équipotent à une de ses parties propres.
2.3.7. Opérations sur les cardinaux. Soit A et B deux ensembles.
On définit le produit de deux cardinaux par : #A · #B = #(A × B).
2.3. L’AXIOME DU CHOIX ET LE LEMME DE ZORN
55
On définit l’exponentiation par : #A#B = #(AB ). Ici AB désigne l’ensemble des fonctions de l’ensemble B dans l’ensemble A.
On définit la somme de deux cardinaux par : #A + #B = #(A ∪dis B).
Ici, A ∪dis B = A × {0} ∪ B × {1} est la réunion disjointe de A et B, c.-à-d.
la réunion des deux copies disjointes A × {0} et B × {1} de A et B.
Remarquons que ces opérations sur les cardinaux coïncident avec les
opérations correspondantes sur les nombres naturels quand les ensembles
concernés A et B sont finis.
Rappelons encore que les fonctions caractéristiques des parties de E
fournissent une bijection P(E) ∼
→ 2E , ceci s’exprime maintenant par
#P(E) = 2#E .
2.3.8. Exercices. #A · (#B + #C) = #A · #B + #A · #C,
(#A#B )#C = #A(#B·#C ),
(#A0 6 #A) ⇒ (#A0 · #B 6 #A · #B
et #A0#B 6 #A#B )
et ainsi se suite.
Voici quelques règles concernant le calcul des cardinaux.
Proposition 2.3.9. Soit A et B deux ensembles dont l’un au moins est
infini. Alors
#A · #B = #A + #B = max(#A, #B).
La preuve de cette proposition est laissée au cours de théorie des ensembles. Signalons seulement ici que cette preuve utilise l’axiome du choix.
Corollaire 2.3.10. Soit A un ensemble infini et supposons que A =
S
i∈I Fi , où les Fi sont des parties finies de A.
Alors : #A 6 #I.
Démonstration. Comme l’ensemble A est infini, l’ensemble I est aussi infini
et #N 6 #I, d’où #I = #(I ×N). Il nous suffit donc de montrer l’existence
d’une injection de A dans I × N. Choisissons d’abord, pour tout élément
a ∈ A, un élément c(a) ∈ I tel que a ∈ Fc(a) . Choisissons ensuite, ∀i ∈ I,
une injection de Fi dans N. Ceci nous permet d’énumérer les éléments de
chacune des parties finies Fi de A. Soit maintenant dc(a) le numéro d’ordre
de a dans sa partie choisie Fc(a) , dc(a) est un nombre naturel. Avec un peu
de réflexion on voit que la fonction f : A → I × N : a 7→ (c(a), dc(a) ) est
injective.
—————————————————————————————
56
CHAPITRE 2. MODULES LIBRES
2.3.11. Exercice. Utiliser ce qui précède pour montrer :
#R = 2#N
#(RQ ) = #R
#(RR ) = 2#R .
2.3.12. Exercice. Voici une chaîne infinie
C = {{0}, {0, 2}, {0, 2, 4} · · · {0, 2, · · · , 2n}, · · · }
de parties finies de N. Cette chaîne n’est pas majorée dans l’ordonné par
inclusion des parties finies de N.
Désignons maintenant par Pf (N) l’ensemble des parties finies de
N et par Pcof (N) l’ensemble des parties cofinies de N, c.-à-d. l’ensemble S
des parties de N dont le complément est fini. Dans l’ordonné
(Pf (N) Pcof S
(N), ⊂), toutes les chaînes sont majorées (par exemple par
N), et (Pf (N) Pcof (N), ⊂) est un inductif. Mais l’ensemble des majorants
de notre chaîne C introduite ci-haut n’y possède
S pas de minimum, autrement dit C n’a pas de supremum dans (Pf (N) Pcof (N), ⊂).
(Rappelons que le supremum d’une partie P d’un ordonné, s’il existe,
est le minimum de l’ensemble des majorants de P .)
2.3.13. Exercice. L’ensemble ordonné par inclusion des parties finies ou
dénombrables de R ne possède pas d’éléments maximaux et n’est donc pas
un inductif, bien que la réunion d’une chaîne dénombrable de parties finies
ou dénombrables soit dénombrable.
(Prêtons attention à la définition : un inductif est un ordonné dont
toutes les chaînes, dénombrables ou non, sont majorées.)
Dans (P(R), ⊂), il est facile d’exhiber une chaîne non dénombrable de
parties dénombrables, en voici une. Pour tout r ∈ R, posons Sr = {x ∈
Q | x < r}. Les parties Sr , r ∈ R, sont dénombrables et forment une
chaîne. La réunion de cette chaîne est dénombrable mais nous savons avec
le lemme de Zorn qu’il existe une autre chaîne, non dénombrable, de parties
dénombrables de R dont la réunion n’est pas dénombrable, même si nous
ne pouvons en exhiber une.
2.3.14. Exercice. Nous dirons qu’un anneau commutatif est noethérien
si tout idéal I de A est de type fini (en tant que A-module).
Montrer que toute famille non vide d’idéaux d’un anneau commutatif
noethérien est maximalisée.
———————————————————————————–
2.4. AUTOUR DES BASES ET DE LEUR CARDINAL
57
2.4. Autour des bases et de leur cardinal
Occupons-nous d’abord des bases des modules libres qui ne sont pas de
type fini.
Théorème 2.4.1. Soit A un anneau, non nécessairement commutatif, et
soit M un A-module gauche ou droit libre ne possédant pas de partie génératrice finie.
Alors, pour toute partie génératrice G de M et toute base B de M , nous
avons :
#B 6 #G.
Démonstration. Les éléments de la partie génératrice G de M s’écrivent
de façon unique comme combinaisons linéaires, à coefficients dans A, d’un
nombre fini d’éléments de la base B. Nous pouvons donc associer à tout
élément g de G la partie finie Fg de B telle que g est combinaison linéaire,
à coefficients non
S nuls, des éléments de Fg .
Soit B 0 = g∈G Fg ⊂ B. Nous avons G ⊂ mod(B 0 ), d’où mod(G) ⊂
mod(B 0 ) et mod(B 0 ) = M car G est génératrice, ce qui signifie que la partie
B 0 est génératrice. Comme la base B est une partie génératrice minimale
2.1.10, nous en déduisons que B 0 = B.S
Mais la base B est infinie et B = g∈G Fg , nous concluons avec 2.3.10.
Corollaire 2.4.2. Soi A un anneau, non nécessairement commutatif. Si M
est un A-module gauche ou droit libre ne possédant pas de partie génératrice
finie, alors toutes les bases de M sont infinies et ont même cardinal.
Dans ce corollaire, l’hypothèse que M ne possède pas de parties génératrice finie ne peut être supprimée. Rappelons que nous avons eu en 2.2.21
un exemple de module libre de type fini sur un anneau non commutatif
avec une base de 1 élément et une autre base de 2 éléments.
Passons maintenant au cas des vectoriels. Nous voulons montrer que
tout vectoriel possède une base, autrement dit est libre. Commençons
d’abord par énoncer une proposition obtenue facilement en raffinant légèrement une des assertions en 2.1.13.
Proposition 2.4.3. Soit K un corps et soit G une partie génératrice du
K-vectoriel V (gauche ou droit).
Toute partie libre contenue dans G, maximale parmi les parties libres
contenues dans G, est une base de V .
Théorème 2.4.4. Soit K un corps.
Tout K-vectoriel V (gauche ou droit) possède une base.
Toute partie libre de V est contenue dans une base de V .
Toute partie génératrice de V contient une base de V .
Si G est une partie génératrice de V contenant une partie libre L de V ,
il existe une base B de V telle que L ⊂ B ⊂ G.
58
CHAPITRE 2. MODULES LIBRES
Démonstration. Soit G une partie génératrice de V et L une partie libre
telles que
L ⊂ G.
Notons qu’un tel couple existe, nous pouvons prendre G = V et pour L
une partie libre quelconque, ou L = ∅ et pour G une partie génératrice
quelconque.
Considérons l’ensemble L des parties libres L0 telles que L ⊂ L0 ⊂ G,
l’ensemble L est
Snon vide et
Sordonné par inclusion. Soit C une chaîne dans
L. Nous avons C ⊂
PG et C est encore une partie libre. En effet, si nous
S
avons une relation ni=1 ai vi = 0, où a1 , · · · , an ∈ K, v1 , · · · , vn ∈ C,
chacun des vi appartient à une des pièces Ci de la chaîne C. Mais comme C
est une chaîne, son sous-ensemble fini {C1 , · · · , Cn } admet un maximum,
disons Cm et notre relation est une relation entre des éléments de la partie
libre Cm ∈ C. Ceci implique que les coefficients a1 , · · · , an sont tous nuls.
Dans l’ordonné par inclusion L, toute chaîne est donc majorée par sa
réunion, L est un inductif et possède un élément maximal par 2.3.4. Un tel
élément maximal de L est une base de V par 2.4.3.
Les deux autres assertions s’obtiennent en appliquant ce qui précède au
couple L ⊂ V où L est une partie libre de V et au couple ∅ ⊂ G où G est
une partie génératrice de V .
Théorème 2.4.5. Soit K un corps et V un K-vectoriel (gauche ou droit).
Toutes les bases de V ont même cardinal, appelé dimension de V sur
K et noté dimK V .
Démonstration. Nous distinguons deux cas.
Premier cas : V possède une partie génératrice finie. Dans ce cas notre
assertion a été démontrée en 2.1.18 et au premier cours d’algèbre linéaire.
Deuxième cas : V ne possède pas de partie génératrice finie. Le résultat
est alors un cas particulier de 2.4.2.
Nous pouvons étendre le résultat précédent aux modules libres sur un
anneau commutatif non nul, en prenant avantage du fait que tout anneau
non nul possède un idéal maximal et du fait que le quotient d’un anneau
commutatif non nul par un idéal maximal est un corps, voir 2.3.5.
Théorème 2.4.6. Soit A un anneau commutatif et soit M un A-module
libre. Alors toutes les bases de M ont même cardinal, appelé le rang de M .
Démonstration. Si le A-module libre M ne possède pas de partie génératrice
finie, le résultat est encore un cas particulier de 2.4.2.
Si M possède une partie génératrice finie, c.-à-d. si M est de type
fini sur l’anneau commutatif A, nous savons avec 1.1.10 que toutes les
bases de M sont finies et nous montrons qu’elles ont toutes même nombre
d’éléments comme suit. Regardons M comme un A-module droit et soit
2.4. AUTOUR DES BASES ET DE LEUR CARDINAL
59
e = (e1 , · · · , en ) et u = (u1 , · · · , um ) deux bases de M , n, m ∈ N. Nous
avons une matrice C ∈ An×m et une matrice D ∈ Am×n telles que
u = eC
et
e = uD.
u = uDC
et
e = eCD
Il vient
et, comme e et u sont des bases, on a encore
DC = Im
et
CD = In
Prenons les images modulo un idéal maximal P de A (un tel idéal existe,
voir 2.3.5) et désignons les encore par (·). Nous obtenons une matrice C̄ ∈
Ān×m et une matrice D̄ ∈ Ām×n telles que D̄C̄ = Im et C̄ D̄ = In .
Comme Ā = A/P est un corps, voir à nouveau 2.3.5 on en déduit avec
2.1.18 que m = n .
2.4.7. Remarque On pourrait aussi prouver 2.4.6 en utilisant 2.1.20.
Terminons cette section avec quelques observations et exercices.
2.4.8. Observations. Dans cette série d’observations, les modules concernés sont tous des espaces vectoriels (à gauche ou à droite) sur un corps
K.
Nous rassemblons ici des faits d’usage courant déjà observés au premier cours d’algèbre linéaire pour les vectoriels de dimension finie, et qui
s’étendent sans peine aux vectoriels de dimension quelconque.
(a) Tout sous-vectoriel droit d’un K-vectoriel droit admet un complémentaire.
(b) Si V = V1 ⊕ V2 , alors dimK V = dimK V1 + dimK V2 .
(c) Si W1 et W2 sont deux sous-K-vectoriel du K vectoriel V , alors
dimK (W1 + W2 ) + dimK (W1 ∩ W2 ) = dimK W1 + dimK W2 .
(d) Soit f : V → W un homomorphisme de K-vectoriels droits.
Soit V1 un complémentaire de Ker(f ) dans V et W1 un complémentaire
de Im(f ) dans W .
Alors la restriction f 0 de f à V1 et Im(f ) est un isomorphisme.
V
f
= V1 ⊕ Ker(f ) −→ Im(f ) ⊕ W1 = W
↑
↑
V1
f0
−→
Im(f )
On en déduit : dimK V = dimK Ker(f ) + dimK Im(f ).
60
CHAPITRE 2. MODULES LIBRES
Si de plus V et W sont de dimension finie sur K, il existe une base
de V et une base de W µtelles que
¶ f soit représentée dans ces bases par
1r 0
une matrice de la forme
, où r = dimK (Im(f ), où 0 désigne une
0 0
matrice nulle de la bonne taille.
(e) Si W est un sous-K-vectoriel droit du K-vectoriel droit V ,
dimK (V ) = dimK (W ) + dimK (V /W ).
2.4.9. Regardons maintenant le cardinal d’un vectoriel vis-à-vis de sa dimension. Ici encore nous avons deux cas, le premier est aisé à voir, nous
signalons le second sans démonstration.
Soit K un corps et V un K-vectoriel droit (ou gauche).
Si dimK V est finie, on a #V = (#K)dimK V .
Si dimK V est infinie, on a #V = (#K) · dimK V .
—————————————————————————————2.4.10. Exercice. Le groupe additif des nombres réels a une structure
naturelle de vectoriel sur le corps des nombres rationnels, nous savons que
R en tant que Q-vectoriel possède une base, même si nous ne pouvons en
exhiber une. Mais nous pouvons « calculer » sa dimension.
Vérifier que dimQ R = #R.
2.4.11. Exercice. L’ensemble C des fonctions continues de R dans R est
naturellement muni d’une structure d’espace vectoriel réel.
Sachant que deux fonctions continues de R dans R sont égales si et
seulement si leurs restrictions à Q sont égales, rappelant que #(RQ ) = #R,
nous obtenons :
#C 6 #R.
D’autre part, pour tout nombre réel r, définissons une fonction continue
½
0
si x 6 r
fr : R → R : x 7→
.
x − r si x > r
On observe que les éléments fr du R-vectoriel C en forment une partie libre.
On en déduit :
#R 6 dimR C et finalement #R = dimR C = #C.
2.4.12. Exercice. Si V est un K-vectoriel de dimension infinie, alors V '
V ⊕V.
Chapitre 3
Étude d’un endomorphisme
3.0.13. Hypothèse de chapitre. Dans tout ce chapitre, V désigne un
espace vectoriel de dimension finie sur un corps commutatif K et a désigne
une transformation linéaire de V .
Un de nos buts est de trouver une base de V bien adaptée à cette transformation linéaire, c.à-d. une base de V dans laquelle notre transformation
linéaire est représentée par une matrice aussi simple que possible. Certes,
les matrices les plus simples à manier sont les matrices diagonales, mais il
n’est pas toujours possible de représenter une transformation linéaire par
une matrice diagonale, les transformations linéaires ne sont pas toutes diagonalisables, même si le corps K est algébriquement clos.
Nous choisirons la convention matricielle en usage pour les K-vectoriels
droits : si A est la matrice représentant la transformation linéaire a dans
la base e = (e1 , · · · , en ) de V , les colonnes de cette matrice seront les
coordonnées des images des ei dans cette base. Néanmoins, le corps étant
commutatif, nous pouvons écrire et nous écrirons souvent les coefficients,
c.à-d. les éléments de K, à gauche des vecteurs, des éléments de V .
3.1. Sous-espaces stables
Un peu de vocabulaire est toujours utile.
Définition 3.1.1. Un sous-espace V1 de V est dit stable ou invariant
par la transformation linéaire a de V si a(V ) ⊂ V . Dans ce cas on dit aussi
que V1 est a-stable ou a-invariant.
3.1.2. Exemples. Soit V un espace vectoriel sur le corps commutatif K
et a une transformation linéaire de V .
(i) Im(a) et ker(a) sont des sous-espaces a-stables de V .
(ii) Pour tout sous-espace V 0 de V , le sous espace engendré par V 0 et les
at (V 0 ), t ∈ N est a-stable et est le plus petit sous-espace a-stable engendré
par v.
(iii) Rappelons que V est muni d’une structure de K[a]-module de et
aussi de K[X]-module via a, 1.4.3. Observons qu’un sous-espace V1 de V est
61
62
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
a-stable si et seulement si il est un sous-K[a]-module de V si et seulement
si il est un sous-K[X]-module de V .
Lemme 3.1.3. Soit V1 un sous-espace du K-vectoriel V stable par sa transformation linéaire a.
(i) Alors a induit une transformation linéaire de l’espace vectoriel quotient V /V1 définie par
ā : V /V1 → V /V1 : v + V1 7→ a(v) + V1
et s’insrivant dans un diagramme commutatif
V


p1 y
a
−−−−→
V

p1
y
ā
V /V1 −−−−→ Ṽ /V1 )
où p1 désigne la projection naturelle V → V /V1 .
(ii) Si de plus V1 admet un complémentaire V2 stable par a, c.-à-d.
si V = V1 ⊕ V2 est la somme directe des deux sous-espaces stables V1 et
V2 , désignons par i2 l’injection naturelle de V2 dans V . Alors la fonction
p1
i2
composée V2 →
V → V /V1 est un isomorphisme et, via cet isomorphisme,
la transformation induite ā s’identifie à a2 , la restriction de a à V2 , ce qui
signifie que le diagramme suivant est commutatif
V2


i2 y
−−−2−→
a
V2

i
y2
V


p1 y
−−−−→
a
V

p1
y
ā
V /V1 −−−−→ V /V1 )
.
Démonstration. La preuve routinière est confiée au lecteur, qui peut s’il
le désire utiliser la propriété universelle des modules quotients appliquée à
l’application linéaire p ◦ a, où p désigne la projection naturelle V → V /V1 ,
ou qui peut fournir une preuve directe.
Voici une version coordonnée de 3.1.3.
Lemme 3.1.4. Dans la situation de 3.1.3, désignons par (.) les images
« modulo V1 », écrivons V = V /V1 et, pour tout v ∈ V , v̄ = v + V1 .
Soit u1 , · · · , ur , ur+1 , · · · un des vecteurs de V tels que les u1 , · · · , ur
forment une base de V1 et que les ur+1 , · · · , un forment une base de V /V1 .
Alors les vecteurs u1 , · · · , ur , ur+1 , · · · un forment une base de V et la
matrice de a dans cette base est de la forme
µ
¶
A1 T
A=
0 A2
3.2. TRIANGULATION
63
où A1 est la matrice de la restriction a1 de a à V1 dans la base u1 , · · · , ur
de V1 et ou A2 est la matrice de la transformation ā induite par a sur V
dans la base ur+1 , · · · , un de V .
De plus, la matrice T est nulle si et seulement si les vecteurs ur+1 , · · · un
engendrent un sous-espace V2 stable par a. Dans ce cas nous dirons que V2
est un complémentaire a-stable de V1 , V = V1 ⊕V2 est somme directe
de deux
¶
µ
A1 0
sous-espaces a-stables et nous dirons aussi que la matrice A =
0 A2
est somme directe des deux matrices A1 et A2 .
3.1.5. En général un sous-espace a-stable de V n’admet pas nécessairement
de complémentaire a-stable (un exemple est donné en 3.2.5).
3.2. Triangulation
Observation-Définition 3.2.1. Une matrice triangulaire supérieure
est une matrice carrée A = (aij ) ∈ K n×n dont les entrées sous la diagonale
principale sont nulles (aij = 0 pour i > j).
Les matrices triangulaires supérieures sont relativement simples à manier. Le lecteur est invité à écrire explicitement le produit
µ
¶ µ 0 0¶
a b
a b
·
0 1
0 1
à remarquer que le produit de deux matrices triangulaires supérieures est
encore une matrice triangulaire supérieure.
D’autre part, si la transformation linéaire a de V est représentée dans
une base e = (e1 , · · · , en ) par une matrice triangulaire supérieure A, alors
e1 est un vecteur propre de a de valeur propre a11 et les sous-espaces Vi =
mod(e1 , · · · , ei ) forment une chaîne de sous-espaces stables par a
{0} ⊂ V1 ⊂ V2 ⊂ · · · ⊂ Vn−1 ⊂ Vn = V.
De plus, le polynôme caractéristique ϕa de a est alors le polynôme
(X − a11 )(X − a22 ) · · · (X − ann ), et, comme les racines de ϕa sont les
valeurs propres de a (1.4.11), on observe que les entrées aii sur la diagonale
principale de A sont les valeurs propres de a.
Les matrices triangulaires inférieures se définissent de façon analogue et
ont les mêmes jolies propriétés.
Proposition 3.2.2. Supposons le corps K algébriquement clos.
Alors il existe une base de V dans laquelle la transformation linéaire a
de V est représentée par une matrice triangulaire supérieure.
Démonstration. La preuve se fait par induction sur la dimension de V :
soit n = dimK V .
Si n = 1 il n’y a rien à faire.
64
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
Supposons donc la proposition prouvée pour les transformations linéaires des espaces de dimension < n. Comme le corps K est algébriquement clos, le polynôme caractéristique de la transformation a possède une
racine λ ∈ K, cette racine est une valeur propre de a, 1.4.11, et nous avons
un vecteur non nul u1 ∈ V de valeur propre λ. Le sous espace V1 = Ku1 engendré par u1 est stable par a, nous avons donc une transformation linéaire
induite
ā : V /V1 → V /V1 : v + V1 7→ a(v) + V1 .
Comme en 3.1.4 désignons par (.) les image « modulo V1 ». Comme
dimK V̄ = n − 1 < n, nous avons avec l’hypothèse d’induction une base
(u2 , · · · , un ) de V̄ dans laquelle ā est représentée par une matrice triangulaire supérieure. Avec 3.1.4 on voit que les éléments u1 , u2 , · · · , un de
V forment une base de V dans laquelle la transformation linéaire a est
représentée par une matrice triangulaire supérieure.
Notons qu’on peut aussi représenter une transformation linéaire par une
une matrice triangulaire inférieure quand le corps commutatif est algébriquement clos, c’est une question de goût.
Mais quand le corps commutatif K n’est pas algébriquement clos, il
n’est plus toujours possible de représenter une transformation linéaire par
une matrice triangulaire supérieure ou inférieure, il existe même des transformations linéaires a dont le polynôme caractéristique ϕa n’a pas de racine
dans K. L’exemple le plus simple est celui d’une rotation autour de l’origine dans le plan réel coordonné, par exemple celui d’une transformation
linéaire
R2 représentée dans la base canonique par la maµ a du R-vectoriel
¶
0 −1
trice
, ici le polynôme caractéristique ϕa = X 2 + 1 n’a pas de
1 0
racine réelle.
Sur un corps commutatif quelconque K nous avons pourtant une classe
assez importante de transformations linéaires qui peuvent se représenter
par une matrice triangulaire supérieure.
Définition 3.2.3. Une transformation linéaire a d’un espace vectoriel V
sur le corps K est dite nilpotente s’il existe un nombre naturel t > 0 tel
que at = 0.
Proposition 3.2.4. Soit a une transformation linéaire nilpotente de l’espace vectoriel V de dimension finie n sur le corps commutatif K et soit
r = min{t ∈ N0 | at = 0}.
Alors 0 est une valeur propre de a et est la seule valeur propre de a.
De plus il existe une base de V dans laquelle a est représentée par une
matrice triangulaire supérieure avec des 0 sur la diagonale principale.
On a aussi ϕa = X n , an = 0 et r 6 dimK V .
Démonstration. Si λ est une valeur propre de a, soit 0 6= v ∈ V un vecteur
propre de valeur propre λ : a(v) = λv. Nous avons : 0 = ar (v) = λr v, d’où
λr = 0 car v 6= 0 et finalement λ = 0 car K est un corps.
3.2. TRIANGULATION
65
Montrons maintenant que 0 est une valeur propre de A. Comme r =
min{t ∈ N0 | at = 0} nous avons ar−1 (V ) 6= {0} et ∀v ∈ ar−1 (V ) nous
avons aussi a(v) = 0 = 0v, ceci montre que 0 est une valeur propre de a.
Soit maintenant V1 = Ku1 un sous-espace de V engendré par un vecteur
propre non nul de valeur propre 0. Comme dans la preuve de 3.2.2, on voit
que V1 est stable par a. On observe que la transformation linéaire ā de V /V1
est aussi nilpotente et on conclut par induction sur dimK V que a peut se
représenter dans une certaine base par une matrice triangulaire supérieure
avec des 0 sur la diagonale principale.
Ceci joint au théorème de Cayley-Hamilton classique 1.4.10 donne la
dernière assertion concernant ϕa et r.
——————————————————————————————–
Exercice 3.2.5. Soit a une transformation linéaire nilpotente non nulle du
K-vectoriel V .
Montrer que le sous-espace a-stable Ker(a) de V n’admet pas de complémentaire a-stable.
(Indication. ∀v ∈ V , v 6= 0, soit rv = min{t | at (v) = 0}. On a : rv > 0
et 0 6= a(rv −1) (v) ∈ Ker(a).
Exercice 3.2.6. Une transformation linéaire b d’un espace vectoriel V de
dimension finie sur un corps commutatif K est dite unipotente si elle est
de la forme b = 1V + a, où a est nilpotente.
(i) Observer que toute transformation linéaire unipotente b de V peut
se représenter, dans une certaine base de V , par une matrice triangulaire
supérieure avec des 1 sur la diagonale principale.
(ii) Montrer qu’une transformation linéaire b de V est unipotente si et
seulement si son polynôme caractéristique est de la forme ϕb = (X − 1)n ,
où n = dimK V .
Exercice 3.2.7. Soit f une transformation linéaire du vectoriel complexe
V représentée, dans une base (e1 , e2 , e3 ) de F par la matrice


3 0 3
F = 1 0 0 .
0 0 3
Déterminer une autre base de V dans laquelle la transformation f est représentée par une matrice triangulaire supérieure.
66
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
3.3. Polynôme minimal, polynôme caractéristique
3.3.1. Rappels. On a défini en 1.4.6 le polynôme caractéristique ϕA d’une
matrice carrée A ∈ K n×n et en 1.4.9 le polynôme caractéristique ϕa d’une
transformation linéaire a d’un espace vectoriel de dimension finie sur un
corps commutatif.
On a vu au cours d’algèbre linéaire et rappelé en 1.4.11 que les racines
de ϕa sont les valeurs propres de a.
Le théorème de Cayley-Hamilton 1.4.10 nous apprend que le polynôme
caractéristique ϕa d’une transformation linéaire a d’un vectoriel de dimension finie est un polynôme unitaire de K[X] s’annulant en a : ϕa (a) = 0.
Nous pouvons aussi regarder le polynôme unitaire de degré minimum
s’annulant en a.
Définition 3.3.2. Le polynôme minimal µa d’une transformation linéaire a d’un espace vectoriel V sur un corps commutatif K est le polynôme
unitaire de K[X] de plus petit degré s’annulant en f .
3.3.3. Une autre façon de voir le polynôme minimal.
Comme K est un corps commutatif, l’anneau K[X] des polynômes en
l’indéterminée X à coefficients dans K est un domaine principal. L’ensemble
des polynômes de K[X] s’annulant en a, c.à-d. le noyau de l’homomorphisme
ea : K[X] → EndK (V ) : P 7→ P (a)
introduit en 1.4.2, est donc un idéal principal, et cet idéal est engendré par
le polynôme unitaire de degré minimum s’annulant en a, autrement dit par
le polynôme minimal µa de a.
Nous obtenons un premier corollaire au théorème de Cayley-Hamilton
1.4.10.
Corollaire 3.3.4. Soit a une transformation linéaire d’un espace vectoriel
V de dimension finie sur un corps commutatif K.
Alors le polynôme minimal de a divise le polynôme caractéristique de a
dans l’anneau K[X] :
µa | ϕa .
Et
degré(µa ) 6 degré(ϕa ) = dimK V.
Mais la relation entre µa et ϕa est bien plus forte que celle indiquée par
ce premier corollaire. Pour le voir, commençons par une petite remarque
sur les déterminants et une petite définition matricielle.
Observation 3.3.5. Soit A une matrice carrée à entrées dans un anneau
commutatif B de la forme
¶
µ
A1 T
où A1 ∈ B r×r et A2 ∈ B s×s .
A=
0 A2
3.3. POLYNÔME MINIMAL, POLYNÔME CARACTÉRISTIQUE
67
Alors det(A) = det(A1 ) · det(A2 ) et ϕA = ϕA1 · ϕA2 .
(Indication. Procéder par induction sur r. Si r = 1 c’est aisé. Pour le
pas inductif, développer selon la première colonne.)
Lemme 3.3.6. Soit V1 un sous-K-espace vectoriel de V stable par sa transformation linéaire a. Désignons par a1 : V1 → V1 la restriction de a à V1
et désignons encore par
ā : V /V1 → V /V1 : v + V1 7→ a(v) + V1
la transformation linéaire induite par a. Alors
(i) µa1 | µa ,
(ii) ϕa = ϕa1 · ϕā ,
(iii) µā | µa .
(iv) Si de plus V1 admet un complémentaire V2 stable par a et si a2
désigne la restriction de a à V2 , alors µa = ppcm(µa1 , µa2 ).
De plus µā = µa2 et ϕā = ϕa2
Démonstration. Tout ceci est une conséquence directe des définitions et
observations précédentes (voir aussi 3.1.3 et 3.1.4).
Nous pouvons maintenant préciser les relations entre polynôme minimal
et polynôme caractéristique.
Proposition 3.3.7. Soit a une transformation linéaire d’un espace vectoriel V de dimension finie sur un corps commutatif K.
Alors les polynômes µa et ϕa ont mêmes racines dans K.
Si donc
ϕa = (X − λ1 )s1 · · · (X − λk )sk ,
où
1 6 si ,
1 6 i 6 k,
et où les λi sont les valeurs propres de a, distinctes deux-à-deux, alors
µa = (X − λ1 )r1 · · · (X − λk )rk ,
où
1 6 ri 6 si ,
1 6 i 6 k.
Démonstration. Comme µa | ϕa , toute racine de µa est une racine de ϕa .
Réciproquement, soit λ ∈ K une racine de ϕa , λ est donc une valeur
propre de a. Désignons par V(λ) l’espaces des vecteurs propres de V de
valeur propre λ :
V(λ) = {v ∈ V | a(v) = λv} = Ker(a − λ1V ).
On remarque que V(λ) est un sous-espace non nul de V stable par a, et que,
si a1 désigne la restriction de a à V(λ) , on a µa1 = (X − λ).
Comme µa1 | µa , 3.3.6(i), on en déduit que λ est une racine de µa .
68
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
3.3.8. Information. Lorsque le corps K n’est pas algébriquement clos,
il n’est pas toujours possible d’écrire le polynôme ϕa comme produit de
polynômes de degré 1. On peut cependant montrer que les polynômes µa et
ϕa ont encore mêmes facteurs irréductibles dans K[X] (une façon de faire
est de passer à une clôture algébrique de K).
3.3.9. Nous dirons que la transformation linéaire a de V est diagonalisable ou semi-simple si V admet une base de vecteurs propres de a, la
matrice représentant a dans une telle base est alors une matrice diagonale.
Nous dirons aussi qu’une matrice carrée A à entrées dans le corps commutatif K est diagonalisable si elle est la matrice d’une transformation
linéaire diagonalisable dans une base quelconque, autrement dit s’il existe
une matrice inversible D de même taille que A telle que la matrice D−1 AD
soit diagonale.
On peut aussi définir le polynôme minimal µA d’une matrice carrée
n × n A à entrées dans le corps commutatif K comme étant le polynôme de
plus petit degré s’annulant en A, ou, ce qui revient au même, comme étant
le polynôme minimal d’une transformation linéaire d’un K-vectoriel V de
dimension n représentée par la matrice A dans une certaine base de V .
Dans la pratique, pour calculer µa ou µA , où A est la matrice représentant la transformation linéaire a de V dans une base de V , on peut regarder
le plus petit nombre naturel t tel que At soit combinaison linéaire à coefficients dans K des Ai , 0 6 i < t : si At = a0 In + a1 A + · · · + at−1 At−1 , alors
µa = µA = X t − at−1 X t−1 − · · · − a0 . Rappelons 3.3.4, comme µa | ϕa , on
a aussi t = degré(µa ) 6 degré(ϕa ) = n = dim V ,
—————————————————————————————
Exercice 3.3.10. Soit V un espace vectoriel de dimension finie sur un
corps commutatif K et soit f une transformation linéaire de V .
Démontrer : f est inversible ⇔ µf (0) 6= 0 ⇔ ϕf (0) 6= 0.
Si f est inversible, alors ∃P ∈ K[X] tel que f −1 = P (f ).
Exercice 3.3.11. Déterminer le polynôme minimal, le polynôme caractéristique et les valeurs propres des matrices carrées complexes suivantes.
Ces matrices sont-elles diagonalisables ?
µ
¶
2 0
0 2

µ
¶
2 0
0 3

0 0 0
1 −2 0
0 1 3
µ
¶
2 0
1 2

0 2 0
2 0 0
0 0 2

µ
¶
2 0
1 3


1 0 0
0 1 0
2 0 1
3.3. POLYNÔME MINIMAL, POLYNÔME CARACTÉRISTIQUE

2
1

0
0
0
2
0
0
0
0
2
0
69

0
0

1
3
Exercice 3.3.12. Soit a une transformation linéaire nilpotente du Kvectoriel V de dimension n et soit r = min{t | at = 0}.
Alors µa = X r , r 6 n et ϕa = X n .
Exercice 3.3.13. Soit a une transformation linéaire du K-vectoriel V de
dimension finie, et soit 0 6= v ∈ V .
Soit V1 le sous-K-vectoriel de V engendré par la suite
v
a(v) a2 (v)
···
ai (v)
···
Observer que V1 est un sous-espace de V stable par a, que V1 en tant
que K[a]-module (cf. 1.4.3) est engendré par {v}. (C’est pourquoi on dit
souvent que V1 et le sous-espace a-cyclique engendré par v.)
La suite (v a(v) a2 (v) · · · ai (v) · · · ) est linéairement dépendante car V est de dimension finie, un des termes de cette suite est donc
combinaison linéaire des précédents : soit t le plus petit nombre naturel tel
que at (v) soit combinaison linéaire des précédents. Nous avons une relation
at (v) + ct−1 at−1 (v) + · · · + c1 a(v) + c0 v = 0,
où c0 , c1 , · · · , ct−1 ∈ K.
Formons le polynôme
P = X t + ct−1 X t−1 + · · · + c1 X + c0 ∈ K[X].
Décrire la matrice de la restriction a1 de a à V1 dans la base
(v, a(v), a2 (v), · · · , at−1 (v)) de V1 . La matrice ainsi obtenue est appelée matrice compagnon du polynôme du polynôme P .
Observer que P (a)(v) = 0, en déduire que P (a)(V1 ) = 0, autrement dit
que P (a1 ) = 0.
Observer encore que, pour tout polynôme Q ∈ K[X] de degré <t, on a
Q(a)(v) 6= 0.
En déduire : P = µa1 = ϕa1 .
Exercice 3.3.14. * Parmi les transformations linéaires diagonalisables
d’un K-espace vectoriel V , seule la transformation nulle est nilpotente.
Exercice 3.3.15. * Soit f et g deux transformations linéaires nilpotentes
d’un K-espace vectoriel V .
Si f ◦ g = g ◦ f , alors les transformations linéaires f + g et f ◦ g
de V sont également nilpotentes.
70
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
3.4. Composantes primaires
Nous nous proposons de raffiner 3.2.2. Comme dans la preuve du théorème de Cayley-Hamilton nous allons tirer avantage du fait que V a une
structure de K[a]-module, mieux du fait que V a une structure de K[X]module via l’homomorphisme d’évaluation ea : ∀P ∈ K[X], ∀v ∈ V, P · v =
P (a)(v) (voir 1.4.3).
Mais nous savons que l’anneau de polynômes K[X] en une indéterminée X est un domaine principal et nous savons aussi que AnnK[X] (V ) =
µa K[X], où µa est le polynôme minimal de la transformation a. Regardons
donc les modules sur les domaines principaux.
Proposition 3.4.1. Soit A un domaine principal et M un A-module non
nul tel que l’idéal AnnA (M ) soit non nul. Soit a un générateur de cet idéal
et soit encore a = bc une factorisation de a, où b et c sont des éléments de
A premiers entre eux. Écrivons
M(b) = {w ∈ M | bw = 0}
et
M(c) = {w ∈ M | cw = 0}.
Alors
(i) M(b) et M(c) sont des sous-A-modules de M ,
(ii) M = M(b) ⊕ M(c) ,
(iii) AnnA (M(b) ) = bA
et
AnnA (M(c) ) = cA.
Démonstration. (i) Ceci est assez clair : 0 est un élément de M(b) et de M(c)
et, ∀w1 , w2 ∈ M, ∀x ∈ A,
(bw1 = 0 et bw2 = 0) ⇒ (b(w1 ± w2 ) = 0 et b(xw1 ) = xbw1 = 0).
(ii) Comme b et c sont premiers entre eux nous pouvons écrire 1 = sb+tc
pour certains s, t ∈ A.
Si w ∈ M(b) ∩ M(c) on a w = 1w = (sb + tc)w = sbw + tcw = 0, ce qui
prouve M(b) ∩ M(c) = {0}.
D’autre part, pour tout w ∈ M on a w = bsw + ctw. Mais c(bsw) =
asw = 0 et b(ctw) = atw = 0, donc bsw ∈ M(c) et ctw ∈ M(b) . Ceci prouve
que M = M(b) + M(c) .
Le tout ensemble donne M = M(b) ⊕ M(c) .
(iii) Soit b0 , c0 ∈ A tels que
AnnA (M(b) ) = b0 A et
AnnA (M(c) ) = c0 A.
Nous avons : b ∈ b0 A et c ∈ c0 A, nous pouvons écrire
b = b0 u1
où u1 , u2 ∈ A.
c = c0 u2
3.4. COMPOSANTES PRIMAIRES
71
Comme M = M1 + M2 nous avons aussi b0 c0 ∈ AnnA (M ) = aA et nous
pouvons écrire
b0 c0 = au3
où u3 ∈ A. Il vient :
b0 c0 = au3 = bcu3 = b0 c0 u1 u2 u3
et u1 u2 u3 = 1
car b0 c0 6= 0. On en déduit que u1 , u2 , u3 sont inversibles dans A et que
bA = b0 A, cA = c0 A.
Rappelons que dans un domaine principal A tout élément non nul non
inversible peut s’écrire comme produit d’éléments irréductibles, et ce de
façon essentiellement unique. Tout idéal propre non nul de A est donc
engendré par un élément de la forme pr11 · · · prkk , où k ∈ N0 , où les pi sont
des éléments irréductibles non associés deux-à-deux et où les exposants ri
sont des nombres naturels strictement positifs.
Corollaire 3.4.2. Soit M un module non nul sur un domaine principal A
tel que l’idéal AnnA (M ) soit non nul. Cet idéal AnnA (M ) est engendré par
un élément de la forme
a = pr11 · · · prkk
où les pi sont des éléments irréductibles non associés deux-à-deux et où
r1 , · · · , rk > 0. Écrivons
Mi = {w ∈ M | pri i w = 0}
1 6 i 6 k.
Alors
(i) Les Mi sont des sous-A-modules de M ,
(ii) M =
Lk
i=1 Mi ,
(iii) AnnA (Mi ) = pri i A
1 6 i 6 k.
Démonstration. Les éléments pr11 et pr22 · · · prkk sont premiers entre eux, on
utilise la proposition pour obtenir une première décomposition M = M1 ⊕
M 0 , où AnnA (M 0 ) = pr22 · · · prkk A. Ensuite on itère le procédé, ce qui signifie
qu’on traite M 0 de la même façon que M .
Nous allons maintenant appliquer 3.4.2 à notre espace vectoriel V vu
comme K[X]-module via sa transformation linéaire a. Nous savons que
l’idéal AnnK[X] (V ) de K[X] est engendré par le polynôme minimal µa de
la transformation a, nous sommes amenés à regarder la factorisation de µa
en produit d’irréductibles et à regarder les sous-espaces correspondant aux
facteurs irréductibles de µa . Donnons-leur un nom.
72
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
Observation-Définition 3.4.3. Soit a une transformation linéaire de l’espace vectoriel V de dimension fine sur le corps commutatif K. Supposons
que
µa = (X − λ1 )r1 · · · (X − λk )rk ,
où ri > 0 et où les λ1 , · · · , λk sont des éléments de K distincts deux-à-deux.
On sait que les λi sont les valeurs propres de a.
La composante primaire de a correspondant à la valeur propre λi est
définie par
S(λi ) = Ker(a − λi 1V )ri .
Désignons encore par V(λi ) l’espace des vecteurs propres de a. Notons que
V(λi ) = Ker(a − λi 1V ) ⊂ S(λi ) .
Théorème 3.4.4. Soit encore a une transformation linéaire de l’espace
vectoriel V de dimension finie sur le corps commutatif K. Supposons que
µa = (X − λ1 )r1 · · · (X − λk )rk ,
où ri > 0 et où les λ1 , · · · , λk sont des éléments de K distincts deux-à-deux.
Alors
(i) Les composantes primaires S(λi ) de a sont des sous-K-vectoriels de
V stables par a,
(ii) V =
Lk
i=1 S(λi ) ,
(iii) Le polynôme minimal de la restriction ai de a à S(λi ) est µai =
(X − λi )ri .
Démonstration. La transformation linéaire a de V munit V d’une structure
de K[X]-module (voir 1.4.3) : Xv = a(v). Nous savons que AnnK[X] (V ) =
µa K[X] et nous remarquons que les sous-K[X]-modules de V sont exactement les sous-K-vectoriels de V stables par a. Tout ceci est donc un cas
particulier de 3.4.2.
Corollaire 3.4.5. Supposons le corps K algébriquement clos.
Toute transformation linéaire a de V peut s’écrire sous la forme
a = aS + aN
où aS est une transformation diagonalisable de V , où aN est une transformation nilpotente et où aS ◦ aN = aN ◦ aS .
Démonstration. Comme K est algébriquement clos le polynôme minimal
de a est de la forme
µa = (X − λ1 )r1 · · · (X − λk )rk ,
3.4. COMPOSANTES PRIMAIRES
73
où ri > 0 et où les λ1 , · · · , λk sont les valeurs propres de a, distinctes deuxà-deux. Avec 3.4.4 nous savons que V est la somme directe des ses composantes primaires S(λi ) pour a, et que celles-ci sont a-stables. Il nous suffit
donc d’écrire chacune des restrictions ai de a à S(λi ) comme somme d’une
transformation linéaire diagonalisable et d’une transformation linéaire nilpotente qui commutent. Ceci nous ramène au cas d’une transformation
linéaire a dont le polynôme minimal à la forme µa = (X − λ)r , r > 0. Dans
ce cas la transformation linéaire a − λ1V est nilpotente, la transformation
linéaire λ1V est une homothétie, donc une transformation linéaire diagonalisable commutant avec toutes les transformations linéaires de V , et il suffit
de prendre aN = a − λ1V et aS = λ1V .
3.4.6. Remarque. Le corollaire 3.4.2 a aussi des retombées intéressantes
concernant les groupes commutatifs finis.
Soit (M, +) un groupe commutatif fini non nul. On sait que M a une
structure naturelle de Z-module, que AnnZ (M ) est un idéal propre non nul
de Z puisque M est fini. Or Z est un domaine principal. On obtient que
M est somme directe de Z-modules annulés chacun par une puissance d’un
nombre premier. Notons encore qu’un Z-module annulé par une puissance
du nombre premier p est un groupe commutatif dont l’ordre de tous les
éléments est une puissance de p.
(En général on définit un p-groupe comme étant un groupe, non nécessairement commutatif, dont tous les éléments sont d’ordre une puissance
du nombre premier p.)
On pourrait en dire davantage concernant la structure des groupes commutatifs finis, des groupes commutatifs de type fini ou des modules de type
fini sur un domaine principal, mais ce que nous avons rassemblé ici suffit
pour nos besoins du moment.
————————————————————————————
Exercice 3.4.7. Calculer les composantes primaires des transformations
linéaires d’un vectoriel complexe V de base (e1 , · · · , en ) décrites par les
matrices en 3.3.11, en donner une base.
Pour chacune de ces transformations, calculer la nouvelle matrice la
représentant dans une base de V adaptée à la décomposition de V en somme
directe de ses composantes primaires.
Exercice 3.4.8. * Soit g une transformation linéaire d’un espace vectoriel
V de dimension finie sur le corps commutatif K.
(i) La transformation linéaire g est diagonalisable si et seulement si son
polynôme minimal est de la forme
µa = (X − λ1 ) · · · (X − λk )
où les λi sont des éléments de K distincts deux-à-deux.
(ii) Si g est diagonalisable et si V1 est un sous-espace g-stable de V ,
alors la restriction g1 de g à V1 est aussi diagonalisable.
74
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
Exercice 3.4.9. * Soit f, g deux transformations linéaires diagonalisables
du K-vectoriel V de dimension finie et supposons que f ◦ g = g ◦ f .
Alors il existe une base de V dans laquelle les transformations f et g
sont toutes deux représentées par une matrice diagonale.
En déduire que les transformations linéaires f + g et f ◦ g sont
également diagonalisables.
(Suggestion : regarder d’abord les exercices 1.4.12 et 1.4.13 et utiliser
3.4.8.)
3.5. UN THÉORÈME DE JORDAN-CHEVALLEY
75
3.5. Un théorème de Jordan-Chevalley
Nous nous proposons de raffiner le corollaire 3.4.5. Commençons par un
rappel.
Proposition 3.5.1. Soit K un corps commutatif et soit P, Q ∈ K[X] deux
polynômes premiers entre eux. Alors l’homomorphisme naturel
g : K[X] → (K[X]/P K[X])×(K[X]/QK[X]) : T 7→ (T +P K[X], T +QK[X])
est surjectif et induit un isomorphisme d’anneaux
K[X]/P QK[X] ∼
→ (K[X]/P K[X]) × (K[X]/QK[X])
Démonstration. Comme P et Q sont premiers entre eux nous avons
ker(g) = P QK[X] et Im(g) ' K[X]/ker(g) = K[X]/P QK[X]. Im(g) est
donc un espace vectoriel sur K de dimension deg(P Q) = deg(P ) + deg(Q).
Mais Im(g) est un sous-K-vectoriel de (K[X]/P K[X]) ×
(K[X]/QK[X]). En tant qu’espaces vectoriels nous avons que
(K[X]/P K[X]) × (K[X]/QK[X]) = (K[X]/P K[X]) ⊕ (K[X]/QK[X]) est
aussi un espace vectoriel sur K de dimension deg(P ) + deg(Q). On conclut
avec un argument de dimension :
Im(g) = (K[X]/P K[X]) × (K[X]/QK[X]).
Corollaire 3.5.2. Soit encore K un corps commutatif et soit P1 , · · · , Pk ∈
K[X] des polynômes premiers entre eux deux à deux. Alors
(i) l’homomorphisme naturel
g : K[X] →
k
Y
K[X]/(Pi )K[X] : T 7→ (T + Pi K[X])
i=1
est surjectif et induit un isomorphisme d’anneaux
K[X]/(P1 · · · Pk )K[X] ∼
→
k
Y
K[X]/Pi K[X]
i=1
(ii) quels que soient les polynômes T1 , · · · , Tk ∈ K[X], il existe un polynôme T ∈ K[X] tel que
T − Ti ∈ Pi K[X]
∀i
1 6 i 6 k.
Démonstration. La première assertion se montre par induction sur le
nombre k de polynômes concernés et la seconde assertion découle de la
première : il suffit de prendre pour T un polynôme dont l’image par g est
(T1 + P1 K[X], · · · , Tk + Pk K[X]).
76
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
Théorème 3.5.3. (Jordan-Chevalley) Si le corps K est algébriquement
clos, toute transformation linéaire a d’un espace vectoriel V de dimension
finie sur K s’écrit de façon unique sous la forme
a = aS + aN
où aS est diagonalisable, où aN est nilpotente et où aS ◦ aN = aN ◦ aS .
De plus, il existe des polynômes P, Q ∈ K[X] tels que aS = P (a) et
aN = Q(a).
Démonstration. Soit aS et aN les transformations obtenues en 3.4.5 dont
nous reprenons les notations.
Montrons d’abord l’existence d’un polynôme P ∈ K[X] tel que aS =
P (a) (le polynôme Q = X − P sera alors tel que Q(a) = aN ). En fait il
suffit de prendre avec 3.5.2 un polynôme P tel que
P − λi ∈ (X − λi )ri K[X]
∀i, 1 6 i 6 k.
Car les composantes primaires S(λi ) sont stables par a et donc aussi par
P (a) et pour un tel P nous avons avec 3.4.4 que la restriction de P (a) à
S(λi ) est l’homothétie de rapport λi . Comme V est la somme directe de ses
composantes primaires on en déduit P (a) = aS .
Supposons maintenant qu’on puisse encore écrire a = a0S + a0N , où a0S
est diagonalisable, a0N nilpotente et où a0S ◦ a0N = a0N ◦ a0S . Alors les transformations a0S et a0N , commutant entre elles, commutent avec leur somme
a et donc aussi avec P (a) = aS et avec aN . Et nous avons
aS − a0S = a0N − aN .
Mais aS − a0S est diagonalisable, 3.4.9, et a0N − aN est nilpotente, 3.3.15.
Avec 3.3.14 on obtient aS − a0S = 0 = a0N − aN .
3.6. FORME NORMALE DE JORDAN
77
3.6. Forme normale de Jordan
Définition 3.6.1. Une matrice élémentaire de Jordan est une matrice
carrée dont toutes les entrées sur la diagonale principale sont égales, dont
les entrées sur la diagonale située juste au-dessus de la diagonale principale
sont toutes égales à 1 et dont toutes les autres entrées sont nulles.
Une matrice de Jordan est une matrice carrée somme directe de
matrices élémentaires de Jordan
Voici quelques

0
0

0
0
matrices élémentaires de Jordan de taille 4, 3, 2, 1 :



1 0 0
µ
¶
2 1 0

2 1
0 1 0 

0 2 1
(2)
0 2
0 0 1
0 0 2
0 0 0
Celle de gauche est nilpotente, de polynôme minimal X 4 .
3.6.2. Observations. Si la transformation linéaire a de V est représentée,
dans une base (e1 , · · · , en ) de V , par une matrice élémentaire de Jordan
dont les entrées sur la diagonale principale sont égales à λ, on a ϕa =
(X − λ)n . On a aussi
(a − λ1V )(ei ) = ei−1
pour 1 < i 6 n et (a − λ1V )(e1 ) = 0.
On a donc
(a − λ1V )i (en ) = en−i
pour 1 6 i < n
et (a − λ1V )n (en ) = 0.
On en déduit que µa = ϕa = (X − λ)n , que a n’est pas diagonalisable si
n > 1.
Théorème 3.6.3. Supposons le corps K algébriquement clos et soit encore
V un K-vectoriel de dimension finie.
Pour toute transformation linéaire a de V il existe une base de V dans
laquelle la transformation a est représentée par une matrice de Jordan.
Une telle base sera appelée base de Jordan pour a.
Démonstration. Avec 3.4.4 on se ramène au cas où la transformation a
admet une seule composante primaire, où le polynôme minimal de a est de
la forme µa = (X − λ)r , r 6 n = dimK V .
Comme en 3.4.5 on écrit alors a = λIV + (a − λIV ). La transformation
(a − λIV ) est nilpotente, et, comme l’homothétie λIV est représentée par
la matrice diagonale λIn dans n’importe quelle base de V , il nous suffit de
trouver une base de Jordan pour (a − λIV ). On est ramené au cas d’une
transformation nilpotente.
Soit donc a une transformation linéaire nilpotente de V de polynôme
minimal µa = X r , r 6 dimK V . Procédons par étapes.
78
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
(i) On a {0} 6= ar−1 (V ) ⊂ Ker(a), prenons un vecteur non nul u1 ∈
). Choisissons un vecteur e1 ∈ V tel que u1 = ar−1 (e1 ) et regardons
la suite de vecteurs
ar−1 (V
u1 = ar−1 (e1 ) u2 = ar−2 (e1 )
···
ur−1 = a(e1 ) ur = e1 .
Pour cette suite on a
ur 7→ ur−1 7→ · · · 7→ u2 7→ u1 7→ 0.
Ces vecteurs engendrent donc un sous-espace V1 de V stable par a, on
montre aisément qu’ils sont linéairement indépendants et forment donc une
base de V1 . On remarque ensuite que la matrice de la restriction a1 de a à
V1 dans cette base u ainsi numérotée est une matrice élémentaire de Jordan.
(ii) Prenons maintenant une base v1 , · · · , vk de ar−1 (V ) (avec v1 = u1 ).
Choisissons pour chacun des vi un vecteur ei tel que vi = ar−1 (ei ). On
montre encore aisément que les vecteurs
ar−1 (e1 ) ar−2 (e1 )
ar−1 (e2 ) ar−2 (e2 )
·
·
r−1
r−2
a (ek ) a (ek )
···
···
···
···
a(e1 ) e1
a(e2 ) e2
·
·
a(ek ) ek
sont linéairement indépendants. Comme en (i) on remarque aussi que chacune des suites ar−1 (ei ), ar−2 (ei ), · · · , a(ei ), ei engendre un sous-espace Vi
de V stable par a. Nous obtenons un sous-espace
V 0 = V1 ⊕ V2 ⊕ · · · ⊕ Vk
de V stable par a et la restriction de a à ce sous-espace est représentée par
une matrice de Jordan dans la base de V 0 exhibée ci-haut et convenablement
numérotée.
Notons que ar−1 (V ) = ar−1 (V 0 ) par construction, nous dirons que
ar−1 (V ) est servi par V 0 .
(iii) Occupons-nous maintenant de ar−2 (V ).
Si ar−2 (V ) ⊂ V 0 nous passons à l’étape suivante.
Sinon, écrivons
ar−2 (V ) = (ar−2 (V ) ∩ V 0 ) ⊕ W
et prenons une base w1 , · · · , wh de W .
Nous avons a(wi ) ∈ ar−1 (V ) = ar−1 (V 0 ) et nous pouvons choisir un
vecteur wi00 ∈ ar−2 (V 0 ) tel que a(wi ) = a(wi00 ).
Posons maintenant wi0 = wi − wi00 , on a encore wi0 ∈ ar−2 (V ) et on a
aussi a(wi0 ) = 0. On observe que les vecteurs w10 , · · · , wh0 sont linéairement
indépendants et engendrent un sous-espace W 0 ⊂ ar−2 (V ) pour lequel on
a encore
ar−2 (V ) = (ar−2 (V ) ∩ V 0 ) ⊕ W 0 .
3.6. FORME NORMALE DE JORDAN
79
Nous traitons maintenant nos wi0 comme nous avons traité u1 à la première
étape, nous écrivons wi0 = ar−2 (e0 i), nous remarquons que les éléments
at (e0i ) 1 6 i 6 h 0 6 t 6 r − 2
sont linéairement indépendants et que chacune des suites
ar−2 (e0i )
···
a(e0i ) e0i
engendre un sous-espace Ti de V stable par a.
Regardons maintenant le sous-espace T 0 = T1 ⊕ · · · ⊕ Th . T 0 est stable
par a. Par construction nous avons ar−2 (T 0 ) = W 0 et a(W 0 ) = {0}. Nous
avons aussi T 0 ∩ V 0 = {0}.
Nous obtenons donc un sous-espace T 0 ⊕ V 0 de V stable par a tel que la
restriction de a à ce sous-espace est représentée par une matrice de Jordan.
Par construction nous avons aussi ar−2 (V ) ⊂ T 0 ⊕ V 0 , ar−2 (V ) est servi.
(iv) On traite successivement ar−3 (V ), · · · , a(V ) et V de la même manière et on obtient finalement une décomposition de V en somme directe de
sous-espaces stables par a pour lesquels la restriction de a à ces sous-espaces
peut se représenter par une matrice de Jordan.
Cette preuve descriptive est sans doute un peu longue. Après la première
étape on aurait pu procéder par induction sur dimK V . Pour cela il aurait
fallu montrer que le sous-espace V1 de la première étape admet un sousespace complémentaire stable par a. Mais ceci aussi est assez délicat, pour
la simple raison que la plupart des sous-espaces de V stables par a n’ont
pas de complémentaires stables par a.
————————————————————————————
Exercice 3.6.4. Soit f une transformation linéaire d’un vectoriel complexe
droit V dont la matrice, dans une base e, est

1
 1
F =
 1
0
1
1
1
0

1 1
1 −1 
.
1 0 
0 0
On demande :
(i) une base de Ker(f ),
(ii) déterminer le polynôme minimal µf et le polynôme caractéristique
ϕf de f ,
(iii) calculer les composantes primaires de f ,
(iv) calculer une base de Jordan et la forme normale de Jordan de f .
80
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
Exercice 3.6.5. Même exercice pour la transformation linéaire d’un vectoriel complexe droit V dont la matrice, dans une base e, est


0 0 0 0
 4 0 1 0 

G=
 0 0 1 1 .
0 0 1 1
Exercice 3.6.6. Soit f une transformation linéaire d’un vectoriel complexe
droit V de base e = (e1 , e2 , · · · , e7 ) décrite par
e1 7→ e2 7→ e3 7→ 0
e4 7→ e5 7→ e3
e6 7→ e7 7→ 0
e8 7→ e7
Déterminer une base de Jordan et la forme normale de Jordan de f .
Exercice 3.6.7. Quelles sont les formes normales de Jordan possibles pour
une matrice carrée complexe A telle que
(i) µA = (X − 1)2 (X − 2) et
ϕA = (X − 1)4 (X − 2)2 ,
(ii) ϕA = X 4 (X − 1),
(iii) µA = (X − 1)3 (X − 2) et
A ∈ C7×7 .
Exercice 3.6.8. Soit f une transformation linéaire d’un espace vectoriel
complexe de dimension finie et soit
ϕf = (X − λ1 )s1 · · · (X − λk )sk
la factorisation de son polynôme caractéristique, où les λi sont des éléments
de K distincts deux-à-deux.
Que peut-on dire de dim S(λi ) ?
Exercice 3.6.9. Toute permutation des vecteurs de base e1 , e2 , · · · en d’un
espace vectoriel complexe de dimension n définit un transformation linéaire
bijective de ce vectoriel.
(i) Quel est le polynôme minimal des transformations linéaires correspondant aux permutations
p = (e1 , e2 , e3 ) ◦ (e4 , e5 ) ◦ (e6 ),
q = (e1 , e2 , e3 , e4 ) ◦ (e5 , e6 ).
3.6. FORME NORMALE DE JORDAN
81
(ii) Montrer que les transformations linéaires correspondant à une permutation des vecteurs de base d’un vectoriel complexe de dimension finie
sont toutes diagonalisables et que leurs valeurs propres sont des complexes
de modules 1.
(Nota bene : vues comme transformations linéaires d’un espace vectoriel
réel, ces transformations sont en fait des transformations orthogonales.)
82
CHAPITRE 3. ÉTUDE D’UN ENDOMORPHISME
Chapitre 4
Dualité
4.1.
Point de vue
 
x
Dans l’espace réel coordonné R3×1 , l’ensemble des points y  tels que
z
2x + 3y − 4z = 0 forme
 un plan passant par l’origine. Réécrivons son
¡
¢ x
équation : 2 3 −4 y  = 0. Ce plan apparaît comme le noyau d’un
z
homomorphisme de R-modules droits
 
 
x
¡
¢ x
3×1


R
→ R : y 7→ 2 3 −4 y  .
z
z
Une forme linéaire sur R3×1 est un homomorphisme de R-modules
droits R3×1 → R. Ces formes linéaires forment un vectoriel réel, appelé
∗
dual de R3×1 et noté (R3×1 ) . Cependant, comme l’ensemble de ces formes
linéaires est naturellement en bijection avec R1×3 , nous le verrons plutôt comme un R-vectoriel gauche, alors que R3×1 est plutôt vu comme
R-vectoriel droit.
Un sous-espace W de Rn×1 peut se décrire de deux façons. Nous pouvons donner une partie génératrice de W , dont nous pouvons même extraire
une base de W . Mais nous pouvons aussi décrire ce même sous-espace W
par équations (linéaires homogènes), ce qui revient à le voir comme intersection d’hyperplans, c.-à-d. comme intersection de noyaux de formes
linéaires non nulles. Ceci nous amène à regarder l’ensemble des formes linéaires sur Rn×1 qui s’annulent sur W , nous désignerons cet ensemble par
W 0 et l’appellerons annulateur ou orthodual de W . Nous verrons que W
est entièrement déterminé par W 0 , nous remarquons que W 0 est un sous∗
vectoriel de (Rn×1 ) . Une base de W 0 fournira donc un système minimal
d’équations décrivant W .
(Le passage d’une description du sous-vectoriel W de Rn×1 à l’autre se
fera par la résolution d’un système d’équations linéaires.)
83
84
CHAPITRE 4. DUALITÉ
Ce point de vue sera particulièrement utile pour prendre l’image inverse
d’un sous vectoriel W de Rn×1 par une application linéaire
f : Rm×1 → Rn×1 .
En effet, si W est décrit par équations, si
W = {y ∈ Rn×1 | s1 (y) = s2 (y) = · · · sk (y) = 0},
alors l’image inverse de W par f , c.-à-d. le sous-vectoriel f −1 (W ) de Rm×1
défini par f −1 (W ) = {x ∈ Rm×1 | f (x) ∈ W } sera aussi décrit par équations, nous aurons
f −1 (W ) = {x ∈ Rm×1 | (s1 ◦ f )(x) = (s2 ◦ f )(x) = · · · (sk ◦ f )(x) = 0}.
Nous voyons ici apparaître la duale de l’application linéaire f , c.-à-d ; l’application f ∗ définie par :
f ∗ : (Rn×1 )∗ → (Rm×1 )∗ : s 7→ s ◦ f.
On voit sans trop de peine que f ∗ est une application linéaire de R-vectoriels
(gauches).
Tout ceci mérite d’être regardé de près et peut se généraliser à des vectoriels droits ou gauches, finiment engendrés ou non, sur un corps quelconque,
éventuellement non commutatif, et même à des A-modules.
Notons aussi que la tactique décrite ci-haut peut aussi s’utiliser pour
identifier l’image inverse par une transformation non linéaire d’une partie
de Rn décrite par équations.
4.1.1. Exercice. L’inversion est une transformation du plan réel épointé
R2 \ {(0, 0} décrite par
f (x, y) = (
x2
∗
où s1 , s2 , · · · , sk ∈ (Rn×1 ) ,
x
y
, 2
).
2
+ y x + y2
Remarquer que f ◦ f est la transformation identique du plan réel épointé,
que f = f −1 .
Quelle est l’image par f d’une droite d’équation ax + by + c = 0 ?
4.2. Modules et homomorphismes duaux
4.2.1. Le dual d’un A-module droit.
Une forme A-linéaire sur un A-module droit M est un endomorphisme
de A-modules droits s : M → A.
Nous pouvons additionner deux formes A-linéaires sur M et nous savons déjà que l’ensemble de ces formes A-linéaires sur M forme un groupe
commutatif (HomA (M, A), +), cf.1.3.1(a). Nous allons voir que ce groupe
HomA (M, A) est naturellement muni d’une structure de A-module gauche.
4.2. MODULES ET HOMOMORPHISMES DUAUX
85
Remarquons d’abord que les formes A-linéaires sur le A-module droit
A sont les fonctions
(a·)A : A → A : x 7→ ax,
où a ∈ A.
(En effet, soit f est une forme A-linéaire sur le A-module droit A. Si
f (1) = a, alors, ∀x ∈ A, f (x) = f (1x) = f (1)x = ax, donc f = (a·)A .
Par ailleurs, la distributivité dans A de la multiplication par rapport à
l’addition et l’associativité de la multiplication montre que les fonctions
(a·)A : A → A : x 7→ ax, où a ∈ A sont des formes linéaires sur le
A-module droit A.)
Nous pouvons composer une forme A-linéaire s sur M avec une de ces
fonctions (a·)A , nous obtenons une nouvelle forme A-linéaire (a·)A ◦ s sur
M :
(a·)A
s
M −→ A −→ A.
Nous définissons alors : as = (a·)A ◦ s, de sorte que, ∀w ∈ M , (as)(w) =
a · s(w). Nous avons : as ∈ HomA (M, A).
Nous remarquons ensuite que la fonction
A × HomA (M, A) → HomA (M, A) : (a, s) 7→ as
munit le groupe additif HomA (M, A) d’une structure de A-module gauche.
(La double distributivité, qui se vérifie aisément, est un cas particulier de
1.3.1(a). L’associativité mixte découle de l’associativité de la multiplication
dans A : ∀a, b ∈ A, (a·)A ◦ (b·)A = ((ab)·)A .)
Le groupe HomA (M, A) avec cette structure de A-module gauche sera
appelé le dual (classique) du A-module droit M et sera noté M ∗ .
4.2.2. Exemples. (a) Soit A un anneau. L’isomorphisme de groupes additifs A1×n ∼
→ HomA (An×1 , A) obtenu en 2.2.2(a) est maintenant un isomorphisme de A-modules gauches. Via cet isomorphisme, le dual du A-module
droit An×1 s’identifie naturellement au A-module gauche A1×n . Après cette
identification, nous écrirons donc
∗
(An×1 ) = A1×n .
En particulier, le dual du A-module droit A s’identifie naturellement au
A-module gauche A.
(b) Soit M un A-module droit libre de base B. Comme toute fonction
de B dans A se prolonge de façon unique en une A-forme linéaire sur M ,
nous voyons que M ∗ est naturellement isomorphe à M B avec sa structure
de A-module gauche décrite en 1.1.6.
M∗
(c) Si les deux A-modules droits M et N sont isomorphes, leurs duaux
et N ∗ sont aussi isomorphes.
86
CHAPITRE 4. DUALITÉ
Proposition 4.2.3. Si K est un corps et si V est un K-vectoriel droit de
dimension finie, alors dimK V = dimK V ∗ .
Démonstration. Si dimK V = n, alors V ' K n×1 et V ∗ ' K 1×n , d’où
dimK V ∗ = n.
4.2.4. Exercices. (a) Le dual du Z-module droit Z6 est nul.
(b) Les Z-modules Z et Z⊕Z6 ne sont pas isomorphes, mais leurs duaux
sont isomorphes.
(c) Soit M1 , M2 deux A-modules droits. On a : (M1 ⊕M2 )∗ ' M1∗ ⊕M2∗ .
4.2.5. Homomorphisme dual.
Voici un homomorphisme de A-modules droits :
f : M → N.
Pour tout s ∈ N ∗ , la fonction composée s◦f est encore un homomorphisme
de A-modules droits : s ◦ f ∈ M ∗ .
s◦f
M
f
/N
2A
~>
~
~
~~s
~~
∗
Nous écrirons encore s ◦ f = sf .
Nous obtenons une fonction
∗
f ∗ : N ∗ → M ∗ : s 7→ s ◦ f = sf .
Nous savons déjà que f ∗ est un homomorphisme de groupes additifs, voir
1.3.1(a), et nous observons que de plus f ∗ est un homomorphisme de Amodules gauches.
(En effet, l’associativité de la composition des fonctions et nos définitions donnent : (as) ◦ f = (a·)A ◦ s ◦ f = a(s ◦ f ).)
Cet homomorphisme f ∗ de A-modules gauches est appelé l’ homomorphisme dual de f .
4.2.6. Premières propriétés de la dualité.
(i) Le dual de l’application identique d’un A-module droit M est l’application identique de M ∗ .
(ii) Voici maintenant une suite d’homomorphismes de A-modules droits
f
g
M −→ N −→ P
4.2. MODULES ET HOMOMORPHISMES DUAUX
87
et leurs duaux, qui sont des homomorphismes de A-modules gauches
f∗
g∗
M ∗ ←− N ∗ ←− P ∗ .
Nous avons : (g◦f )∗ = f ∗ ◦g ∗ = g ∗ ·f ∗ ,
.
car, ∀s ∈ P ∗ ,
s◦(g◦f ) = (s◦g)◦f
(iii) Si f est un isomorphisme de A-modules droits, alors f ∗ est un
isomorphisme de A-modules gauches.
(iv) Soit f , g deux homomorphismes du A-module droit M dans le
A-module droit N .
f
M
Alors :
g
)
5N
(f + g)∗ = f ∗ + g ∗ .
4.2.7. Le dual d’un A-module gauche. Nous pouvons aussi prendre
le dual d’un A-module gauche M . Cette fois, les formes A-linéaires sur
le A-module gauche M seront les homomorphismes de A-modules gauches
s : M → A.
Pour toute forme A-linéaire sur M et pour tout a ∈ A, nous définissons
une nouvelle forme A-linéaire sa sur M par : sa = s ◦ (·a)A . Autrement dit,
sa est définie par : ∀w ∈ M, w(sa) = (ws )a.
Ceci munit le groupe additif HomA (M, A) d’une structure d’A-module
droit. Ce groupe additif HomA (M, A) avec sa structure d’A-module droit
sera encore appelé le dual (classique) de M et noté M ∗ .
De façon semblable, nous pouvons définir le dual f ∗ d’un homomorphisme f de A-modules gauches, ce dual f ∗ est alors un homomorphisme
de A-modules droits.
4.2.8. Exemple. Soit A un anneau.
Comme en 4.2.2 nous identifions (Ar×1 )∗ à A1×r au moyen de l’isomorphisme naturel de A-modules gauches A1×r ∼
→ (Ar×1 )∗ .
1×r
De façon semblable, nous identifions (A )∗ à Ar×1 au moyen de l’isomorphisme naturel de A-modules droits Ar×1 ∼
→ (A1×r )∗ .
Soit maintenant F ∈ Am×n .
Cette matrice F nous donne un homomorphisme de A-modules droits
f défini par
f : An×1 → Am×1 : v 7→ F · v.
Cette matrice F nous donne aussi un homomorphisme de A-modules
gauches f 0 défini par
f 0 : A1×m → A1×n : v 7→ v · F.
Avec les identifications ci-dessus, nous avons :
f∗ = f0
et f 0∗ = f.
88
CHAPITRE 4. DUALITÉ
4.3. Dualité coordonnée pour les modules libres
4.3.1. Duale d’une base. Soit M un A-module droit libre de base (ei )i∈I .
Nous associons à cette base de M une famille (e∗i )i∈I d’éléments de M ∗ ,
la forme A-linéaire e∗i étant définie par : ∀k ∈ I, e∗i (ek ) = δki .
Ici δki est le symbole de Kronecker, δki = 1 si i = k et δki = 0 si i 6= k.
On remarque que les (e∗i )i∈I forment une partie libre du A-module
∗
gauche M
duale de la base (ei )i∈I .
Pn, appelée
P
∗ik = 0, alors, ∀j, 1 6 j 6 n, ( n
∗ik )(e ) =
e
(Si
a
ij
k=1 ik
k=1 aik e
Pn
∗ik (e )) = a = 0.)
ij
ij
k=1 aik (e
Si l’ensemble I est infini, c.-à-d. si M n’est pas de type fini, ces formes
A-linéaires e∗i ne forment pas une partie génératrice de M ∗ . En effet, soit s
la forme A-linéaire sur M définie par : ∀i ∈ I, s(ei ) = 1 ; On remarque que
s n’appartient pas au sous-module de M ∗ engendré par les e∗i car toutes
les formes appartenant à ce sous-module s’annulent en presque tous les ei .
Mais si I est fini, nous allons voir que ces e∗i forment une base de M .
Proposition 4.3.2. Si M est un A-module droit libre de type fini,
de base
e = (e1 , · · · , en ),
alors M ∗ est un A-module gauche libre de type fini,
 ∗1 
e
 .. 
∗
de base e =  .  .
e∗n
Cette base e∗ de M ∗ est appelée base duale de la base e de M .
De plus, ∀s ∈ M ∗ , la coordonnée de s dans la base e∗ , qui est une
matrice ligne ∈ A1×n , est la matrice de s dans la base e de M et 1 de A.
P
Démonstration. Pour tout s ∈ M ∗ , on a s = ni=1 s(ei )e∗i car deux formes
A-linéaires sur le A-module droit libre M sont égales si elles prennent la
même valeur en chaque élément d’une base de M et car, ∀k, 1 6 k 6 n, on
a:
n
n
n
X
X
X
(
s(ei )e∗i )(ek ) =
s(ei )(e∗i (ek )) =
s(ei )δki = s(ek ).
i=1
i=1
i=1
M∗
Ceci montre que tout élément de
s’écrit de façon unique comme combinaison linéaire, à coefficients dans A, des e∗i , donc que les (e∗i )16i6n
forment une base de M ∗ , ceci montre également notre assertion concernant
la coordonnée de s dans la base e∗ .
Regardons maintenant l’effet d’un changement de base dans M .
Proposition 4.3.3. Soit M un A-module droit libre de type fini,de base
e = (e1 , · · · , en ).
Si u = (u1 , · · · , un ) = eC est une autre base de M (où C ∈ An×n est
une matrice inversible), alors dans M ∗ nous avons : e∗ = Cu∗ .
4.3. DUALITÉ COORDONNÉE POUR LES MODULES LIBRES
89
Démonstration. Pour
P tout i, 1 6 i 6 n, nous devons montrer l’égalité des
deux formes e∗i et nk=1 Cki u∗k , et ceci peut se faire par évaluation en les
éléments de la base u de M : ∀j, 1 6 j 6 n, on a :
n
n
n
X
X
X
k
∗i
k
i
e (uj ) = e (
ek Cj ) =
e (ek )Cj = Cj = (
Cki u∗k )(uj )
∗i
∗i
k=1
k=1
k=1
.
Occupons nous maintenant de la matrice représentant le dual d’un homomorphisme de modules libres de type fini.
Proposition 4.3.4. Soit f : M → N un homomorphisme de A-modules
droits libres de type fini, représenté par une matrice F ∈ An×m dans une
base e = (e1 , · · · , em ) de M et une base u = (u1 , · · · , un ) de N .
Alors l’homomorphisme dual f ∗ : N ∗ → M ∗ , qui est un homomorphisme
de A-modules gauches libres de type fini, est représenté par la même matrice
F dans la base u∗ de N ∗ et la base e∗ de M ∗ .
∗
Autrement dit, si f (e) = uF , alors (u∗ )f = F e∗ .
Démonstration. Nous avons f (e) = uF et nous devons montrer que,
P
f∗
i ∗k
∀i, 1 6 i 6 n, on a (u∗i ) = m
k=1 Fk e .
Nous avons à montrer l’égalité de deux éléments de M ∗ , à nouveau, ceci
peut se faire par évaluation en une base de M . Evaluons en la base e de
M : ∀j, 1 6 j 6 m, on a :
m
n
X
X
f∗
Fki e∗k )(ej ).
uk Fjk ) = Fki = (
(u∗i ) (ej ) = (u∗i ◦f )(ej ) = u∗i (f (ej )) = u∗i (
k=1
k=1
4.3.5. Remarque. Dans la situation de la proposition, si l’anneau A est
commutatif, tout A-module gauche peut être vu comme A-module droit,
en particulier nous pouvons voir M ∗ comme un A-module droit, écrire
ses bases en lignes et les coordonnées de ses éléments en colonne. Si nous
faisons ceci, si nous permutons lignes et colonnes, il faudra aussi permuter
les lignes et les colonnes dans la matrice représentant l’homomorphisme
dual f ∗ , autrement dit il faudra remplacer la matrice F par sa transposée
F t . Plus précisément, si A est commutatif, si l’homomorphisme dual f ∗ de
notre proposition est vu comme un homomorphisme de A-modules droits, sa
matrice dans les bases u∗ et e∗ est la transposée de la matrice représentant
f dans la base e de M et la base u de N .
4.3.6. Exemple. Si nous identifions comme en 4.2.2 le dual de An×1 à
A1×n , la duale de la base canonique de An×1 s’identifie à la base canonique
de A1×n .
4.3.7. Exercice.Soit M un A-module droit libre de type fini. Nous savons
déjà que son dual M ∗ est un A-module gauche libre de type fini.
Montrer que toute base de M ∗ est la duale d’une base de M .
90
CHAPITRE 4. DUALITÉ
4.3.8. Exercices.Nous identifions le dual du R-vectoriel droit R3×1 à R1×3 .
(a) Voici une base de R1×3 :
¡
¢
1 0 2
¡
¢
0 3 0
¡
¢
1 1 0
Déterminer une base de R3×1 dont cette base est la duale.
(b) Déterminer la base duale de la base suivante de R3×1 .
     
1
0
1
0 , 0 , 1 .
2
1
1
4.3.9. Exercice. Soit f une transformation linéaire d’un vectoriel réel droit
V dont la matrice, dans une base e, est


1 2 1 1
 1 2 1 −1 

F =
 3 2 0 0 .
0 0 0 2
∗
∗
Ecrire les formes R-linéaires (e∗1 + 2e∗3 )f , (e∗1 − e∗2 − e∗4 )f comme
combinaison linéaires des e∗i et calculer leurs valeurs en e2 + e4 3.
4.3.10. Exercice. L’ensemble C des fonctions continues de R dans R est
naturellement muni d’une structure d’espace vectoriel réel. Tout nombre
réel r définit une fonction « évaluation en r » : er : C → R : f 7→ f (r).
Observer : er ∈ C∗ .
4.4. Le bidual
4.4.1. Si M est un A-module droit, son dual M ∗ est un A-module gauche
dont nous pouvons aussi prendre le dual. M ∗∗ est à nouveau un A-module
droit appelé module bidual de M .
Nous allons voir quelle relation il y a entre M et son bidual.
Soit w ∈ M . Nous évaluons les formes A-linéaires sur M en w, ce qui
nous donne une fonction d’évaluation
w
e : M ∗ → A : s 7→ s(w).
Cette fonction d’évaluation w
e est un homomorphisme de A-modules
gauches, donc w̃ ∈ M ∗∗ .
(En effet, ∀s, t ∈ M ∗ , ∀a ∈ A, nous avons :
(s + t)(w) = s(w) + t(w) par la définition de la somme s + t,
4.4. LE BIDUAL
91
et (as)(w) = a(s(w)) par la définition de as.)
De plus, la fonction
cM : M → M ∗∗ : w 7→ w
e
est un homomorphisme de A-modules droits appelé homomorphisme naturel de M dans son bidual M ∗∗ .
(Montrons que cM est bien un homomorphisme de A-modules droits.
Nous avons : (v^
+ w) = ve + w
e et wa
f = wa,
e
car, ∀s ∈ M ∗ , s(v + w) = s(v) + s(w) et s(wa) = s(w)a.)
4.4.2. L’homomorphisme naturel cM de M dans son bidual n’est pas toujours bijectif, ni même injectif, il peut même être nul si M ∗ est nul. Ceci
pose une première question : pour quels modules M l’homomorphisme naturel cM est-il injectif, bijectif ?
Voici une première réponse évidente.
Remarque. Soit M un A-module droit.
L’homomorphisme naturel de M dans son bidual M ∗∗ est injectif si et
seulement si, ∀w ∈ M, w 6= 0, ∃s ∈ M ∗ tel que s(w) 6= 0.
De ceci on déduit.
Proposition 4.4.3. Si M est un A-module droit libre, alors l’homomorphisme naturel cM : M → M ∗∗ est injectif.
Si de plus M est libre de type fini, alors l’homomorphisme naturel cM
de M dans son bidual est bijectif.
Démonstration. Soit 0 6= v ∈ M . Nous écrivons v P
comme combinaison
linéaire des éléments d’une base (ei )i∈I de M : v = nk=1 eik v ik . Comme
v 6= 0, un au moins des coefficients v ik est non nul, disons v i1 6= 0. On a
alors e∗i1 (v) 6= 0 et l’injectivité de cM découle de la remarque précédente.
Si de plus M est libre de type fini, de base e = (e1 , · · · , en ), nous
observons que les images eei des ei dans M ∗∗ forment la base duale de la
base e∗ de M ∗ . On en déduit que cM est bijectif.
4.4.4. Conclusion. Tout A-module droit M libre de type fini peut être
vu comme le dual de son dual (en identifiant M à son bidual au moyen de
l’isomorphisme naturel cM ).
4.4.5. Exercice. Soit f : M → N un homomorphisme de A-modules
droits. Alors
f ∗∗ ◦ cM = cN ◦ f.
Autrement dit, le diagramme suivant est commutatif.
M


cM y
f
−−−−→ N

c
yN
f ∗∗
M ∗∗ −−−−→ N ∗∗
92
CHAPITRE 4. DUALITÉ
4.4.6. Exercices.Soit M un A-module droit.
(a) Si M est un sous-A-module droit d’un A-module droit libre, alors
l’homomorphisme naturel cM : M → M ∗∗ est injectif.
(b) Réciproquement, si cM est injectif et si le A-module gauche M ∗
est de type fini, alors il existe un homomorphisme injectif de M dans un
A-module droit libre de type fini.
(c) cM est nul si et seulement si M ∗ est nul.
4.4.7. Exercice. Soit M un A-module droit. Tout élément w de M nous
donne un homomorphisme de A-modules droits
mw : A → M : a 7→ wa.
En identifiant le dual du A-module droit A au A-module gauche A comme
en 4.2.2, observer qu’ on a :
(mw )∗ = w̃.
4.5. Orthodualité
4.5.1. Relation entre un module et son dual.
Soit M un A-module droit.
Il y a une relation privilégiée entre M et son dual M ∗ , la relation « s’annuler en », formée de l’ensemble des couples (s, w) ∈ M ∗ × M tels que
s(w) = 0.
Cette relation nous permet d’associer à toute partie P de M l’ensemble
des formes A-linéaires sur M s’annulant en tous les éléments de P . Nous
désignons cette partie par P 0 et nous dirons que P 0 est l’orthodual ou
l’annulateur (dans M ∗ ) de P :
P 0 = {s ∈ M ∗ | ∀p ∈ P,
s(p) = 0}
Remarquons que P 0 est un sous-A-module gauche de M ∗ , et que P 0 =
(mod(P ))0 .
De façon semblable, nous associons à toute partie S de M ∗ l’ensemble
des éléments de M annulés par tous les éléments de S. Nous désignons cette
partie par S M et nous dirons encore que S M est l’orthodual ou l’annulateur (dans M ) de S.
S M = {w ∈ M | ∀s ∈ S,
s(w) = 0}
Remarquons que S M est un sous-A-module droit de M , et que S M =
(mod(S))M .
4.5. ORTHODUALITÉ
93
Nous obtenons deux fonctions
0
P(M ) −→ P(M ∗ )
P
7→
P0
et
M
P(M ) ←− P(M ∗ )
SM
←[
S
Ces fonctions renversent l’inclusion : ∀P1 , P2 ⊂ M,
∀S1 , S2 ⊂ M ∗
P1 ⊂ P2 ⇒ P10 ⊃ P20
S1M ⊃ S2M ⇐ S1 ⊂ S2
Nous avons aussi :
P ⊂ SM
⇔
S(P ) = 0
P ⊂ P 0M
⇔
S ⊂ P0
S ⊂ S M0
Signalons que les deux dernières inclusions peuvent être strictes, même si
P ou S sont des sous-A-modules.
Nous avons encore :
{0}M = M
{0}0 = M ∗
M 0 = {0}
4.5.2. Remarque. Dans la situation générale, les inclusions P ⊂ P 0M ,
S ⊂ S M0 peuvent être strictes, même si P est un sous-A-module droit de
M et S un sous-A-module gauche de M ∗ .
Nous pouvons aussi avoir deux sous-A-modules distincts de M qui ont
même annulateur dans M ∗ , un sous-A-module de M n’est pas toujours
déterminé par son annulateur. De plus, l’annulateur dans M de M ∗ peut
être non nul.
Exemples.(a) Soit K un corps et soit V un K-vectoriel droit de dimension dénombrable, de base (ei )i∈N . Soit S le sous-K-vectoriel de V ∗
engendré par les e∗i , i ∈ N. Nous avons : S M = 0 et S ( S M0 = V ∗ .
(b) Dans le Z-module Z, nous avons : (2Z) ( (2Z)0M = Z.
(c) Pour le Z-module Z6 , nous avons (Z6 )∗ = 0 et ((Z6 )∗ )M = Z6 6= 0.
Cependant, dans le cas où A = K est un corps, nous pourrons quand
même tirer avantage du fait que toute partie libre d’un K-vectoriel V se
prolonge en une base de V , que tout sous-K-vectoriel de V admet un complémentaire .
94
CHAPITRE 4. DUALITÉ
Proposition 4.5.3. Soit K un corps et V un K-vectoriel droit (ou gauche).
Soit encore W un sous-K-vectoriel droit de V . Alors
(i) ∀v ∈ V \ W, ∃s ∈ V ∗ tel que s(W ) = 0 et s(v) 6= 0,
(ii) W 0M = W , W est entièrement déterminé par son annulateur W 0 .
Si de plus V est de dimension finie, alors
(iii) dimK V = dimK W + dimK W 0 ,
(iv) Pour tout sous-K-vectoriel S de V ∗ , on a aussi S = S M0 .
Démonstration. (i) Si B 0 est une base de W , alors, ∀v ∈ V \ W , la partie
B 0 ∪ {v} est une partie libre de V que nous prolongeons en une base B de
V . Toute fonction de B dans K s’annulant sur B 0 mais ne s’annulant pas
en v se prolonge en une forme K-linéaire s sur V répondant à la question.
(ii) Avec (i), nous voyons que, si v ∈ V \ W , alors v ∈
/ W 0M . L’inclusion
0M
W ⊂ W est donc une égalité.
(iii) Ecrivons V = W ⊕ W 0 , et prenons une base de V adaptée à cette
décomposition de V en somme directe. Autrement dit, prenons une base e =
(e1 , · · · , en ) de V , n = dimK V , telle que (e1 , · · · ek ) soitPune base de W et
(ek+1 , · · · , en ) une base de W 0 . Nous observons que s = ni=1 si e∗i s’annule
sur W si seulement si s1 = · · · = sk = 0, autrement dit nous observons
que W 0 est le sous-K-vectoriel de V ∗ engendré par e∗(k+1) , · · · , e∗n . Donc
dimK W 0 = n − k = dimK V − dimK W .
(iv) Le K-vectoriel V de dimension finie peut être vu comme le dual de
son dual. Cette dernière assertion est donc une conséquence de la seconde,
appliquée à V ∗ .
4.5.4. Exercices. Soit V un vectoriel réel droit de base (e1 , e2 , e3 , e4 , e5 ).
(a) Décrire l’orthodual de chacun des sous-vectoriels suivants de V .
W1 = mod(e1 + e2 ,
W2 = {
W3 = {
e3 − e4 ),
P5
i
| v 1 + v 2 = 0,
P5
i
|
i=1 ei v
i=1 ei v
P5
i=1 v
i
2v 2 + v 3 = 0},
= 0},
W4 = {v ∈ V | (e∗1 + 2e∗2 )(v) = 0,
(e∗2 + e∗3 )(v) = 0}.
(b) Décrire l’orthodual de chacun des sous-vectoriels suivants de V ∗ .
S1 = mod(e∗1 , e∗2 , e∗3 ),
S2 = mod(e∗1 + 2e∗2 ,
e∗2 + e∗3 ),
S3 = {s ∈ V ∗ | s(e1 + e2 ) = 0,
s(e2 − e3 ) = 0},
4.6. PROPRIÉTÉS D’EXACTITUDE DE LA DUALITÉ
S4 = {
P5
i=1 ti e
∗i
95
| t1 = t2 = t3 = t4 = t5 }.
4.5.5. Exercices. (a) Soit f : M → N un homomorphisme de A-modules
droits, soit S ⊂ N ∗ et N 0 = S M ⊂ N .
Prenons l’image inverse f −1 (N 0 ) de N 0 par f : f −1 (N 0 ) = {w ∈ M |
f (w) ∈ N 0 }.
∗ M
Nous avons : f −1 (N 0 ) = (S f ) .
(b) Soit f : V → W une application linéaire de K-vectoriels droits.
Soit W1 ⊂ W un sous-K-vectoriel droit de W dont nous prenons l’image
inverse par f .
f∗ M
On a : f −1 (W1 ) = ((W10 ) ) .
En particulier, nous avons : Ker(f ) = (Im(f ∗ ))M .
4.5.6. Exercice. Soit f une transformation linéaire d’un vectoriel réel droit
V dont la matrice, dans une base e, est


1 1 1 1
 1 1 1 −1 

F =
 1 2 1 0 .
0 0 0 2
(a) Décrire ker(f ) et ker(f ∗ ) par équations.
∗
(b) Calculer (e∗1 − e∗3 )f .
(c) Décrire f −1 (W ), si W = {e1 x + e2 y + e3 z + e4 u | x = ay = z}, et
calculer la dimension de f −1 (W ) en fonction du paramètre réel a.
(d) Décrire f −1 (W1 ), si W1 est le sous-vectoriel de V engendré par
e1 + e2 , −e2 + e4 2.
4.5.7. Exercices. (a) Soit M1 , M2 deux sous-A-modules droits du Amodule droit M .
On a : (M1 + M2 )0 = M10 ∩ M20 .
(b) Soit W1 , W2 deux sous-K-vectoriels droits du K-vectoriel droit V .
On a : (W1 ∩ W2 )0 = W10 + W20 .
(c) Soit M un A-module droit. Pour toute partie P de M et toute partie
S de M ∗ , nous avons :
S M0M = S M
P 0M0 = P 0 .
4.6. Propriétés d’exactitude de la dualité
Nous savons depuis longtemps que le dual d’un isomorphisme est un
isomorphisme. Dans cette section nous allons examiner le noyau et l’image
96
CHAPITRE 4. DUALITÉ
d’un homomorphisme dual f ∗ vis-à-vis du noyau et de l’image de f . Voici
une première remarque.
Proposition 4.6.1. Soit f : M → N un homomorphisme de A-modules
droits dont voici le dual f ∗ : N ∗ → M ∗ . Alors
Ker(f ∗ ) = Im(f )0
et
Im(f ∗ ) ⊂ Ker(f )0 .
En particulier, si f est surjectif, alors f ∗ est injectif.
Démonstration. Immédiat d’après les définitions.
4.6.2. Remarque. Dans cette situation générale, nous n’avons pas beaucoup à dire de plus, l’inclusion Im(f ∗ ) ⊂ Ker(f )0 peut être stricte et il
existe des homomorphismes injectifs dont le dual n’est pas surjectif.
Regarder par exemple le dual de l’homomorphisme de Z-modules
Z → Z : z 7→ 2z.
Nous pourrons quand même en dire un peu plus lorsque l’homomorphisme f est surjectif, plus généralement lorsque Im(f ) est un sommant
direct de N .
Regardons d’abord la duale d’une projection naturelle et la duale d’une
injection naturelle.
Lemme 4.6.3. Soit M1 un sous-A-module droit du A-module droit M ,
soit p : M → M/M1 la projection naturelle
et soit i : M1 → M l’injection naturelle. Nous avons.
(i) L’homomorphisme p∗ est injectif et Im(p∗ ) = M10 = Ker(i∗ ),
(ii) Si M1 est un sommant direct de M , c.-à-d. si M = M1 ⊕M2 pour un
certain sous-A-module M2 de M , alors l’homomorphisme i∗ est surjectif.
Démonstration. L’image par i∗ d’une forme A-linéaire s ∈ M ∗ n’est rien
d’autre que sa restriction s|M1 à M1 . Par conséquent Ker(i∗ ) = M10 .
Par ailleurs, si M = M1 ⊕ M2 , tout élément w de M s’écrit de façon
unique w = w1 + w2 , où w1 ∈ M1 , w2 ∈ M2 , et toute forme A-linéaire
s1 sur M1 peut se prolonger en une forme A-linéaire s sur M définie par
∗
s(w) = s1 (w1 ). Nous avons alors s1 = si ∈ Im(i∗ ), ce qui montre que i∗
est surjectif.
2A
>
s1
s
M1
i
/M
Regardons maintenant la duale de la projection naturelle p.
Nous avons déjà observé l’inclusion Im(p∗ ) ⊂ M10 .
4.6. PROPRIÉTÉS D’EXACTITUDE DE LA DUALITÉ
97
D’autre part, toute forme A-linéaire s sur M s’annulant sur M1 se factorise à travers M/M1 (voir 1.2.3) : il existe une (et une seule) forme A-linéaire
∗
s̄ sur M/M1 telle que s = s̄ ◦ p = s̄p .
M
s
/A
<
GG
GG
GG
p GGG
#
s̄
M/M1
Donc l’inclusion Im(p∗ ) ⊂ M10 est en fait une égalité.
Corollaire 4.6.4. Dans la situation de 4.6.3, on a : (M/M1 )∗ ' M10 .
Si M1 est un sommant direct de M , on a aussi : (M1 )∗ ' M ∗ /M10 .
Démonstration. Immédiat au vu de 4.6.3 et du théorème d’isomorphisme
1.2.2.
Complétons maintenant la proposition 4.6.1.
Proposition 4.6.5. Soit f : M → N un homomorphisme de A-modules
droits.
Si f est surjectif, plus généralement si Im(f ) est un sommant direct de
N , alors Im(f ∗ ) = Ker(f )0 .
Démonstration. L’homomorphisme f se factorise en f = i ◦ f¯ ◦ p
M


py
f
−−−−→
N
x

i
f¯
M/Ker(f ) −−−−→ Im(f )
où i désigne l’injection naturelle, p la projection naturelle et où f¯ est l’isomorphisme induit par f .
Dualisons cette factorisation, nous obtenons f ∗ = p∗ ◦ f¯∗ ◦ i∗
M∗
x

p∗ 
f∗
←−−−−
N∗

∗
yi
f¯∗
(M/Ker(f ))∗ ←−−−− (Im(f ))∗
Sous nos hypothèses, i∗ est surjectif par 4.6.3. Comme de plus f¯∗ est bijectif,
nous avons Im(f ∗ ) = Im(p∗ ). Et avec 4.6.3 nous avons encore Im(p∗ ) =
Ker(f )0 .
Reformulons maintenant une partie de nos résultats dans un autre langage bien adapté.
98
CHAPITRE 4. DUALITÉ
Définitions 4.6.6. Voici une suite d’homomorphismes de A-modules
(droits ou gauches)
f
g
M −→ N −→ P.
Nous dirons que cette suite est une 0-suite si g ◦ f = 0, autrement dit
si Im(f ) ⊂ Ker(g).
Nous dirons que cette suite est une suite exacte si de plus Im(f ) =
Ker(g).
Plus généralement, nous dirons qu’une suite longue
M1 → M2 → M3 → M4 → M5
est exacte si elle est exacte en chacune de ses charnières.
4.6.7. Exemples.
f
La suite 0 −→ M 0 −→ M est exacte ⇔ f est injectif.
g
La suite M −→ M 00 −→ 0 est exacte ⇔ g est surjectif.
i
La suite 0 −→ M −→ N −→ 0 est exacte ⇔ i est bijectif.
f
g
La suite 0 −→ M 0 −→ M −→ M 00 est exacte ⇔ f est injectif et
Im(f ) = Ker(g).
f
g
La suite M 0 −→ M −→ M 00 −→ 0 est exacte ⇔ g est surjectif et
Im(f ) = Ker(g).
Proposition 4.6.8. Soit
f
g
M 0 −→ M −→ M 00 −→ 0
une suite exacte d’homomorphismes de A-modules droits.
Alors la suite duale
∗
g∗
f∗
0 −→ M 00 −→ M ∗ −→ M 0
∗
est une suite exacte d’homomorphismes de A-modules gauches.
Démonstration. Nous avons avec 4.6.1 que g ∗ est injectif et que Ker(f ∗ ) =
Im(f )0 = Ker(g)0 . Avec 4.6.5 nous avons aussi Ker(g)0 = Im(g ∗ ).
Occupons nous finalement de la dualité pour les vectoriels.
Théorème 4.6.9. Soit f : V → W une application linéaire de K-vectoriels
droits. Alors
Ker(f ∗ ) = Im(f )0 ,
Im(f ∗ ) = Ker(f )0 ,
Ker(f ∗ )M = Im(f ),
Im(f ∗ )M = Ker(f ).
4.6. PROPRIÉTÉS D’EXACTITUDE DE LA DUALITÉ
99
Démonstration. Les deux premières égalités découlent de 4.6.3, de 4.6.5 et
du fait que tout sous-vectoriel de W admet un complémentaire.
Les deux dernières découlent des premières et de l’égalité X10M = X1
valable pour tout sous-K-vectoriel X1 d’un K-vectoriel X.
Corollaire 4.6.10. Soit
f
g
V1 −→ V2 −→ V3
une suite d’applications linéaires de K-vectoriels droits.
Cette suite est exacte si et seulement si sa duale
f∗
g∗
V1∗ ←− V2∗ ←− V3∗
est exacte.
Démonstration.
Im(f ) = Ker(g) ⇔ Im(f )0 = Ker(g)0 ⇔ Ker(f ∗ ) = Im(g ∗ ).
4.6.11. Exercices. Soit f : V → W une application linéaire d’ espaces
vectoriels droits V sur un corps K.
(a) Démontrer : (Im(f ))∗ ' Im(f ∗ ).
(b) Ranger les espaces suivants en classe d’isomorphismes :
(W/Im(f ))∗ ,
Ker(f ∗ ),
(W ∗ /Ker(f ∗ ))∗ ,
Im(f ∗ )M ,
V /Ker(f ).
4.6.12. Exercice. Soit
f
g
M 0 −→ M −→ M 00 −→ 0
une suite exacte d’homomorphismes de A-modules droits.
Alors, pour tout A-module droit N, la suite
◦f
◦g
HomA (M 0 , N ) ←− HomA (M, N ) ←− HomA (M 00 , N ) ←− 0
est une suite exacte d’homomorphismes de groupes commutatifs (de Amodules si l’anneau A est commutatif).
(Indication : utiliser 1.2.3 ou 1.2.2.)
100
CHAPITRE 4. DUALITÉ
4.7. Dimension d’un dual
Nous avons vu en 4.2.3 que la dualité préserve la dimension des espaces
vectoriels de dimension finie. Mais elle la fait exploser pour les espaces
vectoriels de dimension infinie. Signalons sans démonstration le résultat
suivant du à Erdös et Kaplansky.
Théorème 4.7.1. Pour tout espace vectoriel V de dimension infinie sur
le corps K, nous avons :
#V ∗ = (#K)dimK V = dimK V ∗ .
En conséquence, si V est un espace vectoriel de dimension infinie sur le
corps K, nous avons :
dimK V ∗ = (#K)dimK V > 2dimK V > dimK V,
nous avons aussi :
dimK V ∗ = (#K)dimK V > 2dimK V > 2#N = #R.
En particulier, nous voyons qu’un espace vectoriel de dimension dénombrable n’est jamais un dual.
Téléchargement