GLMA301 - Alg`ebre lin´eaire 3 POLYNÔMES ET RÉDUCTION

publicité
GLMA301 - Algèbre linéaire 3
POLYNÔMES ET RÉDUCTION
Alexis Virelzier
Table des matières
Chapitre I. Polynômes
I.1.
I.2.
I.3.
I.4.
I.5.
I.6.
I.7.
I.8.
I.9.
I.10.
I.11.
I.12.
I.13.
I.14.
I.15.
5
Suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Suites presque nulles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Division des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Idéaux de K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Plus grand commun diviseur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Polynômes premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Plus petit commun multiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Fonctions polynômiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Dérivation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Polynômes scindés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Polynômes irréductibles de C[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Polynômes irréductibles de R[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Exercices sur les polynômes
23
Chapitre II. Réduction des endomorphismes
25
II.1. Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
II.2. Rappels et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
II.3. Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
II.4. Polynômes d’endomorphismes et de matrices . . . . . . . . . . . . . . . 27
II.5. Valeurs propres, vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . 30
II.6. Le cas des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
II.7. Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
II.8. Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
II.9. Méthode pratique de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . 39
II.10. Endomorphismes trigonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
II.11. Méthode pratique de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . 41
II.12. Polynômes annulateurs et polynôme minimal . . . . . . . . . . . . . . . .42
II.13. Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
II.14. Décomposition de Dunford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
II.15. Méthode pratique de décomposition de Dunford . . . . . . . . . . . . . 49
II.16. Calcul des puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . 50
Exercices sur la réduction
51
Chapitre I
Polynômes
Dans ce cours, K = R ou C, c’est-à-dire, le symbole K désigne soit l’ensemble des nombres réels, soit l’ensemble
des nombres complexes.
1. Suites
Rappelons que l’ensemble des suites d’éléments de K se note KN . Lorsqu’on le munit de l’addition et de la
multiplication externe données, pour u = (un )n∈N , v = (vn )n∈N et λ ∈ K, par
u + v = (un + vn )n∈N
et
λu = (λun )n∈N ,
KN
l’ensemble
devient un K-espace vectoriel (il correspond au K-espace vectoriel des applications de N vers K).
N
Notons que K est de dimension infinie. Son vecteur nul est la suite nulle 0 = (0)n∈N .
Soient u = (un )n∈N et v = (vn )n∈N deux suites. On définit leur produit par
n
X
uv = (wn )n∈N avec wn =
uk wn−k .
k=0
Notons 1 = (1, 0, 0, 0, · · · ) la suite dont le premier terme est 1 et les autres termes sont nuls.
Proposition I.1.1.
Le produit ainsi défini est associatif, commutatif, admet 1 pour unité, et est distributif par rapport à l’addition
et la multiplication scalaire externe de KN , c’est-à-dire :
u(uw) = (uv)w,
uv = vu,
1u = u,
u(v + w) = uv + uw,
et
u(λv) = λ(uv)
pour tous u, v, w ∈ KN et λ ∈ K.
☞ Un espace vectoriel muni d’un produit associatif, commutatif, unitaire et distributif par rapport son addition
et sa multiplication scalaire externe est ce que l’on appelle une K-algèbre commutative. Ainsi KN est une
algèbre commutative.
2. Suites presque nulles
Le support d’une suite u = (un )n∈N ∈ KN est le sous-ensemble de N défini par
Support(u) = {n ∈ N | un , 0}.
Remarquons qu’ne suite est nulle si et seulement si son support est vide.
Une suite u = (un )n∈N ∈ KN est presque nulle si son support est fini. Par exemple les suites 0 et 1 sont presque
nulles parce que Support(0) = ∅ et Support(1) = {0} sont finis.
☞ Une suite u = (un )n∈N ∈ KN est presque nulle si et seulement si elle est nulle a partir d’un certain rang,
c’est-à-dire si et seulement s’il existe un entier N tel que un = 0 pour tout n ≥ N.
L’ensemble des suites presque nulles d’éléments de K se note K(N) .
5
Proposition I.2.1.
(a) K(N) est un sous-espace vectoriel de KN .
(b) Le produit de deux suites presque nulles est une suite presque nulle.
☞ Ainsi, le produit des suites de KN se restreint à K(N) . Muni de ce produit, K(N) est une K-algèbre commutative,
ayant pour unité la suite 1.
Notons X = (0, 1, 0, 0, · · · ) la suite dont le deuxième terme est 1 et tous les autres termes sont nuls. C’est une
suite presque nulle. Par convention, X 0 désigne la suite 1 = (1, 0, 0, 0, · · · ).
Proposition I.2.2.
(a) Pour tout entier k ≥ 1, la suite X k = |
X {z
···X
} est la suite dont le (k + 1)-ième terme vaut 1 et dont
k
fois
tous les autres termes sont nuls.
X
(b) Toute suite presque nulle u = (un )n∈N ∈ K(N) vérifie u =
un X n .
n∈Support(u)
(c) La famille (X k )k∈N est une base de K(N) .
Par exemple, (1, 0, 3, −5, 0, · · · ) = (1, 0, · · · ) + 3 (0, 0, 1, 0 · · · ) − 5 (0, 0, 0, 1, 0, · · · ) = 1 + X 2 − 5X 3 .
Proposition I.2.3.
L’application ι : K → K(N) , définie par ι(k) = k1 = (k, 0, 0, · · · ), est une application K-linéaire injective qui
préserve le produit, c’est-à-dire telle que ι(λµ) = ι(λ) ι(µ) pour tous λ, µ ∈ K.
L’application ι permet donc d’identifier K avec son image dans K(N) qui est ι(K) = K1 = {(k, 0, 0, · · · ) | k ∈ K}.
3. Polynômes
Un polynôme à coefficients dans K est une suite presque nulle P = (an )n∈N d’éléments de K. Les scalaires an
s’appellent les coefficients du polynôme. Le polynôme 0 = (0, 0, 0, · · · ) s’appelle le polynôme nul.
Le degré d’un polynôme P, noté deg(P), est l’élément de N ∪ {−∞} défini par :
(
max Support(P) si P , 0,
deg(P) =
−∞
si P = 0.
En particulier, le degré d’un polynôme non nul est le plus grand indice de ses coefficients non nuls.
On étend l’addition et l’ordre usuel de N en une addition et un ordre total sur N ∪ {−∞} en posant :
(−∞) + (−∞) = −∞,
(−∞) + n = −∞
et
−∞<n
pour n ∈ N.
Théorème I.3.1.
Pour tous polynômes P et Q, on a :
deg(P + Q) ≤ max deg(P), deg(Q) et
deg(PQ) = deg(P) + deg(Q).
Démonstration. Notons P = (an )n∈N et Q = (bn )n∈N , p = deg(P) et q = deg(Q). Par définition du
degré, an = 0 pour n > p et bn = 0 pour n > q. Ainsi an + bn = 0 pour n > max(p, q), c’est-àdire le n-ième coefficient de P + Q est nul lorsque n > max(p, q). En d’autres termes, deg(P + Q) ≤
6
max(p, q) = max deg(P), deg(Q) . Montrons la seconde égalité. Si P = 0, alors PQ = 0 et donc
deg(PQ) = deg(0) = −∞ = −∞ + deg(Q) = deg(P) + deg(Q). De même deg(PQ) = deg(P) + deg(Q)
lorsque Q = 0. Supposons
Pn P et Q non nuls, de sorte que p, q ∈ N et a p , 0, bq , 0. Rappelons que
PQ = (cn )n∈N avec cn = k=0 ak bn−k . Si n > p + q et 0 ≤ k ≤ n, alors k > p ou n − k > q, et donc ak = 0
ou bn−k = 0, puis cn = 0. Si n = p + q et 0 ≤ k ≤ n, alors k > p, ou n − k > q, ou k = p et n − k = q, et
donc c p+q = a p bq , 0. Par conséquent deg(PQ) = p + q = deg(P) + deg(Q).
Un polynôme P est constant s’il est de degré inférieur ou égal à 0, c’est-à-dire s’il est de la forme
P = a0 1 = (a0 , 0, 0, · · · )
avec a0 ∈ K. Compte tenu de l’identification de K avec K1 (voir la proposition I.2.3), nous noterons un tel polynôme constant par P = a0 . Remarquons qu’un polynôme est constant non nul si et seulement s’il est de degré 0.
Le coefficient dominant d’un polynôme P = (an )n∈N non nul est le coefficient adeg(P) . Un polynôme est unitaire
s’il est non nul et son coefficient dominant est 1.
La suite X = (0, 1, 0, 0, · · · ) s’appelle l’indéterminée. Par la proposition I.2.2, tout polynôme P = (an )n∈N
s’exprime à l’aide de l’indéterminée. En particulier, pour tout entier n ≥ deg(P), on a l’égalité :
P = an X n + an−1 X n−1 + · · · + a1 X + a0 .
Dorénavant, nous noterons l’ensemble K(N) des polynômes par K[X]. Par la proposition I.2.2, la famille (X k )k∈N
est une base de K[X]. L’ensemble K[X] = K(N) est une K-algèbre commutative, ayant pour unité le polynôme
constant 1. De plus, pour tous
P = an X n + · · · + a1 X + a0 ∈ K[X],
Q = bm X m + · · · + b1 X + b0 ∈ K[X],
et λ ∈ K,
on a :
P+Q=
max(n,m)
X
k
(ak + bk ) X ,
k=0
n
X
λP =
(λak ) X k ,
k=0
PQ =
n+m
X
k
ck X avec ck =
k=0
k
X
ai bk−i .
i=0
Dans ces formules, on convient que ak = 0 pour k ≥ n + 1 et bk = 0 pour k ≥ m + 1.
Proposition I.3.2.
(a) K[X] est intègre, c’est-à-dire PQ = 0 si et seulement si P = 0 ou Q = 0.
(b) Les éléments inversibles de K[X] sont les polynômes constants non nuls.
Démonstration. Montrons (a). Si PQ = 0, alors deg(P) + deg(Q) = deg(PQ) = deg(0) = −∞ et donc
deg(P) = −∞ ou deg(Q) = −∞, c’est-à-dire P = 0 ou Q = 0. Réciproquement, si P = 0 ou Q = 0, alors
PQ = 0. Montrons (b). Soit P un polynôme inversible, c’est-à-dire tel qu’il existe Q ∈ K[X] vérifiant
PQ = 1. Ainsi deg(P) + deg(Q) = deg(PQ) = deg(1) = 0. Alors nécessairement deg(P) = 0, soit
P ∈ K∗ . Réciproquement, si P = a0 ∈ K∗ , alors P est inversible d’inverse Q = 1/a0 ∈ K∗ .
Pour n ∈ N, on note Kn [X] l’ensemble des polynômes de degré inférieur ou égal à n.
Proposition I.3.3.
Kn [X] est un sous-espace vectoriel de K[X] de dimension n + 1, ayant pour base (X k )0≤k≤n .
4. Division des polynômes
Soient A, B ∈ K[X] deux polynômes. On dit que B divise A, ou que B est un diviseur de A, ou que A est divisible
par B, ou encore que A est un multiple de B, s’il existe un polynôme Q ∈ K[X] tel que A = BQ. Si tel est le cas,
on note A|B.
7
Deux polynômes A et B sont dits associés s’il existe λ ∈ K∗ tel que A = λB.
☞ Un polynôme constant non nul (et en particulier le polynôme unité 1) divise tous les polynômes.
☞ Le polynôme nul est divisible par tous les polynômes.
☞ Seul le polynôme nul est divisible par le polynôme nul.
☞ Une conséquence immédiate du théorème I.3.1 est que si B|A et A , 0, alors deg(B) ≤ deg(A).
☞ Deux polynômes associés ont même degré.
☞ Deux polynômes unitaires ou nuls associés sont forcément égaux.
Proposition I.4.1.
Soient A, B ∈ K[X]. Alors A|B et B|A si et seulement si A et B sont associés.
Démonstration. Si deux polynômes sont associés, alors clairement l’un divise l’autre. Supposons A|B
et B|A. Si A est nul, alors B l’est également (car seul le polynôme nul est divisible par le polynôme nul)
et donc A et B sont associés. De même, A et B sont associés lorsque B = 0. Supposons A et B non nuls.
D’après la remarque ci-dessus, deg(A) ≤ deg(B) et deg(B) ≤ deg(A). Donc deg(A) = deg(B). Puisque
A|B, il existe Q ∈ K[X] tel que A = BQ. En particulier, deg(A) = deg(B) + deg(Q). Par conséquent,
deg(B) et deg(A) étant des entiers, on obtient deg(Q) = 0. D’où Q est un polynôme constant non nul.
Ainsi A et B sont associés.
Théorème I.4.2. (Division euclidienne)
Soit A, B ∈ K[X] avec B , 0. Alors il existe un unique couple (Q, R) de polynômes tel que
A = BQ + R et
deg(R) < deg(B).
Avec les notations du théorème, le polynôme Q est appelé le quotient et le polynôme R est appelé le reste de la
division euclidienne de A par B.
Démonstration. Démontrons tout d’abord l’unicité du couple (Q, R). Supposons que A = BQ + R =
BQ′ +R′ avec deg(R) < deg(B) et deg(R′ ) < deg(B). Alors on a R−R′ = B(Q′ − Q) et donc deg(R−R′ ) =
deg(B) + deg(Q′ − Q). Supposons Q , Q′ . Alors Q − Q′ , 0 et deg(Q − Q′ ) ≥ 0. On en déduit que
deg(R − R′ ) ≥ deg(B). Donc, d’après le théorème I.3.1, max(deg(R), deg(R′ )) ≥ deg B, ce qui contredit
la définition de R ou de R′ . Ainsi Q = Q′ , puis R = A − BQ = A − BQ′ = R′ .
Démontrons l’existence du couple (Q, R). Si B est constant, alors B = b0 avec b0 ∈ K∗ (car B , 0)
et (B, Q) = (1/b0 A, 0) convient. Supposons B non constant, de sorte que m = deg(B) ≥ 1. Notons
B = bm X m + · · · + b0 . L’existence du couple (Q, R) vérifiant les propriétés voulues se montre par
récurrence sur le degré de A. Pour n ∈ N, on note (Pn ) l’hypothèse de récurrence suivante :
(Pn ) : ∀ A ∈ K[X], deg(A) ≤ n ⇒ ∃ Q ∈ K[X], ∃ R ∈ K[X], A = BQ + R et deg(R) < deg(B).
Il est clair que (Pm−1 ) est vraie. En effet, il suffit de choisir Q = 0 et R = A. Soit maintenant n ≥ m.
Supposons (Pn−1 ) vraie et démontrons (Pn ). Soit A = an X n + · · · + a1 X + a0 un polynôme de degré ≤ n.
Puisque n ≥ m,
an n−m
A′ = A −
X B
bm
est bien un polynôme, et son degré est au plus n − 1. D’après (Pn−1 ), il existe donc deux polynômes Q′
et R′ tels que A′ = BQ′ + R′ et deg(R′ ) < deg(B). Ainsi
an n−m
an n−m
A=
X B + A′ = QB + R où Q =
X
+ Q′ et R = R′ ,
bm
bm
avec deg(R) = deg(R′ ) < deg(B), ce qui démontre (Pn ).
8
La démonstration ci-dessus suggère un algorithme permettant de calculer les quotients et reste d’une division
euclidienne. En effet, au cours de la récurrence, on a vu comment ramener la division d’un polynôme de degré n
à celle d’un polynôme de degré moins élevé (au plus n − 1). En pratique, on peut donc calculer le couple (Q, R)
en “posant” la division comme dans N, les puissances de X jouant le rôle des puissances de 10. Effectuons par
exemple la division euclidienne de A = 3X 5 − X 3 + 2X − 1 par B = X 3 − 2X 2 + 3X :
3X 5 + 0X 4
3X 5 − 6X 4
6X 4
6X 4
−
X3
+ 9X 3
− 10X 3
− 12X 3
2X 3
2X 3
R=
+
+
+
−
−
−
0X 2 + 2X + 1 X 3 − 2X 2 + 3X
3X 2 + 6X + 2 = Q
2
0X + 2X + 1
18X 2
18X 2 + 2X + 1
4X 2 + 6X
14X 2 − 4X + 1
Ainsi 3X 5 − X 3 + 2X + 1 = (X 3 − 2X 2 + 3X)(3X 2 + 6X + 2) + (−14X 2 − 4X + 1).
5. Idéaux de K[X]
Un ideal de K[X] est un sous-espace vectoriel I de K[X] qui est stable par multiplication par tout polynôme,
c’est-à-dire tel que AP ∈ I pour tous A ∈ I et P ∈ K[X].
Par exemple, l’ensemble des multiple d’un polynôme A, c’est-à-dire l’ensemble
AK[X] = {AP | P ∈ K[X]},
est un idéal de K[X].
☞ Soient A, B ∈ K[X]. Alors A|B si et seulement si BK[X] ⊂ AK[X].
Théorème I.5.1.
Soit I un idéal de K[X]. Alors il existe un unique polynôme unitaire ou nul A tel que I = AK[X].
Démonstration. Soit I un idéal de K[X]. Si I = {0}, alors le polynôme nul est clairement le seul
polynôme A tel que I = AK[X]. Supposons dorénavant que I , {0}. Posons E = deg A | A ∈ I \ {0} .
L’ensemble E est une partie non vide de N (car I , {0}) et donc admet un plus petit élément. Ainsi
il existe A ∈ I \ {0} de degré minimal, c’est-à-dire tel que deg(A) = min E. Quitte à multiplier A
par l’inverse de son coefficient dominant, on peut supposer que A est unitaire. La stabilité de I par
multiplication par les éléments de K[X] assure que AK[X] ⊂ I. Montrons que I ⊂ AK[X]. Soit donc
P ∈ I. Puisque A , 0, nous pouvons effectuer la division euclidienne de P par A : il existe Q, R ∈ K[X]
tels que P = AQ + R avec deg(R) < deg(A). Puisque P ∈ I et AQ ∈ I, on obtient que R = P − AQ ∈ I.
De plus deg(R) < deg(A) = min E. Donc R < I \ {0}, c’est-à-dire R = 0. D’où P = AQ ∈ AK[X].
Par conséquent I ⊂ AK[X], puis I = AK[X]. Supposons qu’il existe un autre polynôme unitaire B tel
que I = BK[X]. Alors AK[X] = BK[X], ce qui implique A|B et B|A. Les polynômes A et B sont donc
associés. Etant unitaires, ils sont par conséquent égaux.
Rappelons que la somme de deux parties non vides U et V d’un K-espace vectoriel E est le sous-ensemble de E
défini par U + V = {u + v | u ∈ U, v ∈ V}.
Lemme I.5.2.
Soient I et J deux idéaux de K[X]. Alors leur somme I + J et leur intersection I ∩ J sont des idéaux de K[X].
9
Démonstration. La somme et l’intersection de sous-espaces vectoriels étant des sous-espaces vectoriels,
I+J et I∩J sont des sous-espaces vectoriels de K[X]. Montrons qu’ils sont stables par multiplication par
P ∈ K[X]. Soient A ∈ I + J et B ∈ I ∩ J. Il existe U ∈ I et V ∈ J tels que A = U + V. Puisque I et J sont
stables par multiplication par P, on obtient que UP, BP ∈ I et V P, BP ∈ J. Ainsi AP = UP + V P ∈ I + J
et BP ∈ I ∩ J. Ainsi I + J et I ∩ J sont des idéaux de K[X].
6. Plus grand commun diviseur
Soient A, B ∈ K[X] deux polynômes. La somme AK[X] + BK[X] des idéaux AK[X] et BK[X] est un idéal de K[X]
(par le lemme I.5.2). Ainsi, d’après le théorème I.5.1, il existe un unique polynôme unitaire ou nul ∆ ∈ K[X]
vérifiant
AK[X] + BK[X] = ∆K[X].
Le polynôme ∆ s’appelle le plus grand commun diviseur de A et B (ou plus brièvement le PGCD de A et B) et
se note A ∧ B. En particulier
AK[X] + BK[X] = (A ∧ B)K[X].
☞ Pour tous A, B ∈ K[X], A ∧ B = B ∧ A.
☞ 0 ∧ 0 = 0.
☞ L’unitarisé d’un polynôme non nul A est le polynôme à obtenu en divisant A par son coefficient dominant.
Pour A , 0, on a : A ∧ 0 = Ã.
☞ Soient A, B, D ∈ K[X] avec D unitaire. Alors (DA) ∧ (DB) = D(A ∧ B).
Proposition I.6.1.
Soient A, B ∈ K[X] deux polynômes. Soit ∆ un polynôme unitaire ou nul. Alors ∆ est le PGCD de A et B si et
seulement s’il vérifie les deux propriétés suivantes :
(i) ∆ est un diviseur commun à A et B ;
(ii) tout diviseur commun à A et B divise ∆.
Démonstration. Vérifions tout d’abord que A∧B satisfait (i) et (ii), c’est-à-dire que A∧B est un diviseur
commun à A et B et est divisible par tout diviseur commun à A et B. Par définition, (A ∧ B)K[X] =
AK[X] + BK[X]. Ainsi A = A1 + B0 ∈ (A ∧ B)K[X] et B = A0 + B1 ∈ (A ∧ B)K[X], c’est-à-dire A ∧ B
divise A et B. Soit D un diviseur commun à A et B. Alors AK[X] ⊂ DK[X] et BK[X] ⊂ DK[X], donc
(A ∧ B)K[X] = AK[X] + BK[X] ⊂ DK[X], c’est-à-dire D divise A ∧ B. Supposons maintenant que ∆
vérifie (i) et (ii). Alors A ∧ B divise ∆ car ∆ est un diviseur commun à A et B. De plus ∆ divise A ∧ B
car A ∧ B est un diviseur commun à A et B. Ainsi A ∧ B et ∆ sont associés par la proposition I.4.1. Etant
unitaires ou nuls, ils sont donc égaux.
☞ La proposition précédente dit que le PGCD de deux polynômes A et B est le plus grand élément de l’ensemble
D(A, B) des diviseurs unitaires ou nuls communs à A et B, lorsque D(A, B) est muni de la relation d’ordre
donnée par la division. Ceci justifie l’appellation plus grand commun diviseur.
☞ Lorsque A ou B est non nul, on peut montrer que A ∧ B est le polynôme unitaire de plus grand degré divisant
à la fois A et B.
L’algorithme d’Euclide est un moyen systématique permettant de calculer le PGCD de deux polynômes qui ne
sont pas simultanément nuls. L’outil de base est la division euclidienne. L’algorithme repose sur le lemme suivant :
Lemme I.6.2.
Soient A un polynôme et B un polynôme non nul. Notons Q le quotient et R le reste de la division euclidienne
de A par B. Alors A ∧ B = B ∧ R.
10
Démonstration. Soit D un diviseur commun à A et B. Comme R = A − BQ, le polynôme D divise
aussi R. Donc D divise B ∧ R. De plus B ∧ R divise R et B et donc divise A = BQ + R et B. Ainsi B ∧ R
est un diviseur commun à A et B et est divisible par tout diviseur commun à A et B. Puisque B ∧ R est
unitaire ou nul, on conclut que A ∧ B = B ∧ R par la Proposition I.6.1.
Ce lemme est à la base d’un algorithme pour calculer le PGCD de deux polynômes A et B, appelé l’algorithme
d’Euclide. Quitte à permuter A et B, on peut toujours supposer que deg(A) ≥ deg(B). On procède alors comme
suit :
(1) Si B = 0, il n’y a rien à faire : A ∧ B est égal à l’unitarisé de A si A , 0 ou est égal à 0 si A = 0.
(2) Si B , 0, on effectue la division euclidienne de A par B, ce qui donne deux polynômes Q1 et R1 tels que
A = BQ1 + R1 et deg(R1 ) < deg(B). Par le lemme I.6.2, A ∧ B = B ∧ R1 . Si R1 = 0, on s’arrête. Sinon, on
reprend le calcul ci-dessus en remplaçant A par B et B par R1 . Ainsi, en itérant le procédé, on construit
deux suites (R1 , R2 , · · · , Rn ) et (Q1 , Q2 , · · · , Qn+1 ) telles que :
A = BQ1 + R1 avec deg(R1 ) < deg(B) et R1 , 0,
B = R1 Q2 + R2 avec deg(R2 ) < deg(R1 ) et R2 , 0,
R1 = R2 Q3 + R3 avec deg(R3 ) < deg(R2 ) et R3 , 0,
..
.
Rn−2 = Rn−1 Qn + Rn avec deg(Rn ) < deg(Rn−1 ) et Rn , 0,
Rn−1 = Rn Qn+1 + 0.
Le procédé s’arrête nécessairement au bout d’au plus deg(B) étapes car chaque itération diminue d’au
moins 1 le degré du reste de la division euclidienne. Alors
fn
A ∧ B = B ∧ R1 = R1 ∧ R2 = · · · = Rn−1 ∧ Rn = Rn ∧ 0 = R
fn est l’unitarisé de Rn .
où R
Par exemple, calculons le PGCD de X 4 − 3X 3 + X + 1 et X 2 − 1. L’algorithme ci-dessus donne :
X 4 − 3X 3 + X + 1 = (X 2 − 1)(X 2 − 3X + 1) − 2X + 2,
X 2 − 1 = (−2X + 2)(−1/2X) + X − 1,
−2X + 2 = (X − 1)2 + 0.
Donc (X 4 − 3X 3 + X + 1) ∧ (X 2 − 1) = X − 1.
7. Polynômes premiers entre eux
Deux polynômes sont dits premiers entre eux si leur PGCD est 1.
☞ Tout polynôme constant non nul est premier avec tout autre polynôme.
Théorème I.7.1. (Théorème de Bézout)
Deux polynômes A, B ∈ K[X] sont premiers entre eux si et seulement s’il existe deux polynômes U, V ∈ K[X]
tels que AU + BV = 1.
Démonstration. Supposons A ∧ B = 1. Par définition du PGCD, on a AK[X] + BK[X] = K[X]. Donc
1 ∈ AK[X] + BK[X], ce qui signifie qu’il existe U et V tels que AU + BV = 1. Réciproquement,
supposons qu’il existe U et V tels que AU + BV = 1. Alors 1 ∈ AK[X] + BK[X] = (A ∧ B)K[X]. Ainsi
le polynôme A ∧ B divise 1 et donc, étant unitaire, est nécessairement égal à 1.
11
☞ Pour qu’un polynôme unitaire ∆ soit le PGCD deux polynômes A et de B, il faut et il suffit que :
A B
∧
= 1.
∆|A, ∆|B et
∆
∆
Cette remarque et le théorème de Bézout permettent de montrer facilement la généralisation suivante :
Théorème I.7.2. (Théorème de Bézout généralisé)
Soient A, B deux polynômes et ∆ un polynôme unitaire ou nul. Pour que ∆ soit le PGCD de A et B, il faut et il
suffit qu’il vérifie les deux propriétés suivantes :
(i) ∆ est un diviseur commun à A et B ;
(ii) il existe deux polynômes U, V ∈ K[X] tels que AU + BV = ∆.
Remarquons que le théorème de Bézout est une conséquence immédiate du théorème de Bézout généralisé
puisque le polynôme unité 1 divise tout polynôme.
Théorème I.7.3. (Théorème de Gauss)
Soient A, B, P ∈ K[X]. Si P divise AB et P est premier avec A, alors P divise B.
Démonstration. Si B = 0, le résultat est trivial. Supposons B , 0 et notons B̃ l’unitarisé de B. On a
(PB) ∧ (AB) = B̃ (P ∧ A) = B̃ 1 = B̃. Or P est un diviseur commun à PB et AB. Ainsi P divise B̃ et
donc B.
Corollaire I.7.4.
Un polynôme P est premier avec un produit de polynômes AB si et seulement s’il est premier avec A et avec B.
Démonstration. Supposons P premier avec AB. Soit D un diviseur commun à P et A. Alors D divise
aussi AB. Donc D|(AB) ∧ P puis D|1. On en déduit que D est un polynôme constant non nul et donc
que P est premier avec A. De même on montre que P est premier avec B. Montrons la réciproque par
contraposition. Supposons que P ne soit pas premier avec AB. Alors il existe un diviseur commun D à
P et AB tel que deg(D) ≥ 1. Si P est premier avec A, alors D également. D’après le théorème de Gauss,
D divise donc B. On a donc montré que D divise à la fois P et B. Comme deg(D) ≥ 1, cela signifie que
P et B ne sont pas premiers entre eux.
Une récurrence élémentaire permet de montrer plus généralement :
Corollaire I.7.5.
Un polynôme P est premier avec un produit de polynômes A1 · · · Ak si et seulement s’il est premier avec
chacun des facteurs Ai .
Proposition I.7.6.
Soient a, b ∈ K deux scalaires distincts et α, β ∈ N∗ . Alors les polynômes (X − a)α et (X − b)β sont premiers
entre eux.
12
Démonstration. Par le Théorème de Bézout, puisque
1
1
(X − a) +
(X − b) = 1,
b−a
a−b
les polynômes X −a et X −b sont premiers entre eux. Donc, par le corollaire précédent, X −a est premier
avec (X − b)β . De même, puisque (X − b)β est premier avec X − a, il l’est également avec (X − a)α ,
toujours par application du corollaire précédent.
8. Plus petit commun multiple
Soient A, B ∈ K[X] deux polynômes. L’intersection AK[X] ∩ BK[X] des idéaux AK[X] et BK[X] est un idéal
de K[X] (par le lemme I.5.2). Ainsi, d’après le théorème I.5.1, il existe un unique polynôme unitaire ou nul
M ∈ K[X] vérifiant
AK[X] ∩ BK[X] = MK[X].
Le polynôme M s’appelle le plus petit commun multiple de A et B (ou plus brièvement le PPCM de A et B) et
se note A ∨ B. En particulier
AK[X] ∩ BK[X] = (A ∨ B)K[X].
☞ Si A ou B est nul, alors A ∨ B = 0.
☞ Soient A, B, P ∈ K[X] avec P unitaire. Alors (PA) ∨ (PB) = P(A ∨ B).
Proposition I.8.1.
Soient A, B ∈ K[X] deux polynômes. Soit M un polynôme unitaire ou nul. Alors M est le PPCM de A et B si
et seulement s’il vérifie les deux propriétés suivantes :
(i) M est un multiple commun à A et B ;
(ii) M divise tout multiple commun à A et B.
Démonstration. Vérifions tout d’abord que A∨B satisfait (i) et (ii), c’est-à-dire que A∨B est un multiple
commun à A et B et divise tout multiple commun à A et B. Par définition, (A∨B)K[X] = AK[X]∩BK[X].
Ainsi A ∨ B ∈ AK[X] et A ∨ B ∈ BK[X], c’est-à-dire A ∨ B est divisible par A et B. Soit P un multiple
commun A et B. Alors P ∈ AK[X] et P ∈ BK[X]. Donc P ∈ AK[X] ∪ BK[X] = (A ∨ B)K[X], c’est-à-dire
A ∨ B divise P. Supposons maintenant que M vérifie (i) et (ii). Alors A ∨ B divise M car A ∨ B est un
multiple commun à A et B. De plus M divise A ∨ B car A ∨ B est un multiple commun à A et B. Ainsi
A ∨ B et M sont associés par la proposition I.4.1. Etant unitaires ou nuls, ils sont donc égaux.
☞ La proposition précédente dit que le PPCM de deux polynômes A et B est le plus grand élément de l’ensemble
M(A, B) des multiples unitaires ou nuls communs à A et B, lorsque M(A, B) est muni de la relation d’ordre
donnée par la division. Ceci justifie l’appellation plus petit commun multiple.
☞ On peut montrer que A ∨ B est le polynôme unitaire de petit degré divisible à la fois par A et B.
☞ Pour qu’un polynôme unitaire M soit le PPCM deux polynômes non nuls A et de B, il faut et il suffit que :
A|M,
B|M
et
M M
∧
= 1.
A
B
Théorème I.8.2. (Relation PGCD, PPCM, produit)
Soient A et B deux polynômes. Alors il existe une constante ν non nulle telle que
νAB = (A ∧ B)(A ∨ B).
Si A et B sont non nuls, alors ν est l’inverse du produit des coefficients dominants de A et B. En particulier, si
A et B sont unitaires, alors ν = 1.
13
Démonstration. Si A = 0 ou B = 0, alors ν = 1 convient puisque AB = 0 et A ∨ B = 0. Supposons donc
A , 0 et B , 0. Alors A∨B
∧ A∨B
= 1. Soit ν l’inverse du produit des coefficients dominants de A et
A
B
B. Alors νAB est unitaire. Puisque νAB et A ∨ B sont unitaires, on a
!
!
A ∨ B A ∨ B (A ∨ B)
(A ∨ B)
νAB = νAB
∧
= νAB
∧ νAB
A
B
A
B
= νB(A ∨ B) ∧ νA(A ∨ B) = (A ∨ B) (νB ∧ νA) = (A ∨ B)(A ∧ B).
Lorsque A et B sont unitaires, leurs coefficients dominants sont égaux à 1 et donc l’inverse du produit
de ceux-ci aussi.
9. Polynômes irréductibles
Dans cette section, nous introduisons une classe de polynômes qui jouent dans K[X] le même rôle que les nombres
premiers dans Z : les polynômes irréductibles.
Un polynôme P est irréductible s’il n’est pas constant (c’est-à-dire de degré ≥ 1) et si ses seuls diviseurs sont
les polynômes constants non nuls et les polynômes qui lui sont associés.
☞ A la différence des nombres premiers, les polynômes irréductibles ont une infinité de diviseurs (cependant
ceux-ci sont triviaux).
☞ Le polynôme nul n’est pas irréductible.
Proposition I.9.1.
Tout polynôme de degré 1 est irréductible.
Démonstration. Soit P un polynôme de degré 1 et D un diviseur de P. Alors deg(D) ≤ deg(P) = 1 et
donc deg(D) ∈ {−∞, 0, 1}. Or D ne peut être nul car P ne l’est pas. Donc deg(D) ∈ {0, 1}. Si deg(D) = 0
alors D est constant non nul. Si deg(D) = 1, alors P et Q sont associés puisque D|P et deg(D) =
deg(P).
Proposition I.9.2.
Soient A un polynôme et P un polynôme irréductible. Alors P est premier avec A si et seulement si P ne divise
pas A.
Démonstration. C’est une conséquence immédiate du fait que A ∧ P est unitaire et divise P, et donc
que A ∧ P = 1 ou A ∧ P = µ1 P, µ étant le coefficient dominant de P.
Lemme I.9.3.
Tout polynôme non constant admet un diviseur irréductible.
Démonstration. Soit P un polynôme non constant. Notons E l’ensemble des polynômes non constants
divisant P. Cet ensemble est non vide car P ∈ E. Ainsi la partie {deg A | A ∈ E} de N∗ est non vide et
donc admet un plus petit élément deg(D) avec D ∈ E. Supposons que D ne soit pas irréductible. Alors
il existe U, V ∈ K[X] non constants tels que D = UV. En particulier U ∈ E et deg(U) < deg(D) (car
deg(D) = deg(U) + deg(V) et deg(V) ≥ 1), ce qui contredit la définition de D. Donc D est un diviseur
irréductible de P.
14
Théorème I.9.4.
Dans K[X], il y a une infinité de polynômes irréductibles deux à deux non associés.
Démonstration. Soient P1 , . . . , Pn des polynômes irréductibles deux à deux non associés. Le polynôme
Q = 1 + P1 · · · Pn est non constant et donc admet un diviseur irréductible D. Le polynôme D ne divise
aucun des Pi (sinon il diviserait 1 = Q − P1 · · · Pn et serait constant) et donc n’est associé avec aucun
des Pi . En résumé, s’il y a au moins n polynômes irréductibles deux à deux non associés, il en existe au
moins n+1. Puisqu’il existe au moins un polynôme irréductible (par exemple le polynôme X car il est de
degré 1), on conclut qu’il existe une infinité de polynômes irréductibles deux à deux non associés. De même que tout entier ≥ 2 possède une décomposition en facteurs premiers, tout polynôme non constant a une
décomposition en facteurs irréductibles :
Théorème I.9.5. (Décomposition en facteurs irréductibles)
Soit P ∈ K[X] un polynôme non constant. Alors il existe un entier k strictement positif, k entiers α1 , . . . , αk
strictement positifs et k polynômes irréductibles unitaires P1 , . . . , Pk deux à deux distincts tels que
P = µ Pα1 1 Pα2 2 · · · Pαk k ,
où µ ∈ K∗ est le coefficient dominant de P. Cette décomposition est unique à l’ordre des facteurs près et
s’appelle la décomposition en facteurs irréductibles de P.
Démonstration. Démontrons tout d’abord l’existence d’une telle décomposition par récurrence. Soit
An l’assertion : "tout polynôme non constant de degré au plus n admet une décomposition en facteurs
irréductibles. Vérifions que A1 est vraie. Soit P un polynôme non constant de degré ≤ 1. Alors il
est de degré 1. Soit µ le coefficient dominant de P et posons k = 1, α1 = 1 et P1 = µ1 P. Ainsi P1 est
unitaire, est irréductible (par la proposition I.9.1) et P = µPα1 1 . Donc l’assertion A1 est vraie. Supposons
maintenant que An soit vraie et montrons que An+1 l’est également. Soit P un polynôme non constant
de degré au plus n + 1. Notons µ le coefficient dominant de P et P̃ son unitarisé. On a P = µ P̃. Si P
est irréductible, alors P = µ P̃ est une décomposition de P en facteurs irréductibles. Sinon, il existe un
polynôme A unitaire de degré compris entre 1 et n qui divise P̃. On a donc P̃ = AB avec A et B unitaires
et de degré compris entre 1 et n. Puisque An est vrai, A et B admettent chacun une décomposition en
facteurs irréductibles : A = Aα1 1 · · · Aαk k et B = Bβ11 · · · Bβℓ ℓ . Donc
β
β
P = µ Aα1 1 · · · Aαk k B11 · · · Bℓ ℓ .
Il ne reste plus qu’à renuméroter les facteurs de la décomposition pour obtenir le résultat voulu. Démontrons maintenant l’unicité de la décomposition. Supposons qu’un polynôme non constant P admette
β
β
β
deux décompositions en facteurs irréductibles : P = µ Pα1 1 Pα2 2 · · · Pαk k = µ Q11 Q22 · · · Qℓ ℓ , de sorte que
Pα1 1 Pα2 2 · · · Pαk k = Qβ11 Qβ22 · · · Qβℓ ℓ .
β
β
β
(1)
Puisque P1 n’est pas premier avec le produit Q11 Q22 · · · Qℓ ℓ (car P1 divise ce produit et est de degré
≥ 1), on obtient par le corollaire I.7.5 que P1 n’est pas premier avec au moins l’un des Q j : il existe j1
tel que P1 et Q j1 ne soient pas premiers entre eux. Comme par ailleurs Q j1 et P1 sont irréductibles et
unitaires, on en déduit que P1 = Q j1 . De plus remarquons que l’entier j1 tel que P1 = Q j1 est unique
car les Q j sont deux à deux distincts. Puisque K[X] est intègre (voir proposition I.3.2), on peut donc
simplifier (1) par P1 . On itère ce procédé et en α1 + · · · + αk étapes, on parvient à une expression du
type
ℓ
Y
β′
1=
Qjj
j=1
15
avec β′ji = β ji − αi pour tout 1 ≤ i ≤ k. Cela permet de conclure que tous les β′j sont nuls. En particulier
on obtient que ℓ = k et β ji = αi pour tout 1 ≤ i ≤ k. Donc les deux décompositions sont identiques à
l’ordre près des facteurs.
De leurs décompositions en facteurs irréductibles, on peut calculer le PGCD et le PPCM de deux polynômes :
Proposition I.9.6.
Soient P1 , . . . , Pk ∈ K[X] des polynômes irréductibles unitaires deux à deux distincts et α1 , . . . , αk ∈ N,
β1 , . . . , βk ∈ N. Alors :
β
β min(α ,β )
min(α ,β )
Pα1 1 · · · Pαk k ∧ P11 · · · Pk k = P1 1 1 · · · Pk k k ,
β
β max(α1 ,β1 )
max(αk ,βk )
Pα1 1 · · · Pαk k ∨ P11 · · · Pk k = P1
· · · Pk
.
α +β
β
Démonstration. Puisque Pαi i Pi i = Pi i i et αi + βi = min(αi , βi ) + max(αi , βi ), la deuxième égalité se
déduit de la première via le théorème I.8.2. Montrons la première égalité. Notons
A = Pα1 1 · · · Pαk k ,
β
β
B = P1 1 · · · Pk k
et
min(α1 ,β1 )
∆ = P1
min(αk ,βk )
· · · Pk
.
Clairement, ∆ est un diviseur unitaire commun à A et B. Soit D un diviseur commun à A et B. De la
proposition I.9.2, on déduit facilement qui si un polynôme irréductible unitaire divise un produit de
polynômes irréductibles unitaires, alors il est égal à l’un des termes du produit. Ainsi la décomposition
en facteurs irréductibles de D est nécessairement de la forme
γ
γ
D = µP11 · · · Pk k
γ
γ
où γ1 , . . . , γk ∈ N et µ ∈ K. Soit 1 ≤ i ≤ k. Le polynôme Pi i divise D et donc A et B. Or Pi i est premier
Q
Q
α
β
γ
β
avec i, j P j j et i, j P j j . Donc, par le théorème de Gauss I.7.3, Pi i divise Pαi i et Pi i . Ainsi γi ≤ αi et
γi ≤ βi . D’où γi ≤ min(αi , βi ). On en déduit que D divise ∆. Ainsi ∆ = A∧B par la proposition I.6.1. 10. Fonctions polynômiales
Soit P = an X n + · · · + a1 X + a0 un polynôme de K[X] et t ∈ K. On définit alors l’élément P(t) de K par
P(t) = an tn + · · · + a1 t + a0 .
On dit que P(t) est obtenu par substitution de t à X.
☞ Soit t ∈ K un scalaire fixé. Alors, pour tous P, Q ∈ K[X] et λ ∈ K, on a :
(P + Q)(t) = P(t) + Q(t),
(PQ)(t) = P(t)Q(t),
(λP)(t) = λP(t) et
1(t) = 1.
La fonction polynômiale (sur K) associée à un polynôme P ∈ K[X] est l’application K → K définie par t 7→ P(t).
11. Racines
Un scalaire a ∈ K est une racine d’un polynôme P ∈ K[X] si P(a) = 0.
Lemme I.11.1.
Soient a ∈ K et P ∈ K[X]. Pour que a soit une racine de P, il faut et il suffit que X − a divise P.
Démonstration. Soit Q et R le quotient et reste de la division euclidienne de P par X − a, c’est-à-dire
P = Q(X − a) + R avec deg(R) < deg(X − a) = 1. Ainsi R est un polynôme constant : il existe c ∈ K tel
que R = c. On obtient que P(a) = c. Ainsi a est une racine de P si et seulement si R = 0, c’est-à-dire si
et seulement si X − a divise P.
16
Soient P ∈ K[X] un polynôme non nul et a ∈ K est une racine de P. Alors l’ensemble
ℓ ∈ N∗ | (X − a)ℓ divise P
est une partie de N∗ non vide (car il contient 1 par le lemme ci-dessus) et majorée par deg(P) (car, P étant non nul,
tout diviseur de P a un degré inférieur à celui de P). Il admet donc un plus grand élément α que l’on appelle la
multiplicité de la racine a. Remarquons que 1 ≤ α ≤ deg(P). Lorsque α = 1 on dit que a est une racine simple,
lorsque α = 2 on dit que a est une racine double, lorsque α = 3 on dit que a est une racine triple, etc.
☞ Une racine a d’un polynôme non nul P est de multiplicité α si et seulement s’il existe Q ∈ K[X] tel que
P(X) = (X − a)α Q(X) avec Q(a) , 0.
Proposition I.11.2.
Si un polynôme admet k racines a1 , . . . , ak deux à deux distinctes, de multiplicité respectives α1 , . . . , αk , alors
il est divisible par
(X − a1 )α1 (X − a2 )α2 · · · (X − ak )αk .
Démonstration. Procédons par récurrence sur k. La propriété est vraie pour k = 1 par définition de la
multiplicité d’une racine. Supposons qu’elle le soit pour k ≥ 1 et soit P un polynôme admettant k + 1
racines a1 , . . . , ak+1 deux à deux distinctes de multiplicité respectives α1 , . . . , αk+1 . Puisque la racine
ak+1 est de multiplicité αk+1 , il existe Q ∈ K[X] tel que P = (X − ak+1 )αk+1 Q avec Q(ak+1 ) , 0. Soit
1 ≤ i ≤ k. Par définition de la multiplicité, (X −ai )αi divise P = (X −ak+1 )αk+1 Q. Or (X −ai )αi est premier
avec (X − ak+1 )αk+1 par la proposition I.7.6 car ai , ak+1 . Donc, par le théorème de Gauss, (X − ai )αi
divise Q. Ainsi les polynômes (X − a1 )α1 , . . . , (X − ak )αk divisent tous Q. Or ils sont premiers entre eux
deux à deux (par la proposition I.7.6 car les ai sont deux à deux distincts). Donc, par l’hypothèse de
récurrence, leur produit (X − a1 )α1 · · · (X − ak )αk divise Q. D’où (X − a1 )α1 · · · (X − ak )αk (X − ak+1 )αk+1
divise (X − ak+1 )αk+1 Q = P.
Théorème I.11.3.
Un polynôme P de degré n ∈ N admet au plus n racines comptées avec leur multiplicité, c’est-à-dire si
{a1 , . . . , ak } est l’ensemble des racines de P, et αi est la multiplicité de ai , alors :
α1 + · · · + αk ≤ n.
Q
Démonstration. D’après la proposition I.11.2, le polynôme Q = ki=1 (X − ai )αi divise P et donc son
degré est inférieur à deg(P) = n (car P , 0 puisque deg(P) ∈ N). Or le degré de Q est α1 + · · · + αk .
D’où le résultat.
Corollaire I.11.4.
Si un polynôme de degré inférieur et égal à n ∈ N admet n + 1 racines (comptées avec leur multiplicité), alors
c’est le polynôme nul. En particulier, seul le polynôme nul admet une infinité de racines.
Corollaire I.11.5.
Une fonction polynômiale est associée a un unique polynôme. Plus précisément, l’application qui à P ∈ K[X]
associe l’application polynômiale fP ∈ F (K, K), définie par fP (x) = P(x) pour x ∈ K, est injective.
17
12. Dérivation des polynômes
Soit P = an X n + · · · + a1 X + a0 un polynôme de K[X]. Le polynôme dérivé de P est le polynôme
P′ = nan X n−1 + · · · + 2a2 X + a1 =
n
X
jai X i−1 .
i=1
La dérivation de K[X] est l’application D : K[X] → K[X] définie par D(P) = P′ .
Proposition I.12.1.
Soient P, Q ∈ K[X] deux polynômes et λ ∈ K un scalaire. Alors :
(a) Si deg(P) ≥ 1, alors deg(P′ ) = deg(P) − 1.
(b) P est constant si et seulement si P′ = 0.
(c) La dérivation est un endomorphisme linéaire de K[X], i.e., (P + Q)′ = P′ + Q′ et (λP)′ = λP′ .
(d) (PQ)′ = P′ Q + PQ′ .
Démonstration. Les trois premiers points sont évidents. Montrons (d). Soit P = a p X p + · · · + a1 X + a0
et Q = bq X q + · · · + b1 X + b0 . En appliquant la définition du polynôme dérivé au produit PQ, on trouve


p+q  X

X


j 
ak bℓ  X j−1 .
(PQ)′ =
j=1
k+ℓ= j
Des calculs élémentaires montrent donc que
p+q X
X
(PQ)′ =
kak X k−1 bℓ X ℓ + ak X k ℓbℓ X ℓ−1
j=1 k+ℓ= j




p+q  X
p+q  X
 X

X





k−1
ℓ
k
ℓ−1 


=
ka
X
b
X
a
X
ℓb
X
+

k
ℓ
k
ℓ




j=1 k+ℓ= j
j=1 k+ℓ= j
 q
  p
 q

 p
 X
 X
 X

X
=  kak X k−1   bℓ X ℓ  +  ak X k   ℓbℓ X ℓ−1 
k=1
′
ℓ=0
k=0
ℓ=1
′
= P Q + PQ .
Pour k ∈ N, on définit par récurrence la dérivée k-ième d’un polynôme P par
′
P(0) = P, P(1) = P′ , et P(k+1) = P(k) .
Par exemple, pour a ∈ K et k ≥ n, on a :
(X − a)n
(k)
=
n!
(X − a)n−k .
(n − k)!
De la proposition I.12.1, on déduit par récurrence :
Corollaire I.12.2.
Soient P, Q ∈ K[X] et n ∈ N. Alors
(n)
(PQ)
!
n
X
n (k) (n−k)
=
P Q
.
k
k=0
18
Théorème I.12.3. (Formule de Taylor)
Soit P ∈ K[X] un polynôme de degré n ∈ N et a ∈ K. Alors
n
X
P(k) (a)
P=
(X − a)k .
k!
k=0
Démonstration. Pour k ∈ N, notons Ek = (X − a)k . Du fait que deg(Ek ) = k, on déduit facilement
que la famille (Ek )k∈N est une base de K[X]. Ainsi il existe des scalaires a0 , . . . , an ∈ K tels ques
P = an En + · · · + a0 E0 . Soit 0 ≤ k ≤ n. Rappelons que, pour m ∈ N,
( m!
(X − a)k−m si m ≤ k,
Ek(m) = (k−m)!
0
si m > k.
Ainsi Ek(m) (a) = 0 si m , k et Ek(k) (a) = k!. Par conséquent P(k) (a) = an En(k) (a) + · · · + a0 E0(k) (a) = ak k!.
D’où le résultat.
Corollaire I.12.4.
Soient P ∈ K[X], a ∈ K et α ∈ N. Alors a est une racine de P de multiplicité α si et seulement si
P(a) = P′ (a) = · · · = P(α−1) (a) = 0 et
P(α) (a) , 0.
Démonstration. Supposons P(a) = P′ (a) = · · · = P(α−1) (a) = 0 et P(α) (a) , 0. Alors la formule de
Taylor donne P = (X − a)α Q où
n−α (k+α)
X
P
(a)
Q=
(X − a)k .
(k
+
α)!
k=0
Puisque Q(a) = P(α) (a)/α! , 0, on en déduit que a est une racine de P de multiplicité α. Réciproquement, supposons que a soit une racine de P de multiplicité α. Alors il existe Q ∈ K[X] tel que
P = (X − a)α Q avec Q(a) , 0. En utilisant le corollaire I.12.2, on obtient que, pour 0 ≤ k ≤ α,
!
!
k
k
X
X
k
k
α!
(k)
α (i)
(k−i)
P (a) =
(X − a)
(a) Q
(a) =
0α−i Q(k−i) (a).
i
i
(α
−
i)!
i=0
i=0
Or 0α−i est nul sauf si i = k = α. Donc P(k) (a) = 0 pour k < α et P(α) (a) = α!Q(a) , 0.
13. Polynômes scindés
Un polynôme est scindé s’il n’est pas constant et si la somme des multiplicités de ses racines est égal à son degré.
Autrement dit, un polynôme P ∈ K[X] de degré n ∈ N est scindé s’il existe µ ∈ K∗ et n scalaires λ1 , . . . , λn ∈ K
(pas nécessairement distincts) tels que
P = µ (X − λ1 )(X − λ2 ) · · · (X − λn ).
Pour λ1 , . . . , λn ∈ K et 1 ≤ k ≤ n, on pose :
σk (λ1 , . . . , λn ) =
X
λi1 λi2 · · · λik .
1≤i1 <i2 <···<ik ≤n
En particulier σ1 (λ1 , . . . , λn ) = λ1 + λ2 + · · · + λn et σn (λ1 , . . . , λn ) = λ1 λ2 · · · λn .
Lorsque P = a2 X 2 + a1 X + a0 est un polynôme scindé de degré 2 ayant λ1 et λ2 pour racines, puisqu’alors
P = a2 (X − λ1 )(X − λ2 ) = a2 X 2 − a2 (λ1 + λ2 )X + a2 λ1 λ2 , on trouve les relations :
a1
a0
σ1 (λ1 , λ2 ) = λ1 + λ2 = −
et σ2 (λ1 , λ2 ) = λ1 λ2 = .
a2
a2
Plus généralement, on montre par récurrence le théorème suivant :
19
Théorème I.13.1. (Relation entre les coefficients et les racines d’un polynôme scindé)
Soit P = an X n + · · · + a1 X + a0 ∈ K[X] un polynôme scindé de degré n ∈ N. Notons λ1 , . . . , λn les racines
de P (les racines multiples figurant dans cette liste autant de fois que le veut leur multiplicité). Alors, pour
tout 1 ≤ k ≤ n,
an−k
σk (λ1 , . . . , λn ) = (−1)k
.
an
14. Polynômes irréductibles de C[X]
Le très important résultat suivant est connu sous le nom de théorème de d’Alembert-Gauss ou théorème fondamental de l’algèbre. Il en existe de nombreuses preuves, mais toutes dépassent le cadre du programme.
Théorème I.14.1. (Théorème de d’Alembert-Gauss)
Tout polynôme de C[X] non constant admet une racine dans C.
☞ Les deux racines complexes (éventuellement confondues) d’un polynôme P = aX 2 + bX + c de degré 2 et à
coefficients complexes sont
λ1 =
−b + δ
2a
et
λ2 =
−b − δ
2a
où δ est une racine carré (dans C) du discriminant ∆ = b2 − 4ac. Le théorème de d’Alembert-Gauss exprime
que toute équation polynômiale de degré n admet n solutions (éventuellement confondues) dans C. Dans le cas
n = 3 ou 4, il existe des formules (assez compliquées) donnant les solutions en fonction des coefficients. Pour
une équation de degré supérieur ou égal à 5, il a été prouvé par un jeune mathématicien du XIX ème siècle, E.
Galois, que de telles formules n’existent pas !
Corollaire I.14.2.
Un polynôme de C[X] est irréductible si et seulement s’il est de degré 1.
Démonstration. Par la proposition I.9.1, tout polynôme de degré 1 est irréductible. Réciproquement,
soit P ∈ C[X] de degré au moins 2. D’après le théorème de d’Alembert-Gauss, P admet au moins une
racine a. Donc P est divisible par X − a. Clairement X − a n’est pas constant et n’est pas associé à P
(car P et X − a n’ont pas le même degré). Donc P n’est pas irréductible.
En appliquant le théorème I.9.5 de décomposition en facteurs irréductible, on en déduit :
Corollaire I.14.3.
Tout polynôme non constant P de C[X] admet une décomposition en facteurs irréductibles du type suivant :
P=µ
k
Y
(X − λi )αi ,
i=1
où λ1 , . . . , λk sont les racines complexes deux à deux distinctes de P, αi est la multiplicité de λi , et µ ∈ C∗ est
le coefficient dominant de P. En particulier, tout polynôme non constant de C[X] est scindé.
20
15. Polynômes irréductibles de R[X]
Dans R[X], la situation est un peu plus compliquée que dans C[X]. En effet, tous les polynômes irréductibles ne
sont pas de degré 1. Par exemple, X 2 + 1 est irréductible dans R[X] car il n’a pas de racine réelle (la fonction polynômiale associée est minorée par 1 et donc ne s’annule jamais). Avant de dresser une liste de tous les polynômes
irréductibles de R[X] (voir le théorème I.15.2 ci-après), établissons le lemme suivant :
Lemme I.15.1.
Soit P = an X n + · · · + a1 X + a0 un polynôme de C[X]. Notons P = an X n + · · · + a1 X + a0 le polynôme conjugué.
Alors r ∈ C est une racine de P de multiplicité α si et seulement si r est une racine de P de multiplicité α.
Démonstration. Soit r une racine de P de multiplicité α. Alors il existe un polynôme Q ∈ C[X] tel
que P = (X − r)α Q. En prenant le conjugué de cette expression, on obtient P = (X − r)α Q. Donc r est
racine de P de multiplicité α′ ≥ α. En échangeant les rôles de P et P, r et r, α et α′ , on obtient α ≥ α′ .
D’où le résultat.
Théorème I.15.2.
Les polynômes irréductibles de R[X] sont :
(a) les polynômes de degré 1 ;
(b) les polynômes de degré 2 ayant un discriminant strictement négatif : P = aX 2 + bX + c avec a , 0
et ∆ = b2 − 4ac < 0.
Démonstration. On sait déjà, par la proposition I.9.1, que les polynômes de degré 1 sont irréductibles.
Soit maintenant P = aX 2 + bX + c de degré 2 à coefficients réels ayant un discriminant ∆ = b2 − 4ac
strictement négatif. La fonction polynômiale


!2


b
−∆
t ∈ R 7→ P(t) = a  X −
+ 2  ∈ R
a
4a
associée à P ne s’annule pas sur R et donc aucun polynôme de degré 1 ne divise P. Ainsi un polynôme
de degré 2 à coefficients réels ayant un discriminant strictement négatif est irréductible dans R[X]. De
plus nous savons que tout polynôme de degré 2 à coefficients réels ayant un discriminant positif ou nul
n’est pas irréductible dans R[X] (car un tel polynôme admet deux racines réelles r1 et r2 , éventuellement
confondues, et est donc de la forme λ(X − r1 )(X − r2 ) pour un certain λ ∈ R∗ ). Finalement, montrons
que tout polynôme de degré au moins 3 n’est pas irréductible. Soit P ∈ R[X] un polynôme de degré
au moins 3. Supposons que P ne possède pas de racine réelle (sinon P ne serait pas irréductible dans
R[X] car produit d’un polynôme de degré 1 avec un polynôme de degré au moins 3 − 1 = 2). D’après
le lemme I.15.1, les racines complexes (non réelles) de P sont deux à deux conjuguées (avec ordres
de multiplicité égaux deux à deux). Le corollaire I.14.3 assure donc l’existence de nombres complexes
(non réels) λ1 , . . . , λℓ , d’entiers α1 , . . . , αℓ , et d’un réel µ, tels que
ℓ Y
P=µ
(X − λi )αi (X − λi )αi .
i=1
Or on vérifie facilement que
αi
(X − λi )αi (X − λi )αi = X 2 − 2Re(λi )X + |λi |2 .
Donc P s’écrit en particulier comme produit du polynôme réel X 2 − 2Re(λ1 )X + |λ1 |2 de degré 2 avec
un polynôme réel de degré au moins 3 − 2 = 1, et n’est donc pas irréductible.
En reprenant la preuve ci-dessus, on déduit facilement le résultat suivant :
21
Corollaire I.15.3.
Tout polynôme P non constant à coefficients réels admet dans R[X] une décomposition en facteurs irréductibles du type suivant :
k
ℓ Y
Y
β j
P=µ
(X − ai )αi
X 2 − 2Re(λ j )X + |λ j |2 ,
i=1
j=1
où a1 , . . . , ak sont les racines réelles deux à deux distinctes de P, λ1 , . . . , λℓ sont les racines complexes et non
réelles deux à deux distinctes de P, l’entier αi est la multiplicité de ai , l’entier β j est la multiplicité de λ j , et
µ ∈ R∗ est le coefficient dominant de P.
22
Exercices sur les polynômes
Dans les exercices suivants, K désigne R ou C.
Exercice 1.
Soient a et b deux éléments de K. Calculer le produit des suites u = (un )n∈N et v = (vn )n∈N définies par un = an et
vn = bn pour n ∈ N. On pourra utiliser l’identité


1 − xn+1



si x , 1,
n
1 + x+ ··· + x = 
1−x


 n+1
si x = 1.
Exercice 2.
Montrer qu’une famille de polynômes (Pk )k∈N qui est échelonnée, c’est-à-dire telle que deg(Pk ) = k, est une base
de K[X].
Exercice 3.
Soient a, b ∈ K distincts. Pour 0 ≤ k ≤ n, posons Pk = (X − a)k (X − b)n−k .
Montrer que (P0 , · · · , Pn ) est une base de Rn [X].
Exercice 4. (Interpolation de Lagrange)
Soit n ∈ N∗ et a0 , . . . , an ∈ K des scalaires deux à deux distincts. On considère l’application :
(
Kn [X] → Kn+1
ϕ:
P
7→ (P(a0 ), · · · , P(an ))
a. Montrer que ϕ est un isomorphisme d’espaces vectoriels.
b. Calculer Li = ϕ−1 (ei ) où ei est le i-ième vecteur de la base canonique de Kn+1 .
Justifier pourquoi (Li )0≤i≤n est une base de Kn [X].
c. Montrer que pour tout (α0 , . . . , αn ) ∈ Kn+1 , il existe un unique polynôme de degré inférieur ou égal à n tel que
P(ai ) = αi pour tout 0 ≤ i ≤ n. Expliciter ce polynôme dans la base (Li )0≤i≤n .
√
d. Application : déterminer l’unique polynôme de degré ≤ 2 tel que P(−1) = 1, P(1) = −5 et P(2) = 2.
Exercice 5.
Effectuer la division de A ∈ C[X] par B ∈ C[X] dans les cas suivants :
a. A = X 4 − 1 et B = X + 2.
b. A = X 4 + 2X 3 + 4X 2 + 2 et B = X 2 + (1 − i)X + 1 + i.
Exercice 6.
Quel est le reste de la division euclidienne de X 50 par X 2 − 3X + 2 ? Et par X 2 − 2X + 1 ?
Exercice 7.
Calculer le PGCD de P et Q, puis déterminer tous les couples (U, V) ∈ K[X]2 tels que UP + V Q = P ∧ Q dans
les cas suivants :
a. P = X 4 + X 3 − 2X + 1 et Q = X 2 + X + 1.
b. P = X 4 − 10X 2 + 1 et Q = X 4 − 4X 3 + 6X 2 − 4X + 1.
23
Exercice 8.
Soient A, B ∈ K[X] non nuls. Posons p = deg A et q = deg B. On considère l’application :
(
Kq−1 [X] × K p−1 [X] → K p+q−1 [X]
φ:
.
(U, V)
7→ UA + V B
Montrer que φ est bien définie, puis qu’elle est bijective si et seulement si A ∧ B = 1.
Exercice 9.
Soit a ∈ R et Pa = X 4 + (a + 1)X 2 + a.
a. Déterminer, suivant les valeurs de a, la décomposition en facteurs irréductibles de Pa dans R[X] et dans C[X].
b. Pour quelles valeurs de a les polynômes Pa et Q = X 3 − 3X 2 + 2X sont-ils premiers entre eux ?
Exercice 10.
Soit n ∈ N∗ . Montrer que le polynôme 1 + X + X n de C[X] n’a que des racines simples.
Exercice 11.
Quels sont les polynômes P ∈ C[X] tels que P′ divise P ?
Exercice 12.
Quel est l’ensemble des polynômes P ∈ R[X] tels que XP(X − 1) = (X − 2)P(X) ?
Indication : montrer que si un tel polynôme P est non nul, alors 0 et 1 sont ses seules racines.
Exercice 13.
Factoriser X 8 + X 4 + 1 dans R[X].
Exercice 14.
1
1
Pour n ∈ N, on pose Pn = 1 + X + · · · X n et Qn = X n − X + 1. Montrer que Pn et Qn n’ont que des racines
1!
n!
simples dans C.
Exercice 15.
Soit n ≥ 2. Quelle est la multiplicité de la racine 2 du polynôme nX n+2 − (4n + 1)X n+1 + 4(n + 1)X n − 4X n−1 ?
Exercice 16.
Soit E = { P ∈ R[X] | ∃ Q, R ∈ R[X] tels que P = Q2 + R2 }.
a. Montrer que E est stable par multiplication.
b. Montrer que E = { P ∈ R[X] | ∀ x ∈ R, P(x) ≥ 0 }.
Exercice 17.
Soient λ1 , . . . , λn ∈ K. Montrer que, pour k ∈ N∗ , les sommes de Newton pk (λ1 , . . . , λn ) = λk1 + · · · + λkn s’expriment au moyen des σi (λ1 , . . . , λn ), 1 ≤ i ≤ n, et inversement.
Exercice 18.
Soient a, b, c les racines de X 3 − X + 1. Calculer a7 + b7 + c7 .


a+b+c=2

Exercice 19.



 a2 + b2 + c2 = 6
Résoudre dans C le système : 
.


1 1 1 1


 + + =
a b c 2
Exercice 20. (Polynômes cyclotomiques)
Y
Soit n ∈ N∗ . Notons µn l’ensemble des racines primitives n-ièmes de l’unité dans C et φn =
(X − ξ).
ζ∈µn
a. Calculer le degré de φnY
.
b. Montrer que X n − 1 =
φd .
d|n
c. En déduire que les coefficients de φn sont entiers.
24
Chapitre II
Réduction des endomorphismes
Dans ce chapitre, K désigne R ou C, et E est un K-espace vectoriel de dimension finie n ≥ 1. Nous noterons L(E)
l’ensemble des endomorphismes de E. Rappelons que L(E) est un K-espace vectoriel de dimension n2 .
1. Motivation
Du point de vue matriciel : on souhaite transformer une matrice carrée A en une matrice semblable B la “plus
simple possible”. Idéalement, la matrice B sera diagonale, et on dira alors que A est diagonalisable. Dans les
cas moins favorables, on pourra seulement transformer A en une matrice B triangulaire (et on dira que A est
trigonalisable), voire triangulaire par blocs.
Du point de vue des endomorphismes : on souhaite décomposer un endomorphisme u de E en une somme finie
Pp
u = i=1 ui d’endomorphismes ui plus simples. Idéalement, les ui seront, à un facteur multiplicatif près, des
projections sur un sous-espace vectoriel de E.
2. Rappels et notations
Nous noterons L(E) le K-espace vectoriels des endomorphismes K-linéaires de E. Pour u ∈ L(E), on note
u0 = idE
En particulier, u1 = u et u2 = u ◦ u.
et, pour k ≥ 0,
uk+1 = u ◦ uk = uk ◦ u.
Pour λ1 , . . . , λn ∈ K, on note diag(λ1 , · · · , λn ) la matrice carrée diagonale de taille n suivante :


λ1 0 · · · 0 


 0 λ2 . . . ... 
 .
diag(λ1 , · · · , λn ) =  . .
 ..
. . . . . 0 


0 · · · 0 λn
Rappelons que la somme de deux sous-espaces vectoriels F et G de E, définie par
F + G = {y + z | y ∈ F, z ∈ G},
est une sous-espace vectoriel E. Deux sous-espaces vectoriels F et G de E sont en somme directe si F ∩G = {0E }.
Si tel est le cas, leur somme F + G se note alors F ⊕ G, et tout élément x de F ⊕ G se décompose de manière
unique en x = y + z avec y ∈ F et z ∈ G.
Soit λ ∈ K. L’application E → E, définie par x 7→ λx, est un endomorphisme de E appelé homothétie de
rapport λ. Notons que l’homothétie de rapport 1 n’est autre que l’application identité idE de E.
Soient F et G deux sous-espaces vectoriels de E qui sont supplémentaires dans E, c’est-à-dire tels que E = F⊕G.
Tout x ∈ E se décompose alors de manière unique en x = yx + zx avec yx ∈ F et zx ∈ G. La projection de E
sur F parallèlement à G est l’endomorphisme p de E définit par p(x) = yx . On rappelle que p est un projecteur,
c’est-à-dire p2 = p, d’image Im(p) = F et de noyau Ker(p) = G. Réciproquement, tout projecteur p de E est la
projection de E sur Im(p) parallèlement à Ker(p).
Soient F et G deux sous-espaces vectoriels de E supplémentaires. La symétrie de E par rapport à F et parallèlement à G est l’endomorphisme s de E défini par s = 2p − id E , où p est la projection de E sur F parallèlement
à G. En décomposant x ∈ E = F ⊕ G en x = y + z avec y ∈ F et z ∈ G, on obtient s(x) = y − z. Toute symétrie s
25
est une involution de E, c’est-à-dire vérifie s2 = idE . Réciproquement, on peut montrer que toute involution est
une symétrie.
Soient u ∈ L(E) et E = (e1 , · · · , en ) une base de E. Alors, pour tout 1 ≤ j ≤ n, il existe des scalaires ai, j ∈ K tels
que
n
X
u(e j ) =
ai, j ei .
i=1
La matrice A = ai, j 1≤i, j≤n est appelée matrice de u dans la base E. Par example, La matrice d’une homothétie
de rapport λ dans n’importe quelle base diag(λ, · · · , λ). En particulier, la matrice de l’identité idE de E dans
n’importe quelle base est la matrice identité :


1 0 · · · 0


0 1 . . . ... 
 .
In =  . .
 ..
. . . . . 0


0 ··· 0 1
Soient E = (e1 , · · · , en ) et F = ( f1 , · · · , fn ) deux bases de E. Pour 1 ≤ j ≤ n, décomposons f j dans la base E : il
existe des scalaires pi, j ∈ K tels que
n
X
pi, j ei .
fj =
i=1
La matrice P = pi, j 1≤i, j≤n est appelée la matrice de passage de la base E vers la base F . Une telle matrice est
toujours inversible. Si u est un endomorphisme de E, A est la matrice de u dans la base E et B est la matrice de u
dans la base F , alors
B = P−1 AP.
En particulier les matrices A et B sont semblables.
Il peut être utile de décomposer une matrice M ∈ Mn (K) en blocs plus petits. Par exemple,
!
A B
M=
C D
avec A ∈ M p (K), B ∈ M p,n−p (K), C ∈ Mn−p,p (K) et D ∈ Mn−p (K). Pour effectuer un produit de matrices par
blocs, on procède comme pour un produit matriciel habituel :
!
!
!
AA′ + BC ′ AB′ + BD′
A B A′ B′
=
.
C D C ′ D′
CA′ + DC ′ CB′ + DD′
Notons que les produits ci-dessus sont des produits de matrices. Il est interdit de permuter l’ordre des termes.
Ceci se généralise sans difficultés à des matrices comportant plus de blocs.
Finalement, rappelons quelques propriétés du déterminant des matrices :
(a) Si A ∈ Mn (K) et B ∈ Mn (K), alors det(AB) = det(A) det(B).
(b) Si A ∈ Mn (K) et B ∈ Mn (K) sont semblables, alors det(A) = det(B).
(c) Si A ∈ M p (K), B ∈ M p,n−p (K) et C ∈ Mn−p (K), alors
!
A B
det
= det(A) det(C).
0 C
3. Sous-espaces stables
Soit u ∈ End(E) un endormorphisme de E. Un sous-espace vectoriel F de E est stable par u si u(F) ⊂ F.
☞ Les sous-espaces vectoriels {0E } et E de E sont stables par tout endomorphisme de E.
☞ L’image Im(u) et le noyau Ker(u) d’un endomorphisme u de E sont toujours stables par u.
26
Soient u ∈ L(E) et F un sous-espace vectoriel de E stable par u. L’endomorphisme induit par u sur F est
l’endomorphisme u|F de F défini par u|F (x) = u(x) pour tout x ∈ F.
Soient F et G deux sous-espaces vectoriels de E supplémentaires. Une base B = (e1 , · · · , en ) de E est dite adaptée
à la décomposition E = F ⊕ G s’il existe un entier m tel que (e1 , · · · , em ) soit une base de F et (em+1 , · · · , en ) soit
une base de G. Notons qu’alors m = dim(F).
Une application directe de la définition de la matrice d’un endomorphisme dans une base donne :
Lemme II.3.1.
Soient u ∈ L(E), F et G deux sous-espaces vectoriels de E supplémentaires et B une base de E adaptée à la
décomposition E = F ⊕ G u ∈ L(E). Alors les assertions suivantes sont équivalentes :
(i) Les sous-espaces vectoriels F et G sont stables par u ;
(ii) La matrice de u dans la base B est de la forme
!
A 0
MatB (u) =
,
0 B
avec A ∈ Mm (K) et B ∈ Mn−m (K), où m = dim(F).
☞ Le lemme précédent se généralise facilement au cas où E = E1 ⊕ · · · ⊕ E p : soient B une base adaptée cette
décomposition et u ∈ L(E). Alors tous les sous-espaces vectoriels Ei sont stables par u si et seulement si la
matrice de u dans B est diagonale par blocs :


A1 0 · · · 0 
 0 A2 · · · 0 

MatB (u) =  .. . . . .

 .
.
. 0 


0 0 · · · Ap
où le k-ième bloc Ak est une matrice carrée de taille dim(Ek ).
☞ Soient F et G deux sous-espaces vectoriels de E supplémentaires de dimension respective m et n − m. Soit B
une base adaptée à la décomposition E = F ⊕ G. Notons p la projection de E sur F parallèlement à G et s la
symétrie de E par rapport à F et parallèlement à G. Alors
!
!
Im 0
Im
0
MatB (p) =
et MatB (s) =
.
0 0
0 −In−m
Proposition II.3.2.
Si u et v sont deux endomorphismes de L(E) qui commutent (c’est-à-dire tels que uv = vu), alors Ker(u) et
Im(u) sont stables par v.
Démonstration. Soit x ∈ Ker(u). Alors u(v(x)) = v(u(x)) = v(0E ) = 0E . Donc v(x) ∈ Ker(u). Soit
maintenant y ∈ Im(u). Il existe x ∈ E tel que y = u(x). Alors v(y) = v(u(x)) = u(v(x)) ∈ Im(u).
4. Polynômes d’endomorphismes et de matrices
Soit u ∈ L(E) un endomorphisme de E. Pour tout polynôme P = a p X p + · · · + a1 X + a0 à coefficients dans K, on
note P(u) l’endomorphisme de E obtenu en substituant u à X, c’est-à-dire
P(u) = a p u p + · · · + a1 u + a0 idE ∈ L(E).
On dit que P(u) est un polynôme de l’endomorphisme u. Par exemple, si P = X 2 − X + 1, alors on a P(u) =
u2 − u + idE ∈ L(E).
Le résultat suivant est une conséquence immédiate des définitions :
27
Proposition II.4.1.
Soit u ∈ L(E). L’application
Φ:
(
vérifie :
K[X] → L(E)
P
7→ P(u)
(a) Φ est linéaire : pour tous P, Q ∈ K[X] et λ ∈ K,
Φ(P + Q) = Φ(P) + Φ(Q)
et
Φ(λP) = λ Φ(P).
(b) Φ est multiplicative et unitaire : pour tous P, Q ∈ K[X],
Φ(PQ) = Φ(P) Φ(Q)
et
Φ(1) = idE .
On dit que Φ est un morphisme d’algèbre.
De même, pour toute matrice carrée A ∈ Mn (K) et tout polynôme P = a p X p + · · · + a1 X + a0 ∈ K[X], on note
P(A) la matrice carrée obtenue en substituant A à X, c’est-à-dire
P(A) = a p A p + · · · + a1 A + a0 In ∈ Mn (K).
!
1 −2
et P = X 2 − X + 2, alors
−1 3
!2
!
!
!
1 −2
1 −2
1 0
4 −6
P(A) =
−
+2
=
.
−1 3
−1 3
0 1
−3 10
On dit que P(A) est un polynôme de la matrice A. Par exemple, si A =
☞ Si A est une matrice triangulaire supérieure avec λ1 , . . . , λn ∈ K pour coefficients diagonaux :


λ1 ⋆ · · · ⋆ 


 0 λ2 . . . ... 
 ,
A =  . .
 ..
. . . . . ⋆ 


0 · · · 0 λn
alors, pour tout P ∈ K[X], P(A) est triangulaire supérieure avec P(λ1 ), . . . , P(λn ) pour coefficients diagonaux :


⋆
···
⋆ 
P(λ1 )

.. 
..
 0
.
P(λ2 )
. 
P(A) =  .
 .
..
..
 ..

.
.
⋆


0
···
0 P(λn )
Proposition II.4.2.
Soit A ∈ Mn (K). L’application
Ψ:
est un morphisme d’algèbre.
(
K[X] → Mn (K)
.
P
7→ P(A)
Il y a un rapport étroit entre polynômes d’endomorphismes et polynômes de matrices :
Proposition II.4.3.
Soient u ∈ L(E) de E et B une base de E. Alors
pour tout polynôme P ∈ K[X].
MatB P(u) = P MatB (u)
28
En plus d’être des morphismes d’algèbre, les applications Φ et Ψ ont d’autres propriétés utiles :
Proposition II.4.4.
Soient u ∈ L(E) et A ∈ Mn (K). Alors pour tous P, Q ∈ K[X],
P(u)Q(u) = Q(u)P(u) = (PQ)(u),
P(A)Q(A) = Q(A)P(A) = (PQ)(A)
et
t
P(A) = P tA .
Démonstration. La proposition résulte de la commutativité de K[X] et du fait t (A p ) = tA p .
Proposition II.4.5.
Soient u ∈ L(E) et P ∈ K[X]. Alors Im P(u) et Ker P(u) sont stables par u.
Démonstration. Puisque u et P(u) commutent, le résultat découle de la proposition II.3.2.
Lemme II.4.6.
Soient u ∈ L(E) et P, Q ∈ K[X]. Alors Ker P(u) ∩ Ker Q(u) = Ker(P ∧ Q)(u).
Démonstration. Notons ∆ = P ∧ Q le PGCD de P et Q. Soient P1 et Q1 les quotients de P et Q
par ∆, de sorte que P = P1 ∆ et Q = Q1 ∆. Alors P(u) = P1 (u)∆(u) et Q(u) = Q1 (u)∆(u). Ainsi
Ker ∆(u) ⊂ Ker P(u) et Ker ∆(u) ⊂ Ker B(u). D’où Ker ∆(u) ⊂ Ker P(u) ∩ Ker Q(u). Par le théorème
de Bézout généralisé I.7.2, il existe des polynômes U, V ∈ K[X] tels que PU + QV = 1. Ainsi ∆(u) =
U(u)P(u) + V(u)Q(u) et donc Ker P(u) ∩ Ker Q(u) ⊂ Ker ∆(u). D’où le résultat.
Théorème II.4.7. (Lemme des noyaux)
Soit u ∈ L(E). Si P, Q ∈ K[X] sont des polynômes premiers entre eux, alors
Ker PQ(u) = Ker P(u) ⊕ Ker Q(u).
Plus généralement, si P1 , . . . , Pk ∈ K[X] sont des polynômes premiers entre eux deux à deux, alors
k
M
Ker P1 · · · Pk (u) =
Ker Pi (u).
i=1
Démonstration. En utilisant le lemme II.4.6 précèdent, on obtient
Ker P(u) ∩ Ker Q(u) = Ker(P ∧ Q)(u) = Ker 1(u) = Ker(idE ) = {0E },
c’est-à-dire Ker P(u) et Ker Q(u) sont en somme directe. Les inclusions Ker P(u) ⊂ Ker PQ(u) et
Ker Q(u) ⊂ Ker PQ(u) sont conséquence de PQ(u) = P(u)Q(u) = Q(u)P(u). Ainsi
Ker P(u) ⊕ Ker Q(u) ⊂ Ker PQ(u).
Soit maintenant x ∈ Ker PQ(u). Par le théorème de Bézout I.7.1, il existe deux polynômes U et V tels
que UP + V Q = 1. Ainsi
x = idE (x) = 1(u)(x) = (UP + V Q)(u)(x) = UP(u)(x) + V Q(u)(x)
| {z } | {z }
y
29
z
Puisque Q(u)(y) = (QUP)(u)(x) = (UPQ)(u)(x) = U(u) PQ(u)(x) = 0E , on a y ∈ Ker Q(u). De même,
on montre que z ∈ Ker P(u). Donc x = y + z ∈ Ker P(u) ⊕ Ker Q(u) et
Ker PQ(u) ⊂ Ker P(u) ⊕ Ker Q(u).
D’où Ker PQ(u) = Ker P(u) ⊕ Ker Q(u). La forme généralisée se déduit par récurrence du cas précédent
en remarquant que pour 1 ≤ i ≤ k, on a
Ker P1 · · · Pi Pi+1 (u) = Ker P1 · · · Pi (u) ⊕ Ker Pi+1 (u)
puisque (P1 · · · Pi ) ∧ Pi+1 = 1 d’après le corollaire I.7.5.
5. Valeurs propres, vecteurs propres
Soit u ∈ L(E) un endomorphisme de E. Un scalaire λ ∈ K est une valeur propre de u s’il existe un élément
non-nul x de E tel que
u(x) = λx.
L’ensemble des valeurs propre de u s’appelle le spectre de u et se note Spec(u). C’est un sous-ensemble (éventuellement vide) de K.
Un vecteur propre de E est un vecteur 1 x ∈ E tel qu’il existe un scalaire λ ∈ K vérifiant u(x) = λx. En particulier,
le vecteur nul 0E est toujours un vecteur propre de u.
Le sous-espace propre associé à une valeur propre λ ∈ Spec(u) est l’ensemble des vecteurs propres de u associés
à λ. On le note Eλ (u), ou simplement Eλ s’il n’y a pas d’ambiguïté.
Des définitions précédents, on déduit facilement la proposition suivante :
Proposition II.5.1.
Soit λ une valeur propre d’un endomorphisme u de E. Alors le sous-espace propre Eλ (u) est un sous-espace
vectoriel de E non réduit à {0E }, et l’on a
Eλ (u) = Ker(u − λ idE ).
☞ En particulier, 0 est une valeur propre de u si et seulement si Ker(u) n’est pas réduit à {0E }, c’est-à-dire si et
seulement si u n’est pas injectif. Dans ce cas E0 (u) = Ker(u).
☞ Remarquons que si u ∈ L(E) et λ ∈ Spec(u), alors Eλ (u) = Ker Pλ (u) où Pλ = X − λ ∈ K[X].
☞ De la proposition II.3.2, on déduit facilement qu’étant donnés deux endomorphismes de E qui commutent,
tout sous-espace propre de l’un est stable par l’autre.
Proposition II.5.2.
Soit u un endomorphisme de E. Alors :
(a) Si λ est une valeur propre de u, alors Eλ est stable par u. L’endomorphisme de Eλ induit par u est
alors u|Eλ = λ idEλ .
(b) Si λ et µ sont deux valeurs propres distinctes de u, alors Eλ et Eµ sont en somme directe.
(c) Plus généralement, si λ1 , . . . , λ p sont des valeurs propres deux à deux distinctes de u, alors les
espaces propres Eλ1 , . . . , Eλn sont en somme directe.
(d) Soient x1 , . . . , x p des vecteurs propres non nuls de E associés à des valeurs propres λ1 , . . . , λ p deux
à deux distinctes. Alors (x1 , · · · , x p ) est une famille libre.
1. Certains auteurs requièrent qu’un vecteur propre soit non-nul. Lorsque nécessaire, nous dirons ‘vecteur propre non nul’ dans les
énoncés.
30
Démonstration. Du fait que u et u−λidE commutent, (a) est un consequence de la proposition II.3.2. Soit
Les assertions (b) et (d) sont des conséquences directes de (c). Montrons (c). Notons Pi = X − λi pour
1 ≤ i ≤ p. Les scalaires λ1 , . . . , λ p étant deux à deux distincts, les polynômes P1 , . . . , P p sont premiers
entre eux deux à deux par la proposition I.7.6. Donc, par le lemme des noyaux (voir le théorème II.4.7),
les sous-espaces vectoriels Eλ1 = Ker P1 (u), . . . , Eλ p = Ker P p (u) sont en somme directe.
Proposition II.5.3.
Soient u ∈ L(E) et F un sous-espace vectoriel de E stable par u. Notons v = u|F l’endomorphisme induit par u
sur F. Alors toute valeur propre de v est une valeur propre de u et l’on a Eλ (v) = Eλ (u) ∩ F. Réciproquement,
si λ est une valeur propre de u telle que Eλ (u) ∩ F , {0E }, alors λ est une valeur propre de v.
Démonstration. Il suffit de prouver Eλ (v) = Eλ (u) ∩ F. L’inclusion Eλ (v) ⊂ Eλ (u) ∩ F découle de la
définition de v. Réciproquement, si x ∈ Eλ (u) ∩ F, alors v(x) est bien défini puisque x ∈ F et donc
v(x) = u(x) = λx puisque x ∈ Eλ (u). D’où x ∈ Eλ (v).
☞ Soient F et G deux sous-espaces vectoriels de E supplémentaires et non réduits à {0E }. Notons p la projection
de E sur F parallèlement à G et s la symétrie de E par rapport à F et parallèlement à G. Alors
Spec(p) = {0, 1},
Spec(s) = {−1, 1},
E0 (p) = Ker(p) = G,
E−1 (s) = G,
E1 (p) = Im(p) = F,
E1 (s) = F.
Un endomorphisme u de E est nilpotent s’il existe p ∈ N tel que u p = 0. Le plus petit p ∈ N vérifiant cette
propriété est appelé l’indice de nilpotence de u.
Proposition II.5.4.
Si u un endomorphisme nilpotent de E, alors Spec(u) = {0}.
Démonstration. Supposons que 0 ne soit pas une valeur propre de u, de sorte que Ker u = {0E }.
Soit x ∈ E arbitraire. Alors u p (x) = 0E donc u(u p−1 (x)) = 0E d’où u p−1 (x) = 0E . Une récurrence
élémentaire permet de montrer que u p (x) = u p−1 (x) = · · · = u(x) = x = 0E , ce qui est absurde puisque
E n’est pas réduit à {0E } (rappelons que l’on a supposé dans ce chapitre que dim(E) = n ≥ 1). Par
conséquent Spec(u) ⊃ {0}. Réciproquement, montrons que Spec(u) ⊂ {0}. Soit λ ∈ Spec(u) et x un
vecteur propre non nul de u associé à λ. On établit aisément que uk (x) = λk x pour tout k ≥ 1. En
particulier λ p x = u p (x) = 0E . Donc λ p = 0 puisque x , 0E . D’où λ = 0.
☞ En dimension infinie, le spectre d’un endomorphisme peut prendre des formes très diverses. Par exemple,
considérons les deux endomorphismes de E = C ∞ (R, R) ou E = K[X] suivants :
( ∞
(
C (R, R) → C ∞ (R, R)
K[X] → K[X]
et
v:
u:
f
7→
f′
P
7→ XP.
Tout λ ∈ R est valeur propre de u avec pour vecteur propre associé la fonction fλ : x 7→ eλx . Ainsi Spec(u) = R.
Pour λ ∈ K et P ∈ K[X], la relation v(P) = λP signifie que (X − λ)P = 0. Comme X − λ n’est pas le polynôme
nul, l’intégrité de K[X] entraîne que P = 0. Donc Spec(v) = ∅.
Rappelons que dans ce chapitre nous supposons que E est un K-espace vectoriel de dimension finie n ≥ 1. Nous
établirons que le spectre Spec(u) d’un endomorphisme u de E contient au plus n éléments. Lorsque K = C, nous
verrons que Spec(u) n’est jamais vide.
31
6. Le cas des matrices
Soit A ∈ Mn (K). Un scalaire λ ∈ K est une valeur propre de A s’il existe un vecteur colonne non nul X ∈ Mn,1 (K)
tel que AX = λX. L’ensemble des valeurs propres de A s’appelle le spectre de A et se note Spec(A). Un vecteur
propre de A associé à λ ∈ Spec(A) est vecteur colonne X ∈ Mn,1 (K) tel que AX = λX.
Proposition II.6.1.
Soient A ∈ Mn (K) et λ ∈ K. Les propriétés suivantes sont équivalentes :
(i) λ ∈ Spec(A) ;
(ii) A − λIn n’est pas inversible ;
(iii) rg(A − λIn ) < n.
Démonstration. Montrons (i) ⇒ (ii). Considérons un vecteur colonne non nul X ∈ Mn,1 (K) tel que
AX = λX. Soient E = (e1 , · · · , en ) la base canonique de Kn et u l’endomorphisme de Kn ayant pour
matrice A dans la base E. Notons x = x1 e1 + · · · + xn en ∈ Kn où les xi sont les composantes de X.
Puisque X est non nul et vérifie AX = λX, le vecteur x est non nul et appartient à Ker(u − λidE ). Ainsi
l’endomorphisme u − λidE n’est pas inversible, et donc sa matrice dans la base E, qui est A − λIn , non
plus. L’implication (ii) ⇒ (iii) provient du fait que le rang d’un matrice carrée de taille n non inversible
est strictement inférieur à n. Finalement, montrons (iii) ⇒ (i). Avec les notations ci-dessus, puisque
rg(A − λIn ) < n, on a : rg(u − λidE ) < n. Par le théorème du rang, le noyau Ker(u − λidE ) n’est donc
pas réduit à {0E } et ainsi contient un vecteur non nul x = x1 e1 + · · · + xn en . Le vecteur colonne X ayant
pour composantes x1 , . . . , xn est donc non nul et vérifie AX = λX. D’où λ ∈ Spec(A).
Corollaire II.6.2.
Soient u ∈ L(E) et B = (e1 , · · · , en ) une base de E. Alors
Spec(u) = Spec MatB (u) .
De plus, étant donnés λ ∈ Spec(u) et x = x1 e1 + · · · xn en ∈ E, les conditions suivantes sont équivalentes :
(i) Le vecteur x est un vecteur propre de u associé à λ ;
 
 x1 
 
(ii) Le vecteur colonne X =  ...  est un vecteur propre de la matrice MatB (u) associé à λ.
 
xn
Proposition II.6.3.
Si A, B ∈ Mn (K) sont deux matrices semblables, alors Spec(A) = Spec(B).
Démonstration. Il suffit de remarquer que si A et B sont semblables, alors A − λIn et B − λIn également.
Par conséquent A−λIn et B−λIn sont inversibles simultanément. Ainsi on déduit de la proposition II.6.1
que A et B ont même spectre.
Une matrice A ∈ Mn (K) est nilpotente s’il existe un entier p ∈ N tel que A p = 0. Le plus petit entier p ∈ N
vérifiant cette propriété est appelé l’indice de nilpotence de A.
☞ Toute matrice triangulaire supérieure avec des 0 sur la diagonale est nilpotente.
☞ Une matrice A est nilpotente si et seulement si l’endomorphisme u ∈ L(Kn ) associé à A par rapport à la base
canonique de Kn est nilpotent.
☞ Des proposition II.5.4 et corollaire II.6.2, on déduit que si A est une matrice nilpotente, alors Spec(A) = {0}.
32
7. Polynôme caractéristique
Soit A ∈ Mn (K). La matrice XIn − A est à coefficients dans l’algèbre commutative K[X]. Son déterminant est un
polynôme appelé le polynôme caractéristique de A et noté χA :
χA = det(XIn − A) ∈ K[X].
Rappelons que la trace d’une matrice A = (ai, j )1≤i, j≤n est le scalaire tr(a) = a1,1 + · · · + an,n ∈ K.
Proposition II.7.1.
Le polynôme caractéristique d’une matrice A ∈ Mn (K) est unitaire, de degré n, admet −tr(A) pour coefficient
de X n−1 et (−1)n det(A) pour terme constant :
χA = X n − tr(A) X n−1 + · · · + (−1)n det(A).
Démonstration. Notons A = (ai, j )1≤i, j≤n de sorte que XIn − A = (Pi, j )1≤i, j≤n où Pi, j = −ai, j si i , j et
Pi,i = X − ai,i . Alors
n
Y
X
χA = det(XIn − A) =
ε(σ)
Pi,σ(i) .
σ∈S
i=1
n
Q
Si σ , id{1,...,n} , alors ni=1 pi,σ(i) est un polynôme de degré ≤ n − 2 (car une telle permutation σ admet
n−1 dans χ est égal au coefficient de X n−1 dans
au
A
Qnplus n − 2 points
Qn fixes). Donc le coefficient de X
i=1 Pi,σ(i) =
i=1 (X − ai,i ) qui, d’après le théorème I.13.1, est égal à −(a1,1 + · · · + an,n ) = −tr(A).
Finalement, le terme constant de χA est χA (0) = det(−A) = (−1)n det(A).
☞ Dans le cas n = 2, c’est-à-dire pour tout A ∈ M2 (K), on obtient : χA = X 2 − tr(A) X + det(A).
Q
☞ Si le polynôme caractéristique χA d’une matrice A ∈ Mn (K) est scindé, avec χA = ni=1 (X − λi ), alors en
utilisant la proposition II.7.1 et le théorème I.13.1, on trouve :
tr(A) =
n
X
λi
et
i=1
det(A) =
n
Y
λi .
i=1
Proposition II.7.2.
Soient A, B ∈ Mn (K). Alors
(a) χA = χ tA .
(b) Si A et B sont semblables, alors χA = χB .
(c) χAB = χBA .
Démonstration. L’assertion (a) est conséquence directe de t (XIn − A) = XIn − t A. Montrons (b). Puisque
les matrices A et B sont semblables, les matrices λIn − A et λIn − B le sont également pour tout λ ∈ K.
Donc χA (λ) = det(λIn − A) = det(λIn − B) = χB (λ) pour tout λ ∈ K. On conclut en utilisant le
corollaire I.11.5. Finalement, montrons (c). Remarquons que
!
!
!
!
!
!
XIn A In 0
XIn − AB A
XIn A In −A
XIn
0
=
et
=
.
B In −B In
0
In
B In 0 XIn
B XIn − BA
Par conséquent, en prenant le déterminant de ces égalités, on obtient
!
!
XIn A
XIn A
n
det
= det(XIn − AB) = χAB et X det
= X n det(XIn − BA) = X n χBA .
B In
B In
D’où χAB = χBA .
33
Le résultat suivant est fondamental. Le calcul du polynôme caractéristique permet de déterminer les valeurs
propres :
Théorème II.7.3.
Soient A ∈ Mn (K) et λ ∈ K. Alors λ ∈ Spec(A) si et seulement si χA (λ) = 0.
Démonstration. D’après la proposition II.6.1, λ ∈ Spec(A) si et seulement si A−λIn n’est pas inversible,
donc si et seulement si det(A − λIn ) = 0, ou encore χA = det(λIn − A) = 0.
Corollaire II.7.4.
Soit A ∈ Mn (K) (rappelons que K = R ou C). Alors
(a) Spec(A) possède au plus n éléments.
(b) Si A ∈ Mn (C), alors Spec(A) n’est pas vide.
(c) Soit A ∈ Mn (R). Alors le spectre de A dans R est inclus dans le spectre de A dans C.
Démonstration. Pour (a), on utilise le fait qu’un polynôme de degré n ≥ 1 admet au plus n racines.
La propriété (b) résulte du théorème de d’Alembert-Gauss I.14.1. Finalement, puisque l’ensemble des
racines réelles d’un polynôme est inclus dans l’ensemble de ses racines complexes, on obtient (c). !
X −1
0 1
☞ Le polynôme caractéristique de A =
est χA = = X 2 + 1. Donc, d’après le théorème II.7.3, le
1 X −1 0
spectre de A dans C est {−i, i}. Mais comme χA n’a pas de racine réelle, le même théorème montre que A n’a
pas de valeur propre dans R et donc que le spectre de A dans R est vide.


λ1 ⋆ · · · ⋆ 

. 
..
n
Y
. .. 
 0 λ2
 est
(X − λk ).
☞ Le polynôme caractéristique d’une matrice triangulaire supérieure A =  . .
 ..
. . . . . ⋆ 
k=1


0 · · · 0 λn
☞ La matrice compagnon associée à n scalaires a0 , . . . , an−1 ∈ K est la matrice :

0 0

1 0

A = 0 1

 .. . . .
 .
0 ···
···
..
.
..
.
..
.
0

a0 


a1 
..  ∈ M (K).
n
0
. 

0 an−2 

1 an−1
0
..
.
Par définition du polynôme caractéristique, on a :
0 ···
X
..
.
−1 X
.
χA = 0 −1 . .
..
.. . .
.
.
.
0 ··· 0
34
−a1 ..
.
0
.
X
−an−2 −1 X − an−1 0
..
.
−a0
Notons Li la i-ième ligne de ce déterminant. Remplacer L1 par L1 + XL2 + · · · + X n−1 Ln ne modifie pas le
déterminant. Par conséquent,
0 ···
0
..
.
−1 X
.
χA = 0 −1 . .
..
.. . .
.
.
.
0 ··· 0
X n − an−1 X n−1 − · · · − a1 X − a0 −a1
..
.
0
.
X
−an−2
−1
X − an−1
0
..
.
En développant ce déterminant par rapport à la première ligne, on obtient :
χA = X n − an−1 X n−1 − · · · − a1 X − a0 = X n −
n−1
X
ak X k .
k=0
De même, à tout endomorphisme de E de dimension est associé un polynôme caractéristique :
Proposition-définition II.7.5.
Soit u ∈ L(E). Le polynôme caractéristique χMatB (u) de la matrice de u dans une base B de E ne dépend pas
du choix de la base B. On le note χu et l’appelle le polynôme caractéristique de u.
Démonstration. Si B et B′ sont deux base de E, alors les matrices MatB (u) et MatB′ (u) sont semblables
et leurs polynômes caractéristiques sont donc égaux (par la proposition II.7.2).
Des théorème II.7.3 et corollaire II.6.2, on déduit facilement le résultat fondamental suivant :
Théorème II.7.6.
Soient u ∈ L(E) et λ ∈ K. Alors λ ∈ Spec(u) si et seulement si χu (λ) = 0.
☞ Soient F et G deux sous-espaces vectoriels de E supplémentaires. Notons p la projection de E sur F parallèlement à G et s la symétrie de E par rapport à F et parallèlement à G. Rappelons (voir la section II.3) que si B
une base adaptée à la décomposition E = F ⊕ G, alors
!
Im 0
MatB (p) =
0 0
!
Im
0
MatB (s) =
,
0 −In−m
et
où m = dim(F). Donc
(X − 1)Im
0 χp = = (X − 1)m X n−m
0
XIn−m et
(X − 1)Im
0
χs = = (X − 1)m (X + 1)n−m .
0
(X + 1)In−m ☞ Le polynôme caractéristique d’un endomorphisme nilpotent u de E est χu = X n . En effet, Spec(u) = {0} par
la proposition II.5.4. Par conséquent χu est un polynôme de degré n ayant pour unique racine 0 dans C. Par
conséquent, étant unitaire et scindé dans C[X], le polynôme χu est forcément égal à X n .
La connaissance des sous-espaces vectoriels stables par un endomorphisme u fournit des renseignements sur les
diviseurs du polynôme caractéristique de u :
35
Proposition II.7.7.
Soit u un endomorphisme de E. Alors :
(a) Si F est un sous-espace vectoriel stable par u et u|F désigne l’endomorphisme de F induit par u,
alors χu|F divise χu .
(b) Soient F, G des sous-espaces vectoriels de E supplémentaires et stables par u. Alors χu = χu|F χu|G .
Démonstration. Montrons (a). Considérons une base E = (e1 , · · · , em ) de F que l’on complète en une
base B = (e1 , · · · , en ) de E. La matrice de u dans B est alors de la forme
!
A C
MatB (u) =
,
0 B
où A ∈ Mm (K), B ∈ Mn−m (K) et C ∈ Mm,n−m (K). Remarquons que A est la matrice de u|F dans la
base E, et donc χu|F = det(XIm − A). Ainsi
!
XIm − A
−C
χu = det
= det(XIm − A) det(XIn−m − B) = χu|F det(XIn−m − B).
0
XIn−m − B
D’où χu|F divise χu . Montrons (b). Soit B = (e1 , · · · , en ) une base de E adaptée à la décomposition
E = F ⊕ G. La matrice de u dans B est alors de la forme
!
A 0
MatB (u) =
,
0 B
où A ∈ Mm (K) et B ∈ Mn−m (K). Or A et B sont respectivement les matrices de u|F et u|G dans les
bases (e1 , · · · , em ) de F et (em+1 , · · · , en ) de G, où m = dim(F). En procédant comme précédemment,
on trouve donc χu = det(XIm − A) det(XIn−m − B) = χu|F χu|G .
Corollaire II.7.8.
Soit u ∈ L(E) un endomorphisme de E. Si λ est une racine de χu de multiplicité α, alors
1 ≤ dim(Eλ ) ≤ α.
En particulier, si λ est racine simple de χu , alors dim(Eλ ) = 1.
Démonstration. Soit λ une racine de χu . Alors λ est une valeur propre de u (d’après le théorème
II.7.6) et donc Eλ n’est pas réduit à {0E }. Ainsi β = dim(Eλ ) ≥ 1. De plus, d’après la proposition
II.5.2, l’endomorphisme induit par u sur Eλ coincide avec λ idEλ . Son polynôme caractéristique est
donc (X − λ)β . D’après la proposition précédente, (X − λ)β divise donc χu . Or, par définition de la
multiplicité, χu = (X − λ)α Q où Q ∈ K[X] est tel que Q(a) , 0 et donc (X − λ)β ∧ Q = 1. Ainsi, par le
théorème de Gauss I.7.3, (X − λ)β divise (X − λ)α . D’où β ≤ α.
☞ En général dim(Eλ ) = 1 n’implique pas que λ soit une racine simple de χu . En effet, considérons un espace
vectoriel E de dimension 2 et soit (e1 , e2 ) une base de E. On définit u ∈ L(E) par u(e1 ) = 0E et u(e2 ) = e1 .
Alors E0 = Ker(u) = Ke1 et donc E0 est de dimension 1. Or χu = X 2 car u est nilpotent. Donc 0 est une racine
double de χu .
8. Diagonalisation
Un endomorphisme u ∈ L(E) est diagonalisable s’il existe un base B de E constituée de vecteurs propres de u.
Une matrice A ∈ Mn (K) est diagonalisable si A est semblable à une matrice diagonale.
La proposition suivante fait le lien entre ces deux définitions.
36
Proposition II.8.1.
(a) Un endomorphisme u ∈ L(E) est diagonalisable si et seulement s’il existe une base B de E telle que
MatB (u) soit une matrice diagonale.
(b) Une matrice A ∈ Mn (K) est diagonalisable si et seulement si l’endomorphisme u dont A est la
matrice dans la base canonique de Kn est diagonalisable. Dans ce cas, si B = (e1 , · · · , en ) est une
base de vecteurs propres de u et λi est la valeur propre associée à ei , on a :
A = P diag(λ1 , · · · , λn ) P−1
où P est la matrice de passage de la base canonique de Kn à la base B.
Démonstration. Montrons (a). Si u est diagonalisable, alors sa matrice dans une base de vecteurs
propres est diagonale. Réciproquement, si dans une base B = (e1 , · · · , en ) de E la matrice de u est
diagonale, alors tous les ei sont vecteurs propres pour u. Montrons (b). Supposons u diagonalisable et
soit B = (e1 , · · · , en ) une base de Kn constituée de vecteurs propres de u. Notons λi la valeur propre
associée à ei et E = (ε1 , · · · , εn ) la base canonique de Kn . La matrice de passage de la base E à la base B
est P = MatB,E (idKn ). Donc
A = MatE (u) = MatB,E (idKn ) MatB (u) MatE,B (idKn ) = P diag(λ1 , · · · , λn ) P−1 .
Réciproquement, supposons que A soit diagonalisable, c’est-à-dire qu’il existe P ∈ GLn (K) et des
scalaires λ1 , . . . , λn ∈ K tels que A = P diag(λ1 , · · · , λn ) P−1 . Notons φ et δ les endomorphismes
de Kn dont les matrices dans la base canonique E = (ε1 , · · · , εn ) de Kn sont respectivement P et
diag(λ1 , · · · , λn ). Or φ est un automorphisme de Kn (car P est inversible) et la matrice de φ−1 dans
la base E est P−1 . Ainsi u = φδφ−1 . Finalement, pour 1 ≤ i ≤ n, le vecteur ei = φ(εi ) ∈ Kn vérifie
u(ei ) = uφ(εi ) = φδ(εi ) = λi φ(εi ) = λi ei et donc est un vecteur propre pour u. De plus la famille
B = (e1 , · · · , en ) est un base de Kn (car φ est un automorphisme de Kn et E est une base de Kn ). Par
conséquent u est diagonalisable.
Théorème II.8.2.
Soit u ∈ L(E). Notons Spec(u) = {λ1 , · · · , λ p }. Alors les assertions suivantes sont équivalentes :
(i) u est diagonalisable.
p
M
(ii) E =
Eλi .
i=1
(iii) dim(E) =
p
X
dim(Eλi ).
i=1
(iv) Il existe une base B de E et des entiers non nuls d1 , . . . , d p tels que d1 + · · · d p = dim(E) et


0
···
0 
λ1 Id1
.. 

..
.
 0
λ2 Id2
. 
MatB (u) =  .
 .
.
.
 ..

..
..
0


0
···
0 λ p Id p
(v) Le polynôme caractéristique χu de u est scindé dans K[X] et la dimension de chaque sous-espace
propre Eλi de u est égale à la multiplicité de λi dans χu .
Si tel est le cas, on a :
di = dim(Eλi ) et
p
Y
χu =
(X − λi )dim(Eλi )
i=1
37
Démonstration. Sachant que les sous-espaces propres Eλi sont des sous-espaces vectoriels de E en
somme directe (par la proposition II.5.2), on en déduit l’équivalence entre (ii) et (iii). Montrons l’implication (i) ⇒ (iii). Soit (e1 , · · · , en ) une base de vecteurs propres de u que l’on ordonne de telle sorte
que les d1 premiers vecteurs soient associés à λ1 , les d2 suivants à λ2 , etc.... Ainsi d1 + · · · + d p = n et
Pp
p
dim(Eλi ) ≥ di . Or i=1 dim(Eλi ) ≤ n car ⊕i=1 Eλ1 est un sous-espace vectoriel de E. D’où dim(Eλi ) = di
Pp
p
et i=1 dim(Eλi ) = n. L’implication (ii) ⇒ (iv) est une conséquence directe du fait que si E = ⊕i=1 Eλi ,
alors la matrice de u dans une base adaptée à cette décomposition est du type voulu. La proposition II.8.1
montre l’implication (iv) ⇒ (i). Ainsi les assertions (i), (ii), (iii) et (iv) sont équivalentes. Il reste à prouver que (i) est équivalent à (v). Pour 1 ≤ i ≤ p, notons di = dim(Eλi ) et αi la multiplicité
de λi dans χu .
Pp
Grâce au corollaire II.7.8, on sait déjà que di ≤ αi . Puisque deg(χu ) = n, on a i=1 αi = n. Supposons
Pp
u diagonalisable. D’après l’équivalence (i) ⇔ (iii) ci-dessus, on a i=1 di = n, et donc nécessairement
Pp
di = αi = pour tout 1 ≤ i ≤ p. Réciproquement, si di = αi pour tout i, alors i=1 di = n, et donc u est
diagonalisable d’après l’équivalence (i) ⇔ (iii) ci-dessus.
☞ Toute projection ou symétrie est diagonalisable. En effet, soient F, G des sous-espaces vectoriels supplémentaires de E, p la projection de E sur F parallèlement G et s la symétrie de E par rapport à F et parallèlement
à G. Alors, d’après la section II.3, les matrices de p et s dans toute base B adaptée à la décomposition E = F⊕G
sont diagonales.
☞ Un endomorphisme nilpotent est diagonalisable si et seulement s’il est nul.
☞ L’hypothèse χu scindé n’entraîne pas toujours que u soit diagonalisable. On a vu par exemple que le polynôme
caractéristique d’un endomorphisme nilpotent u de E était scindé : χu = X n . Mais si u est nilpotent non nul
alors u n’est pas diagonalisable.
Corollaire II.8.3.
Si un endomorphisme de E possède n = dim(E) valeurs propres deux à deux distinctes, alors il est diagonalisable et tous ses sous-espaces propres sont de dimension 1.
Démonstration. Soit u ∈ L(E) ayant n valeurs propres λ1 , . . . , λn deux à deux distinctes. Alors les
λi sont nécessairement des racines simples de χu . Donc dim(Eλi ) = 1 par le corollaire II.7.8. Ainsi
Pn
i=1 dim(E λi ) = n = dim(E). D’où u est diagonalisable en vertu du théorème II.8.2.
Corollaire II.8.4.
Soient u ∈ L(E) un endomorphisme diagonalisable et F sous-espace vectoriel de E stable par u. Alors
l’endomorphisme u|F de F induit par u est diagonalisable.
Démonstration. Notons v = u|F . D’après la proposition II.5.3,
Spec(v) = {λ ∈ Spec(u) | Eλ (u) ∩ F , {0E }}
et Eλ (v) = Eλ (u) ∩ F pour tout λ ∈ Spec(v). Or E = ⊕λ∈Spec(u) Eλ (u) par le théorème II.8.2 car u est
diagonalisable. Donc
M
M
F =E∩F =
Eλ (u) ∩ F =
Eλ (v).
λ∈Spec(u)
D’où v est diagonalisable par le théorème II.8.2.
38
λ∈Spec(v)
Théorème II.8.5. (Réduction simultanée)
(a) Soient u, v ∈ L(E) deux endomorphismes de E diagonalisables qui commutent (uv = vu). Alors il
existe une base de diagonalisation commune pour u et v.
(b) Soient A, B ∈ Mn (K) deux matrices diagonalisables qui commutent (AB = BA). Alors il existe
P ∈ GLn (K) et deux matrices diagonales D et D′ telles que
A = PDP−1
et
B = PD′ P−1 .
Démonstration. Traitons le cas des endomorphismes. Notons Spec(u) = {λ1 , . . . , λn }. Soit 1 ≤ i ≤ p.
Comme u et v commutent, λi idE − u et v également, et donc chaque Eλi (u) = Ker(λi idE − u) est stable
par v (par la proposition II.3.2). Ainsi on peut définir l’endomorphisme vi de Eλi (u) induit par v. D’après
le corollaire II.8.4, vi est diagonalisable. Il existe donc une base Bi de Eλi (u) constituée de vecteurs
propres pour vi . Notons que chaque vecteur de Bi est également un vecteur propre de u associé à λi . Par
p
le théorème II.8.2, puisque u est diagonalisable, on a E = ⊕i=1 Eλi (u). Ainsi, en rassemblant les bases
Bi de chaque Eλi (u), on obtient une base de E qui est une base commune de vecteurs propres pour u
et v.
9. Méthode pratique de diagonalisation
Soit u ∈ L(E). Rappelons que n = dim(E). L’algorithme suivant est une méthode systématique permettant de
déterminer les valeurs propres et les sous-espaces propres de u.
(1) On calcule le polynôme caractéristique χu de u.
(2) On détermine les racines λ1 , · · · , λ p de χu dans K. Si χu a n racines deux à deux distinctes (c’est-à-dire
p = n), on peut tout de suite conclure que u est diagonalisable.
(3) On détermine les sous-espaces propres de u. Le sous-espace propre Eλi est l’ensemble des vecteurs x
de E tels que u(x) − λi x = 0. Si l’on note (x1 , · · · , xn ) les coordonnées de x par rapport à une base
donnée de E, résoudre u(x) − λi x = 0 revient à résoudre un système homogène de n équations dont les n
inconnues sont les coordonnées de x. La dimension di de Eλi est le nombre d’inconnues non principales
de ce système linéaire. La résolution du système linéaire permet de déterminer une base (e1i , · · · , edi i )
de Eλi .
(4) Conclusion : l’endomorphisme u est diagonalisable si et seulement si, pour tout 1 ≤ i ≤ p, l’entier di est
d
égal à la multiplicité de λi dans χu . Si tel est le cas, la famille (e11 , · · · , ed11 , e12 , · · · , ed22 , · · · , e1p , · · · , e pp )
est une base de vecteurs propres pour u.
De même, l’algorithme suivant fournit une méthode systématique permettant de déterminer valeurs propres et
vecteurs propres d’une matrice A ∈ Mn (K).
(1) On calcule le polynôme caractéristique χA de A.
(2) On détermine les racines λ1 , · · · , λ p de χA dans K. Si χA a n racines deux à deux distinctes (c’est-à-dire
p = n), on peut tout de suite conclure que A est diagonalisable.
(3) Pour chaque λi , on résout le système linéaire homogène (A − λi In )X = 0. L’ensemble de ses solutions
est Eλi . La dimension di de Eλi est le nombre d’inconnues non principales. On peut extraire di vecteurs
colonnes Xi1 , · · · , Xidi ∈ Mn,1 (K) formant une base de Eλi .
(4) Conclusion : la matrice A est diagonalisable si et seulement si, pour tout 1 ≤ i ≤ p, l’entier di est égal à
la multiplicité de λi dans χA . Si tel est le cas, on a :


0
···
0 
λ1 Id1

.. 
..
 0
.
λ2 Id2
.  −1
A = P  .
 P ,
..
..
 ..

.
.
0


0
···
0 λ p Id p
d
où P est la matrice de colonnes (X11 , · · · , X1d1 , · · · , X2d2 , · · · , X 1p , · · · , X p p ).
39
10. Endomorphismes trigonalisables
Un endomorphisme u de E est trigonalisable s’il existe une base B de E dans laquelle la matrice MatB (u) de u
est triangulaire supérieure.
Une matrice A ∈ Mn (K) est trigonalisable si elle est semblable à une matrice triangulaire supérieure.
De façon analogue à la preuve de la proposition II.8.1, on démontre le lien suivante entre ces deux définitions :
Proposition II.10.1.
Une matrice A ∈ Mn (K) est trigonalisable si et seulement si l’endomorphisme u dont A est la matrice dans
la base canonique de Kn est trigonalisable. Dans ce cas, si B est une base de Kn dans laquelle la matrice
T = MatB (u) de u est triangulaire supérieure, alors A = PT P−1 où P est la matrice de passage de la base
canonique de Kn à la base B.
Théorème II.10.2.
Un endomorphisme u ∈ L(E) ou une matrice
QnA ∈ Mn (K) est trigonalisable si et seulement si son polynôme
caractéristique est scindé. De plus, si χu = i=1 (X − λi ), alors on peut trouver une base B de E telle que


λ1 ⋆ · · · ⋆ 


 0 λ2 . . . ... 
 .
MatB (u) =  . .
 ..
. . . . . ⋆ 


0 · · · 0 λn
Démonstration. Par la proposition 10, il suffit de traiter le cas d’un endomorphisme. Si u ∈ L(E)
est trigonalisable, alors la matrice Q
T = (ti, j )1≤i, j≤n de u dans une base bien choisie est triangulaire
supérieure. Par conséquent χu = ni=1 (X − ti,i ) et donc χu est scindé. Montrons la réciproque par
récurrence sur la dimension n de E. Si n = 1, c’est évident car tout endomorphisme d’un K-espace
vectoriel de dimension 1 est une homothétie. Soit n ≥ 1. Supposons le résultat vraie au rang n. Soient
E un K-espace vectoriel de dimension n + 1 et u ∈ L(E) ayant son polynôme caractéristique scindé :
Q
χu = n+1
i=1 (X − λi ). Puisque λ1 est une valeur propre de u (par le théorème II.7.6), il existe un vecteur
propre non nul e1 de u associé à la valeur propre λ1 . On complète (e1 ) en une base B′ = (e1 , e′2 , · · · , e′n+1 )
de E. La matrice de u dans la base B′ est donc de la forme
!
λ1 ⋆
MatB′ (u) =
,
0 A
où A ∈ Mn (K). Le sous-espace vectoriel F = Vect(e′2 , · · · , e′n+1 ) de u est donc stable par u. Notons v
l’endomorphisme de F induit par u. Par la proposition II.7.7, χv divise χu . Le polynôme χu étant scindé,
on en déduit que χv est scindé. Puisque dim(F) = n, on peut donc appliquer l’hypothèse de récurrence
à l’espace F et à endomorphisme v et trouver une base E = (e2 , · · · , en+1 ) de F dans laquelle la matrice
de v soit de la forme


⋆ 
λ2 ⋆ · · ·

.. 
 0 λ3 . . .
. 
MatE (v) =  . .
 .
.
 ..

..
..
⋆


0 · · · 0 λn+1
Puisque E = Ke1 ⊕ F, la famille B = (e1 , e2 , · · · , en+1 ) est une base de E. De plus la matrice de u
dans B, qui est
!
λ1
⋆
MatB (u) =
,
0 MatE (v)
est triangulaire supérieure du type voulu. Ainsi le résultat est vrai au rang n + 1.
40
Corollaire II.10.3.
Toute matrice est trigonalisable dans C. De même, lorsque K = C (c’est-à-dire si E un C-espace vectoriel de
dimension finie), tout endomorphisme u ∈ L(E) est trigonalisable.
Démonstration. Conséquence immédiate des théorèmes II.10.2 et de d’Alembert-Gauss I.14.1.
Corollaire II.10.4.
Soit u ∈ L(E). Les assertions suivantes sont équivalentes :
(i) u est nilpotent ;
(ii) Spec(u) = {0} ;

0 ⋆
(iii) χu =

0 0
(iv) Il existe une base B de E dans laquelle la matrice de u est de la forme  . .
 ..
..

0 ···
Xn ;
···
..
.
..
.
0

⋆
.. 
. 
 .
⋆

0
Démonstration. L’implication (i) ⇒ (ii) provient de la proposition II.5.4. Dans la deuxième remarque
suivant le théorème II.7.6, on a vu que (ii) ⇒ (iii). Puisque X n est scindé avec 0 pour seule racine, l’implication (iii) ⇒ (iv) est conséquence du théorème II.10.2. Finalement, si une matrice est triangulaire
supérieure avec des 0 sur la diagonale, alors elle nilpotente. D’où (iv) ⇒ (i).
Corollaire II.10.5.
Si F est un sous-espace vectoriel de E stable par un endomorphisme u ∈ L(E) qui est trigonalisable, alors
l’endomorphisme u|F de F induit par u est trigonalisable.
Démonstration. Par le théorème II.10.2, χu est scindé. Or χu|F divise χu par la proposition II.7.7. Donc
χuF est également scindé. D’où u|F est trigonalisable par le théorème II.10.2.
11. Méthode pratique de trigonalisation
L’algorithme suivant fournit une méthode systématique pour trigonaliser une matrice (le cas des endomorphismes
se traite similairement via le choix d’une base).
(1) On calcule le polynôme caractéristique χA de A.
(2) On détermine les racines de χA dans K.
(3) On détermine les sous-espaces propres de A en résolvant AX = λX pour λ ∈ Spec(A). On obtient ainsi
P
p = λ∈Spec(A) dim Eλ (A) vecteurs colonnes propres X1 , · · · , X p ∈ Mn,1 (K) de A qui sont linéairement
indépendants et associés à p valeurs propres λ1 , · · · , λ p . On complète la famille (X1 , · · · , X p ) en une
base (X1 , · · · , Xn ) de Mn,1 (K). Soit P ∈ Mn (K) la matrice de colonnes (X1 , · · · , Xn ). On a



0 
λ1




..
 ⋆ P−1
.
A = P 


 0
λp


0
B
où B ∈ Mn−p (K).
(4) Si B est triangulaire supérieure, le processus de trigonalisation est terminé. Sinon l’étape suivante
consiste à trigonaliser B (qui est une matrice carrée de taille n − p). Comme χB est scindé (car diP
vise χA qui est scindé), la matrice B est trigonalisable. Donc on peut trouver q = λ∈Spec(B) dim Eλ (B)
vecteurs colonnes propres Y1 , · · · , Yq ∈ Mn−p,1 (K) de B qui sont linéairement indépendants et associés
41
à q valeurs propres µ1 , · · · , µq de B. On complète la famille (Y1 , · · · , Yq ) en une base (Y1 , · · · , Yn−p ) de
Mn−p,1 (K). Soit R ∈ Mn−p (K) la matrice de colonnes (Y1 , · · · , Yn−p ). Alors



0 
µ1




..
 ⋆ R−1
.
B = R 


 0
µq


0
C
où C ∈ Mn−p−q (K). En interprétant la matrice par blocs
!
I 0
Q= p
0 R
comme la matrice de passage de (X1 , · · · , Xn ) à (X1 , · · · , X p , Y1 , · · · , Yn−p ), on obtient



0 

λ1



..

⋆
⋆

.




λp
 0




0 
A = PQ 
µ1
 (PQ)−1 .





..


⋆
0

.






0
µq


0
0
C
(5) Si C est triangulaire supérieure, le processus de trigonalisation est terminé. Sinon, on réitère l’étape (4)
en remplaçant B par C. Le processus s’arrête au bout d’un nombre fini d’étapes, puisque la taille des
matrices à trigonaliser décroît strictement.
☞ Si l’on excepte le cas où A est la matrice d’une homothétie, une matrice trigonalisable (resp. diagonalisable)
A ∈ Mn (K) est semblable à plusieurs matrices triangulaires (resp. diagonales) différentes.
12. Polynômes annulateurs et polynôme minimal
Un polynôme annulateur d’un endomorphisme u ∈ L(E) (resp. d’une matrice A ∈ Mn (K)) est un polynôme
P ∈ K[X] tel que P(u) = 0 (resp. P(A) = 0).
☞ Soient A, B ∈ Mn (K) deux matrices semblables et P ∈ K[X]. Alors P(A) et P(B) sont semblables (car si
B = Q−1 AQ avec Q ∈ GLn (K), alors P(B) = Q−1 P(A)Q). En particulier P(A) = 0 si et seulement si P(B) = 0,
et donc A et B ont les mêmes polynômes annulateurs.
La recherche de polynômes annulateurs est d’une importance capitale dans le processus de réduction des matrices
ou des endomorphismes. On dispose du résultat fondamental suivant :
Théorème II.12.1. (Théorème de Cayley-Hamilton)
Le polynôme caractéristique est un polynôme annulateur. Plus précisément, χu (u) = 0 pour tout u ∈ L(E) et
χA (A) = 0 pour tout A ∈ Mn (K).
Démonstration. Traitons le cas d’un endomorphisme u ∈ L(E). Soit x ∈ E. Il s’agit de montrer que
χu (u)(x) = 0. Si x = 0E , c’est évident. Supposons x , 0E . Puisque (x) est libre et (x, u(x), · · · , un (x))
est liée (car n + 1 vecteurs dans un espace vectoriel de dimension n sont liés), il existe un unique entier
1 ≤ p ≤ n tel que (x, u(x), · · · , u p−1 (x)) soit libre et (x, u(x), · · · , u p (x)) soit liée. Posons
F = Vect x, u(x), · · · , u p−1 (x) .
Ainsi F est un sous-espace vectoriel F de dimension p ayant pour base E = (x, u(x), · · · , u p−1 (x)). De
plus F est stable par u car u p (x) ∈ F par définition de p (on peut montrer que F est en fait le plus petit
sous-espace vectoriel de E, au sens de l’inclusion, qui est stable par u et contient x). Puisque u p (x) ∈ F
42
par définition de p, il existe p scalaires a0 , . . . , a p−1 ∈ K tels que u p (x) = a0 x+a1 u(x)+· · ·+a p−1 u p−1 (x).
Ainsi la matrice dans la base E de l’endomorphisme v de F induit par u est


0 0 · · · 0 a0 


.
..
1 0
. .. a1 

..  ∈ M (K).
MatE (v) = 0 1 . . . 0
p
. 


 .. . . . . . .
0 a p−2 
 .

0 · · · 0 1 a p−1
Donc, par le calcul du polynôme caractéristique d’une matrice compagnon établi dans la section II.7,
on obtient que χv = X p − a p−1 X p−1 − · · · − a1 X − a0 . Donc
χv (u)(x) = u p (x) − a p−1 u p−1 (x) − · · · − a1 u(x) − a0 x = 0E .
Or χv divise χu par la proposition II.7.7. Donc il existe P ∈ K[X] tel que χu = Pχv . Par conséquent
χu (u)(x) = (Pχv )(u)(x) = P(u) χv (u)(x) = P(u)(0E ) = 0E .
Ainsi χu (u)(x) = 0E pour tout x ∈ E. D’où χu (u) = 0.
D’après le théorème précédent, tout endomorphisme u de E admet au moins un polynôme annulateur non nul :
son polynôme caractéristique χu . On peut se demander s’il en existe d’autres et si certains polynômes annulateurs
sont d’un intérêt particulier.
Soit u ∈ L(E). Notons Iu l’ensemble des polynômes annulateurs de u :
Iu = {P ∈ K[X] | P(u) = 0}.
En utilisant la proposition II.4.1, on vérifie facilement que Iu est un idéal de K[X]. De plus, Iu est non réduit à {0}
car, par le théorème de Cayley-Hamilton II.12.1, il contient χu qui est non nul (car de degré n ≥ 1). Ainsi, par le
théorème I.5.1, il existe un unique polynôme unitaire mu ∈ K[X], appelé le polynôme minimal de u, tel que
Iu = mu K[X].
Par construction, mu est un polynôme unitaire annulateur de u.
De façon analogue, pour toute matrice carrée A, l’ensemble IA des polynômes annulateurs de A est un idéal
non réduit {0} de K[X] et donc est engendré par un unique polynôme unitaire mA ∈ K[X], appelé le polynôme
minimal de A, qui est en particulier un polynôme unitaire annulateur de A. Remarquons que deux matrices
semblables ont même polynôme minimal, car elles ont les mêmes polynômes annulateurs (voir la remarque faite
en début de section).
Il y a bien sûr une correspondance étroite entre polynôme minimal des matrices et des endomorphismes :
Proposition II.12.2.
Soient u ∈ L(E) et B une base de E. Alors mu = mMatB (u) .
La proposition suivante, qui découle facilement de la définition du générateur d’un idéal de K[X], permet de
caractériser le polynôme minimal.
Proposition II.12.3.
Le polynôme minimal d’un endomorphisme u ∈ L(E) est le plus petit (au sens de la division) polynôme
unitaire annulateur de u, c’est-à-dire est l’unique polynôme annulateur de u qui est unitaire et divise tous les
autres polynômes annulateurs de u.
43
Proposition II.12.4.
Soit u ∈ L(E) un endomorphisme de E. Alors :
(a) 1 ≤ deg(mu ) ≤ dim(E).
(b) mu divise le polynôme caractéristique χu .
(c) Si χu est scindé, alors mu l’est également.
Démonstration. Si mu était constant, on aurait mu = 1 (car mu est unitaire) et donc mu (u) = 0 signifierait
idE = 0, ce qui est absurde car dim(E) ≥ 1. D’où deg(mu ) ≥ 1. Le reste de la proposition est une
conséquence directe du fait que deg(χu ) = n = dim(E) et du théorème de Cayley-Hamilton II.12.1 qui
dit que χu est un polynôme annulateur de u et est donc divisible par mu (par la proposition II.12.3). Comme pour le calcul du polynôme caractéristique (voir la proposition II.7.7), connaître des sous-espaces vectoriels stables donne des renseignements sur le polynôme minimal :
Proposition II.12.5.
Soit u ∈ L(E). Alors :
(a) Si F est un sous-espace vectoriel de E stable par u, alors mu|F divise mu .
(b) Si F et G sont deux sous-espaces vectoriels de E supplémentaires et stables par u, alors mu est le
PPCM de mu|F et mu|G .
Démonstration. Soient F un sous-espace vectoriel de E stable par u et P un polynôme annulateur de u.
On a P(u)(x) = 0E pour tout x ∈ E et donc, à fortiori, pour tout x ∈ F. Donc P(u|F ) = 0. Ainsi
muF divise P. En particulier mu|F divise mu , ce qui prouve (a). Soient F et G sont deux sous-espaces
vectoriels de E supplémentaires et stables par u. On sait déjà d’après (a) que mu|F et mu|G divisent mu .
Donc leur PPCM M divise également mu . Pour montrer l’égalité, puisque M et mu sont unitaires, il suffit
de montrer que mu divise M, c’est-à-dire que M est un polynôme annulateur de u. Considérons x ∈ E
que l’on décompose en x = y+z avec y ∈ F et z ∈ G. Le polynôme M est un multiple de mu|F (resp. mu|G )
et donc est un polynôme annulateur de u|F (resp. u|G ). Par conséquent, M(u)(y) = M(u|F )(y) = 0E et
M(u)(z) = M(u|G )(z) = 0E . D’où M(u)(x) = M(u)(y + z) = M(u)(y) + M(u)(z) = 0E , puis M(u) = 0. Proposition II.12.6.
Soient u ∈ L(E) et λ ∈ K. Alors λ est une valeur propre de u si et seulement si λ est une racine de mu .
Démonstration. Supposons que λ soit une valeur propre de u. Soit x un vecteur propre non nul de u
associé à λ. Alors 0E = mu (u)(x) = mu (λ) x et donc mu (λ) = 0 puisque x , 0E . Réciproquement,
supposons que λ soit une racine de mu . Alors λ est une racine de χu car mu divise χu . Donc λ est une
valeur propre de u par le théorème II.7.6.
☞ Soit hλ l’homothétie de E de rapport λ ∈ K, c’est-à-dire hλ = λ idE . Alors
mhλ = X − λ.
En effet, le polynôme X − λ est un polynôme unitaire annulateur de hλ et, comme deg(mhλ ) ≥ 1, on en déduit
que mhλ = X − λ.
☞ Soient E, F deux sous-espaces vectoriels de E supplémentaires et non réduits à {0E }. Notons p la projection
de E sur F parallèlement à G et s la symétrie de E par rapport à F et parallèlement à G. Alors
mp = X2 − X
et
44
m s = X 2 − 1.
En effet, puisque p2 − p = 0 et s2 − idE = 0, m p divise X 2 − X et m s divise X 2 − 1. D’autre part, puisque
Spec(p) = {0, 1} et Spec(s) = {−1, 1}, les scalaires 0 et 1 doivent être racines de m p et les scalaires −1 et 1
doivent être racines de m s . Donc X 2 − X doit diviser m p et X 2 − 1 doit diviser m s . D’où les égalités ci-dessus
car m p et m s sont unitaires.
☞ Soit u ∈ L(E) un endomorphisme nilpotent d’indice p. Par définition même de p, on sait que X p est un
polynôme annulateur de u, et que X p−1 ne l’est pas. Donc le polynôme unitaire mu doit diviser X p mais pas
X p−1 . Ceci entraîne que
mu = X p .
Remarquons que puisque mu divise χu = X n , ceci implique que l’indice de nilpotence d’un endomorphisme
nilpotent de E est inférieur ou égal à la dimension de E.
☞ Soit A ∈ Mn (K) une matrice compagnon :


0 0 · · · 0 a0 


1 0 . . . ... a1 


..  .
A = 0 1 . . . 0
. 


 .. . . . . . .
0 an−2 
 .

0 · · · 0 1 an−1
Soit u l’endomorphisme de Kn ayant A pour matrice dans la base canonique E = (e1 , · · · , en ) de Kn . Alors
ui (e1 ) = ei+1 pour 0 ≤ i ≤ n − 1. Ainsi les vecteurs e1 , u(e1 ), . . . , un−1 (e1 ) sont linéairement indépendants et
donc il n’existe pas de polynôme P ∈ K[X] non nul et de degré strictement inférieur à n tel que P(u)(e1 ) = 0E .
Par conséquent deg(mA ) = deg(mu ) ≥ n. Or χA , qui est de degré n, annule A. Donc,
n
m A = χA = X −
n−1
X
ai X i .
i=0
Théorème II.12.7.
Soit u ∈ L(E) de spectre Spec(u) = {λ1 , · · · , λ p }. Les assertions suivantes sont équivalentes :
(i) u est diagonalisable,
p
Y
(ii) mu =
(X − λi ),
i=1
(iii) mu est scindé à racines simples,
(iv) u admet un polynôme annulateur scindé à racines simples.
Démonstration. Montrons (i) ⇒ (ii). Q
D’après la proposition II.12.6, les racines de mu sont les valeurs
p
propres de u. Donc le polynôme
P
=
i=1 (X − λi ) divise mu . Soient 1 ≤ i ≤ p et xi un vecteur propre
Q
de u associé à λi . Notons Qi = j,i (X − λ j ), de sorte que P = Qi (X − λi ). Puisque (λi idE − u)(xi ) = 0E ,
on a
P(u)(xi ) = Qi (u)(λi idE − u)(xi ) = Qi (u)(0E ) = 0E .
p
Or E = ⊕i=1 Eλi par le théorème II.8.2 (car u est diagonalisable). Donc tout x ∈ E se décompose en
x = x1 + · · · + x p , avec xi ∈ Eλi , puis
p
X
P(u)(x) =
P(u)(xi ) = 0E .
i=1
Ainsi P est un polynôme annulateur de u et est donc divisible par mu . Les polynômes P et mu étant
unitaires et se divisant l’un l’autre, on en déduit que P = mu . Les implications (ii) ⇒ (iii) et (iii) ⇒ (iv)
sont triviales. Finalement, montrons (iv) ⇒ (i). Soit P un polynôme
Qq annulateur de u scindé à racines
simples, que l’on peut toujours supposer unitaire, c’est-à-dire P = i=1 (X − µi ) avec les µi deux à deux
45
distincts. Comme les polynômes X − µi sont premiers entre eux deux à deux, le lemme des noyaux
(théorème II.4.7) donne
q
M
E = Ker P(u) =
Ker(µi idE − u).
i=1
Si, dans cette décomposition, on ne garde que les µi tels que Ker(µi idE −u) ne soit pas réduit à {0E }, on a
obtenu une décomposition de E en somme de sous-espaces propres de u. Donc u est diagonalisable. 13. Sous-espaces caractéristiques
Lemme II.13.1.
Soit u ∈ L(E) et λ ∈ Spec(u). Notons β la multiplicité de λ dans mu . Alors la suite de sous-espaces vectoriels
Ker(u − λ idE )k
k∈N
est croissante (au sens de l’inclusion) et stationnaire à partir du rang β.
Démonstration. Notons v = u − λ idE . Il est clair que vk (x) = 0E entraîne vk+1 (x) = 0E . Donc
bien Ker(vk ) ⊂ Ker(vk+1 ). De plus, il n’est pas difficile de vérifier que si Ker(vk ) = Ker(vk+1 ), alors
Ker(vk+1 ) = Ker(vk+2 ). Par conséquent la suite dim(Ker(vk )) k∈N est une suite croissante d’entiers
qui devient stationnaire dès que deux termes consécutifs sont égaux. Comme elle est majorée par
n = dim(E), on conclut qu’il existe un p ≤ n tel que Ker(vk ) k∈N soit strictement croissante pour
k ≤ p−1 et stationnaire à partir du rang p. Ainsi il existe x ∈ Ker(u−λ id E ) p tel que x < Ker(u−λ id E ) p−1 .
En particulier y = (u − λ idE ) p−1 (x) , 0E et y ∈ Ker(u − λ idE ). Le polynôme minimal mu de u se décompose en mu = Q(X − λ)β avec Q et (X − λ)β premiers entre eux. A fortiori Q et X − λ sont premiers
entre eux et donc, d’après le lemme des noyaux (théorème II.4.7), on a :
Ker Q(u) ∩ Ker(u − λ idE ) = {0E }.
Puisque y , 0E et y ∈ Ker(u − λ idE ), on en déduit y < Ker Q(u). Donc
Q(u)(y) = Q(u)(u − λ idE ) p−1 (x) , 0E .
Par conséquent Q(X − λ) p−1 n’est pas un polynôme annulateur de u, et donc p ≤ β. En particulier
Ker(u − λ idE )β = Ker(u − λ idE ) p . Ainsi, par double application du lemme des noyaux (théorème
II.4.7), on obtient
Ker Q(X − λ) p (u) = Ker Q(u) ⊕ Ker(u − λ idE ) p = Ker Q(u) ⊕ Ker(u − λ id E )β = Ker mu (u) = E.
Donc Q(X − λ) p est un polynôme annulateur de u. Ainsi mu = Q(X − λ)β divise Q(X − λ) p et, par
conséquent, β ≤ p. D’où β = p.
Soient u ∈ L(E) et λ ∈ Spec(u) de multiplicité β dans mu . Le sous-espace caractéristique de u associé à la
valeur propre λ est le sous-espace vectoriel de E, noté Eλ′ (u) ou plus simplement Eλ′ en l’absence d’ambiguïté,
défini par
Eλ′ (u) = Ker(u − λidE )β .
☞ Si λ est valeur propre de u, on a toujours Eλ ⊂ Eλ′ . De plus, si l’on note α la multiplicité de λ dans χu , alors
β ≤ α ≤ n et donc (d’après le lemme II.13.1)
Eλ′ = Ker(u − λ idE )β = Ker(u − λ idE )α = Ker(u − λ idE )n .
☞ Si u est diagonalisable, alors Eλ = Eλ′ pour tout λ ∈ Spec(u).
☞ Si u est nilpotent, alors u a un seul sous-espace caractéristique : E0′ = E.
46
Théorème II.13.2.
Soient u ∈ L(E) et λ ∈ Spec(u) de multiplicité α dans χu et de multiplicité β dans mu . Alors :
(a) Eλ′ est un sous-espace vectoriel de E stable par u et de dimension α.
(b) L’endomorphisme vλ de Eλ′ induit par u − λidE est nilpotent d’indice β.
Démonstration. La stabilité de Eλ′ par u découle de la proposition II.4.5. En particulier Eλ′ est également
stable par u − λidE . Notons uλ et vλ les endomorphismes de Eλ′ induits par u et u − λ id E respectivement.
β
β−1
D’après le lemme II.13.1, vλ = 0 et vλ , 0. Donc vλ est nilpotent d’indice β. En particulier, d’après le
corollaire II.10.4, on en déduit que χvλ = X p où p = dim(Eλ′ ). En revenant à la définition du polynôme
caractéristique, on montre facilement que χuλ (x) = χvλ (x − λ) = (x − λ) p pour tout x ∈ K. Ainsi, d’après
le corollaire I.11.5,
χuλ = (X − λ) p .
Par la proposition II.7.7, on en déduit que (X − λ) p divise χu et donc que p ≤ α. Par ailleurs, il existe
un polynôme Q premier avec (X − λ)α et tel que χu = Q(X − λ)α . D’après le théorème de CayleyHamilton II.12.1, le lemme des noyaux et par le lemme II.13.1 (puisque β ≤ α), on a :
E = Ker χu (u) = Ker Q(u) ⊕ Ker(u − λ idE )α = Ker Q(u) ⊕ Eλ′ .
Le sous-espace vectoriel Ker Q(u) étant stable par u (d’après le proposition II.4.5), notons w l’endomorphisme de Ker Q(u) induit par u. Par la proposition II.7.7, on a :
Q(X − λ)α = χu = χuλ χw = (λ − X) p χw .
Donc χw = Q(X − λ)α−p car p ≤ α. Supposons α > p. Alors λ est une valeur propre de w (par le
théorème II.7.6). Ainsi {0E } , Ker Q(u) ∩ Eλ ⊂ Ker Q(u) ∩ Eλ′ , ce qui contredit le fait que Ker Q(u) et
Eλ′ sont en somme directe. D’où p = α.
Théorème II.13.3.
Soit u ∈ L(E) de spectre Spec(u) = {λ1 , · · · , λ p }. Supposons que le polynôme caractéristique χu est scindé et
notons αk la multiplicité de λk dans χu . Alors :
p
M
E=
Eλ′ i
i=1
et il existe une base B de E telle que

T 1 0

 0 T
MatB (u) =  . . 2
 ..
..

0 ···
où T k est une matrice triangulaire supérieure de taille αk

λk ⋆ · · ·

..
.
 0 λk
T k =  . .
.
 ..
..
..

0 ··· 0
47
···
..
.
..
.
0

0 
.. 
. 

0 

Tp
avec des λk sur la diagonale :

⋆ 
.. 
. 
 ∈ Mαk (K).
⋆ 

λk
Qp
Démonstration. Comme χu est scindé, on a : χu = i=1 (X − λi )αi . Les polynômes Pi = (X − λi )αi
sont premiers entre eux deux à deux par la proposition I.7.6. Donc par le théorème de CayleyHamilton II.12.1 et lemme des noyaux (théorème II.4.7), on obtient :
p
p
M
M
E = Ker χu (u) =
Ker Pi (u) =
Eλ′ i .
i=1
Grâce au théorème II.13.2,
dim(Eλ′ i )
i=1
= αi et l’endomorphisme ui induit par u sur Eλ′ i peut s’écrire
ui = λi idEλ′ + vi
i
où vi est nilpotent. Donc χvi = X αi par le corollaire II.10.4. Ainsi χui = (X − λi )αi est scindé. Le
théorème II.10.2 assure l’existence d’une base Bi de Eλ′ i dans laquelle la matrice T i de ui est triangulaire
supérieure de taille αi avec des λi sur la diagonale. En prenant la réunion de toutes ces bases Bi pour i
décrivant {1, . . . , p}, on obtient une base B de E dans laquelle la matrice de u est du type voulu.
14. Décomposition de Dunford
Théorème II.14.1. (Décomposition de Dunford)
Soit u ∈ L(E) à polynôme caractéristique scindé. Alors il existe un endomorphisme d ∈ L(E) diagonalisable
et un endomorphisme ν ∈ L(E) nilpotent tels que
u=d+ν
et
dν = νd.
De plus, cette décomposition est unique.
p
Démonstration. Notons Spec(u) = {λ1 , · · · , λ p }. Par le théorème précédent, E = ⊕i=1 Eλ′ i . Soit pi la
projection de E sur Eλ′ i parallèlement à ⊕i, j Eλ′ j . Posons
d=
p
X
λi pi
i=1
et
ν = u − d.
Remarquons que, par construction, chaque Eλ′ i est stable par d, u et ν. De plus d(x) = λi x pour tout
p
x ∈ Eλ′ i . On en déduit que toute base adaptée à la décomposition E = ⊕i=1
Eλ′ i est une base de vecteurs
propres pour d. Donc d est diagonalisable. Par ailleurs, l’endomorphisme induit par ν = u − d sur Eλ′ i
n’est autre que u|Eλ′ − λi idEλ′ qui est nilpotent d’après le théorème II.13.2. En utilisant une fois de plus
p
i
i
que E = ⊕i=1 Eλ′ i , il est alors aisé d’établir que ν = u − d est nilpotent. Montrons que d et ν commutent.
Pp
Soit x ∈ E. On peut décomposer x de façon unique en x = i=1 xi avec xi ∈ Eλ′ i . Comme d(xi ) = λi xi ,
on a :
νd(x) = νd(x1 + · · · + x p ) = ν(d(x1 )) + · · · + ν(d(x p )) = λ1 ν(x1 ) + · · · + λ p ν(x p ).
Mais comme chaque ν(xi ) est dans Eλ′ i , on a également d(ν(xi )) = λi ν(xi ). D’où
λ1 ν(x1 ) + · · · + λ p ν(x p ) = d(ν(x1 )) + · · · + d(ν(x p )) = dν(x1 + · · · + x p ) = dν(x).
Par conséquent d et ν commutent. Il reste à montrer l’unicité de la décomposition. Supposons qu’il
existe un autre couple (d′ , ν′ ) tel que u = d′ + ν′ avec d′ diagonalisable, ν nilpotent et d′ ν′ = ν′ d′ . On
constate que
ud′ = (d′ + ν′ )d′ = d′ 2 + ν′ d′ = d′ 2 + d′ ν′ = d′ (d′ + ν′ ) = d′ u.
De même u et ν′ commutent. Donc d′ et ν′ commutent avec tout polynôme en u, et en particulier avec
tous les (u − λi idE )βi . En appliquant la proposition II.3.2, on en déduit que tous les Eλ′ i sont stables par
d′ et ν′ . Dès lors, les arguments qui ont servi à prouver que dν = νd permettent également de montrer
qued′ et ν′ commutent avec d. Comme ν = u − d, on en déduit que d′ et ν′ commutent aussi avec ν. Le
théorème de réduction simultanée II.8.5 assure que d et d′ admettent une base commune de vecteurs
48
propres. Donc d − d′ est diagonalisable. Par ailleurs, comme ν et ν′ commutent, on peut appliquer la
formule du binôme de Newton pour calculer :
!
2n
X
2n k
′ 2n
(ν − ν ) =
ν (−1)2n−k (ν′ )2n−k .
k
k=0
Pour k ∈ {0, · · · , 2n}, l’un des deux entiers k et 2n−k est forcément supérieur ou égal à n, donc le produit
νk (−1) p−k (ν′ ) p−k est nul (car les indices de nilpotence de ν et ν′ sont inférieurs ou égaux à n.). Donc
(ν−ν′ )2n = 0 et ν−ν′ est nilpotent. Or ν′ −ν = d −d′ . Donc ν′ −ν est à la fois nilpotent et diagonalisable.
C’est donc l’endomorphisme nul, c’est-à-dire ν′ = ν. Cela entraîne de plus que d′ = d.
Voici la version matricielle de la décomposition de Dunford :
Théorème II.14.2.
Soit A ∈ Mn (K) telle que χA soit scindé. Alors il existe une matrice D ∈ Mn (K) diagonalisable et une matrice
N ∈ Mn (K) nilpotente telles que
A = D + N et DN = ND.
De plus, cette décomposition est unique.
☞ En particulier toute matrice A de Mn (C) admet une décomposition de Dunford dans Mn (C).
☞ Dans la section II.11, on a vu une méthode de trigonalisation des matrices. La matrice triangulaire supérieure
obtenue peut bien sur se décomposer en D + N avec D diagonale et N triangulaire supérieure avec des 0 sur la
diagonale, donc nilpotente. Mais il n’y a aucune raison pour que D et N commutent.
15. Méthode pratique de décomposition de Dunford
Soit A ∈ Mn (C). Notons u l’endomorphisme ayant A pour matrice dans la base canonique de Cn . L’algorithme
suivant fournit une méthode systématique pour trouver la décomposition de Dunford de A.
(1) On calcule le polynôme caractéristique χA de A.
(2) On détermine les racines de λ1 , . . . , λ p de χA et de leur multiplicité α1 , · · · , α p .
p
(3) On détermine une base particulière adaptée à la décomposition E = ⊕i=1 Eλ′ i de la façon suivante. Soit
ui l’endomorphisme de Eλ′ i induit par u. On sait que ui = λi idEλ′ + νi avec νi nilpotent d’indice la
i
multiplicité βi de λi dans le polynôme minimal de A. On veut trouver une base de Eλ′ i dans laquelle la
matrice de νi est triangulaire supérieure avec des 0 sur la diagonale. Pour cela :
– on détermine une base (ei1 , · · · , eip1 ) de Ker(u − λi idE ),
– que l’on complète en une base (ei1 , · · · , eip1 +p2 ) de Ker(u − λi idE )2 ,
– que l’on complète ensuite en base de Ker(u − λi idE )3 ,
– etc...
– jusqu’à l’obtention d’une base Bi = (ei1 , · · · , eiαi ) de Ker(u − λi idE )βi tout entier.
Il est facile de vérifier que la matrice de νi dans la base Bi est triangulaire supérieure avec des 0 sur
la diagonale. La base de Cn cherchée est la réunion de toutes les bases Bi déterminées précédemment.
Notons qu’il n’est pas toujours évident de connaître βi par avance. En pratique, on trouve cet indice
au cours de la procédure de recherche d’une base de Eλ′ i comme ci-dessus : c’est le plus petit indice
vérifiant Ker(u − λi idE )βi = Ker(u − λi idE )βi +1 .
(4) Finalement, on forme la matrice P dont les colonnes sont les coordonnées des vecteurs de la base
obtenue à l’étape précédente. On calcule T = P−1 AP. Cette matrice T est triangulaire supérieure. On la
décompose en T = ∆ + Θ où ∆ est la matrice diagonale dont les termes diagonaux sont ceux de T . Il ne
reste plus qu’à poser
D = P∆P−1
et
49
N = PΘP−1 .
16. Calcul des puissances d’une matrice
Une des applications de la théorie de la réduction est le calcul des puissance d’une matrice. Distinguons plusieurs
cas :
(1) Cas d’une matrice diagonalisable
Soit A ∈ Mn (K) diagonalisable. On détermine P ∈ GLn (K) et D ∈ Mn (K) diagonale telles que A =
PDP−1 (voir la section II.9). Une récurrence élémentaire montre que pour k ∈ N, donne
Ak = PDk P−1 .
Notons que Dk se calcule très facilement : si D = diag(λ1 , · · · , λn ), alors Dk = diag(λk1 , · · · , λkn ).
Remarquons que si A est diagonalisable dans C mais pas dans R, on diagonalise A dans Mn (C), le
résultat final Ak restant bien sûr réel.
(2) Cas d’une matrice non diagonalisable
Quitte à travailler dans C, on peut toujours supposer que A est trigonalisable. La décomposition de
Dunford s’avère alors particulièrement utile. En effet, on peut écrire A = D + N avec D diagonalisable,
N nilpotente, et DN = ND. Comme D et N commutent, on peut appliquer la formule du binôme de
Newton :
!
k
X
k j k− j
k
k
A = (D + N) =
N D .
j
j=0
En fait, comme N est nilpotente, on a N j = 0 pour j ≥ p où p est l’indice de nilpotence de N. La somme
ci-dessus comporte donc au plus p termes (on sait de plus que p ≤ n), même si k est très grand. Pour
effectuer le calcul le plus simplement possible, on peut utiliser les matrices ∆, Θ et P obtenues au cours
du processus de détermination de la décomposition de Dunford (voir la section II.15). Puisque ∆ et Θ
commutent par construction, on a :


!
k
X

k
Ak = (D + N)k = P(∆ + Θ)k P−1 = P 
Θ j ∆k− j  P−1
j
j=0
Les puissances de ∆ sont immédiates à calculer puisque ∆ est diagonale. Par ailleurs Θ est nilpotente et
donc Θ j = 0 pour j ≥ n. Donc, au pire, il faudra calculer les n − 1 premières puissances de Θ.
(3) Autre méthode
Supposons que l’on connaisse un polynôme annulateur non nul P ∈ K[X] (par exemple le polynôme
caractéristique) d’une matrice A ∈ Mn (K). Supposons de plus que l’on puisse déterminer le reste Rk de
la division euclidienne de X k par P. Rappelons que deg(Rk ) < deg(P). Alors :
Ak = Rk (A).
En effet si Qk est le quotient de la division euclidienne de X k par P, alors X k = PQk + Rk et donc
Ak = P(A)Qk (A) + Rk (A) = Rk (A) puisque P(A) = 0.
50
Exercices sur la réduction
Dans les exercices suivants, K désigne R ou C.
Exercice 1.
Soit u l’endomorphisme de R4 dont la matrice dans la base canonique de R4 est


 1 0 2 0 
 2 1 0 −1
.
M = 
−1 0 1 0 
1 1 1 1
a. Trouver, sans calcul, un sous-espace vectoriel de R4 de dimension 2 qui soit stable par u.
b. Déterminer une matrice inversible P ∈ M4 (R) telle que P−1 MP soit de la forme :
!
A B
−1
P MP =
0 C
où A, B, C ∈ M2 (R).
Exercice 2.
Soit s : Rn [X] → Rn [X] l’application définie par s(P) = P(1 − X). Notons ι = idRn [X] .
a. Montrer que s est une symétrie.
b. Montrer que P ∈ Ker(s − ι) si et seulement si P( 12 + X) = P( 12 − X).
En déduire une caractérisation des éléments de Ker(s − ι).
c. Donner une caractérisation de Ker(s + ι).
d. Déterminer la matrice de s dans la base canonique.
e. Déterminer une base de Rn [X] adaptée à la décomposition de Rn [X] = Ker(s − ι) ⊕ Ker(s + ι).
Exercice 3.
Soit E un K-espace vectoriel de dimesion n ≥ 1. Soit u un endomorphisme nilpotent de E tel que dim Ker(u) = 1.
a. Donner un exemple d’espace vectoriel E et d’endomorphisme u satisfaisant ces conditions.
b. Montrer que si F est un sous-espace vectoriel de E stable par u et non réduit à {0E }, alors dim u(F) = dim(F)−1.
c. Montrer que dim Ker(uk ) = k et rg(uk ) = n − k pour tout 0 ≤ k ≤ n.
d. Trouver tous les sous-espaces vectoriels de E stables par u.
Exercice 4.
a. Trouver deux endomorphismes nilpotents dont la somme n’est pas nilpotente.
b. Trouver deux endomorphismes diagonalisables dont la somme n’est pas diagonalisable.
Exercice 5.
a. Montrer qu’une matrice A ∈ Mn (C) telle que, pour tout 1 ≤ i ≤ n,
X
|ai j | < |aii | est inversible.
j,i, 1≤ j≤n
b. En utilisant la question précédente, montrer qu’une racine z d’un polynôme P = X n +an−1 X n−1 +· · ·+a0 ∈ C[X]
unitaire de degré n vérifie :
|z| ≤ max(|a0 |, 1 + |a1 |, · · · , 1 + |an−1 |).
51


Exercice 6.
1 2 3
Soit u l’endomorphisme de R3 dont la matrice dans la base canonique de R3 est 0 1 4.
0 0 1
Déterminer tous les sous-espaces vectoriels de R3 stables par u.
!
Exercice 7.
4 4
Déterminer les valeurs propres et les sous-espaces propres de la matrice
∈ M2 (R).
1 4
Cette matrice est-elle diagonalisable ?
Exercice 8.
Pour quelles valeurs des paramètres réels a, b, c, d, e, f les matrices suivantes sont-elles diagonalisables sur R ?




1 a b c 
1 a b c 
0 1 d e 
0 2 d e 

 .
A = 
et
B = 
0 0 2 f 
0 0 2 f 
0 0 0 2
0 0 0 2
Exercice 9.
Soit u : C2 [X] → C2 [X] l’application définie, pour P ∈ C2 [X], par :
f (P) = (X 2 + 1)P′ − 2XP.
a. Vérifier u est bien défini et que u est un endomorphisme de C2 [X].
b. Déterminer les valeurs propres de u.
c. Déterminer les sous-espaces propres de u.
d. L’endomorphisme u est-il diagonalisable ?


Exercice 10.
2 
1 4


Diagonaliser la matrice 0 −3 −2 .
0 4
3


!
Exercice 11.
 0 7 −6
4 4
, puis lorsque A = −1 4 0 .
Déterminer les puissances An pour n ≥ 1, lorsque A =
1 4
0 2 −2
Exercice 12.
Soient E un K-espace vectoriel de dimesion n ≥ 1 et u un endomorphismeque de E est de rang 1.
Quels sont les valeurs propres et les sous-espaces propres de u ?
Exercice 13.
Soient E un K-espace vectoriel de dimesion n ≥ 1 et f ∈ L(E) vérifiant f 2 − 3 f + 2idE = 0.
a. Montrer que les seules valeurs propres possibles de f sont 1 et 2.
b. Montrer que E = Ker( f − idE ) ⊕ Ker( f − 2idE ).
c. L’endomorphisme f est-il diagonalisable ?
Exercice 14.
a. Trouver deux endomorphismes nilpotents dont la somme n’est pas nilpotente.
b. Trouver deux endomorphismes diagonalisables dont la somme n’est pas diagonalisable.
Exercice 15.
Soient n ≥ 1 et E = Rn [X]. Notons f : E → E l’application qui à tout polynôme P ∈ E associe le reste de la
division euclidienne de P par X 2 − 32X + 7.
a. Montrer que f est un endomorphisme.
b. A l’aide des polynômes annulateurs, montrer que f est diagonalisable.
Exercice 16.
Soient u un endomorphisme d’un K-espace vectoriel E de dimension finie et P ∈ K[X]. Montrer que P(u) est un
automorphisme de E si et seulement si P et le polynôme minimal mu de u sont premiers entre eux.
52
Exercice 17.
Soient n ≥ 1 et D, T les endomorphismes de Rn [X] définis par D(P) = P′ et T (P) = P(X + 1).
Déterminer les polynômes minimaux de D et T .
Exercice 18.
Considérons la matrice


 3 −5 2 −6
 0
5
0
4 
.
A = 
−2 7 −1 11 
0 −4 0 −3
a. Calculer le polynôme caractéristique de A, puis déterminer ses valeurs propres et ses sous-espaces propres.
b. La matrice A est-elle trigonalisable sur R ?


Exercice 19.
 −2 −1 2 

Trigonaliser la matrice A = −15 −6 11. En déduire An pour n ≥ 1.
−13 −6 11
Exercice 20.
Soient u, v ∈ L(E) deux endomorphismes d’un C-espace vectoriel de dimension finie. Supposons que u et v qui
commutent, c’est-à-dire tels que uv = vu.
a. Montrer que u et v ont un vecteur propre non nul commun.
b. Montrer que u et v admettent une base commune de trigonalisation.


Exercice 21.
0 0 0 

Soit A ∈ M3 (R) une matrice non nulle telle que A3 = −A. Montrer que A est semblable à la matrice 0 0 −1.
0 1 0
Exercice 22.
Montrer que tout endomorphisme d’un R-espace vectoriel de dimension finie n ≥ 1 laisse stable une droite vectorielle ou un plan vectoriel.
Exercice 23.
Soient u un endomorphisme d’un K-espace vectoriel de dimension finie et P ∈ K[X].
a. Montrer que P Spec(u) ⊂ Spec P(u) .
b. Montrer que si χu est scindé, alors χP(u) l’est également et P Spec(u) = Spec P(u) .
c. Si u est diagonalisable (resp. trigonalisable), alors P(u) est-il également diagonalisable (resp. trigonalisable) ?
Est-ce réciproque ?
Exercice 24. (Suites récurrentes)
Soient un entier p ≥ 1 et des scalaires a0 , . . . , a p−1 ∈ K fixés. On souhaite déterminer les suites x = (xn )n∈N ∈ KN
qui vérifient la relation de récurrence linéaire suivante :
∀ n ∈ N,
xn+p = a p−1 xn+p−1 + a p−2 xn+p−2 + · · · + a0 xn .
Notons S l’ensemble des suites x = (xn )n∈N ∈ KN qui vérifient la relation de récurrence linéaire précédente.
a. Montrer que S est un sous-espace vectoriel de KN de dimension p.
Indication : on pourra montrer que l’application qui à x ∈ S associe (x0 , . . . , x p−1 ) ∈ K p est un isomorphisme
d’espaces vectoriels.
b. A toute suite x = (xn )n∈N ∈ KN , on associe la suite (Xn )n∈N de vecteurs colonnes à p lignes définie par :


 


 x0 
 x1 
 xn 


 


X0 =  ...  , X1 =  ...  , . . . Xn =  ...  , . . .


 


x p−1
xp
xn+p−1
Montrer qu’il existe une matrice A ∈ Mn (K) telle que x ∈ S si et seulement si Xn+1 = AXn pour tout n ≥ 0. En
déduire que Xn = An X0 pour tout n ≥ 0.
c. Calculer le polynôme caractéristique χA de A.
53
d. Supposons que χA soit scindé : χA = (X − λ1 )α1 . . . (X − λk )αk avec λ1 , . . . , λk ∈ K et α1 , . . . , αk ∈ N∗ .
Montrer que la famille constituée des p suites
(n j λni )n∈N ,
où 1 ≤ i ≤ k et 0 ≤ j ≤ αi − 1, est une base de S.
Exercice 25.
Calculer un pour tout n ∈ N, sachant que u0 = 0, u1 = 1, u2 = 1 et un+3 = 45un − 39un+1 + 11un+2 pour tout n ∈ N.
Exercice 26.
Déterminer les valeurs propres, les sous-espaces propres et les sous-espaces caractéristiques des endomorphismes
de K2 et K3 ayant pour matrices






1 1 0 1
0 1 0
8 1 5
0 1 3 3
4 4 0 , 2 3 1 et 
0 2 1 2






2 1 2
4 1 1
0 2 3 4
dans les bases canoniques de K2 et K3 .


Exercice 27.
2 0 4 

Trouver toutes les matrices qui commutent avec la matrice 3 −4 12.
1 −2 5
!
!
!
!
Exercice 28.
1 2
1 0
0 2
1 2
La décomposition
=
+
est-elle la décomposition de Dunford de
? Si non, quelle
0 3
0 3
0 0
0 3
est-elle ?
Exercice 29.
Considérons la matrice


 1 1 −1
A = −1 3 −3 ∈ M3 (C).
−2 2 −2
a. Déterminer la décomposition de Dunford de A.
b. Calculer Ak pour tout k ∈ N.
Exercice 30.
Soit A = D + N la décomposition de Dunford de A ∈ Mn (C).
a. Quelle est celle de Ak pour k ∈ N ?
b. Quelle est celle de A−1 lorsque A est inversible ?
54
Téléchargement