GLMA301 - Algèbre linéaire 3 POLYNÔMES ET RÉDUCTION Alexis Virelzier Table des matières Chapitre I. Polynômes I.1. I.2. I.3. I.4. I.5. I.6. I.7. I.8. I.9. I.10. I.11. I.12. I.13. I.14. I.15. 5 Suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Suites presque nulles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Division des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Idéaux de K[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Plus grand commun diviseur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Polynômes premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Plus petit commun multiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Fonctions polynômiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 Dérivation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 Polynômes scindés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Polynômes irréductibles de C[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Polynômes irréductibles de R[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Exercices sur les polynômes 23 Chapitre II. Réduction des endomorphismes 25 II.1. Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 II.2. Rappels et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 II.3. Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 II.4. Polynômes d’endomorphismes et de matrices . . . . . . . . . . . . . . . 27 II.5. Valeurs propres, vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . 30 II.6. Le cas des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 II.7. Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 II.8. Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 II.9. Méthode pratique de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . 39 II.10. Endomorphismes trigonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 II.11. Méthode pratique de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . 41 II.12. Polynômes annulateurs et polynôme minimal . . . . . . . . . . . . . . . .42 II.13. Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 II.14. Décomposition de Dunford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 II.15. Méthode pratique de décomposition de Dunford . . . . . . . . . . . . . 49 II.16. Calcul des puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . 50 Exercices sur la réduction 51 Chapitre I Polynômes Dans ce cours, K = R ou C, c’est-à-dire, le symbole K désigne soit l’ensemble des nombres réels, soit l’ensemble des nombres complexes. 1. Suites Rappelons que l’ensemble des suites d’éléments de K se note KN . Lorsqu’on le munit de l’addition et de la multiplication externe données, pour u = (un )n∈N , v = (vn )n∈N et λ ∈ K, par u + v = (un + vn )n∈N et λu = (λun )n∈N , KN l’ensemble devient un K-espace vectoriel (il correspond au K-espace vectoriel des applications de N vers K). N Notons que K est de dimension infinie. Son vecteur nul est la suite nulle 0 = (0)n∈N . Soient u = (un )n∈N et v = (vn )n∈N deux suites. On définit leur produit par n X uv = (wn )n∈N avec wn = uk wn−k . k=0 Notons 1 = (1, 0, 0, 0, · · · ) la suite dont le premier terme est 1 et les autres termes sont nuls. Proposition I.1.1. Le produit ainsi défini est associatif, commutatif, admet 1 pour unité, et est distributif par rapport à l’addition et la multiplication scalaire externe de KN , c’est-à-dire : u(uw) = (uv)w, uv = vu, 1u = u, u(v + w) = uv + uw, et u(λv) = λ(uv) pour tous u, v, w ∈ KN et λ ∈ K. ☞ Un espace vectoriel muni d’un produit associatif, commutatif, unitaire et distributif par rapport son addition et sa multiplication scalaire externe est ce que l’on appelle une K-algèbre commutative. Ainsi KN est une algèbre commutative. 2. Suites presque nulles Le support d’une suite u = (un )n∈N ∈ KN est le sous-ensemble de N défini par Support(u) = {n ∈ N | un , 0}. Remarquons qu’ne suite est nulle si et seulement si son support est vide. Une suite u = (un )n∈N ∈ KN est presque nulle si son support est fini. Par exemple les suites 0 et 1 sont presque nulles parce que Support(0) = ∅ et Support(1) = {0} sont finis. ☞ Une suite u = (un )n∈N ∈ KN est presque nulle si et seulement si elle est nulle a partir d’un certain rang, c’est-à-dire si et seulement s’il existe un entier N tel que un = 0 pour tout n ≥ N. L’ensemble des suites presque nulles d’éléments de K se note K(N) . 5 Proposition I.2.1. (a) K(N) est un sous-espace vectoriel de KN . (b) Le produit de deux suites presque nulles est une suite presque nulle. ☞ Ainsi, le produit des suites de KN se restreint à K(N) . Muni de ce produit, K(N) est une K-algèbre commutative, ayant pour unité la suite 1. Notons X = (0, 1, 0, 0, · · · ) la suite dont le deuxième terme est 1 et tous les autres termes sont nuls. C’est une suite presque nulle. Par convention, X 0 désigne la suite 1 = (1, 0, 0, 0, · · · ). Proposition I.2.2. (a) Pour tout entier k ≥ 1, la suite X k = | X {z ···X } est la suite dont le (k + 1)-ième terme vaut 1 et dont k fois tous les autres termes sont nuls. X (b) Toute suite presque nulle u = (un )n∈N ∈ K(N) vérifie u = un X n . n∈Support(u) (c) La famille (X k )k∈N est une base de K(N) . Par exemple, (1, 0, 3, −5, 0, · · · ) = (1, 0, · · · ) + 3 (0, 0, 1, 0 · · · ) − 5 (0, 0, 0, 1, 0, · · · ) = 1 + X 2 − 5X 3 . Proposition I.2.3. L’application ι : K → K(N) , définie par ι(k) = k1 = (k, 0, 0, · · · ), est une application K-linéaire injective qui préserve le produit, c’est-à-dire telle que ι(λµ) = ι(λ) ι(µ) pour tous λ, µ ∈ K. L’application ι permet donc d’identifier K avec son image dans K(N) qui est ι(K) = K1 = {(k, 0, 0, · · · ) | k ∈ K}. 3. Polynômes Un polynôme à coefficients dans K est une suite presque nulle P = (an )n∈N d’éléments de K. Les scalaires an s’appellent les coefficients du polynôme. Le polynôme 0 = (0, 0, 0, · · · ) s’appelle le polynôme nul. Le degré d’un polynôme P, noté deg(P), est l’élément de N ∪ {−∞} défini par : ( max Support(P) si P , 0, deg(P) = −∞ si P = 0. En particulier, le degré d’un polynôme non nul est le plus grand indice de ses coefficients non nuls. On étend l’addition et l’ordre usuel de N en une addition et un ordre total sur N ∪ {−∞} en posant : (−∞) + (−∞) = −∞, (−∞) + n = −∞ et −∞<n pour n ∈ N. Théorème I.3.1. Pour tous polynômes P et Q, on a : deg(P + Q) ≤ max deg(P), deg(Q) et deg(PQ) = deg(P) + deg(Q). Démonstration. Notons P = (an )n∈N et Q = (bn )n∈N , p = deg(P) et q = deg(Q). Par définition du degré, an = 0 pour n > p et bn = 0 pour n > q. Ainsi an + bn = 0 pour n > max(p, q), c’est-àdire le n-ième coefficient de P + Q est nul lorsque n > max(p, q). En d’autres termes, deg(P + Q) ≤ 6 max(p, q) = max deg(P), deg(Q) . Montrons la seconde égalité. Si P = 0, alors PQ = 0 et donc deg(PQ) = deg(0) = −∞ = −∞ + deg(Q) = deg(P) + deg(Q). De même deg(PQ) = deg(P) + deg(Q) lorsque Q = 0. Supposons Pn P et Q non nuls, de sorte que p, q ∈ N et a p , 0, bq , 0. Rappelons que PQ = (cn )n∈N avec cn = k=0 ak bn−k . Si n > p + q et 0 ≤ k ≤ n, alors k > p ou n − k > q, et donc ak = 0 ou bn−k = 0, puis cn = 0. Si n = p + q et 0 ≤ k ≤ n, alors k > p, ou n − k > q, ou k = p et n − k = q, et donc c p+q = a p bq , 0. Par conséquent deg(PQ) = p + q = deg(P) + deg(Q). Un polynôme P est constant s’il est de degré inférieur ou égal à 0, c’est-à-dire s’il est de la forme P = a0 1 = (a0 , 0, 0, · · · ) avec a0 ∈ K. Compte tenu de l’identification de K avec K1 (voir la proposition I.2.3), nous noterons un tel polynôme constant par P = a0 . Remarquons qu’un polynôme est constant non nul si et seulement s’il est de degré 0. Le coefficient dominant d’un polynôme P = (an )n∈N non nul est le coefficient adeg(P) . Un polynôme est unitaire s’il est non nul et son coefficient dominant est 1. La suite X = (0, 1, 0, 0, · · · ) s’appelle l’indéterminée. Par la proposition I.2.2, tout polynôme P = (an )n∈N s’exprime à l’aide de l’indéterminée. En particulier, pour tout entier n ≥ deg(P), on a l’égalité : P = an X n + an−1 X n−1 + · · · + a1 X + a0 . Dorénavant, nous noterons l’ensemble K(N) des polynômes par K[X]. Par la proposition I.2.2, la famille (X k )k∈N est une base de K[X]. L’ensemble K[X] = K(N) est une K-algèbre commutative, ayant pour unité le polynôme constant 1. De plus, pour tous P = an X n + · · · + a1 X + a0 ∈ K[X], Q = bm X m + · · · + b1 X + b0 ∈ K[X], et λ ∈ K, on a : P+Q= max(n,m) X k (ak + bk ) X , k=0 n X λP = (λak ) X k , k=0 PQ = n+m X k ck X avec ck = k=0 k X ai bk−i . i=0 Dans ces formules, on convient que ak = 0 pour k ≥ n + 1 et bk = 0 pour k ≥ m + 1. Proposition I.3.2. (a) K[X] est intègre, c’est-à-dire PQ = 0 si et seulement si P = 0 ou Q = 0. (b) Les éléments inversibles de K[X] sont les polynômes constants non nuls. Démonstration. Montrons (a). Si PQ = 0, alors deg(P) + deg(Q) = deg(PQ) = deg(0) = −∞ et donc deg(P) = −∞ ou deg(Q) = −∞, c’est-à-dire P = 0 ou Q = 0. Réciproquement, si P = 0 ou Q = 0, alors PQ = 0. Montrons (b). Soit P un polynôme inversible, c’est-à-dire tel qu’il existe Q ∈ K[X] vérifiant PQ = 1. Ainsi deg(P) + deg(Q) = deg(PQ) = deg(1) = 0. Alors nécessairement deg(P) = 0, soit P ∈ K∗ . Réciproquement, si P = a0 ∈ K∗ , alors P est inversible d’inverse Q = 1/a0 ∈ K∗ . Pour n ∈ N, on note Kn [X] l’ensemble des polynômes de degré inférieur ou égal à n. Proposition I.3.3. Kn [X] est un sous-espace vectoriel de K[X] de dimension n + 1, ayant pour base (X k )0≤k≤n . 4. Division des polynômes Soient A, B ∈ K[X] deux polynômes. On dit que B divise A, ou que B est un diviseur de A, ou que A est divisible par B, ou encore que A est un multiple de B, s’il existe un polynôme Q ∈ K[X] tel que A = BQ. Si tel est le cas, on note A|B. 7 Deux polynômes A et B sont dits associés s’il existe λ ∈ K∗ tel que A = λB. ☞ Un polynôme constant non nul (et en particulier le polynôme unité 1) divise tous les polynômes. ☞ Le polynôme nul est divisible par tous les polynômes. ☞ Seul le polynôme nul est divisible par le polynôme nul. ☞ Une conséquence immédiate du théorème I.3.1 est que si B|A et A , 0, alors deg(B) ≤ deg(A). ☞ Deux polynômes associés ont même degré. ☞ Deux polynômes unitaires ou nuls associés sont forcément égaux. Proposition I.4.1. Soient A, B ∈ K[X]. Alors A|B et B|A si et seulement si A et B sont associés. Démonstration. Si deux polynômes sont associés, alors clairement l’un divise l’autre. Supposons A|B et B|A. Si A est nul, alors B l’est également (car seul le polynôme nul est divisible par le polynôme nul) et donc A et B sont associés. De même, A et B sont associés lorsque B = 0. Supposons A et B non nuls. D’après la remarque ci-dessus, deg(A) ≤ deg(B) et deg(B) ≤ deg(A). Donc deg(A) = deg(B). Puisque A|B, il existe Q ∈ K[X] tel que A = BQ. En particulier, deg(A) = deg(B) + deg(Q). Par conséquent, deg(B) et deg(A) étant des entiers, on obtient deg(Q) = 0. D’où Q est un polynôme constant non nul. Ainsi A et B sont associés. Théorème I.4.2. (Division euclidienne) Soit A, B ∈ K[X] avec B , 0. Alors il existe un unique couple (Q, R) de polynômes tel que A = BQ + R et deg(R) < deg(B). Avec les notations du théorème, le polynôme Q est appelé le quotient et le polynôme R est appelé le reste de la division euclidienne de A par B. Démonstration. Démontrons tout d’abord l’unicité du couple (Q, R). Supposons que A = BQ + R = BQ′ +R′ avec deg(R) < deg(B) et deg(R′ ) < deg(B). Alors on a R−R′ = B(Q′ − Q) et donc deg(R−R′ ) = deg(B) + deg(Q′ − Q). Supposons Q , Q′ . Alors Q − Q′ , 0 et deg(Q − Q′ ) ≥ 0. On en déduit que deg(R − R′ ) ≥ deg(B). Donc, d’après le théorème I.3.1, max(deg(R), deg(R′ )) ≥ deg B, ce qui contredit la définition de R ou de R′ . Ainsi Q = Q′ , puis R = A − BQ = A − BQ′ = R′ . Démontrons l’existence du couple (Q, R). Si B est constant, alors B = b0 avec b0 ∈ K∗ (car B , 0) et (B, Q) = (1/b0 A, 0) convient. Supposons B non constant, de sorte que m = deg(B) ≥ 1. Notons B = bm X m + · · · + b0 . L’existence du couple (Q, R) vérifiant les propriétés voulues se montre par récurrence sur le degré de A. Pour n ∈ N, on note (Pn ) l’hypothèse de récurrence suivante : (Pn ) : ∀ A ∈ K[X], deg(A) ≤ n ⇒ ∃ Q ∈ K[X], ∃ R ∈ K[X], A = BQ + R et deg(R) < deg(B). Il est clair que (Pm−1 ) est vraie. En effet, il suffit de choisir Q = 0 et R = A. Soit maintenant n ≥ m. Supposons (Pn−1 ) vraie et démontrons (Pn ). Soit A = an X n + · · · + a1 X + a0 un polynôme de degré ≤ n. Puisque n ≥ m, an n−m A′ = A − X B bm est bien un polynôme, et son degré est au plus n − 1. D’après (Pn−1 ), il existe donc deux polynômes Q′ et R′ tels que A′ = BQ′ + R′ et deg(R′ ) < deg(B). Ainsi an n−m an n−m A= X B + A′ = QB + R où Q = X + Q′ et R = R′ , bm bm avec deg(R) = deg(R′ ) < deg(B), ce qui démontre (Pn ). 8 La démonstration ci-dessus suggère un algorithme permettant de calculer les quotients et reste d’une division euclidienne. En effet, au cours de la récurrence, on a vu comment ramener la division d’un polynôme de degré n à celle d’un polynôme de degré moins élevé (au plus n − 1). En pratique, on peut donc calculer le couple (Q, R) en “posant” la division comme dans N, les puissances de X jouant le rôle des puissances de 10. Effectuons par exemple la division euclidienne de A = 3X 5 − X 3 + 2X − 1 par B = X 3 − 2X 2 + 3X : 3X 5 + 0X 4 3X 5 − 6X 4 6X 4 6X 4 − X3 + 9X 3 − 10X 3 − 12X 3 2X 3 2X 3 R= + + + − − − 0X 2 + 2X + 1 X 3 − 2X 2 + 3X 3X 2 + 6X + 2 = Q 2 0X + 2X + 1 18X 2 18X 2 + 2X + 1 4X 2 + 6X 14X 2 − 4X + 1 Ainsi 3X 5 − X 3 + 2X + 1 = (X 3 − 2X 2 + 3X)(3X 2 + 6X + 2) + (−14X 2 − 4X + 1). 5. Idéaux de K[X] Un ideal de K[X] est un sous-espace vectoriel I de K[X] qui est stable par multiplication par tout polynôme, c’est-à-dire tel que AP ∈ I pour tous A ∈ I et P ∈ K[X]. Par exemple, l’ensemble des multiple d’un polynôme A, c’est-à-dire l’ensemble AK[X] = {AP | P ∈ K[X]}, est un idéal de K[X]. ☞ Soient A, B ∈ K[X]. Alors A|B si et seulement si BK[X] ⊂ AK[X]. Théorème I.5.1. Soit I un idéal de K[X]. Alors il existe un unique polynôme unitaire ou nul A tel que I = AK[X]. Démonstration. Soit I un idéal de K[X]. Si I = {0}, alors le polynôme nul est clairement le seul polynôme A tel que I = AK[X]. Supposons dorénavant que I , {0}. Posons E = deg A | A ∈ I \ {0} . L’ensemble E est une partie non vide de N (car I , {0}) et donc admet un plus petit élément. Ainsi il existe A ∈ I \ {0} de degré minimal, c’est-à-dire tel que deg(A) = min E. Quitte à multiplier A par l’inverse de son coefficient dominant, on peut supposer que A est unitaire. La stabilité de I par multiplication par les éléments de K[X] assure que AK[X] ⊂ I. Montrons que I ⊂ AK[X]. Soit donc P ∈ I. Puisque A , 0, nous pouvons effectuer la division euclidienne de P par A : il existe Q, R ∈ K[X] tels que P = AQ + R avec deg(R) < deg(A). Puisque P ∈ I et AQ ∈ I, on obtient que R = P − AQ ∈ I. De plus deg(R) < deg(A) = min E. Donc R < I \ {0}, c’est-à-dire R = 0. D’où P = AQ ∈ AK[X]. Par conséquent I ⊂ AK[X], puis I = AK[X]. Supposons qu’il existe un autre polynôme unitaire B tel que I = BK[X]. Alors AK[X] = BK[X], ce qui implique A|B et B|A. Les polynômes A et B sont donc associés. Etant unitaires, ils sont par conséquent égaux. Rappelons que la somme de deux parties non vides U et V d’un K-espace vectoriel E est le sous-ensemble de E défini par U + V = {u + v | u ∈ U, v ∈ V}. Lemme I.5.2. Soient I et J deux idéaux de K[X]. Alors leur somme I + J et leur intersection I ∩ J sont des idéaux de K[X]. 9 Démonstration. La somme et l’intersection de sous-espaces vectoriels étant des sous-espaces vectoriels, I+J et I∩J sont des sous-espaces vectoriels de K[X]. Montrons qu’ils sont stables par multiplication par P ∈ K[X]. Soient A ∈ I + J et B ∈ I ∩ J. Il existe U ∈ I et V ∈ J tels que A = U + V. Puisque I et J sont stables par multiplication par P, on obtient que UP, BP ∈ I et V P, BP ∈ J. Ainsi AP = UP + V P ∈ I + J et BP ∈ I ∩ J. Ainsi I + J et I ∩ J sont des idéaux de K[X]. 6. Plus grand commun diviseur Soient A, B ∈ K[X] deux polynômes. La somme AK[X] + BK[X] des idéaux AK[X] et BK[X] est un idéal de K[X] (par le lemme I.5.2). Ainsi, d’après le théorème I.5.1, il existe un unique polynôme unitaire ou nul ∆ ∈ K[X] vérifiant AK[X] + BK[X] = ∆K[X]. Le polynôme ∆ s’appelle le plus grand commun diviseur de A et B (ou plus brièvement le PGCD de A et B) et se note A ∧ B. En particulier AK[X] + BK[X] = (A ∧ B)K[X]. ☞ Pour tous A, B ∈ K[X], A ∧ B = B ∧ A. ☞ 0 ∧ 0 = 0. ☞ L’unitarisé d’un polynôme non nul A est le polynôme à obtenu en divisant A par son coefficient dominant. Pour A , 0, on a : A ∧ 0 = Ã. ☞ Soient A, B, D ∈ K[X] avec D unitaire. Alors (DA) ∧ (DB) = D(A ∧ B). Proposition I.6.1. Soient A, B ∈ K[X] deux polynômes. Soit ∆ un polynôme unitaire ou nul. Alors ∆ est le PGCD de A et B si et seulement s’il vérifie les deux propriétés suivantes : (i) ∆ est un diviseur commun à A et B ; (ii) tout diviseur commun à A et B divise ∆. Démonstration. Vérifions tout d’abord que A∧B satisfait (i) et (ii), c’est-à-dire que A∧B est un diviseur commun à A et B et est divisible par tout diviseur commun à A et B. Par définition, (A ∧ B)K[X] = AK[X] + BK[X]. Ainsi A = A1 + B0 ∈ (A ∧ B)K[X] et B = A0 + B1 ∈ (A ∧ B)K[X], c’est-à-dire A ∧ B divise A et B. Soit D un diviseur commun à A et B. Alors AK[X] ⊂ DK[X] et BK[X] ⊂ DK[X], donc (A ∧ B)K[X] = AK[X] + BK[X] ⊂ DK[X], c’est-à-dire D divise A ∧ B. Supposons maintenant que ∆ vérifie (i) et (ii). Alors A ∧ B divise ∆ car ∆ est un diviseur commun à A et B. De plus ∆ divise A ∧ B car A ∧ B est un diviseur commun à A et B. Ainsi A ∧ B et ∆ sont associés par la proposition I.4.1. Etant unitaires ou nuls, ils sont donc égaux. ☞ La proposition précédente dit que le PGCD de deux polynômes A et B est le plus grand élément de l’ensemble D(A, B) des diviseurs unitaires ou nuls communs à A et B, lorsque D(A, B) est muni de la relation d’ordre donnée par la division. Ceci justifie l’appellation plus grand commun diviseur. ☞ Lorsque A ou B est non nul, on peut montrer que A ∧ B est le polynôme unitaire de plus grand degré divisant à la fois A et B. L’algorithme d’Euclide est un moyen systématique permettant de calculer le PGCD de deux polynômes qui ne sont pas simultanément nuls. L’outil de base est la division euclidienne. L’algorithme repose sur le lemme suivant : Lemme I.6.2. Soient A un polynôme et B un polynôme non nul. Notons Q le quotient et R le reste de la division euclidienne de A par B. Alors A ∧ B = B ∧ R. 10 Démonstration. Soit D un diviseur commun à A et B. Comme R = A − BQ, le polynôme D divise aussi R. Donc D divise B ∧ R. De plus B ∧ R divise R et B et donc divise A = BQ + R et B. Ainsi B ∧ R est un diviseur commun à A et B et est divisible par tout diviseur commun à A et B. Puisque B ∧ R est unitaire ou nul, on conclut que A ∧ B = B ∧ R par la Proposition I.6.1. Ce lemme est à la base d’un algorithme pour calculer le PGCD de deux polynômes A et B, appelé l’algorithme d’Euclide. Quitte à permuter A et B, on peut toujours supposer que deg(A) ≥ deg(B). On procède alors comme suit : (1) Si B = 0, il n’y a rien à faire : A ∧ B est égal à l’unitarisé de A si A , 0 ou est égal à 0 si A = 0. (2) Si B , 0, on effectue la division euclidienne de A par B, ce qui donne deux polynômes Q1 et R1 tels que A = BQ1 + R1 et deg(R1 ) < deg(B). Par le lemme I.6.2, A ∧ B = B ∧ R1 . Si R1 = 0, on s’arrête. Sinon, on reprend le calcul ci-dessus en remplaçant A par B et B par R1 . Ainsi, en itérant le procédé, on construit deux suites (R1 , R2 , · · · , Rn ) et (Q1 , Q2 , · · · , Qn+1 ) telles que : A = BQ1 + R1 avec deg(R1 ) < deg(B) et R1 , 0, B = R1 Q2 + R2 avec deg(R2 ) < deg(R1 ) et R2 , 0, R1 = R2 Q3 + R3 avec deg(R3 ) < deg(R2 ) et R3 , 0, .. . Rn−2 = Rn−1 Qn + Rn avec deg(Rn ) < deg(Rn−1 ) et Rn , 0, Rn−1 = Rn Qn+1 + 0. Le procédé s’arrête nécessairement au bout d’au plus deg(B) étapes car chaque itération diminue d’au moins 1 le degré du reste de la division euclidienne. Alors fn A ∧ B = B ∧ R1 = R1 ∧ R2 = · · · = Rn−1 ∧ Rn = Rn ∧ 0 = R fn est l’unitarisé de Rn . où R Par exemple, calculons le PGCD de X 4 − 3X 3 + X + 1 et X 2 − 1. L’algorithme ci-dessus donne : X 4 − 3X 3 + X + 1 = (X 2 − 1)(X 2 − 3X + 1) − 2X + 2, X 2 − 1 = (−2X + 2)(−1/2X) + X − 1, −2X + 2 = (X − 1)2 + 0. Donc (X 4 − 3X 3 + X + 1) ∧ (X 2 − 1) = X − 1. 7. Polynômes premiers entre eux Deux polynômes sont dits premiers entre eux si leur PGCD est 1. ☞ Tout polynôme constant non nul est premier avec tout autre polynôme. Théorème I.7.1. (Théorème de Bézout) Deux polynômes A, B ∈ K[X] sont premiers entre eux si et seulement s’il existe deux polynômes U, V ∈ K[X] tels que AU + BV = 1. Démonstration. Supposons A ∧ B = 1. Par définition du PGCD, on a AK[X] + BK[X] = K[X]. Donc 1 ∈ AK[X] + BK[X], ce qui signifie qu’il existe U et V tels que AU + BV = 1. Réciproquement, supposons qu’il existe U et V tels que AU + BV = 1. Alors 1 ∈ AK[X] + BK[X] = (A ∧ B)K[X]. Ainsi le polynôme A ∧ B divise 1 et donc, étant unitaire, est nécessairement égal à 1. 11 ☞ Pour qu’un polynôme unitaire ∆ soit le PGCD deux polynômes A et de B, il faut et il suffit que : A B ∧ = 1. ∆|A, ∆|B et ∆ ∆ Cette remarque et le théorème de Bézout permettent de montrer facilement la généralisation suivante : Théorème I.7.2. (Théorème de Bézout généralisé) Soient A, B deux polynômes et ∆ un polynôme unitaire ou nul. Pour que ∆ soit le PGCD de A et B, il faut et il suffit qu’il vérifie les deux propriétés suivantes : (i) ∆ est un diviseur commun à A et B ; (ii) il existe deux polynômes U, V ∈ K[X] tels que AU + BV = ∆. Remarquons que le théorème de Bézout est une conséquence immédiate du théorème de Bézout généralisé puisque le polynôme unité 1 divise tout polynôme. Théorème I.7.3. (Théorème de Gauss) Soient A, B, P ∈ K[X]. Si P divise AB et P est premier avec A, alors P divise B. Démonstration. Si B = 0, le résultat est trivial. Supposons B , 0 et notons B̃ l’unitarisé de B. On a (PB) ∧ (AB) = B̃ (P ∧ A) = B̃ 1 = B̃. Or P est un diviseur commun à PB et AB. Ainsi P divise B̃ et donc B. Corollaire I.7.4. Un polynôme P est premier avec un produit de polynômes AB si et seulement s’il est premier avec A et avec B. Démonstration. Supposons P premier avec AB. Soit D un diviseur commun à P et A. Alors D divise aussi AB. Donc D|(AB) ∧ P puis D|1. On en déduit que D est un polynôme constant non nul et donc que P est premier avec A. De même on montre que P est premier avec B. Montrons la réciproque par contraposition. Supposons que P ne soit pas premier avec AB. Alors il existe un diviseur commun D à P et AB tel que deg(D) ≥ 1. Si P est premier avec A, alors D également. D’après le théorème de Gauss, D divise donc B. On a donc montré que D divise à la fois P et B. Comme deg(D) ≥ 1, cela signifie que P et B ne sont pas premiers entre eux. Une récurrence élémentaire permet de montrer plus généralement : Corollaire I.7.5. Un polynôme P est premier avec un produit de polynômes A1 · · · Ak si et seulement s’il est premier avec chacun des facteurs Ai . Proposition I.7.6. Soient a, b ∈ K deux scalaires distincts et α, β ∈ N∗ . Alors les polynômes (X − a)α et (X − b)β sont premiers entre eux. 12 Démonstration. Par le Théorème de Bézout, puisque 1 1 (X − a) + (X − b) = 1, b−a a−b les polynômes X −a et X −b sont premiers entre eux. Donc, par le corollaire précédent, X −a est premier avec (X − b)β . De même, puisque (X − b)β est premier avec X − a, il l’est également avec (X − a)α , toujours par application du corollaire précédent. 8. Plus petit commun multiple Soient A, B ∈ K[X] deux polynômes. L’intersection AK[X] ∩ BK[X] des idéaux AK[X] et BK[X] est un idéal de K[X] (par le lemme I.5.2). Ainsi, d’après le théorème I.5.1, il existe un unique polynôme unitaire ou nul M ∈ K[X] vérifiant AK[X] ∩ BK[X] = MK[X]. Le polynôme M s’appelle le plus petit commun multiple de A et B (ou plus brièvement le PPCM de A et B) et se note A ∨ B. En particulier AK[X] ∩ BK[X] = (A ∨ B)K[X]. ☞ Si A ou B est nul, alors A ∨ B = 0. ☞ Soient A, B, P ∈ K[X] avec P unitaire. Alors (PA) ∨ (PB) = P(A ∨ B). Proposition I.8.1. Soient A, B ∈ K[X] deux polynômes. Soit M un polynôme unitaire ou nul. Alors M est le PPCM de A et B si et seulement s’il vérifie les deux propriétés suivantes : (i) M est un multiple commun à A et B ; (ii) M divise tout multiple commun à A et B. Démonstration. Vérifions tout d’abord que A∨B satisfait (i) et (ii), c’est-à-dire que A∨B est un multiple commun à A et B et divise tout multiple commun à A et B. Par définition, (A∨B)K[X] = AK[X]∩BK[X]. Ainsi A ∨ B ∈ AK[X] et A ∨ B ∈ BK[X], c’est-à-dire A ∨ B est divisible par A et B. Soit P un multiple commun A et B. Alors P ∈ AK[X] et P ∈ BK[X]. Donc P ∈ AK[X] ∪ BK[X] = (A ∨ B)K[X], c’est-à-dire A ∨ B divise P. Supposons maintenant que M vérifie (i) et (ii). Alors A ∨ B divise M car A ∨ B est un multiple commun à A et B. De plus M divise A ∨ B car A ∨ B est un multiple commun à A et B. Ainsi A ∨ B et M sont associés par la proposition I.4.1. Etant unitaires ou nuls, ils sont donc égaux. ☞ La proposition précédente dit que le PPCM de deux polynômes A et B est le plus grand élément de l’ensemble M(A, B) des multiples unitaires ou nuls communs à A et B, lorsque M(A, B) est muni de la relation d’ordre donnée par la division. Ceci justifie l’appellation plus petit commun multiple. ☞ On peut montrer que A ∨ B est le polynôme unitaire de petit degré divisible à la fois par A et B. ☞ Pour qu’un polynôme unitaire M soit le PPCM deux polynômes non nuls A et de B, il faut et il suffit que : A|M, B|M et M M ∧ = 1. A B Théorème I.8.2. (Relation PGCD, PPCM, produit) Soient A et B deux polynômes. Alors il existe une constante ν non nulle telle que νAB = (A ∧ B)(A ∨ B). Si A et B sont non nuls, alors ν est l’inverse du produit des coefficients dominants de A et B. En particulier, si A et B sont unitaires, alors ν = 1. 13 Démonstration. Si A = 0 ou B = 0, alors ν = 1 convient puisque AB = 0 et A ∨ B = 0. Supposons donc A , 0 et B , 0. Alors A∨B ∧ A∨B = 1. Soit ν l’inverse du produit des coefficients dominants de A et A B B. Alors νAB est unitaire. Puisque νAB et A ∨ B sont unitaires, on a ! ! A ∨ B A ∨ B (A ∨ B) (A ∨ B) νAB = νAB ∧ = νAB ∧ νAB A B A B = νB(A ∨ B) ∧ νA(A ∨ B) = (A ∨ B) (νB ∧ νA) = (A ∨ B)(A ∧ B). Lorsque A et B sont unitaires, leurs coefficients dominants sont égaux à 1 et donc l’inverse du produit de ceux-ci aussi. 9. Polynômes irréductibles Dans cette section, nous introduisons une classe de polynômes qui jouent dans K[X] le même rôle que les nombres premiers dans Z : les polynômes irréductibles. Un polynôme P est irréductible s’il n’est pas constant (c’est-à-dire de degré ≥ 1) et si ses seuls diviseurs sont les polynômes constants non nuls et les polynômes qui lui sont associés. ☞ A la différence des nombres premiers, les polynômes irréductibles ont une infinité de diviseurs (cependant ceux-ci sont triviaux). ☞ Le polynôme nul n’est pas irréductible. Proposition I.9.1. Tout polynôme de degré 1 est irréductible. Démonstration. Soit P un polynôme de degré 1 et D un diviseur de P. Alors deg(D) ≤ deg(P) = 1 et donc deg(D) ∈ {−∞, 0, 1}. Or D ne peut être nul car P ne l’est pas. Donc deg(D) ∈ {0, 1}. Si deg(D) = 0 alors D est constant non nul. Si deg(D) = 1, alors P et Q sont associés puisque D|P et deg(D) = deg(P). Proposition I.9.2. Soient A un polynôme et P un polynôme irréductible. Alors P est premier avec A si et seulement si P ne divise pas A. Démonstration. C’est une conséquence immédiate du fait que A ∧ P est unitaire et divise P, et donc que A ∧ P = 1 ou A ∧ P = µ1 P, µ étant le coefficient dominant de P. Lemme I.9.3. Tout polynôme non constant admet un diviseur irréductible. Démonstration. Soit P un polynôme non constant. Notons E l’ensemble des polynômes non constants divisant P. Cet ensemble est non vide car P ∈ E. Ainsi la partie {deg A | A ∈ E} de N∗ est non vide et donc admet un plus petit élément deg(D) avec D ∈ E. Supposons que D ne soit pas irréductible. Alors il existe U, V ∈ K[X] non constants tels que D = UV. En particulier U ∈ E et deg(U) < deg(D) (car deg(D) = deg(U) + deg(V) et deg(V) ≥ 1), ce qui contredit la définition de D. Donc D est un diviseur irréductible de P. 14 Théorème I.9.4. Dans K[X], il y a une infinité de polynômes irréductibles deux à deux non associés. Démonstration. Soient P1 , . . . , Pn des polynômes irréductibles deux à deux non associés. Le polynôme Q = 1 + P1 · · · Pn est non constant et donc admet un diviseur irréductible D. Le polynôme D ne divise aucun des Pi (sinon il diviserait 1 = Q − P1 · · · Pn et serait constant) et donc n’est associé avec aucun des Pi . En résumé, s’il y a au moins n polynômes irréductibles deux à deux non associés, il en existe au moins n+1. Puisqu’il existe au moins un polynôme irréductible (par exemple le polynôme X car il est de degré 1), on conclut qu’il existe une infinité de polynômes irréductibles deux à deux non associés. De même que tout entier ≥ 2 possède une décomposition en facteurs premiers, tout polynôme non constant a une décomposition en facteurs irréductibles : Théorème I.9.5. (Décomposition en facteurs irréductibles) Soit P ∈ K[X] un polynôme non constant. Alors il existe un entier k strictement positif, k entiers α1 , . . . , αk strictement positifs et k polynômes irréductibles unitaires P1 , . . . , Pk deux à deux distincts tels que P = µ Pα1 1 Pα2 2 · · · Pαk k , où µ ∈ K∗ est le coefficient dominant de P. Cette décomposition est unique à l’ordre des facteurs près et s’appelle la décomposition en facteurs irréductibles de P. Démonstration. Démontrons tout d’abord l’existence d’une telle décomposition par récurrence. Soit An l’assertion : "tout polynôme non constant de degré au plus n admet une décomposition en facteurs irréductibles. Vérifions que A1 est vraie. Soit P un polynôme non constant de degré ≤ 1. Alors il est de degré 1. Soit µ le coefficient dominant de P et posons k = 1, α1 = 1 et P1 = µ1 P. Ainsi P1 est unitaire, est irréductible (par la proposition I.9.1) et P = µPα1 1 . Donc l’assertion A1 est vraie. Supposons maintenant que An soit vraie et montrons que An+1 l’est également. Soit P un polynôme non constant de degré au plus n + 1. Notons µ le coefficient dominant de P et P̃ son unitarisé. On a P = µ P̃. Si P est irréductible, alors P = µ P̃ est une décomposition de P en facteurs irréductibles. Sinon, il existe un polynôme A unitaire de degré compris entre 1 et n qui divise P̃. On a donc P̃ = AB avec A et B unitaires et de degré compris entre 1 et n. Puisque An est vrai, A et B admettent chacun une décomposition en facteurs irréductibles : A = Aα1 1 · · · Aαk k et B = Bβ11 · · · Bβℓ ℓ . Donc β β P = µ Aα1 1 · · · Aαk k B11 · · · Bℓ ℓ . Il ne reste plus qu’à renuméroter les facteurs de la décomposition pour obtenir le résultat voulu. Démontrons maintenant l’unicité de la décomposition. Supposons qu’un polynôme non constant P admette β β β deux décompositions en facteurs irréductibles : P = µ Pα1 1 Pα2 2 · · · Pαk k = µ Q11 Q22 · · · Qℓ ℓ , de sorte que Pα1 1 Pα2 2 · · · Pαk k = Qβ11 Qβ22 · · · Qβℓ ℓ . β β β (1) Puisque P1 n’est pas premier avec le produit Q11 Q22 · · · Qℓ ℓ (car P1 divise ce produit et est de degré ≥ 1), on obtient par le corollaire I.7.5 que P1 n’est pas premier avec au moins l’un des Q j : il existe j1 tel que P1 et Q j1 ne soient pas premiers entre eux. Comme par ailleurs Q j1 et P1 sont irréductibles et unitaires, on en déduit que P1 = Q j1 . De plus remarquons que l’entier j1 tel que P1 = Q j1 est unique car les Q j sont deux à deux distincts. Puisque K[X] est intègre (voir proposition I.3.2), on peut donc simplifier (1) par P1 . On itère ce procédé et en α1 + · · · + αk étapes, on parvient à une expression du type ℓ Y β′ 1= Qjj j=1 15 avec β′ji = β ji − αi pour tout 1 ≤ i ≤ k. Cela permet de conclure que tous les β′j sont nuls. En particulier on obtient que ℓ = k et β ji = αi pour tout 1 ≤ i ≤ k. Donc les deux décompositions sont identiques à l’ordre près des facteurs. De leurs décompositions en facteurs irréductibles, on peut calculer le PGCD et le PPCM de deux polynômes : Proposition I.9.6. Soient P1 , . . . , Pk ∈ K[X] des polynômes irréductibles unitaires deux à deux distincts et α1 , . . . , αk ∈ N, β1 , . . . , βk ∈ N. Alors : β β min(α ,β ) min(α ,β ) Pα1 1 · · · Pαk k ∧ P11 · · · Pk k = P1 1 1 · · · Pk k k , β β max(α1 ,β1 ) max(αk ,βk ) Pα1 1 · · · Pαk k ∨ P11 · · · Pk k = P1 · · · Pk . α +β β Démonstration. Puisque Pαi i Pi i = Pi i i et αi + βi = min(αi , βi ) + max(αi , βi ), la deuxième égalité se déduit de la première via le théorème I.8.2. Montrons la première égalité. Notons A = Pα1 1 · · · Pαk k , β β B = P1 1 · · · Pk k et min(α1 ,β1 ) ∆ = P1 min(αk ,βk ) · · · Pk . Clairement, ∆ est un diviseur unitaire commun à A et B. Soit D un diviseur commun à A et B. De la proposition I.9.2, on déduit facilement qui si un polynôme irréductible unitaire divise un produit de polynômes irréductibles unitaires, alors il est égal à l’un des termes du produit. Ainsi la décomposition en facteurs irréductibles de D est nécessairement de la forme γ γ D = µP11 · · · Pk k γ γ où γ1 , . . . , γk ∈ N et µ ∈ K. Soit 1 ≤ i ≤ k. Le polynôme Pi i divise D et donc A et B. Or Pi i est premier Q Q α β γ β avec i, j P j j et i, j P j j . Donc, par le théorème de Gauss I.7.3, Pi i divise Pαi i et Pi i . Ainsi γi ≤ αi et γi ≤ βi . D’où γi ≤ min(αi , βi ). On en déduit que D divise ∆. Ainsi ∆ = A∧B par la proposition I.6.1. 10. Fonctions polynômiales Soit P = an X n + · · · + a1 X + a0 un polynôme de K[X] et t ∈ K. On définit alors l’élément P(t) de K par P(t) = an tn + · · · + a1 t + a0 . On dit que P(t) est obtenu par substitution de t à X. ☞ Soit t ∈ K un scalaire fixé. Alors, pour tous P, Q ∈ K[X] et λ ∈ K, on a : (P + Q)(t) = P(t) + Q(t), (PQ)(t) = P(t)Q(t), (λP)(t) = λP(t) et 1(t) = 1. La fonction polynômiale (sur K) associée à un polynôme P ∈ K[X] est l’application K → K définie par t 7→ P(t). 11. Racines Un scalaire a ∈ K est une racine d’un polynôme P ∈ K[X] si P(a) = 0. Lemme I.11.1. Soient a ∈ K et P ∈ K[X]. Pour que a soit une racine de P, il faut et il suffit que X − a divise P. Démonstration. Soit Q et R le quotient et reste de la division euclidienne de P par X − a, c’est-à-dire P = Q(X − a) + R avec deg(R) < deg(X − a) = 1. Ainsi R est un polynôme constant : il existe c ∈ K tel que R = c. On obtient que P(a) = c. Ainsi a est une racine de P si et seulement si R = 0, c’est-à-dire si et seulement si X − a divise P. 16 Soient P ∈ K[X] un polynôme non nul et a ∈ K est une racine de P. Alors l’ensemble ℓ ∈ N∗ | (X − a)ℓ divise P est une partie de N∗ non vide (car il contient 1 par le lemme ci-dessus) et majorée par deg(P) (car, P étant non nul, tout diviseur de P a un degré inférieur à celui de P). Il admet donc un plus grand élément α que l’on appelle la multiplicité de la racine a. Remarquons que 1 ≤ α ≤ deg(P). Lorsque α = 1 on dit que a est une racine simple, lorsque α = 2 on dit que a est une racine double, lorsque α = 3 on dit que a est une racine triple, etc. ☞ Une racine a d’un polynôme non nul P est de multiplicité α si et seulement s’il existe Q ∈ K[X] tel que P(X) = (X − a)α Q(X) avec Q(a) , 0. Proposition I.11.2. Si un polynôme admet k racines a1 , . . . , ak deux à deux distinctes, de multiplicité respectives α1 , . . . , αk , alors il est divisible par (X − a1 )α1 (X − a2 )α2 · · · (X − ak )αk . Démonstration. Procédons par récurrence sur k. La propriété est vraie pour k = 1 par définition de la multiplicité d’une racine. Supposons qu’elle le soit pour k ≥ 1 et soit P un polynôme admettant k + 1 racines a1 , . . . , ak+1 deux à deux distinctes de multiplicité respectives α1 , . . . , αk+1 . Puisque la racine ak+1 est de multiplicité αk+1 , il existe Q ∈ K[X] tel que P = (X − ak+1 )αk+1 Q avec Q(ak+1 ) , 0. Soit 1 ≤ i ≤ k. Par définition de la multiplicité, (X −ai )αi divise P = (X −ak+1 )αk+1 Q. Or (X −ai )αi est premier avec (X − ak+1 )αk+1 par la proposition I.7.6 car ai , ak+1 . Donc, par le théorème de Gauss, (X − ai )αi divise Q. Ainsi les polynômes (X − a1 )α1 , . . . , (X − ak )αk divisent tous Q. Or ils sont premiers entre eux deux à deux (par la proposition I.7.6 car les ai sont deux à deux distincts). Donc, par l’hypothèse de récurrence, leur produit (X − a1 )α1 · · · (X − ak )αk divise Q. D’où (X − a1 )α1 · · · (X − ak )αk (X − ak+1 )αk+1 divise (X − ak+1 )αk+1 Q = P. Théorème I.11.3. Un polynôme P de degré n ∈ N admet au plus n racines comptées avec leur multiplicité, c’est-à-dire si {a1 , . . . , ak } est l’ensemble des racines de P, et αi est la multiplicité de ai , alors : α1 + · · · + αk ≤ n. Q Démonstration. D’après la proposition I.11.2, le polynôme Q = ki=1 (X − ai )αi divise P et donc son degré est inférieur à deg(P) = n (car P , 0 puisque deg(P) ∈ N). Or le degré de Q est α1 + · · · + αk . D’où le résultat. Corollaire I.11.4. Si un polynôme de degré inférieur et égal à n ∈ N admet n + 1 racines (comptées avec leur multiplicité), alors c’est le polynôme nul. En particulier, seul le polynôme nul admet une infinité de racines. Corollaire I.11.5. Une fonction polynômiale est associée a un unique polynôme. Plus précisément, l’application qui à P ∈ K[X] associe l’application polynômiale fP ∈ F (K, K), définie par fP (x) = P(x) pour x ∈ K, est injective. 17 12. Dérivation des polynômes Soit P = an X n + · · · + a1 X + a0 un polynôme de K[X]. Le polynôme dérivé de P est le polynôme P′ = nan X n−1 + · · · + 2a2 X + a1 = n X jai X i−1 . i=1 La dérivation de K[X] est l’application D : K[X] → K[X] définie par D(P) = P′ . Proposition I.12.1. Soient P, Q ∈ K[X] deux polynômes et λ ∈ K un scalaire. Alors : (a) Si deg(P) ≥ 1, alors deg(P′ ) = deg(P) − 1. (b) P est constant si et seulement si P′ = 0. (c) La dérivation est un endomorphisme linéaire de K[X], i.e., (P + Q)′ = P′ + Q′ et (λP)′ = λP′ . (d) (PQ)′ = P′ Q + PQ′ . Démonstration. Les trois premiers points sont évidents. Montrons (d). Soit P = a p X p + · · · + a1 X + a0 et Q = bq X q + · · · + b1 X + b0 . En appliquant la définition du polynôme dérivé au produit PQ, on trouve p+q X X j ak bℓ X j−1 . (PQ)′ = j=1 k+ℓ= j Des calculs élémentaires montrent donc que p+q X X (PQ)′ = kak X k−1 bℓ X ℓ + ak X k ℓbℓ X ℓ−1 j=1 k+ℓ= j p+q X p+q X X X k−1 ℓ k ℓ−1 = ka X b X a X ℓb X + k ℓ k ℓ j=1 k+ℓ= j j=1 k+ℓ= j q p q p X X X X = kak X k−1 bℓ X ℓ + ak X k ℓbℓ X ℓ−1 k=1 ′ ℓ=0 k=0 ℓ=1 ′ = P Q + PQ . Pour k ∈ N, on définit par récurrence la dérivée k-ième d’un polynôme P par ′ P(0) = P, P(1) = P′ , et P(k+1) = P(k) . Par exemple, pour a ∈ K et k ≥ n, on a : (X − a)n (k) = n! (X − a)n−k . (n − k)! De la proposition I.12.1, on déduit par récurrence : Corollaire I.12.2. Soient P, Q ∈ K[X] et n ∈ N. Alors (n) (PQ) ! n X n (k) (n−k) = P Q . k k=0 18 Théorème I.12.3. (Formule de Taylor) Soit P ∈ K[X] un polynôme de degré n ∈ N et a ∈ K. Alors n X P(k) (a) P= (X − a)k . k! k=0 Démonstration. Pour k ∈ N, notons Ek = (X − a)k . Du fait que deg(Ek ) = k, on déduit facilement que la famille (Ek )k∈N est une base de K[X]. Ainsi il existe des scalaires a0 , . . . , an ∈ K tels ques P = an En + · · · + a0 E0 . Soit 0 ≤ k ≤ n. Rappelons que, pour m ∈ N, ( m! (X − a)k−m si m ≤ k, Ek(m) = (k−m)! 0 si m > k. Ainsi Ek(m) (a) = 0 si m , k et Ek(k) (a) = k!. Par conséquent P(k) (a) = an En(k) (a) + · · · + a0 E0(k) (a) = ak k!. D’où le résultat. Corollaire I.12.4. Soient P ∈ K[X], a ∈ K et α ∈ N. Alors a est une racine de P de multiplicité α si et seulement si P(a) = P′ (a) = · · · = P(α−1) (a) = 0 et P(α) (a) , 0. Démonstration. Supposons P(a) = P′ (a) = · · · = P(α−1) (a) = 0 et P(α) (a) , 0. Alors la formule de Taylor donne P = (X − a)α Q où n−α (k+α) X P (a) Q= (X − a)k . (k + α)! k=0 Puisque Q(a) = P(α) (a)/α! , 0, on en déduit que a est une racine de P de multiplicité α. Réciproquement, supposons que a soit une racine de P de multiplicité α. Alors il existe Q ∈ K[X] tel que P = (X − a)α Q avec Q(a) , 0. En utilisant le corollaire I.12.2, on obtient que, pour 0 ≤ k ≤ α, ! ! k k X X k k α! (k) α (i) (k−i) P (a) = (X − a) (a) Q (a) = 0α−i Q(k−i) (a). i i (α − i)! i=0 i=0 Or 0α−i est nul sauf si i = k = α. Donc P(k) (a) = 0 pour k < α et P(α) (a) = α!Q(a) , 0. 13. Polynômes scindés Un polynôme est scindé s’il n’est pas constant et si la somme des multiplicités de ses racines est égal à son degré. Autrement dit, un polynôme P ∈ K[X] de degré n ∈ N est scindé s’il existe µ ∈ K∗ et n scalaires λ1 , . . . , λn ∈ K (pas nécessairement distincts) tels que P = µ (X − λ1 )(X − λ2 ) · · · (X − λn ). Pour λ1 , . . . , λn ∈ K et 1 ≤ k ≤ n, on pose : σk (λ1 , . . . , λn ) = X λi1 λi2 · · · λik . 1≤i1 <i2 <···<ik ≤n En particulier σ1 (λ1 , . . . , λn ) = λ1 + λ2 + · · · + λn et σn (λ1 , . . . , λn ) = λ1 λ2 · · · λn . Lorsque P = a2 X 2 + a1 X + a0 est un polynôme scindé de degré 2 ayant λ1 et λ2 pour racines, puisqu’alors P = a2 (X − λ1 )(X − λ2 ) = a2 X 2 − a2 (λ1 + λ2 )X + a2 λ1 λ2 , on trouve les relations : a1 a0 σ1 (λ1 , λ2 ) = λ1 + λ2 = − et σ2 (λ1 , λ2 ) = λ1 λ2 = . a2 a2 Plus généralement, on montre par récurrence le théorème suivant : 19 Théorème I.13.1. (Relation entre les coefficients et les racines d’un polynôme scindé) Soit P = an X n + · · · + a1 X + a0 ∈ K[X] un polynôme scindé de degré n ∈ N. Notons λ1 , . . . , λn les racines de P (les racines multiples figurant dans cette liste autant de fois que le veut leur multiplicité). Alors, pour tout 1 ≤ k ≤ n, an−k σk (λ1 , . . . , λn ) = (−1)k . an 14. Polynômes irréductibles de C[X] Le très important résultat suivant est connu sous le nom de théorème de d’Alembert-Gauss ou théorème fondamental de l’algèbre. Il en existe de nombreuses preuves, mais toutes dépassent le cadre du programme. Théorème I.14.1. (Théorème de d’Alembert-Gauss) Tout polynôme de C[X] non constant admet une racine dans C. ☞ Les deux racines complexes (éventuellement confondues) d’un polynôme P = aX 2 + bX + c de degré 2 et à coefficients complexes sont λ1 = −b + δ 2a et λ2 = −b − δ 2a où δ est une racine carré (dans C) du discriminant ∆ = b2 − 4ac. Le théorème de d’Alembert-Gauss exprime que toute équation polynômiale de degré n admet n solutions (éventuellement confondues) dans C. Dans le cas n = 3 ou 4, il existe des formules (assez compliquées) donnant les solutions en fonction des coefficients. Pour une équation de degré supérieur ou égal à 5, il a été prouvé par un jeune mathématicien du XIX ème siècle, E. Galois, que de telles formules n’existent pas ! Corollaire I.14.2. Un polynôme de C[X] est irréductible si et seulement s’il est de degré 1. Démonstration. Par la proposition I.9.1, tout polynôme de degré 1 est irréductible. Réciproquement, soit P ∈ C[X] de degré au moins 2. D’après le théorème de d’Alembert-Gauss, P admet au moins une racine a. Donc P est divisible par X − a. Clairement X − a n’est pas constant et n’est pas associé à P (car P et X − a n’ont pas le même degré). Donc P n’est pas irréductible. En appliquant le théorème I.9.5 de décomposition en facteurs irréductible, on en déduit : Corollaire I.14.3. Tout polynôme non constant P de C[X] admet une décomposition en facteurs irréductibles du type suivant : P=µ k Y (X − λi )αi , i=1 où λ1 , . . . , λk sont les racines complexes deux à deux distinctes de P, αi est la multiplicité de λi , et µ ∈ C∗ est le coefficient dominant de P. En particulier, tout polynôme non constant de C[X] est scindé. 20 15. Polynômes irréductibles de R[X] Dans R[X], la situation est un peu plus compliquée que dans C[X]. En effet, tous les polynômes irréductibles ne sont pas de degré 1. Par exemple, X 2 + 1 est irréductible dans R[X] car il n’a pas de racine réelle (la fonction polynômiale associée est minorée par 1 et donc ne s’annule jamais). Avant de dresser une liste de tous les polynômes irréductibles de R[X] (voir le théorème I.15.2 ci-après), établissons le lemme suivant : Lemme I.15.1. Soit P = an X n + · · · + a1 X + a0 un polynôme de C[X]. Notons P = an X n + · · · + a1 X + a0 le polynôme conjugué. Alors r ∈ C est une racine de P de multiplicité α si et seulement si r est une racine de P de multiplicité α. Démonstration. Soit r une racine de P de multiplicité α. Alors il existe un polynôme Q ∈ C[X] tel que P = (X − r)α Q. En prenant le conjugué de cette expression, on obtient P = (X − r)α Q. Donc r est racine de P de multiplicité α′ ≥ α. En échangeant les rôles de P et P, r et r, α et α′ , on obtient α ≥ α′ . D’où le résultat. Théorème I.15.2. Les polynômes irréductibles de R[X] sont : (a) les polynômes de degré 1 ; (b) les polynômes de degré 2 ayant un discriminant strictement négatif : P = aX 2 + bX + c avec a , 0 et ∆ = b2 − 4ac < 0. Démonstration. On sait déjà, par la proposition I.9.1, que les polynômes de degré 1 sont irréductibles. Soit maintenant P = aX 2 + bX + c de degré 2 à coefficients réels ayant un discriminant ∆ = b2 − 4ac strictement négatif. La fonction polynômiale !2 b −∆ t ∈ R 7→ P(t) = a X − + 2 ∈ R a 4a associée à P ne s’annule pas sur R et donc aucun polynôme de degré 1 ne divise P. Ainsi un polynôme de degré 2 à coefficients réels ayant un discriminant strictement négatif est irréductible dans R[X]. De plus nous savons que tout polynôme de degré 2 à coefficients réels ayant un discriminant positif ou nul n’est pas irréductible dans R[X] (car un tel polynôme admet deux racines réelles r1 et r2 , éventuellement confondues, et est donc de la forme λ(X − r1 )(X − r2 ) pour un certain λ ∈ R∗ ). Finalement, montrons que tout polynôme de degré au moins 3 n’est pas irréductible. Soit P ∈ R[X] un polynôme de degré au moins 3. Supposons que P ne possède pas de racine réelle (sinon P ne serait pas irréductible dans R[X] car produit d’un polynôme de degré 1 avec un polynôme de degré au moins 3 − 1 = 2). D’après le lemme I.15.1, les racines complexes (non réelles) de P sont deux à deux conjuguées (avec ordres de multiplicité égaux deux à deux). Le corollaire I.14.3 assure donc l’existence de nombres complexes (non réels) λ1 , . . . , λℓ , d’entiers α1 , . . . , αℓ , et d’un réel µ, tels que ℓ Y P=µ (X − λi )αi (X − λi )αi . i=1 Or on vérifie facilement que αi (X − λi )αi (X − λi )αi = X 2 − 2Re(λi )X + |λi |2 . Donc P s’écrit en particulier comme produit du polynôme réel X 2 − 2Re(λ1 )X + |λ1 |2 de degré 2 avec un polynôme réel de degré au moins 3 − 2 = 1, et n’est donc pas irréductible. En reprenant la preuve ci-dessus, on déduit facilement le résultat suivant : 21 Corollaire I.15.3. Tout polynôme P non constant à coefficients réels admet dans R[X] une décomposition en facteurs irréductibles du type suivant : k ℓ Y Y β j P=µ (X − ai )αi X 2 − 2Re(λ j )X + |λ j |2 , i=1 j=1 où a1 , . . . , ak sont les racines réelles deux à deux distinctes de P, λ1 , . . . , λℓ sont les racines complexes et non réelles deux à deux distinctes de P, l’entier αi est la multiplicité de ai , l’entier β j est la multiplicité de λ j , et µ ∈ R∗ est le coefficient dominant de P. 22 Exercices sur les polynômes Dans les exercices suivants, K désigne R ou C. Exercice 1. Soient a et b deux éléments de K. Calculer le produit des suites u = (un )n∈N et v = (vn )n∈N définies par un = an et vn = bn pour n ∈ N. On pourra utiliser l’identité 1 − xn+1 si x , 1, n 1 + x+ ··· + x = 1−x n+1 si x = 1. Exercice 2. Montrer qu’une famille de polynômes (Pk )k∈N qui est échelonnée, c’est-à-dire telle que deg(Pk ) = k, est une base de K[X]. Exercice 3. Soient a, b ∈ K distincts. Pour 0 ≤ k ≤ n, posons Pk = (X − a)k (X − b)n−k . Montrer que (P0 , · · · , Pn ) est une base de Rn [X]. Exercice 4. (Interpolation de Lagrange) Soit n ∈ N∗ et a0 , . . . , an ∈ K des scalaires deux à deux distincts. On considère l’application : ( Kn [X] → Kn+1 ϕ: P 7→ (P(a0 ), · · · , P(an )) a. Montrer que ϕ est un isomorphisme d’espaces vectoriels. b. Calculer Li = ϕ−1 (ei ) où ei est le i-ième vecteur de la base canonique de Kn+1 . Justifier pourquoi (Li )0≤i≤n est une base de Kn [X]. c. Montrer que pour tout (α0 , . . . , αn ) ∈ Kn+1 , il existe un unique polynôme de degré inférieur ou égal à n tel que P(ai ) = αi pour tout 0 ≤ i ≤ n. Expliciter ce polynôme dans la base (Li )0≤i≤n . √ d. Application : déterminer l’unique polynôme de degré ≤ 2 tel que P(−1) = 1, P(1) = −5 et P(2) = 2. Exercice 5. Effectuer la division de A ∈ C[X] par B ∈ C[X] dans les cas suivants : a. A = X 4 − 1 et B = X + 2. b. A = X 4 + 2X 3 + 4X 2 + 2 et B = X 2 + (1 − i)X + 1 + i. Exercice 6. Quel est le reste de la division euclidienne de X 50 par X 2 − 3X + 2 ? Et par X 2 − 2X + 1 ? Exercice 7. Calculer le PGCD de P et Q, puis déterminer tous les couples (U, V) ∈ K[X]2 tels que UP + V Q = P ∧ Q dans les cas suivants : a. P = X 4 + X 3 − 2X + 1 et Q = X 2 + X + 1. b. P = X 4 − 10X 2 + 1 et Q = X 4 − 4X 3 + 6X 2 − 4X + 1. 23 Exercice 8. Soient A, B ∈ K[X] non nuls. Posons p = deg A et q = deg B. On considère l’application : ( Kq−1 [X] × K p−1 [X] → K p+q−1 [X] φ: . (U, V) 7→ UA + V B Montrer que φ est bien définie, puis qu’elle est bijective si et seulement si A ∧ B = 1. Exercice 9. Soit a ∈ R et Pa = X 4 + (a + 1)X 2 + a. a. Déterminer, suivant les valeurs de a, la décomposition en facteurs irréductibles de Pa dans R[X] et dans C[X]. b. Pour quelles valeurs de a les polynômes Pa et Q = X 3 − 3X 2 + 2X sont-ils premiers entre eux ? Exercice 10. Soit n ∈ N∗ . Montrer que le polynôme 1 + X + X n de C[X] n’a que des racines simples. Exercice 11. Quels sont les polynômes P ∈ C[X] tels que P′ divise P ? Exercice 12. Quel est l’ensemble des polynômes P ∈ R[X] tels que XP(X − 1) = (X − 2)P(X) ? Indication : montrer que si un tel polynôme P est non nul, alors 0 et 1 sont ses seules racines. Exercice 13. Factoriser X 8 + X 4 + 1 dans R[X]. Exercice 14. 1 1 Pour n ∈ N, on pose Pn = 1 + X + · · · X n et Qn = X n − X + 1. Montrer que Pn et Qn n’ont que des racines 1! n! simples dans C. Exercice 15. Soit n ≥ 2. Quelle est la multiplicité de la racine 2 du polynôme nX n+2 − (4n + 1)X n+1 + 4(n + 1)X n − 4X n−1 ? Exercice 16. Soit E = { P ∈ R[X] | ∃ Q, R ∈ R[X] tels que P = Q2 + R2 }. a. Montrer que E est stable par multiplication. b. Montrer que E = { P ∈ R[X] | ∀ x ∈ R, P(x) ≥ 0 }. Exercice 17. Soient λ1 , . . . , λn ∈ K. Montrer que, pour k ∈ N∗ , les sommes de Newton pk (λ1 , . . . , λn ) = λk1 + · · · + λkn s’expriment au moyen des σi (λ1 , . . . , λn ), 1 ≤ i ≤ n, et inversement. Exercice 18. Soient a, b, c les racines de X 3 − X + 1. Calculer a7 + b7 + c7 . a+b+c=2 Exercice 19. a2 + b2 + c2 = 6 Résoudre dans C le système : . 1 1 1 1 + + = a b c 2 Exercice 20. (Polynômes cyclotomiques) Y Soit n ∈ N∗ . Notons µn l’ensemble des racines primitives n-ièmes de l’unité dans C et φn = (X − ξ). ζ∈µn a. Calculer le degré de φnY . b. Montrer que X n − 1 = φd . d|n c. En déduire que les coefficients de φn sont entiers. 24 Chapitre II Réduction des endomorphismes Dans ce chapitre, K désigne R ou C, et E est un K-espace vectoriel de dimension finie n ≥ 1. Nous noterons L(E) l’ensemble des endomorphismes de E. Rappelons que L(E) est un K-espace vectoriel de dimension n2 . 1. Motivation Du point de vue matriciel : on souhaite transformer une matrice carrée A en une matrice semblable B la “plus simple possible”. Idéalement, la matrice B sera diagonale, et on dira alors que A est diagonalisable. Dans les cas moins favorables, on pourra seulement transformer A en une matrice B triangulaire (et on dira que A est trigonalisable), voire triangulaire par blocs. Du point de vue des endomorphismes : on souhaite décomposer un endomorphisme u de E en une somme finie Pp u = i=1 ui d’endomorphismes ui plus simples. Idéalement, les ui seront, à un facteur multiplicatif près, des projections sur un sous-espace vectoriel de E. 2. Rappels et notations Nous noterons L(E) le K-espace vectoriels des endomorphismes K-linéaires de E. Pour u ∈ L(E), on note u0 = idE En particulier, u1 = u et u2 = u ◦ u. et, pour k ≥ 0, uk+1 = u ◦ uk = uk ◦ u. Pour λ1 , . . . , λn ∈ K, on note diag(λ1 , · · · , λn ) la matrice carrée diagonale de taille n suivante : λ1 0 · · · 0 0 λ2 . . . ... . diag(λ1 , · · · , λn ) = . . .. . . . . . 0 0 · · · 0 λn Rappelons que la somme de deux sous-espaces vectoriels F et G de E, définie par F + G = {y + z | y ∈ F, z ∈ G}, est une sous-espace vectoriel E. Deux sous-espaces vectoriels F et G de E sont en somme directe si F ∩G = {0E }. Si tel est le cas, leur somme F + G se note alors F ⊕ G, et tout élément x de F ⊕ G se décompose de manière unique en x = y + z avec y ∈ F et z ∈ G. Soit λ ∈ K. L’application E → E, définie par x 7→ λx, est un endomorphisme de E appelé homothétie de rapport λ. Notons que l’homothétie de rapport 1 n’est autre que l’application identité idE de E. Soient F et G deux sous-espaces vectoriels de E qui sont supplémentaires dans E, c’est-à-dire tels que E = F⊕G. Tout x ∈ E se décompose alors de manière unique en x = yx + zx avec yx ∈ F et zx ∈ G. La projection de E sur F parallèlement à G est l’endomorphisme p de E définit par p(x) = yx . On rappelle que p est un projecteur, c’est-à-dire p2 = p, d’image Im(p) = F et de noyau Ker(p) = G. Réciproquement, tout projecteur p de E est la projection de E sur Im(p) parallèlement à Ker(p). Soient F et G deux sous-espaces vectoriels de E supplémentaires. La symétrie de E par rapport à F et parallèlement à G est l’endomorphisme s de E défini par s = 2p − id E , où p est la projection de E sur F parallèlement à G. En décomposant x ∈ E = F ⊕ G en x = y + z avec y ∈ F et z ∈ G, on obtient s(x) = y − z. Toute symétrie s 25 est une involution de E, c’est-à-dire vérifie s2 = idE . Réciproquement, on peut montrer que toute involution est une symétrie. Soient u ∈ L(E) et E = (e1 , · · · , en ) une base de E. Alors, pour tout 1 ≤ j ≤ n, il existe des scalaires ai, j ∈ K tels que n X u(e j ) = ai, j ei . i=1 La matrice A = ai, j 1≤i, j≤n est appelée matrice de u dans la base E. Par example, La matrice d’une homothétie de rapport λ dans n’importe quelle base diag(λ, · · · , λ). En particulier, la matrice de l’identité idE de E dans n’importe quelle base est la matrice identité : 1 0 · · · 0 0 1 . . . ... . In = . . .. . . . . . 0 0 ··· 0 1 Soient E = (e1 , · · · , en ) et F = ( f1 , · · · , fn ) deux bases de E. Pour 1 ≤ j ≤ n, décomposons f j dans la base E : il existe des scalaires pi, j ∈ K tels que n X pi, j ei . fj = i=1 La matrice P = pi, j 1≤i, j≤n est appelée la matrice de passage de la base E vers la base F . Une telle matrice est toujours inversible. Si u est un endomorphisme de E, A est la matrice de u dans la base E et B est la matrice de u dans la base F , alors B = P−1 AP. En particulier les matrices A et B sont semblables. Il peut être utile de décomposer une matrice M ∈ Mn (K) en blocs plus petits. Par exemple, ! A B M= C D avec A ∈ M p (K), B ∈ M p,n−p (K), C ∈ Mn−p,p (K) et D ∈ Mn−p (K). Pour effectuer un produit de matrices par blocs, on procède comme pour un produit matriciel habituel : ! ! ! AA′ + BC ′ AB′ + BD′ A B A′ B′ = . C D C ′ D′ CA′ + DC ′ CB′ + DD′ Notons que les produits ci-dessus sont des produits de matrices. Il est interdit de permuter l’ordre des termes. Ceci se généralise sans difficultés à des matrices comportant plus de blocs. Finalement, rappelons quelques propriétés du déterminant des matrices : (a) Si A ∈ Mn (K) et B ∈ Mn (K), alors det(AB) = det(A) det(B). (b) Si A ∈ Mn (K) et B ∈ Mn (K) sont semblables, alors det(A) = det(B). (c) Si A ∈ M p (K), B ∈ M p,n−p (K) et C ∈ Mn−p (K), alors ! A B det = det(A) det(C). 0 C 3. Sous-espaces stables Soit u ∈ End(E) un endormorphisme de E. Un sous-espace vectoriel F de E est stable par u si u(F) ⊂ F. ☞ Les sous-espaces vectoriels {0E } et E de E sont stables par tout endomorphisme de E. ☞ L’image Im(u) et le noyau Ker(u) d’un endomorphisme u de E sont toujours stables par u. 26 Soient u ∈ L(E) et F un sous-espace vectoriel de E stable par u. L’endomorphisme induit par u sur F est l’endomorphisme u|F de F défini par u|F (x) = u(x) pour tout x ∈ F. Soient F et G deux sous-espaces vectoriels de E supplémentaires. Une base B = (e1 , · · · , en ) de E est dite adaptée à la décomposition E = F ⊕ G s’il existe un entier m tel que (e1 , · · · , em ) soit une base de F et (em+1 , · · · , en ) soit une base de G. Notons qu’alors m = dim(F). Une application directe de la définition de la matrice d’un endomorphisme dans une base donne : Lemme II.3.1. Soient u ∈ L(E), F et G deux sous-espaces vectoriels de E supplémentaires et B une base de E adaptée à la décomposition E = F ⊕ G u ∈ L(E). Alors les assertions suivantes sont équivalentes : (i) Les sous-espaces vectoriels F et G sont stables par u ; (ii) La matrice de u dans la base B est de la forme ! A 0 MatB (u) = , 0 B avec A ∈ Mm (K) et B ∈ Mn−m (K), où m = dim(F). ☞ Le lemme précédent se généralise facilement au cas où E = E1 ⊕ · · · ⊕ E p : soient B une base adaptée cette décomposition et u ∈ L(E). Alors tous les sous-espaces vectoriels Ei sont stables par u si et seulement si la matrice de u dans B est diagonale par blocs : A1 0 · · · 0 0 A2 · · · 0 MatB (u) = .. . . . . . . . 0 0 0 · · · Ap où le k-ième bloc Ak est une matrice carrée de taille dim(Ek ). ☞ Soient F et G deux sous-espaces vectoriels de E supplémentaires de dimension respective m et n − m. Soit B une base adaptée à la décomposition E = F ⊕ G. Notons p la projection de E sur F parallèlement à G et s la symétrie de E par rapport à F et parallèlement à G. Alors ! ! Im 0 Im 0 MatB (p) = et MatB (s) = . 0 0 0 −In−m Proposition II.3.2. Si u et v sont deux endomorphismes de L(E) qui commutent (c’est-à-dire tels que uv = vu), alors Ker(u) et Im(u) sont stables par v. Démonstration. Soit x ∈ Ker(u). Alors u(v(x)) = v(u(x)) = v(0E ) = 0E . Donc v(x) ∈ Ker(u). Soit maintenant y ∈ Im(u). Il existe x ∈ E tel que y = u(x). Alors v(y) = v(u(x)) = u(v(x)) ∈ Im(u). 4. Polynômes d’endomorphismes et de matrices Soit u ∈ L(E) un endomorphisme de E. Pour tout polynôme P = a p X p + · · · + a1 X + a0 à coefficients dans K, on note P(u) l’endomorphisme de E obtenu en substituant u à X, c’est-à-dire P(u) = a p u p + · · · + a1 u + a0 idE ∈ L(E). On dit que P(u) est un polynôme de l’endomorphisme u. Par exemple, si P = X 2 − X + 1, alors on a P(u) = u2 − u + idE ∈ L(E). Le résultat suivant est une conséquence immédiate des définitions : 27 Proposition II.4.1. Soit u ∈ L(E). L’application Φ: ( vérifie : K[X] → L(E) P 7→ P(u) (a) Φ est linéaire : pour tous P, Q ∈ K[X] et λ ∈ K, Φ(P + Q) = Φ(P) + Φ(Q) et Φ(λP) = λ Φ(P). (b) Φ est multiplicative et unitaire : pour tous P, Q ∈ K[X], Φ(PQ) = Φ(P) Φ(Q) et Φ(1) = idE . On dit que Φ est un morphisme d’algèbre. De même, pour toute matrice carrée A ∈ Mn (K) et tout polynôme P = a p X p + · · · + a1 X + a0 ∈ K[X], on note P(A) la matrice carrée obtenue en substituant A à X, c’est-à-dire P(A) = a p A p + · · · + a1 A + a0 In ∈ Mn (K). ! 1 −2 et P = X 2 − X + 2, alors −1 3 !2 ! ! ! 1 −2 1 −2 1 0 4 −6 P(A) = − +2 = . −1 3 −1 3 0 1 −3 10 On dit que P(A) est un polynôme de la matrice A. Par exemple, si A = ☞ Si A est une matrice triangulaire supérieure avec λ1 , . . . , λn ∈ K pour coefficients diagonaux : λ1 ⋆ · · · ⋆ 0 λ2 . . . ... , A = . . .. . . . . . ⋆ 0 · · · 0 λn alors, pour tout P ∈ K[X], P(A) est triangulaire supérieure avec P(λ1 ), . . . , P(λn ) pour coefficients diagonaux : ⋆ ··· ⋆ P(λ1 ) .. .. 0 . P(λ2 ) . P(A) = . . .. .. .. . . ⋆ 0 ··· 0 P(λn ) Proposition II.4.2. Soit A ∈ Mn (K). L’application Ψ: est un morphisme d’algèbre. ( K[X] → Mn (K) . P 7→ P(A) Il y a un rapport étroit entre polynômes d’endomorphismes et polynômes de matrices : Proposition II.4.3. Soient u ∈ L(E) de E et B une base de E. Alors pour tout polynôme P ∈ K[X]. MatB P(u) = P MatB (u) 28 En plus d’être des morphismes d’algèbre, les applications Φ et Ψ ont d’autres propriétés utiles : Proposition II.4.4. Soient u ∈ L(E) et A ∈ Mn (K). Alors pour tous P, Q ∈ K[X], P(u)Q(u) = Q(u)P(u) = (PQ)(u), P(A)Q(A) = Q(A)P(A) = (PQ)(A) et t P(A) = P tA . Démonstration. La proposition résulte de la commutativité de K[X] et du fait t (A p ) = tA p . Proposition II.4.5. Soient u ∈ L(E) et P ∈ K[X]. Alors Im P(u) et Ker P(u) sont stables par u. Démonstration. Puisque u et P(u) commutent, le résultat découle de la proposition II.3.2. Lemme II.4.6. Soient u ∈ L(E) et P, Q ∈ K[X]. Alors Ker P(u) ∩ Ker Q(u) = Ker(P ∧ Q)(u). Démonstration. Notons ∆ = P ∧ Q le PGCD de P et Q. Soient P1 et Q1 les quotients de P et Q par ∆, de sorte que P = P1 ∆ et Q = Q1 ∆. Alors P(u) = P1 (u)∆(u) et Q(u) = Q1 (u)∆(u). Ainsi Ker ∆(u) ⊂ Ker P(u) et Ker ∆(u) ⊂ Ker B(u). D’où Ker ∆(u) ⊂ Ker P(u) ∩ Ker Q(u). Par le théorème de Bézout généralisé I.7.2, il existe des polynômes U, V ∈ K[X] tels que PU + QV = 1. Ainsi ∆(u) = U(u)P(u) + V(u)Q(u) et donc Ker P(u) ∩ Ker Q(u) ⊂ Ker ∆(u). D’où le résultat. Théorème II.4.7. (Lemme des noyaux) Soit u ∈ L(E). Si P, Q ∈ K[X] sont des polynômes premiers entre eux, alors Ker PQ(u) = Ker P(u) ⊕ Ker Q(u). Plus généralement, si P1 , . . . , Pk ∈ K[X] sont des polynômes premiers entre eux deux à deux, alors k M Ker P1 · · · Pk (u) = Ker Pi (u). i=1 Démonstration. En utilisant le lemme II.4.6 précèdent, on obtient Ker P(u) ∩ Ker Q(u) = Ker(P ∧ Q)(u) = Ker 1(u) = Ker(idE ) = {0E }, c’est-à-dire Ker P(u) et Ker Q(u) sont en somme directe. Les inclusions Ker P(u) ⊂ Ker PQ(u) et Ker Q(u) ⊂ Ker PQ(u) sont conséquence de PQ(u) = P(u)Q(u) = Q(u)P(u). Ainsi Ker P(u) ⊕ Ker Q(u) ⊂ Ker PQ(u). Soit maintenant x ∈ Ker PQ(u). Par le théorème de Bézout I.7.1, il existe deux polynômes U et V tels que UP + V Q = 1. Ainsi x = idE (x) = 1(u)(x) = (UP + V Q)(u)(x) = UP(u)(x) + V Q(u)(x) | {z } | {z } y 29 z Puisque Q(u)(y) = (QUP)(u)(x) = (UPQ)(u)(x) = U(u) PQ(u)(x) = 0E , on a y ∈ Ker Q(u). De même, on montre que z ∈ Ker P(u). Donc x = y + z ∈ Ker P(u) ⊕ Ker Q(u) et Ker PQ(u) ⊂ Ker P(u) ⊕ Ker Q(u). D’où Ker PQ(u) = Ker P(u) ⊕ Ker Q(u). La forme généralisée se déduit par récurrence du cas précédent en remarquant que pour 1 ≤ i ≤ k, on a Ker P1 · · · Pi Pi+1 (u) = Ker P1 · · · Pi (u) ⊕ Ker Pi+1 (u) puisque (P1 · · · Pi ) ∧ Pi+1 = 1 d’après le corollaire I.7.5. 5. Valeurs propres, vecteurs propres Soit u ∈ L(E) un endomorphisme de E. Un scalaire λ ∈ K est une valeur propre de u s’il existe un élément non-nul x de E tel que u(x) = λx. L’ensemble des valeurs propre de u s’appelle le spectre de u et se note Spec(u). C’est un sous-ensemble (éventuellement vide) de K. Un vecteur propre de E est un vecteur 1 x ∈ E tel qu’il existe un scalaire λ ∈ K vérifiant u(x) = λx. En particulier, le vecteur nul 0E est toujours un vecteur propre de u. Le sous-espace propre associé à une valeur propre λ ∈ Spec(u) est l’ensemble des vecteurs propres de u associés à λ. On le note Eλ (u), ou simplement Eλ s’il n’y a pas d’ambiguïté. Des définitions précédents, on déduit facilement la proposition suivante : Proposition II.5.1. Soit λ une valeur propre d’un endomorphisme u de E. Alors le sous-espace propre Eλ (u) est un sous-espace vectoriel de E non réduit à {0E }, et l’on a Eλ (u) = Ker(u − λ idE ). ☞ En particulier, 0 est une valeur propre de u si et seulement si Ker(u) n’est pas réduit à {0E }, c’est-à-dire si et seulement si u n’est pas injectif. Dans ce cas E0 (u) = Ker(u). ☞ Remarquons que si u ∈ L(E) et λ ∈ Spec(u), alors Eλ (u) = Ker Pλ (u) où Pλ = X − λ ∈ K[X]. ☞ De la proposition II.3.2, on déduit facilement qu’étant donnés deux endomorphismes de E qui commutent, tout sous-espace propre de l’un est stable par l’autre. Proposition II.5.2. Soit u un endomorphisme de E. Alors : (a) Si λ est une valeur propre de u, alors Eλ est stable par u. L’endomorphisme de Eλ induit par u est alors u|Eλ = λ idEλ . (b) Si λ et µ sont deux valeurs propres distinctes de u, alors Eλ et Eµ sont en somme directe. (c) Plus généralement, si λ1 , . . . , λ p sont des valeurs propres deux à deux distinctes de u, alors les espaces propres Eλ1 , . . . , Eλn sont en somme directe. (d) Soient x1 , . . . , x p des vecteurs propres non nuls de E associés à des valeurs propres λ1 , . . . , λ p deux à deux distinctes. Alors (x1 , · · · , x p ) est une famille libre. 1. Certains auteurs requièrent qu’un vecteur propre soit non-nul. Lorsque nécessaire, nous dirons ‘vecteur propre non nul’ dans les énoncés. 30 Démonstration. Du fait que u et u−λidE commutent, (a) est un consequence de la proposition II.3.2. Soit Les assertions (b) et (d) sont des conséquences directes de (c). Montrons (c). Notons Pi = X − λi pour 1 ≤ i ≤ p. Les scalaires λ1 , . . . , λ p étant deux à deux distincts, les polynômes P1 , . . . , P p sont premiers entre eux deux à deux par la proposition I.7.6. Donc, par le lemme des noyaux (voir le théorème II.4.7), les sous-espaces vectoriels Eλ1 = Ker P1 (u), . . . , Eλ p = Ker P p (u) sont en somme directe. Proposition II.5.3. Soient u ∈ L(E) et F un sous-espace vectoriel de E stable par u. Notons v = u|F l’endomorphisme induit par u sur F. Alors toute valeur propre de v est une valeur propre de u et l’on a Eλ (v) = Eλ (u) ∩ F. Réciproquement, si λ est une valeur propre de u telle que Eλ (u) ∩ F , {0E }, alors λ est une valeur propre de v. Démonstration. Il suffit de prouver Eλ (v) = Eλ (u) ∩ F. L’inclusion Eλ (v) ⊂ Eλ (u) ∩ F découle de la définition de v. Réciproquement, si x ∈ Eλ (u) ∩ F, alors v(x) est bien défini puisque x ∈ F et donc v(x) = u(x) = λx puisque x ∈ Eλ (u). D’où x ∈ Eλ (v). ☞ Soient F et G deux sous-espaces vectoriels de E supplémentaires et non réduits à {0E }. Notons p la projection de E sur F parallèlement à G et s la symétrie de E par rapport à F et parallèlement à G. Alors Spec(p) = {0, 1}, Spec(s) = {−1, 1}, E0 (p) = Ker(p) = G, E−1 (s) = G, E1 (p) = Im(p) = F, E1 (s) = F. Un endomorphisme u de E est nilpotent s’il existe p ∈ N tel que u p = 0. Le plus petit p ∈ N vérifiant cette propriété est appelé l’indice de nilpotence de u. Proposition II.5.4. Si u un endomorphisme nilpotent de E, alors Spec(u) = {0}. Démonstration. Supposons que 0 ne soit pas une valeur propre de u, de sorte que Ker u = {0E }. Soit x ∈ E arbitraire. Alors u p (x) = 0E donc u(u p−1 (x)) = 0E d’où u p−1 (x) = 0E . Une récurrence élémentaire permet de montrer que u p (x) = u p−1 (x) = · · · = u(x) = x = 0E , ce qui est absurde puisque E n’est pas réduit à {0E } (rappelons que l’on a supposé dans ce chapitre que dim(E) = n ≥ 1). Par conséquent Spec(u) ⊃ {0}. Réciproquement, montrons que Spec(u) ⊂ {0}. Soit λ ∈ Spec(u) et x un vecteur propre non nul de u associé à λ. On établit aisément que uk (x) = λk x pour tout k ≥ 1. En particulier λ p x = u p (x) = 0E . Donc λ p = 0 puisque x , 0E . D’où λ = 0. ☞ En dimension infinie, le spectre d’un endomorphisme peut prendre des formes très diverses. Par exemple, considérons les deux endomorphismes de E = C ∞ (R, R) ou E = K[X] suivants : ( ∞ ( C (R, R) → C ∞ (R, R) K[X] → K[X] et v: u: f 7→ f′ P 7→ XP. Tout λ ∈ R est valeur propre de u avec pour vecteur propre associé la fonction fλ : x 7→ eλx . Ainsi Spec(u) = R. Pour λ ∈ K et P ∈ K[X], la relation v(P) = λP signifie que (X − λ)P = 0. Comme X − λ n’est pas le polynôme nul, l’intégrité de K[X] entraîne que P = 0. Donc Spec(v) = ∅. Rappelons que dans ce chapitre nous supposons que E est un K-espace vectoriel de dimension finie n ≥ 1. Nous établirons que le spectre Spec(u) d’un endomorphisme u de E contient au plus n éléments. Lorsque K = C, nous verrons que Spec(u) n’est jamais vide. 31 6. Le cas des matrices Soit A ∈ Mn (K). Un scalaire λ ∈ K est une valeur propre de A s’il existe un vecteur colonne non nul X ∈ Mn,1 (K) tel que AX = λX. L’ensemble des valeurs propres de A s’appelle le spectre de A et se note Spec(A). Un vecteur propre de A associé à λ ∈ Spec(A) est vecteur colonne X ∈ Mn,1 (K) tel que AX = λX. Proposition II.6.1. Soient A ∈ Mn (K) et λ ∈ K. Les propriétés suivantes sont équivalentes : (i) λ ∈ Spec(A) ; (ii) A − λIn n’est pas inversible ; (iii) rg(A − λIn ) < n. Démonstration. Montrons (i) ⇒ (ii). Considérons un vecteur colonne non nul X ∈ Mn,1 (K) tel que AX = λX. Soient E = (e1 , · · · , en ) la base canonique de Kn et u l’endomorphisme de Kn ayant pour matrice A dans la base E. Notons x = x1 e1 + · · · + xn en ∈ Kn où les xi sont les composantes de X. Puisque X est non nul et vérifie AX = λX, le vecteur x est non nul et appartient à Ker(u − λidE ). Ainsi l’endomorphisme u − λidE n’est pas inversible, et donc sa matrice dans la base E, qui est A − λIn , non plus. L’implication (ii) ⇒ (iii) provient du fait que le rang d’un matrice carrée de taille n non inversible est strictement inférieur à n. Finalement, montrons (iii) ⇒ (i). Avec les notations ci-dessus, puisque rg(A − λIn ) < n, on a : rg(u − λidE ) < n. Par le théorème du rang, le noyau Ker(u − λidE ) n’est donc pas réduit à {0E } et ainsi contient un vecteur non nul x = x1 e1 + · · · + xn en . Le vecteur colonne X ayant pour composantes x1 , . . . , xn est donc non nul et vérifie AX = λX. D’où λ ∈ Spec(A). Corollaire II.6.2. Soient u ∈ L(E) et B = (e1 , · · · , en ) une base de E. Alors Spec(u) = Spec MatB (u) . De plus, étant donnés λ ∈ Spec(u) et x = x1 e1 + · · · xn en ∈ E, les conditions suivantes sont équivalentes : (i) Le vecteur x est un vecteur propre de u associé à λ ; x1 (ii) Le vecteur colonne X = ... est un vecteur propre de la matrice MatB (u) associé à λ. xn Proposition II.6.3. Si A, B ∈ Mn (K) sont deux matrices semblables, alors Spec(A) = Spec(B). Démonstration. Il suffit de remarquer que si A et B sont semblables, alors A − λIn et B − λIn également. Par conséquent A−λIn et B−λIn sont inversibles simultanément. Ainsi on déduit de la proposition II.6.1 que A et B ont même spectre. Une matrice A ∈ Mn (K) est nilpotente s’il existe un entier p ∈ N tel que A p = 0. Le plus petit entier p ∈ N vérifiant cette propriété est appelé l’indice de nilpotence de A. ☞ Toute matrice triangulaire supérieure avec des 0 sur la diagonale est nilpotente. ☞ Une matrice A est nilpotente si et seulement si l’endomorphisme u ∈ L(Kn ) associé à A par rapport à la base canonique de Kn est nilpotent. ☞ Des proposition II.5.4 et corollaire II.6.2, on déduit que si A est une matrice nilpotente, alors Spec(A) = {0}. 32 7. Polynôme caractéristique Soit A ∈ Mn (K). La matrice XIn − A est à coefficients dans l’algèbre commutative K[X]. Son déterminant est un polynôme appelé le polynôme caractéristique de A et noté χA : χA = det(XIn − A) ∈ K[X]. Rappelons que la trace d’une matrice A = (ai, j )1≤i, j≤n est le scalaire tr(a) = a1,1 + · · · + an,n ∈ K. Proposition II.7.1. Le polynôme caractéristique d’une matrice A ∈ Mn (K) est unitaire, de degré n, admet −tr(A) pour coefficient de X n−1 et (−1)n det(A) pour terme constant : χA = X n − tr(A) X n−1 + · · · + (−1)n det(A). Démonstration. Notons A = (ai, j )1≤i, j≤n de sorte que XIn − A = (Pi, j )1≤i, j≤n où Pi, j = −ai, j si i , j et Pi,i = X − ai,i . Alors n Y X χA = det(XIn − A) = ε(σ) Pi,σ(i) . σ∈S i=1 n Q Si σ , id{1,...,n} , alors ni=1 pi,σ(i) est un polynôme de degré ≤ n − 2 (car une telle permutation σ admet n−1 dans χ est égal au coefficient de X n−1 dans au A Qnplus n − 2 points Qn fixes). Donc le coefficient de X i=1 Pi,σ(i) = i=1 (X − ai,i ) qui, d’après le théorème I.13.1, est égal à −(a1,1 + · · · + an,n ) = −tr(A). Finalement, le terme constant de χA est χA (0) = det(−A) = (−1)n det(A). ☞ Dans le cas n = 2, c’est-à-dire pour tout A ∈ M2 (K), on obtient : χA = X 2 − tr(A) X + det(A). Q ☞ Si le polynôme caractéristique χA d’une matrice A ∈ Mn (K) est scindé, avec χA = ni=1 (X − λi ), alors en utilisant la proposition II.7.1 et le théorème I.13.1, on trouve : tr(A) = n X λi et i=1 det(A) = n Y λi . i=1 Proposition II.7.2. Soient A, B ∈ Mn (K). Alors (a) χA = χ tA . (b) Si A et B sont semblables, alors χA = χB . (c) χAB = χBA . Démonstration. L’assertion (a) est conséquence directe de t (XIn − A) = XIn − t A. Montrons (b). Puisque les matrices A et B sont semblables, les matrices λIn − A et λIn − B le sont également pour tout λ ∈ K. Donc χA (λ) = det(λIn − A) = det(λIn − B) = χB (λ) pour tout λ ∈ K. On conclut en utilisant le corollaire I.11.5. Finalement, montrons (c). Remarquons que ! ! ! ! ! ! XIn A In 0 XIn − AB A XIn A In −A XIn 0 = et = . B In −B In 0 In B In 0 XIn B XIn − BA Par conséquent, en prenant le déterminant de ces égalités, on obtient ! ! XIn A XIn A n det = det(XIn − AB) = χAB et X det = X n det(XIn − BA) = X n χBA . B In B In D’où χAB = χBA . 33 Le résultat suivant est fondamental. Le calcul du polynôme caractéristique permet de déterminer les valeurs propres : Théorème II.7.3. Soient A ∈ Mn (K) et λ ∈ K. Alors λ ∈ Spec(A) si et seulement si χA (λ) = 0. Démonstration. D’après la proposition II.6.1, λ ∈ Spec(A) si et seulement si A−λIn n’est pas inversible, donc si et seulement si det(A − λIn ) = 0, ou encore χA = det(λIn − A) = 0. Corollaire II.7.4. Soit A ∈ Mn (K) (rappelons que K = R ou C). Alors (a) Spec(A) possède au plus n éléments. (b) Si A ∈ Mn (C), alors Spec(A) n’est pas vide. (c) Soit A ∈ Mn (R). Alors le spectre de A dans R est inclus dans le spectre de A dans C. Démonstration. Pour (a), on utilise le fait qu’un polynôme de degré n ≥ 1 admet au plus n racines. La propriété (b) résulte du théorème de d’Alembert-Gauss I.14.1. Finalement, puisque l’ensemble des racines réelles d’un polynôme est inclus dans l’ensemble de ses racines complexes, on obtient (c). ! X −1 0 1 ☞ Le polynôme caractéristique de A = est χA = = X 2 + 1. Donc, d’après le théorème II.7.3, le 1 X −1 0 spectre de A dans C est {−i, i}. Mais comme χA n’a pas de racine réelle, le même théorème montre que A n’a pas de valeur propre dans R et donc que le spectre de A dans R est vide. λ1 ⋆ · · · ⋆ . .. n Y . .. 0 λ2 est (X − λk ). ☞ Le polynôme caractéristique d’une matrice triangulaire supérieure A = . . .. . . . . . ⋆ k=1 0 · · · 0 λn ☞ La matrice compagnon associée à n scalaires a0 , . . . , an−1 ∈ K est la matrice : 0 0 1 0 A = 0 1 .. . . . . 0 ··· ··· .. . .. . .. . 0 a0 a1 .. ∈ M (K). n 0 . 0 an−2 1 an−1 0 .. . Par définition du polynôme caractéristique, on a : 0 ··· X .. . −1 X . χA = 0 −1 . . .. .. . . . . . 0 ··· 0 34 −a1 .. . 0 . X −an−2 −1 X − an−1 0 .. . −a0 Notons Li la i-ième ligne de ce déterminant. Remplacer L1 par L1 + XL2 + · · · + X n−1 Ln ne modifie pas le déterminant. Par conséquent, 0 ··· 0 .. . −1 X . χA = 0 −1 . . .. .. . . . . . 0 ··· 0 X n − an−1 X n−1 − · · · − a1 X − a0 −a1 .. . 0 . X −an−2 −1 X − an−1 0 .. . En développant ce déterminant par rapport à la première ligne, on obtient : χA = X n − an−1 X n−1 − · · · − a1 X − a0 = X n − n−1 X ak X k . k=0 De même, à tout endomorphisme de E de dimension est associé un polynôme caractéristique : Proposition-définition II.7.5. Soit u ∈ L(E). Le polynôme caractéristique χMatB (u) de la matrice de u dans une base B de E ne dépend pas du choix de la base B. On le note χu et l’appelle le polynôme caractéristique de u. Démonstration. Si B et B′ sont deux base de E, alors les matrices MatB (u) et MatB′ (u) sont semblables et leurs polynômes caractéristiques sont donc égaux (par la proposition II.7.2). Des théorème II.7.3 et corollaire II.6.2, on déduit facilement le résultat fondamental suivant : Théorème II.7.6. Soient u ∈ L(E) et λ ∈ K. Alors λ ∈ Spec(u) si et seulement si χu (λ) = 0. ☞ Soient F et G deux sous-espaces vectoriels de E supplémentaires. Notons p la projection de E sur F parallèlement à G et s la symétrie de E par rapport à F et parallèlement à G. Rappelons (voir la section II.3) que si B une base adaptée à la décomposition E = F ⊕ G, alors ! Im 0 MatB (p) = 0 0 ! Im 0 MatB (s) = , 0 −In−m et où m = dim(F). Donc (X − 1)Im 0 χp = = (X − 1)m X n−m 0 XIn−m et (X − 1)Im 0 χs = = (X − 1)m (X + 1)n−m . 0 (X + 1)In−m ☞ Le polynôme caractéristique d’un endomorphisme nilpotent u de E est χu = X n . En effet, Spec(u) = {0} par la proposition II.5.4. Par conséquent χu est un polynôme de degré n ayant pour unique racine 0 dans C. Par conséquent, étant unitaire et scindé dans C[X], le polynôme χu est forcément égal à X n . La connaissance des sous-espaces vectoriels stables par un endomorphisme u fournit des renseignements sur les diviseurs du polynôme caractéristique de u : 35 Proposition II.7.7. Soit u un endomorphisme de E. Alors : (a) Si F est un sous-espace vectoriel stable par u et u|F désigne l’endomorphisme de F induit par u, alors χu|F divise χu . (b) Soient F, G des sous-espaces vectoriels de E supplémentaires et stables par u. Alors χu = χu|F χu|G . Démonstration. Montrons (a). Considérons une base E = (e1 , · · · , em ) de F que l’on complète en une base B = (e1 , · · · , en ) de E. La matrice de u dans B est alors de la forme ! A C MatB (u) = , 0 B où A ∈ Mm (K), B ∈ Mn−m (K) et C ∈ Mm,n−m (K). Remarquons que A est la matrice de u|F dans la base E, et donc χu|F = det(XIm − A). Ainsi ! XIm − A −C χu = det = det(XIm − A) det(XIn−m − B) = χu|F det(XIn−m − B). 0 XIn−m − B D’où χu|F divise χu . Montrons (b). Soit B = (e1 , · · · , en ) une base de E adaptée à la décomposition E = F ⊕ G. La matrice de u dans B est alors de la forme ! A 0 MatB (u) = , 0 B où A ∈ Mm (K) et B ∈ Mn−m (K). Or A et B sont respectivement les matrices de u|F et u|G dans les bases (e1 , · · · , em ) de F et (em+1 , · · · , en ) de G, où m = dim(F). En procédant comme précédemment, on trouve donc χu = det(XIm − A) det(XIn−m − B) = χu|F χu|G . Corollaire II.7.8. Soit u ∈ L(E) un endomorphisme de E. Si λ est une racine de χu de multiplicité α, alors 1 ≤ dim(Eλ ) ≤ α. En particulier, si λ est racine simple de χu , alors dim(Eλ ) = 1. Démonstration. Soit λ une racine de χu . Alors λ est une valeur propre de u (d’après le théorème II.7.6) et donc Eλ n’est pas réduit à {0E }. Ainsi β = dim(Eλ ) ≥ 1. De plus, d’après la proposition II.5.2, l’endomorphisme induit par u sur Eλ coincide avec λ idEλ . Son polynôme caractéristique est donc (X − λ)β . D’après la proposition précédente, (X − λ)β divise donc χu . Or, par définition de la multiplicité, χu = (X − λ)α Q où Q ∈ K[X] est tel que Q(a) , 0 et donc (X − λ)β ∧ Q = 1. Ainsi, par le théorème de Gauss I.7.3, (X − λ)β divise (X − λ)α . D’où β ≤ α. ☞ En général dim(Eλ ) = 1 n’implique pas que λ soit une racine simple de χu . En effet, considérons un espace vectoriel E de dimension 2 et soit (e1 , e2 ) une base de E. On définit u ∈ L(E) par u(e1 ) = 0E et u(e2 ) = e1 . Alors E0 = Ker(u) = Ke1 et donc E0 est de dimension 1. Or χu = X 2 car u est nilpotent. Donc 0 est une racine double de χu . 8. Diagonalisation Un endomorphisme u ∈ L(E) est diagonalisable s’il existe un base B de E constituée de vecteurs propres de u. Une matrice A ∈ Mn (K) est diagonalisable si A est semblable à une matrice diagonale. La proposition suivante fait le lien entre ces deux définitions. 36 Proposition II.8.1. (a) Un endomorphisme u ∈ L(E) est diagonalisable si et seulement s’il existe une base B de E telle que MatB (u) soit une matrice diagonale. (b) Une matrice A ∈ Mn (K) est diagonalisable si et seulement si l’endomorphisme u dont A est la matrice dans la base canonique de Kn est diagonalisable. Dans ce cas, si B = (e1 , · · · , en ) est une base de vecteurs propres de u et λi est la valeur propre associée à ei , on a : A = P diag(λ1 , · · · , λn ) P−1 où P est la matrice de passage de la base canonique de Kn à la base B. Démonstration. Montrons (a). Si u est diagonalisable, alors sa matrice dans une base de vecteurs propres est diagonale. Réciproquement, si dans une base B = (e1 , · · · , en ) de E la matrice de u est diagonale, alors tous les ei sont vecteurs propres pour u. Montrons (b). Supposons u diagonalisable et soit B = (e1 , · · · , en ) une base de Kn constituée de vecteurs propres de u. Notons λi la valeur propre associée à ei et E = (ε1 , · · · , εn ) la base canonique de Kn . La matrice de passage de la base E à la base B est P = MatB,E (idKn ). Donc A = MatE (u) = MatB,E (idKn ) MatB (u) MatE,B (idKn ) = P diag(λ1 , · · · , λn ) P−1 . Réciproquement, supposons que A soit diagonalisable, c’est-à-dire qu’il existe P ∈ GLn (K) et des scalaires λ1 , . . . , λn ∈ K tels que A = P diag(λ1 , · · · , λn ) P−1 . Notons φ et δ les endomorphismes de Kn dont les matrices dans la base canonique E = (ε1 , · · · , εn ) de Kn sont respectivement P et diag(λ1 , · · · , λn ). Or φ est un automorphisme de Kn (car P est inversible) et la matrice de φ−1 dans la base E est P−1 . Ainsi u = φδφ−1 . Finalement, pour 1 ≤ i ≤ n, le vecteur ei = φ(εi ) ∈ Kn vérifie u(ei ) = uφ(εi ) = φδ(εi ) = λi φ(εi ) = λi ei et donc est un vecteur propre pour u. De plus la famille B = (e1 , · · · , en ) est un base de Kn (car φ est un automorphisme de Kn et E est une base de Kn ). Par conséquent u est diagonalisable. Théorème II.8.2. Soit u ∈ L(E). Notons Spec(u) = {λ1 , · · · , λ p }. Alors les assertions suivantes sont équivalentes : (i) u est diagonalisable. p M (ii) E = Eλi . i=1 (iii) dim(E) = p X dim(Eλi ). i=1 (iv) Il existe une base B de E et des entiers non nuls d1 , . . . , d p tels que d1 + · · · d p = dim(E) et 0 ··· 0 λ1 Id1 .. .. . 0 λ2 Id2 . MatB (u) = . . . . .. .. .. 0 0 ··· 0 λ p Id p (v) Le polynôme caractéristique χu de u est scindé dans K[X] et la dimension de chaque sous-espace propre Eλi de u est égale à la multiplicité de λi dans χu . Si tel est le cas, on a : di = dim(Eλi ) et p Y χu = (X − λi )dim(Eλi ) i=1 37 Démonstration. Sachant que les sous-espaces propres Eλi sont des sous-espaces vectoriels de E en somme directe (par la proposition II.5.2), on en déduit l’équivalence entre (ii) et (iii). Montrons l’implication (i) ⇒ (iii). Soit (e1 , · · · , en ) une base de vecteurs propres de u que l’on ordonne de telle sorte que les d1 premiers vecteurs soient associés à λ1 , les d2 suivants à λ2 , etc.... Ainsi d1 + · · · + d p = n et Pp p dim(Eλi ) ≥ di . Or i=1 dim(Eλi ) ≤ n car ⊕i=1 Eλ1 est un sous-espace vectoriel de E. D’où dim(Eλi ) = di Pp p et i=1 dim(Eλi ) = n. L’implication (ii) ⇒ (iv) est une conséquence directe du fait que si E = ⊕i=1 Eλi , alors la matrice de u dans une base adaptée à cette décomposition est du type voulu. La proposition II.8.1 montre l’implication (iv) ⇒ (i). Ainsi les assertions (i), (ii), (iii) et (iv) sont équivalentes. Il reste à prouver que (i) est équivalent à (v). Pour 1 ≤ i ≤ p, notons di = dim(Eλi ) et αi la multiplicité de λi dans χu . Pp Grâce au corollaire II.7.8, on sait déjà que di ≤ αi . Puisque deg(χu ) = n, on a i=1 αi = n. Supposons Pp u diagonalisable. D’après l’équivalence (i) ⇔ (iii) ci-dessus, on a i=1 di = n, et donc nécessairement Pp di = αi = pour tout 1 ≤ i ≤ p. Réciproquement, si di = αi pour tout i, alors i=1 di = n, et donc u est diagonalisable d’après l’équivalence (i) ⇔ (iii) ci-dessus. ☞ Toute projection ou symétrie est diagonalisable. En effet, soient F, G des sous-espaces vectoriels supplémentaires de E, p la projection de E sur F parallèlement G et s la symétrie de E par rapport à F et parallèlement à G. Alors, d’après la section II.3, les matrices de p et s dans toute base B adaptée à la décomposition E = F⊕G sont diagonales. ☞ Un endomorphisme nilpotent est diagonalisable si et seulement s’il est nul. ☞ L’hypothèse χu scindé n’entraîne pas toujours que u soit diagonalisable. On a vu par exemple que le polynôme caractéristique d’un endomorphisme nilpotent u de E était scindé : χu = X n . Mais si u est nilpotent non nul alors u n’est pas diagonalisable. Corollaire II.8.3. Si un endomorphisme de E possède n = dim(E) valeurs propres deux à deux distinctes, alors il est diagonalisable et tous ses sous-espaces propres sont de dimension 1. Démonstration. Soit u ∈ L(E) ayant n valeurs propres λ1 , . . . , λn deux à deux distinctes. Alors les λi sont nécessairement des racines simples de χu . Donc dim(Eλi ) = 1 par le corollaire II.7.8. Ainsi Pn i=1 dim(E λi ) = n = dim(E). D’où u est diagonalisable en vertu du théorème II.8.2. Corollaire II.8.4. Soient u ∈ L(E) un endomorphisme diagonalisable et F sous-espace vectoriel de E stable par u. Alors l’endomorphisme u|F de F induit par u est diagonalisable. Démonstration. Notons v = u|F . D’après la proposition II.5.3, Spec(v) = {λ ∈ Spec(u) | Eλ (u) ∩ F , {0E }} et Eλ (v) = Eλ (u) ∩ F pour tout λ ∈ Spec(v). Or E = ⊕λ∈Spec(u) Eλ (u) par le théorème II.8.2 car u est diagonalisable. Donc M M F =E∩F = Eλ (u) ∩ F = Eλ (v). λ∈Spec(u) D’où v est diagonalisable par le théorème II.8.2. 38 λ∈Spec(v) Théorème II.8.5. (Réduction simultanée) (a) Soient u, v ∈ L(E) deux endomorphismes de E diagonalisables qui commutent (uv = vu). Alors il existe une base de diagonalisation commune pour u et v. (b) Soient A, B ∈ Mn (K) deux matrices diagonalisables qui commutent (AB = BA). Alors il existe P ∈ GLn (K) et deux matrices diagonales D et D′ telles que A = PDP−1 et B = PD′ P−1 . Démonstration. Traitons le cas des endomorphismes. Notons Spec(u) = {λ1 , . . . , λn }. Soit 1 ≤ i ≤ p. Comme u et v commutent, λi idE − u et v également, et donc chaque Eλi (u) = Ker(λi idE − u) est stable par v (par la proposition II.3.2). Ainsi on peut définir l’endomorphisme vi de Eλi (u) induit par v. D’après le corollaire II.8.4, vi est diagonalisable. Il existe donc une base Bi de Eλi (u) constituée de vecteurs propres pour vi . Notons que chaque vecteur de Bi est également un vecteur propre de u associé à λi . Par p le théorème II.8.2, puisque u est diagonalisable, on a E = ⊕i=1 Eλi (u). Ainsi, en rassemblant les bases Bi de chaque Eλi (u), on obtient une base de E qui est une base commune de vecteurs propres pour u et v. 9. Méthode pratique de diagonalisation Soit u ∈ L(E). Rappelons que n = dim(E). L’algorithme suivant est une méthode systématique permettant de déterminer les valeurs propres et les sous-espaces propres de u. (1) On calcule le polynôme caractéristique χu de u. (2) On détermine les racines λ1 , · · · , λ p de χu dans K. Si χu a n racines deux à deux distinctes (c’est-à-dire p = n), on peut tout de suite conclure que u est diagonalisable. (3) On détermine les sous-espaces propres de u. Le sous-espace propre Eλi est l’ensemble des vecteurs x de E tels que u(x) − λi x = 0. Si l’on note (x1 , · · · , xn ) les coordonnées de x par rapport à une base donnée de E, résoudre u(x) − λi x = 0 revient à résoudre un système homogène de n équations dont les n inconnues sont les coordonnées de x. La dimension di de Eλi est le nombre d’inconnues non principales de ce système linéaire. La résolution du système linéaire permet de déterminer une base (e1i , · · · , edi i ) de Eλi . (4) Conclusion : l’endomorphisme u est diagonalisable si et seulement si, pour tout 1 ≤ i ≤ p, l’entier di est d égal à la multiplicité de λi dans χu . Si tel est le cas, la famille (e11 , · · · , ed11 , e12 , · · · , ed22 , · · · , e1p , · · · , e pp ) est une base de vecteurs propres pour u. De même, l’algorithme suivant fournit une méthode systématique permettant de déterminer valeurs propres et vecteurs propres d’une matrice A ∈ Mn (K). (1) On calcule le polynôme caractéristique χA de A. (2) On détermine les racines λ1 , · · · , λ p de χA dans K. Si χA a n racines deux à deux distinctes (c’est-à-dire p = n), on peut tout de suite conclure que A est diagonalisable. (3) Pour chaque λi , on résout le système linéaire homogène (A − λi In )X = 0. L’ensemble de ses solutions est Eλi . La dimension di de Eλi est le nombre d’inconnues non principales. On peut extraire di vecteurs colonnes Xi1 , · · · , Xidi ∈ Mn,1 (K) formant une base de Eλi . (4) Conclusion : la matrice A est diagonalisable si et seulement si, pour tout 1 ≤ i ≤ p, l’entier di est égal à la multiplicité de λi dans χA . Si tel est le cas, on a : 0 ··· 0 λ1 Id1 .. .. 0 . λ2 Id2 . −1 A = P . P , .. .. .. . . 0 0 ··· 0 λ p Id p d où P est la matrice de colonnes (X11 , · · · , X1d1 , · · · , X2d2 , · · · , X 1p , · · · , X p p ). 39 10. Endomorphismes trigonalisables Un endomorphisme u de E est trigonalisable s’il existe une base B de E dans laquelle la matrice MatB (u) de u est triangulaire supérieure. Une matrice A ∈ Mn (K) est trigonalisable si elle est semblable à une matrice triangulaire supérieure. De façon analogue à la preuve de la proposition II.8.1, on démontre le lien suivante entre ces deux définitions : Proposition II.10.1. Une matrice A ∈ Mn (K) est trigonalisable si et seulement si l’endomorphisme u dont A est la matrice dans la base canonique de Kn est trigonalisable. Dans ce cas, si B est une base de Kn dans laquelle la matrice T = MatB (u) de u est triangulaire supérieure, alors A = PT P−1 où P est la matrice de passage de la base canonique de Kn à la base B. Théorème II.10.2. Un endomorphisme u ∈ L(E) ou une matrice QnA ∈ Mn (K) est trigonalisable si et seulement si son polynôme caractéristique est scindé. De plus, si χu = i=1 (X − λi ), alors on peut trouver une base B de E telle que λ1 ⋆ · · · ⋆ 0 λ2 . . . ... . MatB (u) = . . .. . . . . . ⋆ 0 · · · 0 λn Démonstration. Par la proposition 10, il suffit de traiter le cas d’un endomorphisme. Si u ∈ L(E) est trigonalisable, alors la matrice Q T = (ti, j )1≤i, j≤n de u dans une base bien choisie est triangulaire supérieure. Par conséquent χu = ni=1 (X − ti,i ) et donc χu est scindé. Montrons la réciproque par récurrence sur la dimension n de E. Si n = 1, c’est évident car tout endomorphisme d’un K-espace vectoriel de dimension 1 est une homothétie. Soit n ≥ 1. Supposons le résultat vraie au rang n. Soient E un K-espace vectoriel de dimension n + 1 et u ∈ L(E) ayant son polynôme caractéristique scindé : Q χu = n+1 i=1 (X − λi ). Puisque λ1 est une valeur propre de u (par le théorème II.7.6), il existe un vecteur propre non nul e1 de u associé à la valeur propre λ1 . On complète (e1 ) en une base B′ = (e1 , e′2 , · · · , e′n+1 ) de E. La matrice de u dans la base B′ est donc de la forme ! λ1 ⋆ MatB′ (u) = , 0 A où A ∈ Mn (K). Le sous-espace vectoriel F = Vect(e′2 , · · · , e′n+1 ) de u est donc stable par u. Notons v l’endomorphisme de F induit par u. Par la proposition II.7.7, χv divise χu . Le polynôme χu étant scindé, on en déduit que χv est scindé. Puisque dim(F) = n, on peut donc appliquer l’hypothèse de récurrence à l’espace F et à endomorphisme v et trouver une base E = (e2 , · · · , en+1 ) de F dans laquelle la matrice de v soit de la forme ⋆ λ2 ⋆ · · · .. 0 λ3 . . . . MatE (v) = . . . . .. .. .. ⋆ 0 · · · 0 λn+1 Puisque E = Ke1 ⊕ F, la famille B = (e1 , e2 , · · · , en+1 ) est une base de E. De plus la matrice de u dans B, qui est ! λ1 ⋆ MatB (u) = , 0 MatE (v) est triangulaire supérieure du type voulu. Ainsi le résultat est vrai au rang n + 1. 40 Corollaire II.10.3. Toute matrice est trigonalisable dans C. De même, lorsque K = C (c’est-à-dire si E un C-espace vectoriel de dimension finie), tout endomorphisme u ∈ L(E) est trigonalisable. Démonstration. Conséquence immédiate des théorèmes II.10.2 et de d’Alembert-Gauss I.14.1. Corollaire II.10.4. Soit u ∈ L(E). Les assertions suivantes sont équivalentes : (i) u est nilpotent ; (ii) Spec(u) = {0} ; 0 ⋆ (iii) χu = 0 0 (iv) Il existe une base B de E dans laquelle la matrice de u est de la forme . . .. .. 0 ··· Xn ; ··· .. . .. . 0 ⋆ .. . . ⋆ 0 Démonstration. L’implication (i) ⇒ (ii) provient de la proposition II.5.4. Dans la deuxième remarque suivant le théorème II.7.6, on a vu que (ii) ⇒ (iii). Puisque X n est scindé avec 0 pour seule racine, l’implication (iii) ⇒ (iv) est conséquence du théorème II.10.2. Finalement, si une matrice est triangulaire supérieure avec des 0 sur la diagonale, alors elle nilpotente. D’où (iv) ⇒ (i). Corollaire II.10.5. Si F est un sous-espace vectoriel de E stable par un endomorphisme u ∈ L(E) qui est trigonalisable, alors l’endomorphisme u|F de F induit par u est trigonalisable. Démonstration. Par le théorème II.10.2, χu est scindé. Or χu|F divise χu par la proposition II.7.7. Donc χuF est également scindé. D’où u|F est trigonalisable par le théorème II.10.2. 11. Méthode pratique de trigonalisation L’algorithme suivant fournit une méthode systématique pour trigonaliser une matrice (le cas des endomorphismes se traite similairement via le choix d’une base). (1) On calcule le polynôme caractéristique χA de A. (2) On détermine les racines de χA dans K. (3) On détermine les sous-espaces propres de A en résolvant AX = λX pour λ ∈ Spec(A). On obtient ainsi P p = λ∈Spec(A) dim Eλ (A) vecteurs colonnes propres X1 , · · · , X p ∈ Mn,1 (K) de A qui sont linéairement indépendants et associés à p valeurs propres λ1 , · · · , λ p . On complète la famille (X1 , · · · , X p ) en une base (X1 , · · · , Xn ) de Mn,1 (K). Soit P ∈ Mn (K) la matrice de colonnes (X1 , · · · , Xn ). On a 0 λ1 .. ⋆ P−1 . A = P 0 λp 0 B où B ∈ Mn−p (K). (4) Si B est triangulaire supérieure, le processus de trigonalisation est terminé. Sinon l’étape suivante consiste à trigonaliser B (qui est une matrice carrée de taille n − p). Comme χB est scindé (car diP vise χA qui est scindé), la matrice B est trigonalisable. Donc on peut trouver q = λ∈Spec(B) dim Eλ (B) vecteurs colonnes propres Y1 , · · · , Yq ∈ Mn−p,1 (K) de B qui sont linéairement indépendants et associés 41 à q valeurs propres µ1 , · · · , µq de B. On complète la famille (Y1 , · · · , Yq ) en une base (Y1 , · · · , Yn−p ) de Mn−p,1 (K). Soit R ∈ Mn−p (K) la matrice de colonnes (Y1 , · · · , Yn−p ). Alors 0 µ1 .. ⋆ R−1 . B = R 0 µq 0 C où C ∈ Mn−p−q (K). En interprétant la matrice par blocs ! I 0 Q= p 0 R comme la matrice de passage de (X1 , · · · , Xn ) à (X1 , · · · , X p , Y1 , · · · , Yn−p ), on obtient 0 λ1 .. ⋆ ⋆ . λp 0 0 A = PQ µ1 (PQ)−1 . .. ⋆ 0 . 0 µq 0 0 C (5) Si C est triangulaire supérieure, le processus de trigonalisation est terminé. Sinon, on réitère l’étape (4) en remplaçant B par C. Le processus s’arrête au bout d’un nombre fini d’étapes, puisque la taille des matrices à trigonaliser décroît strictement. ☞ Si l’on excepte le cas où A est la matrice d’une homothétie, une matrice trigonalisable (resp. diagonalisable) A ∈ Mn (K) est semblable à plusieurs matrices triangulaires (resp. diagonales) différentes. 12. Polynômes annulateurs et polynôme minimal Un polynôme annulateur d’un endomorphisme u ∈ L(E) (resp. d’une matrice A ∈ Mn (K)) est un polynôme P ∈ K[X] tel que P(u) = 0 (resp. P(A) = 0). ☞ Soient A, B ∈ Mn (K) deux matrices semblables et P ∈ K[X]. Alors P(A) et P(B) sont semblables (car si B = Q−1 AQ avec Q ∈ GLn (K), alors P(B) = Q−1 P(A)Q). En particulier P(A) = 0 si et seulement si P(B) = 0, et donc A et B ont les mêmes polynômes annulateurs. La recherche de polynômes annulateurs est d’une importance capitale dans le processus de réduction des matrices ou des endomorphismes. On dispose du résultat fondamental suivant : Théorème II.12.1. (Théorème de Cayley-Hamilton) Le polynôme caractéristique est un polynôme annulateur. Plus précisément, χu (u) = 0 pour tout u ∈ L(E) et χA (A) = 0 pour tout A ∈ Mn (K). Démonstration. Traitons le cas d’un endomorphisme u ∈ L(E). Soit x ∈ E. Il s’agit de montrer que χu (u)(x) = 0. Si x = 0E , c’est évident. Supposons x , 0E . Puisque (x) est libre et (x, u(x), · · · , un (x)) est liée (car n + 1 vecteurs dans un espace vectoriel de dimension n sont liés), il existe un unique entier 1 ≤ p ≤ n tel que (x, u(x), · · · , u p−1 (x)) soit libre et (x, u(x), · · · , u p (x)) soit liée. Posons F = Vect x, u(x), · · · , u p−1 (x) . Ainsi F est un sous-espace vectoriel F de dimension p ayant pour base E = (x, u(x), · · · , u p−1 (x)). De plus F est stable par u car u p (x) ∈ F par définition de p (on peut montrer que F est en fait le plus petit sous-espace vectoriel de E, au sens de l’inclusion, qui est stable par u et contient x). Puisque u p (x) ∈ F 42 par définition de p, il existe p scalaires a0 , . . . , a p−1 ∈ K tels que u p (x) = a0 x+a1 u(x)+· · ·+a p−1 u p−1 (x). Ainsi la matrice dans la base E de l’endomorphisme v de F induit par u est 0 0 · · · 0 a0 . .. 1 0 . .. a1 .. ∈ M (K). MatE (v) = 0 1 . . . 0 p . .. . . . . . . 0 a p−2 . 0 · · · 0 1 a p−1 Donc, par le calcul du polynôme caractéristique d’une matrice compagnon établi dans la section II.7, on obtient que χv = X p − a p−1 X p−1 − · · · − a1 X − a0 . Donc χv (u)(x) = u p (x) − a p−1 u p−1 (x) − · · · − a1 u(x) − a0 x = 0E . Or χv divise χu par la proposition II.7.7. Donc il existe P ∈ K[X] tel que χu = Pχv . Par conséquent χu (u)(x) = (Pχv )(u)(x) = P(u) χv (u)(x) = P(u)(0E ) = 0E . Ainsi χu (u)(x) = 0E pour tout x ∈ E. D’où χu (u) = 0. D’après le théorème précédent, tout endomorphisme u de E admet au moins un polynôme annulateur non nul : son polynôme caractéristique χu . On peut se demander s’il en existe d’autres et si certains polynômes annulateurs sont d’un intérêt particulier. Soit u ∈ L(E). Notons Iu l’ensemble des polynômes annulateurs de u : Iu = {P ∈ K[X] | P(u) = 0}. En utilisant la proposition II.4.1, on vérifie facilement que Iu est un idéal de K[X]. De plus, Iu est non réduit à {0} car, par le théorème de Cayley-Hamilton II.12.1, il contient χu qui est non nul (car de degré n ≥ 1). Ainsi, par le théorème I.5.1, il existe un unique polynôme unitaire mu ∈ K[X], appelé le polynôme minimal de u, tel que Iu = mu K[X]. Par construction, mu est un polynôme unitaire annulateur de u. De façon analogue, pour toute matrice carrée A, l’ensemble IA des polynômes annulateurs de A est un idéal non réduit {0} de K[X] et donc est engendré par un unique polynôme unitaire mA ∈ K[X], appelé le polynôme minimal de A, qui est en particulier un polynôme unitaire annulateur de A. Remarquons que deux matrices semblables ont même polynôme minimal, car elles ont les mêmes polynômes annulateurs (voir la remarque faite en début de section). Il y a bien sûr une correspondance étroite entre polynôme minimal des matrices et des endomorphismes : Proposition II.12.2. Soient u ∈ L(E) et B une base de E. Alors mu = mMatB (u) . La proposition suivante, qui découle facilement de la définition du générateur d’un idéal de K[X], permet de caractériser le polynôme minimal. Proposition II.12.3. Le polynôme minimal d’un endomorphisme u ∈ L(E) est le plus petit (au sens de la division) polynôme unitaire annulateur de u, c’est-à-dire est l’unique polynôme annulateur de u qui est unitaire et divise tous les autres polynômes annulateurs de u. 43 Proposition II.12.4. Soit u ∈ L(E) un endomorphisme de E. Alors : (a) 1 ≤ deg(mu ) ≤ dim(E). (b) mu divise le polynôme caractéristique χu . (c) Si χu est scindé, alors mu l’est également. Démonstration. Si mu était constant, on aurait mu = 1 (car mu est unitaire) et donc mu (u) = 0 signifierait idE = 0, ce qui est absurde car dim(E) ≥ 1. D’où deg(mu ) ≥ 1. Le reste de la proposition est une conséquence directe du fait que deg(χu ) = n = dim(E) et du théorème de Cayley-Hamilton II.12.1 qui dit que χu est un polynôme annulateur de u et est donc divisible par mu (par la proposition II.12.3). Comme pour le calcul du polynôme caractéristique (voir la proposition II.7.7), connaître des sous-espaces vectoriels stables donne des renseignements sur le polynôme minimal : Proposition II.12.5. Soit u ∈ L(E). Alors : (a) Si F est un sous-espace vectoriel de E stable par u, alors mu|F divise mu . (b) Si F et G sont deux sous-espaces vectoriels de E supplémentaires et stables par u, alors mu est le PPCM de mu|F et mu|G . Démonstration. Soient F un sous-espace vectoriel de E stable par u et P un polynôme annulateur de u. On a P(u)(x) = 0E pour tout x ∈ E et donc, à fortiori, pour tout x ∈ F. Donc P(u|F ) = 0. Ainsi muF divise P. En particulier mu|F divise mu , ce qui prouve (a). Soient F et G sont deux sous-espaces vectoriels de E supplémentaires et stables par u. On sait déjà d’après (a) que mu|F et mu|G divisent mu . Donc leur PPCM M divise également mu . Pour montrer l’égalité, puisque M et mu sont unitaires, il suffit de montrer que mu divise M, c’est-à-dire que M est un polynôme annulateur de u. Considérons x ∈ E que l’on décompose en x = y+z avec y ∈ F et z ∈ G. Le polynôme M est un multiple de mu|F (resp. mu|G ) et donc est un polynôme annulateur de u|F (resp. u|G ). Par conséquent, M(u)(y) = M(u|F )(y) = 0E et M(u)(z) = M(u|G )(z) = 0E . D’où M(u)(x) = M(u)(y + z) = M(u)(y) + M(u)(z) = 0E , puis M(u) = 0. Proposition II.12.6. Soient u ∈ L(E) et λ ∈ K. Alors λ est une valeur propre de u si et seulement si λ est une racine de mu . Démonstration. Supposons que λ soit une valeur propre de u. Soit x un vecteur propre non nul de u associé à λ. Alors 0E = mu (u)(x) = mu (λ) x et donc mu (λ) = 0 puisque x , 0E . Réciproquement, supposons que λ soit une racine de mu . Alors λ est une racine de χu car mu divise χu . Donc λ est une valeur propre de u par le théorème II.7.6. ☞ Soit hλ l’homothétie de E de rapport λ ∈ K, c’est-à-dire hλ = λ idE . Alors mhλ = X − λ. En effet, le polynôme X − λ est un polynôme unitaire annulateur de hλ et, comme deg(mhλ ) ≥ 1, on en déduit que mhλ = X − λ. ☞ Soient E, F deux sous-espaces vectoriels de E supplémentaires et non réduits à {0E }. Notons p la projection de E sur F parallèlement à G et s la symétrie de E par rapport à F et parallèlement à G. Alors mp = X2 − X et 44 m s = X 2 − 1. En effet, puisque p2 − p = 0 et s2 − idE = 0, m p divise X 2 − X et m s divise X 2 − 1. D’autre part, puisque Spec(p) = {0, 1} et Spec(s) = {−1, 1}, les scalaires 0 et 1 doivent être racines de m p et les scalaires −1 et 1 doivent être racines de m s . Donc X 2 − X doit diviser m p et X 2 − 1 doit diviser m s . D’où les égalités ci-dessus car m p et m s sont unitaires. ☞ Soit u ∈ L(E) un endomorphisme nilpotent d’indice p. Par définition même de p, on sait que X p est un polynôme annulateur de u, et que X p−1 ne l’est pas. Donc le polynôme unitaire mu doit diviser X p mais pas X p−1 . Ceci entraîne que mu = X p . Remarquons que puisque mu divise χu = X n , ceci implique que l’indice de nilpotence d’un endomorphisme nilpotent de E est inférieur ou égal à la dimension de E. ☞ Soit A ∈ Mn (K) une matrice compagnon : 0 0 · · · 0 a0 1 0 . . . ... a1 .. . A = 0 1 . . . 0 . .. . . . . . . 0 an−2 . 0 · · · 0 1 an−1 Soit u l’endomorphisme de Kn ayant A pour matrice dans la base canonique E = (e1 , · · · , en ) de Kn . Alors ui (e1 ) = ei+1 pour 0 ≤ i ≤ n − 1. Ainsi les vecteurs e1 , u(e1 ), . . . , un−1 (e1 ) sont linéairement indépendants et donc il n’existe pas de polynôme P ∈ K[X] non nul et de degré strictement inférieur à n tel que P(u)(e1 ) = 0E . Par conséquent deg(mA ) = deg(mu ) ≥ n. Or χA , qui est de degré n, annule A. Donc, n m A = χA = X − n−1 X ai X i . i=0 Théorème II.12.7. Soit u ∈ L(E) de spectre Spec(u) = {λ1 , · · · , λ p }. Les assertions suivantes sont équivalentes : (i) u est diagonalisable, p Y (ii) mu = (X − λi ), i=1 (iii) mu est scindé à racines simples, (iv) u admet un polynôme annulateur scindé à racines simples. Démonstration. Montrons (i) ⇒ (ii). Q D’après la proposition II.12.6, les racines de mu sont les valeurs p propres de u. Donc le polynôme P = i=1 (X − λi ) divise mu . Soient 1 ≤ i ≤ p et xi un vecteur propre Q de u associé à λi . Notons Qi = j,i (X − λ j ), de sorte que P = Qi (X − λi ). Puisque (λi idE − u)(xi ) = 0E , on a P(u)(xi ) = Qi (u)(λi idE − u)(xi ) = Qi (u)(0E ) = 0E . p Or E = ⊕i=1 Eλi par le théorème II.8.2 (car u est diagonalisable). Donc tout x ∈ E se décompose en x = x1 + · · · + x p , avec xi ∈ Eλi , puis p X P(u)(x) = P(u)(xi ) = 0E . i=1 Ainsi P est un polynôme annulateur de u et est donc divisible par mu . Les polynômes P et mu étant unitaires et se divisant l’un l’autre, on en déduit que P = mu . Les implications (ii) ⇒ (iii) et (iii) ⇒ (iv) sont triviales. Finalement, montrons (iv) ⇒ (i). Soit P un polynôme Qq annulateur de u scindé à racines simples, que l’on peut toujours supposer unitaire, c’est-à-dire P = i=1 (X − µi ) avec les µi deux à deux 45 distincts. Comme les polynômes X − µi sont premiers entre eux deux à deux, le lemme des noyaux (théorème II.4.7) donne q M E = Ker P(u) = Ker(µi idE − u). i=1 Si, dans cette décomposition, on ne garde que les µi tels que Ker(µi idE −u) ne soit pas réduit à {0E }, on a obtenu une décomposition de E en somme de sous-espaces propres de u. Donc u est diagonalisable. 13. Sous-espaces caractéristiques Lemme II.13.1. Soit u ∈ L(E) et λ ∈ Spec(u). Notons β la multiplicité de λ dans mu . Alors la suite de sous-espaces vectoriels Ker(u − λ idE )k k∈N est croissante (au sens de l’inclusion) et stationnaire à partir du rang β. Démonstration. Notons v = u − λ idE . Il est clair que vk (x) = 0E entraîne vk+1 (x) = 0E . Donc bien Ker(vk ) ⊂ Ker(vk+1 ). De plus, il n’est pas difficile de vérifier que si Ker(vk ) = Ker(vk+1 ), alors Ker(vk+1 ) = Ker(vk+2 ). Par conséquent la suite dim(Ker(vk )) k∈N est une suite croissante d’entiers qui devient stationnaire dès que deux termes consécutifs sont égaux. Comme elle est majorée par n = dim(E), on conclut qu’il existe un p ≤ n tel que Ker(vk ) k∈N soit strictement croissante pour k ≤ p−1 et stationnaire à partir du rang p. Ainsi il existe x ∈ Ker(u−λ id E ) p tel que x < Ker(u−λ id E ) p−1 . En particulier y = (u − λ idE ) p−1 (x) , 0E et y ∈ Ker(u − λ idE ). Le polynôme minimal mu de u se décompose en mu = Q(X − λ)β avec Q et (X − λ)β premiers entre eux. A fortiori Q et X − λ sont premiers entre eux et donc, d’après le lemme des noyaux (théorème II.4.7), on a : Ker Q(u) ∩ Ker(u − λ idE ) = {0E }. Puisque y , 0E et y ∈ Ker(u − λ idE ), on en déduit y < Ker Q(u). Donc Q(u)(y) = Q(u)(u − λ idE ) p−1 (x) , 0E . Par conséquent Q(X − λ) p−1 n’est pas un polynôme annulateur de u, et donc p ≤ β. En particulier Ker(u − λ idE )β = Ker(u − λ idE ) p . Ainsi, par double application du lemme des noyaux (théorème II.4.7), on obtient Ker Q(X − λ) p (u) = Ker Q(u) ⊕ Ker(u − λ idE ) p = Ker Q(u) ⊕ Ker(u − λ id E )β = Ker mu (u) = E. Donc Q(X − λ) p est un polynôme annulateur de u. Ainsi mu = Q(X − λ)β divise Q(X − λ) p et, par conséquent, β ≤ p. D’où β = p. Soient u ∈ L(E) et λ ∈ Spec(u) de multiplicité β dans mu . Le sous-espace caractéristique de u associé à la valeur propre λ est le sous-espace vectoriel de E, noté Eλ′ (u) ou plus simplement Eλ′ en l’absence d’ambiguïté, défini par Eλ′ (u) = Ker(u − λidE )β . ☞ Si λ est valeur propre de u, on a toujours Eλ ⊂ Eλ′ . De plus, si l’on note α la multiplicité de λ dans χu , alors β ≤ α ≤ n et donc (d’après le lemme II.13.1) Eλ′ = Ker(u − λ idE )β = Ker(u − λ idE )α = Ker(u − λ idE )n . ☞ Si u est diagonalisable, alors Eλ = Eλ′ pour tout λ ∈ Spec(u). ☞ Si u est nilpotent, alors u a un seul sous-espace caractéristique : E0′ = E. 46 Théorème II.13.2. Soient u ∈ L(E) et λ ∈ Spec(u) de multiplicité α dans χu et de multiplicité β dans mu . Alors : (a) Eλ′ est un sous-espace vectoriel de E stable par u et de dimension α. (b) L’endomorphisme vλ de Eλ′ induit par u − λidE est nilpotent d’indice β. Démonstration. La stabilité de Eλ′ par u découle de la proposition II.4.5. En particulier Eλ′ est également stable par u − λidE . Notons uλ et vλ les endomorphismes de Eλ′ induits par u et u − λ id E respectivement. β β−1 D’après le lemme II.13.1, vλ = 0 et vλ , 0. Donc vλ est nilpotent d’indice β. En particulier, d’après le corollaire II.10.4, on en déduit que χvλ = X p où p = dim(Eλ′ ). En revenant à la définition du polynôme caractéristique, on montre facilement que χuλ (x) = χvλ (x − λ) = (x − λ) p pour tout x ∈ K. Ainsi, d’après le corollaire I.11.5, χuλ = (X − λ) p . Par la proposition II.7.7, on en déduit que (X − λ) p divise χu et donc que p ≤ α. Par ailleurs, il existe un polynôme Q premier avec (X − λ)α et tel que χu = Q(X − λ)α . D’après le théorème de CayleyHamilton II.12.1, le lemme des noyaux et par le lemme II.13.1 (puisque β ≤ α), on a : E = Ker χu (u) = Ker Q(u) ⊕ Ker(u − λ idE )α = Ker Q(u) ⊕ Eλ′ . Le sous-espace vectoriel Ker Q(u) étant stable par u (d’après le proposition II.4.5), notons w l’endomorphisme de Ker Q(u) induit par u. Par la proposition II.7.7, on a : Q(X − λ)α = χu = χuλ χw = (λ − X) p χw . Donc χw = Q(X − λ)α−p car p ≤ α. Supposons α > p. Alors λ est une valeur propre de w (par le théorème II.7.6). Ainsi {0E } , Ker Q(u) ∩ Eλ ⊂ Ker Q(u) ∩ Eλ′ , ce qui contredit le fait que Ker Q(u) et Eλ′ sont en somme directe. D’où p = α. Théorème II.13.3. Soit u ∈ L(E) de spectre Spec(u) = {λ1 , · · · , λ p }. Supposons que le polynôme caractéristique χu est scindé et notons αk la multiplicité de λk dans χu . Alors : p M E= Eλ′ i i=1 et il existe une base B de E telle que T 1 0 0 T MatB (u) = . . 2 .. .. 0 ··· où T k est une matrice triangulaire supérieure de taille αk λk ⋆ · · · .. . 0 λk T k = . . . .. .. .. 0 ··· 0 47 ··· .. . .. . 0 0 .. . 0 Tp avec des λk sur la diagonale : ⋆ .. . ∈ Mαk (K). ⋆ λk Qp Démonstration. Comme χu est scindé, on a : χu = i=1 (X − λi )αi . Les polynômes Pi = (X − λi )αi sont premiers entre eux deux à deux par la proposition I.7.6. Donc par le théorème de CayleyHamilton II.12.1 et lemme des noyaux (théorème II.4.7), on obtient : p p M M E = Ker χu (u) = Ker Pi (u) = Eλ′ i . i=1 Grâce au théorème II.13.2, dim(Eλ′ i ) i=1 = αi et l’endomorphisme ui induit par u sur Eλ′ i peut s’écrire ui = λi idEλ′ + vi i où vi est nilpotent. Donc χvi = X αi par le corollaire II.10.4. Ainsi χui = (X − λi )αi est scindé. Le théorème II.10.2 assure l’existence d’une base Bi de Eλ′ i dans laquelle la matrice T i de ui est triangulaire supérieure de taille αi avec des λi sur la diagonale. En prenant la réunion de toutes ces bases Bi pour i décrivant {1, . . . , p}, on obtient une base B de E dans laquelle la matrice de u est du type voulu. 14. Décomposition de Dunford Théorème II.14.1. (Décomposition de Dunford) Soit u ∈ L(E) à polynôme caractéristique scindé. Alors il existe un endomorphisme d ∈ L(E) diagonalisable et un endomorphisme ν ∈ L(E) nilpotent tels que u=d+ν et dν = νd. De plus, cette décomposition est unique. p Démonstration. Notons Spec(u) = {λ1 , · · · , λ p }. Par le théorème précédent, E = ⊕i=1 Eλ′ i . Soit pi la projection de E sur Eλ′ i parallèlement à ⊕i, j Eλ′ j . Posons d= p X λi pi i=1 et ν = u − d. Remarquons que, par construction, chaque Eλ′ i est stable par d, u et ν. De plus d(x) = λi x pour tout p x ∈ Eλ′ i . On en déduit que toute base adaptée à la décomposition E = ⊕i=1 Eλ′ i est une base de vecteurs propres pour d. Donc d est diagonalisable. Par ailleurs, l’endomorphisme induit par ν = u − d sur Eλ′ i n’est autre que u|Eλ′ − λi idEλ′ qui est nilpotent d’après le théorème II.13.2. En utilisant une fois de plus p i i que E = ⊕i=1 Eλ′ i , il est alors aisé d’établir que ν = u − d est nilpotent. Montrons que d et ν commutent. Pp Soit x ∈ E. On peut décomposer x de façon unique en x = i=1 xi avec xi ∈ Eλ′ i . Comme d(xi ) = λi xi , on a : νd(x) = νd(x1 + · · · + x p ) = ν(d(x1 )) + · · · + ν(d(x p )) = λ1 ν(x1 ) + · · · + λ p ν(x p ). Mais comme chaque ν(xi ) est dans Eλ′ i , on a également d(ν(xi )) = λi ν(xi ). D’où λ1 ν(x1 ) + · · · + λ p ν(x p ) = d(ν(x1 )) + · · · + d(ν(x p )) = dν(x1 + · · · + x p ) = dν(x). Par conséquent d et ν commutent. Il reste à montrer l’unicité de la décomposition. Supposons qu’il existe un autre couple (d′ , ν′ ) tel que u = d′ + ν′ avec d′ diagonalisable, ν nilpotent et d′ ν′ = ν′ d′ . On constate que ud′ = (d′ + ν′ )d′ = d′ 2 + ν′ d′ = d′ 2 + d′ ν′ = d′ (d′ + ν′ ) = d′ u. De même u et ν′ commutent. Donc d′ et ν′ commutent avec tout polynôme en u, et en particulier avec tous les (u − λi idE )βi . En appliquant la proposition II.3.2, on en déduit que tous les Eλ′ i sont stables par d′ et ν′ . Dès lors, les arguments qui ont servi à prouver que dν = νd permettent également de montrer qued′ et ν′ commutent avec d. Comme ν = u − d, on en déduit que d′ et ν′ commutent aussi avec ν. Le théorème de réduction simultanée II.8.5 assure que d et d′ admettent une base commune de vecteurs 48 propres. Donc d − d′ est diagonalisable. Par ailleurs, comme ν et ν′ commutent, on peut appliquer la formule du binôme de Newton pour calculer : ! 2n X 2n k ′ 2n (ν − ν ) = ν (−1)2n−k (ν′ )2n−k . k k=0 Pour k ∈ {0, · · · , 2n}, l’un des deux entiers k et 2n−k est forcément supérieur ou égal à n, donc le produit νk (−1) p−k (ν′ ) p−k est nul (car les indices de nilpotence de ν et ν′ sont inférieurs ou égaux à n.). Donc (ν−ν′ )2n = 0 et ν−ν′ est nilpotent. Or ν′ −ν = d −d′ . Donc ν′ −ν est à la fois nilpotent et diagonalisable. C’est donc l’endomorphisme nul, c’est-à-dire ν′ = ν. Cela entraîne de plus que d′ = d. Voici la version matricielle de la décomposition de Dunford : Théorème II.14.2. Soit A ∈ Mn (K) telle que χA soit scindé. Alors il existe une matrice D ∈ Mn (K) diagonalisable et une matrice N ∈ Mn (K) nilpotente telles que A = D + N et DN = ND. De plus, cette décomposition est unique. ☞ En particulier toute matrice A de Mn (C) admet une décomposition de Dunford dans Mn (C). ☞ Dans la section II.11, on a vu une méthode de trigonalisation des matrices. La matrice triangulaire supérieure obtenue peut bien sur se décomposer en D + N avec D diagonale et N triangulaire supérieure avec des 0 sur la diagonale, donc nilpotente. Mais il n’y a aucune raison pour que D et N commutent. 15. Méthode pratique de décomposition de Dunford Soit A ∈ Mn (C). Notons u l’endomorphisme ayant A pour matrice dans la base canonique de Cn . L’algorithme suivant fournit une méthode systématique pour trouver la décomposition de Dunford de A. (1) On calcule le polynôme caractéristique χA de A. (2) On détermine les racines de λ1 , . . . , λ p de χA et de leur multiplicité α1 , · · · , α p . p (3) On détermine une base particulière adaptée à la décomposition E = ⊕i=1 Eλ′ i de la façon suivante. Soit ui l’endomorphisme de Eλ′ i induit par u. On sait que ui = λi idEλ′ + νi avec νi nilpotent d’indice la i multiplicité βi de λi dans le polynôme minimal de A. On veut trouver une base de Eλ′ i dans laquelle la matrice de νi est triangulaire supérieure avec des 0 sur la diagonale. Pour cela : – on détermine une base (ei1 , · · · , eip1 ) de Ker(u − λi idE ), – que l’on complète en une base (ei1 , · · · , eip1 +p2 ) de Ker(u − λi idE )2 , – que l’on complète ensuite en base de Ker(u − λi idE )3 , – etc... – jusqu’à l’obtention d’une base Bi = (ei1 , · · · , eiαi ) de Ker(u − λi idE )βi tout entier. Il est facile de vérifier que la matrice de νi dans la base Bi est triangulaire supérieure avec des 0 sur la diagonale. La base de Cn cherchée est la réunion de toutes les bases Bi déterminées précédemment. Notons qu’il n’est pas toujours évident de connaître βi par avance. En pratique, on trouve cet indice au cours de la procédure de recherche d’une base de Eλ′ i comme ci-dessus : c’est le plus petit indice vérifiant Ker(u − λi idE )βi = Ker(u − λi idE )βi +1 . (4) Finalement, on forme la matrice P dont les colonnes sont les coordonnées des vecteurs de la base obtenue à l’étape précédente. On calcule T = P−1 AP. Cette matrice T est triangulaire supérieure. On la décompose en T = ∆ + Θ où ∆ est la matrice diagonale dont les termes diagonaux sont ceux de T . Il ne reste plus qu’à poser D = P∆P−1 et 49 N = PΘP−1 . 16. Calcul des puissances d’une matrice Une des applications de la théorie de la réduction est le calcul des puissance d’une matrice. Distinguons plusieurs cas : (1) Cas d’une matrice diagonalisable Soit A ∈ Mn (K) diagonalisable. On détermine P ∈ GLn (K) et D ∈ Mn (K) diagonale telles que A = PDP−1 (voir la section II.9). Une récurrence élémentaire montre que pour k ∈ N, donne Ak = PDk P−1 . Notons que Dk se calcule très facilement : si D = diag(λ1 , · · · , λn ), alors Dk = diag(λk1 , · · · , λkn ). Remarquons que si A est diagonalisable dans C mais pas dans R, on diagonalise A dans Mn (C), le résultat final Ak restant bien sûr réel. (2) Cas d’une matrice non diagonalisable Quitte à travailler dans C, on peut toujours supposer que A est trigonalisable. La décomposition de Dunford s’avère alors particulièrement utile. En effet, on peut écrire A = D + N avec D diagonalisable, N nilpotente, et DN = ND. Comme D et N commutent, on peut appliquer la formule du binôme de Newton : ! k X k j k− j k k A = (D + N) = N D . j j=0 En fait, comme N est nilpotente, on a N j = 0 pour j ≥ p où p est l’indice de nilpotence de N. La somme ci-dessus comporte donc au plus p termes (on sait de plus que p ≤ n), même si k est très grand. Pour effectuer le calcul le plus simplement possible, on peut utiliser les matrices ∆, Θ et P obtenues au cours du processus de détermination de la décomposition de Dunford (voir la section II.15). Puisque ∆ et Θ commutent par construction, on a : ! k X k Ak = (D + N)k = P(∆ + Θ)k P−1 = P Θ j ∆k− j P−1 j j=0 Les puissances de ∆ sont immédiates à calculer puisque ∆ est diagonale. Par ailleurs Θ est nilpotente et donc Θ j = 0 pour j ≥ n. Donc, au pire, il faudra calculer les n − 1 premières puissances de Θ. (3) Autre méthode Supposons que l’on connaisse un polynôme annulateur non nul P ∈ K[X] (par exemple le polynôme caractéristique) d’une matrice A ∈ Mn (K). Supposons de plus que l’on puisse déterminer le reste Rk de la division euclidienne de X k par P. Rappelons que deg(Rk ) < deg(P). Alors : Ak = Rk (A). En effet si Qk est le quotient de la division euclidienne de X k par P, alors X k = PQk + Rk et donc Ak = P(A)Qk (A) + Rk (A) = Rk (A) puisque P(A) = 0. 50 Exercices sur la réduction Dans les exercices suivants, K désigne R ou C. Exercice 1. Soit u l’endomorphisme de R4 dont la matrice dans la base canonique de R4 est 1 0 2 0 2 1 0 −1 . M = −1 0 1 0 1 1 1 1 a. Trouver, sans calcul, un sous-espace vectoriel de R4 de dimension 2 qui soit stable par u. b. Déterminer une matrice inversible P ∈ M4 (R) telle que P−1 MP soit de la forme : ! A B −1 P MP = 0 C où A, B, C ∈ M2 (R). Exercice 2. Soit s : Rn [X] → Rn [X] l’application définie par s(P) = P(1 − X). Notons ι = idRn [X] . a. Montrer que s est une symétrie. b. Montrer que P ∈ Ker(s − ι) si et seulement si P( 12 + X) = P( 12 − X). En déduire une caractérisation des éléments de Ker(s − ι). c. Donner une caractérisation de Ker(s + ι). d. Déterminer la matrice de s dans la base canonique. e. Déterminer une base de Rn [X] adaptée à la décomposition de Rn [X] = Ker(s − ι) ⊕ Ker(s + ι). Exercice 3. Soit E un K-espace vectoriel de dimesion n ≥ 1. Soit u un endomorphisme nilpotent de E tel que dim Ker(u) = 1. a. Donner un exemple d’espace vectoriel E et d’endomorphisme u satisfaisant ces conditions. b. Montrer que si F est un sous-espace vectoriel de E stable par u et non réduit à {0E }, alors dim u(F) = dim(F)−1. c. Montrer que dim Ker(uk ) = k et rg(uk ) = n − k pour tout 0 ≤ k ≤ n. d. Trouver tous les sous-espaces vectoriels de E stables par u. Exercice 4. a. Trouver deux endomorphismes nilpotents dont la somme n’est pas nilpotente. b. Trouver deux endomorphismes diagonalisables dont la somme n’est pas diagonalisable. Exercice 5. a. Montrer qu’une matrice A ∈ Mn (C) telle que, pour tout 1 ≤ i ≤ n, X |ai j | < |aii | est inversible. j,i, 1≤ j≤n b. En utilisant la question précédente, montrer qu’une racine z d’un polynôme P = X n +an−1 X n−1 +· · ·+a0 ∈ C[X] unitaire de degré n vérifie : |z| ≤ max(|a0 |, 1 + |a1 |, · · · , 1 + |an−1 |). 51 Exercice 6. 1 2 3 Soit u l’endomorphisme de R3 dont la matrice dans la base canonique de R3 est 0 1 4. 0 0 1 Déterminer tous les sous-espaces vectoriels de R3 stables par u. ! Exercice 7. 4 4 Déterminer les valeurs propres et les sous-espaces propres de la matrice ∈ M2 (R). 1 4 Cette matrice est-elle diagonalisable ? Exercice 8. Pour quelles valeurs des paramètres réels a, b, c, d, e, f les matrices suivantes sont-elles diagonalisables sur R ? 1 a b c 1 a b c 0 1 d e 0 2 d e . A = et B = 0 0 2 f 0 0 2 f 0 0 0 2 0 0 0 2 Exercice 9. Soit u : C2 [X] → C2 [X] l’application définie, pour P ∈ C2 [X], par : f (P) = (X 2 + 1)P′ − 2XP. a. Vérifier u est bien défini et que u est un endomorphisme de C2 [X]. b. Déterminer les valeurs propres de u. c. Déterminer les sous-espaces propres de u. d. L’endomorphisme u est-il diagonalisable ? Exercice 10. 2 1 4 Diagonaliser la matrice 0 −3 −2 . 0 4 3 ! Exercice 11. 0 7 −6 4 4 , puis lorsque A = −1 4 0 . Déterminer les puissances An pour n ≥ 1, lorsque A = 1 4 0 2 −2 Exercice 12. Soient E un K-espace vectoriel de dimesion n ≥ 1 et u un endomorphismeque de E est de rang 1. Quels sont les valeurs propres et les sous-espaces propres de u ? Exercice 13. Soient E un K-espace vectoriel de dimesion n ≥ 1 et f ∈ L(E) vérifiant f 2 − 3 f + 2idE = 0. a. Montrer que les seules valeurs propres possibles de f sont 1 et 2. b. Montrer que E = Ker( f − idE ) ⊕ Ker( f − 2idE ). c. L’endomorphisme f est-il diagonalisable ? Exercice 14. a. Trouver deux endomorphismes nilpotents dont la somme n’est pas nilpotente. b. Trouver deux endomorphismes diagonalisables dont la somme n’est pas diagonalisable. Exercice 15. Soient n ≥ 1 et E = Rn [X]. Notons f : E → E l’application qui à tout polynôme P ∈ E associe le reste de la division euclidienne de P par X 2 − 32X + 7. a. Montrer que f est un endomorphisme. b. A l’aide des polynômes annulateurs, montrer que f est diagonalisable. Exercice 16. Soient u un endomorphisme d’un K-espace vectoriel E de dimension finie et P ∈ K[X]. Montrer que P(u) est un automorphisme de E si et seulement si P et le polynôme minimal mu de u sont premiers entre eux. 52 Exercice 17. Soient n ≥ 1 et D, T les endomorphismes de Rn [X] définis par D(P) = P′ et T (P) = P(X + 1). Déterminer les polynômes minimaux de D et T . Exercice 18. Considérons la matrice 3 −5 2 −6 0 5 0 4 . A = −2 7 −1 11 0 −4 0 −3 a. Calculer le polynôme caractéristique de A, puis déterminer ses valeurs propres et ses sous-espaces propres. b. La matrice A est-elle trigonalisable sur R ? Exercice 19. −2 −1 2 Trigonaliser la matrice A = −15 −6 11. En déduire An pour n ≥ 1. −13 −6 11 Exercice 20. Soient u, v ∈ L(E) deux endomorphismes d’un C-espace vectoriel de dimension finie. Supposons que u et v qui commutent, c’est-à-dire tels que uv = vu. a. Montrer que u et v ont un vecteur propre non nul commun. b. Montrer que u et v admettent une base commune de trigonalisation. Exercice 21. 0 0 0 Soit A ∈ M3 (R) une matrice non nulle telle que A3 = −A. Montrer que A est semblable à la matrice 0 0 −1. 0 1 0 Exercice 22. Montrer que tout endomorphisme d’un R-espace vectoriel de dimension finie n ≥ 1 laisse stable une droite vectorielle ou un plan vectoriel. Exercice 23. Soient u un endomorphisme d’un K-espace vectoriel de dimension finie et P ∈ K[X]. a. Montrer que P Spec(u) ⊂ Spec P(u) . b. Montrer que si χu est scindé, alors χP(u) l’est également et P Spec(u) = Spec P(u) . c. Si u est diagonalisable (resp. trigonalisable), alors P(u) est-il également diagonalisable (resp. trigonalisable) ? Est-ce réciproque ? Exercice 24. (Suites récurrentes) Soient un entier p ≥ 1 et des scalaires a0 , . . . , a p−1 ∈ K fixés. On souhaite déterminer les suites x = (xn )n∈N ∈ KN qui vérifient la relation de récurrence linéaire suivante : ∀ n ∈ N, xn+p = a p−1 xn+p−1 + a p−2 xn+p−2 + · · · + a0 xn . Notons S l’ensemble des suites x = (xn )n∈N ∈ KN qui vérifient la relation de récurrence linéaire précédente. a. Montrer que S est un sous-espace vectoriel de KN de dimension p. Indication : on pourra montrer que l’application qui à x ∈ S associe (x0 , . . . , x p−1 ) ∈ K p est un isomorphisme d’espaces vectoriels. b. A toute suite x = (xn )n∈N ∈ KN , on associe la suite (Xn )n∈N de vecteurs colonnes à p lignes définie par : x0 x1 xn X0 = ... , X1 = ... , . . . Xn = ... , . . . x p−1 xp xn+p−1 Montrer qu’il existe une matrice A ∈ Mn (K) telle que x ∈ S si et seulement si Xn+1 = AXn pour tout n ≥ 0. En déduire que Xn = An X0 pour tout n ≥ 0. c. Calculer le polynôme caractéristique χA de A. 53 d. Supposons que χA soit scindé : χA = (X − λ1 )α1 . . . (X − λk )αk avec λ1 , . . . , λk ∈ K et α1 , . . . , αk ∈ N∗ . Montrer que la famille constituée des p suites (n j λni )n∈N , où 1 ≤ i ≤ k et 0 ≤ j ≤ αi − 1, est une base de S. Exercice 25. Calculer un pour tout n ∈ N, sachant que u0 = 0, u1 = 1, u2 = 1 et un+3 = 45un − 39un+1 + 11un+2 pour tout n ∈ N. Exercice 26. Déterminer les valeurs propres, les sous-espaces propres et les sous-espaces caractéristiques des endomorphismes de K2 et K3 ayant pour matrices 1 1 0 1 0 1 0 8 1 5 0 1 3 3 4 4 0 , 2 3 1 et 0 2 1 2 2 1 2 4 1 1 0 2 3 4 dans les bases canoniques de K2 et K3 . Exercice 27. 2 0 4 Trouver toutes les matrices qui commutent avec la matrice 3 −4 12. 1 −2 5 ! ! ! ! Exercice 28. 1 2 1 0 0 2 1 2 La décomposition = + est-elle la décomposition de Dunford de ? Si non, quelle 0 3 0 3 0 0 0 3 est-elle ? Exercice 29. Considérons la matrice 1 1 −1 A = −1 3 −3 ∈ M3 (C). −2 2 −2 a. Déterminer la décomposition de Dunford de A. b. Calculer Ak pour tout k ∈ N. Exercice 30. Soit A = D + N la décomposition de Dunford de A ∈ Mn (C). a. Quelle est celle de Ak pour k ∈ N ? b. Quelle est celle de A−1 lorsque A est inversible ? 54