Maths MP Cours Réduction des endomorphismes Table des matières 1 Préliminaires 1.1 Retour sur les projections et symétries 1.2 Objectifs . . . . . . . . . . . . . . . . . 1.3 Premiers résultats . . . . . . . . . . . 1.4 Polynômes d’endomorphismes . . . . . 1.5 «Réduction de matrices» . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 2 3 4 5 2 Réduction avec ou sans polynômes d’endomorphismes 2.1 À la main . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Utilisation de polynômes annulateurs . . . . . . . . . . . 2.3 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . 2.4 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 7 8 9 3 Alors, diagonalisable ou pas ? 3.1 Une condition nécessaire et suffisante de diagonalisabilité . . . . . . . . . . . . . . . . . . 3.2 Multiplicité et dimension des sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . 3.3 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 10 11 4 Applications diverses 4.1 Suites récurrentes linéaires . . . . . 4.2 Systèmes différentiels linéaires . . . 4.3 Exponentielle d’endomorphismes et 4.4 Commutant . . . . . . . . . . . . . 4.5 Équations polynomiales . . . . . . 4.6 Sous-espaces stables . . . . . . . . 12 12 13 13 14 15 16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Résultats supplémentaires 17 5.1 Coréduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 5.2 Aspects topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1 Dans tout ce chapitre, K vaut R ou C. 1 1.1 Préliminaires Retour sur les projections et symétries Quelques rappels : – Si E1 ⊕ E2 = E, alors la projection u sur E1 parallèlement à E2 est un endomorphisme de E qui vérifie u ◦ u = u, avec de plus Ker (u − IdE ) = E1 , et Ker (u) = E2 . – Réciproquement, si v ∈ L(E) vérifie v ◦ v = v, alors F1 := Ker (v − IdE ) et F2 := Ker (v) sont supplémentaires, et v est la projection sur F1 parallèlement à F2 . Une traduction matricielle du fait que Ker (v−IdE ) et Ker (v) soient supplémentaires est : si on concatène des bases de ces deux sous-espaces, on trouve une base de l’espace ambiant, dans laquelle la matrice de 1 .. .. . (0) Ir . 0 1 = · · · · · · · (écriture par blocs). v est Diag(1, ..., 1, 0, ..., 0) = 0 .. . 0 . 0 .. (0) 0 Une autre famille d’applications vérifie ce type de propriétés : – Si E1 ⊕ E2 = E, alors la symétrie u par rapport à E1 parallèlement à (dans la direction) E2 est un endomorphisme de E qui vérifie u ◦ u = IdE , avec Ker (u − IdE ) = E1 , et Ker (u + IdE ) = E2 . – Réciproquement, si v ∈ L(E) vérifie v ◦ v = IdE , alors F1 := Ker (v − IdE ) et F2 := Ker (v + IdE ) sont supplémentaires, et v est la symétrie par rapport à F1 parallèlement à F2 . Une traduction matricielle du fait que Ker (v − IdE ) et Ker (v + IdE ) soient supplémentaires est : si on concatène des bases de ces deux sous-espaces, on trouve unebase de l’espace ambiant, dans laquelle la .. 0 Ip . · · · · · ·· matrice de v est Diag(1, ..., 1, −1, ..., −1) = . .. 0 . −In−p Exercice 1 Soit u ∈ L(E) vérifiant u2 − (a + b)u + abIdE = 0. Montrer que Ker (u − aIdE ) et Ker (u − bIdE ) sont supplémentaires. Donner la matrice de u dans une base adaptée. Exercice 2 Soient E un espace euclidien de dimension 2, et u une rotation (non triviale). Montrer qu’il n’existe pas de base dans laquelle la matrice de u soit diagonale. → ∈ E non nul. On définit u ∈ L(E) Exercice 3 Soient E un espace euclidien de dimension 3, et − x 0 → − − → → − par la relation u ( y ) = x0 ∧ y . Montrer qu’il n’existe pas de base dans laquelle la matrice de u soit diagonale. 1.2 Objectifs Diagonaliser un endomorphisme consiste, quand c’est possible, à trouver une base dans laquelle sa matrice est diagonale. Définition 1 — Diagonalisabilité En dimension finie, un endomorphisme de E est dit diagonalisable lorsqu’il existe une base de E dans laquelle sa matrice est diagonale. Remarque 1 Cela est équivalent au fait qu’il existe des sous-espaces V1 , ..., Vk tels que E = V1 ⊕· · ·⊕Vk , k X avec u|Vi qui est une homothétie x 7→ λi x pour tout i ∈ [[1, k]]. On a alors u = λi pi , avec pi la i=1 projection sur Vi selon la décomposition précédente. C’est d’ailleurs ainsi qu’on définit la diagonalisabilité en dimension infinie. 2 Définition 2 — Valeurs, vecteurs et sous-espaces propres Si u ∈ L(E), on appelle valeur propre de u tout scalaire λ ∈ C tel que u − λIdE n’est pas injective. Les vecteurs propres associés à la valeur propre λ sont alors les vecteurs x ∈ E non nuls tels que u(x) = λx. Le sous-espace propre associé à la valeur propre λ est Ker (u−λIdE ). On note souvent ce sous-espace Eλ (u), ou Eλ si cela ne prête pas à confusion. Le spectre de u, noté Sp(u), est l’ensemble de ses valeurs propres. Remarques 2 → − – Ainsi, 0 est dans tous les sous-espace propres... mais n’est pas vecteur propre. C’est ainsi ; inutile de grogner. – En anglais, «valeur propre» (respectivement vecteur propre) se dit «eigenvalue» (respectivement «eigenvector»). Et maple ne parle pas danois. – Supposons : Mat(u) = Diag(λ1 , ..., λn ). Les λi sont alors clairement des valeurs propres. Mais E réciproquement, si λ est une valeur propre, alors u − λIdE est non injective, donc Mat(u − λIdE ) = E Diag(λ1 − λ, ..., λn − λ) est non inversible, donc λ est l’une des valeurs diagonales λi . Trouver le spectre d’une matrice diagonale ne donnera donc jamais lieu à de sordides calculs. BIEN ENTENDU... Exemples 1 Une projection (respectivement une symétrie) non triviale est diagonalisable. Ses valeurs propres sont 1 et 0 (respectivement 1 et −1). Avec une grande finesse dans le choix d’une base, on doit également pouvoir prouver que les homothéties x 7→ λx sont diagonalisables. Remarque 3 Il est souvent préférable d’«avoir des λi distincts». Plutôt que Diag(λ 1 , ..., λn ), on préfère µ1 In1 0 . . donc réordonner la base, pour se ramener à une matrice écrite par blocs sous la forme , . 0 µk Ink avec n1 + · · · + nk = n et les µi distincts deux à deux. Exercice 4 Soit u un endomorphisme nilpotent. Quelles sont ses valeurs propres ? Est-il diagonalisable ? 1.3 Premiers résultats Exercice 5 Montrer que si λ1 et λ2 sont deux valeurs propres distinctes, alors Eλ1 et Eλ2 sont en somme directe. Exercice 6 Montrer que si λ1 , λ2 et λ3 sont trois valeurs propres distinctes, alors Eλ1 , Eλ2 et Eλ3 sont en somme directe. Et sans surprise... Théorème 1 — Sous-espaces propres en somme directe Si λ1 , ..., λk sont des valeurs propres distinctes pour un endomorphisme, alors les sous-espaces propres associés sont en somme directe. Autrement dit : toute famille de vecteurs propres associés à des valeurs propres distinctes est libre. Preuve : Par récurrence, ou à la Vandermonde. La somme est directe, certes, mais... vaut-elle l’espace ambiant ? Proposition 1 Il y a équivalence entre : – un endomorphisme est diagonalisable ; – ses sous-espaces propres sont supplémentaires. Preuve : Aussi élémentaire qu’essentielle... 3 Proposition 2 Si u ∈ L(E) et v ∈ GL(E), alors u et w = v −1 ◦ u ◦ v ont le même spectre, et «v permet de passer de Eλ (w) à Eλ (u)» Preuve : Résoudre, à λ fixé, l’équation w(x) = λx. Exemple 2 Si E est un espace euclidien de dimension 2 ou 3, r est une rotation et s une réflexion, alors r−1 ◦ s ◦ r est une réflexion, et s ◦ r ◦ s est une rotation (c’est même r, en dimension 2). Calculer l’ensemble des endomorphismes commutant avec u ∈ L(E) fixé est une activité classique, qui utilise à haute dose le résultat suivant : Proposition 3 Si u, v ∈ L(E) vérifient u ◦ v = v ◦ u, alors les sous-espaces propres de u sont stables par v. Preuve : Syntaxique ; left to the reader. 1.4 Polynômes d’endomorphismes On a vu avec les projections et symétries qu’une information «polynomiale» sur u permettait de reconstruire des résultats géométriques. Il s’agit de poser le formalisme pour cela. Définition 3 — Polynômes d’endomorphisme Soient u ∈ L(E) et P = a0 + a1 X + · · · + ak X k ∈ K[X]. On définit alors : P (u) := a0 IdE + a1 u + · · · + ak uk , avec ui = u | ◦ u ◦{z· · · ◦ u}. i fois Tout se passe alors au mieux... comme le fait suivant le résume. Fait : Soit u ∈ L(E). L’application P 7→ P (u) réalise un morphisme d’algèbre de (K[X], +, ., ×) vers (L(E), +, ., ◦). Preuve : C’est à nouveau essentiellement syntaxique ; left to the reader. Concrètement, cela donne un «cadre légal» à toute manipulation raisonnable... qu’on faisait avant sans état d’âme. C’est bien entendu la même chose avec les matrices. 0 1 1 Exemple 3 Soit A = 1 0 1. On constate que A2 − A − 2I3 = 0. Posant P = X 2 − X − 2 = 1 1 0 (X − 2)(X + 1), on effectue ensuite la division euclidienne X n = Qn P + αn X + βn , avec 2n = 2αn + βn 2n + 2(−1)n 2n − (−1)n et (−1)n = −αn + βn , donc αn = et βn = , puis en «évaluant en A» : 3 3 An = 2n − (−1)n 2n + 2(−1)n A+ I3 . 3 3 Exercice 7 Reprendre la preuve du théorème 1 en partant de la décomposition en éléments simples de 1 , en la multipliant par (X − λ1 )...(X − λk ), puis en évaluant ces polynômes en u, et (X − λ1 )...(X − λk ) enfin ces endomorphismes en x ∈ E. Diverses propriétés (faciles à vérifier) sont à connaître, et à savoir prouver les yeux fermés. Proposition 4 Si u ∈ L(E) et P ∈ K[X], alors Ker (P (u)) et Im (P (u)) sont stables par u. Preuve : Left to the reader. Proposition 5 Si u = P (v), avec v ∈ L(E) et P ∈ K[X], alors u ◦ v = v ◦ u. Preuve : Pfff... 4 1.5 «Réduction de matrices» Définition 4 — Diagonalisation/réduction de matrices Si A ∈ Mn (K) est une matrice carrée, diagonaliser A consiste à (tenter de) diagonaliser l’endomorphisme canoniquement associé à A. On parle de même des valeurs propres, vecteurs propres et spectre d’une matrice. On travaille donc dans Kn , en notant en colonnes les vecteurs. La traduction matricielle de «il existe une base dans laquelle la matrice de u est diagonale» est : «il existe P ∈ GLn (K) telle que P −1 AP est diagonale». 1 1 1 Exemple 4 Prenons A = 1 1 1. Elle est de rang 1, donc la dimension du noyau (de l’application 1 1 1 1 1 linéaire u canoniquement associée) vaut 2. On trouve facilement une base du noyau : −1 et 0 0 −1 1 sont de bons candidats. Par ailleurs, en notant C = 1, on a AC = 3C, ce qui nous donne un 1 3 vecteur pour obtenir une base de diagonalisation de u. En notant E la base canonique de R , F la base 1 1 1 diagonalisation, P = Pas = Mat IdE = −1 0 1 et D = Mat(u) = Diag(1, 1, 3), on a alors : F E→F F ,E 0 −1 1 – si on retranscrit en une seule fois les trois relations ACi = λCi : AP = P D ; – si on applique le théorème de changement de base pour les endomorphismes : D = Mat(u) = P −1 AP F u E −−−−→ E A x IdE P IdE yP −1 u F −−−−→ F D On a bien P −1 AP diagonale, et c’est gagné. 0 −1 Exemple 5 La matrice R = ∈ M2 (R), vue avec nos réels yeux, est celle de la rotation d’angle 1 0 π de l’espace euclidien R2 . Il est clair que cette rotation n’a pas de vecteurs propres, donc R n’est pas 2 diagonalisable. 0 −1 1 1 Exemple 6 La complexe matrice R = ∈ M2 (C) vérifie, en notant C1 = et C2 = : 1 0 −i i −i 0 1 1 RC1 = −iC1 et RC2 = iC2 , et donc en posant D = et P = : R = P DP −1 , donc R 0 i i −i est diagonalisable «sur C». Ainsi, il faut parfois faire attention au corps sur lequel on doit réduire la matrice. Définition 5 — Matrices semblables Deux matrices A, B ∈ Mn (K) sont dites semblables lorsqu’il existe P ∈ GLn (K) telle que B = P −1 AP . Cela signifie que A et B représentent le même endomorphisme de Kn .. dans deux bases différentes. Exercice 2 – 0 0 8 0 2 0 Les suivantes sont-elles semblables ? matrices 0 2 1 0 0 et 0 2 0 ; 2 0 0 2 5 1 0 0 – 0 2 0 et 0 0 3 1 0 0 – 0 2 0 et 0 0 3 3 0 0 1 0 0 0 2 0 1 2 0 0 0 ; 1 0 0. 3 Réduire une matrice A revient finalement à chercher une matrice la plus simple possible (idéalement : diagonale) semblable à A. Le résultat suivant n’est pas à proprement parler un résultat de cours, mais est tellement classique... Proposition 6 Soient A, B ∈ Mn (R) semblables sur C (au sens : il existe P ∈ GLn (C) telle que B = P −1 AP ). Montrer qu’elles sont semblables sur R (au sens... maintenant clair). Preuve : On écrit P = P1 + iP2 , avec P1 , P2 ∈ Mn (R). La relation (P1 + iP2 )B = A(P1 + iP2 ) fournit P1 B = AP1 et P2 B = AP2 . C’est gagné si P1 ou P2 est inversible. Sinon, il suffit de considérer les combinaisons Mt = P1 + tP2 , avec t ∈ R : on a toujours Mt B = AMt . Considérons maintenant ϕ : t 7→ det(P1 + tP2 ) : ϕ est une application polynomiale non nulle sur C (puisque ϕ(i) 6= 0), donc non nulle sur R (elle possède un nombre fini de racines), donc il existe t ∈ R tel que ϕ(t) 6= 0, et c’est gagné. 2 Réduction avec ou sans polynômes d’endomorphismes 2.1 À la main Sans les outils plus ou moins élaborés qui vont suivre dans ce chapitre, on peut déjà diagonaliser à la main certains endomorphismes. 1. Si M est triangulaire, on sait qu’elle est inversible si et seulement si ses éléments diagonaux sont non nuls. Maintenant, si A ∈ Mn (K) est triangulaire, A − λIn est non inversible (i.e. : λ ∈ Sp(A)) si et seulement si λ est l’un des éléments diagonaux de A. Fait : Le spectre d’une matrice triangulaire se lit sur la diagonale. 1 2 3 1 2 3 Exercice 9 Montrer que 0 4 5 est diagonalisable et que 0 1 2 ne l’est pas. 0 0 1 0 0 6 2. Si le rang est petit, alors le noyau est grand, ce qui nous fournit une valeur propre (0) dont le sous-espace associé est grand... 1 ··· 1 1 .. . .. a pour rang 1, et en prenant C = ... Exemple 7 La matrice A = . , on a AC = nC. 1 1 ··· 1 Ainsi, il existe une base (clair ?) de Kn dans laquelle l’endomorphisme canoniquement associé à A vaut Diag(0, ..., 0, n). Remarque 4 Quitte chose d’approchant), on traite dela même façon à ajouter In(ou quelque les 0 (1) a ··· a a (b) . .. = aA, ou encore .. .. matrices du genre = A − In , .. = . . . (1) 0 a ··· a (b) a bA + (a − b)In ... D’une manière générale, si on sait réduire A alors on sait réduire A + αIn . Ajouter un certain nombre de fois In est donc parfois un préliminaire intéressant pour arranger la tête d’une matrice. Exercice 10 Soit A ∈ Mn (K). Montrer que l’application ϕ : M ∈ Mn (K) 7→ tr(M )A est diagonalisable. 6 3. On arrive parfois à résoudre directement l’équation u(x) = λx. Exemple 8 CCP 2007 Soit E = Rn [X] et f : E → E, P 7→ nXP − (X 2 − 1)P 0 . (a) Vérifier que f est bien définie et que f ∈ L(E). (b) Déterminer les éléments propres de f . La première question consistait probablement, une fois la linéarité constatée, à dire que pour P ∈ E, on a bien f (P ) ∈ E : il suffit de constater que deg (f (P )) 6 deg(P ) + 1, et que f (X n ) est de degré n. On va ensuite résoudre l’équation f (P ) = λP en résolvant plus généralement l’équation différentielle (1 − t2 )y 0 (t) + (nt − λ)y(t) = 0, disons sur ] − 1, 1[, puis on cherchera pour quelles valeurs de λ il existe une solution polynomiale. Le cours de première année sur les équations différentielles d’ordre 1 nous donne directement comme ensemble de solutions les applications (λ+n)/2 (n−λ)/2 t 7→ K (1 + t) (1 − t) . De telles solutions sont polynomiales de degré majoré par n−λ λ+n et sont des entiers positifs, ce qui revient à avoir λ de la forme n si et seulement si 2 2 n − 2k, avec 0 6 k 6 n. On obtient donc comme valeurs propres : λk = n − 2k, de sous-espaces propres associés les droites dirigées par (1 + X)n−k (1 − X)k . Avec n + 1 valeurs propres distinctes, f est diagonalisable. 2.2 Utilisation de polynômes annulateurs On a vu que la relation u2 − u = 0 impose la nature géométrique de u. Même chose pour la relation u − IdE = 0. D’une manière générale, les relations du type P (u) = 0 nous apportent des informations fortes sur u. 2 Proposition 7 Si P (u) = 0 et λ ∈ Sp(u), alors P (λ) = 0. Preuve : Left to the reader. Remarque 5 Soit u une projection et P = X(X − 1)(X − 933) : on a P (u) = 0, mais toutes les racines de P ne sont pas des valeurs propres pour u... Théorème 2 — Théorème des noyaux Si P et Q sont deux polynômes premiers entre eux et u ∈ L(E), alors Ker ((P Q)(u)) = Ker (P (u)) ⊕ Ker (Q(u)) . De plus, les projecteurs associés à cette décomposition sont des polynômes en u. Preuve : Tout d’abord, il est clair que Ker (P (u)) et Ker (Q(u)) sont des sous-espaces de Ker ((P Q)(u)) (le vérifier tout de même !). Pour montrer que ces deux sous-espaces sont supplémentaires, on fixe x ∈ Ker ((P Q)(u)), et on cherche à le décomposer sous la forme x = x1 + x2 , avec x1 ∈ Ker (P (u)) et x2 ∈ Ker (Q(u)). Le théorème de Bezout nous donne deux polynômes A et B tels que AP + BQ = 1. On évalue ces polynômes en u pour trouver (AP )(u) + (BQ)(u) = IdE (R) Si x ∈ Ker (P (u)) ∩ Ker (Q(u)), alors x = A(u) ((P (u)) (x)) + B(u) ((Q(u)) (x)) = 0, donc l’intersection est réduite à {0}. Mais par ailleurs, en posant x1 = ((BQ)(u)) (x) et x2 = ((AP )(u)) (x), on a directement x = x1 + x2 , avec x1 ∈ Ker (P (u)) et x2 ∈ Ker (Q(u)), nous fournissant la décomposition voulue. Au passage, la projection sur Ker (P (u)) est (BQ)(u) : c’est bien un polynôme en u. Exemples 9 Ce théorème s’applique bien entendu dans les cas où P = X 2 − X = X(X − 1), P = X 2 − 1 = (X − 1)(X + 1). Si on reprend la matrice A de l’exemple 7, on a immédiatement A2 = nA, donc X 2 − nX = X(X − n) est un polynôme annulateur de A, donc E = Ker (A) ⊕ Ker (A − nIdE ). 7 Remarque 6 Le théorème des noyaux Ys’étend au produit de k polynômes P1 , ..., Pk premiers entre eux deux à deux : les polynômes Qi = Pj sont alors premiers entre eux dans leur ensemble (aucun j6=i polynôme ne les divise tous), et on peut Bezouter de la même façon que pour k = 2. Une autre façon de 1 faire (lorsque les Pi sont irréductibles) est de décomposer en éléments simples puis de multiplier P1 ...Pk le résultat de cette décomposition par P1 ...Pk . Théorème 3 — Théorème des noyaux - cas général Si P1 , ..., Pk sont k polynômes premiers entre eux deux à deux, et u ∈ L(E), alors Ker ((P1 ...Pk )(u)) = k M Ker (Pi (u)) . i=1 De plus, les projecteurs associés à cette décomposition sont des polynômes en u. Exercice 11 (TPE 2008) Soit A ∈ Mn (C) telle que A3 − 3A2 + 2A = 0. Montrer que sa trace est dans N. Exercice 12 (CCP 2010) Soit E un R-espace vectoriel de dimension finie et u ∈ L(E) tel que u3 + u = 0. Montrer que u est de rang pair. 2.3 Polynôme minimal Exercice 13 Soit u ∈ L(E), avec E de dimension finie. En considérant l’application P ∈ Kn2 [X] 7→ P (u), montrer que u possède des polynômes annulateurs non nuls. Si on s’intéresse à l’ensemble des polynômes annulateurs de u, disons Ann(u), il est aisé de vérifier que Ann(u) est un sous-espace vectoriel de K[X] et que pour tout (P, Q) ∈ K[X] × Ann(u), P Q ∈ Ann(u). On est donc en présence d’un idéal. Le cours sur les polynômes nous assure que cet idéal est «principal», c’est-à-dire de la forme Q0 K[X]. Définition 6 — Polynôme minimal Le polynôme minimal de u ∈ L(E) est l’unique polynôme unitaire engendrant Ann(u). Il est (souvent) noté µu . On définit de la même façon le polynôme minimal d’une matrice. Exemples 10 – Supposons que λ1 , ..., λn ∈ K sont distincts deux à deux, et notons D = Diag(λ1 , ..., λn ). Si P ∈ K[X], on a P (D) = Diag (P (λ1 ), ..., P (λn )), donc P (D) = 0 si et seulement si P (λ1 ) = ... = P (λn ) = 0. Ainsi : µD =(X − λ1 )...(X − λn ). 0 1 (0) .. .. . . . On calcule facilement N k , puis, en notant P = – Soit maintenant N = . .. 1 (0) 0 a0 a1 · · · an−1 .. .. .. . . . , puis : µN = X n . a0 + a1 X + · · · + an−1 X n−1 + · · · + ad X d : P (N ) = .. . a1 (0) a0 Exercice 14 Montrer que λ ∈ Sp(u) si et seulement si λ est racine de µu . 8 933 Exercice 15 Déterminer le polynôme minimal de (0) 1 .. . (0) .. . .. . 1 933 Notons enfin que si B = P −1 AP , alors Q(B) = P −1 Q(A)P , donc A et B ont les mêmes polynômes annulateurs, donc le même polynôme minimal. 2.4 Polynôme caractéristique Jusqu’ici, on a seulement deg(µu ) 6 n2 . En fait, on va voir qu’on a un peu mieux... Souvenons-nous qu’on cherche les λ tels que u − λIdE ne soit pas injective... Définition 7 — Polynôme caractéristique Soit u ∈ L(E). L’application λ 7→ det(λIdE − u) est polynomiale. Le polynôme associé (unique car K = R ou C) est le polynôme caractéristique de u, noté χu . Remarques 7 – Si on veut s’abstraire 1 de la désagréable condition sur K, on peut directement définir χu := det(XIn − A), avec A la matrice représentant u dans une base donnée : ce calcul de déterminant a lieu dans Mn (K(X)), et le résultat ne dépend pas de la base choisie... – On 2 choisit parfois de noter χu (λ) = det(u − λIdE ). Le polynôme caractéristique est alors toujours de degré n, mais de coefficient dominant (−1)n . – La réponse à la question qui vous brûle les lèvres est : CharacteristicPolynomial(A,X) Exercice 16 Calculer le polynôme caractéristique d’une matrice diagonale. D’abord sous forme factorisée, puis développée : que vaut le coefficient constant ? Et le coefficient de X n−1 ? Exercice 17 Montrer qu’en dimension n, le polynôme caractéristique d’un endomorphisme nilpotent est X n . Notons dès maintenant que par définition des valeurs propres, on a le résultat suivant : Fait : Si u ∈ L(E), alors λ ∈ Sp(u) si et seulement si λ est racine du polynôme caractéristique. Exercice 18 Calculer χu puis χu (u) lorsque u est diagonalisable. Vous savez quoi ? Ce n’est pas un hasard. Théorème 4 — Cayley-Hamilton Soit u ∈ L(E). On a alors χu (u) = 0. Preuve : Une façon élégante d’opérer est de prouver le résultat dans un cas simple (disons sur C, dans le cas de n valeurs propres distinctes), puis de généraliser à tous les endomorphismes (toujours sur C, avec des argument analytiques). Le résultat sur R est alors acquis. On peut même passer à un corps quelconque (avec cette fois des arguments algébriques un peu plus fins). Ainsi, le degré du polynôme minimal est en fait majoré par la dimension de l’espace. Terminons par ce dernier résultat, qui est un peu plus qu’un exercice classique ! Proposition 8 Si E1 est un sous-espace de E stable par u ∈ L(E), alors le polynôme caractéristique de la restriction de u à E1 divise celui de u. Preuve : Travailler dans une base adaptée au problème ; on est alors ramené à un déterminant de matrice «triangulaire par blocs». Exercice 19 Calculer le polynôme caractéristique de A ∈ Mn (R) telle que Ai,j = 1 pour tout (i, j) ∈ [[1, N ]]2 . 1. et c’est indispensable par sur les corps finis 2. pas moi, mais des tas de gens très respectables 9 3 Alors, diagonalisable ou pas ? On a déjà vu que certaines matrices n’étaient pas diagonalisables. Il y a essentiellement deux raisons de nature très différentes : – les valeurs propres peuvent être «complexes non réelles» (ce qui pose problème lorsqu’on est dans R : voir les rotations) ; – les valeurs propres sont bien réelles, mais les sous-espaces propres sont «trop petits» : leur somme ne remplit pas l’espace : c’est le cas des nilpotents, qui possèdent comme unique valeur propre 0, mais qui sont «rarement» diagonalisables... 3.1 Une condition nécessaire et suffisante de diagonalisabilité Théorème 5 — Une condition nécessaire et suffisante de diagonalisabilité Un endomorphisme est diagonalisable si et seulement s’il possède un polynôme annulateur scindé à racines simples. Preuve : Tout d’abord, si u est diagonalisable et de valeurs propres distinctes λ1 , ..., λk , alors le polynôme (X − λ1 )...(X − λk ) annule effectivement u : se placer sur une base adaptée. Réciproquement, si u est annulé par (X − α1 )...(X − αp ), le théorème des noyaux nous dit que les Vi = Ker (u − αi IdE ) sont supplémentaires. Ils suffit d’éliminer les Vi égaux à {0} pour avoir alors une décomposition de l’espace comme somme directe des sous-espaces propres de u. Remarque 8 Pour que u soit diagonalisable, il SUFFIT donc que χu soit scindé à racines simples, mais ce n’est pas nécessaire (donner un contre-exemple). Exercice 20 Montrer que u est diagonalisable si et seulement si µu est scindé à racines simples. Exercice 21 (CCP 2009 - PSI) Soit A ∈ Mn (R) telle que A2 = 2A + 8In . 1. La matrice A est-elle inversible ? Diagonalisable ? 2. Trouver les M ∈ Vect (In , A) telles que M 2 = 2M + 8In . Exercice 22 (CCP 2010 - PC) Soit f ∈ L(R5 ) tel que f 3 + f 2 + f = 0. Déterminer les valeurs possibles pour la trace de f . 3.2 Multiplicité et dimension des sous-espaces propres Définition 8 — Multiplicité d’une valeur propre Si λ ∈ K est valeur propre de u ∈ L(E), son ordre de multiplicité est sa multiplicité comme racine de χu . 1 0 0 Exemples 11 – La matrice 2 1 0 a pour valeurs propres 1 et 5, d’ordres de multiplicité respectifs 2 et 1. 3 4 5 – Si, en dimension n, un endomorphisme possède n valeurs propres distinctes, alors elles sont forcément de multiplicité 1. – Si un endomorphisme est diagonalisable, la multiplicité d’une valeur propre est la dimension du sous-espace propre associé. – «À l’opposé», pour un nilpotent, l’ordre de multiplicité de l’unique valeur propre 0 vaut n, alors que la dimension du sous-espace propre associé (i.e. : le noyau du nilpotent) peut être très petite. Ils ne sont pas forcément égaux, mais il y a tout de même un lien entre l’ordre de multiplicité d’une racine, et la dimension du sous-espace propre associé : Proposition 9 La dimension du sous-espace propre associé à une valeur propre est majorée par l’ordre de multiplicité de cette valeur propre. Preuve : Considérer la restriction de l’endomorphisme au sous-espace propre (qui est stable) : son polynôme caractéristique divise celui de l’endomorphisme global... 10 On a même un peu mieux : Proposition 10 Un endomorphisme est diagonalisable si et seulement si son polynôme caractéristique est scindé et que chaque sous-espace propre a pour dimension l’ordre de multiplicité de la valeur propre associée. Preuve : Le «sens direct» est clair. Pour la réciproque, on suppose χu = k Y α (X − λi ) i . Les Eλi sont i=1 alors en somme directe, et la somme de leurs dimensions vaut k X αi = deg(χu ) = n : c’est gagné. i=1 1 1 Exercice 23 (CCP 2007, 2008) Soit A = 0 2 0 0 1. Quel est le rang de A ? A est-elle inversible ? a 0. a 2. La matrice A est-elle diagonalisable ? 3.3 Trigonalisation Exercice 24 Soient E un espace de dimension 4, u ∈ L(E), E = (e1 , e2 , e3 , e4 ) une base de E, et F = (e4 , e3 , e2 , e1 ). Comparer Mat(u) et Mat(u). E F Définition 9 — Endomorphismes/matrices trigonalisables Un endomorphisme est dit trigonalisable lorsqu’il existe une base de l’espace dans lequel sa matrice est triangulaire. Une matrice est trigonalisable si elle est semblable à une matrice triangulaire. Remarque 9 Pour être trigonalisable, il est donc nécessaire d’avoir son polynôme caractéristique 0 −1 scindé, ce qui exclut par exemple une matrice telle que 1 0 Théorème 6 — Une CNS pour être trigonalisable Un endomorphisme est trigonalisable si et seulement s’il possède un polynôme annulateur scindé. Preuve : Le «sens direct» ne pose guère de problème grâce à Cayley-Hamilton. Pour la réciproque, k Y α on suppose que P = (X − λi )i annule u. Le théorème des noyaux nous assure que E est la somme i=1 directe des Fi = Ker (u − λi IdE )αi («sous-espaces caractéristiques»). On va travailler sur chacun des ces sous-espaces, et ensuite il suffira de recoller les bases. Fixons donc i. Le sous-espace Fi est stable par u (pourquoi ?) ; notons alors ui = u|Fi . On a ui −λi IdFi nilpotent, donc il existe une base de Fi dans laquelle la matrice de ui − λi IdFi est triangulaire supérieure. C’est donc également le cas pour ui . En recollant ces k bases de sous-espaces supplémentaires, on récupère une base de l’espace dans laquelle la matrice de u est triangulaire supérieure («diagonale par blocs»). Remarques 10 – Dans Mn (C), toute matrice est donc trigonalisable. – Finalement, un endomorphisme est trigonalisable si et seulement si son polynôme caractéristique est scindé. C’est clair ? – Une étude fine des nilpotents permet d’affiner nettement les choses. On obtient alors une forme réduite portant beaucoup d’information : c’est la réduction de Jordan. 11 4 Applications diverses 4.1 Suites récurrentes linéaires un+1 = 3un n’est guère compliqué. Ça se gâte pour un système à dépendances v = −5vn n+1 un+1 = 17un + 60vn mutuelles tel que .... vn+1 = −5un − 18vn On traduit donc ce système en l’équation matricielle Xn+1 = AXn . Si A est diagonale, c’est gagné. Sinon, on essaie de réduire A sous la forme A = P.D.P −1 avec D diagonale. On a alors en posant Yn = P −1 Xn : Yn+1 = P −1 Xn+1 = P −1 .AXn = P −1 .P DP −1 Xn = DYn , Résoudre 3 d’où le calcul simple de Yn puis de Xn = P Yn . On aura noté qu’il n’est pas utile de calculer P −1 ... 17 60 −4 −3 −1 Exemple 12 Dans le cas vu plus haut, A = = P.D.P , avec P = et D = −5 −18 1 1 2 0 xn xn+1 = 2xn . En posant Yn = P −1 Xn = , on obtient donc , d’où xn = 2n x0 et 0 −3 yn yn+1 = −3yn yn = (−3)n y0 . Il reste à écrire Xn = P Yn pour obtenir l’existence de constantes 4 K1 et K2 telles que un = −4K1 2n − 3K2 (−3)n ∀n ∈ N, vn = K1 2n + K2 (−3)n Exercice 25 Comment l’auteur de ce poly a-t-il engendré cette matrice A pourrie, mais finalement pas tant que ça ? Exercice 26 Trouver les suites (u, v, w) vérifiant un+1 = vn+1 = ∀n ∈ N, wn+1 = u0 = 1 avec les conditions initiales v0 = −1 w0 = 2 les relations de récurrence mutuelle −3un −2un −un − 4vn − 5vn − 4vn + + + 10wn 10wn 8wn 1 λ 0 λ Notons que si D n’est pas diagonale mais par exemple de la forme 0 0 de An (donc de Xn = An X0 ) se fait bien également. 0 0 , le calcul de Dn donc µ Exercice 27 Trouver les suites (u, v) vérifiant les relations de récurrence mutuelle un+1 = 3un + 2vn ∀n ∈ N, vn+1 = −2un − vn Remarques 11 – Je ne suis pas fan de cette méthode de diagonalisation pour calculer finalement An (c’est le moins qu’on puisse dire...) : en pratique, le calcul de An en réalisant 5 la division euclidienne de X n par un polynôme annulateur est presque toujours plus efficace 6 . M’enfin... – On peut ramener l’étude des récurrences linéaires d’ordre p pour UNE suite d’éléments de K à p celle d’une récurrence linéaire d’ordre 1, dans K . Par exemple pour fn+2 = fn + fn+1 , on pose fn 0 1 Xn = et A = , de sorte que Xn+1 = AXn , etc... fn+1 1 1 3. 4. 5. 6. au sens : «trouver LES suites u et v telle que la relation de récurrence soit vérifiée pour tout n ∈ N» Les exprimer à l’aide de u0 et v0 n’a que peu d’intérêt seul le reste nous intéresse le gain par rapport à la première année est l’obtention rapide et mécanique d’un polynôme annulateur 12 4.2 Systèmes différentiels linéaires Même principe que dans la section précédente : il s’agit de résoudre des systèmes différentiels linéaires de la forme : 0 x (t) = ax(t) + by(t) y 0 (t) = cx(t) + dy(t) où x et y sont deux fonctions de classe C 1 que l’on recherche. Si b = c = 0 (système diagonal), ce n’est guère compliqué... x Dans le cas général, on pose X = , de sorte que le système différentiel s’écrit X 0 = AX. On y x1 tente de diagonaliser A sous la forme A = P.D.P −1 . On pose alors X1 = P −1 X = , de sorte que y1 X10 = DX1 , ce qui nous donne X1 puis X = P X1 . Il est à nouveau inutile de calculer P −1 , et on peut noter que tout ceci se passe par équivalence : on a bien trouvé exactement les solutions au problème initial. 0 x = 17x + 60y x Exemple 13 Résolvons le système différentiel en posant X = , A = y 0 = −5x − 18y y 17 60 −4 −3 2 0 = P.D.P −1 , avec P = et D = (ça n’a pas changé...). Le sys−5 −18 1 1 0 −3 x1 tème X 0 = AX devient, en posant X1 = P −1 X = : X10 = DX1 , c’est-à-dire x1 (t) = x1 (0)e2t et y1 y1 (t) = y1 (0)e−3t , puis grâce à la relation X = P X1 : 0 x = 17x + 60y x(t) = −4K1 e2t − 3K2 e−3t ⇐⇒ ∃K1 , K2 ∈ R; ∀t ∈ R, 0 y = −5x − 18y y(t) = K1 e2t + K2 e−3t Exercice 28 (Centrale 2008 - extrait) 1. La matrice B = 2. Résoudre 1 1 4 est-elle diagonalisable ? 1 x0 = x + 4y y0 = x + y Si A n’est pas diagonalisable, ce n’est pas perdu pour autant ! 3 Exercice 29 (CCP 2008) Soit A = −2 1. La matrice A est-elle diagonalisable ? 2 . −1 2. Trigonaliser A. 3. Résoudre le système 4.3 x0 (t) y 0 (t) = 3x(t) + 2y(t) = −2x(t) − y(t) Exponentielle d’endomorphismes et de matrices Tout d’abord, Mn (K) peut être muni de normes en faisant une algèbre normée 7 . Ces normes sont toutes équivalentes (dimension finie). De même, on a différents moyens de définir des normes d’algèbre sur L(E), lorsque E est lui-même un espace vectoriel normé de dimension finie, et toutes ces normes seront équivalentes. Exercice 30 Donner deux normes d’algèbre différentes sur L(Rn ). 7. Rappel : il s’agit essentiellement de vérifier : kABk 6 kAk . kBk 13 Définition 10 — Exponentielle d’un endomorphisme et d’une matrice (rappel) Soient u ∈ L(E). L’endomorphisme eu est la somme de la série absolument convergente De même, si A ∈ Mn (K), la matrice eA est la somme de la série convergente +∞ n X u · n! n=0 +∞ X An · n! n=0 Remarque 12 Bien entendu, si U = Mat(u), alors Mat (eu ) = eU ... Le vérifier tout de même ! E E Exercice 31 Calculer l’exponentielle d’une matrice diagonale. Que vaut son déterminant ? Énoncer et prouver une formule de ce type pour toute exponentielle de matrice. Exercice 32 Calculer l’exponentielle de 17 −5 60 (encore elle...) −18 Le résultat qui suit nous dit que eu est certes une série en u... mais aussi un polynôme ! Proposition 11 Si u ∈ K[X], alors il existe P ∈ K[X] tel que eu = P (u). Preuve : En termes snobs, on peut dire que K[u] est fermé, et c’est fini... Plus élémentairement (mais N X un c’est fondamentalement la même chose !), notons vN = , K[u] l’ensemble des polynômes en u, F un n! i=0 supplémentaire de K[u] dans L(E), et enfin p la projection sur F dans la décomposition L(E) = K[u]⊕F . On a p(vN ) = 0 pour tout N ∈ N et vN −→ eu , donc la continuité de p (assurée par sa linéarité) nous N →+∞ donne : p(eu ) = 0, c’est-à-dire : eu ∈ K[u]. En exercice, le lecteur pourra traiter à la main le cas où l’endomorphisme est diagonalisable, à l’aide de polynômes d’interpolation. Exercice 33 Calculer l’exponentielle de −3 0 1 3 puis celle de −3 −2 2 . −1 Remarque 13 Vous aimeriez un énoncé qui vous dise que pour résoudre X 0 = AX, on peut faire comme pour x0 = ax (équations différentielles de terminale) ? Attendez quelques mois, ou bien créez votre propre énoncé : le seul qui a un sens et est raisonnable... est correct ! 4.4 Commutant On sait déjà que si u◦v = v◦u, alors les sous-espaces propres de u sont stables par v (et vice-versa bien entendu). Pour trouver toutes les matrices B commutant avec A donnée, on raisonne géométriquement en notant u et v les endomorphismes canoniquement associés à A et B. On va supposer ici que A a le bon goût d’être diagonalisable. – Analyse : si AB = BA alors u ◦ v = v ◦ u, donc les sous-espaces propres de u sont stables par v. – Synthèse : réciproquement, si les sous-espaces propres de u sont stables par v, alors sur chacun de ces sous-espaces propres, les restrictions de u ◦ v et de v ◦ u sont égales. Or ces sous-espaces sont supplémentaires, donc u ◦ v = v ◦ u globalement. 17 60 Exemple 14 On cherche les matrices commutant avec notre nouvelle amie A = . On note −5 −18 u l’endomorphisme canoniquement associé à A, et v canoniquement associée à B : AB = BA si et seulement si u ◦ v = v ◦ u. Une condition nécessaire est que les sous-espaces propres de u soient stables par v, ce qui impose Mat(v) diagonale. Réciproquement, cette dernière condition nous assurera que effecF tivement u ◦ v = v◦ u. Les matrices recherchées sont donc celles de la forme P D1 P −1 , avec D1 diagonale −4 −3 et P = . 1 1 14 On aurait pu raisonner directement matriciellement : AB = BA ⇐⇒ P −1 ABP = P −1 BAP ⇐⇒ P −1 AP.P −1 BP = P −1 BP.P −1 AP ⇐⇒ D.P −1 BP = P −1 BP.D, 2 0 Donc B commute avec A si et seulement si B 0 = P −1 BP commute avec D = , ce qui est 0 −3 équivalent par un calcul très simple à : B 0 diagonale. On retrouve bien le résultat précédent. −3 −4 10 Exercice 34 Déterminer l’ensemble des matrices commutant avec −2 −5 10. −1 −4 8 Remarque 14 Si A n’est pas diagonalisable,on décompose en général l’espace en somme directe de sousk espaces stables par u : typiquement, les Ker (u − λIdE ) , avec k l’ordre de multiplicité de λ ∈ Sp(u). Ces sous-espaces sont stables par v. Comme à l’intérieur de ces sous-espaces, les sous-espaces propres de u sont également stables, ça réduit furieusement les possibilités pour v. On fait alors la synthèse. 3 2 Exercice 35 Déterminer l’ensemble des matrices commutant avec −2 −1 4.5 Équations polynomiales Exercice 36 (CCP 2010) Soit M ∈ Mn (C) diagonalisable. Existe-t-il A ∈ Mn (C) tel que A2 = M ? Même chose dans Mn (R)... Une remarque toute bête mais essentielle : si v = P (u), alors u ◦ v = v ◦ u, et donc les sous-espaces propres de v sont stables par u. Pour résoudre une équation d’inconnue u ∈ L(E) de la forme P (u) = v (à v ∈ L(E) fixée), on réalise systématiquement une analyse-synthèse. Imaginons par exemple que v est diagonalisable, avec des sous-espaces propres de dimension 1, et F = (f1 , ..., fn ) est une base de diagonalisation de v. – Analyse : si u vérifie effectivement P (u) = v, alors les sous-espaces propres de v sont stables par u, donc ici, Mat(u) = Diag(α1 , ..., αn ). Si par ailleurs Mat(v) = Diag(β1 , ..., βn ), alors P (u) = v si F F et seulement si P (αi ) = βi pour tout i ∈ [[1, n]]. – Synthèse : réciproquement, si Mat(u) = Diag(α1 , ..., αn ) (avec les conditions polynomiales remplies F entre les αi et βi ), alors on a immédiatement P (u) = v. Pour les matrices, il est en général conseillé de travailler géométriquement : il faut commencer par introduire le matériel géométrique (espace, applications linéaires...) Exemple 15 Pour l’exercice précédent : on note u et v les applications linéaires canoniquement associées à M et A. Il existe une base de Kn dans laquelle Mat(u) = Diag(λ1 , ..., λn ). F – si K = C, il existe µ1 , ..., µn tels que pour tout k ∈ [[1, n]], µ2k = λk . On prend alors v telle que Mat(v) = Diag(µ1 , ..., µn ) : v 2 = u, donc en observant cette relation depuis la base canonique de F Kn , on trouve bien A2 = B. – si K = R et que chacun des λi est positif, le raisonnement précédent s’applique. – si K = R et que l’un au moins des λi est strictement négatif : pour avoir u2 = v, Mat(u) doit F être diagonale et son carré doit être égal à Diag(λ1 , ..., λn ) : c’est impossible à cause du λi < 0 : l’équation A2 = B n’a donc pas de solution. Notons qu’ici dans le cas favorable (complexe) on pouvait facilement raisonner sans géométrie : «on a M = P DP −1 , et il suffit alors de prendre A = P D0 P −1 ». Mais dans le cas défavorable, il semble difficile de prouver la non-existence de A autrement que par une analyse nous fournissant des conditions nécessaires impossibles à tenir ; et ce sont essentiellement des arguments géométriques («tel sous-espace est stable par telle application») qui nous ont donné des conditions nécessaires : point de calculs sordides ! −3 −4 10 Exercice 37 Résoudre dans M2 (C) puis dans M2 (R) : B 2 = −2 −5 10. −1 −4 8 15 Si les sous-espaces propres ne sont pas des droites, ça complique la situation puisqu’on est amené à résoudre des équations de la forme P (u) = λIdE , qui peuvent être en général plus compliquées. On peut tout de même utiliser sur chacun de ces sous-espaces propres le théorème des noyaux pour u. Enfin, si v n’est pas diagonalisable, tout n’est pas perdu ! Exercice 38 (X 2010 - PC) Soit n > 2. Déterminer les A ∈ M2 (C) telles que An = 4.6 1 0 1 1 Sous-espaces stables Les droites stables par un endomorphisme sont les droites dirigées par des vecteurs propres. Pour un sous-espace quelconque, ; la question est délicate, mais il y a tout de même un deuxième cas qui se traite de façon relativement élémentaire : ce sont les hyperplans. «Le» bon point de vue pour attaquer cette question est la transposition (d’application linéaire, pas de matrice !) mais est hors programme. On peut tout de même s’en sortir à moindre frais par orthogonalité. Sur Rn , on rappelle que pour le produit scalaire canonique, en faisant l’analogie vecteur/matricecolonne : <X|Y >= t XY . On rappelle également qu’un sous-espace est un hyperplan si et seulement s’il est de la forme X0⊥ , avec X0 6= 0. Proposition 12 Soient A ∈ Mn (R) et u ∈ L(Kn ) canoniquement associée à A. Un hyperplan est stable par u si et seulement s’il est de la forme X0⊥ , avec X0 un vecteur propre de tA. Preuve : – Supposons que H = X0⊥ , avec X0 6= 0 vérifiant tAX0 = λX0 . Soit Y ∈ H. On veut montrer que AY ∈ H, c’est-à-dire AY ⊥ X0 . Or : <AY |X0>= tY tAX0 = λtY X0 = λ <Y |X0>= 0, donc AY ⊥ X0 , et H est bien stable par A. – Supposons maintenant que H est stable par A. Son orthogonal est une droite, disons RX0 , et H est égal à l’orthogonal de son orthogonal : H = X0⊥ . On veut montrer que X0 est vecteur propre de tA, ce qui revient à montrer que t AX0 est colinéaire à X0 , soit encore : t AX0 est orthogonal à l’orthogonal de X0 . On fixe pour cela Y ∈ X0⊥ : <tAX0 |Y >= t X0 AY =<X0 |AY >. Or Y ∈ H qui est stable par A, donc AY ∈ H = X0⊥ , donc <X0 |AY >. Ainsi, t AX0 est orthogonal à tout élément ⊥ de X0⊥ , donc est dans X0⊥ , c’est-à-dire RX0 : c’est gagné. Remarque 15 Si on n’est pas sur Rn , on s’en sort en choisissant le produit scalaire pour lequel la base de travail est orthonormée. Mais en fait si cela se produit à un oral de concours, c’est probablement parce que l’interrogateur pense que la transposition est au programme. S’il a prononcé ce mot, il n’est plus dans les clous, et on avise alors en fonction du résultat de l’oral ! Exemple 16 (TPE 2008 )Déterminer les sous-espaces de R3 stables par l’application canoniquement 3 1 −1 associée à A = 1 1 1 . 2 0 2 L’unique valeur propre de A est 2, et le sous-espace propre associé est une droite, donc il y a une seule droite stable par u. Un plan sera stable si et seulement s’il est l’orthogonal d’un vecteur propre de t A. Mais t A a les mêmes valeurs propres que A et de plus les dimensions des sous-espaces propres sont les même (le rang de t A − λI3 est le même que A − I3 ), donc il y a un seul plan stable par u. Pour être plus précis : 1 1 −1 0 – la matrice A − 2I3 = 1 −1 1 est bien de rang 2 et possède X1 = 1 dans son noyau, 2 0 0 1 donc la droite stable par A/u est Vect(X1 ) ; 16 1 1 2 1 – pour le plan, A − 2I3 = 1 −1 0 est comme attendu de rang 2 et possède X2 = 1 dans −1 1 0 −1 son noyau, donc le plan stable est X2⊥ , c’est-à-dire le plan d’équation x + y − z = 0. N’oublions pas les sous-espaces triviaux (R3 et {0}) qui sont bien entendu stables par u. Signalons point de vue alternatif utilisant la trigonalisation. Dans une base adaptée, on a ici un 2 1 0 Mat(u) = 0 2 1 : le plan P = Vect (f1 , f2 ) est stable par u, et si un vecteur x n’est pas dans P , F 0 0 2 alors la famille x, u(x), u2 (x) est de rang 3 (calcul du rang de la matrice les représentant dans F) donc aucun plan ne contenant x ne peut être stable. Ceci prouve que Vect (f1 , f2 ) est l’unique plan stable par u. 2 1 0 Exercice 39 (X 2010 - PC) Soient M = 0 2 0 et u ∈ L(R3 ) canoniquement associée à M . 0 0 1 Déterminer les sous-espaces stables par u. 5 Résultats supplémentaires 5.1 Coréduction Définition 11 — Cobidulisation Deux endomorphismes sont dits codiagonalisables (respectivement cotrigonalisables) lorsqu’il existe une base de l’espace dans laquelle la matrice de l’un et de l’autre est diagonale (respectivement triangulaire supérieure). Les deux outils pour aborder ces questions sont essentiellement, comme souvent : le théorème des noyaux, et le fait que deux endomorphismes qui commutent stabilisent leurs espaces propres mutuels. Exercice 40 Soient p et q sont deux projections qui commutent. Montrer qu’il existe une base dans laquelle les matrices de l’un et de l’autre sont diagonales. Théorème 7 — Codiagonalisation Si deux endomorphismes commutent et sont diagonalisables, alors ils sont codiagonalisables. Preuve : Succinctement : on suppose u ◦ v = v ◦ u. On décompose l’espace comme somme des sousespaces propres Vi de E. Ces sous-espaces sont stables par v, et le polynôme scindé à racines simples annulant v... annule aussi la restriction vi = v|Vi . Cette dernière est donc diagonalisable. Il n’y a plus qu’à recoller les bases de diagonalisation des vi pour obtenir une base de E (les Vi sont supplémentaires) dans laquelle les matrices de u et de v sont par construction diagonales. Signalons pour la forme un dernier résultat, encore plus hors programme que le précédent ! Théorème 8 — Cotrigonalisation Si u, v ∈ L(E), avec E un C-espace vectoriel, vérifient u ◦ v = v ◦ u, alors u et v sont cotrigonalisables. Preuve : (Succinctement) On prouve le résultat par récurrence sur la dimension de l’espace. On se ramène grâce aux outils usuels au cas où u est nilpotent. On prend une base de E commençant par une base de Ker (u). Puisque Ker (u)est stable par v, lesmatricesde u et v dans ces bases sont respectivement (0) A C D de la forme (par blocs) : Mu = et Mv = . Le polynôme scindé qui annulait v annule (0) B (0) E également C et E, donc on peut déjà faire un changement de base dans le «premier» sous-espace pour ramener C à une matrice triangulaire supérieure. Ensuite, on a BE = EB avec E et B cotrigonalisables (même argument du polynôme annulateur scindé, pour B), donc «par hypothèse de récurrence», on peut changer la de base dans le deuxième sous-espace pour amener E et B en situation triangulaire supérieure. Attention, E et B ne représentent pas des matrices de restriction... 17 5.2 Aspects topologiques Pour chaque résultat, on donne «le» bon énoncé, quitte à le reformuler en termes de limites dans la preuve Proposition 13 GLn (K) est ouvert dans Mn (K). Preuve : Ou encore : «le complémentaire est fermé», c’est-à-dire «stable par passage à la limite». Pour prouver cela, il suffit de dire que GLn (K) est l’image réciproque de l’ouvert K∗ par l’application continue «det» ! Plus élémentairement, on prend (Mn )n∈N une suite de matrices non inversibles convergeant vers M . On a det(Mn ) = 0, et «det» est une application continue de Mn (K) dans K, donc det(Mn ) −→ det(M ), donc det(M ) = 0, et Mn (K) \ GLn (K) est bien stable par passage à la limite. n→+∞ On peut également partir du fait que pour kAk < 1, on a In + A inversible, d’inverse ce qu’on sait, 1 , B + C = B In + B −1 C est inversible. et en déduire que pour B inversible et kCk < kB −1 k Proposition 14 GLn (K) est dense dans Mn (K). Preuve : Si A ∈ Mn (K), l’application λ 7→ det(A + λIn ) est polynomiale, donc a un ensemble fini de 1 racines, donc A + In est inversible pour p assez grand, et tend vers A lorsque p tend vers +∞. p Proposition 15 Dans Mn (C), les matrices diagonalisables à spectre simple (n valeurs propres distinctes) sont denses. Preuve : Soit A ∈ Mn (C). On va montrer qu’il existe une suite de matrices diagonalisables à spectre simple convergeant vers A. Déjà, A est trigonalisable, donc il existe P ∈ GLn (C) telle que T = P −1 AP soit triangulaire, disons avec comme coefficients (λ1 , ..., λn ) sur la diagonale. Notons alors DN = Diag(1, 2, ..., n)/N : pour N assez grand, T + DN a ses n éléments diagonaux distincts (en j i = λj + est équivalente à N (λi − λj ) = j − i ne peut être vérifiée, pour i 6= j, effet, la condition λi + N N que pour un nombre fini de valeurs de N ). Ainsi, pour N assez grand, T + DN est à spectre simple, donc P (T + DN )P −1 également. Il reste à noter que P (T + DN )P −1 = A + P DN P −1 −→ A. N →+∞ On a déjà vu une application simple mais de bon goût : la démonstration du théorème de CayleyHamilton. Exercice 41 Montrer que le résultat précédent est faux dans Mn (R). Exercice 42 Montrer que les matrices diagonalisables à spectre simple constituent un ouvert de Mn (K). 18