Cours - mp933.fr

publicité
Maths MP
Cours
Réduction des endomorphismes
Table des matières
1 Préliminaires
1.1 Retour sur les projections et symétries
1.2 Objectifs . . . . . . . . . . . . . . . . .
1.3 Premiers résultats . . . . . . . . . . .
1.4 Polynômes d’endomorphismes . . . . .
1.5 «Réduction de matrices» . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
2
2
3
4
5
2 Réduction avec ou sans polynômes d’endomorphismes
2.1 À la main . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Utilisation de polynômes annulateurs . . . . . . . . . . .
2.3 Polynôme minimal . . . . . . . . . . . . . . . . . . . . .
2.4 Polynôme caractéristique . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
7
8
9
3 Alors, diagonalisable ou pas ?
3.1 Une condition nécessaire et suffisante de diagonalisabilité . . . . . . . . . . . . . . . . . .
3.2 Multiplicité et dimension des sous-espaces propres . . . . . . . . . . . . . . . . . . . . . .
3.3 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
10
10
11
4 Applications diverses
4.1 Suites récurrentes linéaires . . . . .
4.2 Systèmes différentiels linéaires . . .
4.3 Exponentielle d’endomorphismes et
4.4 Commutant . . . . . . . . . . . . .
4.5 Équations polynomiales . . . . . .
4.6 Sous-espaces stables . . . . . . . .
12
12
13
13
14
15
16
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
. . . . . . .
de matrices
. . . . . . .
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Résultats supplémentaires
17
5.1 Coréduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.2 Aspects topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1
Dans tout ce chapitre, K vaut R ou C.
1
1.1
Préliminaires
Retour sur les projections et symétries
Quelques rappels :
– Si E1 ⊕ E2 = E, alors la projection u sur E1 parallèlement à E2 est un endomorphisme de E qui
vérifie u ◦ u = u, avec de plus Ker (u − IdE ) = E1 , et Ker (u) = E2 .
– Réciproquement, si v ∈ L(E) vérifie v ◦ v = v, alors F1 := Ker (v − IdE ) et F2 := Ker (v) sont
supplémentaires, et v est la projection sur F1 parallèlement à F2 .
Une traduction matricielle du fait que Ker (v−IdE ) et Ker (v) soient supplémentaires est : si on concatène
des bases de ces deux sous-espaces,
on trouve une base
 de l’espace ambiant, dans laquelle la matrice de

1
 


..

..
.
(0) 


  Ir . 0 

1
 = · · · · · · · (écriture par blocs).
v est Diag(1, ..., 1, 0, ..., 0) = 
 


0


..


.
0
.
0
..


(0)
0
Une autre famille d’applications vérifie ce type de propriétés :
– Si E1 ⊕ E2 = E, alors la symétrie u par rapport à E1 parallèlement à (dans la direction) E2 est un
endomorphisme de E qui vérifie u ◦ u = IdE , avec Ker (u − IdE ) = E1 , et Ker (u + IdE ) = E2 .
– Réciproquement, si v ∈ L(E) vérifie v ◦ v = IdE , alors F1 := Ker (v − IdE ) et F2 := Ker (v + IdE )
sont supplémentaires, et v est la symétrie par rapport à F1 parallèlement à F2 .
Une traduction matricielle du fait que Ker (v − IdE ) et Ker (v + IdE ) soient supplémentaires est : si on
concatène des bases de ces deux sous-espaces,
 on trouve unebase de l’espace ambiant, dans laquelle la
..
0 
 Ip .
·
·
·
·
·
·· 
matrice de v est Diag(1, ..., 1, −1, ..., −1) = 

.
..
0 . −In−p
Exercice 1 Soit u ∈ L(E) vérifiant u2 − (a + b)u + abIdE = 0. Montrer que Ker (u − aIdE ) et Ker (u −
bIdE ) sont supplémentaires. Donner la matrice de u dans une base adaptée.
Exercice 2 Soient E un espace euclidien de dimension 2, et u une rotation (non triviale). Montrer
qu’il n’existe pas de base dans laquelle la matrice de u soit diagonale.
→ ∈ E non nul. On définit u ∈ L(E)
Exercice 3 Soient E un espace euclidien de dimension 3, et −
x
0
→
−
−
→
→
−
par la relation u ( y ) = x0 ∧ y . Montrer qu’il n’existe pas de base dans laquelle la matrice de u soit
diagonale.
1.2
Objectifs
Diagonaliser un endomorphisme consiste, quand c’est possible, à trouver une base dans laquelle sa
matrice est diagonale.
Définition 1 — Diagonalisabilité
En dimension finie, un endomorphisme de E est dit diagonalisable lorsqu’il existe une base
de E dans laquelle sa matrice est diagonale.
Remarque 1 Cela est équivalent au fait qu’il existe des sous-espaces V1 , ..., Vk tels que E = V1 ⊕· · ·⊕Vk ,
k
X
avec u|Vi qui est une homothétie x 7→ λi x pour tout i ∈ [[1, k]]. On a alors u =
λi pi , avec pi la
i=1
projection sur Vi selon la décomposition précédente. C’est d’ailleurs ainsi qu’on définit la diagonalisabilité
en dimension infinie.
2
Définition 2 — Valeurs, vecteurs et sous-espaces propres
Si u ∈ L(E), on appelle valeur propre de u tout scalaire λ ∈ C tel que u − λIdE n’est pas
injective. Les vecteurs propres associés à la valeur propre λ sont alors les vecteurs x ∈ E non
nuls tels que u(x) = λx. Le sous-espace propre associé à la valeur propre λ est Ker (u−λIdE ).
On note souvent ce sous-espace Eλ (u), ou Eλ si cela ne prête pas à confusion.
Le spectre de u, noté Sp(u), est l’ensemble de ses valeurs propres.
Remarques 2
→
−
– Ainsi, 0 est dans tous les sous-espace propres... mais n’est pas vecteur propre. C’est ainsi ; inutile
de grogner.
– En anglais, «valeur propre» (respectivement vecteur propre) se dit «eigenvalue» (respectivement
«eigenvector»). Et maple ne parle pas danois.
– Supposons : Mat(u) = Diag(λ1 , ..., λn ). Les λi sont alors clairement des valeurs propres. Mais
E
réciproquement, si λ est une valeur propre, alors u − λIdE est non injective, donc Mat(u − λIdE ) =
E
Diag(λ1 − λ, ..., λn − λ) est non inversible, donc λ est l’une des valeurs diagonales λi .
Trouver le spectre d’une matrice diagonale ne donnera donc jamais lieu à de sordides
calculs. BIEN ENTENDU...
Exemples 1
Une projection (respectivement une symétrie) non triviale est diagonalisable. Ses valeurs propres sont
1 et 0 (respectivement 1 et −1). Avec une grande finesse dans le choix d’une base, on doit également
pouvoir prouver que les homothéties x 7→ λx sont diagonalisables.
Remarque 3 Il est souvent préférable d’«avoir des λi distincts». Plutôt que Diag(λ
1 , ..., λn ), on préfère
µ1 In1
0


.
.
donc réordonner la base, pour se ramener à une matrice écrite par blocs sous la forme 
,
.
0
µk Ink
avec n1 + · · · + nk = n et les µi distincts deux à deux.
Exercice 4 Soit u un endomorphisme nilpotent. Quelles sont ses valeurs propres ? Est-il diagonalisable ?
1.3
Premiers résultats
Exercice 5 Montrer que si λ1 et λ2 sont deux valeurs propres distinctes, alors Eλ1 et Eλ2 sont en
somme directe.
Exercice 6 Montrer que si λ1 , λ2 et λ3 sont trois valeurs propres distinctes, alors Eλ1 , Eλ2 et Eλ3
sont en somme directe.
Et sans surprise...
Théorème 1 — Sous-espaces propres en somme directe
Si λ1 , ..., λk sont des valeurs propres distinctes pour un endomorphisme, alors les sous-espaces
propres associés sont en somme directe.
Autrement dit : toute famille de vecteurs propres associés à des valeurs propres distinctes est
libre.
Preuve : Par récurrence, ou à la Vandermonde.
La somme est directe, certes, mais... vaut-elle l’espace ambiant ?
Proposition 1 Il y a équivalence entre :
– un endomorphisme est diagonalisable ;
– ses sous-espaces propres sont supplémentaires.
Preuve : Aussi élémentaire qu’essentielle...
3
Proposition 2 Si u ∈ L(E) et v ∈ GL(E), alors u et w = v −1 ◦ u ◦ v ont le même spectre, et «v permet
de passer de Eλ (w) à Eλ (u)»
Preuve : Résoudre, à λ fixé, l’équation w(x) = λx.
Exemple 2 Si E est un espace euclidien de dimension 2 ou 3, r est une rotation et s une réflexion,
alors r−1 ◦ s ◦ r est une réflexion, et s ◦ r ◦ s est une rotation (c’est même r, en dimension 2).
Calculer l’ensemble des endomorphismes commutant avec u ∈ L(E) fixé est une activité classique,
qui utilise à haute dose le résultat suivant :
Proposition 3 Si u, v ∈ L(E) vérifient u ◦ v = v ◦ u, alors les sous-espaces propres de u sont stables
par v.
Preuve : Syntaxique ; left to the reader.
1.4
Polynômes d’endomorphismes
On a vu avec les projections et symétries qu’une information «polynomiale» sur u permettait de
reconstruire des résultats géométriques. Il s’agit de poser le formalisme pour cela.
Définition 3 — Polynômes d’endomorphisme
Soient u ∈ L(E) et P = a0 + a1 X + · · · + ak X k ∈ K[X]. On définit alors :
P (u) := a0 IdE + a1 u + · · · + ak uk ,
avec ui = u
| ◦ u ◦{z· · · ◦ u}.
i fois
Tout se passe alors au mieux... comme le fait suivant le résume.
Fait : Soit u ∈ L(E). L’application P 7→ P (u) réalise un morphisme d’algèbre de (K[X], +, ., ×) vers
(L(E), +, ., ◦).
Preuve : C’est à nouveau essentiellement syntaxique ; left to the reader.
Concrètement, cela donne un «cadre légal» à toute manipulation raisonnable... qu’on faisait avant
sans état d’âme. C’est bien entendu la même chose avec les matrices.


0 1 1
Exemple 3 Soit A = 1 0 1. On constate que A2 − A − 2I3 = 0. Posant P = X 2 − X − 2 =
1 1 0
(X − 2)(X + 1), on effectue ensuite la division euclidienne X n = Qn P + αn X + βn , avec 2n = 2αn + βn
2n + 2(−1)n
2n − (−1)n
et (−1)n = −αn + βn , donc αn =
et βn =
, puis en «évaluant en A» :
3
3
An =
2n − (−1)n
2n + 2(−1)n
A+
I3 .
3
3
Exercice 7 Reprendre la preuve du théorème 1 en partant de la décomposition en éléments simples de
1
, en la multipliant par (X − λ1 )...(X − λk ), puis en évaluant ces polynômes en u, et
(X − λ1 )...(X − λk )
enfin ces endomorphismes en x ∈ E.
Diverses propriétés (faciles à vérifier) sont à connaître, et à savoir prouver les yeux fermés.
Proposition 4 Si u ∈ L(E) et P ∈ K[X], alors Ker (P (u)) et Im (P (u)) sont stables par u.
Preuve : Left to the reader.
Proposition 5 Si u = P (v), avec v ∈ L(E) et P ∈ K[X], alors u ◦ v = v ◦ u.
Preuve : Pfff...
4
1.5
«Réduction de matrices»
Définition 4 — Diagonalisation/réduction de matrices
Si A ∈ Mn (K) est une matrice carrée, diagonaliser A consiste à (tenter de) diagonaliser
l’endomorphisme canoniquement associé à A. On parle de même des valeurs propres, vecteurs
propres et spectre d’une matrice.
On travaille donc dans Kn , en notant en colonnes les vecteurs. La traduction matricielle de «il existe
une base dans laquelle la matrice de u est diagonale» est : «il existe P ∈ GLn (K) telle que P −1 AP est
diagonale».


1 1 1
Exemple 4 Prenons A = 1 1 1. Elle est de rang 1, donc la dimension du noyau (de l’application
1 1 1
 
 
1
1
linéaire u canoniquement associée) vaut 2. On trouve facilement une base du noyau : −1 et  0 
0
−1
 
1
sont de bons candidats. Par ailleurs, en notant C = 1, on a AC = 3C, ce qui nous donne un
1
3
vecteur pour obtenir une base de diagonalisation
de
u.
En

 notant E la base canonique de R , F la base
1
1 1
diagonalisation, P = Pas = Mat IdE = −1 0 1 et D = Mat(u) = Diag(1, 1, 3), on a alors :
F
E→F
F ,E
0 −1 1
– si on retranscrit en une seule fois les trois relations ACi = λCi : AP = P D ;
– si on applique le théorème de changement de base pour les endomorphismes : D = Mat(u) = P −1 AP
F
u
E −−−−→ E
A
x



IdE P
IdE yP −1
u
F −−−−→ F
D
On a bien P −1 AP diagonale, et c’est gagné.
0 −1
Exemple 5 La matrice R =
∈ M2 (R), vue avec nos réels yeux, est celle de la rotation d’angle
1 0
π
de l’espace euclidien R2 . Il est clair que cette rotation n’a pas de vecteurs propres, donc R n’est pas
2
diagonalisable.
0 −1
1
1
Exemple 6 La complexe matrice R =
∈ M2 (C) vérifie, en notant C1 =
et C2 =
:
1 0
−i
i
−i 0
1 1
RC1 = −iC1 et RC2 = iC2 , et donc en posant D =
et P =
: R = P DP −1 , donc R
0 i
i −i
est diagonalisable «sur C».
Ainsi, il faut parfois faire attention au corps sur lequel on doit réduire la matrice.
Définition 5 — Matrices semblables
Deux matrices A, B ∈ Mn (K) sont dites semblables lorsqu’il existe P ∈ GLn (K) telle que
B = P −1 AP .
Cela signifie que A et B représentent le même endomorphisme de Kn .. dans deux bases différentes.
Exercice

2
– 0
0
8
0
2
0
Les
suivantes
sont-elles semblables ?
matrices


0
2 1 0
0 et 0 2 0 ;
2
0 0 2
5


1 0 0
– 0 2 0 et
0 0 3


1 0 0
– 0 2 0 et
0 0 3

3
0
0

1
0
0
0
2
0
1
2
0

0
0 ;
1

0
0.
3
Réduire une matrice A revient finalement à chercher une matrice la plus simple possible (idéalement :
diagonale) semblable à A.
Le résultat suivant n’est pas à proprement parler un résultat de cours, mais est tellement classique...
Proposition 6 Soient A, B ∈ Mn (R) semblables sur C (au sens : il existe P ∈ GLn (C) telle que
B = P −1 AP ). Montrer qu’elles sont semblables sur R (au sens... maintenant clair).
Preuve : On écrit P = P1 + iP2 , avec P1 , P2 ∈ Mn (R). La relation (P1 + iP2 )B = A(P1 + iP2 )
fournit P1 B = AP1 et P2 B = AP2 . C’est gagné si P1 ou P2 est inversible. Sinon, il suffit de considérer
les combinaisons Mt = P1 + tP2 , avec t ∈ R : on a toujours Mt B = AMt . Considérons maintenant
ϕ : t 7→ det(P1 + tP2 ) : ϕ est une application polynomiale non nulle sur C (puisque ϕ(i) 6= 0), donc non
nulle sur R (elle possède un nombre fini de racines), donc il existe t ∈ R tel que ϕ(t) 6= 0, et c’est gagné.
2
Réduction avec ou sans polynômes d’endomorphismes
2.1
À la main
Sans les outils plus ou moins élaborés qui vont suivre dans ce chapitre, on peut déjà diagonaliser à
la main certains endomorphismes.
1. Si M est triangulaire, on sait qu’elle est inversible si et seulement si ses éléments diagonaux sont
non nuls. Maintenant, si A ∈ Mn (K) est triangulaire, A − λIn est non inversible (i.e. : λ ∈ Sp(A))
si et seulement si λ est l’un des éléments diagonaux de A.
Fait : Le spectre d’une matrice triangulaire se lit sur la diagonale.




1 2 3
1 2 3
Exercice 9 Montrer que 0 4 5 est diagonalisable et que 0 1 2 ne l’est pas.
0 0 1
0 0 6
2. Si le rang est petit, alors le noyau est grand, ce qui nous fournit une valeur propre (0) dont le
sous-espace associé est grand...


 
1 ··· 1
1

 ..

.
..  a pour rang 1, et en prenant C =  ... 
Exemple 7 La matrice A =  .
, on a AC = nC.
1
1 ··· 1
Ainsi, il existe une base (clair ?) de Kn dans laquelle l’endomorphisme canoniquement associé à A
vaut Diag(0, ..., 0, n).
Remarque 4 Quitte
chose d’approchant),
on traite dela même façon
 à ajouter In(ou quelque 

les
0
(1)
a ··· a
a
(b)


.

..  = aA, ou encore 
..
..
matrices du genre 
 = A − In ,  ..

=
.
.
.
(1)
0
a ··· a
(b)
a
bA + (a − b)In ...
D’une manière générale, si on sait réduire A alors on sait réduire A + αIn . Ajouter un certain
nombre de fois In est donc parfois un préliminaire intéressant pour arranger la tête d’une matrice.
Exercice 10 Soit A ∈ Mn (K). Montrer que l’application ϕ : M ∈ Mn (K) 7→ tr(M )A est diagonalisable.
6
3. On arrive parfois à résoudre directement l’équation u(x) = λx.
Exemple 8 CCP 2007
Soit E = Rn [X] et f : E → E, P 7→ nXP − (X 2 − 1)P 0 .
(a) Vérifier que f est bien définie et que f ∈ L(E).
(b) Déterminer les éléments propres de f .
La première question consistait probablement, une fois la linéarité constatée, à dire que pour P ∈ E,
on a bien f (P ) ∈ E : il suffit de constater que deg (f (P )) 6 deg(P ) + 1, et que f (X n ) est de degré
n.
On va ensuite résoudre l’équation f (P ) = λP en résolvant plus généralement l’équation différentielle (1 − t2 )y 0 (t) + (nt − λ)y(t) = 0, disons sur ] − 1, 1[, puis on cherchera pour quelles
valeurs de λ il existe une solution polynomiale. Le cours de première année sur les équations
différentielles d’ordre 1 nous donne directement comme ensemble de solutions les applications
(λ+n)/2
(n−λ)/2
t 7→ K (1 + t)
(1 − t)
. De telles solutions sont polynomiales de degré majoré par
n−λ
λ+n
et
sont des entiers positifs, ce qui revient à avoir λ de la forme
n si et seulement si
2
2
n − 2k, avec 0 6 k 6 n. On obtient donc comme valeurs propres : λk = n − 2k, de sous-espaces
propres associés les droites dirigées par (1 + X)n−k (1 − X)k . Avec n + 1 valeurs propres distinctes,
f est diagonalisable.
2.2
Utilisation de polynômes annulateurs
On a vu que la relation u2 − u = 0 impose la nature géométrique de u. Même chose pour la relation
u − IdE = 0. D’une manière générale, les relations du type P (u) = 0 nous apportent des informations
fortes sur u.
2
Proposition 7 Si P (u) = 0 et λ ∈ Sp(u), alors P (λ) = 0.
Preuve : Left to the reader.
Remarque 5 Soit u une projection et P = X(X − 1)(X − 933) : on a P (u) = 0, mais toutes les racines
de P ne sont pas des valeurs propres pour u...
Théorème 2 — Théorème des noyaux
Si P et Q sont deux polynômes premiers entre eux et u ∈ L(E), alors
Ker ((P Q)(u)) = Ker (P (u)) ⊕ Ker (Q(u)) .
De plus, les projecteurs associés à cette décomposition sont des polynômes en u.
Preuve : Tout d’abord, il est clair que Ker (P (u)) et Ker (Q(u)) sont des sous-espaces de Ker ((P Q)(u))
(le vérifier tout de même !). Pour montrer que ces deux sous-espaces sont supplémentaires, on fixe x ∈
Ker ((P Q)(u)), et on cherche à le décomposer sous la forme x = x1 + x2 , avec x1 ∈ Ker (P (u)) et
x2 ∈ Ker (Q(u)).
Le théorème de Bezout nous donne deux polynômes A et B tels que AP + BQ = 1. On évalue ces
polynômes en u pour trouver
(AP )(u) + (BQ)(u) = IdE
(R)
Si x ∈ Ker (P (u)) ∩ Ker (Q(u)), alors x = A(u) ((P (u)) (x)) + B(u) ((Q(u)) (x)) = 0, donc l’intersection
est réduite à {0}. Mais par ailleurs, en posant x1 = ((BQ)(u)) (x) et x2 = ((AP )(u)) (x), on a directement
x = x1 + x2 , avec x1 ∈ Ker (P (u)) et x2 ∈ Ker (Q(u)), nous fournissant la décomposition voulue. Au
passage, la projection sur Ker (P (u)) est (BQ)(u) : c’est bien un polynôme en u.
Exemples 9
Ce théorème s’applique bien entendu dans les cas où P = X 2 − X = X(X − 1), P = X 2 − 1 =
(X − 1)(X + 1). Si on reprend la matrice A de l’exemple 7, on a immédiatement A2 = nA, donc
X 2 − nX = X(X − n) est un polynôme annulateur de A, donc E = Ker (A) ⊕ Ker (A − nIdE ).
7
Remarque 6 Le théorème des noyaux
Ys’étend au produit de k polynômes P1 , ..., Pk premiers entre eux
deux à deux : les polynômes Qi =
Pj sont alors premiers entre eux dans leur ensemble (aucun
j6=i
polynôme ne les divise tous), et on peut Bezouter de la même façon que pour k = 2. Une autre façon de
1
faire (lorsque les Pi sont irréductibles) est de décomposer en éléments simples
puis de multiplier
P1 ...Pk
le résultat de cette décomposition par P1 ...Pk .
Théorème 3 — Théorème des noyaux - cas général
Si P1 , ..., Pk sont k polynômes premiers entre eux deux à deux, et u ∈ L(E), alors
Ker ((P1 ...Pk )(u)) =
k
M
Ker (Pi (u)) .
i=1
De plus, les projecteurs associés à cette décomposition sont des polynômes en u.
Exercice 11 (TPE 2008)
Soit A ∈ Mn (C) telle que A3 − 3A2 + 2A = 0. Montrer que sa trace est dans N.
Exercice 12 (CCP 2010)
Soit E un R-espace vectoriel de dimension finie et u ∈ L(E) tel que u3 + u = 0. Montrer que u est de
rang pair.
2.3
Polynôme minimal
Exercice 13 Soit u ∈ L(E), avec E de dimension finie. En considérant l’application P ∈ Kn2 [X] 7→
P (u), montrer que u possède des polynômes annulateurs non nuls.
Si on s’intéresse à l’ensemble des polynômes annulateurs de u, disons Ann(u), il est aisé de vérifier que
Ann(u) est un sous-espace vectoriel de K[X] et que pour tout (P, Q) ∈ K[X] × Ann(u), P Q ∈ Ann(u).
On est donc en présence d’un idéal. Le cours sur les polynômes nous assure que cet idéal est «principal»,
c’est-à-dire de la forme Q0 K[X].
Définition 6 — Polynôme minimal
Le polynôme minimal de u ∈ L(E) est l’unique polynôme unitaire engendrant Ann(u). Il est
(souvent) noté µu . On définit de la même façon le polynôme minimal d’une matrice.
Exemples 10
– Supposons que λ1 , ..., λn ∈ K sont distincts deux à deux, et notons D = Diag(λ1 , ..., λn ). Si
P ∈ K[X], on a P (D) = Diag (P (λ1 ), ..., P (λn )), donc P (D) = 0 si et seulement si P (λ1 ) = ... =
P (λn ) = 0. Ainsi : µD =(X − λ1 )...(X − λn
).
0
1
(0)


.. ..


.
.

. On calcule facilement N k , puis, en notant P =
– Soit maintenant N = 

.
.. 1 

(0)
0


a0 a1 · · · an−1

.. 
..
..

.
.
. 
, puis : µN = X n .
a0 + a1 X + · · · + an−1 X n−1 + · · · + ad X d : P (N ) = 


..

.
a1 
(0)
a0
Exercice 14 Montrer que λ ∈ Sp(u) si et seulement si λ est racine de µu .
8

933


Exercice 15 Déterminer le polynôme minimal de 


(0)
1
..
.
(0)
..
.
..
.





1 
933
Notons enfin que si B = P −1 AP , alors Q(B) = P −1 Q(A)P , donc A et B ont les mêmes polynômes
annulateurs, donc le même polynôme minimal.
2.4
Polynôme caractéristique
Jusqu’ici, on a seulement deg(µu ) 6 n2 . En fait, on va voir qu’on a un peu mieux... Souvenons-nous
qu’on cherche les λ tels que u − λIdE ne soit pas injective...
Définition 7 — Polynôme caractéristique
Soit u ∈ L(E). L’application λ 7→ det(λIdE − u) est polynomiale. Le polynôme associé (unique
car K = R ou C) est le polynôme caractéristique de u, noté χu .
Remarques 7
– Si on veut s’abstraire 1 de la désagréable condition sur K, on peut directement définir χu :=
det(XIn − A), avec A la matrice représentant u dans une base donnée : ce calcul de déterminant
a lieu dans Mn (K(X)), et le résultat ne dépend pas de la base choisie...
– On 2 choisit parfois de noter χu (λ) = det(u − λIdE ). Le polynôme caractéristique est alors toujours
de degré n, mais de coefficient dominant (−1)n .
– La réponse à la question qui vous brûle les lèvres est : CharacteristicPolynomial(A,X)
Exercice 16 Calculer le polynôme caractéristique d’une matrice diagonale. D’abord sous forme factorisée, puis développée : que vaut le coefficient constant ? Et le coefficient de X n−1 ?
Exercice 17 Montrer qu’en dimension n, le polynôme caractéristique d’un endomorphisme nilpotent
est X n .
Notons dès maintenant que par définition des valeurs propres, on a le résultat suivant :
Fait : Si u ∈ L(E), alors λ ∈ Sp(u) si et seulement si λ est racine du polynôme caractéristique.
Exercice 18 Calculer χu puis χu (u) lorsque u est diagonalisable.
Vous savez quoi ? Ce n’est pas un hasard.
Théorème 4 — Cayley-Hamilton
Soit u ∈ L(E). On a alors χu (u) = 0.
Preuve : Une façon élégante d’opérer est de prouver le résultat dans un cas simple (disons sur C, dans
le cas de n valeurs propres distinctes), puis de généraliser à tous les endomorphismes (toujours sur C,
avec des argument analytiques). Le résultat sur R est alors acquis. On peut même passer à un corps
quelconque (avec cette fois des arguments algébriques un peu plus fins).
Ainsi, le degré du polynôme minimal est en fait majoré par la dimension de l’espace.
Terminons par ce dernier résultat, qui est un peu plus qu’un exercice classique !
Proposition 8 Si E1 est un sous-espace de E stable par u ∈ L(E), alors le polynôme caractéristique
de la restriction de u à E1 divise celui de u.
Preuve : Travailler dans une base adaptée au problème ; on est alors ramené à un déterminant de
matrice «triangulaire par blocs».
Exercice 19 Calculer le polynôme caractéristique de A ∈ Mn (R) telle que Ai,j = 1 pour tout (i, j) ∈
[[1, N ]]2 .
1. et c’est indispensable par sur les corps finis
2. pas moi, mais des tas de gens très respectables
9
3
Alors, diagonalisable ou pas ?
On a déjà vu que certaines matrices n’étaient pas diagonalisables. Il y a essentiellement deux raisons
de nature très différentes :
– les valeurs propres peuvent être «complexes non réelles» (ce qui pose problème lorsqu’on est dans
R : voir les rotations) ;
– les valeurs propres sont bien réelles, mais les sous-espaces propres sont «trop petits» : leur somme
ne remplit pas l’espace : c’est le cas des nilpotents, qui possèdent comme unique valeur propre 0,
mais qui sont «rarement» diagonalisables...
3.1
Une condition nécessaire et suffisante de diagonalisabilité
Théorème 5 — Une condition nécessaire et suffisante de diagonalisabilité
Un endomorphisme est diagonalisable si et seulement s’il possède un polynôme annulateur
scindé à racines simples.
Preuve : Tout d’abord, si u est diagonalisable et de valeurs propres distinctes λ1 , ..., λk , alors le polynôme
(X − λ1 )...(X − λk ) annule effectivement u : se placer sur une base adaptée.
Réciproquement, si u est annulé par (X − α1 )...(X − αp ), le théorème des noyaux nous dit que les
Vi = Ker (u − αi IdE ) sont supplémentaires. Ils suffit d’éliminer les Vi égaux à {0} pour avoir alors une
décomposition de l’espace comme somme directe des sous-espaces propres de u.
Remarque 8 Pour que u soit diagonalisable, il SUFFIT donc que χu soit scindé à racines simples, mais
ce n’est pas nécessaire (donner un contre-exemple).
Exercice 20 Montrer que u est diagonalisable si et seulement si µu est scindé à racines simples.
Exercice 21 (CCP 2009 - PSI) Soit A ∈ Mn (R) telle que A2 = 2A + 8In .
1. La matrice A est-elle inversible ? Diagonalisable ?
2. Trouver les M ∈ Vect (In , A) telles que M 2 = 2M + 8In .
Exercice 22 (CCP 2010 - PC) Soit f ∈ L(R5 ) tel que f 3 + f 2 + f = 0. Déterminer les valeurs
possibles pour la trace de f .
3.2
Multiplicité et dimension des sous-espaces propres
Définition 8 — Multiplicité d’une valeur propre
Si λ ∈ K est valeur propre de u ∈ L(E), son ordre de multiplicité est sa multiplicité comme
racine de χu .


1 0 0
Exemples 11
– La matrice 2 1 0 a pour valeurs propres 1 et 5, d’ordres de multiplicité respectifs 2 et 1.
3 4 5
– Si, en dimension n, un endomorphisme possède n valeurs propres distinctes, alors elles sont forcément de multiplicité 1.
– Si un endomorphisme est diagonalisable, la multiplicité d’une valeur propre est la dimension du
sous-espace propre associé.
– «À l’opposé», pour un nilpotent, l’ordre de multiplicité de l’unique valeur propre 0 vaut n, alors
que la dimension du sous-espace propre associé (i.e. : le noyau du nilpotent) peut être très petite.
Ils ne sont pas forcément égaux, mais il y a tout de même un lien entre l’ordre de multiplicité d’une
racine, et la dimension du sous-espace propre associé :
Proposition 9 La dimension du sous-espace propre associé à une valeur propre est majorée par l’ordre
de multiplicité de cette valeur propre.
Preuve : Considérer la restriction de l’endomorphisme au sous-espace propre (qui est stable) : son
polynôme caractéristique divise celui de l’endomorphisme global...
10
On a même un peu mieux :
Proposition 10 Un endomorphisme est diagonalisable si et seulement si son polynôme caractéristique
est scindé et que chaque sous-espace propre a pour dimension l’ordre de multiplicité de la valeur propre
associée.
Preuve : Le «sens direct» est clair. Pour la réciproque, on suppose χu =
k
Y
α
(X − λi ) i . Les Eλi sont
i=1
alors en somme directe, et la somme de leurs dimensions vaut
k
X
αi = deg(χu ) = n : c’est gagné.
i=1

1 1
Exercice 23 (CCP 2007, 2008) Soit A = 0 2
0 0
1. Quel est le rang de A ? A est-elle inversible ?

a
0.
a
2. La matrice A est-elle diagonalisable ?
3.3
Trigonalisation
Exercice 24 Soient E un espace de dimension 4, u ∈ L(E), E = (e1 , e2 , e3 , e4 ) une base de E, et
F = (e4 , e3 , e2 , e1 ). Comparer Mat(u) et Mat(u).
E
F
Définition 9 — Endomorphismes/matrices trigonalisables
Un endomorphisme est dit trigonalisable lorsqu’il existe une base de l’espace dans lequel
sa matrice est triangulaire. Une matrice est trigonalisable si elle est semblable à une matrice
triangulaire.
Remarque 9 Pour être trigonalisable, il est donc nécessaire
d’avoir son polynôme caractéristique
0 −1
scindé, ce qui exclut par exemple une matrice telle que
1 0
Théorème 6 — Une CNS pour être trigonalisable
Un endomorphisme est trigonalisable si et seulement s’il possède un polynôme annulateur
scindé.
Preuve : Le «sens direct» ne pose guère de problème grâce à Cayley-Hamilton. Pour la réciproque,
k
Y
α
on suppose que P =
(X − λi )i annule u. Le théorème des noyaux nous assure que E est la somme
i=1
directe des Fi = Ker (u − λi IdE )αi («sous-espaces caractéristiques»). On va travailler sur chacun des ces
sous-espaces, et ensuite il suffira de recoller les bases.
Fixons donc i. Le sous-espace Fi est stable par u (pourquoi ?) ; notons alors ui = u|Fi . On a ui −λi IdFi
nilpotent, donc il existe une base de Fi dans laquelle la matrice de ui − λi IdFi est triangulaire supérieure.
C’est donc également le cas pour ui . En recollant ces k bases de sous-espaces supplémentaires, on récupère
une base de l’espace dans laquelle la matrice de u est triangulaire supérieure («diagonale par blocs»).
Remarques 10
– Dans Mn (C), toute matrice est donc trigonalisable.
– Finalement, un endomorphisme est trigonalisable si et seulement si son polynôme caractéristique
est scindé. C’est clair ?
– Une étude fine des nilpotents permet d’affiner nettement les choses. On obtient alors une forme
réduite portant beaucoup d’information : c’est la réduction de Jordan.
11
4
Applications diverses
4.1
Suites récurrentes linéaires
un+1 = 3un
n’est guère compliqué. Ça se gâte pour un système à dépendances
v
= −5vn
n+1
un+1 = 17un + 60vn
mutuelles tel que
....
vn+1 = −5un − 18vn
On traduit donc ce système en l’équation matricielle Xn+1 = AXn . Si A est diagonale, c’est gagné.
Sinon, on essaie de réduire A sous la forme A = P.D.P −1 avec D diagonale. On a alors en posant
Yn = P −1 Xn :
Yn+1 = P −1 Xn+1 = P −1 .AXn = P −1 .P DP −1 Xn = DYn ,
Résoudre 3
d’où le calcul simple de Yn puis de Xn = P Yn .
On aura noté qu’il n’est pas utile de calculer P −1 ...
17
60
−4 −3
−1
Exemple 12 Dans le cas vu plus haut, A =
= P.D.P , avec P =
et D =
−5 −18
1
1
2 0
xn
xn+1 = 2xn
. En posant Yn = P −1 Xn =
, on obtient donc
, d’où xn = 2n x0 et
0 −3
yn
yn+1 = −3yn
yn = (−3)n y0 . Il reste à écrire Xn = P Yn pour obtenir l’existence de constantes 4 K1 et K2 telles que
un = −4K1 2n − 3K2 (−3)n
∀n ∈ N,
vn =
K1 2n + K2 (−3)n
Exercice 25 Comment l’auteur de ce poly a-t-il engendré cette matrice A pourrie, mais finalement pas
tant que ça ?
Exercice 26 Trouver les suites (u, v, w) vérifiant

 un+1 =
vn+1 =
∀n ∈ N,

wn+1 =

 u0 = 1
avec les conditions initiales v0 = −1

w0 = 2
les relations de récurrence mutuelle
−3un
−2un
−un
− 4vn
− 5vn
− 4vn
+
+
+
10wn
10wn
8wn

1
λ
0
λ
Notons que si D n’est pas diagonale mais par exemple de la forme  0
0
de An (donc de Xn = An X0 ) se fait bien également.

0
0 , le calcul de Dn donc
µ
Exercice 27 Trouver les suites (u, v) vérifiant les relations de récurrence mutuelle
un+1 = 3un + 2vn
∀n ∈ N,
vn+1 = −2un − vn
Remarques 11
– Je ne suis pas fan de cette méthode de diagonalisation pour calculer finalement An (c’est le moins
qu’on puisse dire...) : en pratique, le calcul de An en réalisant 5 la division euclidienne de X n par
un polynôme annulateur est presque toujours plus efficace 6 . M’enfin...
– On peut ramener l’étude des récurrences linéaires d’ordre p pour UNE suite d’éléments de K à
p
celle d’une
récurrence
linéaire
d’ordre 1, dans K . Par exemple pour fn+2 = fn + fn+1 , on pose
fn
0 1
Xn =
et A =
, de sorte que Xn+1 = AXn , etc...
fn+1
1 1
3.
4.
5.
6.
au sens : «trouver LES suites u et v telle que la relation de récurrence soit vérifiée pour tout n ∈ N»
Les exprimer à l’aide de u0 et v0 n’a que peu d’intérêt
seul le reste nous intéresse
le gain par rapport à la première année est l’obtention rapide et mécanique d’un polynôme annulateur
12
4.2
Systèmes différentiels linéaires
Même principe que dans la section précédente : il s’agit de résoudre des systèmes différentiels linéaires
de la forme :
0
x (t) = ax(t) + by(t)
y 0 (t) = cx(t) + dy(t)
où x et y sont deux fonctions de classe C 1 que l’on recherche. Si b = c = 0 (système diagonal), ce n’est
guère compliqué...
x
Dans le cas général, on pose X =
, de sorte que le système différentiel s’écrit X 0 = AX. On
y
x1
tente de diagonaliser A sous la forme A = P.D.P −1 . On pose alors X1 = P −1 X =
, de sorte que
y1
X10 = DX1 , ce qui nous donne X1 puis X = P X1 . Il est à nouveau inutile de calculer P −1 , et on peut
noter que tout ceci se passe par équivalence : on a bien trouvé exactement les solutions au problème
initial.
0
x = 17x + 60y
x
Exemple 13 Résolvons le système différentiel
en posant X =
, A =
y 0 = −5x − 18y
y
17
60
−4 −3
2 0
= P.D.P −1 , avec P =
et D =
(ça n’a pas changé...). Le sys−5 −18
1
1
0 −3
x1
tème X 0 = AX devient, en posant X1 = P −1 X =
: X10 = DX1 , c’est-à-dire x1 (t) = x1 (0)e2t et
y1
y1 (t) = y1 (0)e−3t , puis grâce à la relation X = P X1 :
0
x = 17x + 60y
x(t) = −4K1 e2t − 3K2 e−3t
⇐⇒
∃K1 , K2 ∈ R; ∀t ∈ R,
0
y = −5x − 18y
y(t) =
K1 e2t + K2 e−3t
Exercice 28 (Centrale 2008 - extrait)
1. La matrice B =
2. Résoudre
1
1
4
est-elle diagonalisable ?
1
x0 = x + 4y
y0 = x + y
Si A n’est pas diagonalisable, ce n’est pas perdu pour autant !
3
Exercice 29 (CCP 2008) Soit A =
−2
1. La matrice A est-elle diagonalisable ?
2
.
−1
2. Trigonaliser A.
3. Résoudre le système
4.3
x0 (t)
y 0 (t)
= 3x(t) + 2y(t)
= −2x(t) − y(t)
Exponentielle d’endomorphismes et de matrices
Tout d’abord, Mn (K) peut être muni de normes en faisant une algèbre normée 7 . Ces normes sont
toutes équivalentes (dimension finie). De même, on a différents moyens de définir des normes d’algèbre
sur L(E), lorsque E est lui-même un espace vectoriel normé de dimension finie, et toutes ces normes
seront équivalentes.
Exercice 30 Donner deux normes d’algèbre différentes sur L(Rn ).
7. Rappel : il s’agit essentiellement de vérifier : kABk 6 kAk . kBk
13
Définition 10 — Exponentielle d’un endomorphisme et d’une matrice (rappel)
Soient u ∈ L(E). L’endomorphisme eu est la somme de la série absolument convergente
De même, si A ∈ Mn (K), la matrice eA est la somme de la série convergente
+∞ n
X
u
·
n!
n=0
+∞
X
An
·
n!
n=0
Remarque 12 Bien entendu, si U = Mat(u), alors Mat (eu ) = eU ... Le vérifier tout de même !
E
E
Exercice 31 Calculer l’exponentielle d’une matrice diagonale. Que vaut son déterminant ? Énoncer et
prouver une formule de ce type pour toute exponentielle de matrice.
Exercice 32 Calculer l’exponentielle de
17
−5
60
(encore elle...)
−18
Le résultat qui suit nous dit que eu est certes une série en u... mais aussi un polynôme !
Proposition 11 Si u ∈ K[X], alors il existe P ∈ K[X] tel que eu = P (u).
Preuve : En termes snobs, on peut dire que K[u] est fermé, et c’est fini... Plus élémentairement (mais
N
X
un
c’est fondamentalement la même chose !), notons vN =
, K[u] l’ensemble des polynômes en u, F un
n!
i=0
supplémentaire de K[u] dans L(E), et enfin p la projection sur F dans la décomposition L(E) = K[u]⊕F .
On a p(vN ) = 0 pour tout N ∈ N et vN −→ eu , donc la continuité de p (assurée par sa linéarité) nous
N →+∞
donne : p(eu ) = 0, c’est-à-dire : eu ∈ K[u].
En exercice, le lecteur pourra traiter à la main le cas où l’endomorphisme est diagonalisable, à l’aide
de polynômes d’interpolation.
Exercice 33 Calculer l’exponentielle de
−3
0
1
3
puis celle de
−3
−2
2
.
−1
Remarque 13 Vous aimeriez un énoncé qui vous dise que pour résoudre X 0 = AX, on peut faire comme
pour x0 = ax (équations différentielles de terminale) ? Attendez quelques mois, ou bien créez votre propre
énoncé : le seul qui a un sens et est raisonnable... est correct !
4.4
Commutant
On sait déjà que si u◦v = v◦u, alors les sous-espaces propres de u sont stables par v (et vice-versa bien
entendu). Pour trouver toutes les matrices B commutant avec A donnée, on raisonne géométriquement
en notant u et v les endomorphismes canoniquement associés à A et B. On va supposer ici que A a le
bon goût d’être diagonalisable.
– Analyse : si AB = BA alors u ◦ v = v ◦ u, donc les sous-espaces propres de u sont stables par v.
– Synthèse : réciproquement, si les sous-espaces propres de u sont stables par v, alors sur chacun de
ces sous-espaces propres, les restrictions de u ◦ v et de v ◦ u sont égales. Or ces sous-espaces sont
supplémentaires, donc u ◦ v = v ◦ u globalement.
17
60
Exemple 14 On cherche les matrices commutant avec notre nouvelle amie A =
. On note
−5 −18
u l’endomorphisme canoniquement associé à A, et v canoniquement associée à B : AB = BA si et
seulement si u ◦ v = v ◦ u. Une condition nécessaire est que les sous-espaces propres de u soient stables
par v, ce qui impose Mat(v) diagonale. Réciproquement, cette dernière condition nous assurera que effecF
tivement u ◦ v = v◦ u. Les matrices recherchées sont donc celles de la forme P D1 P −1 , avec D1 diagonale
−4 −3
et P =
.
1
1
14
On aurait pu raisonner directement matriciellement :
AB = BA ⇐⇒ P −1 ABP = P −1 BAP ⇐⇒ P −1 AP.P −1 BP = P −1 BP.P −1 AP ⇐⇒ D.P −1 BP = P −1 BP.D,
2 0
Donc B commute avec A si et seulement si B 0 = P −1 BP commute avec D =
, ce qui est
0 −3
équivalent par un calcul très simple à : B 0 diagonale. On retrouve bien le résultat précédent.


−3 −4 10
Exercice 34 Déterminer l’ensemble des matrices commutant avec −2 −5 10.
−1 −4 8
Remarque 14 Si A n’est pas diagonalisable,on décompose en général l’espace en somme directe de sousk
espaces stables par u : typiquement, les Ker (u − λIdE ) , avec k l’ordre de multiplicité de λ ∈ Sp(u).
Ces sous-espaces sont stables par v. Comme à l’intérieur de ces sous-espaces, les sous-espaces propres de
u sont également stables, ça réduit furieusement les possibilités pour v. On fait alors la synthèse.
3
2
Exercice 35 Déterminer l’ensemble des matrices commutant avec
−2 −1
4.5
Équations polynomiales
Exercice 36 (CCP 2010) Soit M ∈ Mn (C) diagonalisable. Existe-t-il A ∈ Mn (C) tel que A2 = M ?
Même chose dans Mn (R)...
Une remarque toute bête mais essentielle : si v = P (u), alors u ◦ v = v ◦ u, et donc les sous-espaces
propres de v sont stables par u. Pour résoudre une équation d’inconnue u ∈ L(E) de la forme P (u) = v
(à v ∈ L(E) fixée), on réalise systématiquement une analyse-synthèse. Imaginons par exemple que v
est diagonalisable, avec des sous-espaces propres de dimension 1, et F = (f1 , ..., fn ) est une base de
diagonalisation de v.
– Analyse : si u vérifie effectivement P (u) = v, alors les sous-espaces propres de v sont stables par
u, donc ici, Mat(u) = Diag(α1 , ..., αn ). Si par ailleurs Mat(v) = Diag(β1 , ..., βn ), alors P (u) = v si
F
F
et seulement si P (αi ) = βi pour tout i ∈ [[1, n]].
– Synthèse : réciproquement, si Mat(u) = Diag(α1 , ..., αn ) (avec les conditions polynomiales remplies
F
entre les αi et βi ), alors on a immédiatement P (u) = v.
Pour les matrices, il est en général conseillé de travailler géométriquement : il faut commencer par
introduire le matériel géométrique (espace, applications linéaires...)
Exemple 15 Pour l’exercice précédent : on note u et v les applications linéaires canoniquement associées
à M et A. Il existe une base de Kn dans laquelle Mat(u) = Diag(λ1 , ..., λn ).
F
– si K = C, il existe µ1 , ..., µn tels que pour tout k ∈ [[1, n]], µ2k = λk . On prend alors v telle que
Mat(v) = Diag(µ1 , ..., µn ) : v 2 = u, donc en observant cette relation depuis la base canonique de
F
Kn , on trouve bien A2 = B.
– si K = R et que chacun des λi est positif, le raisonnement précédent s’applique.
– si K = R et que l’un au moins des λi est strictement négatif : pour avoir u2 = v, Mat(u) doit
F
être diagonale et son carré doit être égal à Diag(λ1 , ..., λn ) : c’est impossible à cause du λi < 0 :
l’équation A2 = B n’a donc pas de solution.
Notons qu’ici dans le cas favorable (complexe) on pouvait facilement raisonner sans géométrie : «on
a M = P DP −1 , et il suffit alors de prendre A = P D0 P −1 ». Mais dans le cas défavorable, il semble
difficile de prouver la non-existence de A autrement que par une analyse nous fournissant des conditions
nécessaires impossibles à tenir ; et ce sont essentiellement des arguments géométriques («tel sous-espace
est stable par telle application») qui nous ont donné des conditions nécessaires : point de calculs sordides !


−3 −4 10
Exercice 37 Résoudre dans M2 (C) puis dans M2 (R) : B 2 = −2 −5 10.
−1 −4 8
15
Si les sous-espaces propres ne sont pas des droites, ça complique la situation puisqu’on est amené à
résoudre des équations de la forme P (u) = λIdE , qui peuvent être en général plus compliquées. On peut
tout de même utiliser sur chacun de ces sous-espaces propres le théorème des noyaux pour u. Enfin, si v
n’est pas diagonalisable, tout n’est pas perdu !
Exercice 38 (X 2010 - PC) Soit n > 2. Déterminer les A ∈ M2 (C) telles que An =
4.6
1
0
1
1
Sous-espaces stables
Les droites stables par un endomorphisme sont les droites dirigées par des vecteurs propres. Pour un
sous-espace quelconque, ; la question est délicate, mais il y a tout de même un deuxième cas qui se traite
de façon relativement élémentaire : ce sont les hyperplans. «Le» bon point de vue pour attaquer cette
question est la transposition (d’application linéaire, pas de matrice !) mais est hors programme. On peut
tout de même s’en sortir à moindre frais par orthogonalité.
Sur Rn , on rappelle que pour le produit scalaire canonique, en faisant l’analogie vecteur/matricecolonne : <X|Y >= t XY . On rappelle également qu’un sous-espace est un hyperplan si et seulement s’il
est de la forme X0⊥ , avec X0 6= 0.
Proposition 12 Soient A ∈ Mn (R) et u ∈ L(Kn ) canoniquement associée à A. Un hyperplan est stable
par u si et seulement s’il est de la forme X0⊥ , avec X0 un vecteur propre de tA.
Preuve :
– Supposons que H = X0⊥ , avec X0 6= 0 vérifiant tAX0 = λX0 . Soit Y ∈ H. On veut montrer que
AY ∈ H, c’est-à-dire AY ⊥ X0 . Or :
<AY |X0>= tY tAX0 = λtY X0 = λ <Y |X0>= 0,
donc AY ⊥ X0 , et H est bien stable par A.
– Supposons maintenant que H est stable par A. Son orthogonal est une droite, disons RX0 , et H
est égal à l’orthogonal de son orthogonal : H = X0⊥ . On veut montrer que X0 est vecteur propre
de tA, ce qui revient à montrer que t AX0 est colinéaire à X0 , soit encore : t AX0 est orthogonal à
l’orthogonal de X0 . On fixe pour cela Y ∈ X0⊥ : <tAX0 |Y >= t X0 AY =<X0 |AY >. Or Y ∈ H qui
est stable par A, donc AY ∈ H = X0⊥ , donc <X0 |AY >. Ainsi, t AX0 est orthogonal à tout élément
⊥
de X0⊥ , donc est dans X0⊥ , c’est-à-dire RX0 : c’est gagné.
Remarque 15 Si on n’est pas sur Rn , on s’en sort en choisissant le produit scalaire pour lequel la base
de travail est orthonormée. Mais en fait si cela se produit à un oral de concours, c’est probablement
parce que l’interrogateur pense que la transposition est au programme. S’il a prononcé ce mot, il n’est
plus dans les clous, et on avise alors en fonction du résultat de l’oral !
Exemple 16 (TPE
2008 )Déterminer les sous-espaces de R3 stables par l’application canoniquement

3 1 −1
associée à A = 1 1 1 .
2 0 2
L’unique valeur propre de A est 2, et le sous-espace propre associé est une droite, donc il y a une seule
droite stable par u. Un plan sera stable si et seulement s’il est l’orthogonal d’un vecteur propre de t A.
Mais t A a les mêmes valeurs propres que A et de plus les dimensions des sous-espaces propres sont les
même (le rang de t A − λI3 est le même que A − I3 ), donc il y a un seul plan stable par u.
Pour être plus précis : 

 
1 1 −1
0
– la matrice A − 2I3 = 1 −1 1  est bien de rang 2 et possède X1 = 1 dans son noyau,
2 0
0
1
donc la droite stable par A/u est Vect(X1 ) ;
16


 
1
1 2
1
– pour le plan, A − 2I3 =  1 −1 0 est comme attendu de rang 2 et possède X2 =  1  dans
−1 1 0
−1
son noyau, donc le plan stable est X2⊥ , c’est-à-dire le plan d’équation x + y − z = 0.
N’oublions pas les sous-espaces triviaux (R3 et {0}) qui sont bien entendu stables par u.
Signalons
point de vue alternatif utilisant la trigonalisation. Dans une base adaptée, on a
 ici un 
2 1 0
Mat(u) = 0 2 1 : le plan P = Vect (f1 , f2 ) est stable par u, et si un vecteur x n’est pas dans P ,
F
0 0 2
alors la famille x, u(x), u2 (x) est de rang 3 (calcul du rang de la matrice les représentant dans F) donc
aucun plan ne contenant x ne peut être stable. Ceci prouve que Vect (f1 , f2 ) est l’unique plan stable par
u.


2 1 0
Exercice 39 (X 2010 - PC) Soient M = 0 2 0 et u ∈ L(R3 ) canoniquement associée à M .
0 0 1
Déterminer les sous-espaces stables par u.
5
Résultats supplémentaires
5.1
Coréduction
Définition 11 — Cobidulisation
Deux endomorphismes sont dits codiagonalisables (respectivement cotrigonalisables) lorsqu’il existe une base de l’espace dans laquelle la matrice de l’un et de l’autre est diagonale
(respectivement triangulaire supérieure).
Les deux outils pour aborder ces questions sont essentiellement, comme souvent : le théorème des
noyaux, et le fait que deux endomorphismes qui commutent stabilisent leurs espaces propres mutuels.
Exercice 40 Soient p et q sont deux projections qui commutent. Montrer qu’il existe une base dans
laquelle les matrices de l’un et de l’autre sont diagonales.
Théorème 7 — Codiagonalisation
Si deux endomorphismes commutent et sont diagonalisables, alors ils sont codiagonalisables.
Preuve : Succinctement : on suppose u ◦ v = v ◦ u. On décompose l’espace comme somme des sousespaces propres Vi de E. Ces sous-espaces sont stables par v, et le polynôme scindé à racines simples
annulant v... annule aussi la restriction vi = v|Vi . Cette dernière est donc diagonalisable. Il n’y a plus
qu’à recoller les bases de diagonalisation des vi pour obtenir une base de E (les Vi sont supplémentaires)
dans laquelle les matrices de u et de v sont par construction diagonales.
Signalons pour la forme un dernier résultat, encore plus hors programme que le précédent !
Théorème 8 — Cotrigonalisation
Si u, v ∈ L(E), avec E un C-espace vectoriel, vérifient u ◦ v = v ◦ u, alors u et v sont cotrigonalisables.
Preuve : (Succinctement) On prouve le résultat par récurrence sur la dimension de l’espace. On se
ramène grâce aux outils usuels au cas où u est nilpotent. On prend une base de E commençant par une
base de Ker (u). Puisque Ker (u)est stable
par v, lesmatricesde u et v dans ces bases sont respectivement
(0) A
C D
de la forme (par blocs) : Mu =
et Mv =
. Le polynôme scindé qui annulait v annule
(0) B
(0) E
également C et E, donc on peut déjà faire un changement de base dans le «premier» sous-espace pour
ramener C à une matrice triangulaire supérieure. Ensuite, on a BE = EB avec E et B cotrigonalisables
(même argument du polynôme annulateur scindé, pour B), donc «par hypothèse de récurrence», on peut
changer la de base dans le deuxième sous-espace pour amener E et B en situation triangulaire supérieure.
Attention, E et B ne représentent pas des matrices de restriction...
17
5.2
Aspects topologiques
Pour chaque résultat, on donne «le» bon énoncé, quitte à le reformuler en termes de limites dans la
preuve
Proposition 13 GLn (K) est ouvert dans Mn (K).
Preuve : Ou encore : «le complémentaire est fermé», c’est-à-dire «stable par passage à la limite».
Pour prouver cela, il suffit de dire que GLn (K) est l’image réciproque de l’ouvert K∗ par l’application continue «det» ! Plus élémentairement, on prend (Mn )n∈N une suite de matrices non inversibles
convergeant vers M . On a det(Mn ) = 0, et «det» est une application continue de Mn (K) dans K, donc
det(Mn ) −→ det(M ), donc det(M ) = 0, et Mn (K) \ GLn (K) est bien stable par passage à la limite.
n→+∞
On peut également partir du fait que pour kAk < 1, on a In + A inversible, d’inverse ce qu’on sait,
1
, B + C = B In + B −1 C est inversible.
et en déduire que pour B inversible et kCk <
kB −1 k
Proposition 14 GLn (K) est dense dans Mn (K).
Preuve : Si A ∈ Mn (K), l’application λ 7→ det(A + λIn ) est polynomiale, donc a un ensemble fini de
1
racines, donc A + In est inversible pour p assez grand, et tend vers A lorsque p tend vers +∞.
p
Proposition 15 Dans Mn (C), les matrices diagonalisables à spectre simple (n valeurs propres distinctes) sont denses.
Preuve : Soit A ∈ Mn (C). On va montrer qu’il existe une suite de matrices diagonalisables à spectre
simple convergeant vers A. Déjà, A est trigonalisable, donc il existe P ∈ GLn (C) telle que T =
P −1 AP soit triangulaire, disons avec comme coefficients (λ1 , ..., λn ) sur la diagonale. Notons alors
DN = Diag(1, 2, ..., n)/N : pour N assez grand, T + DN a ses n éléments diagonaux distincts (en
j
i
= λj +
est équivalente à N (λi − λj ) = j − i ne peut être vérifiée, pour i 6= j,
effet, la condition λi +
N
N
que pour un nombre fini de valeurs de N ). Ainsi, pour N assez grand, T + DN est à spectre simple, donc
P (T + DN )P −1 également. Il reste à noter que P (T + DN )P −1 = A + P DN P −1 −→ A.
N →+∞
On a déjà vu une application simple mais de bon goût : la démonstration du théorème de CayleyHamilton.
Exercice 41 Montrer que le résultat précédent est faux dans Mn (R).
Exercice 42 Montrer que les matrices diagonalisables à spectre simple constituent un ouvert de Mn (K).
18
Téléchargement