Réduction des endomorphismes... et des matrices

publicité
Psi 945 2016/2017
Cours
http://blog.psi945.fr
Réduction des endomorphismes
... et des matrices
Mathematics is the part of physics where experiments are cheap. V.I. Arnold
Table des matières
1 Préliminaires
1.1 Retour sur les projections et symétries
1.2 Objectifs . . . . . . . . . . . . . . . . .
1.3 Premiers résultats . . . . . . . . . . .
1.4 Polynômes d'endomorphismes . . . . .
1.5 Réduction de matrices . . . . . . .
.
.
.
.
.
2
2
2
3
4
4
2 Réduction à la main
2.1 Spectre évident . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Petit rang, gros noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Résolution directe de u(x) = λx . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
6
6
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Alors, diagonalisable ou pas ?
3.1 Polynôme caractéristique . . . . . . . . . . . . . .
3.2 Une condition nécessaire simple . . . . . . . . . . .
3.3 Une condition susante simple . . . . . . . . . . .
3.4 Deux CNS portant sur les dimensions . . . . . . .
3.5 Deux CNS portant sur des polynômes annulateurs
3.6 Trigonalisation . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
8
9
10
10
10
11
4 Applications diverses
4.1 Suites récurrentes linéaires . . . . . . . . . . . . . . . . . . . . . . .
4.2 Systèmes diérentiels linéaires . . . . . . . . . . . . . . . . . . . . .
4.3 Exponentielle d'endomorphismes et de matrices (hors-programme)
4.4 Commutant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5 Équations polynomiales . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12
12
13
14
14
15
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Résultats supplémentaires
16
5.1 Coréduction (H.P.) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.2 Aspects topologiques (à relire plus tard !) . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Figure
1 Valeurs propres mal calculées... pont écroulé.
1
Dans tout ce chapitre, K vaut R ou C.
1
Préliminaires
1.1 Retour sur les projections et symétries
Quelques rappels :
Si E1 ⊕ E2 = E , alors la projection u sur E1 parallèlement à E2 est un endomorphisme de E qui
vérie u ◦ u = u, avec de plus Ker (u − IdE ) = E1 , et Ker (u) = E2 .
Réciproquement, si v ∈ L(E) vérie v ◦ v = v , alors F1 := Ker (v − IdE ) et F2 := Ker (v) sont
supplémentaires, et v est la projection sur F1 parallèlement à F2 .
Une traduction matricielle du fait que Ker (v− IdE ) et Ker (v) soient supplémentaires est : si on concatène
des bases de ces deux sous-espaces,
on trouve une base
 de l'espace ambiant, dans laquelle la matrice de

1




v est Diag(1, ..., 1, 0, ..., 0) = 




..
.
(0)
1
0
(0)
..
.
 


  Ir
 = · · ·
 


0

0
..
.
·
..
.

0
· · ·
 (écriture par blocs).
0
Une autre famille d'applications vérie ce type de propriétés :
Si E1 ⊕ E2 = E , alors la symétrie u par rapport à E1 parallèlement à (dans la direction) E2 est
un endomorphisme de E qui vérie u ◦ u = IdE , avec Ker (u − IdE ) = E1 , et Ker (u + IdE ) = E2 .
Réciproquement, si v ∈ L(E) vérie v ◦ v = IdE , alors F1 := Ker (v − IdE ) et F2 := Ker (v + IdE )
sont supplémentaires, et v est la symétrie par rapport à F1 parallèlement à F2 .
Une traduction matricielle du fait que Ker (v − IdE ) et Ker (v + IdE ) soient supplémentaires est : si on
concatène des bases de ces deux sous-espaces,
 on trouve unebase de l'espace ambiant, dans laquelle la
..
0 
 Ip .
·
·
·
·
·
·· 
matrice de v est Diag(1, ..., 1, −1, ..., −1) = 

.
..
0 . −In−p
Exercice 1. Soit u ∈ L(E) vériant u2 −(a+b)u+ab IdE = 0. Montrer que les sous-espaces Ker (u−aIdE )
et Ker (u − bIdE ) sont supplémentaires. Donner la matrice de u dans une base adaptée.
Exercice 2. Soient E = R2 et u la rotation d'angle π/2. Faire un dessin, donner la matrice de u dans
la base canonique de E , et montrer qu'il n'existe pas de base dans laquelle la matrice de u soit diagonale.
1.2 Objectifs
Diagonaliser un endomorphisme consiste, quand c'est possible, à trouver une base dans laquelle sa
matrice est diagonale.
Définition 1 Diagonalisabilité
En dimension nie, un endomorphisme de E est dit diagonalisable lorsqu'il existe une base
de E dans laquelle sa matrice est diagonale.
Remarque : Cela est équivalent au fait qu'il existe des sous-espaces V1 , ..., Vk tels que E = V1 ⊕ · · · ⊕ Vk , avec u|Vi qui
est une homothétie x 7→ λi x pour tout i ∈ [[1, k]]. On a alors u =
k
X
λi pi , avec pi la projection sur Vi selon la décomposition
i=1
précédente. C'est d'ailleurs ainsi qu'on dénit la diagonalisabilité en dimension innie.
Valeurs, vecteurs et sous-espaces propres
Si u ∈ L(E), on appelle valeur propre de u tout scalaire λ ∈ C tel que u − λIdE n'est pas
injective. Les vecteurs propres associés à la valeur propre λ sont alors les vecteurs x ∈ E non
nuls tels que u(x) = λx. Le sous-espace propre associé à la valeur propre λ est Ker (u−λIdE ).
On note souvent ce sous-espace Eλ (u), ou Eλ si cela ne prête pas à confusion.
Le spectre de u, noté Sp(u), est l'ensemble de ses valeurs propres.
Définition 2
2
Remarques :
−
→
Ainsi, 0 est dans tous les sous-espace propres... mais n'est pas vecteur propre. C'est ainsi ; inutile de grogner.
Supposons : Mat(u, E) = Diag(λ1 , ..., λn ). Les λi sont alors clairement des valeurs propres. Mais réciproquement,
si λ est une valeur propre, alors u − λIdE est non injective, donc Mat(u − λIdE , E) = Diag(λ1 − λ, ..., λn − λ) est
non inversible, donc λ est l'une des valeurs diagonales λi .
Trouver le spectre d'une matrice diagonale ne donnera donc jamais lieu à de sordides calculs. BIEN
ENTENDU...
Exemples : Une projection (respectivement une symétrie) non triviale est diagonalisable. Ses valeurs
propres sont 1 et 0 (respectivement 1 et −1). Avec une grande nesse dans le choix d'une base, on doit
également pouvoir prouver que les homothéties x 7→ λx sont diagonalisables.
Remarque : Il est souvent préférable d' avoir des λi distincts . Plutôt que Diag(λ1 , ..., λn ), on préfère donc réordonner

µ1 In1
la base, pour se ramener à une matrice écrite par blocs sous la forme 

0
les µi distincts deux à deux.
0
..


, avec n1 + · · · + nk = n et
.
µk Ink
Exercice 3. Soit u un endomorphisme nilpotent. Quelles sont ses valeurs propres ? Est-il diagonalisable ?
1.3 Premiers résultats
Exercice 4. Montrer que si λ1 et λ2 sont deux valeurs propres distinctes, alors Eλ1 et Eλ2 sont en
somme directe.
Exercice 5. Montrer que si λ1 , λ2 et λ3 sont trois valeurs propres distinctes, alors Eλ1 , Eλ2 et Eλ3
sont en somme directe.
Et sans surprise...
Sous-espaces propres en somme directe
Si λ1 , ..., λk sont des valeurs propres distinctes pour un endomorphisme, alors les sous-espaces
propres associés sont en somme directe.
Théorème 1
Preuve : Par récurrence, ou à la Vandermonde.
Exercice 6. Montrer que toute famille de vecteurs propres associés à des valeurs propres distinctes d'un
endomorphisme donné... est libre.
La somme est directe, certes, mais... vaut-elle l'espace ambiant ?
Diagonalisabilité et sous-espaces propres
Pour u ∈ L(E), il y a équivalence entre :
u est diagonalisable ;
la somme des sous-espaces propres vaut E .
B ref :
M
u est diagonalisable ⇐⇒ E =
Ker (u − λIdE )
Proposition 1
λ∈Sp(u)
Preuve : Aussi élémentaire qu'essentielle...
Calculer l'ensemble des endomorphismes commutant avec u ∈ L(E) xé est une activité classique, qui
utilise à haute dose le résultat suivant :
Proposition 2 Endomorphismes qui commutent et sous-espaces propres
Si u, v ∈ L(E) vérient u ◦ v = v ◦ u, alors les sous-espaces propres de u sont stables par v .
Preuve : Syntaxique ; left to the reader.
3
1.4 Polynômes d'endomorphismes
On a vu avec les projections et symétries qu'une information polynomiale sur u permettait de
reconstruire des résultats géométriques. Il s'agit de poser le formalisme pour cela.
Définition 3
Polynômes d'endomorphisme
Soient u ∈ L(E) et P = a0 + a1 X + · · · + ak X k ∈ K[X]. On dénit alors :
P (u) := a0 IdE + a1 u + · · · + ak uk ,
avec ui = u
| ◦ u ◦{z· · · ◦ u}.
i fois
Tout se passe alors au mieux... comme le fait suivant le résume de façon snob :
Fait : Soit u ∈ L(E). L'application P 7→ P (u) réalise un morphisme d'algèbre de (K[X], +, ., ×) vers
(L(E), +, ., ◦).
Preuve : C'est à nouveau essentiellement syntaxique ; left to the reader.
Concrètement, cela donne un cadre légal à toute manipulation raisonnable... qu'on faisait d'ailleurs
avant sans état d'âme. 
C'est bienentendu la même chose avec les matrices.
0
Exemple :
1
1
Soit A = 1 0 1. On constate que A2 − A − 2I3 = 0. Posant P = X 2 − X − 2 =
1 1 0
(X − 2)(X + 1), on eectue ensuite la division euclidienne X n = Qn P + αn X + βn , avec 2n = 2αn + βn
2n + 2(−1)n
2n − (−1)n
et βn =
, puis en évaluant en A :
et (−1)n = −αn + βn , donc αn =
3
3
An =
2n − (−1)n
2n + 2(−1)n
A+
I3 .
3
3
Remarque : Le seul point auquel il faut faire attention est l'homogénéité de ce qu'on écrit : bien écrire α0 In , et non α0
P
quand on évalue αk X k en une matrice.
Diverses propriétés (faciles à vérier) sont à connaître, et à savoir prouver les yeux fermés.
Proposition 3
Des sous-espaces stables par u
Si u ∈ L(E) et P ∈ K[X], alors Ker (P (u)) et Im (P (u)) sont stables par u.
Preuve : Left to the reader.
Proposition 4
Des endomorphismes qui commutent
Si u = P (v), avec v ∈ L(E) et P ∈ K[X], alors u ◦ v = v ◦ u.
Preuve : Pf...
1.5 Réduction de matrices Définition 4
Diagonalisation/réduction de matrices
Si A ∈ Mn (K) est une matrice carrée, diagonaliser A consiste à (tenter de) diagonaliser
l'endomorphisme canoniquement associé à A. On parle de même des valeurs propres, vecteurs
propres et spectre d'une matrice.
On travaille donc dans Kn , en notant en colonnes les vecteurs. La traduction matricielle de il existe
une base dans laquelle la matrice de u est diagonale est : il existe P ∈ GLn (K) telle que P −1 AP est
diagonale .
4

1
Exemple : Prenons A = 1
1

1
1. Elle est de rang 1, donc la dimension du noyau (de l'application
1
 
 
1
1
linéaire u canoniquement associée) vaut 2. On trouve facilement une base du noyau : −1 et  0 
0
−1
 
1
sont de bons candidats. Par ailleurs, en notant C = 1, on a AC = 3C , ce qui nous donne un
1
3
vecteur pour obtenir une base de diagonalisation
de
u
.
En
notant

 E la base canonique de R , F la base
1
1 1
diagonalisation, P = Pas = Mat(IdE , F, E) = −1 0 1 et D = Mat(u, F) = Diag(1, 1, 3), on a
E→F
0 −1 1
1
1
1
alors :
si on retranscrit en une seule fois les trois relations ACi = λCi : AP = P D ;
si on applique le théorème de changement de base pour les endomorphismes : D = Mat(u, F) =
P −1 AP
u
E −−−−→ E
A

x


IdE yP −1
IdE P
u
F −−−−→ F
D
On a bien P −1 AP diagonale, et c'est gagné.
Remarque : D'une manière générale, si A est de rang 1, alors pour chaque colonne C 6= 0 de A, on a AC dans l'image
de A, donc colinéaire à C : C est donc un vecteur
propre.
−1
0
0
1
∈ M2 (R), vue avec nos réels yeux, est celle de la rotation d'angle
π
de l'espace euclidien R2 . Il est clair que cette rotation n'a pas de vecteurs propres, donc R n'est pas
2
diagonalisable.
0 −1
1
1
Exemple : La complexe matrice R =
∈ M2 (C) vérie, en notant C1 =
et C2 =
:
1 0
−i
i
−i 0
1 1
RC1 = −iC1 et RC2 = iC2 , et donc en posant D =
et P =
: R = P DP −1 , donc R
0 i
i −i
est diagonalisable sur C .
Exemple :
La matrice R =
Ainsi, il faut parfois faire attention au corps sur lequel on doit réduire la matrice.
Matrices semblables
Deux matrices A, B ∈ Mn (K) sont dites semblables (sur K) lorsqu'il existe P ∈ GLn (K) telle
que B = P −1 AP .
Définition 5
Cela signie que A et B représentent le même endomorphisme de Kn .. dans deux bases diérentes.
Exercice
 7. Lesmatrices
 suivantes
 sont-elles semblables ?
2
0
0
2
1
0
0

1
0
0
1
0
0
0
0
2
0
0
2
0
2

0
0
3
0 et 0
3
0
0
1
0 et 0
3
0
0
0
2
0
1
2
0
2
0
0 ;
1
0
0.
3
0 2 0 et 0 2 0 ;
Réduire une matrice A revient nalement à chercher une matrice la plus simple possible (idéalement :
diagonale) semblable à A. Mais pour cela, les applications linéaires sont indispensables. Les zapper n'est
pas une bonne idée.
5
On n'écrira jamais 1 : Dans telle base,
la matrice A est diagonale 2.
Le résultat suivant n'est pas à proprement parler un résultat de cours, mais est tellement classique...
Proposition 5 Similitude sur R ou C
Soient A, B ∈ Mn (R) semblables sur C (au sens : il existe P ∈ GLn (C) telle que B = P −1 AP ).
Elles sont alors semblables sur R (au sens... maintenant clair).
Preuve : On écrit P = P1 + iP2 , avec P1 , P2 ∈ Mn (R). La relation (P1 + iP2 )B = A(P1 + iP2 ) fournit
P1 B = AP1 et P2 B = AP2 . C'est gagné si P1 ou P2 est inversible. Sinon, il sut de considérer les combinaisons
Mt = P1 + tP2 , avec t ∈ R : on a toujours Mt B = AMt , mais est-ce que l'une des matrices Mt est inversible ?.
Pour le savoir, considérons ϕ : t 7→ det(P1 + tP2 ) : ϕ est une application polynomiale non nulle sur C (puisque
ϕ(i) 6= 0), donc non nulle sur R (elle possède un nombre ni de racines), donc il existe t ∈ R tel que ϕ(t) 6= 0, et
c'est gagné.
2
Réduction à la main
Sans les outils plus ou moins élaborés qui vont suivre dans ce chapitre, on peut déjà diagonaliser à la
main certains endomorphismes. On rappelle que la réduction d'une matrice est essentiellement celle de son
application canoniquement associée, donc on commence en général par xer les éléments géométriques :
Soit u l'application canoniquement associée à A ; il s'agit d'un endomorphisme de Rn ; ... On cherche
ensuite à savoir si oui ou non on a Rn = ⊕ Ker (u − λIde ).
λ∈Sp(u)
2.1 Spectre évident
Si M est triangulaire, on sait qu'elle est inversible si et seulement si ses éléments diagonaux sont non
nuls. Maintenant, si A ∈ Mn (K) est triangulaire, A − λIn est non inversible (i.e. : λ ∈ Sp(A)) si et
seulement si λ est l'un des éléments diagonaux de A.
Fait : Le spectre d'une matrice triangulaire se lit sur la diagonale.

1
Exercice 8. Montrer que 0
0


3
1 2
5 est diagonalisable et que 0 1
6
0 0


1 2 3
Exercice 9. Expliciter P telle que P −1 0 4 5 P soit diagonale.
0 0 6
2
4
0

3
2 ne l'est pas.
1
2.2 Petit rang, gros noyau
Si le rang est petit, alors le noyau est grand, ce qui nous fournit une valeur propre (0) dont le sous-espace
associé est grand...


 
1
 ..
Exemple : La matrice A =  .
1
···
1
1
..  a pour rang 1, et en prenant C =  .. , on a AC = nC .
.
.
··· 1
1
Ainsi, il existe une base (clair ?) de Kn dans laquelle l'endomorphisme canoniquement associé à A vaut
Diag(0, ..., 0, n).
Remarque : Quitte à ajouter In (ou quelque chose d'approchant), on traite de la même façon les matrices du genre

0
(1)
..


(1)
.
0

a

.
=
A
−
I
,

n .
.
···
a
···



a
a
..  = aA, ou encore 

.
a
(b)
1. Sauf à vouloir faire une bonne blague, à l'eet assuré.
2. J'ai été assez lourd ? Parions que non, malheureusement.
6
..
.

(b)

 = bA + (a − b)In ...
a
D'une manière générale, si on sait réduire A alors on sait réduire A + αIn . Ajouter un certain nombre de fois In est donc
parfois un préliminaire intéressant pour arranger la tête d'une matrice.
Exercice 10. Soit A ∈ Mn (K). Montrer que l'application ϕ : M ∈ Mn (K) 7→ tr(M )A est diagonalisable.
Pour terminer sur le thème, on pourra établir le résultat suivant (pas spécialement au programme) :
Proposition 6
Endomorphismes de rang 1
Si Φ ∈ L(E) est de rang 1, alors Φ2 = (trΦ)Φ.
2.3 Résolution directe de u(x) = λx
On arrive parfois à résoudre directement l'équation u(x) = λx.
Exercice 11. CCP 2007
Soit E = Rn [X] et f : E → E, P 7→ nXP − (X 2 − 1)P 0 .
1. Vérier que f est bien dénie et que f ∈ L(E).
2. Déterminer les éléments propres de f .
Solution :
La première question consistait probablement, une fois la linéarité constatée, à dire que pour
P ∈ E , on a bien f (P ) ∈ E : il sut de constater que deg (f (P )) 6 deg(P ) + 1, et que f (X n ) est de
degré n.
On va ensuite résoudre l'équation f (P ) = λP en résolvant plus généralement l'équation diérentielle
(1 − t2 )y 0 (t) + (nt − λ)y(t) = 0, disons sur ] − 1, 1[, puis on cherchera pour quelles valeurs de λ il existe
une solution polynomiale. Le cours de première année sur les équations diérentielles d'ordre 1 nous
donne directement comme ensemble de solutions les applications t 7→ K (1 + t)(λ+n)/2 (1 − t)(n−λ)/2 . De
λ+n
n−λ
telles solutions sont polynomiales de degré majoré par n si et seulement si
et
sont des entiers
2
2
positifs, ce qui revient à avoir λ de la forme n − 2k, avec 0 6 k 6 n. On obtient donc comme valeurs
propres : λk = n − 2k, de sous-espaces propres associés les droites dirigées par (1 + X)n−k (1 − X)k . Avec
n + 1 valeurs propres distinctes, f est donc diagonalisable.
L'exemple suivant est classique également (mais techniquement un peu plus dicile). Pour résoudre
AX = λX , on peut faire intervenir, quitte à ajouter deux termes, une suite vériant une relation de
récurrence linéaire.
Exercice 12. Déterminer le spectre de

0

1


V =



(0)

Solution :
x1
1
..
0
..
..
.
..
(0)
.
.
.
..
0
1
.








1
0

.
On xe λ ∈ C et Z = 
 .. . L'équation AZ = λZ est équivalente, pour peu qu'on dénisse
xn
x0 = 0 et xn+1 = 0, à xk+2 − λxk+1 + xk = 0 pour tout k ∈ [[0, n − 1]]. On s'intéresse alors aux racines
de X 2 − λX + 1.
Si ∆ = λ2 − 4 est nul (c'est-à-dire λ = ±2), le trinôme possède pour unique racine r = 1 (si λ = 2)
ou r = −1 (si λ = −2). Si AZ = Z , alors il existe C1 et C2 tels que pour tout i, ui = (C1 + iC2 )r.
Les conditions u0 = un+1 = 0 imposent alors C1 = 0 puis C2 = 0. Ainsi, les xi sont nuls, donc
Z = 0 : λ n'est pas valeur propre.
7
Supposons ∆ 6= 0 (c'est-à-dire λ 6= ±2), notons α1 et α2 les deux racines (distinctes) de X 2 −λX+1
et supposons AZ = λZ : il existe C1 et C2 tels que pour tout i, ui = C1 α1i + C2 α2i . Ici encore, les
conditions initiales imposent C1 + C2 = 0, puis C1 (α1n+1 − α2n+1 ) = 0.
Si α1n+1 6= α2n+1 , cela impose C1 = 0, puis Z = 0 : λ n'est pas valeur propre.
Supposons α1n+1 = α2n+1 . Puisque X 2 − λX + 1 = (X − α1 )(X − α2 ) = X 2 − (α1 + α2 )X + 1,
on a α1 α2 = 1, donc α1 6= 0 et α2 = α11 , puis : α12n+2 = 1 ; il existe donc k ∈ [[0, 2n + 1]] tel
kπ
que α1 = eikπ/(n+1) . Et comme α1 + α2 = λ, on a donc λ = 2 cos n+1
·
kπ
pour un certain
Arrivés ici, on vient de montrer que si λ ∈ Sp(V ), alors λ est de la forme 2 cos n+1
k ∈ [[0, 2n + 1]], et même (si on se donne la peine de dessiner le cercle trigonométrique et pas que
dans sa tête), on peut imposer k ∈ [[0, n + 1]], puis k ∈ [[1, n]] (on a déjà exclu 2 et −2 du spectre).
On peut passer à la synthèse, en prenant λ ainsi et en construisant Z 6= 0 tel que V Z = λZ
(regarder de plus près l'analyse...).
kπ
Sp(V ) = {cos n+1
| k ∈ [[1, n]]}
Ainsi, Sp(V ) est de cardinal n, donc V est diagonalisable.
Les 5/2 avaient noté dès le début qu'on a aaire à une matrice symétrique réelle, donc qu'elle est
diagonalisable ! Ceci dit, on a quand même fait un peu plus qu'établir ce caractère diagonalisable...
3
Alors, diagonalisable ou pas ?
On a déjà vu que certaines matrices n'étaient pas diagonalisables. Il y a essentiellement deux raisons de
nature très diérentes :
les valeurs propres peuvent être complexes non réelles (ce qui pose problème lorsqu'on est
dans R : voir les rotations) ;
les valeurs propres sont bien réelles, mais les sous-espaces propres sont trop petits : leur somme
ne remplit pas l'espace ; c'est le cas des nilpotents, qui possèdent comme unique valeur propre 0,
mais qui sont rarement diagonalisables...
On va commencer par présenter un outil qui sera parfois pratique pour déterminer les valeurs propres
d'une matrice ou d'un endomorphisme. Il donnera même ensuite une condition susante simple de
diagonalisabilité. Il donnera également une conditions nécessaire et susante, mais un peu plus complexe.
Le théorème de Cayley-Hamilton nous dira enn que c'est un polynôme annulateur de la matrice (ce qui
peut être pratique dans un certain nombre de situations).
3.1 Polynôme caractéristique
Polynôme caractéristique
Soit u ∈ L(E). L'application λ 7→ det(λIdE − u) est polynomiale. Le polynôme associé (unique
car K = R ou C) est le polynôme caractéristique de u, noté χu .
Définition 6
Remarques :
Le polynôme χu est unitaire, de degré dim(E).
On 3 choisit parfois de noter χu (λ) = det(u − λIdE ). Le polynôme caractéristique est alors toujours de degré n,
mais de coecient dominant (−1)n .
On dénit bien entendu de la même façon le polynôme caractéristique d'une matrice carrée.
Si on veut s'abstraire 4 de la désagréable condition sur K, on peut directement dénir χu := det(XIn − A), avec A
la matrice représentant u dans une base donnée : ce calcul de déterminant a lieu dans Mn (K(X)), et le résultat
ne dépend pas de la base choisie...
Exercice 13. Calculer le polynôme caractéristique d'une matrice diagonale. D'abord sous forme factorisée, puis développée : que vaut le coecient constant ? Et le coecient de X n−1 ?
Exercice 14. Montrer qu'en dimension n, le polynôme caractéristique d'un endomorphisme nilpotent
est X n .
Notons dès maintenant que par dénition des valeurs propres, on a le résultat suivant :
3. Dont des tas de gens très respectables.
4. Et c'est par exemple indispensable sur les corps nis.
8
Proposition 7
Valeurs propres et polynôme caractéristique
Si u ∈ L(E), alors λ ∈ Sp(u) si et seulement si λ est racine du polynôme caractéristique.
Une valeur propre de matrice, peut être racine multiple du polynôme caractéristique.
Définition 7 Multiplicité d'une valeur propre
Si λ ∈ K est valeur propre de u ∈ L(E), sa multiplicité est sa multiplicité comme racine de
χu .
Exemples :


1 0 0
La matrice T = 2 1 0 a pour valeurs propres 1 et 5, de multiplicités respectives 2 et 1.
3 4 5
Si en dimension n un endomorphisme possède n valeurs propres distinctes, alors elles sont forcément de multiplicité 1.
Si un endomorphisme est diagonalisable, la multiplicité d'une valeur propre est la dimension du
sous-espace propre associé.
À l'opposé , pour un nilpotent, la multiplicité de l'unique valeur propre 0 vaut n, alors que la
dimension du sous-espace propre associé (i.e. : le noyau du nilpotent) peut être très petite (réduite
à 1 ; donner un exemple !).
On verra plus tard qu'il y a des liens entre la multiplicité d'une valeur propre et la dimension du sousespace propre associé.
Exercice 15. Quelles sont les dimensions des sous-espaces propres de la matrice T vue plus haut. Cette
matrice est-elle diagonalisable ?
Exercice 16. Calculer χu puis χu (u) lorsque u est diagonalisable.
Vous savez quoi ? Ce n'est pas un hasard.
Théorème 2 Cayley-Hamilton
Soit u ∈ L(E). On a alors χu (u) = 0.
Preuve (hors programme) : Une façon élégante d'opérer est de prouver le résultat dans un cas simple
(disons sur C, dans le cas de n valeurs propres distinctes), puis de généraliser à tous les endomorphismes (toujours
sur C), avec des argument analytiques (densité de telle classe de matrices). Le résultat sur R est alors acquis. On
peut même passer à un corps quelconque (avec cette fois des arguments algébriques un peu plus ns). Il y a aussi
des preuves magiques... qu'on s'empressera de poubelliser.
Terminons par ce dernier résultat, qui est un peu plus qu'un exercice classique !
Proposition 8 Polynôme caractéristique d'une restriction
Si E1 est un sous-espace de E stable par u ∈ L(E), alors le polynôme caractéristique de la
restriction de u à E1 divise celui de u.
Preuve : Travailler dans une base adaptée au problème ; on est alors ramené à un déterminant de matrice
triangulaire par blocs .
Une conséquence importante :
Proposition 9 Multiplicité vs. dimension du sous-espace propre
Si λ est une valeur propre de multiplicité m, alors dim (Ker (u − λIdE )) 6 m.
Preuve : Appliquer la proposition précédente au sous-espace stable Ker (u − λIdE ) et travailler un peu.
3.2 Une condition nécessaire simple
Il s'agit d'un résultat élémentaire, mais crucial :
Proposition 10 Une condition nécessaire de diagonalisabilité
Pour qu'un endomorphisme soit diagonalisable, il est nécessaire que son polynôme caractéristique soit scindé.
Exercice 17. Montrer que cette condition nécessaire n'est pas susante.
9
3.3 Une condition susante simple
On sait que les sous-espaces propres sont en somme directe ; s'il y en a assez, c'est gagné !
Théorème 3 Une condition susante de diagonalisabilité
Si u ∈ L(E) possède n valeurs propres distinctes avec n = dim(E), alors u est diagonalisable.
Preuve : Il sut de prendre une famille de vecteurs propres : elle est libre, et a le bon cardinal.
Exercice 18. Montrer que cette condition susante n'est pas nécessaire !
3.4 Deux CNS portant sur les dimensions
Quand il n'y a pas assez de valeurs propres, il faut que les sous-espaces propres aient la bonne dimension !
Théorème 4 Diagonalisabilité et dimension des sous-espaces propres
Un endomorphisme u de E est diagonalisable si et seulement si la dimension de E est égale à
la somme des dimensions des sous-espaces propres.
Preuve : Deux sens à faire... Aucun n'est dicile, mais il faut les écrire !
Une petite variation du résultat précédent :
Théorème 5 Diagonalisabilité et dimension des sous-espaces propres
Un endomorphisme u de E est diagonalisable si et seulement si son polynôme caractéristique
est scindé et pour toute valeur propre λ, la multiplicité de λ est égale à dim(Ker (u − λIdE )).
Preuve : Le sens direct est évident. Pour la réciproque, il sut de noter que la somme des multiplicité des
racines vaut, pour un polynôme scindé, son degré, c'est-à-dire ici la dimension de l'espace. La somme (directe)
des sous-espaces propre est donc assez grosse.


1 1 a
Exercice 19 (CCP 2007, 2008). Soit A = 0 2 0.
0 0 a
1. Quel est le rang de A ? A est-elle inversible ?
2. La matrice A est-elle diagonalisable ?
3.5 Deux CNS portant sur des polynômes annulateurs
On dispose d'une condition nécessaire et susante extrêmement simple et ecace :
Théorème 6 Une condition nécessaire et susante de diagonalisabilité
Un endomorphisme est diagonalisable si et seulement s'il possède un polynôme annulateur
scindé à racines simples.
Preuve (hors programme) : Tout d'abord, si u est diagonalisable et de valeurs propres distinctes λ1 , ..., λk ,
alors le polynôme (X − λ1 )...(X − λk ) annule eectivement u : se placer sur une base adaptée.
Réciproquement, si u est annulé par (X − α1 )...(X − αp ), il s'agit de montrer que la somme (que l'on sait directe ;
pourquoi ?) des Vi = Ker (u − αi IdE ) vaut E . Pour cela ( lemme des noyaux , grosso modo) on peut partir
X βi
P Q
1
de la décomposition de fraction rationnelle : Q
=
qui donne ensuite 1 = βi (X − αj ),
(X − αi )
X
−
α
i
i
j6=i
i
Q
puis en évaluant ces polynômes en u (en écrivant pour la composée d'endomorphismes) :
IdE =
p
X
i=1
βi
Y
(f − αj IdE )
(R)
j6=i
|
{z
gj
}
Si on prend x ∈ E , et j ∈ [[1, p]] on a alors gj (x) ∈ Ker (u − λi IdE ) = Vi , et il n'y a plus qu'à appliquer (R) en x
pour conclure : E = ⊕Vi
Il sut pour terminer d'éliminer les Vi égaux à {0} pour avoir alors une décomposition de l'espace comme somme
directe des sous-espaces propres de u.
10
Exemples :
On peut repenser aux projections et symétries : X 2 − X = X(X − 1) et X 2 − 1 = (X − 1)(X + 1).
Pour A ∈ Mn (K) constituée que de 1, on a A2 = nA...
Remarque : Pour que u soit diagonalisable, il SUFFIT donc que χu soit scindé à racines simples, mais ce n'est pas
nécessaire (donner un contre-exemple).
Exercice 20 (CCP 2009 PSI). Soit A ∈ Mn (R) telle que A2 = 2A + 8In .
1. La matrice A est-elle inversible ? Diagonalisable ?
2. Trouver les M ∈ Vect (In , A) telles que M 2 = 2M + 8In .
Exercice 21 (CCP 2010 PC). Soit f ∈ L(R5 ) tel que f 3 + f 2 + f = 0. Déterminer les valeurs possibles
pour la trace de f .
On termine par une variation du théorème précédent :
Une condition nécessaire et susante de diagonalisabilité
UnQendomorphisme u est diagonalisable si et seulement s'il possède comme polynôme annulateur
(X − λ).
Théorème 7
λ∈Sp(u)
3.6 Trigonalisation
Exercice 22. Soient E un espace de dimension 4, u ∈ L(E), E = (e1 , e2 , e3 , e4 ) une base de E , et
F = (e4 , e3 , e2 , e1 ). Comparer Mat(u) et Mat(u).
E
F
Endomorphismes/matrices trigonalisables
Un endomorphisme est dit trigonalisable lorsqu'il existe une base de l'espace dans lequel
sa matrice est triangulaire. Une matrice est trigonalisable si elle est semblable à une matrice
triangulaire (ou encore : son endomorphisme canoniquement associé est trigonalisable).
Définition 8
Remarque : Pour être trigonalisable,
il est donc
par exemple une matrice telle que
0
1
−1
0
nécessaire d'avoir son polynôme caractéristique scindé, ce qui exclut
(en tout cas sur R).
Une CNS pour être trigonalisable
Un endomorphisme est trigonalisable si et seulement s'il possède un polynôme annulateur
scindé.
Théorème 8
Preuve (hors programme) : Le sens direct ne pose guère de problème grâce à Cayley-Hamilton. Pour
k
Y
la réciproque, on suppose que P =
(X − λi )αi annule u. Le lemme des noyaux (hors programme, dont on a
i=1
prouvé une version faible dans la preuve du théorème 6 page 10) nous assure que E est la somme directe des
Fi = Ker (u − λi IdE )αi ( sous-espaces caractéristiques ). On va travailler sur chacun des ces sous-espaces, et
ensuite il sura de recoller les bases.
Fixons donc i. Le sous-espace Fi est stable par u (pourquoi ?) ; notons alors ui = u|Fi . On a (ui − λi IdFi )αi = 0,
donc ui − λi IdFi nilpotent, donc il existe une base de Fi dans laquelle la matrice de ui − λi IdFi est triangulaire
supérieure. C'est donc également le cas pour ui = (ui − λi IdFi ) + λi IdFi . En recollant ces k bases de sous-espaces
supplémentaires, on récupère une base de l'espace dans laquelle la matrice de u est diagonale par blocs, et plus
précisément triangulaire supérieure.
Remarques :
Dans Mn (C), toute matrice est donc trigonalisable.
Finalement, un endomorphisme est trigonalisable si et seulement si son polynôme caractéristique est scindé. C'est
clair ?
Une étude ne des nilpotents permet de préciser nettement les choses. On obtient alors une forme réduite des
trigonalisables portant beaucoup d'information : c'est la réduction de Jordan.
11
4
Applications diverses
Les deux applications explicitement au programme sont les suites récurrentes linéaires et les systèmes
diérentiels linéaires. Les autres sont seulement des applications classiques. La question des sous-espaces
stables est moins classique, et pourra (largement !) être zappée dans un premier et même un deuxième
temps.
4.1 Suites récurrentes linéaires
un+1 = 3un
n'est guère compliqué. Ça se gâte pour un système à dépendances mutuelles
vn+1 = −5vn
u
= 17un + 60vn
tel que n+1
....
vn+1 = −5un − 18vn
On traduit donc ce système en l'équation matricielle Xn+1 = AXn . Si A est diagonale, c'est gagné. Sinon,
on essaie de réduire A sous la forme A = P.D.P −1 avec D diagonale. On a alors en posant Yn = P −1 Xn :
Résoudre 5
Yn+1 = P −1 Xn+1 = P −1 .AXn = P −1 .P DP −1 Xn = DYn ,
d'où le calcul simple de Yn puis de Xn = P Yn .
On aura noté qu'il n'est pas utile de calculer P−1 : elle n'est
théorique.
utile que dans la présentation
17
60
−4
−3
−1
Exemple : Dans le cas vu plus haut, A =
= P.D.P , avec P =
et D =
1
1
−5 −18
0
x
x
=
2x
n
n+1
n
. En posant Yn = P −1 Xn =
, on obtient donc
, d'où xn = 2n x0 et
−3
yn
yn+1 = −3yn
yn = (−3)n y0 . Il reste à écrire Xn = P Yn pour obtenir l'existence de constantes 6 K1 et K2 telles que
un = −4K1 2n − 3K2 (−3)n
∀n ∈ N,
vn =
K1 2n + K2 (−3)n
u
On peut aussi écrire 0 = αV1 + βV2 , avec V1 et V2 des vecteurs propres associés aux valeurs propres
v0
2 et −3. On a alors :
un
u0
= An
= αAn V1 + βAn V2 = α2n V1 + β(−3)n V2 ...
vn
v0
2
0
Exercice 23. Comment l'auteur de ce poly a-t-il engendré cette matrice A pourrie, mais nalement pas
tant que ça ?
Exercice 24. Trouver les suites (u, v, w) vériant les relations de récurrence mutuelles
∀n ∈ N,

 u0
avec les conditions initiales v0

w0

 un+1
vn+1

wn+1
= −3un
= −2un
= −un
− 4vn
− 5vn
− 4vn
+
+
+
10wn
10wn
8wn
= 1
= −1
= 2

λ
Notons que si D n'est pas diagonale mais par exemple de la forme  0
0
An (donc de Xn = An X0 ) se fait assez bien également.
1
λ
0

0
0 , le calcul de Dn donc de
µ
Exercice 25. Trouver les suites (u, v) vériant les relations de récurrence mutuelle
∀n ∈ N,
un+1
vn+1
=
=
3un
−2un
+ 2vn
− vn
5. Au sens : trouver LES suites u et v telle que la relation de récurrence soit vériée pour tout n ∈ N .
6. Les exprimer à l'aide de u0 et v0 ne présente que peu d'intérêt.
12
Remarques :
Je ne suis pas fan de cette méthode de diagonalisation pour calculer nalement An (c'est le moins qu'on puisse
dire...) : en pratique, le calcul de An en réalisant 7 la division euclidienne de X n par un polynôme annulateur est
presque toujours plus ecace 8 . M'enn...
On peut ramener l'étude des récurrences linéaires d'ordre p pour UNE suite d'éléments
de
récurrence
K à celled'une
0 1
fn
p
et A = 1 1 , de sorte
linéaire d'ordre 1, dans K . Par exemple pour fn+2 = fn + fn+1 , on pose Xn = f
n+1
que Xn+1 = AXn , etc...
4.2 Systèmes diérentiels linéaires
Même principe que dans la section précédente : il s'agit de résoudre des systèmes diérentiels linéaires
de la forme :
x0 (t) = ax(t) + by(t)
y 0 (t) = cx(t) + dy(t)
où x et y sont deux fonctions de classe C 1 que l'on recherche. Si b = c = 0 (système diagonal), ce n'est
guère compliqué...
x
Dans le cas général, on pose X =
, de sorte que le système diérentiel s'écrit X 0 = AX . On tente de
y
x
diagonaliser A sous la forme A = P.D.P . On pose alors X1 = P X = 1 , de sorte que X10 = DX1 ,
y1
ce qui nous donne X1 puis X = P X1 . Il est à nouveau inutile de calculer P −1 , et on peut noter que tout
−1
−1
ceci se passe par équivalence : on a bien trouvé
exactement LES solutions au problème initial.
x0 = 17x + 60y
x
en posant X =
,
0
y
=
−5x
−
18y
y
17
60
−4 −3
2 0
A=
= P.D.P −1 , avec P =
et D =
(ça n'a pas changé...). Le système
−5 −18
1
1
0 −3
x1
X 0 = AX est alors équivalent, en posant X1 = P −1 X =
à X10 = DX1 , c'est-à-dire x1 (t) = x1 (0)e2t
y1
et y1 (t) = y1 (0)e−3t , puis grâce à la relation X = P X1 :
0
x = 17x + 60y
x(t) = −4K1 e2t − 3K2 e−3t
⇐⇒
∃K1 , K2 ∈ R; ∀t ∈ R,
0
y = −5x − 18y
y(t) =
K1 e2t + K2 e−3t
Exemple :
Résolvons le système diérentiel
Autre point de vue : on écrit X = αV1 + βV2 (avec (V1 , V2 ) notre base de vecteurs propres), de sorte
que d'une part X 0 = α0 V1 + β 0 V2 , mais d'autre part, X 0 = AX = 2αV1 − 3βV2 , donc (liberté) α0 = 2α et
β 0 = −3β ; etc.
Exercice 1 Centrale 2008 (extrait)
1. La matrice B =
2. Résoudre
1
1
4
est-elle diagonalisable ?
1
x0 = x + 4y
y0 = x + y
Si A n'est pas diagonalisable, ce n'est pas perdu pour autant !
Exercice 26 (CCP 2008). Soit A =
3
−2
2
.
−1
1. La matrice A est-elle diagonalisable ?
2. Trigonaliser A.
3. Résoudre le système
x0 (t)
y 0 (t)
= 3x(t) + 2y(t)
= −2x(t) − y(t)
7. Seul le reste nous intéresse.
8. Le gain par rapport à la première année est l'obtention rapide et mécanique d'un polynôme annulateur : le polynôme
caractéristique.
13
4.3 Exponentielle d'endomorphismes et de matrices (hors-programme)
Tout d'abord, Mn (K) peut être muni de normes qui en font une algèbre normée 9 . Ces normes sont
toutes équivalentes (dimension nie). De même, on a diérents moyens de dénir des normes d'algèbre
sur L(E), lorsque E est lui-même un espace vectoriel normé de dimension nie, et toutes ces normes
seront équivalentes.
Exercice 27. Donner deux normes d'algèbre diérentes sur L(Rn ).
Définition 9
Exponentielle d'un endomorphisme et d'une matrice
Soient u ∈ L(E). L'endomorphisme eu est la somme de la série absolument convergente
De même, si A ∈ Mn (K), la matrice eA est la somme de la série convergente
+∞ n
X
u
·
n!
n=0
+∞
X
An
·
n!
n=0
Remarque : Bien entendu, si U = Mat(u), alors Mat (eu ) = eU ...
E
E
Exercice 28. Calculer l'exponentielle d'une matrice diagonale. Que vaut son déterminant ? Énoncer et
prouver une formule de ce type pour toute exponentielle de matrice.
Exercice 29. Calculer l'exponentielle de
17
−5
60
−18
(encore elle...)
Le résultat qui suit nous dit que eu est certes une somme de série en u... mais aussi un polynôme en u !
Étrange, non ? Pas tant que ça : il n'est pas dicile de trouver un polynôme P tel que P (945) = e945 !
Proposition 11
Exponentielle polynomiale
Si u ∈ K[X], alors il existe P ∈ K[X] tel que eu = P (u).
Preuve : En termes snobs, on peut dire que K[u] est fermé, et c'est ni... Plus élémentairement (mais c'est fonN
X
un
, K[u] l'ensemble des polynômes en u, F un supplémentaire
damentalement la même chose !), notons vN =
n!
i=0
de K[u] dans L(E), et enn p la projection sur F dans la décomposition L(E) = K[u] ⊕ F . On a p(vN ) = 0 pour
tout N ∈ N et vN −→ eu , donc la continuité de p (assurée par sa linéarité en dimension nie) nous donne :
N →+∞
p(eu ) = 0, c'est-à-dire : eu ∈ K[u].
En exercice, le lecteur pourra traiter à la main le cas où l'endomorphisme est diagonalisable, à l'aide de polynômes
d'interpolation.
Exercice 30. Calculer l'exponentielle de
−3
0
1
−3
puis celle de
3
−2
2
.
−1
Remarque : Vous aimeriez un énoncé qui vous dise que pour résoudre X 0 = AX , on peut faire comme pour x0 = ax
(équations diérentielles de terminale) ? Attendez quelques mois, ou bien créez votre propre énoncé : le seul qui a un sens
et est raisonnable... est correct !
4.4 Commutant
Exercice 31. Soient λ1 , ..., λn ∈ K distincts deux à deux et M une matrice commutant avec D =
Diag(λ1 , ..., λn ). Montrer que M est elle-même diagonale.
On sait déjà que si u ◦ v = v ◦ u, alors les sous-espaces propres de u sont stables par v (et vice-versa bien
entendu). Pour trouver toutes les matrices B commutant avec A donnée, on raisonne géométriquement
en notant u et v les endomorphismes canoniquement associés à A et B . On va supposer ici que A a le
bon goût d'être diagonalisable.
Analyse : si AB = BA alors u ◦ v = v ◦ u, donc les sous-espaces propres de u sont stables par v .
9. Rappel : il s'agit essentiellement de vérier : kABk 6 kAk . kBk.
14
Synthèse : réciproquement, si les sous-espaces propres de u sont stables par v , alors sur chacun de
ces sous-espaces propres, les restrictions de u ◦ v et de v ◦ u sont égales. Or ces sous-espaces sont
supplémentaires, donc u ◦ v = v ◦ u globalement.
17
60
. On note u
−5 −18
l'endomorphisme canoniquement associé à A, et v canoniquement associée à B : AB = BA si et seulement
si u ◦ v = v ◦ u. Une condition nécessaire est que les sous-espaces propres de u soient stables par v , ce qui
impose Mat(v, F) diagonale. Réciproquement, cette dernière condition nous assurera que eectivement
u ◦ v= v ◦ u. Les matrices recherchées sont donc celles de la forme P D1 P −1 , avec D1 diagonale et
−4 −3
P =
.
1
1
Exemple :
On cherche les matrices commutant avec notre vieille amie A =
On aurait pu raisonner directement matriciellement :
AB = BA ⇐⇒ P −1 ABP = P −1 BAP ⇐⇒ P −1 AP.P −1 BP = P −1 BP.P −1 AP ⇐⇒ D.P −1 BP = P −1 BP.D,
2 0
0
−1
Donc B commute avec A si et seulement si B = P BP commute avec D =
, ce qui est
0 −3
0
équivalent par un calcul très simple à : B diagonale. On retrouve bien le résultat précédent.


−3 −4 10
Exercice 32. Déterminer l'ensemble des matrices commutant avec −2 −5 10.
−1 −4 8
Remarque : Si A n'est pas
diagonalisable,
on décompose en général l'espace en somme directe de sous-espaces stables
par u : typiquement, les Ker (u − λIdE )k , avec k l'ordre de multiplicité de λ ∈ Sp(u). Ces sous-espaces sont stables par
v . Comme à l'intérieur de ces sous-espaces, les sous-espaces propres de u sont également stables, ça réduit furieusement les
possibilités pour v . On fait alors la synthèse.
Exercice 33. Déterminer l'ensemble des matrices commutant avec
3
−2
2
−1
4.5 Équations polynomiales
Exercice 34 (CCP 2010). Soit M ∈ Mn (C) diagonalisable à spectre simple (n valeurs propres distinctes). Existe-t-il A ∈ Mn (C) tel que A2 = M ? Même chose dans Mn (R)...
Une remarque toute bête mais essentielle : si v = P (u), alors u ◦ v = v ◦ u, et donc les sous-espaces
propres de v sont stables par u. Pour résoudre une équation d'inconnue u ∈ L(E) de la forme P (u) = v
(à v ∈ L(E) xée), on réalise systématiquement une analyse-synthèse. Imaginons par exemple que v
est diagonalisable, avec des sous-espaces propres de dimension 1, et F = (f1 , ..., fn ) est une base de
diagonalisation de v .
Analyse : si u vérie eectivement P (u) = v , alors les sous-espaces propres de v sont stables
par u, donc ici, Mat(u, F) = Diag(α1 , ..., αn ). Si par ailleurs Mat(v, F) = Diag(β1 , ..., βn ), alors
P (u) = v si et seulement si P (αi ) = βi pour tout i ∈ [[1, n]].
Synthèse : réciproquement, si Mat(u, F) = Diag(α1 , ..., αn ) (avec les conditions polynomiales
remplies entre les αi et βi ), alors on a immédiatement P (u) = v .
Même pour les matrices, il est en général conseillé de travailler géométriquement : il faut commencer par
introduire le matériel géométrique (espace, applications linéaires...)
Exemple : Pour l'exercice précédent : on note u et v les applications linéaires canoniquement associées
à M et A. Il existe une base de Kn dans laquelle Mat(u, F) = Diag(λ1 , ..., λn ).
si K = C, il existe µ1 , ..., µn tels que pour tout k ∈ [[1, n]], µ2k = λk . On prend alors v telle que
Mat(v, F) = Diag(µ1 , ..., µn ) : v 2 = u, donc en observant cette relation depuis la base canonique
de Kn , on trouve bien A2 = B .
si K = R et que chacun des λi est positif, le raisonnement précédent s'applique.
si K = R et que l'un au moins des λi est strictement négatif : pour avoir u2 = v , Mat(u, F) doit
être diagonale et son carré doit être égal à Diag(λ1 , ..., λn ) : c'est impossible à cause du λi < 0 :
l'équation A2 = B n'a donc pas de solution.
15
Notons qu'ici dans le cas favorable (complexe) on pouvait facilement raisonner sans géométrie : on
a M = P DP −1 , et il sut alors de prendre A = P D0 P −1 . Mais dans le cas défavorable, il semble
dicile de prouver la non-existence de A autrement que par une analyse nous fournissant des conditions
nécessaires impossibles à tenir ; et ce sont essentiellement des arguments géométriques ( tel sous-espace
est stable par telle application ) qui nous ont donné des conditions nécessaires : point de calculs sordides !

−3
Exercice 35. Résoudre dans M2 (C) puis dans M2 (R) : B 2 = −2
−1

−4 10
−5 10.
−4 8
Si les sous-espaces propres ne sont pas des droites, ça complique la situation puisqu'on est amené à
résoudre des équations de la forme P (u) = λIdE , qui peuvent être en général plus compliquées. Enn, si
v n'est pas diagonalisable, tout n'est pas perdu !
Exercice 36 (X 2010 - PC). Soit n > 2. Déterminer les A ∈ M2 (C) telles que A =
n
5
1
0
1
1
Résultats supplémentaires
5.1 Coréduction (H.P.)
Cobidulisation
Deux endomorphismes sont dits codiagonalisables (respectivement cotrigonalisables) lorsqu'il existe une base de l'espace dans laquelle la matrice de l'un et de l'autre est diagonale
(respectivement triangulaire supérieure).
Définition 10
Les deux outils pour aborder ces questions sont essentiellement, comme souvent : le théorème des
noyaux 10 , et le fait que quand deux endomorphismes commutent, chacun stabilise les sous-espaces propres
de l'autre.
Exercice 37. Soient p et q sont deux projections qui commutent. Montrer qu'il existe une base dans
laquelle les matrices de l'un et de l'autre sont diagonales.
Théorème 9
Codiagonalisation
Si deux endomorphismes commutent et sont diagonalisables, alors ils sont codiagonalisables.
Preuve : Succinctement : on suppose u ◦ v = v ◦ u. On décompose l'espace comme somme des sous-espaces
propres Vi de E . Ces sous-espaces sont stables par v , et le polynôme scindé à racines simples annulant v ... annule
aussi la restriction vi = v|Vi . Cette dernière est donc diagonalisable. Il n'y a plus qu'à recoller les bases de
diagonalisation des vi pour obtenir une base de E (les Vi sont supplémentaires) dans laquelle les matrices de u
et de v sont par construction diagonales.
5.2 Aspects topologiques (à relire plus tard !)
Pour chaque résultat, on donne le bon énoncé, quitte à le reformuler en termes de limites dans la
preuve.
Proposition 12
Un ouvert
GLn (K) est ouvert dans Mn (K).
Preuve : Ou encore : le complémentaire est fermé , c'est-à-dire stable par passage à la limite . Pour prouver
cela, il sut de dire que GLn (K) est l'image réciproque de l'ouvert K∗ par l'application continue det ! Plus
élémentairement, on prend (Mn )n∈N une suite de matrices non inversibles convergeant vers M . On a det(Mn ) = 0,
et det est une application continue de Mn (K) dans K, donc det(Mn ) −→ det(M ), donc det(M ) = 0, et
Mn (K) \ GLn (K) est bien stable par passage à la limite, donc est fermé.
n→+∞
10. Déjà rencontré à l'occasion de preuves hors programme : il nous dit que si u a un polynôme annulateur qui s'écrit
comme le produit de polynômes Pi premiers entre eux, alors l'espace peut s'écrire comme somme directe des noyaux des
diérents Pi (u).
16
On peut également partir du fait que si k k est une norme d'algèbre (et une telle norme existe !) et kAk < 1,
1
, B+C =
on a In + A inversible, d'inverse ce qu'on sait, et en déduire que pour B inversible et kCk <
−1
kB k
B In + B −1 C est inversible. Cette version a le bon goût de passer à la dimension innie, dans des algèbres
normées d'endomorphismes.
Proposition 13
Une partie dense
GLn (K) est dense dans Mn (K).
Preuve : Si A ∈ Mn (K), l'application λ 7→ det(A + λIn ) est polynomiale, donc a un ensemble ni de racines,
1
donc A + In est inversible pour p assez grand, et tend vers A lorsque p tend vers +∞.
p
Une autre partie dense
Dans Mn (C), les matrices diagonalisables à spectre simple (n valeurs propres distinctes) sont
denses.
Proposition 14
Preuve : Soit A ∈ Mn (C). On va montrer qu'il existe une suite de matrices diagonalisables à spectre simple
convergeant vers A. Déjà, A est trigonalisable, donc il existe P ∈ GLn (C) telle que T = P −1 AP soit triangulaire,
disons avec comme coecients (λ1 , ..., λn ) sur la diagonale. Notons alors DN = Diag(1, 2, ..., n)/N : pour N assez
j
i
= λj +
est équivalente à
grand, T + DN a ses n éléments diagonaux distincts (en eet, la condition λi +
N
N
N (λi − λj ) = j − i ne peut être vériée, pour i 6= j , que pour un nombre ni de valeurs de N ). Ainsi, pour N
assez grand, T + DN est à spectre simple, donc P (T + DN )P −1 également. Il reste à noter que P (T + DN )P −1 =
A + P DN P −1 −→ A.
N →+∞
On a déjà vu une application simple mais de bon goût : la démonstration du théorème de CayleyHamilton.
Exercice 38. Montrer que le résultat précédent est faux dans Mn (R).
Exercice 39. Montrer que les matrices diagonalisables à spectre simple constituent un ouvert de Mn (K).
17
Téléchargement