Proposition 2.6. Si M∈ Mn(k)alors SpK(M) = {λ∈K:χM(λ) = 0}pour tout sur-corps
Kde k.
Exemple 2.7.Toujours avec la matrice M:= ( 1 1
1 1 )∈ M2(Q), on a χM(X) = X2−tr(M)X+
det(M) = X2−2X=X(X−2) donc Sp(M) = {0,2}. Remarquons que dans l’exemple 1.13,
on pouvait dans un premier temps seulement conclure que Sp(M)⊇ {0,2}(on pouvait en fait
déjà en déduire l’égalité d’après le corollaire 1.10).
Application 2.8 (calcul de la puissance p-ième d’une matrice).Soit M:= ( 3−2
1 0 )∈ M2(Q); on
aχM=X2−3X+ 2 = (X−1)(X−2) donc Sp(M) = {1,2}. On remarque que le vecteur
v1:= ( 1
1)est un vecteur propre associé à la valeur propre 1et que le vecteur v2:= ( 2
1)est
un vecteur propre associé à la valeur propre 2(note 1). D’après la proposition 1.9 les vecteurs
v1et v2forment une base de Q2donc Mest diagonalisable ; avec D:= ( 1 0
0 2 )et P:= ( 1 2
1 1 )
on a M=P DP −1. Pour p∈N, la puissance p-ième de Ms’obtient alors simplement par
Mp=P DpP−1(et même pour p∈Zcar Mest inversible) ; comme Dp= ( 1 0
0 2p)on a
Mp=2p+1−1 2−2p+1
2p−1 2−2p.
Remarque 2.9.On pouvait aussi procéder par interpolation : si Qp∈Q[X]désigne un polynôme
envoyant 1sur 1et 2sur 2p(par exemple Qp(X) := X−2
1−2+2pX−1
2−1) on a Dp=Qp(D)donc Mp=
P DpP−1=P Qp(D)P−1=Qp(M). Cette méthode a l’avantage de ne pas nécessiter le calcul de
la matrice de passage Pet de son inverse, mais elle peut engendrer plus de multiplications de
matrices (considérer une matrice avec nvaleurs propres distinctes) ; finalement, cette méthode
s’applique a priori uniquement quand la matrice Mest diagonalisable.
Dans cette application, on a bien atteint l’objectif énoncé dans les motivations : on exploite
le fait que les calculs sur les matrices diagonales sont plus faciles !
Proposition 2.10. Si kest algébriquement clos alors Sp(u)6=∅.
Exemple 2.11.Avec M:= ( 0−1
1 0 )∈ M2(R), on a χM(X) = X2+ 1 donc SpR(M) = ∅mais
SpC(M) = {−i, +i} 6=∅.
Définition 2.12. Pour λ∈Sp(u), on note mλsa multiplicité en tant que racine de χu.
Proposition 2.13. Pour λ∈Sp(u)on a 16dim Eλ(u)6mλ.
Idée de démonstration. Tout d’abord, on a bien dim Eλ(u)>1car Eλ(u)!{0}(on a en fait
déjà utilisé ce résultat dans le corollaire 1.10). On a vu que l’espace Eλ(u)est stable par u;
soit ˜ul’endomorphisme induit. On a ˜u=λidEλ(u)donc χ˜u= (λ−X)dim Eλ(u). En écrivant
la matrice de udans une base adaptée à une décomposition E=Eλ(u)⊕F, on trouve que
χ˜u|χu; on conclut par définition de mλ.
Exemple 2.14.Avec les notations de l’exemple 1.13 on a donc E2(M) = vect(v2)et E0(M) =
vect(v0). Encore une fois, on pouvait bien sûr retrouver ces résultats en résolvant les systèmes
linéaires Mx = 2xet Mx = 0.
Application 2.15.Si uest de rang ralors par le théorème du rang on a dim ker u=n−rdonc
0est valeur propre de uet m0>n−r. En particulier, si r= 1 alors χu= (−1)n(X−λ)Xn−1
pour un λ∈k(éventuellement nul).
1. On peut bien sûr résoudre les systèmes linéaires Mx =xet Mx = 2xen la variable x∈Q2.
4