Table des matières 1. Éléments propres, caractéristiques 1 2

publicité
Table des matières
1.
2.
3.
4.
Éléments propres, caractéristiques
Diagonalisation
Co-diagonalisation
Décomposition de Dunford
1
4
6
7
1. Éléments propres, caractéristiques
Soient f ∈ L(E) et λ ∈ K. On dit que λ est une valeur propre de f si f −λIdE n’est
pas inversible. De manière équivalente, λ est une valeur propre pour f si ker(f −λIdE ) 6=
0, c’est-à-dire, il existe x ∈ E tel que f (x) = λx.
On appelle x ∈ E un vecteur propre pour f si x 6= 0 et il existe λ ∈ K tel que
f (x) = λx. Bien que x soit supposé non nul, la valeur propre λ correspondante peut
être zéro.
Étant donnés f ∈ L(E) et une valeur propre λ de f , on appelle sous-espace propre
associé à λ, noté Eλ , le sous-espace ker(f − λId). Donc Eλ est constitué de tous les
vecteurs propres de valeurs propre λ ainsi que le vecteur nul. On appelle multiplicité
géométrique, notée mg (λ), la dimension de Eλ .
Proposition 1.1. Soit f ∈ L(E). Toute famille finie de vecteurs propres associés à
des valeurs propres pour f deux à deux distincts est libre. En particulier, si E est de
dimension finie, alors il existe au plus dim E valeurs propres deux à deux distinctes.
Proof. La preuve est par récurrence sur le nombre de vecteurs dans la famille. S’il y a
un seul vecteur dans la famille, alors c’est une famille libre car un vecteur propre est
par définition non nul.
Maintenant supposons le résultat vrai pour toute famille finie à N éléments. Soit
{x1 , . . . , xN +1 } une famille vérifiant les hypothèses de la proposition. Désigons par λi la
valeur propre associée à xi . Supposons qu’on ait une relation α1 x1 +· · ·+αN +1 xN +1 = 0E .
On lui applique f pour trouver λ1 α1 x1 + · · · + λN +1 αN +1 xN +1 = 0E . En multipliant la
première relation par λN +1 et en lui soustrayant la seconde relation, on obtient
(λN +1 − λ1 )α1 x1 + · · · + (λN +1 − λN )αN xN = 0E .
Par l’hypothèse de récurrence on a (λN +1 − λi )αi = 0 pour tout i = 1, . . . , n. Mais les
λi sont deux à deux distincts par hypothèse, donc αi = 0 pour tout i = 1, . . . , N . Inséré
dans la première relation, cela implique αN +1 = 0 puisque xN +1 6= 0E .
Le dernier énoncé suit de façon triviale du premier, car le nombre de membres d’une
famille libre de vecteurs ne peut pas excéder la dimension.
Exemple 1.1.1. Soit E = C ∞ (R) et f ∈ L(E) donné par la dérivation. Alors si les
scalaires λ1 , . . . , λn ∈ K sont deux à deux distincts, alors les vecteurs eλ1 t , . . . , eλn t
forment une famille libre dans E.
Exemple 1.1.2. On a déjà montré, à travers des critères de cyclicité (polynôme minimal, commutant) que si un f ∈ L(E) admet dim E valeurs propres distinctes alors f
est cyclique. Donnons maintenant une autre preuve, qui repose sur la proposition 1.1.
1
2
Pour motiver le raisonnemment, on se rappelle qu’un générateur du produit direct
Z/p1 Z×· · ·×Z/pn Z, où les pi sont des nombres premiers deux à deux distincts, est donné
par le produit des générateurs des facteurs. Dans notre context, si x0 , . . . , xn−1 sont les
vecteurs propres associés aux n valeurs propres distinctes on pose x = x0 + · · · + xn−1 .
Montrons que les P
vecteurs x, f (x), . . . , f n−1 (x) forment une base de E.
Supposons que
ak f k (x) = 0E et montrons que les ak sont tous nuls. Or on calcule
f k (x) = λk0 x0 + λk1 x1 + · · · + λkn−1 xn−1 .
Ainsi la relation ci-dessus devient
!
n−1
n−1
n−1
X
X
X
ak (λk0 x0 + λk1 x1 + · · · + λkn−1 xn−1 ) =
ak λkj xj = 0E .
j=0
k=0
k=0
Or les xi forment une base de E (car P
associés à des valeurs propres distinctes – voir
la proposition 1.1). On en déduit que
ak λkj = 0 pour tout j. Mais cela équivaut à
l’équation
   
a1
0
 a2  0
  
V (λ0 , . . . , λn−1 ) 
 ...  =  ...  ,
an
0
oùQà gauche apparaît la matrice de Vandermonde. Comme det V (λ0 , . . . , λn−1 ) est égal
à i<j (λi − λj ), on en déduit de l’hypothèse que les valeurs propres sont distinctes que
les ai sont tous 0.
Proposition 1.2. Soit f ∈ L(E). Soient λ1 , . . . , λn des valeurs propres de f , supposées
deux à deux distinctes. Alors les Eλi sont en somme directe.
Proof. Soit x ∈ Eλ1 + · · · + Eλn et supposons que
x1 + · · · + xn = x = y1 + · · · + yn ,
avec xi , yi ∈ Eλi . Alors (x1 − y1 ) + · · · + (xn − yn ) = 0E avec xi − yi ∈ Eλi . Or les
différences xi − yi doivent toutes être 0E , car sinon celles qui sont non zéro seraient
liées, en contradiction à la proposition 1.1.
Proposition 1.3. Soient f ∈ L(E) et λ une valeur propre de f . Alors λ est racine de
toute polynôme annulateur de f . En particulier, les valeurs propres sont exactement les
racines du polynôme minimal.
Proof. Si x est un vecteur propre associé à λ, alors P (f )x = P (λ)x. En effet, par
linéarité il suffit de vérifier cette relation pour des monômes, ce qui peut se faire par un
argument de récurrence. Ainsi, puisque P (f ) annule f on a P (λ)x = 0E , d’où P (λ) = 0
car x 6= 0E .
Pour voir comment le deuxième énoncé s’en déduit du premier, supposons que α ∈ K
est racine de µf sans être une valeur propre. Alors µf (x) = (x − α)Q(x), pour un
polynôme Q ∈ K[x] de degré strictement inférieur à celui de µf . Ainsi 0L(E) = µf (f ) =
(f − αId) ◦ Q(f ). Comme α n’est pas valeur propre de f , l’endomorphisme f − αId est
inversible. Ainsi Q est annulateur de f , ce qui contredit la minimalité de f .
Soient f ∈ L(E) et λ ∈ K une valeur propre de f . On appelle multiplicité minimale
de λ, notée mm (λ), la multiplicité de λ en tant que racine de µf .
3
1.4. Racines du polynôme caractéristique.
Proposition 1.5. Soit f ∈ L(E) où E est de dimension finie. Alors les valeurs propres
de f sont précisément les racines de χf . En particulier, si K = C, alors f admet au
moins une valeur propre.
Proof. Le scalaire λ ∈ K est valeur propre de f si, et seulement si, f − λIdE n’est pas
inversible, c’est-à-dire χf (λ) = det(f − λIdE ) = 0.
Maintenant prenons K = C. On peut supposer que dim E ≥ 1. Alors le théorème
d’Alembert-Gauss dit que χf (x), puisque ce n’est pas un polynôme constant, admet au
moins une racine. Par la première partie de la proposition, ceci implique que f admet
au moins une valeur propre.
1.6. Sous-espaces caractéristiques. Soit f ∈ L(E), où E est de dimension finie. Soit
λ ∈ K une valeur propre de f . Alors la multiplicité de λ en tant que racine de polynôme
caractéristique χf de f est appelée multiplicité algébrique. On la note ma (λ). On
appelle espace caractéristique l’espace ker(f − λId)ma (λ) . Noter bien l’égalité
ker(f − λId)ma (λ) = ker(f − λId)mm (λ) .
L’espace caractéristique est un sous-espace stable de f . En effet l’endomorphisme
(f − λId)ma (λ) est un polynôme en f et donc commute avec f . Ainsi son noyau est
stable par f .
Par ailleurs, si f ∈ L(E) est tel que χf est scindé, une application du lemme des
noyaux montre que E se décompose en somme directe des sous-espaces caractéristiques.
1.7. Multiplicités. Soit λ une valeur propre de f ∈ L(E). Regardons maintenant les
relations entre les trois multiplicités mg (λ), mm (λ), ma (λ).
Il est clair qu’on a
1 ≤ mm (λ) ≤ ma (λ).
En effet, par le théorème de Cayley-Hamilton, puisque µf | χf , la multiplicité de λ en
tant que racine de µf est inférieure ou égale à sa multiplicité en tant que racine de χf .
Proposition 1.8. Soient f ∈ L(E) et λ une valeur propre de f . Alors
ma (λ) = dim ker(f − λId)ma (λ) .
In particular 1 ≤ mg (λ) ≤ ma (λ).
Proof. Posons g l’endomorphisme induit de f sur le sous-espace caractéristique G =
ker(f − λId)ma (λ) . Alors g − λId est un endomorphisme nilpotent. Ainsi, il existe une
base dans laquelle la matrice de g − λId est triangulaire supérieure stricte. Dans cette
même base la matrice de g est donc triangulaire supérieure avec λ comme coefficient
sur chaque diagonal. Ainsi le polynôme caractéristique de g est χg (T ) = (T − λ)dim G ,
ce qui montre que dim G = ma (λ).
L’inégalité mg (λ) ≤ ma (λ) découle de l’inclusion ker(f − λId) ⊂ ker(f − λId)ma (λ)
(car ma (λ) ≥ 1 par définition), et la première partie de la proposition.
Exemple 1.8.1. Soit f ∈ L(E), où E est de dimension finie. Soit λ une valeur propre
de f . On a maintenant trois notions de multiplicité de λ: géométrique, minimale, et
algébrique. Comparons ces multiplicités dans le cas des endomorphismes nilpotents.
Noter que la seule valeur propre d’un endomorphisme nilpotent est 0.
4
Soit f ∈ L(E) nilpotent d’indice p et posons n = dim E < ∞. Alors
p = mm (0),
n = ma (0),
et
dim ker f = mg (0).
Rappelons-nous que l’hypothèse p = dim E implique dim ker f k = k pour k = 0, . . . , p.
En particulier mm (0) = ma (0) implique mg (0) = 1.
Par exemple,
• pour diag(J1 , J1 , J2 ) ∈ M4 (K) on a mm (0) = 2, ma (0) = 4, et mg (0) = 3;
• pour diag(J1 , J3 , J4 , J5 ) ∈ M13 (K) on a mm (0) = 5, ma (0) = 13, et mg (0) = 4.
2. Diagonalisation
Soit f ∈ L(E), où E est de dimension finie. On dit que f est diagonalisable si l’une
des conditions suivantes équivalentes est vérifiée
(1) il existe une base de E dans laquelle la matrice de f est diagonale;
(2) il existe une base de E constituée de vecteurs propres de f ;
(3) E est somme directe des sous-espaces propres de f .
On dit qu’une matrice M ∈ Mn (K) est diagonalisable si elle est semblable à une
matrice diagonale, c’est-à-dire, il existe P ∈ GLn (K) telle que P M P −1 est diagonale.
Ces définitions sont compatibles: un f est diagonalisable si, et seulement si, toute
matrice qu’on peut associer à f en choisissant une base de E est diagonalisable.
Si M ∈ Mn (K) est diagonalisable, avec P M P −1 une matrice diagonale D, les valeurs
propres de M sont les coefficients diagonaux de D.
Proposition 2.1. Soit f ∈ L(E) avec dim E = n. Si f admet n valeur propres deux
à deux distinctes, alors f est diagonalisable. De façon équivalente, si χf est scindé de
racines simples, alors f est diagonalisable.
Proof. Par la proposition 1.1, les vecteurs propres associés à des valeurs propres deux
à deux distinctes sont en famille libre. Comme il y a n = dim E éléments dans cette
famille libre, c’est une base.
Que l’hypothèse que χf soit scindé de racines simples est équivalente à l’hypothèse
que f admette n = dim E valeur propres deux à deux distinctes est clair, car les racines
des χf sont précisément les valeurs propres et deg χf = n.
Par exemple, une matrice triangulaire supérieure telle que les coefficients le long du
diagonal sont deux à deux distincts est diagonalisable. En effet, les coefficients le long
du diagonal sont précisément les valeurs propres.
La réciproque de la proposition ci-dessus n’est pas vrai: il suffit de penser à des
homothéties en dimension ≥ 2.
2.2. Critère de diagonalisibilité avec µf .
Théorème 2.1. Soit f ∈ L(E), où E est de dimension finie. Alors f est diagonalisable si, et seulement si, µf est scindé à racines simples. De façon équivalent, f est
diagonalisable si, et seulement si, f admet un polynôme annulateur scindé à racines
simples.
5
Proof. Pour voir l’équivalence entre les deux énoncés, supposons que f admet un polynôme annulateur scindé P à racines simples, comme µf | P , on en déduit que µf est
scindé à racines simples. (L’autre direction est évidente).
Alors, supposons que f est diagonalisable. Ainsi f admet une base x1 , . . . , xn de
vecteurs propres; notons λ1 , . . . , λn les valeurs propres associés. De ces valeurs propres
on en choisit une pour chaque répétition; on note
Qλ1 , . . . , λm , où m ≤ n, ces valeurs
propres deux à deux distinctes. On pose P (x) = m
i=1 (x − λi ); par construction, c’est
un polynôme scindé à racines simples. Montrons que P est annulateur de f . Il suffit de
démontrer que
QP (f )(v) = 0E pour tout v ∈ {x1 , . . . , xn }. Si λ est la valeur propre de
v, et Q(x) = λi 6=λ (x − λi ) on calcule
P (f )(v) = Q(f )((f − λId)(v)) = 0E ,
ce qui montre une direction.
Maintenant supposons Q
que f admet un polynôme annulateur scindé P à racines
simples. Écrivons P (x) = m
i=1 (x − λi ), où les λi sont deux à deux distincts. Alors les
facteurs x − λi sont premiers entre eux, et le lemme du noyau implique que
E = ker P (f ) =
m
M
ker(f − λId).
i=1
Ainsi E est somme directe d’espaces propres, et du coup f est diagonalisable.
Remarque 1. On en déduit que si f est diagonalisable et F est un sous-espace stable,
alors l’endomorphisme sur F induit par f est diagonalisable. En effet, µfF | µf et comme
le dernier est scindé à racines simples, le premier l’est aussi.
Exemple 2.2.1. Les symmétries vectorielles et projecteurs sont diagonalisables (de
polynôme annulateurs (x + 1)(x − 1) et x(x − 1), respectivement).
Exemple 2.2.2. Si f est nilpotent et diagonalisable, alors f est nul. En effet, X p est
le polynôme minimal, où p est l’indice de nilpotence. Pour que les racines de X p soit
simple, il faut que p = 1, c’est-à-dire f = 0L(E) .
Exemple 2.2.3. Soit A ∈ Mn (R) telle que A5 = Idn . Alors A est diagonalisable sur C,
car les racines de x5 − 1 sont deux à deux distinctes.
Qu’est-ce qui se passe sur R? Cherchons à décrire les A ci-dessus qui sont diagonalisables. On sait que µA | (x5 − 1), puisque ce dernier est annulateur de A. Mais (par
l’hypothèse que A soit diagonalisable et la proposition ci-dessus) on sait également que
µA est scindé à racines simples. On en déduit que µA (x) = x − 1. Ainsi A = Idn .
Exemple 2.2.4. Soit f ∈ L(E), avec dim E = n. Supposons f de rang 1. Alors f
est diagonalisable si, et seulement si, sa trace est nulle. En effet, le noyau de f est
de dimension n − 1, et ce noyau est l’espace propre E0 de la valeur propre 0. Alors f
est diagonalisable précisément lorqu’il existe λ tel que E = Eλ ⊕ E0 . Un tel λ serait
forcément différent de 0.
Exemple 2.2.5. Si une matrice triangulaire par blocs
A B
M=
0n D
6
est diagonalisable, alors A, D sont diagonalisables. En effet, soit P un polynôme scindé
annulateur de M . On a
P (A)
∗
02n = P (M ) =
.
0n
P (D)
Ainsi A et D admet des polynômes scindés annulateurs et sont donc diagonalisables.
Notons que la réciproque n’est pas vraie: la matrice ( 1 11 ) n’est diagonalisable.
Par contre, si on demande que B = 0n on obtient une réciproque. Soit A, D ∈ Mn (K)
diagonalisables. Posons M = diag(A, D) ∈ M2n (K). Alors M est diagonalisable. En
effet, soit P un polynôme annulateur scindé de A et Q un polynôme annulateur scindé
de D. Alors le polynôme P Q annule M , car
(P Q)(M ) = diag(Q(A)P (A), P (D)Q(D)) = 02n .
2.3. Critère de diagonalisabilité avec χf .
Proposition 2.4. Soit f ∈ L(E) avec E de dimension finie. Alors f est diagonalisable
si, et seulement si, χf est scindé et pour toute valeur propre λ de f on a ma (λ) = mg (λ).
Proof. Par le théorème de Cayley-Hamilton, on peut écrire E comme somme directe
des sous-espaces caractéristiques. Alors chaque espace propre est contenu dans l’espace
caractéristique correspondant. Ainsi E est somme directe des espaces propres si, et
seulement si, chaque espace propre est égal à l’espace caractéristique qui le contient.
Exprimé en termes de dimensions, cela veut dire ma (λ) = mg (λ).
Corollaire 1. Soit f ∈ L(E) avec dim E = n. Alors f est diagonalisable si, et seulement si, la somme des dimensions des espaces propres de f vaut n.
Proof. Si P
f est diagonalisable, alors par définition on a E = ⊕λ Eλ ce qui entraine
dim E = λ dim Eλ . Dans l’autre sens, puisque les espaces propres sont contenus dans
les espaces caractéristiques, si la somme des dimensions des espaces propres vaut n,
alors les espaces propres et espaces caractéristiques sont confondus. Par la proposition
précédente, cela veut dire que f est diagonalisable.
3. Co-diagonalisation
On se donne maintenant une famille finie d’endomorphismes f1 , . . . , fN de l’espace E.
Supposons que chaque fi est diagonalisable. Cette famille est dite co-diagonalisable
si l’une des conditions équivalentes suivantes est vérifiée:
(1) il existe une base de E constituée de vecteurs propres de tous les fi simultanément;
(2) E est somme directe ⊕λ Eλ où chaque Eλ est propre pour tous les fi simultanément;
(3) il existe une base de E dans laquelle les matrices des fi sont diagonales simultanément.
Proposition 3.1. Soit f1 , . . . , fN une famille finie d’endomorphismes diagonalisables
de l’espace E. Alors cette famille est co-diagonalisable si, et seulement si, les fi commutent entre eux.
Proof. Supposons d’abord que la famille est co-diagonalisable. Prenons une base B
dans laquelle chaque Ai = MB (fi ) est diagonale. Or Ai Aj = Aj Ai , car deux matrices
diagonales commutent entre elles. Ainsi fi fj = fj fi pour tout i, j.
7
Pour la réciproque, on fait une récurrence sur la taille de la famille N . Si N = 1,
l’énoncé est clair. Supposons donc que toute famille d’endomorphismes diagonales de
taille N qui commutent entre eux est co-diagonalisable. Prenons une famille f1 , . . . , fN +1
d’endomorphismes diagonalisables qui commutent entre eux. Soit E = ⊕λ Eλ la décomposition en espaces propres de fN +1 . Comme les f1 , . . . , fN commutent avec fN +1 ,
chaque Eλ est stable pour les f1 , . . . fN . Par ailleurs, par la remarque 1, l’induit de
chaque f1 , . . . , fN sur chaque Eλ est diagonalisable. Pour chaque λ, on peut appliquer
l’hypothèse de récurrence sur la famille des induites des f1 , . . . , fN sur Eλ . On obtient
une base Bλ de Eλ constituées des vecteurs propres de cette famille. Cette base est également constituée de vecteurs propres de fN +1 , vue que les Eλ sont les espaces propres
pour fN +1 . On fait la concaténation des Bλ pour trouver une bonne base de E.
4. Décomposition de Dunford
On arrive maintenant à l’un des résultats principaux de ce cours. Il est basé que
l’observation suivante: l’induit de f sur un espace caractéristique est somme d’une
homothétie avec un endomorphisme nilpotent.
Théorème 4.1. Soit f ∈ L(E) un endomorphisme annulé par un polynôme scindé.
Alors il existe un unique couple d, n ∈ L(E) tel que
• d est diagonalisable,
• n est nilpotent,
• f = d + n,
• d et n commutent entre eux.
En plus, d et n sont des polynômes en f .
Q
Proof. On commence par l’existence. Soit P (T ) = i (T − λi )αi un polynôme scindé
qui annule f . Par le lemme des noyaux, on a la décomposition E = ⊕i ker(f − λi Id)αi .
Comme remarqué ci-dessus, l’induit de f sur ker(f −λi Id)αi peut s’écrire comme di +ni ,
où di est l’homothétie de rapport λi et ni est nilpotent. Soit pi la projection de E sur
ker(f − λi Id)αi parallèle à la somme
P de tous les autres; par le lemme des noyaux, c’est
un polynôme en f . Posons d = i λi pi et n = f − d. On doit maintenant vérifier que
les propriétés énoncées sont satisfaites:
• en prenant une base adaptée à la décomposition en somme d’espaces caractéristiques, la matrice de d est diagonale;
• que n soit nilpotent se déduit du fait que l’induit ni = fi − λi Id sur chaque
ker(f − λi Id)ma (λi ) est nilpotent;
• que f = d + n est clair par construction;
• que d et n commute se déduit du fait que chaque pi est un polynôme en f , donc
d l’est aussi. Ainsi n = f − d est un polynôme en f . Du coup d et n commutent
entre eux.
Pour l’unicité, on se donne le couple (d, n) construit ci-dessus, ainsi qu’un autre
couple (d0 , n0 ) qui satisfait aux propriétés de l’énoncé. Chacun des endomorphismes
d, n, d0 , n0 commute avec f (car polynômes en f ) et laisse stables donc les sous-espaces
ker(f −λi Id)αi . Posons di , ni , d0i , n0i les induits correspondants. Or ni et n0i sont nilpotents
8
sur ker(f − λi Id)αi , et ils commutent entre eux (en effet ni = fi − λId est un polynôme
en fi , et n0i commutent avec fi = d0i + n0i ). Ainsi la différence ni − n0i est nilpotente.
Mais ni − n0i = di − d0i est diagonale, est seule la matrice nulle est à la fois diagonale
et nilpotente. Ainsi les ni = n0i et di = d0i pour chaque i, ce qui implique que n = n0 et
d = d0 .
4.1. Aspects pratiques. A titre d’exemple, la décomposition de Dunford de la matrice


1 4 −2
A= 1 7 
1
est A = D + N , où


1 0 0
D = 0 1 0 ,
0 0 1


0 4 −2
N = 0 0 7  .
0 0 0
En effet, D est diagonalisable (en fait, diagonale), N est nilpotente (d’indice 3), et
DN = N D car D = Id commute avec toute autre matrice. Par contre, la décomposition
de Dunford de la matrice


1 4 −2
B= 2 7 
3
est B = D + N , où B = D et N = 0. En effet, B est déjà diagonalisable, car son
polynôme caractéristique (T − 1)(T − 2)(T − 3) est scindé à racines simples (voir la
proposition 2.1.)
Étane donné une matrice A, dont le polynôme caractéristique est scindé, on trouve
sa décomposition de Dunford en suivant la procédure suivante. Soit f ∈ L(E) l’unique
endomorphisme de E tel que MatBcan (f ) = A, où
P Bcan est la base canonique. Soit
λ1 , . . . , λr les valeurs propres de f . Posons d =
i λi pi et n = f − d, comme dans
la preuve de l’existence de la décomposition de Dunford. Alors D = MatBcan (d) est
diagonalisable, N = MatBcan (n) est nilpotente, N D = DN , et
A = MatBcan (f ) = MatBcan (d) + MatBcan (n) = D + N.
Mais comment on trouve D sans passer explicitement par l’endomorphisme d? Soit B
une base de E adaptée à la décomposition E = ⊕i ker(f − λi Id)ma (λi ) en sous-espaces
caractéristiques. Posons Λ = MatB (d). Alors
Λ = diag(λ1 , . . . , λ1 , . . . , λr , . . . , λr ).
| {z }
| {z }
ma (λ1 ) fois
ma (λr ) fois
{Id}BBcan
Soit P =
la matrice de passage de B à Bcan (les colonnes de P sont les vecteurs
de la base B écrits dans les coordonnées de la base Bcan ). Ainsi on a
D = MatBcan (d) = {Id}BBcan MatB (d){Id}BBcan = P −1 ΛP.
Une fois la matrice D trouvée par la formule ci-dessus, on pose N = A − D.
Téléchargement