Exercices d`alg`ebre linéaire

publicité
Préparation à l’agrégation
2009-2010
Philippe Lebacque
Exercices d’algèbre linéaire
1. Polynôme minimal et polynôme caractéristique
1.1. — Soient P, Q ∈ K[X]. Donner une condition nécessaire et suffisante sur
P, Q pour qu’il existe une matrice à coefficients dans K ayant P comme polynôme
minimal et Q comme polynôme caractéristique.
Solution : il existe une telle matrice M si et seulement si P et Q ont mêmes divir
seurs irréductibles. En effet, la réduction de Frobenius nous assure que πM |χM |πM
pour un certain entier r d’où le sens direct. De plus, si P et Q ont mêmes diviseurs irréductibles, alors la matrice M compagnon par bloc (C(Pi )) convient, où
les Pi sont définis par P1 Q
= P et pout tout i ≥ 2 Pi est le produit des polynômes
irréductibles divisant Q/ j<i Pj .
1.2. [1]. — On suppose ici que K = R ou C. Montrer que l’ensemble des matrices dont le polynôme minimal est égal au polynôme caractéristique est un ouvert
de Mn (K). Est-il connexe ? Est-il dense ?
Solution : Notons A cet ensemble. Remarquons d’abord que A ∈ A si et seulement si A est semblable à la matrice compagnon C(πA ), d’après le théorème
de décomposition de Frobenius. Soit A0 ∈ A. Il existe alors x0 ∈ K n telle que
{x0 , A0 x0 , . . . , An−1
x0 } engendre K n c’est à dire a det non nul. Mais alors, si A
0
est suffisamment proche de A0 , det({x0 , Ax0 , . . . , An−1 x0 }) 6= 0 par continuité
du déterminant et alors {x0 , Ax0 , . . . , An−1 x0 } est une base de K n et donc A est
dans A. C’est donc un ouvert.
Dans le cas complexe, on montre la connexité en voyant A comme l’image du
connexe GLn (K) × Kn par l’application continue
φK : (P, a0 , . . . , an−1 ) 7→ P C(a0 , . . . , an−1 ) P −1 .
−
Dans le cas réel, GLn (K) a deux composantes connexes, GL+
n et GLn , et l’en+
−
+
n
−
n
semble A = A ∪ A = φK (GLn (K) × K ) ∪ φK (GLn (K) × K ) est réunion
de deux ensembles connexes. Si n est impair, on voit directement que A = A+
+
car si P ∈ GL−
n (K), (−P ) ∈ GLn (K). Il faut donc montrer que, dans le cas où
n est pair, A+ ∩ A− n’est pas vide. On considère alors J = C(1, 0, . . . , 0). Cette
matrice J a déterminant −1 car n est pair, et elle appartient aux deux ensembles
car c’est φK (In , (1, 0, . . . , 0) et φK (J, (1, 0, . . . 0)).
2
Enfin, pour montrer qu’il est dense, on fixe A ∈ Mn (K) et > 0. On considère
le polynôme
D(X11 , . . . , Xnn ) = det(e1 , Xe1 , . . . , X n−1 e1 ), où X = (Xij )1≤i,j≤n .
C’est un polynôme non nul de K[X11 , . . . , Xnn ] (C(1, 0, . . . , 0) a une image non
nulle). S’il était nul sur la boule de centre A et de rayon il serait nul, en vertu
du théorème suivant, qui généralise le cas bien connu de la dimension 1 :
Théorème 1.1. — Soit k un corps et P ∈ k[X1 , . . . , Xn ]. Si P est nul sur
S1 × · · · × Sn où les Si sont des parties infinies de k, alors P est le polynôme nul.
La preuve se fait par récurence, l’idée
P est de fixer (x1i, . . . , xn ) ∈ S1 × · · · × Sn ,
et de considérer P (x1 , . . . , xn , X) =
Pi (x1 , . . . , xn )X . C’est un polynôme nul
sur Sn+1 une partie infinie de k, et qui est donc nul, donc tous les Pi sont nuls
sur S1 × · · · × Sn , et l’hypothèse de récurrence nous mène au résultat.
Ainsi cette application est non nulle dans la boule de centre A et de rayon .
Donc il existe B aussi proche de A que l’on veut dont le polynôme caractéristique
est égal au polynôme minimal, et A est dense.
2. Endomorphismes diagonalisables
2.1. — Soit E un K-espace vectoriel de dimension finie n et u un endomorphisme diagonalisable de E. Soit F un sous-espace stable. Montrer que la restriction de u à F est diagonalisable. Montrer que des endomorphismes diagonalisables
de E commutant deux à deux sont simultanément diagonalisables.
Solution : On s’appuie sur le résultat suivant, corollaire du lemme des noyaux : u
est diagonalisable si et seulement si il existe un polynôme
Qscindé à racines simples
tel que P (u) = 0. Pour le sens direct, on considère P = (X − λi ), où les λi sont
les valeurs propres distinctes de u. Le lemme des noyaux montre que P (u) = 0
car uQdiagonalisable. Pour le sens réciproque, on écrit le lemme des noyaux à
P = (X − λi ) annulant u, et on voit que E est somme directe des sous espaces
ker(u − λi id) qui sont ou bien nuls, ou bien des sous-espaces propres. Ainsi, si
u est diagonalisable, uF est annulé par un polynôme scindé a racine simple qui
annule u, et donc est diagonalisable.
Pour le second point, on procède par récurrence sur n. Pour n = 1 le résultat
est clair. Supposons la propriété vraie en dimension n − 1, montrons qu’elle est
vraie en dimension n. Soit (ui )i∈I une famille d’endomorphismes diagonalisables
commutant deux à deux. Si tous les ui sont des homothéties, le résultat est
évident. Sinon on suppose que u = ui0 n’est pas une homothétie, et on considère
ses sous espaces propres Eλ1 , . . . , Eλr . On a donc r ≥ 2 et pour tout j dim Eλj <
n. Pour tout j = 1 . . . r et pour tout i ∈ I, Eλj est stable par ui car ui et u
commutent. On a donc la restriction ui,j de ui à Eλj est donc diagonalisable
et par hypothèse de récurrence, il existe une base de diagonalisation Bj de Eλj
3
commune à tous les ui,j . Alors B = B1 ∪ · · · ∪ Br est une base de E dans laquelle
tous les ui admettent une matrice diagonale.
2.2. — Soit G un groupe abélien fini de GLn (C). Montrer que les éléments de
G sont simultanément diagonalisables. En déduire une majoration de l’ordre de
G en fonction de son exposant. Est-ce encore vrai pour un tel sous-groupe de
GLn (R) ? Pour un tel sous groupe de GLn (k), où k est un corps algébriquement
clos de caractéristique positive ?
Solution : Tous les éléments de G sont annulés par le polynôme X |G| − 1 d’après
le théorème de Lagrange. Ce polynôme est scindé à racines simples dans C donc
tous les éléments de G sont diagonaisables. G est abéliens donc ils commutent
deux à deux et ils sont donc simultanément diagonalisables dans une base B
d’après 2.1. Soit m l’exposant de G. L’application G → GLn (C) qui à g associe P −1 gP, où P est la matrice de passage de B à la base canonique, est un
morphisme injectif à valeur dans l’ensemble des matrices diagonales D telle que
Dm = In . Ce dernier ensemble a cardinal mn , car les coefficients diagonaux sont
racines de X m − 1. On en déduit que |G| ≤ mn . Le résultat final reste valable
dans GLn (R) mais
ne sont pas nécessairement diagonalisables dans
les matrices
0 1
R (Ex : G =<
>). Dans GLn (k), où k est algébriquement clos de
−1 0
caractéristique positive p, tout reste
que l’ordre de G est
valide
si on suppose
1 λ
premier à p. Mais le groupe G =
, λ ∈ Fp3 pour ordre p3 > p2 et il est
0 1
d’exposant p (aucune des matrices de G non égale à I2 n’est diagonalisable).
2.3. Un théorème de Burnside (RMS 89 − 90 vol 5.) : Soit G un sousgroupe d’exposant fini de GLn (C). Alors G est un groupe fini.—
2.3.1. — Montrer que Tr(G) est fini. Montrer que le seul élément de trace égale
à n est In . On remarquera que les éléments de G sont diagonalisables.
Solution : Soit g ∈ G. g est diagonalisable car le polynôme X m = 1, où m
est l’exposant de G, est scindé à racines simples et annule g (cf 2.2). On a alors
g = P −1 Diag(λ1 , . . . , λn )P, où tous les λi sont racines de X m − 1. De plus
Tr(g) = T r(Diag(λ1 , . . . , λn )) = λ1 + · · · + λn . On obtient donc |Tr(G)| ≤ mn .
De plus Tr(g) = λ1 + · · · + λn , somme sur des racines mième de l’unité, est égale
à n si et seulement si tous les λi valent 1, c’est à dire si g est semblable à In , ce
qui équivaut à g = In .
2.3.2. — Soit {g1 , . . . , gr } une base de V ect(G) formée d’éléments de G
(existence ?). On considère l’application qui envoie g ∈ G sur le n-uplet
(Tr(g −1 gi ))i∈{1,...,r} . Déduire de 2.3.1 que cette application est injective.
Solution : Une telle base existe puisque la famille G étant génératrice de
V ect(G), on peut en extraire une base {g1 , . . . , gn } de V ect(G). Prenons deux
4
éléments h
Pet g de G ayant même image par cette application notée φ. Alors, on
écrit g = λi gi , on a
X
X
n = Tr(g −1 g) =
λi Tr(g −1 gi ) =
λi Tr(h−1 gi ) = Tr(h−1 g).
On a donc, d’après 2.3.1, h−1 g = In et h = g.
2.3.3. — Conclure. Solution : Comme Tr(G) est fini, |φ(G)| ≤ |Tr(G)|r est fini.
Comme φ est injective, |G| = |φ(G)| est fini.
2.4. Décomposition de Dunford. — Soit k un corps parfait. Soit M ∈
Mn (k). Soit K une extension où le polynôme minimal πM de M est scindé. Soient
D et N deux matrices de Mn (K), telles que D soit diagonalisable, N nilpotente,
DN = N D et M = N + D. Montrer que D, N ∈ Mn (k). Remarquons que D
n’est pas nécessairement diagonalisable dans Mn (k).
Solution : On considère L le corps des racines de πM dans K. Alors πM est
scindé dans L[X] et D et N sont en fait des matrices de Mn (L) par unicité de la
décomposition de Dunford dans Mn (K). Comme k est parfait, L/k est galoisienne.
Soit σ ∈ Gal(L/k). On note encore σ l’isomorphisme d’anneaux Mn (L) → Mn (L)
qui à A = (aij ) associe σ(A) = (σ(aij )). Mn (k) est alors l’ensemble des éléments
de Mn (L) invariants par tous les τ ∈ Gal(L/k). On a M = σ(M ) = σ(N )+σ(D),
σ(D)σ(N ) = σ(N )σ(D), σ(N ) nilpotente (σ(N )k = σ(N k )) et σ(D) diagonalisable (si D = P −1 dP, σ(D) = σ(P )−1 σ(d)σ(P )). Par unicité de la décomposition
de Dunford dans L, on a σ(D) = D, σ(N ) = N. Ceci étant valable pour tout
σ ∈ Gal(L/k) on a D, N ∈ Mn (k).
3. Endomorphismes normaux
Sn>0 désignera par la suite l’ensemble des matrices réelles symétrique définie
positive de Mn (R).
3.1. Racine carrée. — Soit N une matrice symétrique réelle définie positive.
Montrer qu’il existe une unique matrice symétrique réelle définie positive S telle
que S 2 = N.
Solution : N est semblable à la matrice diagonale D = Diag(λi ) où les λi sont des
réels strictement positifs. On pose alors N = P −1 DP où P est orthogonale.
√ On
−1
pose alors S = P EP où E est la matrice diagonale définie par E = Diag( λi ).
S est bien une matrice symétrique définie positive et S 2 = N. Traitons
alors
√
l’unicité. Si Q est le polynôme d’interpolation de Lagrange de x 7→ x en les λi ,
on a alors E = Q(D) d’où N = P −1 DP = Q(P −1 EP ) = Q(S). Donc S est un
polynôme en N. Si T est une autre racine carrée de N symétrique définie positive,
on voit que S est un polynôme en T 2 donc en T et S commute donc avec T. On
a alors S 2 − T 2 = (S − T )(S + T ) = 0. Comme T et S sont symétriques définies
5
positives, S + T l’est aussi et est donc inversible. On a alors S − T = 0. D’où
l’unicité.
3.2. Exponentielle. — Montrer que l’exponentielle définit un homéomorphisme
de l’ensemble des matrices symétriques réélles sur l’ensemble des matrices
symétriques définies positives. Montrer que l’exponentielle définit un morphisme
surjectif de l’ensemble des matrices antisymétriques réelles dans SOn (R). Est
elle bijective ? Que se passe-t-il dans Mn (C) ?
Solution :L’application exp : Mn (R) → Mn (R) définie par
exp(A) =
+∞ n
X
A
n=0
n!
est continue car la série est normalement convergente sur tout compact, donc sa
restricition à S est continue. De plus, si M est symétrique réelle, il existe une matrice orthogonale N et des réels α1 , . . . , αn tels que M = N −1 Diag(α1 , . . . , αn )N.
Alors exp M = N −1 Diag(eα1 , . . . , eαn )N est bien symétrique définie positive.
Soit S ∈ S >0 . Il existe P ∈ On (R) et des réels strictement positifs λ1 , . . . , λn
tels que S = P −1 Diag(λ1 , . . . , λn )P. On a alors
S = P −1 exp Diag(ln λ1 , . . . , ln λn )P = exp P −1 Diag(ln λ1 , . . . , ln λn )P
d’où la surjectivité. Supposons que T et R sont des matrices symétriques réelles
vérifiant exp T = exp R. Comme T commute avec exp T (c’est même un polynôme
en T, car R[T ] est fermé), T commute avec exp R. Mais R est aussi un polynôme
en exp R. En effet, R est diagonalisable, et si R = Q−1 Diag(µ1 , . . . , µn )Q et Pµ
est un polynôme tel que Pµ (exp µi ) = µi pour tout i = 1 . . . n, on a
Pµ (exp R) = Q−1 Diag(Pµ (eµ1 ), . . . , Pµ (eµn ))Q = R.
T commute donc avec R. Ils sont donc diagonalisables dans une même base, et
l’injectivité de l’exponentielle réelle conduit à T = R.
Reste à démontrer que l’application réciproque est aussi continue. On considère
donc une suite (Ap ) de matrices de S >0 tendant vers A ∈ S >0 , et (Bp ) la suite
de matrices symétriques définie par exp Bp = Ap pour tout p. Montrons que Bp
converge vers la matrice B définie par exp B = A. On voit tout d’abord que la
suite (Bm ) est bornée. En effet, (Ap ) converge donc est bornée. Soit M > 0 tel
que kAp k22 ≤ M 2 pour tout p. Ap est diagonalisable dans une base orthonormée,
kAp k22 est la somme des carrés des valeurs propres (qui sont réelles) de Ap , on
en déduit donc que les valeurs propres des Ap sont bornées par M. De même,
−1 donc est également bornée, ainsi les valeurs propres de A−1
A−1
p tend vers A
p
1
sont bornées par 2 , où m > 0. Comme toutes ces valeurs propres sont réelles
m
et strictement positives, on en déduit que toutes les valeurs propres de Ap sont
contenues dans [m, M ]. Ainsi les valeurs propres de Bp sont toutes contenues
6
dans [ln m, ln M ] et Bp est bornée. On considère alors une valeur d’adhérence B 0
de (Bp ). B 0 est bien symétrique, et on a donc, par continuité de l’exponentielle,
exp B 0 = A. Par injectivité de l’exponentielle, on a B = B 0 . La suite (Bp ) n’a
donc qu’une valeur d’adhérence, elle converge alors vers B.
Soit S une matrice antisymétrique réelle. S = P −1 DP où P est orthogonale et

0

..






D=





.
0






 , avec bj 6= 0.




−bs 
0
0
0 −b1
b1
0
..
.
0
0
bs
De plus,
X
X
+∞
+∞
2k+1
2k
1 0
0 −1
0 −b
k b
k b
+
(−1)
exp
=
(−1)
b 0
(2k)! 0 1
(2k + 1)! 1 0
k=0
k=0
Ainsi exp(S) = P −1 exp(D)P avec







exp(D) = 





1

..
.
0
1
cos b1 − sin b1
sin b1 cos b1
..
0
.
cos bs
sin bs






.




− sin bs 
cos bs
(∗)
D’où exp(S) ∈ SOn (R). La surjectivité est alors claire d’après le calcul précédent,
puisque toute matrice de SOn (R) est semblable à une matrice de la forme (∗)
dans une base orthonormée. Elle n’est pas injective, puisque
0
−b + 2π
0 −b
exp
= exp
.
b + 2π
0
b 0
Le cas complexe se traite exactement de la même façon, l’exponentielle d’une
matrice hermitienne étant hermitienne définie positive et celle d’une matrice antihermitienne étant unitaire.
7
3.3. — Montrer que toute matrice complexe est unitairement trigonalisable.
Solution : On montre d’abord le résultat classique : M est trigonalisable si
et seulement si πM est scindé. Le sens direct est aisé : on voit alors que χM
est scindé en calculant le déterminant d’une matrice triangulaire supérieure à
coefficient dans K[X], et donc πM est scindé aussi. Le sens réciproque découle
par exemple de la réduction de Jordan et du fait qu’une matrice est semblable à sa
transposée, la transposée d’un bloc de Jordan étant triangulaire supérieure. Soit
M ∈ Mn (C). πM est scindé donc M est trigonalisable. Si u est l’endomorphisme
représenté par M dans la base canonique, il existe alors une base B tel que M atB u
est triangulaire supérieure. Alors on considère la base B 0 obtenue à partir de B
par le procédé d’orthonormalisation de Gram-Schmidt. M atB 0 u est triangulaire
supérieure et B 0 étant orthonormée, M = Q−1 M atB 0 (u)Q avec Q unitaire.
3.4. — Montrer que On (R) admet deux composantes connexes à déterminer.
En déduire les composantes connexes de GLn (R).
Solution : SOn (R) est connexe par arc. En effet, toute matrice S ∈ SOn (R)
s’écrit P −1 AP où A estune matrice diagonale
par blocs, les blocs étant définis
cosθi sin θi
par Ai = (1) ou Ai =
. On considère alors le chemin φ : t 7→
−sinθi cos θi
P −1 A(t)P où A(t) est définie par les mêmes blocs que A en remplaçant θi par θi t
le cas échéant. Ce chemin est clairement continu, et on a φ(0) = In et φ(1) = A.
Il existe ainsi un chemin continu reliant toute matrice de SOn (R) à In . De plus
si on considère σ ∈ On (R) − SOn (R), l’application qui à S ∈ SOn (R) associe σS est clairement un homéomorphisme de SOn (R) dans On (R) − SOn (R).
Ainsi On (R) − SOn (R) est aussi connexe. Comme cet ensemble et SOn (R) sont
séparés par l’application continue det : On (R) → {−1, 1}, ils ne sont pas dans la
même composante connexe. Ainsi On (R) a deux composantes connexes, SOn (R)
et On (R) − SOn (R).
L’application (décomposition polaire)
ψ:
On (R) × Sn>0 → GLn (R)
(O × S) 7→ O S
est un homéomorphisme. En effet ψ est continue en tant que restriction de l’application bilinéaire continue « produit » de Mn (R)2 dans Mn (R). La bijectivité
est basée sur le fait que pour toute matrice M inversible, t M M est symétrique
définie positive, et on obtient S en en prenant l’unique racine carrée. La compacité
de On (R) donne la continuité de l’application réciproque. On a vu que On (R) a
deux composantes connexes. Comme Sn>0 est convexe, il est aussi connexe (c’est
n(n−1)
même homéomorphe via l’exponentielle à R 2 ) et on a donc au plus deux
composantes connexes dans GLn (R).
>0
−
GL+
n (R) = {M ∈ GLn (R) | detM > 0} = ψ(SOn (R) × Sn ) et GLn (R) =
>0
{M ∈ GLn (R) | detM < 0} = ψ((On (R) − SOn (R)) × Sn ne sont pas dans la
8
même composante connexe car ils sont séparés par le déterminant, on en déduit
donc que ce sont les deux composantes connexes de GLn (R).
Références
[1] Rached Mneimné et Frédéric Testard, Introduction à la théorie des groupes de Lie
classiques, Collection Méthodes, Hermann, Paris, 1986. vi+346 pp.
Téléchargement