120

publicité
21
Endomorphismes symétriques d'un espace
vectoriel euclidien. Applications
Les résultats de base concernant l'algèbre linéaire, l'algèbre bilinéaire et les espaces euclidiens
sont supposés connus.
On se reportera au paragraphe 18 pour des rappels sur les espaces euclidiens.
Pour tout espace vectoriel E, L (E) est l'algèbre des endomorphismes de E et GL (E) est le
groupe des automorphismes de E.
On rappelle que le dual de E, c'est-à-dire l'ensemble E ∗ de toutes les formes linéaires sur E,
est un espace vectoriel de dimension n = dim (E) .
Pour tout entier n ≥ 1, Mn (R) est l'algèbre des matrices carrées d'ordre n à coecients
réels et GLn (R) est le groupe des matrices inversibles dans Mn (R) .
On note Id [resp. In ] l'endomorphisme [resp. la matrice] identité.
p
Pour ce chapitre, (E, h· | ·i) est un espace euclidien de dimension n ≥ 1 et kxk = hx|xi est
la norme associée.
Rn est muni de son produit scalaire canonique déni par :
n
n
t
∀ (x, y) ∈ R × R , hx | yi = x · y =
n
X
xk yk
k=1
On rappelle que :
l'orthogonal d'une partie non vide X de E est le sous-espace vectoriel :
X ⊥ = {y ∈ E | ∀x ∈ X, hx | yi = 0}
si F est un sous-espace vectoriel de E non réduit à {0} , le procédé de Gram-Schmidt
(paragraphe 38.4) nous permet de construire à partir de n'importe quelle base de F une
base orthonormée de F qui se complète en une base orthonormée de E ;
on en déduit que si F est un sous-espace vectoriel de E, on a alors E = F ⊕ F ⊥ .
Sn (R) = {A ∈ Mn (R) | t A = A} est l'espace vectoriel des matrices réelles d'ordre n qui
sont symétriques.
On rappelle que :
­
®
∀A ∈ Mn (R) , ∀ (x, y) ∈ Rn × Rn , hAx | yi = x | t Ay
ce qui se montre comme suit :
­
®
hAx | yi = t (Ax) y = t x t Ay = x | t Ay
515
516
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
On en déduit que :
A ∈ Sn (R) ⇔ ∀ (x, y) ∈ Rn × Rn , hAx | yi = hx | Ayi
En eet, l'égalité hAx | yi = hx | Ayi pour tous x, y, équivaut à hx | Ayi = hx | t Ayi et
comme la forme bilinéaire h· | ·i est non dégénérée, cela équivaut à Ay = t Ay pour tout y, soit
à A = t A.
21.1 Endomorphismes symétriques
On rappelle tout d'abord la dénition et quelques propriétés de l'adjoint d'un endomorphisme
dans un espace euclidien. Pour ce faire, on a besoin du résultat suivant.
Lemme 21.1 Pour toute forme linéaire ` sur E, il existe un unique vecteur a ∈ E tel que :
∀x ∈ E, ` (x) = hx | ai .
Démonstration. L'application ϕ qui associe à tout vecteur a ∈ E la forme linéaire ϕ (a)
dénie par :
∀x ∈ E, ϕ (a) (x) = hx | ai
est linéaire et injective. En eet, la linéarité à gauche de h· | ·i nous assure que ϕ (a) ∈ E ∗ ,
la linéarité à droite de h· | ·i nous assure la linéarité de ϕ et a est dans le noyau de ϕ si, et
seulement si, hx | ai = 0 pour tout x ∈ E, ce qui équivaut à a = 0 puisque la forme bilinéaire
h· | ·i est non dégénérée. Comme E et E ∗ sont de même dimension nie, ϕ est un isomorphisme
et pour tout ` ∈ E ∗ il existe un unique a ∈ E tel que ` = ϕ (a) , ce qui est le résultat annoncé.
Théorème 21.1 Pour tout endomorphisme u ∈ L (E) , il existe un unique endomorphisme
u∗ ∈ L (E) tel que :
∀ (x, y) ∈ E 2 , hu (x) | yi = hx | u∗ (y)i
Démonstration. Pour tout y ∈ E, l'application x 7→ hu (x) | yi est une forme linéaire sur
E, il existe donc un unique vecteur u∗ (y) ∈ E tel que hu (x) | yi = hx | u∗ (y)i pour tout x ∈ E.
On dénit donc une unique application u∗ de E dans E vériant la propriété annoncée.
C'est cette unicité qui nous assure la linéarité de u∗ . En eet, pour y, z dans E et λ, µ dans
R, on a pour tout x ∈ E :
hu (x) | λy + µzi = λ hu (x) | yi + µ hu (x) | zi
= λ hx | u∗ (y)i + µ hx | u∗ (z)i
= hx | λu∗ (y) + µu∗ (z)i
et λu∗ (y) + µu∗ (z) = u∗ (λy + µz) du fait de l'unicité du vecteur u∗ (λy + µz) .
Dénition 21.1 Avec les notations du théorème précédent, on dit que u∗ est l'adjoint de u.
Théorème 21.2 Si B = (ei )1≤i≤n est une base orthonormée de E et u un endomorphisme de
E de matrice A dans cette base, alors la matrice de u∗ dans B est la transposée t A.
Endomorphismes symétriques
517
Démonstration. La matrice A = ((aij ))1≤i,j≤n de u dans la base B est dénie par :
u (ej ) =
n
X
aij ei (1 ≤ j ≤ n)
i=1
et dans le cas où cette base est orthonormée, on a pour tous i, j compris entre 1 et n :
aij = hu (ej ) | ei i
En notant A∗ =
entre 1 et n :
¡¡
a∗ij
¢¢
1≤i,j≤n
la matrice de l'adjoint u∗ dans B, on a alors pour i, j compris
a∗ij = hu∗ (ej ) | ei i = hej | u (ei )i = aji
ce qui signie que A∗ = t A.
Remarque 21.1 Si A = (aij )1≤i,j≤n est la matrice de u dans une base orthonormée, on a alors
pour tous i, j compris entre 1 et n :
aij = hu (ej ) | ei i
En particulier, aii = hu (ei ) | ei i et :
Tr (u) =
n
X
hu (ei ) | ei i
i=1
Pour u symétrique, on a :
aij = aji = hu (ei ) | ej i
Avec le théorème qui suit, on donne quelques propriétés de l'adjoint d'un endomorphisme.
Théorème 21.3 Pour tous endomorphismes u, v dans L (E) , on a :
1. (u∗ )∗ = u.
2. (u ◦ v)∗ = v ∗ ◦ u∗ .
∗
3. si u ∈ GL (E) , alors u∗ ∈ GL (E) et (u∗ )−1 = (u−1 ) .
4. ker (u∗ ) = (Im (u))⊥ et Im (u∗ ) = (ker (u))⊥ .
5. rg (u∗ ) = rg (u) .
Démonstration. Les propriétés 1. à 3. peuvent se montrer en utilisant les matrices u dans
une base orthonormée xée de E (ou encore directement avec la dénition de l'adjoint).
Pour le point 4. on procède comme suit.
Pour tous x ∈ ker (u∗ ) et z = u (y) ∈ Im (u) , on a :
hx | zi = hx | u (y)i = hu∗ (x) | yi = h0 | yi = 0
et x ∈ (Im (u))⊥ . On a donc ker (u∗ ) ⊂ (Im (u))⊥ .
Réciproquement pour x ∈ (Im (u))⊥ et tout y ∈ E, on a :
hu∗ (x) | yi = hx | u (y)i = 0
ce qui équivaut à u∗ (x) = 0, soit x ∈ ker (u∗ ) .
On a donc l'égalité ker (u∗ ) = (Im (u))⊥ .
518
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
L'inclusion Im (u∗ ) ⊂ (ker (u))⊥ se montre avec les mêmes arguments et avec :
³
´
dim (Im (u∗ )) = n − dim (ker (u∗ )) = n − dim (Im (u))⊥
³
´
= dim (Im (u)) = n − dim (ker (u)) = dim (ker (u))⊥
on déduit l'égalité Im (u∗ ) = (ker (u))⊥ .
L'égalité rg (u∗ ) = rg (u) s'en déduit alors immédiatement.
Remarque 21.2 Avec le point 5. du théorème précédent, on retrouve l'égalité rg ( t A) = rg (A)
pour toute matrice réelle A.
Dénition 21.2 Un endomorphisme u ∈ L (E) est dit symétrique (ou auto-adjoint) si u∗ = u.
On note S (E) l'ensemble de tous les endomorphismes symétriques de E.
On a donc :
u ∈ S (E) ⇔ u∗ = u ⇔ ∀ (x, y) ∈ E 2 , hu (x) | yi = hx | u (y)i
et avec le théorème 21.2, on a la caractérisation suivante des éléments de S (E) .
Théorème 21.4 Un endomorphisme u ∈ L (E) est symétrique si, et seulement si, sa matrice
dans une base orthonormée de E est symétrique.
Démonstration. On se donne une base orthonormée B de E et pour u ∈ L (E) , on note A
sa matrice dans B.
Si u est symétrique, on a u∗ = u et t A = A d'après le théorème 21.2, soit A ∈ Sn (R) .
Réciproquement si A ∈ Sn (R) , en notant X la matrice d'un vecteur x ∈ E dans B, on a
pour tous vecteurs x, y de E :
hu (x) | yi =
t
(AX) Y = t X t AY = t X (AY ) = hx | u (y)i
ce qui signie que u ∈ S (E) .
En particulier si A ∈ Sn (R) , alors l'endomorphisme u qu'elle dénit dans la base canonique
est dans S (Rn ) .
Corollaire 21.1 S (E) est un sous-espace vectoriel de L (E) de dimension
n (n + 1)
.
2
Démonstration. Il est clair que S (E) est un sous-espace vectoriel de L (E) et le théorème
21.2 nous dit qu'il est isomorphe à Sn (R) (par l'application u 7→ A, où A est la matrice de u
dans une base orthonormée xée de E ).
Il s'agit alors de montrer que Sn (R) est un sous-espace vectoriel de Mn (R) de dimension
n(n+1)
n (n + 1)
, ce qui résulte du fait que l'application ϕ : Sn (R) → R 2 dénie par :
2
∀A = ((aij ))1≤i,j≤n ∈ Sn (R) , ϕ (A) = (aij )1≤i≤j≤n
est un isomorphisme.
On peut aussi procéder comme suit.
En notant (Eij )1≤i,j≤n la base canonique de Mn (R) dénie par :
Eij = ((δip δqj ))1≤p,q≤n
Endomorphismes symétriques
519
où δrs est le symbole de Kronecker, on vérie que toute matrice symétrique s'écrit :
A=
=
X
aij Eij =
aii Eii +
i=1
1≤i,j≤n
n
X
i=1
n
X
X
(aij Eij + aji Eji )
1≤i<j≤n
X
1
aii (2Eii ) +
aij (Eij + Eji )
2
1≤i<j≤n
ce qui signie que la famille (Eij + Eji )1≤i≤j≤n engendre Sn (R) . Comme cette famille est libre,
n (n + 1)
c'est une base et dim (Sn (R)) = card (Eij + Eji )1≤i≤j≤n =
. Il en résulte que Sn (R)
2
n (n + 1)
.
est de dimension
2
Remarque 21.3 Pour tout u ∈ S (E) , les endomorphismes u + u∗ , u∗ u et uu∗ sont dans
S (E) . Plus précisément, avec hu∗ ux | xi = ku (x)k2 et huu∗ (x) | xi = ku∗ (x)k2 , on déduit que
u∗ u et uu∗ sont dans S + (E) (voir le paragraphe 21.3).
Remarque 21.4 Si u ∈ S (E) , alors up ∈ S (E) pour tout entier naturel p et v ∗ ◦ u ◦ v ∈ S (E)
pour toute endomorphisme v ∈ L (E) .
Exercice 21.1 La composée de deux endomorphismes symétriques est-elle symétrique ?
Solution 21.1 La réponse est non en général. Il revient au même de vérier que le produit de
deux matrices symétriques
une matrice symétrique.
µ
¶n'est pas µnécessairement
¶
µ
¶
1 1
1 2
3 3
Par exemple A =
et B =
sont dans S2 (R) et AB =
∈
/ S2 (R) .
1 2
5 4
µ 0 0 ¶
µ2 1 ¶
a b
a b
et A0 =
dans S2 (R) , les coecients
De manière plus générale, pour A =
b0 c0
b c
d'indice (1, 2) et (2, 1) de AA0 sont respectivement b12 = ab0 + bc0 et b21 = a0 b + b0 c et en général
b12 6= b21 .
Exercice 21.2 Montrer que si u, v sont deux endomorphismes symétriques de E, alors la composée u ◦ v est symétrique si, et seulement si, u et v commutent.
Solution 21.2 Si u, v sont deux endomorphismes symétriques qui commutent, il est alors fa-
cile de vérier que u ◦ v est symétrique.
Réciproquement supposons que u, v et u ◦ v soient symétrique. On a alors, pour tous x, y
dans E, hu ◦ v (x) | yi = hx | u ◦ v (y)i , soit hv (x) | u (y)i = hu (x) | v (y)i , ce qui entraîne
hu ◦ v (x) | yi = hv ◦ u (x) | yi et donc u ◦ v (x) = v ◦ u (x)pour tout x ∈ Rn , encore équivalent
à u ◦ v = v ◦ u.
Exercice 21.3 Soit u ∈ S (E) . Montrer que ker (u) et Im (u) sont supplémentaires orthogo-
naux, c'est-à-dire que :
⊥
E = ker (u) ⊕ Im (u)
Solution 21.3 Pour x ∈ ker (u) et z = u (y) ∈ Im (u) , on a :
hx | zi = hx | u (y)i = hu (x) | yi = h0 | yi = 0
520
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
donc x ∈ (Im (u))⊥ . On a donc ker (u) ⊂ (Im (u))⊥ et avec le théorème du rang, on a :
³
´
⊥
dim (ker (u)) = n − dim (Im (u)) = dim (Im (u))
ce qui donne l'égalité ker (u) = (Im (u))⊥ et la somme directe :
⊥
⊥
E = (Im (u))⊥ ⊕ Im (u) = ker (u) ⊕ Im (u)
On rappelle qu'un projecteur de E est un endomorphisme p ∈ L (E) tel que p ◦ p = p.
Si p est un projecteur de E, alors Im (p) est l'ensemble des vecteurs invariants de p et
E = ker (p) ⊕ Im (p) , la décomposition d'un vecteur x ∈ E dans cette somme directe étant
x = (x − p (x)) + p (x) . Un projecteur est dit orthogonal si ker (p) = (Im (p))⊥ .
Exercice 21.4 Montrer qu'un projecteur p de E est un projecteur orthogonal si, et seulement
si, il est symétrique.
Solution 21.4 Si p est un projecteur symétrique, on a ker (p) = (Im (p∗ ))⊥ = (Im (p))⊥ et p
est orthogonal.
Réciproquement, si p est un projecteur orthogonal, on a alors pour tous vecteurs x, y de E :
hp (x) | yi = hp (x) | y − p (y)i + hp (x) | p (y)i = hp (x) | p (y)i
puisque y − p (y) ∈ ker (p) et p (x) ∈ Im (p) sont orthogonaux. Comme x et y jouent des rôles
symétriques, on a aussi :
hx | p (y)i = hp (y) | xi = hp (x) | p (y)i
et hp (x) | yi = hx | p (y)i , ce qui signie que p est symétrique.
Exercice 21.5 Montrer qu'une symétrie s de E est une symétrie orthogonale si, et seulement
si, elle est symétrique.
Solution 21.5 Laissée au lecteur.
21.2 Réduction des endomorphismes symétriques
matrice réelle n'a pas forcément de valeurs propres réelles (par exemple A =
µ Alors qu'une
¶
0 −1
a pour valeurs propres −i et i dans C) nous allons montrer qu'un endomorphisme
1 0
symétrique ou, de manière équivalente, une matrice symétrique réelle, a toutes ses valeurs
propres réelles et est diagonalisable dans une base orthonormée (théorème spectral).
Comme pour la plupart des théorèmes de réduction d'endomorphisme, la démonstration se
fait par récurrence sur la dimension de E.
Lemme 21.2 Les valeurs propres d'une matrice symétrique réelle A sont toutes réelles.
Démonstration. Voir le théorème 15.2.
La matrice d'un endomorphisme symétrique dans une base orthonormée étant symétrique,
on déduit de ce lemme qu'un endomorphisme symétrique u ∈ S (E) a n valeurs propres réelles
distinctes ou confondues.
Pour toute valeur propre λ de u ∈ S (E) , on désigne par Eλ = ker (u − λId ) l'espace propre
associé.
Réduction des endomorphismes symétriques
521
Lemme 21.3 On suppose que n ≥ 2.
Si λ, µ sont deux valeurs propres distinctes de u ∈ S (E) , alors les espaces propres Eλ et Eµ
sont orthogonaux.
Démonstration. Pour x ∈ Eλ et y ∈ Eµ , on a :
λ hx | yi = hλx | yi = hu (x) | yi = hx | u (y)i = hx | µyi = µ hx | yi
et hx | yi = 0 puisque λ 6= µ.
Lemme 21.4 On suppose que n ≥ 2.
Si λ1 est une valeur propre de u ∈ S (E) , e1 ∈ E \ {0} un vecteur propre associé de norme égale
à 1, alors l'hyperplan H = (Re1 )⊥ est stable par u et la restriction de u à H est symétrique.
Démonstration. H est un hyperplan puisque c'est le noyau de la forme linéaire non nulle :
` : x 7→ hx | e1 i
Pour tout x ∈ H, on a :
hu (x) | e1 i = hx | u (e1 )i = hx | λ1 e1 i = λ1 hx | e1 i = 0
et u (x) ∈ H. La restriction v de u à H est donc un endomorphisme de H.
En désignant par (ei )2≤i≤n une base orthonormée de H (procédé de Gram-Schmidt), B1 =
(ei )1≤i≤n est une base orthonormée de E et la matrice de u dans cette base est :
µ
A1 =
λ1 0
0 B
¶
où B ∈ Mn−1 (R) est la matrice de v dans (ei )2≤i≤n . Comme u est symétrique, il en est de
même de A1 , donc de B et de v.
Théorème 21.5 (spectral) Tout endomorphisme symétrique u ∈ S (E) se diagonalise dans
une base orthonormée.
Démonstration. On procède par récurrence sur n ≥ 1.
Pour n = 1, les éléments de S (E) = L (E) sont des homothéties et toute base convient.
Supposons le résultat acquis pour les endomorphismes symétriques de tout espace euclidien
de dimension n − 1, où n ≥ 1.
On se donne u ∈ S (E) avec E de dimension n et reprenant les notations de la démonstration
du lemme 21.4, on a E = Re1 ⊕ H avec H = (Re1 )⊥ stable par u et v = u|H ∈ S (H) . Il existe
alors une base orthonormée B1 de H dans laquelle la matrice de v est diagonale et B = {e1 }∪B1
est une base orthonormée de E dans laquelle la matrice de u est diagonale.
On a donc, pour tout u ∈ S (E) , la somme directe orthogonale :
E=
⊥
M
ker (u − λId)
λ∈Sp(u)
On rappelle qu'un endomorphisme u ∈ L (E) est dit orthogonal si :
∀ (x, y) ∈ E 2 , hu (x) | u (y)i = hx | yi .
522
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
On note O (E) l'ensemble des endomorphismes orthogonaux de E.
Dire que u ∈ O (E) équivaut à dire que u transforme toute base orthonormée de E en une
base orthonormée.
Un endomorphisme u ∈ L (E) est orthogonal si, et seulement si, pour toute base orthonormée
B de E la matrice A de u dans B est telle que A t A = t AA = In . Une telle matrice A est dite
orthogonale et on note On (R) le groupe multiplicatif de toutes ces matrices orthogonales.
La matrice de passage d'une base orthonormée à une autre base orthonormée est une matrice
orthogonale.
Corollaire 21.2 Toute matrice symétrique réelle A ∈ Sn (R) se diagonalise dans une base
orthonormée, c'est-à-dire qu'il existe une matrice orthogonale P ∈ On (R) telle que t P AP soit
diagonale.
Une deuxième démonstration du théorème spectral est donnée au paragraphe 17.5.
Nous donnerons au paragraphe 21.4 une autre démonstration du théorème spectral en utilisant la continuité de la forme quadratique associée à la matrice A et le fait qu'une fonction
continue sur un compact est bornée et atteint ses bornes.
Exercice 21.6 Montrer que si λ est une valeur propre de u ∈ S (E) , on a alors :
⊥
E = ker (u − λId ) ⊕ Im (u − λId )
l'espace Im (u − λId ) étant stable par u.
Solution 21.6 C'est l'exercice 21.3 pour u − λIn ∈ S (E) , la stabilité par u de Im (u − λId )
étant évidente.
Exercice 21.7 Soit u ∈ S (E) telle que up = Id où p est un entier naturel non nul. Montrer
que u2 = Id.
Solution 21.7 Comme u est symétrique, il existe une base orthonormée B de E dans laquelle la
matrice D de u est diagonale. L'égalité up = Id équivaut à Dp = In et les coecients diagonaux
de D (à savoir les valeurs propres de u) sont alors racines réelles du polynôme X p − 1, ils sont
donc dans {−1, 1} et on a nécessairement D2 = In , ce qui équivaut à u2 = Id.
Remarque 21.5 Le théorème 21.5 (ou son corollaire) n'est plus valable pour les matrices complexes.
En eet, si A =
µ
a b
b c
¶
∈ S2 (C) , son polynôme caractéristique est :
¡
¢
PA (λ) = λ2 − (a + c) λ + ac − b2
et le discriminant de ce polynôme est :
δ = (a − c)2 + 4b2 .
Pour a − c = 2 et b = i, on a δ = 0, donc une valeur propre complexe double et A est diagonalisable si, et seulement
son application linéaire canoniquement associée est une homothétie.
µ si, ¶
2 i
Par exemple, A =
a une seule valeur propre λ = 1 et n'est pas diagonalisable puisque
i 0
A 6= I2 .
Réduction des endomorphismes symétriques
523
Pour réduire eectivement un endomorphisme (ou une matrice) symétrique u à la forme
diagonale, on peut procéder comme suit :
calculer le polynôme caractéristique de u ;
déterminer les valeurs propres λ1 , · · · , λp ;
déterminer les espaces propres correspondants ;
utiliser le procédé de Gram-Schmidt pour obtenir une base orthonormée Bk de chaque
espace propre Ek , pour k compris entre 1 et p ;
la réunion de ces bases nous donne une base orthonormée de E formée de vecteurs propres
de u.
Exercice 21.8 Diagonaliser dans une base orthonormée la matrice :

−1 1
1
A =  1 −1 1 
1
1 −1

Solution 21.8 Le polynôme caractéristique de A est donné par :
P (λ) = (1 − λ) (2 + λ)2 .
Les valeurs propres de A sont donc
λ1 =1 qui est simple et λ2 =−2 qui
 est double avec
 pour

1
1
1
1
1
1
vecteurs propres associés e1 = √  1  pour λ1 et e2 = √  −1  , e3 = √  1 
3
2
6
1
0
−2
pour λ2 . On a donc :
où :


1 0
0
t
P AP =  0 −2 0 
0 0 −2
√
 √

2
3
1
√
√
1
P = √  √2 − 3 1  .
6
2
0
−2
Exercice 21.9 On se donne deux réels a, b avec a 6= 0 et A (a, b) est la matrice réelle d'ordre
n≥2:




A (a, b) = 


b a
a ··· a
a b
a ··· a
.. . . . . . . ..
.
.
. .
.
a ··· a
b a
a ··· a
a b







1. Déterminer les valeurs propres de A (a, b) .
2. Diagonaliser A (a, b) dans une base orthonormée.
Solution 21.9
1. Avec l'exercice 15.10, on a vu que les valeurs propres de A (a, b) sont λ1 = b + (n − 1) a
qui est simple et λ2 = b − a qui est d'ordre n − 1.
524
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
2. La matrice A (a, b) étant symétrique réelle, elle est diagonalisable dans une base orthonormé.
La valeur propre λ1 = b + (n − 1) a étant simple, son espace propre associé E1 est une
droite vectorielle. Comme la somme de chaque ligne vaut λ1 , le vecteur t (1, 1, · · · , 1) est
1
un vecteur propre associé à λ1 et e1 = √ t (1, 1, · · · , 1) est un générateur unitaire de E1 .
n
L'espace propre E2 associé à λ2 = b − a est l'hyperplan d'équation :
x1 + · · · + xn = 0
et une base orthonormée de E2 est (ei )2≤i≤n où :
1
t
ei = p
(1, 1, · · · , 1, − (i − 1) , 0, · · · , 0)
i (i − 1)
le coecient − (i − 1) étant en position i, pour i compris entre 2 et n (on fait les calculs
pour n = 3 et on constate qu'on peut généraliser).
21.3 Endomorphismes symétriques positifs ou dénis positifs
Dénition 21.3 Un endomorphisme u ∈ L (E) est dit symétrique positif [resp. déni positif ]
s'il est symétrique avec hx | u (x)i ≥ 0 pour tout x ∈ E [resp. hx | u (x)i > 0 pour tout x ∈
E \ {0}].
On note S + (E) [resp. S ++ (E)] l'ensemble des endomorphismes symétriques positifs [resp.
dénis positifs] de E.
Si u ∈ S + (E) [resp. u ∈ S ++ (E)] a pour matrice A dans une base orthonormée, en désignant
par X le vecteur colonne constitué des coordonnées de x ∈ E dans cette base, on a pour tout
X ∈ Rn :
hX | AXi = hx | u (x)i ≥ 0 [resp. hX | AXi = hx | u (x)i > 0]
Ce qui nous conduit à la dénition suivante.
Dénition 21.4 Une matrice A ∈ Mn (R) est dite symétrique positive [resp. dénie positive]
si elle est symétrique avec hx | Axi ≥ 0 pour tout x ∈ Rn [resp. hx | Axi > 0 pour tout
x ∈ Rn \ {0}].
Une matrice symétrique positive [resp. dénie positive] dénit donc dans la base canonique
un endomorphisme symétrique positif [resp. déni positif].
On note Sn+ (R) [resp. Sn+ (R)] l'ensemble des matrices symétriques positives [resp. dénies
positives].
Le théorème spectral nous permet de caractériser les endomorphismes symétriques positifs
[resp. dénis positifs].
Théorème 21.6 Soit u ∈ S (E) . On a u ∈ S + (E) [resp. u ∈ S ++ (E)] si, et seulement si,
toutes ses valeurs propres sont positives [resp. strictement positives].
Endomorphismes symétriques positifs ou dénis positifs
525
Démonstration. Supposons que u ∈ S + (E) [resp. u ∈ S ++ (E)]. On sait déjà que toutes
les valeurs propres de u sont réelles. Si λ est l'une d'elles et x ∈ E \ {0} un vecteur propre
associé, on a alors :
0 ≤ hu (x) | xi = λ kxk2 [resp. 0 < hu (x) | xi = λ kxk2 ]
et λ ≥ 0 [resp. λ > 0] puisque kxk > 0.
Réciproquement si u ∈ S (E) a toutes ses valeurs propres positives [resp. strictement positives], en désignant par (ei )1≤i≤n une base orthonormée de vecteurs propres, on a pour tout
n
P
vecteur x =
xi ei :
i=1
*
hu (x) | xi =
n
X
i=1
=
n
X
xi λi ei |
n
X
+
xi ei
i=1
λi x2i ≥ 0 [resp. > 0 si x 6= 0]
i=1
Si u ∈ S + (E) [resp. u ∈ S ++ (E)], on a alors det (u) =
n
Q
k=1
λk ≥ 0 [resp. det (u) > 0], où les
λk sont les valeurs propres distinctes ou confondues de u.
De même, pour tout A ∈ Sn+ (R) [resp. A ∈ Sn++ (R)], on a det (A) ≥ 0 [resp. det (A) > 0].
Corollaire 21.3 Soit A ∈ Mn (R) . La matrice A est dans Sn+ (R) si, et seulement si, il existe
B ∈ Mn (R) telle que A = t BB.
Démonstration. Si A = t BB, on a alors t A = A et pour tout vecteur x ∈ Rn :
hAx | xi =
­
t
®
BBx | x = hBx | Bxi = kBxk2 ≥ 0
c'est-à-dire que A ∈ Sn+ (R) .
Réciproquement si A ∈ Sn+ (R) , elle a toutes ses valeurs propres positives et se diagonalise
n
dans une base orthonormée, c'est-à-dire qu'il existe P ∈ On (R) et (λ1 , · · · , λn ) ∈ (R+ ) tels
que A = P D t P, avec :


λ1 0 · · · 0
.
..

. .. 
 0 λ

D= . .2 .
.
..
.. 0 
 ..
0 · · · 0 λn
En posant :
 √


∆=

λ1
0
..
.
0
0 ···
0
√
..
..
.
λ2
.
..
..
.
.
√0
λn
···
0



,

la matrice B = P ∆ t P est symétrique positive (ses valeurs propres sont positives) et t BB =
B 2 = A.
Exercice 21.10 Montrer qu'une matrice symétrique réelle à diagonale strictement dominante
A = ((aij ))1≤i,j≤n est dénie positive si, et seulement si, aii > 0 pour tout i compris entre 1 et
n.
526
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
Solution 21.10 Supposons que aii > 0, pour tout i = 1, · · · , n. On sait déjà que les valeurs
propres de A sont réelles. En utilisant le théorème de Gerschgörin-Hadamard (théorème 15.7),
on a :
X
|λ − aii | ≤
|aij | < aii
j6=i
et nécessairement λ > 0. La matrice A a donc toutes ses valeurs propres strictement positives,
ce qui équivaut à dire qu'elle est dénie positive.
La réciproque provient de l'égalité aii = hAei | ei i où (ei , )1≤i≤n désigne la base canonique de
Rn .
L'utilisation des mineurs principaux nous permet de savoir si un endomorphisme ou une
matrice symétrique est déni [resp. dénie] positif [resp. positive] ou non.
On rappelle que si A = ((aij ))1≤i,j≤n est une matrice carrée d'ordre n, les mineurs principaux
de A sont les déterminants des matrices extraites Ak = ((aij ))1≤i,j≤k où k est un entier compris
entre 1 et n.
++
Lemme 21.5 Si A = ((aij ))1≤i,j≤n ∈ Sn (R) est telle que An−1 = ((aij ))1≤i,j≤n−1 ∈ Sn−1
(R) et
det (A) > 0, on a alors A ∈ Sn++ (R) .

Démonstration. En posant B = An−1

a1,n


..
++
∈ Sn−1
(R) , γ = 
 ∈ Rn−1 et α = an,n ∈
.
an−1,n
¶
B γ
.
R, on a A =
t
γ α
++
Comme B ∈ Sn−1
(R) , il existe une matrice D ∈ GLn−1 (R) telle que B = t DD et comme D
est inversible, il en est de même de t D et il existe un unique vecteur δ ∈ Rn−1 tel que γ = t Dδ,
de sorte que pour tout réel λ, on a :
¶
¶µ
¶ µ t
¶ µ t
µ t
t
t
DD
Dδ
DD
Dδ
D 0
D δ
=
=
t
t
t
δD t δδ + λ2
δ λ
0 λ
δD kδk2 + λ2
µ
¶
B
γ
=
t
γ kδk2 + λ2
µ
¶
D δ
, cela s'écrit :
En notant C =
0 λ
µ t
¶µ
¶ µ
¶
B
γ
D 0
D δ
t
CC =
=
t
t
δ λ
0 λ
γ kδk2 + λ2
µ
Si on montre que α − kδk2 > 0, on pourra choisir λ > 0 tel que kδk2 + λ2 = α et on aura
A = t CC, ce qui nous dit que A ∈ Sn++ (R) .
Pour montrer ce dernier point, on utilise la matrice :
µ −1
¶
B
−B −1 γ
0
A =
0
1
et on remarque que :
µ
¶ µ −1
¶ µ
¶
B γ
B
−B −1 γ
In−1
0
0
AA =
=
t
t
γ α
0
1
γB −1 α − t γB −1 γ
Endomorphismes symétriques positifs ou dénis positifs
donc :
det (AA0 ) = det (A) det (A0 ) =
avec :
t
γB −1 γ = γ =
et det (A) > 0, det (B) > 0.
En dénitive, α − kδk2 =
t
¡
t
Dδ
¢¡
t
DD
527
det (A)
= α − t γB −1 γ
det (B)
¢−1 ¡
t
det (A)
> 0 et prenant λ =
det (B)
¢
Dδ = t δδ = kδk2
q
α − kδk2 , on a A = t CC.
Théorème 21.7 Une matrice symétrique est dénie positive si, et seulement si, tous ses mineurs principaux sont strictement positifs.
Démonstration. Si A = ((aij ))1≤i,j≤n ∈ Sn (R) est dénie positive, il en est alors de même
de toutes les matrices extraites Ak = ((aij ))1≤i,j≤k , où k est un entier compris entre 1 et n, et
les déterminants principaux det (Ak ) sont strictement positifs.
Pour la réciproque, on procède par récurrence sur n ≥ 1 en utilisant le lemme précédent.
Pour n = 1, c'est clair puisque A = (a) avec a > 0.
Supposant le résultat acquis pour n − 1 ≥ 1 et soit A = ((aij ))1≤i,j≤n ∈ Sn (R) ayant tous ses
mineurs principaux strictement positifs. La matrice extraite An−1 = ((aij ))1≤i,j≤n−1 est alors
dénie positive par hypothèse de récurrence et comme det (A) > 0, le lemme précédent nous
dit que A ∈ Sn++ (R) .
Théorème 21.8 Soit u ∈ S (E) de matrice A = ((aij ))1≤i,j≤n ∈ Sn (R) dans une base ortho-
normée B = (ei )1≤i≤n . L'endomorphisme symétrique u est déni positif si, et seulement si, tous
les mineurs principaux de A sont strictement positifs.
Démonstration. Résulte du fait que u ∈ S ++ (E) si, et seulement si, sa matrice A dans
une base orthonormée est dans Sn++ (R) .
Corollaire 21.4 L'ensemble Sn++ (R) est un ouvert de Mn (R) .
³
´
Démonstration. Les applications ∆k : A 7→ det ((aij ))1≤i,j≤k sont continues sur Mn (R)
(elles sont polynomiales) et le théorème précédent nous dit que Sn++ (R) =
donc un ouvert comme intersection d'ouverts.
n
T
k=1
+,∗
∆−1
) , c'est
k (R
Exercice 21.11 Montrer que Sn+ (R) est un fermé convexe de Mn (R) et que son intérieur est
Sn++ (R) .
Solution 21.11 Si (Ak )k∈N est une suite d'éléments de Sn+ (R) qui converge dans Mn (R) vers
une matrice A, avec la continuité de l'application M 7→ hM X | Xi , pour tout X ∈ Rn xé, on
déduit que :
hAX | Xi = lim hAk X | Xi ≥ 0
k→+∞
(R) .
et A ∈
L'ensemble est donc fermé dans Mn (R) .
Pour A, B dans Sn+ (R) et t ∈ [0, 1] , on a pour tout X ∈ Rn :
Sn+
h((1 − t) A + tB) X | Xi = (1 − t) hAX | Xi + t hBX | Xi ≥ 0
528
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
et (1 − t) A + tB ∈ Sn+ (R) .
L'ensemble est donc convexe dans Mn (R) .
On sait déjà que Sn++ (R) est un ouvert de Mn (R) contenu dans Sn+ (R) .
Soit O est un ouvert non vide de Mn (R) contenu dans Sn+ (R) . Si O n'est pas contenu dans
Sn++ (R) , il existe une matrice A ∈ O qui n'est pas dénie positive. Cette matrice a donc au
moins une de ses valeurs propres qui est nulle et il existe une matrice orthogonaleP telle que :


0 0 ··· 0
...


0 
 0 λ2
t
P AP =  . .

 .. . . . . . ... 
0 · · · 0 λn
les λk étant positifs ou nul pour k compris entre 2 et n. Comme O est ouvert, il existe un entier
k0 tel que pour tout entier k ≥ k0 la matrice :
 1

−k 0 · · · 0
...


0  t
 0 λ2
Ak = P  . .
 P
. . . . . ... 
 ..
0 · · · 0 λn
soit dans O, ce qui est incompatible avec O ⊂ Sn+ (R) puisque Ak a une valeur propre strictement
négative.
On a donc O ⊂ Sn++ (R) et Sn++ (R) est l'intérieur de Sn+ (R) .
Exercice 21.12 Soit u ∈ S (E) . Montrer que Tr (u) = 0 si, et seulement si, il existe une base
orthonormée de E telle que la matrice de u dans cette base a tous ses termes diagonaux nuls.
Solution 21.12 Il est clair que la condition est susante.
Pour la réciproque, on raisonne par récurrence sur n ≥ 1.
Pour n = 1, c'est clair.
Supposons le résultat acquis pour les endomorphismes symétriques sur un espace euclidien de
dimension n et soit u ∈ S (E) de trace nulle. Comme u est symétrique, il se diagonalise dans
une base orthonormée B = (ei )1≤i≤n et en notant (λi )1≤i≤n les valeurs propres correspondantes,
on a :
n
n
X
X
hu (ei ) | ei i = 0
λi =
Tr (u) =
i=1
i=1
On en déduit alors l'existence d'un vecteur unitaire fn tel que hu (fn ) | fn i = 0. En eet,
s'il existe un indice i tel que hu (ei ) | ei i = 0 c'est terminé, sinon en supposant que λ1 =
hu (e1 ) | e1 i > 0, il existe un indice i compris entre 2 et n tel que λi = hu (ei ) | ei i < 0 et pour
x = α1 e1 + αi ei , on aura :
hu (x) | xi = hα1 λ1 e1 + αi λi ei | α1 e1 + αi ei i
= λ1 α12 + λi αi2 = 0
√ ¢
1
−λi , λ1 6= (0, 0) et fn =
x convient.
kxk
En complétant fn en une base orthonormée B0 = (fi )1≤i≤n la matrice de u dans B 0 est symétrique
en prenant (α1 , αi ) =
¡√
Réduction des endomorphismes symétriques et des formes quadratiques sur Rn
de la forme :



A =

0
a011 a021
···
a01n
..
.
...
.
a021 . .
.. . .
. a0n−1,n−1 a0n−1,n
.
0
a1n · · · a0n−1,n
0
529





En utilisant
les notations de la démonstration du théorème 21.8, la matrice extraite An−1 =
¡¡
¢¢
a0ij 1≤i,j≤n−1 est la matrice de l'endomorphisme symétrique un−1 = pn−1 ◦ vn−1 dans la base
Bn−1 et on a Tr (un−1 ) = Tr (An−1 ) = 0. Il existe donc une base orthonormée (gi )1≤i≤n−1 de En−1
dans laquelle la matrice de un−1 a tous ses termes diagonaux nuls. On vérie alors facilement
que dans la base orthonormée (g1 , · · · , gn−1 , fn ) la matrice de u est de trace nulle.
21.4 Réduction des endomorphismes symétriques et des
formes quadratiques sur Rn
Voir le paragraphe 22.4.
21.5 Quelques applications du théorème spectral
21.5.1 La norme euclidienne sur Mn (R)
Ã
L'application A = ((aij ))1≤i,j≤n ∈ Mn (R) 7→
P
1≤i,j≤n
! 12
a2ij
dénit une norme sur Mn (R)
2
(c'est tout simplement la norme euclidienne sur Mn (R) identié à Rn ) et nous allons voir
que cette norme peut se calculer, dans le cas des matrices symétriques, en fonction des valeurs
propres.
Théorème 21.9 Pour toute matrice A = ((aij ))1≤i,j≤n ∈ Sn (R) de valeurs propres λ1 , · · · , λn ,
on a :
X
1≤i,j≤n
Démonstration. On a
P
1≤i,j≤n
a2ij
=
n
X
λ2i .
i=1
a2ij = Tr ( t AA) = Tr (A2 ) et A2 est diagonalisable de valeurs
propres λ21 , · · · , λ2n , ce qui donne le résultat.
21.5.2 Diagonalisation simultanée d'endomorphismes symétriques
Le théorème spectral permet de montrer le résultat de diagonalisation simultanée suivant.
Théorème 21.10 Soit (ui )i∈I une famille d'endomorphismes symétriques de E (l'ensemble I
ayant au moins deux éléments).
Il existe une base orthonormée commune de diagonalisation dans E pour la famille (ui )i∈I si,
et seulement si, ces endomorphismes commutent deux à deux.
530
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
Démonstration. Il est facile de vérier que la condition est nécessaire.
Pour la réciproque, on raisonne par récurrence sur la dimension n ≥ 1 de E.
Pour n = 1 le résultat est évident puisque tous les ui sont des homothéties.
On suppose que E est de dimension n + 1 et que le résultat est acquis pour les espaces
vectoriels de dimension inférieure ou égale à n. Si tous les ui sont des homothéties alors le
résultat est clair. Sinon soit j dans I tel que uj ne soit pas une homothétie. Comme uj est
symétrique, on a la somme directe orthogonale :
⊥
M
E=
ker (uj − λId) .
λ∈Sp(uj )
L'endomorphisme uj n'étant pas une homothétie chaque sous espace propre de uj est de dimension inférieure ou égale à n. Comme tous les ui commutent à uj , chaque sous espace propre
est stable par ui pour tout i dans I et la restriction de chaque ui à chaque ker (uj − λId) est
symétrique et donc diagonalisable. On peut donc appliquer, pour tout λ ∈ Sp (uj ) , l'hypothèse
de récurrence à la famille des restrictions des ui à ker (uj − λId) , ce qui permet de construire
une base orthonormée de diagonalisation de ker (uj − λId) commune à toutes les restrictions de
ui à cet espace. La réunion de ces bases donne alors une base orthonormée de diagonalisation
commune à tous les ui .
Corollaire 21.5 Soit {Ai | i ∈ I} une famille de matrices symétriques réelles dans Sn (R)
(l'ensemble I ayant au moins deux éléments).
Ces matrices sont simultanément diagonalisables dans une base orthonormée (i. e. il existe
une matrice orthogonale P telle que pour tout i ∈ I la matrice t P Ai P est diagonale) si, et
seulement si les matrices Ai commutent deux à deux.
21.5.3 Racine carrée d'une matrice réelle symétrique positive
Du théorème spectral, on déduit l'existence d'une racine carrée pour une matrice symétrique
réelle positive. L'unicité d'une telle racine carrée symétrique positive peut se montrer en utilisant
le polynôme d'interpolation de Lagrange.
Théorème 21.11 Si A ∈ Sn+ (R) , il existe alors une unique B ∈ Sn+ (R) telle que A = B 2 .
Démonstration. La matrice A étant symétrique positive a toutes ses valeurs propres réelles
positives et se diagonalise dans une base orthonormée, c'est-à-dire qu'il existe P ∈ On (R) et
n
(λ1 , · · · , λn ) ∈ (R+ ) tels que A = P D t P, avec :



D=

λ1
0
..
.
0
En posant :
 √


∆=

λ1
0
..
.
0
0
··· 0
.
..
. ..
λ2
..
..
.
. 0
· · · 0 λn



.

0 ···
0
√
..
..
.
λ2
.
..
..
.
.
√0
λn
···
0



,

Quelques applications du théorème spectral
531
et B = P ∆ t P, on a B 2 = A, la matrice B étant symétrique positive (ses valeurs propres sont
positives).
√
Si ϕ est le polynôme d'interpolation de Lagrange déni par ϕ (λi ) = λi pour tout i ∈
{1, · · · , n} (le degré de ϕ est p − 1 où p est le nombre de valeurs propres distinctes de A), alors
ϕ (A) = P ϕ (D) t P = P ∆ t P = B.
C'est-à-dire que B est polynomiale en A.
Si C est une autre racine carrée de A symétrique positive, on a alors C 2 = A et C commute
avec A, donc avec B. En dénitive les matrices B et C commutent et sont symétriques, on sait
alors qu'elles sont simultanément diagonalisables dans une base orthonormée, c'est-à-dire qu'il
existe une matrice Q dans On (R) telle que C = QΓ t Q et B = QΛ t Q avec Γ et Λ diagonales
à coecients réels positifs. De C 2 = A = B 2 , on déduit alors que Γ2 = Λ2 et Γ = Λ du fait que
ces matrices sont diagonales à coecients réels positifs. Et en dénitive B = C.
Avec les notations du théorème, on dit que B est la racine carrée positive de A ∈ Sn+ (R) .
Cette racine carrée B est dans Sn++ (R) si A ∈ Sn++ (R) .
Dans la démonstration du théorème précédent, on a vu que B est polynomiale en A.
En notant B1 , · · · , Bn les colonnes de la matrice B, la ligne numéro i de B est t Bi puisque
B est symétrique et l'égalité A = B 2 se traduit par :
aij = t Bi Bj = hBi | Bj i (1 ≤ i, j ≤ n) .
On dit alors que A est une matrice de Gram. On a donc le résultat suivant.
Corollaire 21.6 Toute matrice symétrique positive est une matrice de Gram.
On montre de manière analogue que si A ∈ Sn+ (R) , alors pour tout entier p > 0, il existe
une unique matrice B ∈ Sn+ (R) telle que A = B p . De plus, si A est dénie positive, il en est de
même de B.
Exercice 21.13 Soient A ∈ Sn++ (R) et B ∈ Sn+ (R) . Montrer que AB a toutes ses valeurs
propres réelles positives et est diagonalisable.
Solution 21.13 Comme A ∈ Sn++ (R) , il existe C ∈ Sn++ (R) telle que A = C 2 et AB =
C 2 B = C (CBC) C −1 est semblable à D = CBC ∈ Sn+ (R) (pour tout x ∈ Rn , on a hDx | xi =
hB (Cx) | Cxi ≥ 0 puisque B ∈ Sn+ (R)). Et comme D, la matrice AB a toutes ses valeurs
propres réelles positives et est diagonalisable.
21.5.4 Décomposition polaire
Du théorème 21.11, on peut déduire l'existence de la décomposition polaire d'une matrice
réelle inversible.
Corollaire 21.7 Toute matrice A ∈ GLn (R) peut s'écrire de manière unique A = ΩS où Ω
est une matrice orthogonale et S une matrice symétrique dénie positive.
Démonstration. Si A = ΩS, alors t AA = S t ΩΩS = S 2 et S est la racine carrée positive
de la matrice symétrique dénie positive t AA (h t AAx | xi = kAxk2 > 0 pour x non nul). La
matrice Ω est alors donnée par Ω = AS −1 (A inversible entraîne S inversible). On a donc, en
cas d'existence, l'unicité des matrices Ω et S.
532
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
Si A ∈ GLn (R) , alors t AA est symétrique dénie positive et elle admet une unique racine
carrée symétrique dénie positive S. En posant Ω = AS −1 , on a A = ΩS et :
¡
¢¡
¢
¡ ¢−1 2 −1
t
ΩΩ = t S −1 t AA S −1 = t S
S S = S −1 S = In ,
c'est-à-dire que Ω est orthogonale.
De la densité de GLn (R) dans Mn (R) , on peut déduire une généralisation à Mn (R) du
théorème de décomposition polaire des matrices inversibles. Pour ce faire on a besoin du lemme
suivant.
Lemme 21.6 L'ensemble On (R) des matrices réelles orthogonales est compact dans Mn (R) .
Démonstration. On munit l'espace vectoriel Mn (R) de la norme matricielle k·k induite
par la norme euclidienne de Rn . Du fait qu'une transformation orthogonale conserve la norme
euclidienne de Rn , on déduit que pour toute matrice orthogonale A, on a kAk = 1. On déduit
donc que On (R) est borné dans (Mn (R) , k·k) . De plus cet ensemble est fermé comme image
réciproque du fermé {In } de Mn (R) par l'application continue A 7→ t AA. En conclusionOn (R)
est compact dans (Mn (R) , k·k) en tant que fermé borné (on est en dimension nie).
Exercice 21.14 Montrer que On (R) est un sous-groupe compact maximal de GLn (R) , c'est-
à-dire que On (R) est compact et que si G est sous-groupe compact de GLn (R) qui contient
On (R) , alors G = On (R) .
Solution 21.14 On sait déjà que On (R) est un sous-groupe compact de GLn (R) .
Supposons que G soit un sous-groupe compact de GLn (R) qui contient On (R) . Toute matrice
A ∈ G s'écrit A = ΩS où Ω ∈ On (R) et S ∈ Sn++ (R) . Comme A et Ω sont dans le groupe
multiplicatif G, S = Ω−1 A ∈ G. Par ailleurs, on sait qu'il existe une matrice P ∈ On (R) telle
que D = t P SP soit diagonale à termes diagonaux strictement positifs et D = t P SP est aussi
dans le groupe G. Notant λ1 , · · · , λn les termes diagonaux de la matrice D, ces λi sont tous
strictement positifs et pour tout entier relatif p la matrice diagonale Dp , de termes diagonaux
λp1 , · · · , λpn est aussi dans G. Mais si G est compact, il est en particulier borné et toutes les
suites (λpi )p∈Z sont bornées dans R+,∗ (0 < λpi ≤ kDp k∞ = max λpj ≤ M ), ce qui impose que
1≤j≤n
tous les λi valent 1, donc D = In , S = In et A = Ω ∈ On (R) .
On a donc bien G = On (R) .
Théorème 21.12 Toute matrice A ∈ Mn (R) peut s'écrire A = ΩS où Ω est une matrice
orthogonale et S une matrice symétrique positive.
Démonstration. Toute matrice A ∈ Mn (R) peut s'écrire A = lim Ak où (Ak )k∈N est une
k→+∞
suite de matrices inversibles. Avec le théorème de décomposition polaire, on peut écrire pour
tout entier k, Ak = Ωk Sk où (Ωk )k∈N est une suite de matrices orthogonales et (Sk )k∈N une
suite de matrices symétriques dénies
¡
¢positives. De la suite (Ωk )k∈N dans le compact On (R)
on peut extraire une sous-suite Ωϕ(k) k∈N qui converge vers une matrice Ω ∈ On (R) . De
¡
¢
t
Sk = Ω−1
k Ak = Ωk Ak et de la continuité du produit matriciel, on déduit que la suite Sϕ(k) k∈N
est convergente. La limite S de cette suite est une matrice symétrique positive et A = ΩS.
Remarque 21.6 Si A est de rang r < n, alors la décomposition ci-dessus n'est pas unique. En
eet, on peut diagonaliser la matrice symétrique positive S dans une base orthonormée (ei )1≤i≤n
avec Sei = λi ei pour 1 ≤ i ≤ n où λi = 0 pour 1 ≤ i ≤ n − r et λi > 0 sinon (si A n'est
pas inversible alors il en est de même de S et 0 est valeur propre de S ). Les Ωei sont alors
uniquement déterminés pour n − r + 1 ≤ i ≤ n, mais pour 1 ≤ i ≤ n − r il n'y a pas unicité.
Quelques applications du théorème spectral
533
Le théorème de décomposition polaire des matrices inversibles peut s'exprimer comme suit
en utilisant la compacité de On (R) .
Théorème 21.13 L'application (Ω, S) 7−→ ΩS réalise un homéomorphisme de On (R)×Sn++ (R)
sur GLn (R) .
Démonstration. On sait déjà que toute matrice A ∈ GLn (R) s'écrit de manière unique
A = ΩS avec Ω ∈ On (R) et S ∈ Sn++ (R). On déduit que l'application ϕ : (Ω, S) 7−→ ΩS réalise
une bijection de On (R) × Sn++ (R) sur GLn (R).
Cette application est continue car ses composantes sont des fonctions polynomiales des coecients ωij de Ω et srp de S . Il reste à montrer que ϕ−1 est continue.
Soit (Ak )k∈N une suite de matrices dans GLn (R) qui converge vers A. On note ϕ−1 (Ak ) =
(Ωk , Sk ) pour tout k ∈ N et ϕ−1¡(A) =¢ (Ω, S). De la suite (Ωk )k∈N dans le compact On (R),
on peut extraire une sous-suite Ωϕ(k) k∈N qui converge vers une matrice Ω0 ∈ On (R). De
¡
¢
Sk = t Ωk Ak , on déduit que la suite Sϕ(k) k∈N converge vers S 0 = t Ω0 A. La matrice S 0 est
symétrique positive comme limite d'une suite de matrices symétriques positives et elle est
dénie puisque inversible.
On a alors la décomposition polaire A = Ω0 S 0 . Cette dernière décomposition étant unique,
on a nécessairement Ω0 = Ω.
On a donc ainsi montré que la suite (Ωk )k∈N a une unique valeur d'adhérence dans le compact
On (R) . Elle converge donc vers Ω et (Sk )k∈N = (t Ωk Ak )k∈N converge vers t ΩA = S. C'est-à-dire
que la suite ((Ωk , Sk ))k∈N = (ϕ−1 (Ak ))k∈N converge vers (Ω, S) = ϕ−1 (A) et ϕ−1 est continue.
21.5.5 Rayon spectral des matrices symétriques réelles
On munit l'espace vectoriel Mn (R) de la norme matricielle k·k induite par la norme euclidienne de Rn .
On rappelle que si A ∈ Mn (C) , son rayon spectral est le réel :
ρ (A) = max |λ|
λ∈sp(A)
(voir le paragraphe 15.4).
Le théorème spectral permet de calculer la norme d'une matrice réelle.
Lemme 21.7 Si A ∈ Sn (R) , alors :
kAk = ρ (A) .
Démonstration. A ∈ Sn (R) se diagonalise dans une base orthonormée, il existe donc des
scalaires {λ1 , · · · , λn } et une base orthonormée de Rn (e1 , · · · , en ) tels que Aek = λk ek pour
n
n
P
P
tout k ∈ {1, · · · , n}. Pour tout x =
xk ek ∈ Rn tel que kxk2 =
|xk |2 = 1, on a alors :
k=1
2
kAxk =
n
X
k=1
2
k=1
2
2
|xk | |λk | ≤ ρ (A)
n
X
|xk |2 = ρ (A)2 .
k=1
On peut donc conclure que kAk ≤ ρ (A) .
Si k ∈ {1, · · · , n} est tel que ρ (A) = |λk | , alors ρ (A) = |λk | = kAek k avec kek k = 1. Donc
kAk = ρ (A) .
534
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
Exercice 21.15 Soient A et B deux matrices symétriques réelles. Montrer que :
ρ (AB) ≤ ρ (A) ρ (B) .
Solution 21.15 On a ρ (AB) ≤ kABk ≤ kAk kBk = ρ (A) ρ (B) si A et B sont symétriques
réelles.
Théorème 21.14 Pour toute matrice A ∈ Mn (R) , on a :
kAk =
p
k t AAk =
p
ρ ( t AA).
Démonstration. Pour tout x ∈ Rn tel que kxk2 = 1, en utilisant l'inégalité de Cauchy-
Schwarz, on a :
kAxk2 = hx | t AAxi ≤ kxk k t AAxk
≤ kxk k t AAk kxk = k t AAk .
Ce qui entraîne kAk2 ≤ k t AAk ≤ kAk k t Ak et kAk ≤ k t Ak . En appliquant cette inégalité à
t
A, on obtient k t Ak ≤ kAk ce qui donne :
°t °
° A° = kAk
On déduit donc que :
°
°
° °
kAk2 ≤ ° t AA° ≤ kAk ° t A° = kAk2 ,
ce qui entraîne kAk2 = k t AAk . La matrice t AA étant symétrique, on a aussi k t AAk =
ρ ( t AA) . Donc :
p
p
kAk = k t AAk = ρ ( t AA).
Exercice 21.16 On désigne par A la matrice réelle d'ordre n supérieur ou égal à 2 dénie
par :




A=



0
1
0
0
.
0 ..
.. . .
.
.
0 ···
···
0
...
1
... ...
0
0
0
0
0




.


1 
0
0
..
.
1. Calculer les valeurs propres de t AA.
2. Calculer kAk .
Solution 21.16 On désigne par u l'endomorphisme canoniquement associé à la matrice A dans
la base canonique B = (ei )1≤i≤n de Rn et par v celui associé à t A.
1. On a :
½
de sorte que :
u (e1 ) = 0
u (ej ) = ej−1 (2 ≤ j ≤ n)
½
½
et
v (en ) = 0
v (ej ) = ej+1 (1 ≤ j ≤ n − 1)
v ◦ u (e1 ) = 0,
v ◦ u (ej ) = v (ej−1 ) = ej (2 ≤ j ≤ n)
Quelques applications du théorème spectral
et :




t
AA = 



535
0
0
0
1
...
...
···
0
..
.
0
2. Il en résulte que :
kAk =
···
0
...
0
... ...
0
0
1
0
0







0 
1
0
..
.
p
ρ ( t AA) = 1.
Exercice 21.17 Calculer kAk , où A est la matrice réelle d'ordre n supérieur ou égal à 2 dénie
par :


0 −1


...
 −1 1
0
0 

. . . . . . . . . .. 
A=
0
. 

.
 . .

. . −1 1
 ..
0 
0 · · · 0 −1 1
1
0
···
Solution 21.17 Utilisant le résultat de l'exercice 15.16, on déduit que :

 2 si nµ= 2p, ¶
p
2π
kAk = ρ (t AA) =
si n = 2p + 1.
 2 sin p
2p + 1
536
Endomorphismes symétriques d'un espace vectoriel euclidien. Applications
Téléchargement