21 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications Les résultats de base concernant l'algèbre linéaire, l'algèbre bilinéaire et les espaces euclidiens sont supposés connus. On se reportera au paragraphe 18 pour des rappels sur les espaces euclidiens. Pour tout espace vectoriel E, L (E) est l'algèbre des endomorphismes de E et GL (E) est le groupe des automorphismes de E. On rappelle que le dual de E, c'est-à-dire l'ensemble E ∗ de toutes les formes linéaires sur E, est un espace vectoriel de dimension n = dim (E) . Pour tout entier n ≥ 1, Mn (R) est l'algèbre des matrices carrées d'ordre n à coecients réels et GLn (R) est le groupe des matrices inversibles dans Mn (R) . On note Id [resp. In ] l'endomorphisme [resp. la matrice] identité. p Pour ce chapitre, (E, h· | ·i) est un espace euclidien de dimension n ≥ 1 et kxk = hx|xi est la norme associée. Rn est muni de son produit scalaire canonique déni par : n n t ∀ (x, y) ∈ R × R , hx | yi = x · y = n X xk yk k=1 On rappelle que : l'orthogonal d'une partie non vide X de E est le sous-espace vectoriel : X ⊥ = {y ∈ E | ∀x ∈ X, hx | yi = 0} si F est un sous-espace vectoriel de E non réduit à {0} , le procédé de Gram-Schmidt (paragraphe 38.4) nous permet de construire à partir de n'importe quelle base de F une base orthonormée de F qui se complète en une base orthonormée de E ; on en déduit que si F est un sous-espace vectoriel de E, on a alors E = F ⊕ F ⊥ . Sn (R) = {A ∈ Mn (R) | t A = A} est l'espace vectoriel des matrices réelles d'ordre n qui sont symétriques. On rappelle que : ­ ® ∀A ∈ Mn (R) , ∀ (x, y) ∈ Rn × Rn , hAx | yi = x | t Ay ce qui se montre comme suit : ­ ® hAx | yi = t (Ax) y = t x t Ay = x | t Ay 515 516 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications On en déduit que : A ∈ Sn (R) ⇔ ∀ (x, y) ∈ Rn × Rn , hAx | yi = hx | Ayi En eet, l'égalité hAx | yi = hx | Ayi pour tous x, y, équivaut à hx | Ayi = hx | t Ayi et comme la forme bilinéaire h· | ·i est non dégénérée, cela équivaut à Ay = t Ay pour tout y, soit à A = t A. 21.1 Endomorphismes symétriques On rappelle tout d'abord la dénition et quelques propriétés de l'adjoint d'un endomorphisme dans un espace euclidien. Pour ce faire, on a besoin du résultat suivant. Lemme 21.1 Pour toute forme linéaire ` sur E, il existe un unique vecteur a ∈ E tel que : ∀x ∈ E, ` (x) = hx | ai . Démonstration. L'application ϕ qui associe à tout vecteur a ∈ E la forme linéaire ϕ (a) dénie par : ∀x ∈ E, ϕ (a) (x) = hx | ai est linéaire et injective. En eet, la linéarité à gauche de h· | ·i nous assure que ϕ (a) ∈ E ∗ , la linéarité à droite de h· | ·i nous assure la linéarité de ϕ et a est dans le noyau de ϕ si, et seulement si, hx | ai = 0 pour tout x ∈ E, ce qui équivaut à a = 0 puisque la forme bilinéaire h· | ·i est non dégénérée. Comme E et E ∗ sont de même dimension nie, ϕ est un isomorphisme et pour tout ` ∈ E ∗ il existe un unique a ∈ E tel que ` = ϕ (a) , ce qui est le résultat annoncé. Théorème 21.1 Pour tout endomorphisme u ∈ L (E) , il existe un unique endomorphisme u∗ ∈ L (E) tel que : ∀ (x, y) ∈ E 2 , hu (x) | yi = hx | u∗ (y)i Démonstration. Pour tout y ∈ E, l'application x 7→ hu (x) | yi est une forme linéaire sur E, il existe donc un unique vecteur u∗ (y) ∈ E tel que hu (x) | yi = hx | u∗ (y)i pour tout x ∈ E. On dénit donc une unique application u∗ de E dans E vériant la propriété annoncée. C'est cette unicité qui nous assure la linéarité de u∗ . En eet, pour y, z dans E et λ, µ dans R, on a pour tout x ∈ E : hu (x) | λy + µzi = λ hu (x) | yi + µ hu (x) | zi = λ hx | u∗ (y)i + µ hx | u∗ (z)i = hx | λu∗ (y) + µu∗ (z)i et λu∗ (y) + µu∗ (z) = u∗ (λy + µz) du fait de l'unicité du vecteur u∗ (λy + µz) . Dénition 21.1 Avec les notations du théorème précédent, on dit que u∗ est l'adjoint de u. Théorème 21.2 Si B = (ei )1≤i≤n est une base orthonormée de E et u un endomorphisme de E de matrice A dans cette base, alors la matrice de u∗ dans B est la transposée t A. Endomorphismes symétriques 517 Démonstration. La matrice A = ((aij ))1≤i,j≤n de u dans la base B est dénie par : u (ej ) = n X aij ei (1 ≤ j ≤ n) i=1 et dans le cas où cette base est orthonormée, on a pour tous i, j compris entre 1 et n : aij = hu (ej ) | ei i En notant A∗ = entre 1 et n : ¡¡ a∗ij ¢¢ 1≤i,j≤n la matrice de l'adjoint u∗ dans B, on a alors pour i, j compris a∗ij = hu∗ (ej ) | ei i = hej | u (ei )i = aji ce qui signie que A∗ = t A. Remarque 21.1 Si A = (aij )1≤i,j≤n est la matrice de u dans une base orthonormée, on a alors pour tous i, j compris entre 1 et n : aij = hu (ej ) | ei i En particulier, aii = hu (ei ) | ei i et : Tr (u) = n X hu (ei ) | ei i i=1 Pour u symétrique, on a : aij = aji = hu (ei ) | ej i Avec le théorème qui suit, on donne quelques propriétés de l'adjoint d'un endomorphisme. Théorème 21.3 Pour tous endomorphismes u, v dans L (E) , on a : 1. (u∗ )∗ = u. 2. (u ◦ v)∗ = v ∗ ◦ u∗ . ∗ 3. si u ∈ GL (E) , alors u∗ ∈ GL (E) et (u∗ )−1 = (u−1 ) . 4. ker (u∗ ) = (Im (u))⊥ et Im (u∗ ) = (ker (u))⊥ . 5. rg (u∗ ) = rg (u) . Démonstration. Les propriétés 1. à 3. peuvent se montrer en utilisant les matrices u dans une base orthonormée xée de E (ou encore directement avec la dénition de l'adjoint). Pour le point 4. on procède comme suit. Pour tous x ∈ ker (u∗ ) et z = u (y) ∈ Im (u) , on a : hx | zi = hx | u (y)i = hu∗ (x) | yi = h0 | yi = 0 et x ∈ (Im (u))⊥ . On a donc ker (u∗ ) ⊂ (Im (u))⊥ . Réciproquement pour x ∈ (Im (u))⊥ et tout y ∈ E, on a : hu∗ (x) | yi = hx | u (y)i = 0 ce qui équivaut à u∗ (x) = 0, soit x ∈ ker (u∗ ) . On a donc l'égalité ker (u∗ ) = (Im (u))⊥ . 518 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications L'inclusion Im (u∗ ) ⊂ (ker (u))⊥ se montre avec les mêmes arguments et avec : ³ ´ dim (Im (u∗ )) = n − dim (ker (u∗ )) = n − dim (Im (u))⊥ ³ ´ = dim (Im (u)) = n − dim (ker (u)) = dim (ker (u))⊥ on déduit l'égalité Im (u∗ ) = (ker (u))⊥ . L'égalité rg (u∗ ) = rg (u) s'en déduit alors immédiatement. Remarque 21.2 Avec le point 5. du théorème précédent, on retrouve l'égalité rg ( t A) = rg (A) pour toute matrice réelle A. Dénition 21.2 Un endomorphisme u ∈ L (E) est dit symétrique (ou auto-adjoint) si u∗ = u. On note S (E) l'ensemble de tous les endomorphismes symétriques de E. On a donc : u ∈ S (E) ⇔ u∗ = u ⇔ ∀ (x, y) ∈ E 2 , hu (x) | yi = hx | u (y)i et avec le théorème 21.2, on a la caractérisation suivante des éléments de S (E) . Théorème 21.4 Un endomorphisme u ∈ L (E) est symétrique si, et seulement si, sa matrice dans une base orthonormée de E est symétrique. Démonstration. On se donne une base orthonormée B de E et pour u ∈ L (E) , on note A sa matrice dans B. Si u est symétrique, on a u∗ = u et t A = A d'après le théorème 21.2, soit A ∈ Sn (R) . Réciproquement si A ∈ Sn (R) , en notant X la matrice d'un vecteur x ∈ E dans B, on a pour tous vecteurs x, y de E : hu (x) | yi = t (AX) Y = t X t AY = t X (AY ) = hx | u (y)i ce qui signie que u ∈ S (E) . En particulier si A ∈ Sn (R) , alors l'endomorphisme u qu'elle dénit dans la base canonique est dans S (Rn ) . Corollaire 21.1 S (E) est un sous-espace vectoriel de L (E) de dimension n (n + 1) . 2 Démonstration. Il est clair que S (E) est un sous-espace vectoriel de L (E) et le théorème 21.2 nous dit qu'il est isomorphe à Sn (R) (par l'application u 7→ A, où A est la matrice de u dans une base orthonormée xée de E ). Il s'agit alors de montrer que Sn (R) est un sous-espace vectoriel de Mn (R) de dimension n(n+1) n (n + 1) , ce qui résulte du fait que l'application ϕ : Sn (R) → R 2 dénie par : 2 ∀A = ((aij ))1≤i,j≤n ∈ Sn (R) , ϕ (A) = (aij )1≤i≤j≤n est un isomorphisme. On peut aussi procéder comme suit. En notant (Eij )1≤i,j≤n la base canonique de Mn (R) dénie par : Eij = ((δip δqj ))1≤p,q≤n Endomorphismes symétriques 519 où δrs est le symbole de Kronecker, on vérie que toute matrice symétrique s'écrit : A= = X aij Eij = aii Eii + i=1 1≤i,j≤n n X i=1 n X X (aij Eij + aji Eji ) 1≤i<j≤n X 1 aii (2Eii ) + aij (Eij + Eji ) 2 1≤i<j≤n ce qui signie que la famille (Eij + Eji )1≤i≤j≤n engendre Sn (R) . Comme cette famille est libre, n (n + 1) c'est une base et dim (Sn (R)) = card (Eij + Eji )1≤i≤j≤n = . Il en résulte que Sn (R) 2 n (n + 1) . est de dimension 2 Remarque 21.3 Pour tout u ∈ S (E) , les endomorphismes u + u∗ , u∗ u et uu∗ sont dans S (E) . Plus précisément, avec hu∗ ux | xi = ku (x)k2 et huu∗ (x) | xi = ku∗ (x)k2 , on déduit que u∗ u et uu∗ sont dans S + (E) (voir le paragraphe 21.3). Remarque 21.4 Si u ∈ S (E) , alors up ∈ S (E) pour tout entier naturel p et v ∗ ◦ u ◦ v ∈ S (E) pour toute endomorphisme v ∈ L (E) . Exercice 21.1 La composée de deux endomorphismes symétriques est-elle symétrique ? Solution 21.1 La réponse est non en général. Il revient au même de vérier que le produit de deux matrices symétriques une matrice symétrique. µ ¶n'est pas µnécessairement ¶ µ ¶ 1 1 1 2 3 3 Par exemple A = et B = sont dans S2 (R) et AB = ∈ / S2 (R) . 1 2 5 4 µ 0 0 ¶ µ2 1 ¶ a b a b et A0 = dans S2 (R) , les coecients De manière plus générale, pour A = b0 c0 b c d'indice (1, 2) et (2, 1) de AA0 sont respectivement b12 = ab0 + bc0 et b21 = a0 b + b0 c et en général b12 6= b21 . Exercice 21.2 Montrer que si u, v sont deux endomorphismes symétriques de E, alors la composée u ◦ v est symétrique si, et seulement si, u et v commutent. Solution 21.2 Si u, v sont deux endomorphismes symétriques qui commutent, il est alors fa- cile de vérier que u ◦ v est symétrique. Réciproquement supposons que u, v et u ◦ v soient symétrique. On a alors, pour tous x, y dans E, hu ◦ v (x) | yi = hx | u ◦ v (y)i , soit hv (x) | u (y)i = hu (x) | v (y)i , ce qui entraîne hu ◦ v (x) | yi = hv ◦ u (x) | yi et donc u ◦ v (x) = v ◦ u (x)pour tout x ∈ Rn , encore équivalent à u ◦ v = v ◦ u. Exercice 21.3 Soit u ∈ S (E) . Montrer que ker (u) et Im (u) sont supplémentaires orthogo- naux, c'est-à-dire que : ⊥ E = ker (u) ⊕ Im (u) Solution 21.3 Pour x ∈ ker (u) et z = u (y) ∈ Im (u) , on a : hx | zi = hx | u (y)i = hu (x) | yi = h0 | yi = 0 520 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications donc x ∈ (Im (u))⊥ . On a donc ker (u) ⊂ (Im (u))⊥ et avec le théorème du rang, on a : ³ ´ ⊥ dim (ker (u)) = n − dim (Im (u)) = dim (Im (u)) ce qui donne l'égalité ker (u) = (Im (u))⊥ et la somme directe : ⊥ ⊥ E = (Im (u))⊥ ⊕ Im (u) = ker (u) ⊕ Im (u) On rappelle qu'un projecteur de E est un endomorphisme p ∈ L (E) tel que p ◦ p = p. Si p est un projecteur de E, alors Im (p) est l'ensemble des vecteurs invariants de p et E = ker (p) ⊕ Im (p) , la décomposition d'un vecteur x ∈ E dans cette somme directe étant x = (x − p (x)) + p (x) . Un projecteur est dit orthogonal si ker (p) = (Im (p))⊥ . Exercice 21.4 Montrer qu'un projecteur p de E est un projecteur orthogonal si, et seulement si, il est symétrique. Solution 21.4 Si p est un projecteur symétrique, on a ker (p) = (Im (p∗ ))⊥ = (Im (p))⊥ et p est orthogonal. Réciproquement, si p est un projecteur orthogonal, on a alors pour tous vecteurs x, y de E : hp (x) | yi = hp (x) | y − p (y)i + hp (x) | p (y)i = hp (x) | p (y)i puisque y − p (y) ∈ ker (p) et p (x) ∈ Im (p) sont orthogonaux. Comme x et y jouent des rôles symétriques, on a aussi : hx | p (y)i = hp (y) | xi = hp (x) | p (y)i et hp (x) | yi = hx | p (y)i , ce qui signie que p est symétrique. Exercice 21.5 Montrer qu'une symétrie s de E est une symétrie orthogonale si, et seulement si, elle est symétrique. Solution 21.5 Laissée au lecteur. 21.2 Réduction des endomorphismes symétriques matrice réelle n'a pas forcément de valeurs propres réelles (par exemple A = µ Alors qu'une ¶ 0 −1 a pour valeurs propres −i et i dans C) nous allons montrer qu'un endomorphisme 1 0 symétrique ou, de manière équivalente, une matrice symétrique réelle, a toutes ses valeurs propres réelles et est diagonalisable dans une base orthonormée (théorème spectral). Comme pour la plupart des théorèmes de réduction d'endomorphisme, la démonstration se fait par récurrence sur la dimension de E. Lemme 21.2 Les valeurs propres d'une matrice symétrique réelle A sont toutes réelles. Démonstration. Voir le théorème 15.2. La matrice d'un endomorphisme symétrique dans une base orthonormée étant symétrique, on déduit de ce lemme qu'un endomorphisme symétrique u ∈ S (E) a n valeurs propres réelles distinctes ou confondues. Pour toute valeur propre λ de u ∈ S (E) , on désigne par Eλ = ker (u − λId ) l'espace propre associé. Réduction des endomorphismes symétriques 521 Lemme 21.3 On suppose que n ≥ 2. Si λ, µ sont deux valeurs propres distinctes de u ∈ S (E) , alors les espaces propres Eλ et Eµ sont orthogonaux. Démonstration. Pour x ∈ Eλ et y ∈ Eµ , on a : λ hx | yi = hλx | yi = hu (x) | yi = hx | u (y)i = hx | µyi = µ hx | yi et hx | yi = 0 puisque λ 6= µ. Lemme 21.4 On suppose que n ≥ 2. Si λ1 est une valeur propre de u ∈ S (E) , e1 ∈ E \ {0} un vecteur propre associé de norme égale à 1, alors l'hyperplan H = (Re1 )⊥ est stable par u et la restriction de u à H est symétrique. Démonstration. H est un hyperplan puisque c'est le noyau de la forme linéaire non nulle : ` : x 7→ hx | e1 i Pour tout x ∈ H, on a : hu (x) | e1 i = hx | u (e1 )i = hx | λ1 e1 i = λ1 hx | e1 i = 0 et u (x) ∈ H. La restriction v de u à H est donc un endomorphisme de H. En désignant par (ei )2≤i≤n une base orthonormée de H (procédé de Gram-Schmidt), B1 = (ei )1≤i≤n est une base orthonormée de E et la matrice de u dans cette base est : µ A1 = λ1 0 0 B ¶ où B ∈ Mn−1 (R) est la matrice de v dans (ei )2≤i≤n . Comme u est symétrique, il en est de même de A1 , donc de B et de v. Théorème 21.5 (spectral) Tout endomorphisme symétrique u ∈ S (E) se diagonalise dans une base orthonormée. Démonstration. On procède par récurrence sur n ≥ 1. Pour n = 1, les éléments de S (E) = L (E) sont des homothéties et toute base convient. Supposons le résultat acquis pour les endomorphismes symétriques de tout espace euclidien de dimension n − 1, où n ≥ 1. On se donne u ∈ S (E) avec E de dimension n et reprenant les notations de la démonstration du lemme 21.4, on a E = Re1 ⊕ H avec H = (Re1 )⊥ stable par u et v = u|H ∈ S (H) . Il existe alors une base orthonormée B1 de H dans laquelle la matrice de v est diagonale et B = {e1 }∪B1 est une base orthonormée de E dans laquelle la matrice de u est diagonale. On a donc, pour tout u ∈ S (E) , la somme directe orthogonale : E= ⊥ M ker (u − λId) λ∈Sp(u) On rappelle qu'un endomorphisme u ∈ L (E) est dit orthogonal si : ∀ (x, y) ∈ E 2 , hu (x) | u (y)i = hx | yi . 522 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications On note O (E) l'ensemble des endomorphismes orthogonaux de E. Dire que u ∈ O (E) équivaut à dire que u transforme toute base orthonormée de E en une base orthonormée. Un endomorphisme u ∈ L (E) est orthogonal si, et seulement si, pour toute base orthonormée B de E la matrice A de u dans B est telle que A t A = t AA = In . Une telle matrice A est dite orthogonale et on note On (R) le groupe multiplicatif de toutes ces matrices orthogonales. La matrice de passage d'une base orthonormée à une autre base orthonormée est une matrice orthogonale. Corollaire 21.2 Toute matrice symétrique réelle A ∈ Sn (R) se diagonalise dans une base orthonormée, c'est-à-dire qu'il existe une matrice orthogonale P ∈ On (R) telle que t P AP soit diagonale. Une deuxième démonstration du théorème spectral est donnée au paragraphe 17.5. Nous donnerons au paragraphe 21.4 une autre démonstration du théorème spectral en utilisant la continuité de la forme quadratique associée à la matrice A et le fait qu'une fonction continue sur un compact est bornée et atteint ses bornes. Exercice 21.6 Montrer que si λ est une valeur propre de u ∈ S (E) , on a alors : ⊥ E = ker (u − λId ) ⊕ Im (u − λId ) l'espace Im (u − λId ) étant stable par u. Solution 21.6 C'est l'exercice 21.3 pour u − λIn ∈ S (E) , la stabilité par u de Im (u − λId ) étant évidente. Exercice 21.7 Soit u ∈ S (E) telle que up = Id où p est un entier naturel non nul. Montrer que u2 = Id. Solution 21.7 Comme u est symétrique, il existe une base orthonormée B de E dans laquelle la matrice D de u est diagonale. L'égalité up = Id équivaut à Dp = In et les coecients diagonaux de D (à savoir les valeurs propres de u) sont alors racines réelles du polynôme X p − 1, ils sont donc dans {−1, 1} et on a nécessairement D2 = In , ce qui équivaut à u2 = Id. Remarque 21.5 Le théorème 21.5 (ou son corollaire) n'est plus valable pour les matrices complexes. En eet, si A = µ a b b c ¶ ∈ S2 (C) , son polynôme caractéristique est : ¡ ¢ PA (λ) = λ2 − (a + c) λ + ac − b2 et le discriminant de ce polynôme est : δ = (a − c)2 + 4b2 . Pour a − c = 2 et b = i, on a δ = 0, donc une valeur propre complexe double et A est diagonalisable si, et seulement son application linéaire canoniquement associée est une homothétie. µ si, ¶ 2 i Par exemple, A = a une seule valeur propre λ = 1 et n'est pas diagonalisable puisque i 0 A 6= I2 . Réduction des endomorphismes symétriques 523 Pour réduire eectivement un endomorphisme (ou une matrice) symétrique u à la forme diagonale, on peut procéder comme suit : calculer le polynôme caractéristique de u ; déterminer les valeurs propres λ1 , · · · , λp ; déterminer les espaces propres correspondants ; utiliser le procédé de Gram-Schmidt pour obtenir une base orthonormée Bk de chaque espace propre Ek , pour k compris entre 1 et p ; la réunion de ces bases nous donne une base orthonormée de E formée de vecteurs propres de u. Exercice 21.8 Diagonaliser dans une base orthonormée la matrice : −1 1 1 A = 1 −1 1 1 1 −1 Solution 21.8 Le polynôme caractéristique de A est donné par : P (λ) = (1 − λ) (2 + λ)2 . Les valeurs propres de A sont donc λ1 =1 qui est simple et λ2 =−2 qui est double avec pour 1 1 1 1 1 1 vecteurs propres associés e1 = √ 1 pour λ1 et e2 = √ −1 , e3 = √ 1 3 2 6 1 0 −2 pour λ2 . On a donc : où : 1 0 0 t P AP = 0 −2 0 0 0 −2 √ √ 2 3 1 √ √ 1 P = √ √2 − 3 1 . 6 2 0 −2 Exercice 21.9 On se donne deux réels a, b avec a 6= 0 et A (a, b) est la matrice réelle d'ordre n≥2: A (a, b) = b a a ··· a a b a ··· a .. . . . . . . .. . . . . . a ··· a b a a ··· a a b 1. Déterminer les valeurs propres de A (a, b) . 2. Diagonaliser A (a, b) dans une base orthonormée. Solution 21.9 1. Avec l'exercice 15.10, on a vu que les valeurs propres de A (a, b) sont λ1 = b + (n − 1) a qui est simple et λ2 = b − a qui est d'ordre n − 1. 524 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications 2. La matrice A (a, b) étant symétrique réelle, elle est diagonalisable dans une base orthonormé. La valeur propre λ1 = b + (n − 1) a étant simple, son espace propre associé E1 est une droite vectorielle. Comme la somme de chaque ligne vaut λ1 , le vecteur t (1, 1, · · · , 1) est 1 un vecteur propre associé à λ1 et e1 = √ t (1, 1, · · · , 1) est un générateur unitaire de E1 . n L'espace propre E2 associé à λ2 = b − a est l'hyperplan d'équation : x1 + · · · + xn = 0 et une base orthonormée de E2 est (ei )2≤i≤n où : 1 t ei = p (1, 1, · · · , 1, − (i − 1) , 0, · · · , 0) i (i − 1) le coecient − (i − 1) étant en position i, pour i compris entre 2 et n (on fait les calculs pour n = 3 et on constate qu'on peut généraliser). 21.3 Endomorphismes symétriques positifs ou dénis positifs Dénition 21.3 Un endomorphisme u ∈ L (E) est dit symétrique positif [resp. déni positif ] s'il est symétrique avec hx | u (x)i ≥ 0 pour tout x ∈ E [resp. hx | u (x)i > 0 pour tout x ∈ E \ {0}]. On note S + (E) [resp. S ++ (E)] l'ensemble des endomorphismes symétriques positifs [resp. dénis positifs] de E. Si u ∈ S + (E) [resp. u ∈ S ++ (E)] a pour matrice A dans une base orthonormée, en désignant par X le vecteur colonne constitué des coordonnées de x ∈ E dans cette base, on a pour tout X ∈ Rn : hX | AXi = hx | u (x)i ≥ 0 [resp. hX | AXi = hx | u (x)i > 0] Ce qui nous conduit à la dénition suivante. Dénition 21.4 Une matrice A ∈ Mn (R) est dite symétrique positive [resp. dénie positive] si elle est symétrique avec hx | Axi ≥ 0 pour tout x ∈ Rn [resp. hx | Axi > 0 pour tout x ∈ Rn \ {0}]. Une matrice symétrique positive [resp. dénie positive] dénit donc dans la base canonique un endomorphisme symétrique positif [resp. déni positif]. On note Sn+ (R) [resp. Sn+ (R)] l'ensemble des matrices symétriques positives [resp. dénies positives]. Le théorème spectral nous permet de caractériser les endomorphismes symétriques positifs [resp. dénis positifs]. Théorème 21.6 Soit u ∈ S (E) . On a u ∈ S + (E) [resp. u ∈ S ++ (E)] si, et seulement si, toutes ses valeurs propres sont positives [resp. strictement positives]. Endomorphismes symétriques positifs ou dénis positifs 525 Démonstration. Supposons que u ∈ S + (E) [resp. u ∈ S ++ (E)]. On sait déjà que toutes les valeurs propres de u sont réelles. Si λ est l'une d'elles et x ∈ E \ {0} un vecteur propre associé, on a alors : 0 ≤ hu (x) | xi = λ kxk2 [resp. 0 < hu (x) | xi = λ kxk2 ] et λ ≥ 0 [resp. λ > 0] puisque kxk > 0. Réciproquement si u ∈ S (E) a toutes ses valeurs propres positives [resp. strictement positives], en désignant par (ei )1≤i≤n une base orthonormée de vecteurs propres, on a pour tout n P vecteur x = xi ei : i=1 * hu (x) | xi = n X i=1 = n X xi λi ei | n X + xi ei i=1 λi x2i ≥ 0 [resp. > 0 si x 6= 0] i=1 Si u ∈ S + (E) [resp. u ∈ S ++ (E)], on a alors det (u) = n Q k=1 λk ≥ 0 [resp. det (u) > 0], où les λk sont les valeurs propres distinctes ou confondues de u. De même, pour tout A ∈ Sn+ (R) [resp. A ∈ Sn++ (R)], on a det (A) ≥ 0 [resp. det (A) > 0]. Corollaire 21.3 Soit A ∈ Mn (R) . La matrice A est dans Sn+ (R) si, et seulement si, il existe B ∈ Mn (R) telle que A = t BB. Démonstration. Si A = t BB, on a alors t A = A et pour tout vecteur x ∈ Rn : hAx | xi = ­ t ® BBx | x = hBx | Bxi = kBxk2 ≥ 0 c'est-à-dire que A ∈ Sn+ (R) . Réciproquement si A ∈ Sn+ (R) , elle a toutes ses valeurs propres positives et se diagonalise n dans une base orthonormée, c'est-à-dire qu'il existe P ∈ On (R) et (λ1 , · · · , λn ) ∈ (R+ ) tels que A = P D t P, avec : λ1 0 · · · 0 . .. . .. 0 λ D= . .2 . . .. .. 0 .. 0 · · · 0 λn En posant : √ ∆= λ1 0 .. . 0 0 ··· 0 √ .. .. . λ2 . .. .. . . √0 λn ··· 0 , la matrice B = P ∆ t P est symétrique positive (ses valeurs propres sont positives) et t BB = B 2 = A. Exercice 21.10 Montrer qu'une matrice symétrique réelle à diagonale strictement dominante A = ((aij ))1≤i,j≤n est dénie positive si, et seulement si, aii > 0 pour tout i compris entre 1 et n. 526 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications Solution 21.10 Supposons que aii > 0, pour tout i = 1, · · · , n. On sait déjà que les valeurs propres de A sont réelles. En utilisant le théorème de Gerschgörin-Hadamard (théorème 15.7), on a : X |λ − aii | ≤ |aij | < aii j6=i et nécessairement λ > 0. La matrice A a donc toutes ses valeurs propres strictement positives, ce qui équivaut à dire qu'elle est dénie positive. La réciproque provient de l'égalité aii = hAei | ei i où (ei , )1≤i≤n désigne la base canonique de Rn . L'utilisation des mineurs principaux nous permet de savoir si un endomorphisme ou une matrice symétrique est déni [resp. dénie] positif [resp. positive] ou non. On rappelle que si A = ((aij ))1≤i,j≤n est une matrice carrée d'ordre n, les mineurs principaux de A sont les déterminants des matrices extraites Ak = ((aij ))1≤i,j≤k où k est un entier compris entre 1 et n. ++ Lemme 21.5 Si A = ((aij ))1≤i,j≤n ∈ Sn (R) est telle que An−1 = ((aij ))1≤i,j≤n−1 ∈ Sn−1 (R) et det (A) > 0, on a alors A ∈ Sn++ (R) . Démonstration. En posant B = An−1 a1,n .. ++ ∈ Sn−1 (R) , γ = ∈ Rn−1 et α = an,n ∈ . an−1,n ¶ B γ . R, on a A = t γ α ++ Comme B ∈ Sn−1 (R) , il existe une matrice D ∈ GLn−1 (R) telle que B = t DD et comme D est inversible, il en est de même de t D et il existe un unique vecteur δ ∈ Rn−1 tel que γ = t Dδ, de sorte que pour tout réel λ, on a : ¶ ¶µ ¶ µ t ¶ µ t µ t t t DD Dδ DD Dδ D 0 D δ = = t t t δD t δδ + λ2 δ λ 0 λ δD kδk2 + λ2 µ ¶ B γ = t γ kδk2 + λ2 µ ¶ D δ , cela s'écrit : En notant C = 0 λ µ t ¶µ ¶ µ ¶ B γ D 0 D δ t CC = = t t δ λ 0 λ γ kδk2 + λ2 µ Si on montre que α − kδk2 > 0, on pourra choisir λ > 0 tel que kδk2 + λ2 = α et on aura A = t CC, ce qui nous dit que A ∈ Sn++ (R) . Pour montrer ce dernier point, on utilise la matrice : µ −1 ¶ B −B −1 γ 0 A = 0 1 et on remarque que : µ ¶ µ −1 ¶ µ ¶ B γ B −B −1 γ In−1 0 0 AA = = t t γ α 0 1 γB −1 α − t γB −1 γ Endomorphismes symétriques positifs ou dénis positifs donc : det (AA0 ) = det (A) det (A0 ) = avec : t γB −1 γ = γ = et det (A) > 0, det (B) > 0. En dénitive, α − kδk2 = t ¡ t Dδ ¢¡ t DD 527 det (A) = α − t γB −1 γ det (B) ¢−1 ¡ t det (A) > 0 et prenant λ = det (B) ¢ Dδ = t δδ = kδk2 q α − kδk2 , on a A = t CC. Théorème 21.7 Une matrice symétrique est dénie positive si, et seulement si, tous ses mineurs principaux sont strictement positifs. Démonstration. Si A = ((aij ))1≤i,j≤n ∈ Sn (R) est dénie positive, il en est alors de même de toutes les matrices extraites Ak = ((aij ))1≤i,j≤k , où k est un entier compris entre 1 et n, et les déterminants principaux det (Ak ) sont strictement positifs. Pour la réciproque, on procède par récurrence sur n ≥ 1 en utilisant le lemme précédent. Pour n = 1, c'est clair puisque A = (a) avec a > 0. Supposant le résultat acquis pour n − 1 ≥ 1 et soit A = ((aij ))1≤i,j≤n ∈ Sn (R) ayant tous ses mineurs principaux strictement positifs. La matrice extraite An−1 = ((aij ))1≤i,j≤n−1 est alors dénie positive par hypothèse de récurrence et comme det (A) > 0, le lemme précédent nous dit que A ∈ Sn++ (R) . Théorème 21.8 Soit u ∈ S (E) de matrice A = ((aij ))1≤i,j≤n ∈ Sn (R) dans une base ortho- normée B = (ei )1≤i≤n . L'endomorphisme symétrique u est déni positif si, et seulement si, tous les mineurs principaux de A sont strictement positifs. Démonstration. Résulte du fait que u ∈ S ++ (E) si, et seulement si, sa matrice A dans une base orthonormée est dans Sn++ (R) . Corollaire 21.4 L'ensemble Sn++ (R) est un ouvert de Mn (R) . ³ ´ Démonstration. Les applications ∆k : A 7→ det ((aij ))1≤i,j≤k sont continues sur Mn (R) (elles sont polynomiales) et le théorème précédent nous dit que Sn++ (R) = donc un ouvert comme intersection d'ouverts. n T k=1 +,∗ ∆−1 ) , c'est k (R Exercice 21.11 Montrer que Sn+ (R) est un fermé convexe de Mn (R) et que son intérieur est Sn++ (R) . Solution 21.11 Si (Ak )k∈N est une suite d'éléments de Sn+ (R) qui converge dans Mn (R) vers une matrice A, avec la continuité de l'application M 7→ hM X | Xi , pour tout X ∈ Rn xé, on déduit que : hAX | Xi = lim hAk X | Xi ≥ 0 k→+∞ (R) . et A ∈ L'ensemble est donc fermé dans Mn (R) . Pour A, B dans Sn+ (R) et t ∈ [0, 1] , on a pour tout X ∈ Rn : Sn+ h((1 − t) A + tB) X | Xi = (1 − t) hAX | Xi + t hBX | Xi ≥ 0 528 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications et (1 − t) A + tB ∈ Sn+ (R) . L'ensemble est donc convexe dans Mn (R) . On sait déjà que Sn++ (R) est un ouvert de Mn (R) contenu dans Sn+ (R) . Soit O est un ouvert non vide de Mn (R) contenu dans Sn+ (R) . Si O n'est pas contenu dans Sn++ (R) , il existe une matrice A ∈ O qui n'est pas dénie positive. Cette matrice a donc au moins une de ses valeurs propres qui est nulle et il existe une matrice orthogonaleP telle que : 0 0 ··· 0 ... 0 0 λ2 t P AP = . . .. . . . . . ... 0 · · · 0 λn les λk étant positifs ou nul pour k compris entre 2 et n. Comme O est ouvert, il existe un entier k0 tel que pour tout entier k ≥ k0 la matrice : 1 −k 0 · · · 0 ... 0 t 0 λ2 Ak = P . . P . . . . . ... .. 0 · · · 0 λn soit dans O, ce qui est incompatible avec O ⊂ Sn+ (R) puisque Ak a une valeur propre strictement négative. On a donc O ⊂ Sn++ (R) et Sn++ (R) est l'intérieur de Sn+ (R) . Exercice 21.12 Soit u ∈ S (E) . Montrer que Tr (u) = 0 si, et seulement si, il existe une base orthonormée de E telle que la matrice de u dans cette base a tous ses termes diagonaux nuls. Solution 21.12 Il est clair que la condition est susante. Pour la réciproque, on raisonne par récurrence sur n ≥ 1. Pour n = 1, c'est clair. Supposons le résultat acquis pour les endomorphismes symétriques sur un espace euclidien de dimension n et soit u ∈ S (E) de trace nulle. Comme u est symétrique, il se diagonalise dans une base orthonormée B = (ei )1≤i≤n et en notant (λi )1≤i≤n les valeurs propres correspondantes, on a : n n X X hu (ei ) | ei i = 0 λi = Tr (u) = i=1 i=1 On en déduit alors l'existence d'un vecteur unitaire fn tel que hu (fn ) | fn i = 0. En eet, s'il existe un indice i tel que hu (ei ) | ei i = 0 c'est terminé, sinon en supposant que λ1 = hu (e1 ) | e1 i > 0, il existe un indice i compris entre 2 et n tel que λi = hu (ei ) | ei i < 0 et pour x = α1 e1 + αi ei , on aura : hu (x) | xi = hα1 λ1 e1 + αi λi ei | α1 e1 + αi ei i = λ1 α12 + λi αi2 = 0 √ ¢ 1 −λi , λ1 6= (0, 0) et fn = x convient. kxk En complétant fn en une base orthonormée B0 = (fi )1≤i≤n la matrice de u dans B 0 est symétrique en prenant (α1 , αi ) = ¡√ Réduction des endomorphismes symétriques et des formes quadratiques sur Rn de la forme : A = 0 a011 a021 ··· a01n .. . ... . a021 . . .. . . . a0n−1,n−1 a0n−1,n . 0 a1n · · · a0n−1,n 0 529 En utilisant les notations de la démonstration du théorème 21.8, la matrice extraite An−1 = ¡¡ ¢¢ a0ij 1≤i,j≤n−1 est la matrice de l'endomorphisme symétrique un−1 = pn−1 ◦ vn−1 dans la base Bn−1 et on a Tr (un−1 ) = Tr (An−1 ) = 0. Il existe donc une base orthonormée (gi )1≤i≤n−1 de En−1 dans laquelle la matrice de un−1 a tous ses termes diagonaux nuls. On vérie alors facilement que dans la base orthonormée (g1 , · · · , gn−1 , fn ) la matrice de u est de trace nulle. 21.4 Réduction des endomorphismes symétriques et des formes quadratiques sur Rn Voir le paragraphe 22.4. 21.5 Quelques applications du théorème spectral 21.5.1 La norme euclidienne sur Mn (R) à L'application A = ((aij ))1≤i,j≤n ∈ Mn (R) 7→ P 1≤i,j≤n ! 12 a2ij dénit une norme sur Mn (R) 2 (c'est tout simplement la norme euclidienne sur Mn (R) identié à Rn ) et nous allons voir que cette norme peut se calculer, dans le cas des matrices symétriques, en fonction des valeurs propres. Théorème 21.9 Pour toute matrice A = ((aij ))1≤i,j≤n ∈ Sn (R) de valeurs propres λ1 , · · · , λn , on a : X 1≤i,j≤n Démonstration. On a P 1≤i,j≤n a2ij = n X λ2i . i=1 a2ij = Tr ( t AA) = Tr (A2 ) et A2 est diagonalisable de valeurs propres λ21 , · · · , λ2n , ce qui donne le résultat. 21.5.2 Diagonalisation simultanée d'endomorphismes symétriques Le théorème spectral permet de montrer le résultat de diagonalisation simultanée suivant. Théorème 21.10 Soit (ui )i∈I une famille d'endomorphismes symétriques de E (l'ensemble I ayant au moins deux éléments). Il existe une base orthonormée commune de diagonalisation dans E pour la famille (ui )i∈I si, et seulement si, ces endomorphismes commutent deux à deux. 530 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications Démonstration. Il est facile de vérier que la condition est nécessaire. Pour la réciproque, on raisonne par récurrence sur la dimension n ≥ 1 de E. Pour n = 1 le résultat est évident puisque tous les ui sont des homothéties. On suppose que E est de dimension n + 1 et que le résultat est acquis pour les espaces vectoriels de dimension inférieure ou égale à n. Si tous les ui sont des homothéties alors le résultat est clair. Sinon soit j dans I tel que uj ne soit pas une homothétie. Comme uj est symétrique, on a la somme directe orthogonale : ⊥ M E= ker (uj − λId) . λ∈Sp(uj ) L'endomorphisme uj n'étant pas une homothétie chaque sous espace propre de uj est de dimension inférieure ou égale à n. Comme tous les ui commutent à uj , chaque sous espace propre est stable par ui pour tout i dans I et la restriction de chaque ui à chaque ker (uj − λId) est symétrique et donc diagonalisable. On peut donc appliquer, pour tout λ ∈ Sp (uj ) , l'hypothèse de récurrence à la famille des restrictions des ui à ker (uj − λId) , ce qui permet de construire une base orthonormée de diagonalisation de ker (uj − λId) commune à toutes les restrictions de ui à cet espace. La réunion de ces bases donne alors une base orthonormée de diagonalisation commune à tous les ui . Corollaire 21.5 Soit {Ai | i ∈ I} une famille de matrices symétriques réelles dans Sn (R) (l'ensemble I ayant au moins deux éléments). Ces matrices sont simultanément diagonalisables dans une base orthonormée (i. e. il existe une matrice orthogonale P telle que pour tout i ∈ I la matrice t P Ai P est diagonale) si, et seulement si les matrices Ai commutent deux à deux. 21.5.3 Racine carrée d'une matrice réelle symétrique positive Du théorème spectral, on déduit l'existence d'une racine carrée pour une matrice symétrique réelle positive. L'unicité d'une telle racine carrée symétrique positive peut se montrer en utilisant le polynôme d'interpolation de Lagrange. Théorème 21.11 Si A ∈ Sn+ (R) , il existe alors une unique B ∈ Sn+ (R) telle que A = B 2 . Démonstration. La matrice A étant symétrique positive a toutes ses valeurs propres réelles positives et se diagonalise dans une base orthonormée, c'est-à-dire qu'il existe P ∈ On (R) et n (λ1 , · · · , λn ) ∈ (R+ ) tels que A = P D t P, avec : D= λ1 0 .. . 0 En posant : √ ∆= λ1 0 .. . 0 0 ··· 0 . .. . .. λ2 .. .. . . 0 · · · 0 λn . 0 ··· 0 √ .. .. . λ2 . .. .. . . √0 λn ··· 0 , Quelques applications du théorème spectral 531 et B = P ∆ t P, on a B 2 = A, la matrice B étant symétrique positive (ses valeurs propres sont positives). √ Si ϕ est le polynôme d'interpolation de Lagrange déni par ϕ (λi ) = λi pour tout i ∈ {1, · · · , n} (le degré de ϕ est p − 1 où p est le nombre de valeurs propres distinctes de A), alors ϕ (A) = P ϕ (D) t P = P ∆ t P = B. C'est-à-dire que B est polynomiale en A. Si C est une autre racine carrée de A symétrique positive, on a alors C 2 = A et C commute avec A, donc avec B. En dénitive les matrices B et C commutent et sont symétriques, on sait alors qu'elles sont simultanément diagonalisables dans une base orthonormée, c'est-à-dire qu'il existe une matrice Q dans On (R) telle que C = QΓ t Q et B = QΛ t Q avec Γ et Λ diagonales à coecients réels positifs. De C 2 = A = B 2 , on déduit alors que Γ2 = Λ2 et Γ = Λ du fait que ces matrices sont diagonales à coecients réels positifs. Et en dénitive B = C. Avec les notations du théorème, on dit que B est la racine carrée positive de A ∈ Sn+ (R) . Cette racine carrée B est dans Sn++ (R) si A ∈ Sn++ (R) . Dans la démonstration du théorème précédent, on a vu que B est polynomiale en A. En notant B1 , · · · , Bn les colonnes de la matrice B, la ligne numéro i de B est t Bi puisque B est symétrique et l'égalité A = B 2 se traduit par : aij = t Bi Bj = hBi | Bj i (1 ≤ i, j ≤ n) . On dit alors que A est une matrice de Gram. On a donc le résultat suivant. Corollaire 21.6 Toute matrice symétrique positive est une matrice de Gram. On montre de manière analogue que si A ∈ Sn+ (R) , alors pour tout entier p > 0, il existe une unique matrice B ∈ Sn+ (R) telle que A = B p . De plus, si A est dénie positive, il en est de même de B. Exercice 21.13 Soient A ∈ Sn++ (R) et B ∈ Sn+ (R) . Montrer que AB a toutes ses valeurs propres réelles positives et est diagonalisable. Solution 21.13 Comme A ∈ Sn++ (R) , il existe C ∈ Sn++ (R) telle que A = C 2 et AB = C 2 B = C (CBC) C −1 est semblable à D = CBC ∈ Sn+ (R) (pour tout x ∈ Rn , on a hDx | xi = hB (Cx) | Cxi ≥ 0 puisque B ∈ Sn+ (R)). Et comme D, la matrice AB a toutes ses valeurs propres réelles positives et est diagonalisable. 21.5.4 Décomposition polaire Du théorème 21.11, on peut déduire l'existence de la décomposition polaire d'une matrice réelle inversible. Corollaire 21.7 Toute matrice A ∈ GLn (R) peut s'écrire de manière unique A = ΩS où Ω est une matrice orthogonale et S une matrice symétrique dénie positive. Démonstration. Si A = ΩS, alors t AA = S t ΩΩS = S 2 et S est la racine carrée positive de la matrice symétrique dénie positive t AA (h t AAx | xi = kAxk2 > 0 pour x non nul). La matrice Ω est alors donnée par Ω = AS −1 (A inversible entraîne S inversible). On a donc, en cas d'existence, l'unicité des matrices Ω et S. 532 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications Si A ∈ GLn (R) , alors t AA est symétrique dénie positive et elle admet une unique racine carrée symétrique dénie positive S. En posant Ω = AS −1 , on a A = ΩS et : ¡ ¢¡ ¢ ¡ ¢−1 2 −1 t ΩΩ = t S −1 t AA S −1 = t S S S = S −1 S = In , c'est-à-dire que Ω est orthogonale. De la densité de GLn (R) dans Mn (R) , on peut déduire une généralisation à Mn (R) du théorème de décomposition polaire des matrices inversibles. Pour ce faire on a besoin du lemme suivant. Lemme 21.6 L'ensemble On (R) des matrices réelles orthogonales est compact dans Mn (R) . Démonstration. On munit l'espace vectoriel Mn (R) de la norme matricielle k·k induite par la norme euclidienne de Rn . Du fait qu'une transformation orthogonale conserve la norme euclidienne de Rn , on déduit que pour toute matrice orthogonale A, on a kAk = 1. On déduit donc que On (R) est borné dans (Mn (R) , k·k) . De plus cet ensemble est fermé comme image réciproque du fermé {In } de Mn (R) par l'application continue A 7→ t AA. En conclusionOn (R) est compact dans (Mn (R) , k·k) en tant que fermé borné (on est en dimension nie). Exercice 21.14 Montrer que On (R) est un sous-groupe compact maximal de GLn (R) , c'est- à-dire que On (R) est compact et que si G est sous-groupe compact de GLn (R) qui contient On (R) , alors G = On (R) . Solution 21.14 On sait déjà que On (R) est un sous-groupe compact de GLn (R) . Supposons que G soit un sous-groupe compact de GLn (R) qui contient On (R) . Toute matrice A ∈ G s'écrit A = ΩS où Ω ∈ On (R) et S ∈ Sn++ (R) . Comme A et Ω sont dans le groupe multiplicatif G, S = Ω−1 A ∈ G. Par ailleurs, on sait qu'il existe une matrice P ∈ On (R) telle que D = t P SP soit diagonale à termes diagonaux strictement positifs et D = t P SP est aussi dans le groupe G. Notant λ1 , · · · , λn les termes diagonaux de la matrice D, ces λi sont tous strictement positifs et pour tout entier relatif p la matrice diagonale Dp , de termes diagonaux λp1 , · · · , λpn est aussi dans G. Mais si G est compact, il est en particulier borné et toutes les suites (λpi )p∈Z sont bornées dans R+,∗ (0 < λpi ≤ kDp k∞ = max λpj ≤ M ), ce qui impose que 1≤j≤n tous les λi valent 1, donc D = In , S = In et A = Ω ∈ On (R) . On a donc bien G = On (R) . Théorème 21.12 Toute matrice A ∈ Mn (R) peut s'écrire A = ΩS où Ω est une matrice orthogonale et S une matrice symétrique positive. Démonstration. Toute matrice A ∈ Mn (R) peut s'écrire A = lim Ak où (Ak )k∈N est une k→+∞ suite de matrices inversibles. Avec le théorème de décomposition polaire, on peut écrire pour tout entier k, Ak = Ωk Sk où (Ωk )k∈N est une suite de matrices orthogonales et (Sk )k∈N une suite de matrices symétriques dénies ¡ ¢positives. De la suite (Ωk )k∈N dans le compact On (R) on peut extraire une sous-suite Ωϕ(k) k∈N qui converge vers une matrice Ω ∈ On (R) . De ¡ ¢ t Sk = Ω−1 k Ak = Ωk Ak et de la continuité du produit matriciel, on déduit que la suite Sϕ(k) k∈N est convergente. La limite S de cette suite est une matrice symétrique positive et A = ΩS. Remarque 21.6 Si A est de rang r < n, alors la décomposition ci-dessus n'est pas unique. En eet, on peut diagonaliser la matrice symétrique positive S dans une base orthonormée (ei )1≤i≤n avec Sei = λi ei pour 1 ≤ i ≤ n où λi = 0 pour 1 ≤ i ≤ n − r et λi > 0 sinon (si A n'est pas inversible alors il en est de même de S et 0 est valeur propre de S ). Les Ωei sont alors uniquement déterminés pour n − r + 1 ≤ i ≤ n, mais pour 1 ≤ i ≤ n − r il n'y a pas unicité. Quelques applications du théorème spectral 533 Le théorème de décomposition polaire des matrices inversibles peut s'exprimer comme suit en utilisant la compacité de On (R) . Théorème 21.13 L'application (Ω, S) 7−→ ΩS réalise un homéomorphisme de On (R)×Sn++ (R) sur GLn (R) . Démonstration. On sait déjà que toute matrice A ∈ GLn (R) s'écrit de manière unique A = ΩS avec Ω ∈ On (R) et S ∈ Sn++ (R). On déduit que l'application ϕ : (Ω, S) 7−→ ΩS réalise une bijection de On (R) × Sn++ (R) sur GLn (R). Cette application est continue car ses composantes sont des fonctions polynomiales des coecients ωij de Ω et srp de S . Il reste à montrer que ϕ−1 est continue. Soit (Ak )k∈N une suite de matrices dans GLn (R) qui converge vers A. On note ϕ−1 (Ak ) = (Ωk , Sk ) pour tout k ∈ N et ϕ−1¡(A) =¢ (Ω, S). De la suite (Ωk )k∈N dans le compact On (R), on peut extraire une sous-suite Ωϕ(k) k∈N qui converge vers une matrice Ω0 ∈ On (R). De ¡ ¢ Sk = t Ωk Ak , on déduit que la suite Sϕ(k) k∈N converge vers S 0 = t Ω0 A. La matrice S 0 est symétrique positive comme limite d'une suite de matrices symétriques positives et elle est dénie puisque inversible. On a alors la décomposition polaire A = Ω0 S 0 . Cette dernière décomposition étant unique, on a nécessairement Ω0 = Ω. On a donc ainsi montré que la suite (Ωk )k∈N a une unique valeur d'adhérence dans le compact On (R) . Elle converge donc vers Ω et (Sk )k∈N = (t Ωk Ak )k∈N converge vers t ΩA = S. C'est-à-dire que la suite ((Ωk , Sk ))k∈N = (ϕ−1 (Ak ))k∈N converge vers (Ω, S) = ϕ−1 (A) et ϕ−1 est continue. 21.5.5 Rayon spectral des matrices symétriques réelles On munit l'espace vectoriel Mn (R) de la norme matricielle k·k induite par la norme euclidienne de Rn . On rappelle que si A ∈ Mn (C) , son rayon spectral est le réel : ρ (A) = max |λ| λ∈sp(A) (voir le paragraphe 15.4). Le théorème spectral permet de calculer la norme d'une matrice réelle. Lemme 21.7 Si A ∈ Sn (R) , alors : kAk = ρ (A) . Démonstration. A ∈ Sn (R) se diagonalise dans une base orthonormée, il existe donc des scalaires {λ1 , · · · , λn } et une base orthonormée de Rn (e1 , · · · , en ) tels que Aek = λk ek pour n n P P tout k ∈ {1, · · · , n}. Pour tout x = xk ek ∈ Rn tel que kxk2 = |xk |2 = 1, on a alors : k=1 2 kAxk = n X k=1 2 k=1 2 2 |xk | |λk | ≤ ρ (A) n X |xk |2 = ρ (A)2 . k=1 On peut donc conclure que kAk ≤ ρ (A) . Si k ∈ {1, · · · , n} est tel que ρ (A) = |λk | , alors ρ (A) = |λk | = kAek k avec kek k = 1. Donc kAk = ρ (A) . 534 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications Exercice 21.15 Soient A et B deux matrices symétriques réelles. Montrer que : ρ (AB) ≤ ρ (A) ρ (B) . Solution 21.15 On a ρ (AB) ≤ kABk ≤ kAk kBk = ρ (A) ρ (B) si A et B sont symétriques réelles. Théorème 21.14 Pour toute matrice A ∈ Mn (R) , on a : kAk = p k t AAk = p ρ ( t AA). Démonstration. Pour tout x ∈ Rn tel que kxk2 = 1, en utilisant l'inégalité de Cauchy- Schwarz, on a : kAxk2 = hx | t AAxi ≤ kxk k t AAxk ≤ kxk k t AAk kxk = k t AAk . Ce qui entraîne kAk2 ≤ k t AAk ≤ kAk k t Ak et kAk ≤ k t Ak . En appliquant cette inégalité à t A, on obtient k t Ak ≤ kAk ce qui donne : °t ° ° A° = kAk On déduit donc que : ° ° ° ° kAk2 ≤ ° t AA° ≤ kAk ° t A° = kAk2 , ce qui entraîne kAk2 = k t AAk . La matrice t AA étant symétrique, on a aussi k t AAk = ρ ( t AA) . Donc : p p kAk = k t AAk = ρ ( t AA). Exercice 21.16 On désigne par A la matrice réelle d'ordre n supérieur ou égal à 2 dénie par : A= 0 1 0 0 . 0 .. .. . . . . 0 ··· ··· 0 ... 1 ... ... 0 0 0 0 0 . 1 0 0 .. . 1. Calculer les valeurs propres de t AA. 2. Calculer kAk . Solution 21.16 On désigne par u l'endomorphisme canoniquement associé à la matrice A dans la base canonique B = (ei )1≤i≤n de Rn et par v celui associé à t A. 1. On a : ½ de sorte que : u (e1 ) = 0 u (ej ) = ej−1 (2 ≤ j ≤ n) ½ ½ et v (en ) = 0 v (ej ) = ej+1 (1 ≤ j ≤ n − 1) v ◦ u (e1 ) = 0, v ◦ u (ej ) = v (ej−1 ) = ej (2 ≤ j ≤ n) Quelques applications du théorème spectral et : t AA = 535 0 0 0 1 ... ... ··· 0 .. . 0 2. Il en résulte que : kAk = ··· 0 ... 0 ... ... 0 0 1 0 0 0 1 0 .. . p ρ ( t AA) = 1. Exercice 21.17 Calculer kAk , où A est la matrice réelle d'ordre n supérieur ou égal à 2 dénie par : 0 −1 ... −1 1 0 0 . . . . . . . . . .. A= 0 . . . . . . −1 1 .. 0 0 · · · 0 −1 1 1 0 ··· Solution 21.17 Utilisant le résultat de l'exercice 15.16, on déduit que : 2 si nµ= 2p, ¶ p 2π kAk = ρ (t AA) = si n = 2p + 1. 2 sin p 2p + 1 536 Endomorphismes symétriques d'un espace vectoriel euclidien. Applications