Décomposition polaire d’une matrice carrée réelle ou complexe Ait Lhoussain Mohamed 4 janvier 2013 1 Introduction Tout nombre complexe non nul z s’écrit de façon unique : z = su avec s ∈ R∗+ et u ∈ U (ici U désigne l’ensemble des nombres complexe de modules 1. Tout nombre réel non nul x s’écrit : x x = |x| |x| donc : x = su avec s un réel strictement positif et u ∈ {−1, 1} Peut on étendre ces idées aux matrices carrées réelles et complexes ? La réponse est oui et avant tout remarquons que si n = 1 alors on dispose de M1 (R) = R (pour plus de précision on les confond en identifiant le réel x et la matrice (x), mais de toute façon ils sont isomorphes) . Alors on a : M1 (R) = R; S (R) = R; S + (R) = R+ ; S ++ (R) = R∗+ ; O(R) = {−1, 1} De même pour le cas des complexes : M1 (C) = C; S (C) = C; S + (C) = R+ ; S ++ (C) = R∗+ ; O(C) = U 2 Densité de GLn(R) dans Mn(R) Proposition 1. Gln (R) est dense dans Mn (R). Démonstration. Rappelons qu’en dimension finies toutes les normes sont équivalentes donc on munira Mn (R) d’une norme quelconque. Soit M une matrice quelconque de Mn (R). L’ensemble ZM = {t ∈ R/ det(M − tIn ) = 0} 1 est fini c’est exactement l’ensemble des racines du polynôme caractéristique χM de la matrice M . Ce polynôme étant de degré n , l’ensemble de ses racines est fini. Alors il existe a > 0 tel que : ∀t ∈]0, a[ det(M − tI) 6= 0 1 1 En particulier les termes de la suite (Mn = M − In ) sont inversibles à partir de N > n a et on voit bien que : lim Mn = M n→+∞ Ainsi Gln (R) est dense dans Mn (R). Remarque : cette preuve est valable pour K = C donc pour K = R ou C on a GLn (K) est dense dans Mn (K). 3 Racine carrée d’une matrice carrée réelle symétrique positive Proposition 2. Pour toute matrice symétrique positive A il existe une et une seule matrice symétrique positive B tel que B 2 = A Démonstration. Soit A ∈ Mn (R) une matrice symétrique positive.On va démontrer l’existence et l’unicité de B symétrique positive tel que B 2 = A : • Existence : Soit A une matrice carrée réelle symétrique positive de taille n avec n un entier naturel non nul. On sait que A est diagonalisable via une matrice orthogonale. Autrement dit il existe des nombres réels λ1 , · · · , λn et une matrice orthogonale P tel que A = P ∆t P où ∆ = diag(λ1 , ·, λn ). Puisque A est positive le valeurs propres λ1 , ·, λn sont p positive t et on peut considérer la matrice B = P D P où D = diag(µ1 , ·, µn ) et µk = λk pour tout k ∈ {1, ·, n}. On a t B = t (P Dt P ) = P Dt P , donc B est symétrique. Les valeurs propres de B sont strictement positives donc B est définie positive. Finalement on a : B 2 = (P Dt P )(P Dt P ) = P D2t P = P ∆t P = A D’où l’existence de B. • Unicité : Supposons que B et C sont deux matrices carrées réelles symétriques positives tel que B 2 = C 2 = A. Démontrons que B = C. On va démontrer que : (i) Sp(B) = Sp(C) (ii) Pour tout λ ∈ Sp(B) on a Eλ (B) = Eλ (C) Cela suffira pour dire que B = C • Montrons que Sp(B) = Sp(C) : Soit µ ∈ Sp(B) c’est-à-dire, µ est une valeur propre de B. Alors µ2 est une valeur propre de B 2 donc de C 2 . Donc ker(C 2 − µ2 In ) 6= {0}. Comme B est positive, on a µ ≥ 0. On traite deux cas : Premier cas : µ > 0 alors en particulier µ 6= 0, alors les polynômes X − µ et X + µ sont 2 premiers entre eux. Le lemme de décomposition des noyaux permet d’écrire : ker(C − µIn ) ⊕ ker(C + µIn ) 6= {0}. Or C étant positive donc −µ n’est pas une valeur propre de C par suite ker(C + µIn ) = {0} et alors : ker(C − µIn ) 6= {0}. Donc µ est une valeur propre de C. Deuxième cas µ = 0 alors B est non inversible, donc C aussi car C 2 = B 2 est non inversible. Donc 0 ∈ Sp(C). Ainsi on a prouvé que Sp(B) ⊂ Sp(C). Par symétrie on a l’inclusion inverse donc Sp(B) = Sp(C) • Pour tout µ ∈ SpB on a Eµ (B) = Eµ (C). En effet : Soit µ ∈ Sp(B) = Sp(C). On traite deux cas : Premier cas : µ > 0 alorsµ2 est une valeur propre de B 2 de sous-espace propre ker(B 2 − µ2 In ). Par le lemme de décomposition des noyaux on a : ker(B 2 − µ2 In ) = ker(B − µIn ) ⊕ ker(B + µIn ) . Or B étant positive donc −µ n’est pas une valeur propre de C par suite ker(B +µIn ) = {0} et alors : ker(B 2 − µ2 In ) = ker(B − µIn ) Par symétrie on a : ker(C 2 − µ2 In ) = ker(C − µIn ) Comme B 2 = C 2 on a alors : ker(B − µIn ) = ker(C − µIn ) Deuxième cas : µ = 0 : Soit d la multiplicité de la valeur propre 0 de B. On sait que d = dim E0 (B) = dim ker B. • Si d = n B = O donc C 2 = 0, or C est diagonalisable car symétrique réelle donc C = O. Ainsi B = C = O dans ce cas trivial. • Si d < n alors B admet d’autres valeurs propres non nulles de sorte que : Od O B=P P −1 O ∆ où P est une matrice orthogonale et ∆ une matrice diagonale de taille n − d dont tous les termes diagonaux sont non nuls. Il en résulte que : Od O 2 B =P P −1 O ∆2 3 On en déduit que d est la multiplicité de la valeur propre 0 de B 2 autrement dit d = dim ker B = dim ker B 2 car B et B 2 sont diagonalisables. Comme ker B ⊂ ker B 2 on a ker B = ker B 2 et par symétrie on a ker C = ker C 2 et comme B 2 = C 2 on a finalement ker B = ker C. Conclusion : Pour toute valeur propre λ de B (donc de C) on a : Eλ (B) = Eλ (C). • On conclut que B = C : En effet : si µ1 , · · · , µs sont les valeurs propres communes de B et C deux à deux distinctes alors : s E = ⊕ Eµi i=1 Soit alors X ∈ E = Mn,1 (R). Alors X= s X Xi i=1 avec Xi ∈ Eµi pour tout i ∈ {1, · · · , s}. On a : BX = et CX = s X BXi = s X i=1 i=1 s X s X CXi = i=1 µi X i µi Xi i=1 Donc BX = CX pour tout X ∈ E et par suite : B = C. Definition 1. Soit A une matrice symétrique positive. L’unique matrice symétrique positive B tel que B 2 = A s’appelle la racine carrée de A 4 4.1 Décomposition polaire Matrice inversible Soit A ∈ GLn (R) alors A s’écrit de façon unique A = SU avec S symétrique positive et U orthogonale. En effet At A est une matrice symétrique définie positive elle admet une racine carrée S qui est définie donc inversible Posons U = S −1 A alors t U U = t At S −1 S −1 A = t A(S 2 )−1 A = t A(At A)−1 A = In Unicité : Si SU = S 0 U 0 avec les S, S 0 symétriques définies positives et U et U 0 orthogonales alors on a S 2 = S 02 = At A, donc par unicité de la racines carrée d’une matrice symétrique positive on a S = S 0 et par suite U = U 0 . 4 4.2 Matrice quelconque Soit A une matrice carrée réelle quelconque. On sait que GLn (R) est dense dans Mn (R), donc il existe une suite (An ) de matrices inversibles tel que An → A. Or par ce qui précède An = Sn Un où Sn symétrique définie positive et Un orthogonale. Par compacité du groupe orthogonal il existe une extraction ϕ tel que la suite Uϕ(n) converge vers U matrice orthogonale. Alors Sϕ(n) = At Uϕ(n) converge vers la matrice S = AU par continuité du produit matriciel. On va montrer que S est symétrique positive. Comme Sϕ(n) est symétrique et par continuité de la transposition des matrices on a S est symétrique et comme Sϕ(n) est positive on a hSϕ(n) X, Xi ≥ 0 pour tout X ∈ Mn (R) donc par continuité du produit scalaire on a hSX, Xi ≥ 0 d’où S est positive et finalement on a A = SU avec S symétrique positive et U orthogonale. On n’a pas l’unicité forcément dans le cas général. 4.3 Remarque Si on note S ++ (n) l’ensemble des matrices carrées réelles définies positives et O(n) celui des matrices orthogonales réelles, on exprime ce qui précède en disant que l’application : Φ : S ++ (n) × O(n) → GLn (R) (S, U ) 7→ SU est bijective . Remarquons que si on note M la racine carrée d’une matrice carrée symétrique positive M alors pour tout A ∈ GLn (R) on a : √ √ Φ−1 (A) = ( At A, ( At A)−1 A) 5 Décomposition polaire dans le cas complexe 5.1 Matrices hermitiennes Soit A ∈ Mn (C). La matrice A∗ = t A , transposée de la matrice conjuguée de A s’appelle la matrice adjointe de A ; Si A = A∗ on dit que A est hermitienne. Si la matrice A est réelle alors A∗ est la transposée de A et A est hermitienne si et seulement si A est symétrique. 5.2 Matrice unitaire On appelle matrice unitaire dans Mn (C) toute matrice U tel que U est inversible et U −1 = U ∗ . On démontre sans difficulté que U est hermitienne si et seulement si l’une des assertions suivantes est vraie : (i) U U ∗ = In (ii) U ∗ U = In (iii) Les colonnes de U forment une base orthonormée dans l’espace hermitien Mn,1 (C) (iv) Les lignes de U forment une base orthonormée dans l’espace hermitien M1,n (C) 5 L’ensemble des matrices unitaires est un sous-groupe de GLn (C) appelé groupe unitaire ou orthogonal(complexe). 5.3 Théorème spectral Théorème 1. Toute matrice hermitienne est diagonalisable via une matrice orthogonale . Le spectre d’une matrice hermitienne est inclus dans R. La preuve se fait comme dans le cas réel mais on va montrer la deuxième partie du théorème ici : Soit λ ∈ Sp(U ) où U est une matrice hermitienne. Alors il existe un vecteur X non nul tel que U X = λX. On a : kU Xk2 = hU X, U Xi = hλX, λXi = |λ|2 kXk2 D’autre part : et comme U ∗ = U , on a : kU Xk2 = hU X, U Xi = (U X)∗ (U X) = X ∗ U ∗ U X = X ∗ U 2 (X) = λ2 X ∗ X = λ2 kXk2 Donc λλ = λ2 et par suite λ = λ et λ ∈ R. Definition 2. Soit S une matrice hermitienne. Si SpS ⊂ R+ on dit que S est hermitienne positive et si SpS ⊂ R∗+ on dit que S est hermitienne définie positive . 5.4 Décomposition polaire Théorème 2. Toute matrice carrée complexe A s’écrit A = SU avec S une matrice hermitienne positive et U une matrice unitaire. Si A ∈ GLn (C)) alors la décomposition ci-dessus est unique et de plus S est hermitienne définie positive. La preuve ressemble à celle faite ci-dessus dans le cas réel. 6