Décomposition polaire d`une matrice carrée réelle ou complexe

publicité
Décomposition polaire
d’une matrice carrée
réelle ou complexe
Ait Lhoussain Mohamed
4 janvier 2013
1
Introduction
Tout nombre complexe non nul z s’écrit de façon unique :
z = su
avec s ∈ R∗+ et u ∈ U (ici U désigne l’ensemble des nombres complexe de modules 1.
Tout nombre réel non nul x s’écrit :
x
x = |x|
|x|
donc :
x = su
avec s un réel strictement positif et u ∈ {−1, 1}
Peut on étendre ces idées aux matrices carrées réelles et complexes ?
La réponse est oui et avant tout remarquons que si n = 1 alors on dispose de M1 (R) = R
(pour plus de précision on les confond en identifiant le réel x et la matrice (x), mais de
toute façon ils sont isomorphes) . Alors on a :
M1 (R) = R; S (R) = R; S + (R) = R+ ; S ++ (R) = R∗+ ; O(R) = {−1, 1}
De même pour le cas des complexes :
M1 (C) = C; S (C) = C; S + (C) = R+ ; S ++ (C) = R∗+ ; O(C) = U
2
Densité de GLn(R) dans Mn(R)
Proposition 1. Gln (R) est dense dans Mn (R).
Démonstration. Rappelons qu’en dimension finies toutes les normes sont équivalentes
donc on munira Mn (R) d’une norme quelconque. Soit M une matrice quelconque de
Mn (R). L’ensemble
ZM = {t ∈ R/ det(M − tIn ) = 0}
1
est fini c’est exactement l’ensemble des racines du polynôme caractéristique χM de la
matrice M . Ce polynôme étant de degré n , l’ensemble de ses racines est fini. Alors il
existe a > 0 tel que :
∀t ∈]0, a[ det(M − tI) 6= 0
1
1
En particulier les termes de la suite (Mn = M − In ) sont inversibles à partir de N >
n
a
et on voit bien que :
lim Mn = M
n→+∞
Ainsi Gln (R) est dense dans Mn (R).
Remarque :
cette preuve est valable pour K = C donc pour K = R ou C on a GLn (K) est dense
dans Mn (K).
3
Racine carrée d’une matrice carrée réelle symétrique
positive
Proposition 2. Pour toute matrice symétrique positive A il existe une et une seule
matrice symétrique positive B tel que B 2 = A
Démonstration. Soit A ∈ Mn (R) une matrice symétrique positive.On va démontrer
l’existence et l’unicité de B symétrique positive tel que B 2 = A :
• Existence :
Soit A une matrice carrée réelle symétrique positive de taille n avec n un entier naturel
non nul. On sait que A est diagonalisable via une matrice orthogonale. Autrement dit
il existe des nombres réels λ1 , · · · , λn et une matrice orthogonale P tel que A = P ∆t P
où ∆ = diag(λ1 , ·, λn ). Puisque A est positive le valeurs propres λ1 , ·, λn sont
p positive
t
et on peut considérer la matrice B = P D P où D = diag(µ1 , ·, µn ) et µk = λk pour
tout k ∈ {1, ·, n}. On a t B = t (P Dt P ) = P Dt P , donc B est symétrique. Les valeurs
propres de B sont strictement positives donc B est définie positive. Finalement on a :
B 2 = (P Dt P )(P Dt P ) = P D2t P = P ∆t P = A
D’où l’existence de B.
• Unicité : Supposons que B et C sont deux matrices carrées réelles symétriques positives tel que B 2 = C 2 = A. Démontrons que B = C. On va démontrer que :
(i) Sp(B) = Sp(C)
(ii) Pour tout λ ∈ Sp(B) on a Eλ (B) = Eλ (C)
Cela suffira pour dire que B = C
• Montrons que Sp(B) = Sp(C) :
Soit µ ∈ Sp(B) c’est-à-dire, µ est une valeur propre de B. Alors µ2 est une valeur propre
de B 2 donc de C 2 . Donc ker(C 2 − µ2 In ) 6= {0}. Comme B est positive, on a µ ≥ 0. On
traite deux cas :
Premier cas : µ > 0 alors en particulier µ 6= 0, alors les polynômes X − µ et X + µ sont
2
premiers entre eux.
Le lemme de décomposition des noyaux permet d’écrire :
ker(C − µIn ) ⊕ ker(C + µIn ) 6= {0}.
Or C étant positive donc −µ n’est pas une valeur propre de C par suite
ker(C + µIn ) = {0}
et alors :
ker(C − µIn ) 6= {0}.
Donc µ est une valeur propre de C.
Deuxième cas µ = 0 alors B est non inversible, donc C aussi car C 2 = B 2 est non
inversible. Donc 0 ∈ Sp(C).
Ainsi on a prouvé que Sp(B) ⊂ Sp(C). Par symétrie on a l’inclusion inverse donc
Sp(B) = Sp(C)
• Pour tout µ ∈ SpB on a Eµ (B) = Eµ (C).
En effet : Soit µ ∈ Sp(B) = Sp(C). On traite deux cas :
Premier cas : µ > 0 alorsµ2 est une valeur propre de B 2 de sous-espace propre
ker(B 2 − µ2 In ).
Par le lemme de décomposition des noyaux on a :
ker(B 2 − µ2 In ) = ker(B − µIn ) ⊕ ker(B + µIn )
. Or B étant positive donc −µ n’est pas une valeur propre de C par suite ker(B +µIn ) =
{0} et alors :
ker(B 2 − µ2 In ) = ker(B − µIn )
Par symétrie on a :
ker(C 2 − µ2 In ) = ker(C − µIn )
Comme B 2 = C 2 on a alors :
ker(B − µIn ) = ker(C − µIn )
Deuxième cas : µ = 0 : Soit d la multiplicité de la valeur propre 0 de B. On sait que
d = dim E0 (B) = dim ker B.
• Si d = n B = O donc C 2 = 0, or C est diagonalisable car symétrique réelle donc
C = O. Ainsi B = C = O dans ce cas trivial.
• Si d < n alors B admet d’autres valeurs propres non nulles de sorte que :
Od O
B=P
P −1
O ∆
où P est une matrice orthogonale et ∆ une matrice diagonale de taille n − d dont tous
les termes diagonaux sont non nuls.
Il en résulte que :
Od O
2
B =P
P −1
O ∆2
3
On en déduit que d est la multiplicité de la valeur propre 0 de B 2 autrement dit
d = dim ker B = dim ker B 2
car B et B 2 sont diagonalisables. Comme ker B ⊂ ker B 2 on a ker B = ker B 2 et par
symétrie on a ker C = ker C 2 et comme B 2 = C 2 on a finalement ker B = ker C.
Conclusion : Pour toute valeur propre λ de B (donc de C) on a : Eλ (B) = Eλ (C).
• On conclut que B = C :
En effet : si µ1 , · · · , µs sont les valeurs propres communes de B et C deux à deux
distinctes alors :
s
E = ⊕ Eµi
i=1
Soit alors X ∈ E = Mn,1 (R). Alors
X=
s
X
Xi
i=1
avec
Xi ∈ Eµi
pour tout i ∈ {1, · · · , s}. On a :
BX =
et
CX =
s
X
BXi =
s
X
i=1
i=1
s
X
s
X
CXi =
i=1
µi X i
µi Xi
i=1
Donc BX = CX pour tout X ∈ E et par suite : B = C.
Definition 1. Soit A une matrice symétrique positive. L’unique matrice symétrique
positive B tel que B 2 = A s’appelle la racine carrée de A
4
4.1
Décomposition polaire
Matrice inversible
Soit A ∈ GLn (R) alors A s’écrit de façon unique A = SU avec S symétrique positive
et U orthogonale. En effet At A est une matrice symétrique définie positive elle admet
une racine carrée S qui est définie donc inversible Posons U = S −1 A alors
t
U U = t At S −1 S −1 A = t A(S 2 )−1 A = t A(At A)−1 A = In
Unicité : Si SU = S 0 U 0 avec les S, S 0 symétriques définies positives et U et U 0 orthogonales alors on a S 2 = S 02 = At A, donc par unicité de la racines carrée d’une matrice
symétrique positive on a S = S 0 et par suite U = U 0 .
4
4.2
Matrice quelconque
Soit A une matrice carrée réelle quelconque. On sait que GLn (R) est dense dans Mn (R),
donc il existe une suite (An ) de matrices inversibles tel que An → A. Or par ce qui précède An = Sn Un où Sn symétrique définie positive et Un orthogonale. Par compacité
du groupe orthogonal il existe une extraction ϕ tel que la suite Uϕ(n) converge vers U
matrice orthogonale. Alors Sϕ(n) = At Uϕ(n) converge vers la matrice S = AU par continuité du produit matriciel. On va montrer que S est symétrique positive. Comme Sϕ(n)
est symétrique et par continuité de la transposition des matrices on a S est symétrique
et comme Sϕ(n) est positive on a hSϕ(n) X, Xi ≥ 0 pour tout X ∈ Mn (R) donc par
continuité du produit scalaire on a hSX, Xi ≥ 0 d’où S est positive et finalement on a
A = SU avec S symétrique positive et U orthogonale.
On n’a pas l’unicité forcément dans le cas général.
4.3
Remarque
Si on note S ++ (n) l’ensemble des matrices carrées réelles définies positives et O(n) celui
des matrices orthogonales réelles, on exprime ce qui précède en disant que l’application :
Φ : S ++ (n) × O(n) → GLn (R)
(S, U )
7→
SU
est bijective . Remarquons que si on note M la racine carrée d’une matrice carrée
symétrique positive M alors pour tout A ∈ GLn (R) on a :
√
√
Φ−1 (A) = ( At A, ( At A)−1 A)
5
Décomposition polaire dans le cas complexe
5.1
Matrices hermitiennes
Soit A ∈ Mn (C). La matrice A∗ = t A , transposée de la matrice conjuguée de A s’appelle la matrice adjointe de A ; Si A = A∗ on dit que A est hermitienne. Si la matrice
A est réelle alors A∗ est la transposée de A et A est hermitienne si et seulement si A
est symétrique.
5.2
Matrice unitaire
On appelle matrice unitaire dans Mn (C) toute matrice U tel que U est inversible et
U −1 = U ∗ .
On démontre sans difficulté que U est hermitienne si et seulement si l’une des assertions
suivantes est vraie :
(i) U U ∗ = In
(ii) U ∗ U = In
(iii) Les colonnes de U forment une base orthonormée dans l’espace hermitien Mn,1 (C)
(iv) Les lignes de U forment une base orthonormée dans l’espace hermitien M1,n (C)
5
L’ensemble des matrices unitaires est un sous-groupe de GLn (C) appelé groupe unitaire
ou orthogonal(complexe).
5.3
Théorème spectral
Théorème 1. Toute matrice hermitienne est diagonalisable via une matrice orthogonale . Le spectre d’une matrice hermitienne est inclus dans R.
La preuve se fait comme dans le cas réel mais on va montrer la deuxième partie du
théorème ici :
Soit λ ∈ Sp(U ) où U est une matrice hermitienne. Alors il existe un vecteur X non nul
tel que U X = λX. On a :
kU Xk2 = hU X, U Xi = hλX, λXi = |λ|2 kXk2
D’autre part : et comme U ∗ = U , on a :
kU Xk2 = hU X, U Xi = (U X)∗ (U X) = X ∗ U ∗ U X = X ∗ U 2 (X) = λ2 X ∗ X = λ2 kXk2
Donc λλ = λ2 et par suite λ = λ et λ ∈ R.
Definition 2. Soit S une matrice hermitienne. Si SpS ⊂ R+ on dit que S est hermitienne positive et si SpS ⊂ R∗+ on dit que S est hermitienne définie positive .
5.4
Décomposition polaire
Théorème 2. Toute matrice carrée complexe A s’écrit
A = SU
avec S une matrice hermitienne positive et U une matrice unitaire.
Si A ∈ GLn (C)) alors la décomposition ci-dessus est unique et de plus S est hermitienne
définie positive.
La preuve ressemble à celle faite ci-dessus dans le cas réel.
6
Téléchargement