Version pdf (212 Ko)

publicité
Chapitre 6
Algèbre matricielle
En plus d’être des tableaux de nombres susceptibles d’être manipulés par des
algorithmes pour la résolution des systèmes linéaires et des outils de calcul pour
les applications linéaires, les matrices sont également munies de diverses structures algébriques.
6.1
Opérations linéaires sur les matrices
Tout d’abord quelques points de notation et de vocabulaire. L’ensemble des
matrices m × n à coefficients dans R (ou C) sera noté Mmn (R) (ou Mmn (C)).
Dans le cas où m = n, on dit que l’on a affaire à des matrices carrées et l’on note
simplement Mm (R).
Dans une matrice carrée A = (ai j ) de taille m × m, les coefficients de la forme
aii pour i = 1, 2, . . . , m forment ce que l’on appelle la diagonale, ou diagonale
principale, de la matrice. Une matrice carrée A telle que ai j = 0 dès que i "= j,
c’est-à-dire hors de la diagonale, est appelée matrice diagonale.
Une matrice carrée A telle que ai j = 0 dès que i > j, c’est-à-dire en dessous
de la diagonale, est appelée matrice triangulaire supérieure. Les matrices carrées
échelonnées sont triangulaires supérieures. Une matrice carrée A telle que ai j = 0
dès que i < j, c’est-à-dire au dessus de la diagonale, est appelée matrice triangulaire inférieure.
 


a11 a12 a13 · · · a1m
a11 0 0 · · · 0
 a21 a22 a23 · · · a2m   0 a22 0 · · · 0 
 


 a31 a32 a33 · · · a3m   0 0 a33 · · · 0 

 

 ..
 .
..
.. . .
.. 
..
.. . .
.. 


 ..
.
.
.
.
.
. 
.
.
.
0 0 0 · · · amm
am1 am2 am3 · · · amm
diagonale
matrice diagonale
91
CHAPITRE 6. Algèbre matricielle
92

a11
0

0

 ..
 .
0
a12 a13
a22 a23
0 a33
..
..
.
.
0 0

· · · a1m
· · · a2m 

· · · a3m 

. 
..
. .. 
· · · amm

a11 0 0
 a21 a22 0

 a31 a32 a33

 ..
..
..
 .
.
.
am1 am2 am3
···
···
···
..
.
0
0
0
..
.
· · · amm







matrice triangulaire supérieure matrice triangulaire inférieure
Définition 40 On définit sur Mmn (R) une loi de composition interne appelée addition par :
Pour tous A = (ai j ), B = (bi j ) dans Mmn (R), A + B est la matrice de Mmn (R)
dont les coefficients sont donnés par (A + B)i j = ai j + bi j , pour i = 1, . . . , m et
j = 1, . . . , n,
et une loi de composition externe appelée multiplication par un scalaire par :
Pour tout A = (ai j ) dans Mmn (R) et λ dans R, λA est la matrice de Mmn (R)
dont les coefficients sont donnés par (λA)i j = λai j , pour i = 1, . . . , m et j =
1, . . . , n.
Remarque 32 Il s’agit de la généralisation immédiate à toutes les matrices des
opérations déjà définies sur les matrices à une
' colonne. En(fait, si l’on
' écrit les ma-(
trices sous forme de ligne de colonnes, A = a1 a2 · · · an et B = b1 b2 · · · bn
avec a j , b j ∈ Rm , on a
'
(
'
(
A + B = a1 + b1 a2 + b2 · · · an + bn et λA = λa1 λa2 · · · λan .
On en déduit immédiatement par la définition du produit matrice-vecteur que (A +
B)x = Ax + Bx et (λA)x = λ(Ax), pour tout x ∈ Rn .
!
En particulier, on montre très facilement le résultat suivant.
Proposition 38 L’ensemble Mmn (R) muni de ces deux opérations est un espace
vectoriel sur R.
L’élément neutre pour l’addition est la matrice m × n nulle, notée 0, dont tous
les coefficients sont nuls.
Introduisons mn matrices particulières Ekl ∈ Mmn (R) définies par
)
1 si i = k et j = l,
(Ekl )i j =
0 sinon.
6.2. Produit matriciel
93
Proposition 39 La famille {Ekl , k = 1, . . . , m, l = 1, . . . , n} forme une base de
Mmn (R), appelée base canonique de Mmn (R). En particulier, dim Mmn (R) = mn.
Définition 41 Si A ∈ Mmn (R), on définit sa matrice transposée AT ∈ Mnm (R) par
(AT )i j = a ji pour i = 1, . . . , n et j = 1, . . . , m.
La notation traditionnelle française pour la transposée d’une matrice A est tA.
Malheureusement, cette notation est nettement plus pénible à taper en TEX que la
notation anglo-saxonne AT ($^t\!A$ au lieu de $A^T$), que l’on préférera donc
par pure paresse dans la suite de ces notes.
Exemple 23 La transposition opère une symétrie par rapport à la diagonale. Ainsi

1
*
+

1 0 1 0
0
A=
=⇒ AT = 

0 2 0 3
1
0
Elle échange le rôle des lignes et des colonnes.

0
2
.
0
3
!
Proposition 40 L’application de transposition A %→ AT est un isomorphisme de
Mmn (R) dans Mnm (R), et l’on a (AT )T = A pour tout A.
6.2
Produit matriciel
La grande nouveauté est que l’on peut multiplier certaines matrices entre elles.
Définition 42 Soit A ∈ Mmn (R) et B ∈ Mnp (R). Notons b1 , b2 , . . . , b p ∈ Rn les p
colonnes de B. On définit le produit AB comme étant la matrice m × p dont les
colonnes sont données par
'
(
AB = Ab1 Ab2 · · · Ab p .
CHAPITRE 6. Algèbre matricielle
94
Remarque 33 Comme A est une matrice m × n et les bi sont des vecteurs de Rn ,
chaque produit matrice-vecteur Abi est bien défini et fournit un vecteur de Rm . Le
résultat du produit est donc bien une matrice à m lignes et p colonnes.
Retenons donc que le produit AB n’est défini que quand le nombre de colonnes
de A est égal au nombre de lignes de B, sinon il n’est pas défini. En particulier, on
ne peut toujours pas multiplier un vecteur-colonne par un autre vecteur-colonne
(sauf s’ils n’ont qu’une ligne). Quand le produit AB est défini, son nombre de
lignes est égal au nombre de lignes du premier facteur A et son nombre de colonnes
est égal à celui du second facteur B.
Remarquons enfin que si B ∈ Mn1 (R) = Rn , alors AB n’est autre que le produit
matrice-vecteur habituel.
 
1 0
*
+
0 1
1 0 1 0

Exemple 24 Si A =
et B = 
1 0, alors le produit AB est bien
0 2 0 3
0 (1
'
défini, c’est une matrice 2 × 2, AB = Ab1 Ab2 , avec
d’où
 
 
1
*
+
* +
*
+ 0
* +


1 0 1 0 0
2
1 0 1 0 
1
0


Ab1 =
=
et Ab2 =
=
,




0 2 0 3
1
0
0 2 0 3
0
5
0
1
dans ce cas.
*
+
2 0
AB =
0 5


1
0
*
+
0 1 
1 0 1

Par contre, si A =
et B = 
1 0, alors le produit AB n’est pas
0 2 0
0 1
défini, car le nombre de colonnes de A (=3) n’est pas égal au nombre de lignes de
B (=4). Il est impossible d’effectuer les produits matrice-vecteur de la définition
de AB.
!
Proposition 41 Soient A et B comme dans la Définition 42. Alors, pour tout x ∈
R p , on a
(AB)x = A(Bx).
6.2. Produit matriciel
95
Démonstration. Notons d’abord que tous les produits matriciels et matrice-vecteur
de cette formule
sont bien définis.
 
λ1
 
Si x =  ... , alors on a par définition du produit matriciel et du produit
λp
matrice-vecteur
(AB)x = λ1 (Ab1 ) + λ2 (Ab2 ) + · · · + λ p (Ab p ).
D’un autre côté, toujours par définition du produit matrice-vecteur,
Bx = λ1 b1 + λ2 b2 + · · · + λ p b p ,
d’où par linéarité du produit matrice-vecteur
A(Bx) = A(λ1 b1 + λ2 b2 + · · · + λ p b p ) = λ1 (Ab1 ) + λ2 (Ab2 ) + · · · + λ p (Ab p ).
!
On en déduit le résultat.
Le produit matriciel possède les propriétés algébriques suivantes.
Théorème 43 On a (en supposant les produits matriciels définis)
i) (A + A' )B = AB + A' B et A(B + B' ) = AB + AB' .
ii) λ(AB) = (λA)B = A(λB).
iii) (AB)C = A(BC) (associativité).
Démonstration. i) Comme (A + A' )b j = Ab j + A' b j , la première relation est vraie.
De même, les colonnes de B + B' sont les b j + b'j , et l’on a A(b j + b'j ) = Ab j + Ab'j ,
d’où la deuxième relation, cf. Remarque 32.
ii) On utilise encore la Remarque 32.
iii) Assurons-nous d’abord que tous les produits sont bien définis. Pour définir
AB, on doit avoir A ∈ Mmn (R) et B ∈ Mnp (R). Dans ce cas, AB ∈ Mmp (R). Pour
définir BC, on doit avoir B ∈ Mnp (R) et C ∈ M pr (R). Dans ce cas, BC ∈ Mnr (R).
Par conséquent, le produit (AB)C est bien défini (nb de colonnes de AB = nb de
lignes de C) et (AB)C ∈ Mmr (R). De même, le produit A(BC) est bien défini et
appartient à Mmr (R). En particulier, (AB)C et A(BC) sont deux matrices de même
taille, ce qui est la moindre des choses si elles sont censées être égales.
Montrons maintenant qu’elles sont bien égales. Pour cela, on écrit C comme
une ligne de vecteurs
'
(
C = c1 c2 · · · cr , ck ∈ R p .
CHAPITRE 6. Algèbre matricielle
96
Il vient
'
(
(AB)C = '(AB)c1 (AB)c2 · · · (AB)cr (
= A(Bc1 ) A(Bc2 ) · · · A(Bcr )
par la Proposition
41
'
(
= A 'Bc'1 Bc2 · · · Bc((
r
= A B c1 c2 · · · cr = A(BC).
!
Remarque 34 Comme le produit matriciel est associatif, il est inutile d’utiliser des parenthèses du moment que tous les produits intermédiaires soient bien
définis.
!
Les matrices identités sont des éléments neutres à gauche et à droite pour le
produit matriciel.
Proposition 42 Pour tout A ∈ Mmn (R), on a Im A = AIn = A.
Démonstration. Évident car Im ai = ai et Aei = ai pour i = 1, . . . , n.
!
On a une formule générale pour l’élément générique du produit de deux matrices.
Proposition 43 Soit A = (ai j ) ∈ Mmn (R) et B = (b jk ) ∈ Mnp (R). Alors on a
(AB)ik = ai1 b1k + ai2 b2k + · · · + ain bnk =
n
∑ ai j b jk
j=1
pour i = 1, . . . , m, k = 1, . . . , p.
Démonstration. Il suffit de l’écrire : (AB)ik est la ligne i du vecteur Abk .
!
Cette formule est assez mnémotechnique, surtout sous sa forme condensée
avec le signe somme. Noter la position de l’indice de sommation j, qui est l’indice
répété dans cette formule.
Proposition 44 Si le produit AB est défini, alors le produit BT AT est aussi défini
et l’on a (AB)T = BT AT .
Démonstration. Soit A = (ai j ) ∈ Mmn (R) et B = (b jk ) ∈ Mnp (R)Mmp (R), d’où
AB ∈ Mmp (R). On voit donc que BT ∈ M pn (R) et AT ∈ Mnm (R)Mnp (R). Par
conséquent, BT AT est bien défini et de la même taille que (AB)T .
Utilisons la formule générale ci-dessus.
T T
(B A )ik =
n
T
∑ (B
j=1
d’où le résultat.
T
)i j (A ) jk =
n
n
j=1
j=1
∑ b jiak j = ∑ ak j b ji = (AB)ki = ((AB)T )ik
!
6.2. Produit matriciel
97
Remarque 35 ATTENTION ! Le produit matriciel n’est pas commutatif. En effet, il peut se faire que AB soit défini mais pas BA, ou que AB et BA soient tous
deux définis mais pas de la même taille. Mais même dans le cas où AB et BA
sont définis et de la même taille, on a en général AB "= BA. Considérons l’exemple
suivant.
*
+*
+ *
+
* +*
+ *
+
5 1
2 0
14 3
2 0
5 1
10 2
=
mais
=
.
3 −2
4 3
−2 −6
4 3
3 −2
29 −2
C’est là la situation générale. L’ordre des facteurs dans un produit matriciel ne
doit donc jamais être modifié, sous peine de fausser le résultat (sauf si l’on sait
que l’on est dans un cas particulier où deux matrices commutent, c’est-à-dire sont
telles que AB = BA. Mais c’est rare...).
En fait, le produit matriciel est le premier exemple que l’on rencontre de produit non commutatif.
!
Le calcul pratique d’un produit matriciel se fait en remarquant qu’il ne s’agit
que d’une suite de produits matrice-vecteur. Il est commode quand on débute de
disposer les calculs de la façon suivante.


×


×

 ←B


×
×

 

|

 

|
 

A→
× × × × − − − | − − ← AB
|
On a fait apparaı̂tre une ligne générique de A et une colonne générique de B avec
les coefficients qui doivent multipliés les uns avec les autres (représentés par des ×
dans l’ordre de gauche à droite dans A et de haut en bas dans B) puis additionnés
pour donner le coefficient de AB situé à l’intersection de cette ligne et de cette
colonne.
Avec un peu plus de pratique, on pose directement l’opération en ligne comme
dans l’exemple ci-dessus.
Remarque 36 Deux erreurs grossières à éviter. Les règles du calcul des produits
de matrices diffèrent de celles des produits dans un corps par d’autres aspects.
i) Si AB = AC, on ne peut pas simplifier par A pour en déduire que B = C.
C’est faux en général.
ii) Si AB = 0, on ne peut pas en déduire que soit A = 0 soit B = 0. C’est faux
en général.
CHAPITRE 6. Algèbre matricielle
98
Si on a un exemple de ii),
suffit de prendre
*
+
*
0 0
1
A=
et B =
0 1
0
on a aussi un exemple de i) puisque 0 = A × 0. Il
+
*
+*
+ *
+
0
0 0
1 0
0 0
. Alors, AB =
=
0
0 1
0 0
0 0
mais ni A ni B n’est nulle.
6.3
!
Cas où m = n, matrices inversibles
Théorème 44 (Mn (R), +, ×) est un anneau unitaire, non commutatif, non intègre.
Démonstration. En effet, dans le cas m = n, la multiplication des matrices est une
opération interne dans Mn (R). Les axiomes d’anneau sont satisfaits. La matrice
In est élément neutre pour la multiplication, donc c’est un anneau unitaire. La
multiplication n’est pas commutative. Il y a des diviseurs de zéro, (cf. l’exemple
ci-dessus), donc cet anneau n’est pas intègre.
!
Les opérations usuelles d’un anneau sont également définies ici.
Définition 43 Pour tout A ∈ Mn (R), on définit les puissances successives de A
par A0 = In et A p+1 = AA p = A p A pour tout p ∈ N.
Pour p ≥ 1, A p est le produit de A par elle-même p fois. On définit alors pour
tout P ∈ R[X] polynôme à une indéterminée sur R, P(X) = a0 + a1 X + · · · a p X p ,
la matrice P(A) = a0 In + a1 A + · · · a p A p ∈ Mn (R).
Remarque 37 Comme la multiplication n’est pas commutative, les identités binomiales usuelles sont fausses. En particulier, (A + B)2 "= A2 + 2AB + B2 , mais
bien (A + B)2 = A2 + AB + BA + B2 .
!
Définition 44 On dit que A ∈ Mn (R) est inversible si et seulement si il existe une
autre matrice A' ∈ Mn (R) telle que AA' = A' A = In . Dans le cas contraire, on
dit qu’elle est singulière. L’ensemble GLn (R) = {A ∈ Mn (R), A inversible} est un
groupe pour la multiplication.
Ce sont les notions usuelles dans un anneau unitaire. On note bien sûr A' =
et plus généralement A−p = (A−1 ) p pour tout p ∈ N quand A est inversible.
A−1 ,
Théorème 45 Soit A ∈ Mn (R). Le système linéaire n × n, Ax = b admet une solution et une seule pour tout b si et seulement si A est inversible. Dans ce cas, on
a x = A−1 b.
6.3. Cas où m = n, matrices inversibles
99
Démonstration. Si A est inversible, alors Ax = b implique en multipliant par A−1
que A−1 Ax = A−1 b, c’est-à-dire x = In x = A−1 b, c’est-à-dire l’unicité de la solution. Vérifions l’existence : on a bien A(A−1 b) = (AA−1 )b = In b = b, d’où l’existence.
Réciproquement, supposons que le système Ax = b admette une solution et
une seule pour tout b ∈ Rn . Ceci signifie que l’application linéaire f : Rn → Rn ,
x %→ Ax, est un isomorphisme. L’application inverse f −1 admet une matrice A' dans
la base canonique et l’on a f −1 (x) = A' x (x est égal dans ce cas à la colonne des
ses composantes dans la base canonique). Par conséquent, comme f ◦ f −1 = id,
il vient x = f ◦ f −1 (x) = A(A' x) = (AA' )x pour tout x ∈ Rn . Prenant x = ei les
vecteurs de la bases canonique, on en déduit que AA' = In . De même, le fait que
f −1 ◦ f = id implique que A' A = In et A est inversible.
!
Remarque '38 Résolvons(le système Avi = ei , c’est-à-dire vi = A−1 ei . On en déduit
que A−1 = v1 v2 · · · vn . Donc, le calcul de A−1 se ramène à la résolution de
n systèmes linéaires n × n, que
' l’on(peut effectuer par la méthode de Gauss de la
façon suivante : on pose à = A In matrice' n × 2n.(Alors la matrice échelonnée
réduite équivalente à Ã n’est autre que Ũ = In A−1 .
!
Théorème 46 Si A, B ∈ GLn (R), alors (AB)−1 = B−1 A−1 et AT ∈ GLn (R), avec
(AT )−1 = (A−1 )T .
Démonstration. La formule pour l’inverse du produit a lieu dans n’importe quel
groupe. Pour la transposée, on remarque que comme In = AA−1 et que InT = In , on
a
In = (AA−1 )T = (A−1 )T AT .
De même, le fait que In = A−1 A implique que In = AT (A−1 )T , donc AT est inversible et on a son inverse, la transposée de A−1 .
!
Une dernière propriété évidente découlant du Théorème 45 en identifiant une
matrice A à l’application linéaire x %→ Ax.
Proposition 45 On a A ∈ GLn (R) si et seulement si rg A = n, si et seulement si
ker A = {0}.
CHAPITRE 6. Algèbre matricielle
100
6.4
Le lien avec les applications linéaires
On vérifie facilement que l’ensemble des applications linéaires de E1 dans E2
peut être muni d’une addition
∀ f , g ∈ L (E1 , E2 ),
( f + g)(x) = f (x) + g(x)
et d’une multiplication par un scalaire
∀ f ∈ L (E1 , E2 ), ∀λ ∈ R,
(λ f )(x) = λ f (x),
qui en font un espace vectoriel sur R.
Soient donc deux espaces vectoriels E1 et E2 de dimension finie et Bi une base
de Ei .
Théorème 47 Soient f , g ∈ L (E1 , E2 ) et λ ∈ R, A la matrice de f dans les bases
B1 et B2 , et B celle de g. Alors la matrice de f + g dans ces mêmes bases est A + B
et celle de λ f est λA.
Démonstration. Immédiat en utilisant les définitions et la linéarité des composantes dans une base.
!
Ajoutons maintenant un troisième sev E3 muni d’une base B3 .
Théorème 48 Soient f ∈ L (E1 , E2 ) de matrice A dans les bases B1 et B2 , et g ∈
L (E2 , E3 ) de matrice B dans les bases B2 et B3 . Alors, la matrice de g ◦ f dans
les bases B1 et B3 est BA.
Démonstration. Soit C la matrice de g ◦ f . Elle est déterminée par le fait que
∀x ∈ E1 ,
(g ◦ f (x))B3 = C(x)B1 .
Par ailleurs, on a
( f (x))B2 = A(x)B1 et (g(y))B3 = B(y)B2 .
Donc
(g( f (x)))B3 = B( f (x))B2 = B(A(x)B1 ) = (BA)(x)B1
d’où l’identification de C = BA.
!
Donc la multiplication des matrices n’est que la traduction dans des bases
de la composition des applications linéaires. On comprend mieux pourquoi elle
n’est pas toujours définie, pourquoi elle est associative et pourquoi elle n’est pas
commutative.
Dans le cas d’un seul espace E1 = E2 = E, on en déduit le corollaire suivant.
6.5. Changement de bases
101
Proposition 46 On a f ∈ GL(E) si et seulement si sa matrice A dans une base
appartient à GLn (R). Dans ce cas, la matrice de f −1 dans la même base est A−1 .
Démonstration. On a que f ∈ GL(E) si et seulement si il existe f −1 ∈ L (E) tel
que f ◦ f −1 = f −1 ◦ f = id. Soit B une base de E et A la matrice de f dans cette
base et A' celle de f −1 dans la même base. La matrice de l’application identité
id dans une base étant la matrice identité In , on en déduit que AA' = A' A = In , et
réciproquement.
!
Le rang d’une matrice m × n est le rang de l’application linéaire de Rn dans
Rm qui lui est associée. Ce rang est aussi celui de n’importe quelle application
linéaire représentée par cette même matrice dans un choix de bases. On en déduit
que rg(BA) ≤ min(rg B, rg A).
6.5
Changement de bases
On a déjà vu le changement de bases pour les composantes dans un même sev
de dimension n
(x)B = PB →B ' (x)B ' .
Proposition 47 On a PB →B ' ∈ GLn (R) et (PB →B ' )−1 = PB ' →B .
Démonstration. Évident d’après la relation précédente appliquée également au
passage de B ' à B .
!
Considérons maintenant le même problème pour une application linéaire et sa
matrice dans plusieurs choix de bases.
Théorème 49 Soit E1 un sev muni de deux bases B1 et B1' , E2 de même muni de
deux bases B2 et B2' , f une application linéaire de E1 dans E2 , A sa matrice dans
les bases B1 et B2 et A' sa matrice dans les bases B1' et B2' . Alors on a la formule
de changement de bases
A' = PB2' →B2 APB1 →B1' .
Démonstration. On applique les divers résultats connus :
(x)B1 = PB1 →B1' (x)B1' ,
(y)B2 = PB2 →B2' (y)B2' ,
pour les changements de base et
( f (x))B2 = A(x)B1 ,
( f (x))B2' = A' (x)B1' ,
CHAPITRE 6. Algèbre matricielle
102
pour les matrices d’applications linéaires. Par conséquent,
PB2 →B2' ( f (x))B2' = APB1 →B1' (x)B1' .
Multipliant cette égalité à gauche par PB2' →B2 = (PB2 →B2' )−1 , on obtient
( f (x))B2' = PB2' →B2 APB1 →B1' (x)B1' = A' (x)B1' ,
pour tout x ∈ E1 , d’où le résultat voulu.
!
Dans le cas particulier où E1 = E2 , B1 = B2 et B1' = B2' , alors si l’on pose P =
PB1 →B1' alors la formule de changement de bases prend la forme plus compacte
A' = P−1 AP.
Définition 45 On dit que deux matrices A et B de Mn (k) sont semblables s’il
existe une matrice P ∈ GLn (R) telle que B = P−1 AP.
En d’autres termes, deux matrices carrées sont semblables si et seulement si
elles représentent la même application linéaire dans deux bases différentes. Il est
facile de montrer qu’il s’agit d’une relation d’équivalence.
6.6
Interprétation matricielle de la méthode de Gauss
On va voir que l’algorithme de Gauss de réduction d’une matrice m × n à la
forme échelonnée réduite s’interprète en termes de produits matriciels.
Définition 46 On appelle matrice élémentaire toute matrice qui résulte de l’application d’une opération élémentaire sur les lignes à la matrice identité Im .
Exemple 25 Dans le cas 3 × 3,


1 0 0
Im = 0 1 0 .
0 0 1
L’échange des lignes 1 et 3 donne la matrice élémentaire


0 0 1
E = 0 1 0 .
1 0 0
6.6. Interprétation matricielle de la méthode de Gauss
103
Le remplacement de la ligne 2 par elle-même plus 2 fois la ligne 1 donne la matrice
élémentaire


1 0 0
E = 2 1 0  .
0 0 1
La multiplication de la ligne 3 par 5 donne la matrice élémentaire


1 0 0
E = 0 1 0  .
0 0 5
Et ainsi de suite.
!
L’interprétation matricielle de la méthode de Gauss est fondée sur la remarque
suivante.
Proposition 48 Soit A une matrice m × n et E une matrice élémentaire. La matrice EA est celle qui résulte de l’application de la même opération élémentaire à
la matrice A.
m
Démonstration.
Écrivons
'
( la matrice A comme une ligne de n vecteurs de R ,
soit
' A = a1 a2 · · ·( an . Par définition du produit matriciel, il vient donc EA =
Ea1 Ea2 · · · Ean . Il suffit par conséquent de vérifier quel est l’effet de la multiplication par E sur un seul vecteur-colonne x ∈ Rm . Soit {e1 , e2 , . . . , em } la base
canonique de Rm . Ces vecteurs sont les vecteurs-colonne de la matrice Im , donc
par définition d’une matrice élémentaire, Eei est le vecteur obtenu par l’opération
élémentaire considérée appliquée au vecteur ei . Or les opérations élémentaires sur
les lignes définissent clairement des applications linéaires de Rm dans Rm . Comme
tout vecteur x ∈ Rm est combinaison linéaire des ei , Ex n’est autre que le vecteur
obtenu par l’opération élémentaire considérée appliquée au vecteur x.
!
Théorème 50 Soit A ∈ Mmn (R) et U ∈ Mmn (R) l’unique matrice échelonnée
réduite qui lui est équivalente. Alors il existe une unique matrice M ∈ GLm (R)
telle que
U = MA ⇐⇒ A = M −1U.
Démonstration. D’après la proposition précédente, chaque étape de l’algorithme
de Gauss s’interprète matriciellement comme la multiplication à gauche de la matrice obtenue à l’étape précédente par une matrice élémentaire. Ainsi on a
1ère étape : A1 = E1 A.
2ème étape : A2 = E2 A1 = E2 (E1 A) = (E2 E1 )A.
104
CHAPITRE 6. Algèbre matricielle
Par récurrence, à la fin de l’algorithme, on a
pème étape : U = A p = E p A p−1 = (E p E p−1 · · · E2 E1 )A.
On pose donc M = E p E p−1 · · · E2 E1 . Comme chacune des opérations élémentaires est inversible, chaque matrice élémentaire Ek appartient à GLm (R), d’où
M ∈ GLm (R).
!
Remarque 39 Si la matrice M n’est pas très facile à calculer, on peut montrer que
−1 −1
la matrice M −1 = E1−1 E2−1 · · · E p−1
E p est en fait un sous-produit gratuit de l’algorithme de Gauss, que l’on obtient sans calcul supplémentaire. Cette remarque
est intéressante, car la formule A = M −1U est ce que l’on appelle une factorisation
de A, et les factorisations d’une matrice ont de multiples applications.
!
Remarque 40 Dans le cas où A est une matrice carrée inversible, on a U = Im ,
−1
donc M = A−1
' . On(retrouve donc le calcul' de A par
( la' méthode
( de Gauss en
utilisant à = A Im . En effet, Ũ = M à = MA MIm = Im A−1 .
!
Téléchargement