Chapitre 6 Algèbre matricielle En plus d’être des tableaux de nombres susceptibles d’être manipulés par des algorithmes pour la résolution des systèmes linéaires et des outils de calcul pour les applications linéaires, les matrices sont également munies de diverses structures algébriques. 6.1 Opérations linéaires sur les matrices Tout d’abord quelques points de notation et de vocabulaire. L’ensemble des matrices m × n à coefficients dans R (ou C) sera noté Mmn (R) (ou Mmn (C)). Dans le cas où m = n, on dit que l’on a affaire à des matrices carrées et l’on note simplement Mm (R). Dans une matrice carrée A = (ai j ) de taille m × m, les coefficients de la forme aii pour i = 1, 2, . . . , m forment ce que l’on appelle la diagonale, ou diagonale principale, de la matrice. Une matrice carrée A telle que ai j = 0 dès que i "= j, c’est-à-dire hors de la diagonale, est appelée matrice diagonale. Une matrice carrée A telle que ai j = 0 dès que i > j, c’est-à-dire en dessous de la diagonale, est appelée matrice triangulaire supérieure. Les matrices carrées échelonnées sont triangulaires supérieures. Une matrice carrée A telle que ai j = 0 dès que i < j, c’est-à-dire au dessus de la diagonale, est appelée matrice triangulaire inférieure. a11 a12 a13 · · · a1m a11 0 0 · · · 0 a21 a22 a23 · · · a2m 0 a22 0 · · · 0 a31 a32 a33 · · · a3m 0 0 a33 · · · 0 .. . .. .. . . .. .. .. . . .. .. . . . . . . . . . 0 0 0 · · · amm am1 am2 am3 · · · amm diagonale matrice diagonale 91 CHAPITRE 6. Algèbre matricielle 92 a11 0 0 .. . 0 a12 a13 a22 a23 0 a33 .. .. . . 0 0 · · · a1m · · · a2m · · · a3m . .. . .. · · · amm a11 0 0 a21 a22 0 a31 a32 a33 .. .. .. . . . am1 am2 am3 ··· ··· ··· .. . 0 0 0 .. . · · · amm matrice triangulaire supérieure matrice triangulaire inférieure Définition 40 On définit sur Mmn (R) une loi de composition interne appelée addition par : Pour tous A = (ai j ), B = (bi j ) dans Mmn (R), A + B est la matrice de Mmn (R) dont les coefficients sont donnés par (A + B)i j = ai j + bi j , pour i = 1, . . . , m et j = 1, . . . , n, et une loi de composition externe appelée multiplication par un scalaire par : Pour tout A = (ai j ) dans Mmn (R) et λ dans R, λA est la matrice de Mmn (R) dont les coefficients sont donnés par (λA)i j = λai j , pour i = 1, . . . , m et j = 1, . . . , n. Remarque 32 Il s’agit de la généralisation immédiate à toutes les matrices des opérations déjà définies sur les matrices à une ' colonne. En(fait, si l’on ' écrit les ma-( trices sous forme de ligne de colonnes, A = a1 a2 · · · an et B = b1 b2 · · · bn avec a j , b j ∈ Rm , on a ' ( ' ( A + B = a1 + b1 a2 + b2 · · · an + bn et λA = λa1 λa2 · · · λan . On en déduit immédiatement par la définition du produit matrice-vecteur que (A + B)x = Ax + Bx et (λA)x = λ(Ax), pour tout x ∈ Rn . ! En particulier, on montre très facilement le résultat suivant. Proposition 38 L’ensemble Mmn (R) muni de ces deux opérations est un espace vectoriel sur R. L’élément neutre pour l’addition est la matrice m × n nulle, notée 0, dont tous les coefficients sont nuls. Introduisons mn matrices particulières Ekl ∈ Mmn (R) définies par ) 1 si i = k et j = l, (Ekl )i j = 0 sinon. 6.2. Produit matriciel 93 Proposition 39 La famille {Ekl , k = 1, . . . , m, l = 1, . . . , n} forme une base de Mmn (R), appelée base canonique de Mmn (R). En particulier, dim Mmn (R) = mn. Définition 41 Si A ∈ Mmn (R), on définit sa matrice transposée AT ∈ Mnm (R) par (AT )i j = a ji pour i = 1, . . . , n et j = 1, . . . , m. La notation traditionnelle française pour la transposée d’une matrice A est tA. Malheureusement, cette notation est nettement plus pénible à taper en TEX que la notation anglo-saxonne AT ($^t\!A$ au lieu de $A^T$), que l’on préférera donc par pure paresse dans la suite de ces notes. Exemple 23 La transposition opère une symétrie par rapport à la diagonale. Ainsi 1 * + 1 0 1 0 0 A= =⇒ AT = 0 2 0 3 1 0 Elle échange le rôle des lignes et des colonnes. 0 2 . 0 3 ! Proposition 40 L’application de transposition A %→ AT est un isomorphisme de Mmn (R) dans Mnm (R), et l’on a (AT )T = A pour tout A. 6.2 Produit matriciel La grande nouveauté est que l’on peut multiplier certaines matrices entre elles. Définition 42 Soit A ∈ Mmn (R) et B ∈ Mnp (R). Notons b1 , b2 , . . . , b p ∈ Rn les p colonnes de B. On définit le produit AB comme étant la matrice m × p dont les colonnes sont données par ' ( AB = Ab1 Ab2 · · · Ab p . CHAPITRE 6. Algèbre matricielle 94 Remarque 33 Comme A est une matrice m × n et les bi sont des vecteurs de Rn , chaque produit matrice-vecteur Abi est bien défini et fournit un vecteur de Rm . Le résultat du produit est donc bien une matrice à m lignes et p colonnes. Retenons donc que le produit AB n’est défini que quand le nombre de colonnes de A est égal au nombre de lignes de B, sinon il n’est pas défini. En particulier, on ne peut toujours pas multiplier un vecteur-colonne par un autre vecteur-colonne (sauf s’ils n’ont qu’une ligne). Quand le produit AB est défini, son nombre de lignes est égal au nombre de lignes du premier facteur A et son nombre de colonnes est égal à celui du second facteur B. Remarquons enfin que si B ∈ Mn1 (R) = Rn , alors AB n’est autre que le produit matrice-vecteur habituel. 1 0 * + 0 1 1 0 1 0 Exemple 24 Si A = et B = 1 0, alors le produit AB est bien 0 2 0 3 0 (1 ' défini, c’est une matrice 2 × 2, AB = Ab1 Ab2 , avec d’où 1 * + * + * + 0 * + 1 0 1 0 0 2 1 0 1 0 1 0 Ab1 = = et Ab2 = = , 0 2 0 3 1 0 0 2 0 3 0 5 0 1 dans ce cas. * + 2 0 AB = 0 5 1 0 * + 0 1 1 0 1 Par contre, si A = et B = 1 0, alors le produit AB n’est pas 0 2 0 0 1 défini, car le nombre de colonnes de A (=3) n’est pas égal au nombre de lignes de B (=4). Il est impossible d’effectuer les produits matrice-vecteur de la définition de AB. ! Proposition 41 Soient A et B comme dans la Définition 42. Alors, pour tout x ∈ R p , on a (AB)x = A(Bx). 6.2. Produit matriciel 95 Démonstration. Notons d’abord que tous les produits matriciels et matrice-vecteur de cette formule sont bien définis. λ1 Si x = ... , alors on a par définition du produit matriciel et du produit λp matrice-vecteur (AB)x = λ1 (Ab1 ) + λ2 (Ab2 ) + · · · + λ p (Ab p ). D’un autre côté, toujours par définition du produit matrice-vecteur, Bx = λ1 b1 + λ2 b2 + · · · + λ p b p , d’où par linéarité du produit matrice-vecteur A(Bx) = A(λ1 b1 + λ2 b2 + · · · + λ p b p ) = λ1 (Ab1 ) + λ2 (Ab2 ) + · · · + λ p (Ab p ). ! On en déduit le résultat. Le produit matriciel possède les propriétés algébriques suivantes. Théorème 43 On a (en supposant les produits matriciels définis) i) (A + A' )B = AB + A' B et A(B + B' ) = AB + AB' . ii) λ(AB) = (λA)B = A(λB). iii) (AB)C = A(BC) (associativité). Démonstration. i) Comme (A + A' )b j = Ab j + A' b j , la première relation est vraie. De même, les colonnes de B + B' sont les b j + b'j , et l’on a A(b j + b'j ) = Ab j + Ab'j , d’où la deuxième relation, cf. Remarque 32. ii) On utilise encore la Remarque 32. iii) Assurons-nous d’abord que tous les produits sont bien définis. Pour définir AB, on doit avoir A ∈ Mmn (R) et B ∈ Mnp (R). Dans ce cas, AB ∈ Mmp (R). Pour définir BC, on doit avoir B ∈ Mnp (R) et C ∈ M pr (R). Dans ce cas, BC ∈ Mnr (R). Par conséquent, le produit (AB)C est bien défini (nb de colonnes de AB = nb de lignes de C) et (AB)C ∈ Mmr (R). De même, le produit A(BC) est bien défini et appartient à Mmr (R). En particulier, (AB)C et A(BC) sont deux matrices de même taille, ce qui est la moindre des choses si elles sont censées être égales. Montrons maintenant qu’elles sont bien égales. Pour cela, on écrit C comme une ligne de vecteurs ' ( C = c1 c2 · · · cr , ck ∈ R p . CHAPITRE 6. Algèbre matricielle 96 Il vient ' ( (AB)C = '(AB)c1 (AB)c2 · · · (AB)cr ( = A(Bc1 ) A(Bc2 ) · · · A(Bcr ) par la Proposition 41 ' ( = A 'Bc'1 Bc2 · · · Bc(( r = A B c1 c2 · · · cr = A(BC). ! Remarque 34 Comme le produit matriciel est associatif, il est inutile d’utiliser des parenthèses du moment que tous les produits intermédiaires soient bien définis. ! Les matrices identités sont des éléments neutres à gauche et à droite pour le produit matriciel. Proposition 42 Pour tout A ∈ Mmn (R), on a Im A = AIn = A. Démonstration. Évident car Im ai = ai et Aei = ai pour i = 1, . . . , n. ! On a une formule générale pour l’élément générique du produit de deux matrices. Proposition 43 Soit A = (ai j ) ∈ Mmn (R) et B = (b jk ) ∈ Mnp (R). Alors on a (AB)ik = ai1 b1k + ai2 b2k + · · · + ain bnk = n ∑ ai j b jk j=1 pour i = 1, . . . , m, k = 1, . . . , p. Démonstration. Il suffit de l’écrire : (AB)ik est la ligne i du vecteur Abk . ! Cette formule est assez mnémotechnique, surtout sous sa forme condensée avec le signe somme. Noter la position de l’indice de sommation j, qui est l’indice répété dans cette formule. Proposition 44 Si le produit AB est défini, alors le produit BT AT est aussi défini et l’on a (AB)T = BT AT . Démonstration. Soit A = (ai j ) ∈ Mmn (R) et B = (b jk ) ∈ Mnp (R)Mmp (R), d’où AB ∈ Mmp (R). On voit donc que BT ∈ M pn (R) et AT ∈ Mnm (R)Mnp (R). Par conséquent, BT AT est bien défini et de la même taille que (AB)T . Utilisons la formule générale ci-dessus. T T (B A )ik = n T ∑ (B j=1 d’où le résultat. T )i j (A ) jk = n n j=1 j=1 ∑ b jiak j = ∑ ak j b ji = (AB)ki = ((AB)T )ik ! 6.2. Produit matriciel 97 Remarque 35 ATTENTION ! Le produit matriciel n’est pas commutatif. En effet, il peut se faire que AB soit défini mais pas BA, ou que AB et BA soient tous deux définis mais pas de la même taille. Mais même dans le cas où AB et BA sont définis et de la même taille, on a en général AB "= BA. Considérons l’exemple suivant. * +* + * + * +* + * + 5 1 2 0 14 3 2 0 5 1 10 2 = mais = . 3 −2 4 3 −2 −6 4 3 3 −2 29 −2 C’est là la situation générale. L’ordre des facteurs dans un produit matriciel ne doit donc jamais être modifié, sous peine de fausser le résultat (sauf si l’on sait que l’on est dans un cas particulier où deux matrices commutent, c’est-à-dire sont telles que AB = BA. Mais c’est rare...). En fait, le produit matriciel est le premier exemple que l’on rencontre de produit non commutatif. ! Le calcul pratique d’un produit matriciel se fait en remarquant qu’il ne s’agit que d’une suite de produits matrice-vecteur. Il est commode quand on débute de disposer les calculs de la façon suivante. × × ←B × × | | A→ × × × × − − − | − − ← AB | On a fait apparaı̂tre une ligne générique de A et une colonne générique de B avec les coefficients qui doivent multipliés les uns avec les autres (représentés par des × dans l’ordre de gauche à droite dans A et de haut en bas dans B) puis additionnés pour donner le coefficient de AB situé à l’intersection de cette ligne et de cette colonne. Avec un peu plus de pratique, on pose directement l’opération en ligne comme dans l’exemple ci-dessus. Remarque 36 Deux erreurs grossières à éviter. Les règles du calcul des produits de matrices diffèrent de celles des produits dans un corps par d’autres aspects. i) Si AB = AC, on ne peut pas simplifier par A pour en déduire que B = C. C’est faux en général. ii) Si AB = 0, on ne peut pas en déduire que soit A = 0 soit B = 0. C’est faux en général. CHAPITRE 6. Algèbre matricielle 98 Si on a un exemple de ii), suffit de prendre * + * 0 0 1 A= et B = 0 1 0 on a aussi un exemple de i) puisque 0 = A × 0. Il + * +* + * + 0 0 0 1 0 0 0 . Alors, AB = = 0 0 1 0 0 0 0 mais ni A ni B n’est nulle. 6.3 ! Cas où m = n, matrices inversibles Théorème 44 (Mn (R), +, ×) est un anneau unitaire, non commutatif, non intègre. Démonstration. En effet, dans le cas m = n, la multiplication des matrices est une opération interne dans Mn (R). Les axiomes d’anneau sont satisfaits. La matrice In est élément neutre pour la multiplication, donc c’est un anneau unitaire. La multiplication n’est pas commutative. Il y a des diviseurs de zéro, (cf. l’exemple ci-dessus), donc cet anneau n’est pas intègre. ! Les opérations usuelles d’un anneau sont également définies ici. Définition 43 Pour tout A ∈ Mn (R), on définit les puissances successives de A par A0 = In et A p+1 = AA p = A p A pour tout p ∈ N. Pour p ≥ 1, A p est le produit de A par elle-même p fois. On définit alors pour tout P ∈ R[X] polynôme à une indéterminée sur R, P(X) = a0 + a1 X + · · · a p X p , la matrice P(A) = a0 In + a1 A + · · · a p A p ∈ Mn (R). Remarque 37 Comme la multiplication n’est pas commutative, les identités binomiales usuelles sont fausses. En particulier, (A + B)2 "= A2 + 2AB + B2 , mais bien (A + B)2 = A2 + AB + BA + B2 . ! Définition 44 On dit que A ∈ Mn (R) est inversible si et seulement si il existe une autre matrice A' ∈ Mn (R) telle que AA' = A' A = In . Dans le cas contraire, on dit qu’elle est singulière. L’ensemble GLn (R) = {A ∈ Mn (R), A inversible} est un groupe pour la multiplication. Ce sont les notions usuelles dans un anneau unitaire. On note bien sûr A' = et plus généralement A−p = (A−1 ) p pour tout p ∈ N quand A est inversible. A−1 , Théorème 45 Soit A ∈ Mn (R). Le système linéaire n × n, Ax = b admet une solution et une seule pour tout b si et seulement si A est inversible. Dans ce cas, on a x = A−1 b. 6.3. Cas où m = n, matrices inversibles 99 Démonstration. Si A est inversible, alors Ax = b implique en multipliant par A−1 que A−1 Ax = A−1 b, c’est-à-dire x = In x = A−1 b, c’est-à-dire l’unicité de la solution. Vérifions l’existence : on a bien A(A−1 b) = (AA−1 )b = In b = b, d’où l’existence. Réciproquement, supposons que le système Ax = b admette une solution et une seule pour tout b ∈ Rn . Ceci signifie que l’application linéaire f : Rn → Rn , x %→ Ax, est un isomorphisme. L’application inverse f −1 admet une matrice A' dans la base canonique et l’on a f −1 (x) = A' x (x est égal dans ce cas à la colonne des ses composantes dans la base canonique). Par conséquent, comme f ◦ f −1 = id, il vient x = f ◦ f −1 (x) = A(A' x) = (AA' )x pour tout x ∈ Rn . Prenant x = ei les vecteurs de la bases canonique, on en déduit que AA' = In . De même, le fait que f −1 ◦ f = id implique que A' A = In et A est inversible. ! Remarque '38 Résolvons(le système Avi = ei , c’est-à-dire vi = A−1 ei . On en déduit que A−1 = v1 v2 · · · vn . Donc, le calcul de A−1 se ramène à la résolution de n systèmes linéaires n × n, que ' l’on(peut effectuer par la méthode de Gauss de la façon suivante : on pose à = A In matrice' n × 2n.(Alors la matrice échelonnée réduite équivalente à à n’est autre que Ũ = In A−1 . ! Théorème 46 Si A, B ∈ GLn (R), alors (AB)−1 = B−1 A−1 et AT ∈ GLn (R), avec (AT )−1 = (A−1 )T . Démonstration. La formule pour l’inverse du produit a lieu dans n’importe quel groupe. Pour la transposée, on remarque que comme In = AA−1 et que InT = In , on a In = (AA−1 )T = (A−1 )T AT . De même, le fait que In = A−1 A implique que In = AT (A−1 )T , donc AT est inversible et on a son inverse, la transposée de A−1 . ! Une dernière propriété évidente découlant du Théorème 45 en identifiant une matrice A à l’application linéaire x %→ Ax. Proposition 45 On a A ∈ GLn (R) si et seulement si rg A = n, si et seulement si ker A = {0}. CHAPITRE 6. Algèbre matricielle 100 6.4 Le lien avec les applications linéaires On vérifie facilement que l’ensemble des applications linéaires de E1 dans E2 peut être muni d’une addition ∀ f , g ∈ L (E1 , E2 ), ( f + g)(x) = f (x) + g(x) et d’une multiplication par un scalaire ∀ f ∈ L (E1 , E2 ), ∀λ ∈ R, (λ f )(x) = λ f (x), qui en font un espace vectoriel sur R. Soient donc deux espaces vectoriels E1 et E2 de dimension finie et Bi une base de Ei . Théorème 47 Soient f , g ∈ L (E1 , E2 ) et λ ∈ R, A la matrice de f dans les bases B1 et B2 , et B celle de g. Alors la matrice de f + g dans ces mêmes bases est A + B et celle de λ f est λA. Démonstration. Immédiat en utilisant les définitions et la linéarité des composantes dans une base. ! Ajoutons maintenant un troisième sev E3 muni d’une base B3 . Théorème 48 Soient f ∈ L (E1 , E2 ) de matrice A dans les bases B1 et B2 , et g ∈ L (E2 , E3 ) de matrice B dans les bases B2 et B3 . Alors, la matrice de g ◦ f dans les bases B1 et B3 est BA. Démonstration. Soit C la matrice de g ◦ f . Elle est déterminée par le fait que ∀x ∈ E1 , (g ◦ f (x))B3 = C(x)B1 . Par ailleurs, on a ( f (x))B2 = A(x)B1 et (g(y))B3 = B(y)B2 . Donc (g( f (x)))B3 = B( f (x))B2 = B(A(x)B1 ) = (BA)(x)B1 d’où l’identification de C = BA. ! Donc la multiplication des matrices n’est que la traduction dans des bases de la composition des applications linéaires. On comprend mieux pourquoi elle n’est pas toujours définie, pourquoi elle est associative et pourquoi elle n’est pas commutative. Dans le cas d’un seul espace E1 = E2 = E, on en déduit le corollaire suivant. 6.5. Changement de bases 101 Proposition 46 On a f ∈ GL(E) si et seulement si sa matrice A dans une base appartient à GLn (R). Dans ce cas, la matrice de f −1 dans la même base est A−1 . Démonstration. On a que f ∈ GL(E) si et seulement si il existe f −1 ∈ L (E) tel que f ◦ f −1 = f −1 ◦ f = id. Soit B une base de E et A la matrice de f dans cette base et A' celle de f −1 dans la même base. La matrice de l’application identité id dans une base étant la matrice identité In , on en déduit que AA' = A' A = In , et réciproquement. ! Le rang d’une matrice m × n est le rang de l’application linéaire de Rn dans Rm qui lui est associée. Ce rang est aussi celui de n’importe quelle application linéaire représentée par cette même matrice dans un choix de bases. On en déduit que rg(BA) ≤ min(rg B, rg A). 6.5 Changement de bases On a déjà vu le changement de bases pour les composantes dans un même sev de dimension n (x)B = PB →B ' (x)B ' . Proposition 47 On a PB →B ' ∈ GLn (R) et (PB →B ' )−1 = PB ' →B . Démonstration. Évident d’après la relation précédente appliquée également au passage de B ' à B . ! Considérons maintenant le même problème pour une application linéaire et sa matrice dans plusieurs choix de bases. Théorème 49 Soit E1 un sev muni de deux bases B1 et B1' , E2 de même muni de deux bases B2 et B2' , f une application linéaire de E1 dans E2 , A sa matrice dans les bases B1 et B2 et A' sa matrice dans les bases B1' et B2' . Alors on a la formule de changement de bases A' = PB2' →B2 APB1 →B1' . Démonstration. On applique les divers résultats connus : (x)B1 = PB1 →B1' (x)B1' , (y)B2 = PB2 →B2' (y)B2' , pour les changements de base et ( f (x))B2 = A(x)B1 , ( f (x))B2' = A' (x)B1' , CHAPITRE 6. Algèbre matricielle 102 pour les matrices d’applications linéaires. Par conséquent, PB2 →B2' ( f (x))B2' = APB1 →B1' (x)B1' . Multipliant cette égalité à gauche par PB2' →B2 = (PB2 →B2' )−1 , on obtient ( f (x))B2' = PB2' →B2 APB1 →B1' (x)B1' = A' (x)B1' , pour tout x ∈ E1 , d’où le résultat voulu. ! Dans le cas particulier où E1 = E2 , B1 = B2 et B1' = B2' , alors si l’on pose P = PB1 →B1' alors la formule de changement de bases prend la forme plus compacte A' = P−1 AP. Définition 45 On dit que deux matrices A et B de Mn (k) sont semblables s’il existe une matrice P ∈ GLn (R) telle que B = P−1 AP. En d’autres termes, deux matrices carrées sont semblables si et seulement si elles représentent la même application linéaire dans deux bases différentes. Il est facile de montrer qu’il s’agit d’une relation d’équivalence. 6.6 Interprétation matricielle de la méthode de Gauss On va voir que l’algorithme de Gauss de réduction d’une matrice m × n à la forme échelonnée réduite s’interprète en termes de produits matriciels. Définition 46 On appelle matrice élémentaire toute matrice qui résulte de l’application d’une opération élémentaire sur les lignes à la matrice identité Im . Exemple 25 Dans le cas 3 × 3, 1 0 0 Im = 0 1 0 . 0 0 1 L’échange des lignes 1 et 3 donne la matrice élémentaire 0 0 1 E = 0 1 0 . 1 0 0 6.6. Interprétation matricielle de la méthode de Gauss 103 Le remplacement de la ligne 2 par elle-même plus 2 fois la ligne 1 donne la matrice élémentaire 1 0 0 E = 2 1 0 . 0 0 1 La multiplication de la ligne 3 par 5 donne la matrice élémentaire 1 0 0 E = 0 1 0 . 0 0 5 Et ainsi de suite. ! L’interprétation matricielle de la méthode de Gauss est fondée sur la remarque suivante. Proposition 48 Soit A une matrice m × n et E une matrice élémentaire. La matrice EA est celle qui résulte de l’application de la même opération élémentaire à la matrice A. m Démonstration. Écrivons ' ( la matrice A comme une ligne de n vecteurs de R , soit ' A = a1 a2 · · ·( an . Par définition du produit matriciel, il vient donc EA = Ea1 Ea2 · · · Ean . Il suffit par conséquent de vérifier quel est l’effet de la multiplication par E sur un seul vecteur-colonne x ∈ Rm . Soit {e1 , e2 , . . . , em } la base canonique de Rm . Ces vecteurs sont les vecteurs-colonne de la matrice Im , donc par définition d’une matrice élémentaire, Eei est le vecteur obtenu par l’opération élémentaire considérée appliquée au vecteur ei . Or les opérations élémentaires sur les lignes définissent clairement des applications linéaires de Rm dans Rm . Comme tout vecteur x ∈ Rm est combinaison linéaire des ei , Ex n’est autre que le vecteur obtenu par l’opération élémentaire considérée appliquée au vecteur x. ! Théorème 50 Soit A ∈ Mmn (R) et U ∈ Mmn (R) l’unique matrice échelonnée réduite qui lui est équivalente. Alors il existe une unique matrice M ∈ GLm (R) telle que U = MA ⇐⇒ A = M −1U. Démonstration. D’après la proposition précédente, chaque étape de l’algorithme de Gauss s’interprète matriciellement comme la multiplication à gauche de la matrice obtenue à l’étape précédente par une matrice élémentaire. Ainsi on a 1ère étape : A1 = E1 A. 2ème étape : A2 = E2 A1 = E2 (E1 A) = (E2 E1 )A. 104 CHAPITRE 6. Algèbre matricielle Par récurrence, à la fin de l’algorithme, on a pème étape : U = A p = E p A p−1 = (E p E p−1 · · · E2 E1 )A. On pose donc M = E p E p−1 · · · E2 E1 . Comme chacune des opérations élémentaires est inversible, chaque matrice élémentaire Ek appartient à GLm (R), d’où M ∈ GLm (R). ! Remarque 39 Si la matrice M n’est pas très facile à calculer, on peut montrer que −1 −1 la matrice M −1 = E1−1 E2−1 · · · E p−1 E p est en fait un sous-produit gratuit de l’algorithme de Gauss, que l’on obtient sans calcul supplémentaire. Cette remarque est intéressante, car la formule A = M −1U est ce que l’on appelle une factorisation de A, et les factorisations d’une matrice ont de multiples applications. ! Remarque 40 Dans le cas où A est une matrice carrée inversible, on a U = Im , −1 donc M = A−1 ' . On(retrouve donc le calcul' de A par ( la' méthode ( de Gauss en utilisant à = A Im . En effet, Ũ = M à = MA MIm = Im A−1 . !