Matrices 1 Matrices rectangulaires et opérations. 1.1 1.2 1.3 1.4 1.5 Ensemble de matrices rectangulaires. Transposition. . Combinaisons linéaires de matrices. . . . . . . . . . . Produit matriciel. . . . . . . . . . . . . . . . . . . . . Application à l'écriture de systèmes linéaires. . . . . Base canonique de Mn,p (K). . . . . . . . . . . . . . . 2 Matrices carrées. 2.1 2.2 2.3 2.4 2.5 2.6 Dénitions. . . . . . . . . . . . . . . . . . . Puissance d'une matrice carrée. . . . . . . . Matrices triangulaires, matrices diagonales. Matrices symétriques, antisymétriques. . . . Trace. . . . . . . . . . . . . . . . . . . . . . Notion d'inverse : premier contact. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 3 4 5 5 7 . 7 . 8 . 9 . 9 . 10 . 10 3 Opérations élémentaires et calcul matriciel. 11 3.1 Matrices élémentaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 3.2 Traduction de l'algorithme du pivot. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 4 Matrices carrées inversibles. 4.1 Groupe linéaire. . . . . . . . . . . . . . . . . . . . . 4.2 Inversibilité et systèmes linéaires. . . . . . . . . . . 4.3 Calcul eectif de l'inverse. . . . . . . . . . . . . . . 4.3.1 Méthode 1 : par la résolution d'un système. 4.3.2 Méthode 2 : par la méthode du pivot. . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . PCSI1 . . . . . . . . . . . . . . . . . . . . . . . . . L ycée . . . . . . . . . . . . . . . . . . . . . . . . . Albert . . . . . . . . . . . . . . . . . . . . . . . . . 14 14 15 17 17 17 S chweitzer 1 Matrices rectangulaires et opérations. 1.1 Ensemble de matrices rectangulaires. Transposition. Dénition 1. • Soient n, p ∈ N∗ . On appelle matrice de type (n, p) à coecients dans K un tableau d'éléments de K ayant n lignes et p colonnes. • L'ensemble des matrices à n lignes et p colonnes, à coecients dans K est noté Mn,p (K). • Soit A ∈ Mn,p (K). Les coecients de A sont écrits à l'aide d'un double indice : ai,j désigne le coecient qui est sur la ligne i et sur la colonne j . Ainsi, on note A = (ai,j )1≤i≤n 1≤j≤p (ou tout simplement A = (ai,j ) lorsqu'il n'y a pas besoin de préciser). • La matrice A écrite ci-dessus se représente entre parenthèses. a1,1 a1,2 · · · a2,1 a2,2 · · · A= . .. .. . an,1 an,2 · · · Exemples. a1,p a2,p .. . an,p √ 0 2 2 3 ∈ M2,1 (C) ∈ M2,3 (R) et C = B= i 0 0 π Remarque. Ayant R ⊂ C, on a l'inclusion Mn,p (R) ⊂ Mn,p (C). Dénition 2. Soient A = (ai,j )1≤i≤n et B = (bi,j )1≤i≤n deux matrices de même type. On dit que A et B sont 1≤j≤p 1≤j≤p égales et on note A = B si ∀i ∈ J1, nK ∀j ∈ J1, pK ai,j = bi,j . Dénition 3. On appelle (n, 1). matrice ligne toute matrice de type (1, p) et matrice colonne toute matrice de type Dénition 4. Soit A = (ai,j )1≤i≤n ∈ Mn,p (K). On appelle transposée de la matrice A, et on note t A ou AT la 1≤j≤p matrice de Mp,n (K) dénie par t A = (bi,j ) 1≤i≤p 1≤j≤n où ∀i ∈ J1, pK ∀j ∈ J1, nK bi,j = aj,i 2 Exemple. √ 2 0 2 2 3 est t B = √3 0 La transposée de la matrice B = 0 0 π 2 π 1.2 Combinaisons linéaires de matrices. On dénit dans ce qui suit la somme et la multiplication par un scalaire de deux matrices de même type. Dénition 5. • Soient A = (ai,j ) et B = (bi,j ) deux matrices de Mn,p (K). On appelle et on note A + B la matrice A + B = (ci,j )1≤i≤n 1≤j≤p somme de A et B , où ∀i ∈ J1, nK ∀j ∈ J1, pK ci,j = ai,j + bi,j . • Soient une matrice A = (ai,j ) ∈ Mn,p (K) et un scalaire λ ∈ K. On appelle multiple de A par le scalaire λ, et on note λA la matrice λA = (λai,j ). • Soient A, B ∈ Mn,p (K). On appelle combinaison linéaire de A et B à coecients dans K toute matrice s'écrivant sous la forme λA + µB , où λ, µ ∈ K. Exemples. A+ √ A= 1 √0 −1 0 0 4 √ , B= , 2 2 0 − 2 1 3 A+B = 2B = Remarque. L'ensemble K contient (−1), ce qui permet de dénir la diérence de deux matrices de même type A et B : il s'agira de A + (−1)B , qu'on notera A − B . Dénition 6. On appelle matrice nulle de Mn,p (K) et on note 0n,p , ou plus simplement 0, la matrice n'ayant que des coecients nuls. Proposition 7 (Propriétés des combinaisons linéaires de matrices). 1. La matrice nulle est neutre pour l'addition des matrices : pour toute matrice A ∈ Mn,p (K), on a A + 0n,p = 0n,p + A = A. De plus, pour toute matrice A ∈ Mn,p (K), A − A = 0n,p . 2. Pour toutes matrices A, B et C dans Mn,p (K). • A + B = B + A (l'opération somme est commutative). • (A + B) + C = A + (B + C) (l'opération somme est associative). 3. Pour toutes matrices A et B Mn,p (K), pour tous scalaires λ, µ de K, • (λ + µ)A = λA + µA. • (λµ)A = λ(µA). • λ(A + B) = λA + µB (distributivité de la multiplication par un scalaire sur la somme.) 3 Proposition 8 (Transposée d'une combinaison linéaire). Pour toutes matrices A et B Mn,p (K), pour tous scalaires λ, µ de K, t (λA + µB) = λt A + µt B. 1.3 Produit matriciel. On pourrait dénir la notion de produit matriciel en multipliant "coecient par coecient" deux matrices de même type. C'est naturel, possible et peu intéressant. La dénition qui vient, au contraire, peut sembler peu naturelle mais on va voir qu'elle a un lien avec la résolution de systèmes linéaires. Ce choix sera pleinement compris au second semestre : cette multiplication matricielle viendra traduire la composition des applications linéaires. Dénition 9. Soient deux matrices A = (ai,j ) ∈ Mn,p (K) [n lignes, p colonnes] et B = (bi,j ) ∈ Mp,q (K) [p lignes, q colonnes]. On appelle produit de A et B , et on note AB la matrice de Mn,q dénie par AB = (ci,j )1≤i≤n 1≤j≤q Exemples. où ∀i ∈ J1, nK ∀j ∈ J1, qK ci,j = p X ai,k bk,j . k=1 0 1 3 −1 1 2 3 . , B = √1 0 , C = Soient A = 5 0 4 5 6 2 0 Parmi les écritures AA, AB , AC , BA, BB , BC , CA, CB , CC , dire lesquelles ont un sens et calculer alors le produit. Remarque. Pour toute matrice A ∈ Mn,p (K) et tout nombre entier non nul q, on a A.0p,q = 0n,q . L'exemple qui suit montre que qu'il existe des "diviseurs de 0" : la propriété ab = 0 =⇒ (a = 0 ou b = 0) à laquelle nous étions habitués dans R n'a plus cours ici. Exemple. 1 −1 1 1 Soient A = et B = . On vérie que AB = 02,2 . 1 −1 1 1 Proposition 10 (Propriétés du produit matriciel). Soient A, B , C trois matrices à coecients dans K et λ ∈ K. Lorsque les produits écrit ci-dessous ont un sens, ces égalités sont vraies : • A(B + C) = AB + AC (distributivité du produit à gauche) • (A + B)C = AC + BC (distributivité du produit à droite) • (λA)B = A(λB) = λ(AB) (la balade du scalaire) • (AB)C = A(BC) (associativité du produit) 4 Proposition 11 (Transposée d'un produit). Soient A ∈ Mn,p (K) et B ∈ Mp,q (K). On a alors t (AB) =t B t A. 1.4 Application à l'écriture de systèmes linéaires. Proposition 12. Considérons le système linéaire (S ) a1,1 x1 a2,1 x1 .. . + a1,2 x2 + a2,2 x2 + ··· + ··· an,1 x1 + an,2 x2 + · · · + a1,p xp + a2,p xp = b1 = b2 + an,p xp = bn x1 . Le p-uplet (x1 , . . . , xp ) ∈ Rp est solution de (S ) si et seulement si la matrice colonne X = .. xp satisfait l'égalité matricielle AX = B, b1 .. où A = (ai,j ) est la matrice associé au système, et B = . est la matrice colonne dont les bn coecients sont les seconds membres du système. En guise d'application, on redémontre la propriété suivante. Proposition 13. La diérence de deux solutions du système (S ) est une solution du système homogène associé. 1.5 Base canonique de Mn,p (K). Dénition 14. Dans Mn,p (K), pour i ∈ J1, nK, j ∈ J1, pK, on note Ei,j la matrice dont tous les coecients sont nuls sauf celui à la position (i, j). 5 Ei,j 0 · · · = .. . .. . ... ··· 0 ··· ... 1 .. . 0 .. . 0 ··· ... · · · ← i . 0 ↑ j Remarque. Au second semestre, la famille l'espace vectoriel (Ei,j , i ∈ J1, nK, j ∈ J1, pK) sera appelée Mn,p (K). La proposition suivante en explique la raison. base canonique de Proposition 15. Toute matrice de Mn,p (K) s'écrit comme une combinaison linéaire des matrices de la famille (Ei,j , i ∈ J1, nK, j ∈ J1, pK). Cette décomposition est unique. Plus précisément, si M = (mi,j ) ∈ Mn,p (K), M= p n X X mi,j Ei,j . i=1 j=1 Dénition 16. Pour tout couple d'entiers (i, j), on dénit le δi,j = symbole de Kronecker par 1 si i = j 0 si i 6= j Proposition 17. Soit (Ei,j , 1 ≤ i, j ≤ n) la base canonique de Mn,n (K). On a ∀i, j, k, l ∈ J1, nK Ei,j Ek,l = δj,k Ei,l . Preuve. Considérons quatre entiers i, j, k, l entre 1 et n. Remarquons d'abord que le symbole de Kronecker permet d'exprimer les coecients des matrices de la base canonique : pour r, s dans J1, nK, on a par dénition de la matrice Ei,j , 1 si r = i et s = j [Ei,j ]r,s = 0 sinon. Un tel nombre peut être obtenu en multipliant deux coecients de Kronecker : δr,i δs,j vaut lui aussi 1 si (r, s) = (i, j) et 0 sinon. On a donc ∀r, s ∈ J1, nK [Ei,j ]r,s = δr,i δs,j . 6 Calculons le coecient d'indice (r, s) du produit Ei,j Ek,l : [Ei,j Ek,l ]r,s = n X [Ei,j ]r,t [Ek,l ]t,s = t=1 n X δr,i δt,j δt,k δs,l = δr,i δs,l t=1 n X δt,j δt,k . t=1 Pour t entre 1 et n, le produit δt,j δt,k est nul, sauf si t = j = k, auquel cas il vaut 1. La somme n P t=1 δt,j δt,k est donc nulle si j 6= k. Si j = k, elle ne contient qu'un terme non nul qui vaut δj,j δk,k = 1. Ainsi, on a n X δt,j δt,k = δj,k , t=1 d'où [Ei,j Ek,l ]r,s = δj,k (δr,i δs,l ) = δj,k [Ei,l ]r,s . Ceci achève de prouver que les matrices Ei,j Ek,l et δj,k Ei,l ont même coecients. 2 Matrices carrées. 2.1 Dénitions. Dénition 18. Soit n ∈ N∗ . On appelle matrice carrée d'ordre n à coecients dans K une matrice de Mn,n (K). On note ce dernier ensemble Mn (K). Remarque. Si A et B sont deux matrices carrées de même ordre, les produits AB et BA ont toujours un sens. Dénition 19. Soit n ∈ N∗ . On appelle matrice diagonale, et des 0 ailleurs : identité d'ordre n, et on note In la matrice ayant des 1 sur la 1 ··· .. . . In = . . 0 ··· 0 .. . . 1 Proposition 20. La matrice identité est neutre pour la multiplication matricielle : ∀A ∈ Mn,p (K) AIp = A et ∀B ∈ Mn,p (K) In B = B. Ainsi, ∀M ∈ Mn (K) M In = In M = M. Dans le dernier exemple, le produit par In à gauche et à droite de M donnent le même résultat. On va voir dans l'exemple qui suit que ceci n'est pas vrai en général pour deux matrices quelconques : on dit que le produit matriciel n'est pas commutatif. 7 Exemple. Reprenons les matrices de l'exemple 1.3. Vérier que AB 6= BA. Dénition 21. Soient A et B deux matrices carrées d'ordre n. On dit qu'elles commutent si AB = BA. 2.2 Puissance d'une matrice carrée. Dénition 22. Soit M ∈ Mn (K). Pour tout entier naturel p, on dénit par récurrence la puissance p-ème de M , notée M p par M0 := In p+1 M = M.M p Proposition 23. Pour toute matrice M ∈ Mn (K), et pour tous entiers naturels p et q , M p M q = M q M p = M p+q . Proposition 24 (Binôme de Newton et factorisation). Soient A, B ∈ Mn (K) deux matrices qui commutent (i.e. AB = BA). Alors, pour tout p ∈ N, 1. (A + B)p = p X p Ak B p−k . k (Binôme de Newton) k=0 2. Ap − B p = (A − B) p−1 X Ak B p−1−k . k=0 Si A et B commutent, on retrouve donc les identités remarquables (A + B)2 = A2 + 2AB + B 2 et 8 A2 − B 2 = (A − B)(A + B). 2.3 Matrices triangulaires, matrices diagonales. Dénition 25. 1. On appelle matrice triangulaire supérieure d'ordre n toute matrice M = (mi,j ) ∈ Mn (K) telle que ∀ 1 ≤ i, j ≤ n i > j =⇒ mi,j = 0. On dénit de manière analogue les matrices triangulaires inférieures. 2. On appelle matrice diagonale d'ordre n toute matrice M = (mi,j ) ∈ Mn (K) telle que ∀ 1 ≤ i, j ≤ n i 6= j =⇒ mi,j = 0. Ainsi, une matrice diagonale est donnée par ses éléments diagonaux : on note parfois d1 0 0 d2 Diag(d1 , . . . , dn ) := .. . . . . 0 ··· ··· 0 ... . 0 dn ... 0 .. . 1 0 0 1 2 3 T = 0 0 5 est triangulaire supérieure. D = 0 2 0 est diagonale. 0 0 3 0 0 2 Exemple. Remarques. · Soit D = Diag(d1 , . . . , dn ) ∈ Mn (K) une matrice diagonale et M ∈ Mn (K). La matrice DM s'obtient en multipliant, pour tout i ∈ J1, nK, la i-ème ligne de M par di . La matrice M D s'obtient en multipliant, pour tout j ∈ J1, nK, la j -ème colonne de M par dj . · Lorsque, pour la matrice D ci-dessus, on a d1 = d2 = . . . = dn = λ ∈ K, alors D = λIn . On écrit parfois que D est une matrice scalaire. En eet, la multiplication d'une matrice M par λIn a même eet que la multiplication de M par le scalaire λ. Proposition 26. L'ensemble des matrices triangulaires supérieures est stable par combinaison linéaire et par produit matriciel. C'est aussi le cas pour l'ensemble des matrices diagonales. 2.4 Matrices symétriques, antisymétriques. Dénition 27. On dit d'une matrice carrée A qu'elle est symétrique si t A = A, antisymétrique si t A = −A. L'ensemble des matrices symétriques de Mn (K) est noté Sn (K). L'ensemble des matrices antisymétriques de Mn (K) est noté An (K). Exercice. 1. Montrer que Sn (K) est stable par combinaison linéaire. 2. Montrer que Sn (K) n'est pas stable par produit, c'est à dire qu'un produit de matrices symétriques n'est pas nécessairement symétrique. 9 2.5 Trace. Dénition 28. Soit A = (ai,j ) ∈ Mn (K). On appelle coecients diagonaux : trace de la matrice A et on note Tr(A) la somme de ses Tr(A) = n X ai,i . i=1 Proposition 29 (Trace et opérations). Pour toutes matrices A et B carrées d'ordre n, pour tous λ, µ ∈ K, • Tr(t A) = Tr(A). • Tr (λA + µB) = λTr(A) + µTr(B). • Tr(AB) = Tr(BA). 2.6 Notion d'inverse : premier contact. Le produit de deux matrices carrées, on l'a vu, n'est pas commutatif. Cela nous oblige, dans un premier temps, à dénir deux notions d'inverse : l'inverse à gauche, et l'inverse à droite. On verra plus tard que ces deux choses n'en sont qu'une en réalité. Dénition 30. Soit M ∈ Mn (K). • On dit que N ∈ Mn (K) est un inverse à gauche de M si N M = In . • On dit que N 0 ∈ Mn (K) est un inverse à droite de M si M N 0 = In . Exemple. 1 1 1 −1 . est un inverse à gauche et à droite de Vérier que 0 1 0 1 Proposition 31. Si une matrice M admet un inverse à gauche et un inverse à droite, alors ceux-ci sont égaux. 10 3 Opérations élémentaires et calcul matriciel. 3.1 Matrices élémentaires. Dénition 32. Dans Mn (K), pour tout couple (i, j) ∈ J1, nK2 , on appelle matrice Pi,j la matrice Pi,j = In + Ei,j + Ej,i − Ei,i − Ej,j : Pi,j 1 = de transposition, et on note ... 0 ··· 1 1 ··· 0 .. . ←i ←j . .. . ... 1 ↑ ↑ i j Proposition 33. Soit n ∈ N et (i, j) ∈ J1, nK2 . Soit Pi,j ∈ Mn (K) une matrice de transposition et M ∈ Mn,p (K). La matrice Pi,j M est la matrice obtenue en échangeant les lignes i et j de M : Li ↔ Lj . Dénition 34. Dans Mn (K), pour tout i ∈ J1, nK et tout λ ∈ K∗ , on appelle matrice Di (λ) la matrice Di (λ) = In + (λ − 1)Ei,i : 1 Di (λ) = de dilatation, et on note ... 1 λ 1 ... ←i . 1 ↑ i 11 Proposition 35. Soit n ∈ N, i ∈ J1, nK et λ ∈ K∗ . Soit Di (λ) ∈ Mn (K) une matrice de dilatation et M ∈ Mn,p (K). La matrice Di (λ)M est la matrice obtenue en multipliant la ligne i par λ dans M : Li ← λLi . Dénition 36. Dans Mn (K), pour tout couple (i, j) ∈ J1, nK2 avec i 6= j et tout λ ∈ K, on appelle transvection, et on note Ti,j (λ) la matrice Ti,j (λ) = In + λEi,j : 1 · · · Ti,j (λ) = .. . .. . ... ··· 1 ··· ... λ .. . 1 .. . matrice de ··· ... · · · ← i . 1 ↑ j Proposition 37. Soit n ∈ N, (i, j) ∈ J1, nK2 avec i 6= j et λ ∈ K. Soit Ti,j (λ) ∈ Mn (K) une matrice de transvection et M ∈ Mn,p (K). La matrice Ti,j (λ)M est la matrice obtenue en ajoutant à la ligne i de M sa ligne j , multipliée par λ : Li ← Li + λLj . Remarque. La multiplication d'une matrice M à gauche par une matrice élémentaire revient à eectuer sur cette matrice M une des trois opérations élémentaires. Lorsqu'on multiplie à droite par une matrice élémentaire, on agit sur les colonnes. Plus précisément, si M ∈ Mp,n (K) et si on note Ci ses colonnes, alors le produit M Pi,j se déduit de M par l'échange Ci ↔ Cj . Le produit M Di (λ) se déduit de M par l'opération Ci ← λCi et enn, le produit M Ti,j (λ) se déduit de M par l'opération Cj ← Cj + λCi (on prendra garde ici au changement de rôles de i et j ). 12 Proposition 38. Soient n ∈ N, (i, j) ∈ J1, nK2 avec i 6= j , λ ∈ K∗ et µ ∈ K. • La matrice Pj,i est inverse à droite et à gauche de Pi,j : Pi,j Pj,i = Pj,i Pi,j = In . • La matrice Di 1 λ est inverse à droite et à gauche de Di (λ) : Di (λ)Di 1 λ = Di 1 λ Di (λ) = In . • La matrice Ti,j (−µ) est inverse à droite et à gauche de Ti,j (µ) : Ti,j (µ)Ti,j (−µ) = Ti,j (−µ)Ti,j (µ) = In . 3.2 Traduction de l'algorithme du pivot. On rappelle qu'une matrice échelonnée est dite colonne, un pivot est le seul coecient non nul. Exemple. 1 0 La matrice 0 0 3 0 0 0 0 1 0 0 réduite si tous ses pivots sont égaux à 1 et si dans sa 0 5 0 −1 est échelonnée réduite. 1 3 0 0 Le paragraphe précédent nous apprend que faire une opération élémentaire sur les lignes revient à multiplier à gauche par un certain type de matrice élémentaire. L'algorithme du pivot assure que l'on peut, à l'aide d'opérations élémentaires sur les lignes, transformer une matrice en une matrice échelonnée réduite unique. Ceci est équivalent au résultat matriciel suivant. Proposition 39. Pour toute matrice A ∈ Mn,p (K), il existe une unique matrice échelonnée réduite R ∈ Mn,p (K), et une matrice E ∈ Mn (K) produit de matrices élémentaires telle que A = ER. On a expliqué l'existence de la matrice R mais admis son unicité. C'est pourtant cette dernière qui nous permet de poser la dénition suivante. Dénition 40. Soit une matrice A ∈ Mn,p (K). On appelle rang de la matrice A, et on note rg(A) le nombre de pivots dans la matrice échelonnée réduite équivalente en lignes à A. 13 Proposition 41. Le rang est invariant par opérations élémentaires sur les lignes si A, B ∈ Mn,p (K) et B ∼ A, alors L rg(A) = rg(B). Le rang de A est égal : 1. au nombre de lignes non nulles dans la matrice échelonnée réduite équivalente en lignes à A. 2. au nombre de lignes non nulles dans une matrice échelonnée équivalente en lignes à A. 3. au nombre d'inconnues principales dans un système échelonné équivalent par lignes au système AX = 0n,1 , d'inconnue X ∈ Mp,1 (K). 0 3 puis de la matrice échelonnée réduite équivalente en lignes. 2 0 Exemple. 4 1 1 2 2 −1 1 Calcul du rang de 3 1 4 −1 −1 −2 Matrices carrées inversibles. 4.1 Groupe linéaire. Proposition-Dénition 42 (Inversibilité d'une matrice, et inverse). • Soit A ∈ Mn (K). On dit que A est inversible s'il existe une matrice B ∈ Mn (K) telle que AB = BA = In . • Dans le cas où existe une telle matrice B , celle-ci est unique. On appelle alors cette matrice inverse de A, et on la note A−1 . • L'ensemble des matrices carrées d'ordre n inversibles est noté GLn (K) et appelé groupe linaire. On peut vérier facilement à l'aide de la dénition que si A est une matrice inversible, alors A−1 l'est −1 également, et que A−1 = A. Proposition 43 (Inversibilité et inverse d'un produit). Si deux matrices A et B de Mn (K) sont inversibles, alors leur produit AB est inversible et (AB)−1 = B −1 A−1 . Remarque. La proposition précédente montre que l'ensemble GLn (K) est stable par produit matriciel. Proposition 44. Soit A ∈ GLn (K). Alors, t A ∈ GLn (K) et (t A)−1 = t (A−1 ). 14 4.2 Inversibilité et systèmes linéaires. Théorème 45. Pour A ∈ Mn (K). Il y a équivalence entre les propositions suivantes : (i) A est inversible. (ii) A ∼ In . L (iii) Le système AX = 0 (X ∈ Mn,1 (K)) n'admet que la solution nulle. (iv) Pour tout B ∈ Mn,1 (K), le système AX = B admet une unique solution. (v) Pour tout B ∈ Mn,1 (K), le système AX = B admet au moins une solution. Preuve. On va démontrer des implications. En les reportant dans l' horloge ci-dessous, on vérie qu'il y a bien équivalence entre les cinq assertions. (i) (v) (ii) (iv) (iii) Commençons par repérer les implications les plus claires. • (iv) =⇒ (v). Admettre un unique implique Admettre au moins . • (iv) =⇒ (iii). Si on suppose que (iv) est vraie, elle l'est notamment pour B = 0n,1 , ce qui donne l'unicité armée par (iii). • (iii) =⇒ (iv) et (iii) =⇒ (ii) . Supposons que le système linéaire AX = 0, d'inconnue X ∈ Mn,1 (K), n'admet que la solution X = 0. Échelonnons le système à l'aide de l'algorithme du pivot : il existe E1 , E2 , . . . Ep p matrices élémentaires telles que E1 E2 . . . Ep A = T où T est une matrice échelonnée. Les matrices sont carrées ici et T est donc triangulaire supérieure. Le système a une unique solution : il n'a donc que des inconnues principales. Autrement dit, la matrice T a n pivots, ou encore rg(A) = n. Soit B ∈ Mn,1 (K). On échelonne le système AX = B en faisant les mêmes opérations élémentaires que sur le système homogène : le système échelonné obtenu est donc T = E1 · · · Ep B. Ce dernier a n pivots, et donc une unique solution : (iv) est montrée. La matrice T a n pivots sur sa diagonale. À l'aide d'opérations élémentaires sur les lignes, on peut se donner des pivots égaux à 1 puis "mettre des 0 au dessus des pivots" : il existe E10 , E20 . . . , Ep0 0 p0 matrices élémentaires telles que E10 E20 · · · Ep0 0 T = In . On a donc E10 · · · Ep0 0 E1 · · · Ep A = E10 · · · Ep0 0 T = In , d'où A ∼ In et (ii) est montrée. L 15 • (ii) =⇒ (i). Si (ii) est vraie, alors, d'après la traduction matricielle des opérations élémentaires sur les lignes, il existe p matrices élémentaires E1 , . . . , Ep telles que (1) E1 · · · Ep A = In . Posons P = E1 · · · Ep ; cette matrice apparait comme un inverse à gauche de A. On a vu, ce sera l'argument crucial, que les matrices élémentaires sont inversibles (existence d'un même inverse à gauche et à droite, cf. Proposition 38). On va donc multiplier à gauche dans (1), successivement par E1−1 , . . . , Ep−1 , pour obtenir (2) A = Ep−1 · · · E1−1 . Multiplions dans (2) à droite successivement par E1 , . . . , Ep . On obtient soit AP = In . AE1 · · · Ep = In La matrice P est donc à la fois inverse à gauche et à droite de A : la matrice A est inversible, d'inverse P . • (i) =⇒ (iii). Supposons que A soit inversible. Considérons le système linéaire AX = 0n,1 , avec X ∈ Mn,1 (K). Comme A est notamment inversible à gauche, si AX = 0, on a A−1 AX = A−1 0 = 0, d'où X = 0, et la solution nulle est l'unique solution du système homogène considéré. • (v) =⇒ (i). Supposons que pour toute matrice colonne B , il existe une matrice colonne X telle que AX = B . Notons Cj la j eme colonne de la matrice identité. D'après notre hypothèse, il existe une colonne Xj telle que AXj = Cj . Considérons la matrice P de colonnes X1 , . . . Xn . On vérie que AP = A X1 X2 · · · Xn = C1 C2 · · · Cn = In . La matrice A admet donc P comme inverse à droite. Mais alors, A est un inverse à gauche de P , et l'équation P X = 0 n'admet que la solution nulle. Comme (iii) =⇒ (i), P est inversible, et admet un inverse à droite. C'est nécessairement A ! (cf proposition 31). Donc P A = In et A est bien inversible à gauche. On conclut que A est inversible, ce qu'il fallait démontrer. Remarque. La preuve de la dernière implication est un peu acrobatique. En eet, le point de vue adopté dans ce cours est celui des systèmes linéaires, qui donne du sens aux lignes des matrices. Montrer que l'inversibilité à gauche implique celle à droite s'avère donc plus simple que montrer la réciproque. Au second semestre, on reviendra vers les matrices avec un point de vue géométrique, et on donnera du sens aux colonnes. On extrait du théorème précédent deux corollaires importants dans la pratique. Corollaire 46. Si une matrice est inversible à gauche, alors elle est inversible. Si une matrice est inversible à droite, alors elle est inversible. Lorsqu'on a une égalité du type AB = In , ou CA = In , on saura désormais que A est inversible et que B = C = A−1 . Corollaire 47 (Rang et inversibilité). ∀A ∈ Mn (K) A est inversible ⇐⇒ rg(A) = n. On sait calculer le rang d'une matrice en échelonnant. L'algorithme du pivot permet donc de déterminer si une matrice est inversible. On verra dans le prochain paragraphe qu'il permet aussi de calculer l'inverse. 16 4.3 Calcul eectif de l'inverse. 4.3.1 Méthode 1 : par la résolution d'un système. Soit A ∈ Mn (K). Si pour tout élément Y ∈ Mn,1 (K), on montre que l'équation matricielle AX = Y d'inconnue X (ou le système associé) n'a qu'une solution, alors le théorème 45 (iv) donne que la matrice A est inversible. Si de plus on montre que pour tout Y , cette solution s'écrit sous la forme X = ÃY , alors on a A−1 = Ã. Exemple. On a 1 1 −1 x a Soit A = 2 1 −1. Posons X = y et Y = b . 3 3 −2 z c AX = Y −1 où Ã = −1 −3 x + 2x + ⇐⇒ 3x + 1 0 −1 1. On en 0 1 y − z =a x = − a + b y = − a − b + c ⇐⇒ X = ÃY y − z = b ⇐⇒ z = − 3a + c 3y − 2z = c déduit que A est inversible, d'inverse A−1 = Ã. 4.3.2 Méthode 2 : par la méthode du pivot. Soit A ∈ Mn (K). • Appliquons l'algorithme du pivot à A pour l'échelonner. On sait lire alors le rang de A. S'il vaut n on sait d'ores et déjà que la matrice est inversible. • Si c'est le cas, à l'aide d'opérations supplémentaires sur les lignes, on peut obtenir que la matrice A est équivalente en ligne à l'identité In . Matriciellement parlant, tout a été fait en multipliant A à gauche par des matrices élémentaires E1 , . . . , Ep , où p ∈ N. On a donc Ep Ep−1 . . . E1 A = In , ce qui montre que A−1 = Ep Ep−1 . . . E1 . Pour calculer de manière commode A−1 , il sut d'appliquer l'algorithme du pivot à la matrice augmentée (A | In ). À la n de l'algorithme, on a transformé la matrice A en Ep Ep−1 . . . E1 A = In et la matrice In en Ep Ep−1 . . . E1 In = A−1 . A In y pivot 17 In A−1 .