Agrégation interne de Mathématiques Département de Mathématiques Université de La Rochelle F. Geoffriau 2006-2007 Matrices Définition 1. – Matrices Soit m, n ∈ N∗ . On appelle matrice m × n à coefficients dans k tout tableau de m lignes et n colonnes d’éléments de k. L’ensemble des matrices m × n est noté Mm,n (k). Une matrice n × n est appelée matrice carrée et l’ensemble des matrices n × n est notée Mn (k). Une matrice m × n sur k se note A = (aij )1!i!m,1!j!n . Le premier indice est le numéro de la ligne et le deuxième indice le numéro de la colonne en numérotant les lignes de haut en bas et les colonnes de gauche à droite. On appelle vecteur-ligne de la matrice A tout vecteur de kn de la forme (aij )1!j!n avec i ∈ {1, . . . , m} et on appelle vecteur-colonne de A tout vecteur de km de la forme (aij )1!i!m avec j ∈ {1, . . . , n}. ! " 1 3 2 Exemple 2. – a. Le tableau A = est une matrice 2 × 3. 4 1 6 Si A = (aij )1!i!2,1!j!3 , alors a11 = 1, a21 = 4, a12 = 3, a22 = 1, a13 = 2, a23 = 6. Définition 3. – Matrices particulières et égalité de matrices a. On définit deux matrices particulières a.. La matrice de Mn,p (k) dont tous les coefficients sont nuls est appelée la matrice nulle et est notée 0n,p ou 0. a.. La matrice identité In de Mn (k) est définie par : In = (δij )1!i,j!n avec, pour tous indices i, j ∈ {1, . . . , n}, δii = 1 et δij = 0 si i #= j (δij est le symbole de Krönecker). b. On a l’égalité de deux matrices A = (aij )i,j et B = (bij )i,j de Mm,n (k) si ∀ i ∈ {1, . . . , m} Exemple 4. – Les matrices ! 1 3 ∀ j ∈ {1, . . . , n} aij = bij " ! 2 1 , 4 3 2 6 " et ! 2 3 1 4 " sont distinctes. Définition 5. – Opérations matricielles On définit des opérations sur les matrices : a. l’addition matricielle ∀ A = (aij )1!i!n,1!j!m ∈ Mm,n (k) ∀ B = (bij )1!i!n,1!j!m ∈ Mm,n (k) A + B = (aij + bij )1!i!n,1!j!m b. la multiplication externe ∀ λ ∈ k ∀ A = (aij )1!i!n,1!j!m ∈ Mm,n (k) λ · A = (λ aij )1!i!n,1!j!m – 2 – Matrices c. le produit matriciel ∀ A = (aij )1!i!m,1!j!p ∈ Mm,p (k) ∀ B = (bij )1!i!p,1!j!n ∈ Mp,n (k) p # A · B = (cij )1!i!m,1!j!n avec ∀ i ∈ {1, . . . , m} ∀ j ∈ {1, . . . , n} cij = aik bkj k=1 Remarque 6. – Soit A et B deux matrices. Pour que le produit matriciel AB existe, il faut et il suffit que le nombre de colonnes de A corresponde au nombre de lignes de B. ! " ! " ! " 1 5 3 2 3 4 3 8 7 Exemple 7. – a. + = 4 2 6 5 6 7 9 8 13 ! " ! " 1 2 2 4 b. 2 · = . 3 4 6 8 ! "! " ! " 1 2 1 2 3 9 12 15 c. = 3 4 4 5 6 19 26 33 ! " ! " 1 2 3 1 2 d. Le produit de par n’a pas de sens. 4 5 6 3 4 Proposition 8. – Le k-espace vectoriel des matrices L’ensemble des matrices Mm,n (k) muni de l’addition et de la multiplication externe est un k-espace vectoriel. En particulier l’élément neutre pour l’addition est la matrice nulle et l’opposé d’une matrice A = (aij )i,j est la matrice −A = (−aij )i,j . Preuve – a. La commutativité et l’associativité de l’addition résultent de la commutativité et l’associativité de l’addition dans k. b. Soit A = (aij )i,j une matrice. Posons B = (−aij )i,j . Alors A + 0m,n = (aij + 0)i,j = (aij )i,j = A, A + B = (aij − aij )i,j = 0m,n Donc la matrice nulle est l’élément neutre de l’addition et la matrice B est l’opposé de la matrice A. c. Soit A = (aij )i,j , B = (bij )i,j deux matrices et λ, µ ∈ k, alors $ % λ · (A + B) = λ (aij + bij ) i,j = (λ aij + λ bij )i,j = (λ aij )i,j + (λ bij )i,j = λ · A + λ · B $ % (λ + µ) · A = (λ + µ) aij i,j = (λ aij + µ aij )i,j = (λ aij )i,j + (µ aij )i,j = λ · A + µ · A (λ µ) · A = (λ µ aij )i,j = λ · (µ aij )i,j = λ · (µ · A) 1 · A = 1 · (aij )i,j = (1 aij )i,j = (aij )i,j = A Par conséquent, (Mm,n , +, ·) est un k-espace vectoriel. ! Proposition 9. – Propriétés élémentaires du produit matriciel Soit A, B, C ∈ Mn (k) et λ ∈ k. On a A In = In A = A (A + B) C = A C + B C A (B + C) = A B + A C (A B) C = A (B C) (λA) B = A (λB) = λ(A B) Preuve – Posons A = (aij )i,j , B = (bij )i,j et C = (cij )i,j . F. Geoffriau Matrices –3– a. On a AIn = (aij )i,j (δij )i,j = n &# aik δkj k=1 In A = (δij )i,j (aij )i,j = n &# δik akj k=1 ' ' i,j i,j = (aij )i,j = A = (aij )i,j = A b. On a A (B + C) = (aij )i,j (bij + cij )i,j = n &# ' aik (bkj + ckj ) = aik bkj k=1 = n &# aik bkj + aik ckj k=1 ' i,j (A + B) C = (aij + bij )i,j (cij )i,j = n &# k=1 n &# ' ij (aik + bik )ckj k=1 = n &# aik ckj + bik ckj k=1 ' i,j = n &# aik ckj k=1 ' ij i,j + n &# aik ckj k=1 ' ' i,j = AB + AC i,j + n &# bik ckj k=1 ' i,j = AC + BC c. On a (A B) C = n &# aik bkj k=1 A (B C) = (aij )i,j ' n &# ij (cij )i,j = bi! c!j !=1 ' ij = n # n &# !=1 k=1 n # n &# k=1 !=1 aik bk! c!j aik bk! c!j ' ' ij ij donc (AB)C = A(BC). d. On a clairement (λA)B = A(λB) = λ(AB). Remarque 10. – Non commutativité du produit matriciel Le produit matriciel n’est pas commutatif. Par exemple, ! " ! " ! " ! " ! " ! 1 0 0 1 0 1 0 1 1 0 0 · = et · = 0 0 0 0 0 0 0 0 0 0 0 ! 0 0 " et le produit de deux matrices non nulles peut être nul. Définition 11. – Matrice inversible On dit qu’une matrice A ∈ Mn (k) est une matrice inversible s’il existe une matrice B ∈ Mn (k) telle que A B = B A = In . L’ensemble des matrices inversibles, noté GLn (k), est appelé le groupe linéaire. Remarque 12. – Il existe des matrices non nulles de Mn (k) non inversibles. Proposition 13. – Inverse d’une matrice a. Soit A ∈ Mn (k) une matrice inversible. Il existe alors une unique matrice B ∈ Mn (k) telle que A B = B A = In elle est notée A−1 et est appelée matrice inverse de A. C’est une matrice inversible d’inverse A. F. Geoffriau – 4 – Matrices b. Soit A, B ∈ Mn (k) deux matrices inversibles. Le produit AB est alors inversible et (AB)−1 = B −1 A−1 Preuve – a. Supposons qu’il existe B, C ∈ Mn (k) telles que AB = BA = In et AC = CA = In . Alors B = BIn = B(AC) = (BA)C = In C = C Il est clair que A−1 est une matrice inversible et que (A−1 )−1 = A. b. On a (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 In B = B −1 B = In ! Donc AB est alors inversible d’inverse B −1 A−1 . Définition 14. – Application linéaire et matrice Soit E et F deux espaces vectoriels de dimension finie de bases respectives e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ) et soit u ∈ L(E, F ). Pour tout j ∈ {1, . . . , p}, il existe des coefficients uniques a1j , . . . , anj ∈ k tels que u(ej ) = n # aij fi i=1 La matrice (aij )1!i!n,1!j!p ∈ Mn,p (k) est appelée la matrice associée à l’application linéaire u relativement aux bases e et f et est notée mat(u; e, f ). Si E = F , on peut prendre e = f et on note mat(u; e) la matrice de u dans la base e. Exemple 15. – Soit e = (e1 , e2 , e3 ) et f = (f1 , f2 , f3 , f4 ) les bases canoniques de R3 et de R4 et l’application ( ( R3 → R4 u (( (x1 , x2 , x3 ) '→ (3x1 + 4x2 − x3 , x3 − 2x1 , x2 , x1 + x3 ) Alors Donc u(e1 ) u(e2 ) u(e3 ) = u(1, 0, 0) = u(0, 1, 0) = u(0, 0, 1) = = = (3, −2, 0, 1) (4, 0, 1, 0) (−1, 1, 0, 1) = 3f1 = 4f1 = −f1 3 −2 mat(u; e, f ) = 0 1 4 0 1 0 − 2f2 + f2 + f3 + f4 + f4 −1 1 0 1 Pour x ∈ E, il existe x1 , x2 , x3 , y1 , y2 , y3 , y4 ∈ k tels que x = x1 e1 + x2 e2 + x3 e3 et u(x) = y1 f1 + y2 f2 + y3 f3 + y4 f4 , et alors y = 3x1 + 4x2 − x3 = 3x1 + 4x2 − x3 1 y2 = x3 − 2x1 = −2x1 + x3 x2 = x2 y3 = y4 = x1 + x3 = x1 + x3 F. Geoffriau Matrices –5– Remarque 16. – Avec les notations de 14. a. Les vecteurs-colonne de la matrice mat(u; e, f ) sont les vecteurs coordonnées dans la base f des images par u de la base e. b. Attention à l’inversion, n est la dimension de F et p la dimension de E. c. La matrice de idE dans la base e est la matrice identité Ip et la matrice de l’application nulle de E dans F est la matrice nulle. Proposition 17. – Correspondance entre application linéaire et matrice Soit E et F deux espaces vectoriels de dimension finies de bases respectives e et f . L’application de L(E; F ) dans Mn,p (k) qui à u ∈ L(E, F ) associe mat(u; e, f ) est une bijection. Preuve – La matrice d’une application linéaire la caractérise entièrement puisque l’application linéaire est entièrement définie par la données des vecteurs images de la base. Et inversement, la donnée de p vecteurs g1 , . . . , gp de F déterminent une (unique) application linéaire u telle que u(e1 ) = g1 , . . . , u(ep ) = gp , donc on peut associer à toute matrice M ∈ Mn,p (k) une application linéaire u ∈ L(E, F ) telle que M = mat(u; e, f ). ! Remarque 18. – Soit E et F deux espaces vectoriels de dimension finie de bases respectives e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ), soit u ∈ L(E, F ). On pose A = mat(u; e, f ) = (aij )1!i!n,1!j!p . Soit x ∈ E, il existe x1 , . . . , xn , y1 , . . . , yp ∈ k tels que x = x1 e1 + · · · + xp ep et u(x) = y1 f1 + · · · + yn fn , alors on a a11 a11 x1 + · · · + a1p xp y1 .. .. . = .. . = . yn an1 an1 x1 + · · · + anp xp a1p x1 .. .. . . xp · · · anp ··· Proposition 19. – Somme et produit par un scalaire Soit E et F deux espaces vectoriels de dimension finie de bases respectives e et f . Soit u, v ∈ L(E, F ) et λ ∈ k, on a mat(u + v; e, f ) = mat(u; e, f ) + mat(v; e, f ) et mat(λu; e, f ) = λ mat(u; e, f ) Preuve – Notons e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ). On pose mat(u; e, f ) = (aij )ij et mat(v; e, f ) = (bij )ij . Pour j ∈ {1, . . . , p}, on a u(ej ) = n # aij fi et v(ej ) = k=1 n # bij fi k=1 donc (u + v)(ej ) = u(ej ) + v(ej ) = n # aij fi + k=1 (λu)(ej ) = λu(ej ) = λ n # bij fi = k=1 n # k=1 aij fi = n # (aij + bij )fi k=1 n # λaij fi k=1 Ainsi mat(u + v; e, f ) = (aij + bij )ij = (aij )ij + (bij )ij = mat(u; e, f ) + mat(v; e, f ) et mat(λu, ; e, f ) = (λaij )ij = λ(aij )ij = λ mat(u; e, f ). ! F. Geoffriau – 6 – Matrices Proposition 20. – Produit matriciel et composée Soit E, F et G trois espaces vectoriels de dimension finie de bases respectives e, f et g. Soit u ∈ L(E, F ) et v ∈ L(F, G). Alors mat(v ◦ u; e, g) = mat(v; f, g) · mat(u; e, f ) Preuve – Notons e = (e1 , . . . , eq ), f = (f1 , . . . , fp ) et g = (g1 , . . . , gn ). Posons A = mat(u; e, f ) = (aij )1!i!p,1!j!q ∈ Mp,q (k) B = mat(v; f ; g) = (bij )1!i!n,1!j!p ∈ Mn,p (k) La matrice A a autant de lignes que la matrice B a de colonnes, donc le produit BA existe, on pose BA = (cij )1!i!n,1!j!q . Alors, pour j ∈ {1, . . . , q}, on a v ◦ u(ej ) = v p &# k=1 p p p n n &# n ' # &# ' # ' # # akj fk = akj v(fk ) = akj bik gi = bik akj gi = cij gi k=1 k=1 i=1 i=1 k=1 i=1 ! Donc la matrice de v ◦ u dans les bases e et g est BA. Proposition 21. – Isomorphisme et matrice inversible Soit E et F deux espaces vectoriels de même dimension finie et e et f des bases de E et F respectivement. Une application linéaire u ∈ L(E, F ) est bijective si et seulement si la matrice mat(u; e, f ) est inversible et dans ce cas $ %−1 mat(u−1 ; f, e) = mat(u; e, f ) Preuve – a. Supposons u bijective. Alors u−1 ∈ L(F, E) et mat(u; e, f ) · mat(u−1 ; f, e) = mat(u ◦ u−1 ; f, f ) = mat(idF ; f ) = In mat(u−1 ; f, e) · mat(u; e, f ) = mat(u−1 ◦ u; e, e) = mat(idE ; e) = In Donc la matrice mat(u; e, f ) est inversible, d’inverse mat(u−1 ; f, e). b. Réciproquement, supposons M = mat(u; e, f ) inversible dans Mn (k). Il existe donc N ∈ Mn (k) tel que M N = N M = In et il existe une application linéaire v: F → E telle que N = mat(v; f, e). Et alors mat(u ◦ v; f ) = mat(u; e, f ) · mat(v; f, e) = M N = In = mat(idF ; f ) mat(v ◦ u; e) = mat(v; f, e) · mat(u; e, f ) = N M = In = mat(idE ; e) Donc u ◦ v = idF et v ◦ u = idE . Ainsi u est bijective. ! Proposition 22. – Base et matrice inversible Soit E un espace vectoriel, e = (e1 , . . . , en ) une base de E et soit v1 , . . . , vn des vecteurs de E. Pour j ∈ {1, . . . , n}, il existe a1j , . . . , anj ∈ k tels que vj = a1j e1 + · · · + anj en . Pour que la famille (v1 , . . . , vn ) soit une base de E, il faut et il suffit que la matrice A = (aij )1!i,j!n soit inversible. Preuve – $Soit u ∈ L(E) telle % que A = mat(u; e). On a vu que u est bijective si et seulement si la famille u(e1 ), . . . , u(en ) est une base de E. Pour i ∈ {1, . . . , n}, on a u(ei ) = vi . D’où la conclusion puisque u est bijective si et seulement si A est inversible. ! F. Geoffriau Matrices –7– Définition 23. – Matrice de passage Soit E un espace vectoriel et soit deux bases e = (e1 , . . . , en ) et e# = (e#1 , . . . , e#n ) de E. Pour tout indice j ∈ {1 . . . , n}, il existe p1j , . . . , pnj ∈ k tels que e#j = p1j e1 + · · · + pnj en ! la matrice P = (pij )1!i,j!n , notée Pee , s’appelle la matrice de passage de e (l’ancienne base) à e# (la nouvelle base). Proposition 24. – Propriétés des matrices de passage Soit E un espaces vectoriel de dimension finie et e, e# et e## trois bases de E. ! ! a. On a Pee = mat(idE ; e# , e), c’est une matrice inversible et (Pee )−1 = Pee! . ! !! !! b. Si e## est une troisième base de E, on a Pee Pee! = Pee . ! Preuve – a. Il existe une application linéaire u telle que Pee = mat(u; e# , e). Par ! construction, les vecteurs-colonne de la matrice Pee sont les coordonnées des vecteurs de la base e# dans la base e, donc l’application u associe à tout vecteur de e# lui-même (écrit dans la base e). Or l’application idE associe à tout vecteur de e# lui-même. Par unicité de l’application linéaire, on a u = idE . ! Comme e et e# sont des bases, d’après la proposition 22, Pee est inversible d’inverse ! # e (Pee )−1 = mat(idE ; e# , e)−1 = mat(id−1 E ; e, e ) = Pe! ! !! !! ! b. On a Pee Pee! = mat(idE ; e# , e) mat(idE ; e## , e# ) = mat(idE ◦ idE ; e## , e) = Pee . Remarque 25. – Avec les notations de 24, la matrice de passage de l’ancienne base e à la nouvelle base e# est la matrice de l’application identité, la nouvelle base e# étant la base de départ et l’ancienne base e étant la base d’arrivée. Proposition 26. – Application linéaire et matrice de passage Soit E et F deux espaces vectoriels de dimension finie, e et e# deux bases de E et f et f # deux bases de F . Soit u ∈ L(E, F ), en posant M = mat(u; e, f ) et M # = mat(u; e# , f # ), on a ! ! M # = (Pff )−1 M Pee Preuve – On a u = idF ◦u ◦ idE , alors M # = mat(u; e# , f # ) = mat(idF ; f, f # ) mat(u; e, f ) mat(idE ; e# , e) = Pff! M Pee ! et on conclue car Pff! = (Pff )−1 . ! ! Définition 27. – Matrices équivalentes, matrices semblables a. On dit que deux matrices M et N de Mn,p (k) sont des matrices équivalentes s’il existe deux matrices P ∈ GLn (k) et Q ∈ GLp (k) telles que N = P M Q. b. On dit que deux matrices M et N de Mn (k) sont des matrices semblables s’il existe une matrice P ∈ GLn (k) telle que N = P −1 M P . Définition 28. – Matrice transposée a. Soit M = (aij )1!i!n,1!j!p ∈ Mn,p (k). La matrice transposée de M , notée t M , est la matrice (bij )1!i!p,1!j!n de Mp,n (k) telle que ∀ i ∈ {1, . . . , p} F. Geoffriau ∀ j ∈ {1, . . . , n} bij = aji – 8 – Matrices b. Soit M ∈ Mn (k), alors t M ∈ Mn (k) et on dit que M est une matrice symétrique si t M = M et une matrice antisymétrique si t M = −M . " t ! 1 4 1 2 3 Exemple 29. – On a = 2 5 . 4 5 6 3 6 Proposition 30. – Propriétés de la transposée t a. Soit M ∈ Mn,p (k). Alors (t M ) = M . t b. Soit M, N ∈ Mn,p (k) et λ, µ ∈ k. Alors (λM + µN ) = λ t M + µ t N . t c. Soit M ∈ Mn,p (k) et N ∈ Mp,q (k). Alors (M N ) = t N t M . t d. Soit M ∈ Mn (k) inversible, alors t M est inversible et (t M )−1 = M −1 . Preuve – a. Soit M = (aij )1!i!n,1!j!p ∈ Mn,p (k). On pose t M = (a#ij )1!i!p,1!j!n et t t ( M ) = (a##ij )1!i!n,1!j!p et alors ∀ i ∈ {1, . . . , n} ∀ j ∈ {1, . . . , p} a##ij = a#ji = aij t Et donc (t M ) = M . b. Soit M = (aij )1!i!n,1!j!p et N = (bij )1!i!n,1!j!p deux matrices de Mn,p (k) et λ, µ ∈ k. On pose λM + µN = (cij )1!i!n,1!j!p , t M = (a#ij )1!i!p,1!j!n , t N = (b#ij )1!i!p,1!j!n et t (λM + µN ) = (c#ij )1!i!p,1!ij!n . Alors c#ij = cji = λaji + µbji = λa#ij + µb#ij ∀ i ∈ {1, . . . , p} ∀ j ∈ {1, . . . , n} t Et donc (λM + µN ) = λ t M + µ t N . c. Soit M = (aij )1!i!n,1!j!p et N = (bij )1!i!p,1!j!q . On pose P = M N = (cij )1!i!n,1!j!q le produit des matrices M et N et on note M # = (a#ij )1!i!p,1!j!n , N # = (b#ij )1!i!q,1!j!p , P # = (c#ij )1!i!q,1!j!n les transposées respectives de M , N et P . Alors ∀ i ∈ {1, . . . , q} c#ij = cji = ∀ j ∈ {1, . . . , n} p # ajk bki = k=1 p # k=1 a#kj b#ik = p # b#ik a#kj k=1 Et donc t P = P # = N # M # = t N t M . d. Si M ∈ Mn (k) est inversible, alors t t t M (M −1 ) = (M −1 M ) = t In = In et t t (M −1 ) t M = (M M −1 ) = t In = In t Donc t M est inversible et (t M )−1 = M −1 . ! Remarque 31. – L’application qui à M ∈ Mn,p (k) associe t M ∈ Mp,n (k) est un isomorphisme d’espaces vectoriels. Définition 32. – Trace d’une matrice On appelle trace de la matrice carrée M = (aij )1!i,j!n , le scalaire tr(M ) = n # i=1 Proposition 33. – linéaire aii = a11 + · · · + ann a. L’application qui, à M ∈ Mn (k) associe tr(M ) est une forme F. Geoffriau Matrices –9– b. Pour toutes matrices M, N ∈ Mn (k), on a tr(M N ) = tr(N M ). c. Deux matrices semblables ont même trace. Preuve – a. Soit M = (aij )1!i,j!n , N = (bij )1!i,j!n et λ, µ ∈ k. On a tr(λM + µN ) = n # (λaii + µbii ) = λ i=1 n # aii + µ i=1 n # bii = λ tr(M ) + µ tr(N ) i=1 Donc l’application trace est une forme linéaire. b. Soit M = (aij )1!i,j!n et N = (bij )1!i,j!n . On a tr(M N ) = n # n # i=1 k=1 aik bki = n # n # bki aik = tr(N M ) k=1 i=1 c. Soit M, N ∈ Mn (k) deux matrice semblables, il existe une matrice P ∈ GLn (k) telle que N = P −1 M P . Et tr(N ) = tr(P −1 M P ) = tr(M P P −1 ) = tr(M ). ! Définition 34. – Rang d’une matrice On appelle rang d’une matrice M ∈ Mn,p (k), noté rg(M ), le rang de la famille constituée de ses p vecteurs-colonne (dans kn ). Remarque 35. – a. Soit M ∈ Mn,p (k), alors rg(M ) " min(n, p). b. Soit E et F deux espaces vectoriels de bases respectives e = (e1 , . . . , en ) et f et soit u ∈ L(E, F ). Alors $ % $ % $ % rg(u) = dim im(u) = rg u(e1 ), . . . , u(en ) = rg mat(u; e, f ) Proposition 36. – Matrice inversible et assertions équivalentes Soit M ∈ Mn (k). Les assertions suivantes sont équivalentes : (i) M est inversible (il existe N ∈ Mn (k) telle que M N = N M = In ) ; (ii) M est de rang n ; (iii) M est inversible à droite (il existe N ∈ Mn (k) telle que M N = In ) ; (iv) M est inversible à gauche (il existe N ∈ Mn (k) telle que N M = In ). Preuve – Soit u ∈ L(kn ) l’application linéaire dont la matrice associée dans la base canonique e de kn est M . On a vu que M est inversible si et seulement si u est bijective. a. Le rang de u est égal au rang de M et u est bijective si et seulement si rg(u) = dim kn = n. Donc la matrice M est inversible si et seulement si son rang est n. b. Il est clair que si M est inversible, elle est inversible à droite et à gauche. c. Supposons M inversible à droite, soit N ∈ Mn (k) tel que M N = In et soit v ∈ L(kn ) l’application linéaire dont la matrice dans la base canonique de kn est N . Alors mat(u ◦ v, e) = mat(u, e) mat(v, e) = M N = In = mat(idRn , e) donc u ◦ v = idkn et kn = idkn (kn ) = u ◦ v(kn ) ⊂ u(kn ) ⊂ (kn ) Donc u(kn ) = kn , u est surjective. Puisque kn est de dimension finie, u est bijective et M est inversible. F. Geoffriau – 10 – Matrices d. Supposons M inversible à gauche, soit N ∈ Mn (k) tel que N M = In et soit v ∈ L(kn ) l’application linéaire dont la matrice dans la base canonique de kn est N . Alors mat(v ◦ u, e) = mat(v, e) mat(u, e) = N M = In = mat(idRn , e) donc v ◦ u = idkn et ∀ x ∈ kn u(x) = 0 =⇒ x = idkn (x) = v ◦ u(x) = 0 Donc ker(u) = {0}, u est injective. Puisque kn est de dimension finie, u est bijective et M est inversible. ! Théorème 37. – Matrices équivalentes et rang Deux matrices sont équivalentes si et seulement si elles ont même rang. Preuve – a. Soit A et B deux matrices équivalentes dans Mn,p (k), il existe P ∈ GLn (k), Q ∈ GLp (k) telle que B = P AQ. On peut considérer A comme la matrice d’une application linéaire de kp dans kn , munis de leurs bases canoniques respectives e et f . Puisque Q est inversible, il existe e# une base ! de kp telle que Q = Pee . De même, il existe une base f # de kn telle que P = Pff! . Alors ! ! B = P AQ = (Pff )−1 APee est la matrice de u dans les bases e# et f # et donc rg(A) = rg(u) = rg(B) b. Soit A une matrice de rang r. Soit E et F deux espaces vectoriels de dimensions respectives p et n et soit u ∈ L(E, F ) telle que mat(u; e, f ) = A. La dimension de ker(u) est p − r, soit (er+1 , . . . , ep ) une base de ker(u). D’après le théorème de la base incomplète, il existe e1 , . . . , er ∈ E tels que la famille e = (e1 , . . . , er , er+1 , . . . , ep ) soit une base de E. Pour i ∈ {1, . . . , r}, on pose fi = u(e $ i ). % Montrons que la famille u(e1 ), . . . , u(er ) est libre dans F . Soit λ1 , . . . , λr ∈ k tels que λ1 f1 + · · · + λr fr = 0. Alors $ % u λ1 e1 + · · · + λr er = λ1 u(e1 ) + · · · + λr u(er ) = 0 ainsi λ1 e1 + · · · + λr er ∈ ker(u) et il existe µr+1 , . . . , µp ∈ k tels que λ1 e1 + · · · + λr er = µr+1 er+1 + · · · + µp ep λ1 e1 + · · · + λr er − µr+1 er+1 − · · · − µp ep = 0 La famille (e1 , . . . , er , er+1 , . . . , ep ) étant libre, on a λ1 = · · · = λr = 0. Ainsi la famille (f1 , . . . , fr ) est libre, d’après le théorème de la base incomplète, il existe alors fr+1 , . . . , fn ∈ F tels que f = (f1 , . . . , fr , fr+1 , . . . , fn ) soit une base de F . Pour i ∈ {1, . . . , r}, u(ei ) = fi et pour i ∈ {r + 1, . . . , n}, u(ei ) = 0, donc ! " Ir 0r,p−r mat(u; e, f ) = 0n−r,r 0n−r,p−r Ainsi toute matrice de rang r est équivalente à cette matrice. c. Pour conclure, il suffit de remarquer que si deux matrices A et B sont équivalentes à une troisième C, elles sont équivalentes entre-elles. En effet, supposons qu’il existe des matrices −1 inversibles P1 , P2 , Q1 et Q2 telles que A = Q1 CP1 et B = Q2 CP2 , alors C = Q−1 et 1 AP1 −1 −1 −1 −1 B = Q2 Q1 AP1 P2 , les matrices Q2 Q1 et P1 P2 étant inversibles. ! F. Geoffriau Matrices – 11 – Proposition 38. – Rang d’une matrice et vecteurs-ligne Soit M ∈ Mn,p (k). Alors rg(t M ) = rg(M ) et le rang de M est égal au rang de la famille constituée de ses n vecteurs-ligne (dans kp ). Preuve – Soit r le rang de M , alors d’après 37, il existe deux matrices P ∈ GLn (k) et Q ∈ GLp (k) telles que ! " Ir 0r,p−r PMQ = 0n−r,r 0n−r,p−r Donc t t Q M P = t t ! Ir 0n−r,r 0r,p−r 0n−r,p−r " = ! Ir 0p−r,r 0r,n−r 0p−r,n−r " Puisque t P et t Q sont inversibles, t M est équivalente à une matrice de rang r et est ainsi de rang r. Par conséquent rg(t M ) = rg(M ). ! F. Geoffriau