Chapitre 3 Matrices 19 20 CHAPITRE 3. MATRICES 3.1 3.1.1 Opérations sur les matrices Généralités Définition. Soient p, n ≥ 1 des entiers, une matrice p × n est un tableau de a11 a12 · · · a1n .. .. .. . nombres avec p lignes et n colonnes : A = (aij ) = . . . ap1 ap2 · · · apn L’ensemble des matrices décrites ci-dessus (i.e. matrices à p lignes et n colonnes) sera noté Mp,n (K). L’ensemble des matrices carrées sera noté Mn (K). Exemples : matrices 2 × 3.. a21 =..., vecteurs colonnes, vecteurs lignes... Définition. On dit que 2 matrices A et B sont égales ssi aij = bij . Si A et B sont deux matrices de Mp,n (K), on définit la somme A + B = (aij + bij ) et le produit par un scalaire λA = (λaij ). Exemples :... Théorème. L’ensemble Mp,n (K) muni des deux lois que l’on vient de définir est un espace vectoriel. Une base de cet espace vectoriel est donnée par la famille (Eij )(i,j)∈[1,p]×[1,n] où la matrice Eij est la matrice qui ne comporte que des 0 et un unique 1 à l’intersection de la ieme ligne et de la j ieme colonne. On obtient alors dim Mp,n (K) = np. Définition. (Produit matriciel) Si A ∈ Mq,p (K), B ∈ Mp,n (K) on définit le produit C = A · B ∈ Mq,n (K) par cij = p ' aik bk,j . k=1 Présentation pratique : * aik → + ( bkj ↓ (cij ) ) Remarque : attention au taille des matrices. Le produit n’est défini que si le nombre de colonne de A est égal au nombre de la ligne de B ! ! ! Exemples :... Proposition. Les opérations sur les matrices vérifient les règles suivantes : 3.1. OPÉRATIONS SUR LES MATRICES 21 1. (distributivité) A(B + C) = AB + AC et (A + B)C = AC + BC 2. (associativité) (AB)C = A(BC) 3. (compatibilité) α(AB) = (αA)B = A(αB). Exemples : matrices nulle et identité. Définition. (i) (aij ) est une matrice triangulaire supérieure ssi , .. . ∗ i > j ⇒ aij = 0, i.e.A = ... . 0 (ii) (aij ) est une matrice triangulaire inférieure ssi , .. . 0 i < j ⇒ aij = 0, i.e.A = .. . . ∗ Proposition. L’ensemble des matrices triangulaires supérieures est une sousalgèbre de Mn (K) (en particulier, le produit de matrices triangulaires supérieures est triangulaire supérieure). Il en est de même pour les matrices triangulaires inférieures. Exercice : montrer la proposition précédente. Définition. Si A ∈ Mp,n (K), on définit A# ∈ Mn,p (K), matrice transposée de A par a#ij = aji . Elle sera notée par AT ou t A. Proposition. L’application transposée : A (→ AT est un isomorphisme de Mp,n (K) sur Mn,p (K), i.e. : (A + B)T = AT + B T et (λA)T = λAT . C’est de plus une pseudo-involution (son carré est l’identité : (AT )T = A). Proposition. (AB)T = B T AT . Exercice : montrer les deux propositions précédentes. Remarque : Si.X et Y sont des matrices unicolonnes à n lignes, le produit matriciel Y T X = ni=1 yi xi représente en fait le produit scalaire entre X et Y. Définition. Dans Mn (K), A est symétrique ssi AT = A et A est antisymétrique ssi AT = −A 22 CHAPITRE 3. MATRICES Proposition. On a Mn (K) = Sn ⊕ An , où Sn désigne l’ensemble des matrices symétriques et An désigne l’ensemble des matrices anti-symétriques. Exercices : α 0 α 1 0 0 1 α 0 α 0 0 (i) Si A = 0 0 β 1 et B = 0 0 0 0 0 0 1 β 3 B . * + 1 2 (ii) Si M = et N = M T alors 0 1 (α, β) ∈ Z2 implique α = β = 0. 3.1.2 0 0 β 1 0 0 , calculer A2 , ABA et 0 β prouver que M α N β = I2 où Système d’équations et inversion de matrice Définition. Soit M ∈ Mn (K). On dit que M est inversible ssi il existe N ∈ Mn (K) tel que M N = N M = In . On note alors N = M −1 . Théorème. L’ensemble des matrices carrées d’ordre n sur K inversible est un groupe pour la multiplication des matrices. Cet ensemble est noté GL n (K). Les matrices permettent de compacter des formules et donc de manipuler de façon plus efficace. Considérons un système d’équation du type a11 x1 + . . . + a1n xn = b1 ... a x + ... + a x = b p1 1 pn n p On peut réécrire un tel système sous forme de matrice en posant : x1 b1 .. .. A := (aij , X := . et b := . xn bp et le système est alors équivalent à : AX = b. Un intérêt clair du calcul de l’inverse d’une matrice (quand il existe) est la résolution de ce système linéaire. En effet, si A est inversible, la solution de AX = b est donc X = A−1 b. 3.2. MATRICES ET APPLICATIONS LINÉAIRES 23 Remarque : Calcul pratique de M −1 . Soit M ∈ Mn (K), on prend x et y des vecteurs dans Kn tels que M x = y. On résout alors n équations à n inconnues (x1 , x2 , . . . , xn ) pour trouver x en fonction de y (par pivot de Gauss). On trouve alors une matrice N telle que N y = x et nous avons alors M −1 = N . 0 1 1 Exercice : si M = 1 0 1, calculer M −1 . 1 1 0 3.2 3.2.1 Matrices et applications linéaires Représentation matricielle La représentation matricielle n’est pas canonique, elle dépend des bases choisies. . – Systèmes de vecteurs : si xj = pi=1 aij ei , alors A = (aij ) est la matrice des vecteurs (xj ) dans la base des (ei ) (on écrit les composantes des vecteurs xj dans chaque colonne).. – Application linéaire : si f (ej ) = pi=1 aij e#i où (ej ) est une base de E, (e#i ) est une base de F, alors A est la matrice de f dans les bases (ej ) et (e#i ) que l’on peut écrire M (f, (ej ), (e#i )). – Traduction de y = f (x), où y ∈ F , x ∈ E, f ∈ LK (E, F ), les bases de E et F étant choisies, on peut écrire Y = AX avec A = M (f, (ej ), (e#i )), Y = M (y, (e#i )) et X = M (x, (ej )). Proposition. L’application f ∈ L(E, F ) (→ M (f, (ej ), (e#i )) ∈ Mp,n (K) est un isomorphisme. Théorème. M (f ) est inversible ssi f ∈ GL (E) et M (f −1 ) = M (f )−1 . En général, M (f ◦ g) = M (f ) · M (g). Application : une matrice est inversible ssi la famille des vecteurs colonnes (ou vecteurs lignes) est libre. 3.2.2 Changement de base . Définition. Si εj = ni=1 pij ei alors P = (pij ) est la matrice de passage de la base (ei )i∈[1,n] à la base (εj )j∈[1,n] . Les colonnes de P sont les composantes de la nouvelle base dans l’ancienne. Théorème. Soit X la matrices des coordonnées de x dans la base (ei ), X # la matrice des coordonnées de x dans la base (εj ) alors on a la relation 24 CHAPITRE 3. MATRICES X = P X # , c.a.d. on obtient les anciennes coordonnées en fonction des nouvelles. Dans L(E, F ) : soit P la matrice de changement de base de (ei ) à (εi ) dans E, Q la matrice de changement de base de (e#j ) à (ε#j ) dans F . Théorème. Si A = M (f, ei , e#j ) et B = M (f, εi , ε#j ) alors B = Q−1 AP . Définition. Si (A, B) ∈ M2p,n (K), on dit que A et B sont équivalentes ssi ∃(R, S) ∈ GL p (K) × GL n (K) tel que B = RAS. Définition. Si (A, B) ∈ M2n (K), on dit que A et B sont semblables ssi il existe P ∈ GL n (K) tel que B = P −1 AP (A et B sont les matrices d’un même endomorphisme mais dans des bases différentes). Exercices : – Chercher la matrice de f : P (X) ∈ Rn [X] (→ P (X + a) dans la base canonique de Rn [X]. – Montrer l’équivalence A · B = In ⇔ A = B −1 . Cn0 C 1 C 0 0 n−1 n k n−k – Dans Rn [x], on pose ek = X (1−X) , inverser P = .. . . . . . n−1 n 0 Cn Cn−1 C0 3.3 Rang d’une matrice Définition. Si A ∈ Mp,n (K) on définit le rang de A comme étant le rang des vecteurs colonnes de A dans Kp . Proposition. Si A = M (f ) où f ∈ L(E, F ) alors Rg (A) = Rg (f ). Théorème. Rg (A) = r ⇔ A équivalente à * + Ir 0 . 0 0 Corollaire. A et B sont équivalentes dans Mp,n (K) ssi Rg (A) = Rg (B). Proposition. On a Rg (AT ) = Rg A. 3.4. MATRICES ET SOUS-ESPACES STABLES 3.4 25 Matrices et sous-espaces stables Objectif : si E = V ⊕ W , on veut réduire l’étude de f ∈ L(E) à l’étude de f sur V et sur W qui sont plus simples. Définition. Soit V ⊂ E un sous-espace vectoriel de E. Soit f ∈ L(E), on dit que V est stable par f ssi f (V ) ⊂ V , c.a.d. ∀x ∈ V, f (x) ∈ V . Exemple fondamental : Ker (f ) et Im (f ) sont stables par f . Exercice : démontrer l’exemple précédent. Proposition. Si V est stable par f , alors f |V définit un endomorphisme de L(V ). Théorème. Si u ∈ L(E), v ∈ L(E) et que u ◦ v = v ◦ u, alors Ker u et Im u sont stables par v. Exercice : démontrer le théorème précédent. Traduction matricielle Proposition. Soit f ∈ L(E) et soit V ⊂ E un sous-espace vectoriel (de dimension r) stable par f . Soit W un supplémentaire de V dans E (c.a.d. V ⊕ W = E). Soit b une base adaptée à V ⊕W = E (i.e. b = (b1 , . . . , br , br+1 , . . . , bn ) où bV = (b1 , . . . , br ) est une base de V , et (br+1 , . . . , bn ) une base de W ), alors M (f, b, b) est de la forme * + A B 0 C où A = M (f |V , bV , bV ). Remarque : si W est stable par f alors B = 0. Proposition. Soit f ∈ L(E), si V1 , . . . , Vp sont des sous-espaces vectoriels tels que V1 ⊕ · · · ⊕ Vp = E et ∀i Vi est stable par f , alors M (f |V1 ) 0 M (f |V2 ) M (f, b, b) = . . . 0 M (f |Vp ) avec b une base adaptée à la somme V1 ⊕ · · · ⊕ Vp = E. 26 CHAPITRE 3. MATRICES Calcul matriciel par blocs * A B C D · + + A# B # C # D# * + AA# + BC # AB # + BD# = CA# + DC # CB # + DD# * Attention : le sens est important ici, en effet en général AB # 0= B # A. Attention : il faut que les dimensions des blocs soient compatibles ! ! ! Sommes directes et constructions d’applications linéaires Théorème. Soit V ⊕ W = E. Soit f ∈ L(V ) et g ∈ L(W ). Il existe une unique application linéaire ϕ ∈ L(E) telle que ϕ|V = f et ϕ|W = g. Si x ∈ E, ∃!xV ∈ V et xW ∈ W tels que x = xV + xW et alors ϕ(x) = f (xV ) + g(xW ). 3.5 Le cas particulier des projections et des symétries Si p est une projection (p ◦ p = p), alors E = Im (p) ⊕ Ker (p) (voir DM1). Ker p et Im p sont stables par p. De plus p|Ker p = 0 et p|Im p = Id. Nous avons donc dans une base adaptée * + Id 0 M (p) = . 0 0 Nous remarquons que Tr (p) = dim(Im p). Si s est une symétrie (s◦s = Id), alors E = Ker (s−Id)⊕Ker (s+Id) (voir DM1). Ker (s − Id) et Ker (s + Id) sont stables par s. De plus s|Ker (s−Id) = Id et s|Ker (s+Id) = −Id. Nous avons donc dans une base adaptée M (p) = * + Id 0 . 0 −Id Nous remarquons que Tr (s) = dim(Ker (s − Id)) − dim(Ker (s + Id)). 3.6. ENDOMORPHISME TRIGONALISABLE/DIAGONALISABLE 3.6 27 Endomorphisme trigonalisable/diagonalisable Définition. Une matrice A est dite trigonalisable ssi elle est semblable à une matrice triangulaire supérieure, i.e ssi il existe P ∈ GL n (K) tel que A = P T P −1 avec T triangulaire supérieure. Autrement dit, un endomorphisme est trigonalisable s’il existe une base dans laquelle sa matrice est triangulaire supérieure, c.a.d. tel que f (ei ) ∈ Vect(e1 , . . . , ei ), ∀i = 1..n. Définition. Une matrice A est dite diagonalisable ssi elle est semblable à une matrice diagonale, i.e ssi il existe P ∈ GL n (K) tel que A = P DP −1 avec D diagonale (dij = 0 si i 0= j). Autrement dit, un endomorphisme est diagonalisable s’il existe une base dans laquelle sa matrice est diagonale, c.a.d. tel que f (ei ) = λi ei , ∀i = 1..n.