19 Rang d’une matrice et systèmes linéaires 19.1 Rang d’une matrice Définition 1 : Soit A ∈ M np ( Κ ) . On appelle rang de A le rang de la famille de vecteurs de Kn constituée par les colonnes de A. Théorème 1 : 1) Toutes les applications linéaires représentées par la même matrice A ont le même rang. 2) Deux matrices ont le même rang si et seulement si elles représentent la même application linéaire relativement à des bases différentes. 3) Deux matrices A et B de M np (Κ ) ont le même rang si et seulement si il existe une matrice P de GL p (Κ ) et une matrice Q de GL n (Κ ) telles que B =Q -1AP. Remarque : Il découle de ce qui précède qu’on ne change pas le rang en multi^liant une matrice à gauche ou à droite par une matrice inversible. ( ) Proposition 1 : ∀A∈ M np (Κ ) , rg t A = rg( A ) . 19.2 Opérations conservant le rang 19.2.1 Opérations élémentaires Soit A ∈M np (Κ ) . Les opérations suivantes conservent le rang : en effet elles correspondent à des multiplications à gauche par des matrices inversibles. • Li ↔ L j : Echange de deux lignes : cela revient à multiplier la matrice A à gauche par la matrice Lij obtenue en échangeant les lignes i et j de la matrice I n ; Lij 2 = I n . • • Li ← kLi : Multiplication d’une ligne par un scalaire non nul : Cela revient à multiplier la matrice A à gauche par la matrice M i ( k ) obtenue en multipliant par k la ligne i de la 1 matrice I n ; M i ( k ) M i = I n . k Li ← Li + L j : Addition d’une ligne à une autre : cela revient à multiplier la matrice A à gauche par la matrice Aij obtenue en ajoutant la ligne j à la ligne i de la matrice I n ; M i (− 1) Aij M j ( − 1) Aij = I n . En combinant ces opérations, on peut donc remplacer une ligne par une combinaison linéaire de toutes les lignes, à condition que le coefficient de la ligne elle-même soit non nul. On ne peut faire simultanément plusieurs opérations que si l’on est sûr que l’on pourrait les faire successivement. Les opérations élémentaires peuvent être faites aussi bien sur les lignes que sur les colonnes, ce qui correspond à des multiplications à droite par des matrices inversibles. 19.2.2 Méthode du pivot de Gauss ( ) [[ Soit A = a ij [ i ∈ 1,n ] ] , j ∈ [ 1, p ] ] une matrice non nulle de M np (Κ ) . 1) Si tous les coefficients de la première colonne sont nuls, on effectue une permutation des colonnes pour obtenir une première colonne non nulle ; 2) On choisit dans la première colonne un élément ai1 non nul (appelé pivot), et on échange ( ) les lignes 1 et i. On obtient ainsi une matrice A ′ = a ij′ dont le coefficient a11′ est non nul. 3) On effectue l’opération Li ← Li − a i′1 L ; on obtient alors une nouvelle matrice sous la a11′ 1 a11′ 0 forme : ⋮ 0 a12′ ⋯ a1′p . B 4) Si la matrice B est nulle , c’est terminé, sinon on répète l’opération sur la matrice B (attention, si une permutations de colonnes est nécessaire, elle doit porter sur la matrice tout entière). 5) On répète les opérations précédentes autant de fois que nécessaire. Si, au bout de r itérations, la matrice constituée des n – r dernières lignes et p – r dernières colonnes est nulle, alors le rang de la matrice est r. (Si r = n il ne reste pas de ligne nulle, et si r = p il ne reste pas de colonne nulle). 19.2.3 Calcul de l’inverse d’une matrice carrée inversible Dans le cas où Ai est une matrice carrée inversible, la matrice triangulaire Tn obtenue par la méthode du pivot a ses coefficients diagonaux non nuls. En répétant la méthode du pivot en commençant par la dernière ligne, puis en divisant chaque ligne par son pivot, on obtient la matrice I n . On a donc multiplié la matrice A par une matrice inversible Q pour obtenir I n : QA = I n . La matrice Q est donc l’inverse de A. Pour calculer Q il suffit d’appliquer les mêmes opérations sur les lignes de I n . 19.3 Equations linéaires 19.3.1 Systèmes d’équations linéaires Rappel : Soit E et F deux K-espaces vectoriels. On appelle équation linéaire une équation de la forme f(x) = y (1) où f est une application linéaire de E dans F, et y un élément de F, appelé second membre. L’équation f(x) = 0 (2) est appelée équation sans second membre associée à (1) . Théorème 3 : L’ensemble des solutions de l’équation (1) est soit vide, soit l’ensemble décrit par la somme d’une solution particulière x0 et d’une solution quelconque de l’équation sans second membre, c’est à dire un élément de Kerf. Une équation linéaire de Kp dans Kn s’écrit sous forme matricielle AX = Y, avec A∈⋮np(K). Si rgA = n : f est surjective, le système possède des solutions pour tout Y . Si rgA < n, le second membre doit vérifier es conditions de compatibilité. Si rgA = p, f est injective, la solution (si elle existe !) est unique. Si rgA < p, il y a une infinité de solutions, on peut fixer arbitrairement la valeur de certaines inconnues et calculer les autres en fonction de celles-là. Si rgA = n = p, f est bijective. Il y a solution unique pour tout y, le système est un système de Cramer. 19.3.2 Résolution par la méthode du pivot Méthode du pivot partiel : on respecte l’ordre des colonnes. Méthode du pivot total : on choisit le pivot dans n’importe quelle colonne ; Remarque : En calcul numérique, on choisit le pivot qui a la plus grande valeur absolue, car il y a problème si l’ordre de grandeur du pivot est le même que celui de l’incertitude des calculs.