Chapitre 1 Rang d’une matrice, retour aux systèmes linéaires. 1.1 Rang d’une matrice. Rang d’un système linéaire. Définition 1.1.1 Soient n, p ∈ N? et soit A ∈ Mn,p (K). On appelle rang de A le rang des p colonnes de A, considérées comme des vecteurs de Kn . (C’est à dire la dimension du sous-espace vectoriel de Kn engendré par les p colonnes de A.) Proposition 1.1.2 Soit (u1 , ..., up ) une base de E, (v1 , ..., vn ) une base de F et soit f : E → F une application linéaire. Soit A la matrice de f dans les bases (u1 , ..., up ) et (v1 , ..., vn ). Alors le rang de f est égal au rang de A. Preuve : On a rg (f ) = dim Im f = dim Vect {f (u1 ), ..., f (up )}. Et rg (A) = dim Vect {C1 , ..., Cp } où C1 ,...,Cp sont les colonnes de A. Mais on sait que la jème colonne Cj est la colonne des coordonnées du vecteur f (uj ) dans la base (v1 , ..., vn ). Par conséquent la famille des vecteurs f (u1 ), ...,f (up ) et la famille des vecteurs C1 ,...,Cp ont le même rang. Donc rg (f ) = rg (A). Corollaire 1.1.3 Si A et A0 sont deux matrices équivalentes, alors elles ont le même rang. Preuve : Par hypothèse il existe deux matrices inversibles P ∈ Mp (K) et Q ∈ Mn (K) telles que A0 = Q−1 AP . Soit Φ l’application linéaire de Kp dans Kn associée canoniquement à la matrice A. Soient u1 ,...,up les vecteurs de Kp constitués par les colonnes de P . Alors, comme P est inversible, (u1 , ..., up ) est une base de Kp et P est la matrice de passage de la base canonique de Kp à la base (u1 , ..., up ) . De même on considère les colonnes de Q. Ce sont n vecteurs de Kn , appelés v1 ,...,vn , qui forment une base de Kn et Q est la matrice de passage de la base canonique de Kn à la base (v1 , ..., vn ). Par la formule de changement de base, la matrice A0 est la matrice de l’application linéaire Φ dans les bases (u1 , ..., up ) et (v1 , ..., vn ). Donc rg (A) = rg (Φ) = rg (A0 ). Remarque : Soit A une matrice. On connaı̂t deux manières différentes de calculer le rang de A. La première méthode consiste à trouver le rang des colonnes de A par la méthode expliquée au Chapitre 3 : on applique la méthode du pivot de Gauss aux colonnes de A. La deuxième méthode consiste à trouver la dimension du noyau de Φ, où Φ est l’application linéaire associée canoniquement à A. On utilise ensuite la formule : dim Im Φ + dim Ker Φ = p, qui donne rg A = p − dim Ker Φ. (En effet, on sait par la proposition ci-dessus que rg A = dim Im Φ.) Définition 1.1.4 Soit A ∈ Mn,p (K). On considère le système linéaire AX = 0. On dit que les lignes du système sont linéairement indépendantes si les n matrices-lignes de A : (a1,1 , ..., a1,p ),...., (an,1 , ..., an,p ) (considérées comme des vecteurs de Kp ) sont linéairement indépendantes. 1 2 CHAPITRE 1. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES. Exemple : On donne le système linéaire homogène ½ 2x −y +3z = 0 x −3y +z = 0 Les lignes du système sont linéairement indépendantes. Définition 1.1.5 Soit A ∈ Mn,p (K). On appelle rang du système homogène AX = 0 le rang des matrices-lignes de A (considérées comme des vecteurs de Kp ). C’est la dimension du sous-espace vectoriel de Kp engendré par les n lignes de A. C’est aussi le nombre maximal de lignes indépendantes parmi les lignes de A. On dit aussi que c’est le nombre maximal d’équations indépendantes pour le système AX = 0. On va donner une formule qui lie le rang du système homogène AX = 0 et la dimension de l’espace vectoriel des solutions. Le problème : on donne un système linéaire homogène à n lignes et p colonnes, de rang r. Soit F le sous-espace vectoriel de Kp formé par les solutions de ce système. Trouver la dimension de F et une base de F . Exemple : Soit F le sous-espace vectoriel de R4 formé par les solutions (x, y, z, t) du système linéaire homogène ½ 2x− y+ 3z+ t = 0 (Σ) y− z+ t = 0 C’est un système échelonné. Il y a deux inconnues principales : x et y et deux inconnues non principales qu’on prend comme paramètres : z et t. On résoud (Σ) par la méthode de la remontée. x ½ y x = −z − t On trouve la solution . Donc le vecteur z est solution du système (Σ) si y =z−t t x −1 −1 y 1 −1 et seulement si z = z 1 + t 0 . t 0 1 −1 −1 1 et u2 = −1 engendrent F . Montrons qu’ils Cela montre que les vecteurs u1 = 1 0 0 1 forment une base de F . Il suffit démontrer qu’ils sont linéairement indépendants. On remarque −1 −1 0 1 −1 0 que si z 1 + t 0 = 0 , alors z = t = 0 car z et t sont des composantes du vec0 1 0 0 0 teur 0 . Donc u1 et u2 forment une base de F et la dimension de F est 2. Par ailleurs le rang 0 du système est deux, car du fait qu’il est échelonné, les lignes sont linéairement indépendantes. Dans ce cas, on trouve dim F = p − r. Généralisons ce résultat. Proposition 1.1.6 Soit le système linéaire homogène AX = 0, de dimension n × p et de rang r. La dimension de l’espace vectoriel F des solutions de ce système est p − r. La démonstration de cette proposition découle de deux lemmes. 1.1. RANG D’UNE MATRICE. RANG D’UN SYSTÈME LINÉAIRE. 3 Lemme 1.1.7 Le rang des lignes du système homogène AX = 0 est égal au nombre de lignes non nulles du système échelonné équivalent EX = 0 obtenu par la méthode du pivot de Gauss. Preuve C’est le raisonnement du chapitre 3, mais appliqué aux lignes de la matrice A, notées L1 ,...,Ln , considérées comme des vecteurs de Kp . On rappelle le principe : si λ2 ,...,λn sont des scalaires, alors le sous-espace vectoriel de Kp engendré par les vecteurs L1 ,...,Ln est le même que les sous-espace vectoriel engendré par les vecteurs L1 , L2 − λ2 L1 ,...,Ln − λn L1 . Donc les lignes obtenues après la première itération du pivot de Gauss ont le même rang que les lignes L1 ,...,Ln . On réitère le procédé. Une fois terminée la méthode du pivot de Gauss le rang des n lignes obtenues est égal au rang des lignes L1 ,...,Ln . Or, à cause du caractère échelonné, le rang des n lignes obtenues est le nombre, appelé r, de lignes non nulles (car on montre facilement que les r lignes non nulles, échelonnées, sont linéairement indépendantes) . Lemme 1.1.8 Soit un système linéaire échelonné homogène de dimension r × p, dont les r équations sont non nulles. Alors la dimension de l’espace vectoriel F des solutions de ce système est égal au nombre d’inconnues non principales, c’est p − r. Preuve : Rappelons que dans un tel système, il y a r inconnues principales et p − r inconnues non principales qu’on prend comme paramètres. Quitte à réindexer les inconnues, appelons x1 ,...,xr les inconnues principales et xr+1 ,..., xp les p − r paramètres. Pour chaque valeur du (p − r)−uplet (xr+1 , ..., xp ) on trouve une unique solution du système par la méthode de la remontée. Appelons ur+1 la solution (x1 , ..., xp ) trouvée pour (xr+1 , ..., xp ) = (1, 0, ...0), ur+2 la solution trouvée pour (xr+1 , ..., xp ) = (0, 1, 0...0),..., up la solution trouvée pour (xr+1 , ..., xp ) = (0, ..., 0, 1). Soit le vecteur u défini par u = xr+1 ur+1 + ... + xp up . Alors u est une solution du système comme combinaison linéaire de solutions. Les p − r dernières composantes du vecteur u sont xr+1 ,...,xp . Réciproquement, si u = (x1 , ..., xp ) est une solution du système, alors le vecteur xr+1 ur+1 + ... + xp up est une solution du système pour les mêmes valeurs xr+1 ,...,xp des paramètres, donc il est égal à u. L’ensemble des solutions est donc F = {(x1 , ..., xp ) = xr+1 ur+1 + ... + xp up ; xr+1 ∈ K, ..., xp ∈ K}. Les vecteurs ur+1 ,...,up engendrent donc F . De plus la décomposition de toute solution u comme combinaison linéaire des vecteurs ur+1 ,...,up est unique, puisque les coefficients qui apparaissent dans la décomposition sont nécessairement les p − r dernières composantes de u. Les p − r vecteurs ur+1 ,...,up forment donc une base de F . Preuve de la proposition 1.1.6 Le rang r des lignes de A se calcule par la méthode du pivot de Gauss appliquée aux lignes de A. Il est égal au nombre d’équations non nulles dans le système échelonné qu’on trouve après l’utilisation de l’algorithme du pivot de Gauss pour résoudre le système AX = 0. Soit F l’espace vectoriel des solutions du système homogène AX = 0. C’est aussi l’ensemble des solutions du système échelonné à r lignes non nulles EX = 0, obtenu par la méthode du pivot de Gauss. Donc dim F = p − r. Proposition 1.1.9 Pour toute matrice, le rang des lignes est égal au rang des colonnes. Preuve : Soit A ∈ Mn,p (K). Appelons r le rang des lignes de A, r0 le rang de A (c’est à dire le rang des colonnes de A) et F l’espace vectoriel des solutions du système homogène AX = 0. On a vu que dim F = p − r. Soit Φ l’application linéaire de Kp dans Kn associée canoniquement à A. Alors F = Ker Φ. Par ailleurs, r0 = dim Im Φ. Par le théorème de la dimension on a dim Kp = dim Ker Φ + dim Im Φ, donc p = dim F + r0 , d’où dim F = p − r0 . Par conséquent p − r0 = p − r, donc r = r0 . µ ¶ ½ 2 −4 1 2x −4y +z = 0 Exemple : A = . Le système AX = 0 est Le rang des 0 −1 1 −y +z = 0. lignes de A est 2. On vérifie que le rang des colonnes aussi : C3 = −C2 − 23 C1 . L’espace vectoriel 4 CHAPITRE 1. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES. 3 des solutions sera de dimension 3 − 2 = 1. En effet, c’est la droite vectorielle de base 2 . 2 Pour la première équation prise séparémment, l’espace vectoriel des solutions est de dimension 3 − 1 = 2 (car le rang est 1), c’est un plan vectoriel. De même pour la seconde équation. La droite vectorielle F est donc l’intersection de deux plans vectoriels (qu’on représente, dans l’espace R3 , comme deux plans qui passent par le point (0, 0)). Donnons des bases de ces deux plans vectoriels. x 1 0 (2x − 4y + z = 0) ⇔ (z = −2x + 4y) ⇔ y = x 0 + y 1 z −2 4 x 1 0 et (−y + z = 0) ⇔ (y = z) ⇔ y = x 0 + z 1 . On a donc trouvé une z 0 1 base pour chacun des deux plans vectoriels admettant pour équation cartésienne chacune des équations du système. Rappel : par définition, un hyperplan d’un K-espace vectoriel E de dimension p est un sous-espace vectoriel de dimension p − 1. Remarque : (i) L’espace vectoriel des solutions d’une seule équation linéaire non nulle, à p inconnues et à coefficients dans K, est un hyperplan de Kp . En effet, si (a1 , ..., ap ) ∈ Kp \{(0, ...., 0)}, alors le rang du système linéaire a1 x1 + .... + ap xp = 0 est 1. (ii) Soit A ∈ Mn,p (K). Le K-espace vectoriel des solutions du système linéaire homogène AX = 0 est l’intersection de n hyperplans de Kp . Proposition 1.1.10 Soit E un K-espace vectoriel de dimension p. (i) Le noyau de toute forme linéaire non nulle de E est un hyperplan de E. (ii) Tout hyperplan de E est le noyau d’une forme linéaire non nulle. Preuve (i) Soit f une forme linéaire non nulle de E. C’est une application linéaire non identiquement nulle de E dans K. Son image est un sous-espace vectoriel de K non réduit à zéro, donc Im f = K (car dim K = 1). On a dim Ker f + dim Im f = dim E, donc dim Ker f = p − 1. (ii) Soit H un hyperplan de E. Soit X un sous-espace supplémentaire de H (E = H ⊕ X). Soit (e) une base de X. On définit une application f de E dans K par f : u 7→ λ, où λ est l’unique scalaire tel que u = v + λe, avec v ∈ H. On vérifie facilement que f est une application linéaire de E dans K et que ker f = H (exercice). Proposition 1.1.11 Soit E un K-espace vectoriel de dimension p. Soit B = (e1 , ..., ep ) une base de E. Soit H un hyperplan de E. Alors H admet une équation cartésienne dans la base B. Autrement dit, il existe des scalaires a1 ,...,ap , tels que si u est un vecteur de E de coordonnées x1 .. . dans la base B, alors xp (u ∈ H) ⇔ (a1 x1 + .... + ap xp = 0) De plus, les équations cartésiennes de H dans la base B diffèrent seulement d’une constante multiplicative. 1.1. RANG D’UNE MATRICE. RANG D’UN SYSTÈME LINÉAIRE. 5 Preuve : Soit f une forme linéaire de E telle que H = ker f . La matrice de f dans la base B est une matrice-ligne. Appelons-la (a1 , ..., ap ). Alors u ∈ H si et seulement si f (u) = 0. Ceci se traduit par x1 (a1 , ...., ap ) ... = 0 xp Soient b1 ,...,bp des scalaires. Supposons que l’équation b1 x1 +...+bp xp = 0 soit une autre équation cartésienne de H. Alors H est l’ensemble des solutions du système linéaire ½ a1 x1 + ... + ap xp = 0 b1 x1 + ... + bp xp = 0 Le rang de ce système est donc 1. Donc les deux équations ne sont pas linéairement indépendantes. Il existe donc un scalaire µ tel que (b1 , ..., bp ) = µ(a1 , ..., ap ). Proposition 1.1.12 Soit E un K-espace vectoriel de dimension p. Soit B = (e1 , ..., ep ) une base de E. Soit F un sous-espace vectoriel de E, différent de E et de {0}. Alors F admet un système d’équations cartésiennes dans la base B. Autrement dit, il existeun entier n et une matrice (ai,j ) x1 .. de Mn,p (K), tels que si u est un vecteur de E de coordonnées . dans la base B, alors xp a1,1 x1 + .... + a1,p xp = 0 .. (u ∈ H) ⇔ . an,1 x1 + .... + an,p xp = 0 Preuve : Si F est un hyperplan de E, la proposition est déjà démontrée. supposons dimF ≤ p − 2. Il existe des hyperplans de E qui contiennent F . En effet, soit (u1 , ..., ur ) une base de F . Par le théorème de la base incomplète, il existe des vecteurs ur+1 ,....,up tels que (u1 , ..., up ) soit une base de E. Alors, si on note H = V ect{u1 , ..., up−1 }, H est un hyperplan de E, car E = H ⊕ V ect{up }. De plus, F ⊂ H. Notons H la famille de tous les hyperplans de E qui contiennent F . On a facilement F ⊂ ∩H∈H H. Or on a aussi ∩H∈H H ⊂ F . En effet, si un vecteur n’appartient pas à F , alors il existe un hyperplan de E qui contient F et qui ne contient pas ce vecteur. En effet, si u ∈ / F , alors (u, u1 , ..., ur ) est une famille libre et on sait que r + 1 ≤ p − 1. Complètons cette famille libre en une base de E, par des vecteurs ur+1 ,...,up−1 . Posons H = V ect{u1 , ..., up−1 }. Alors H est un hyperplan qui contient F . De plus, E = H ⊕ V ect{u}, donc H ne contient pas le vecteur u. On a montré que tout vecteur qui n’appartient pas à F n’appartient pas à ∩H∈H H. On a donc prouvé que F = ∩H∈H H. Pour chaque hyperplan H, choisissons φH une forme linéaire telle que H = ker φH . On a (u ∈ F ) ⇔ (∀H ∈ H, φH (u) = 0) Mais la matrice de chaque forme linéaire φH dans la base B est une matrice-ligne à p coefficients. Il ne peut donc pas y avoir plus de p lignes linéairement indépendantes. La condition (∀H ∈ H, φH (u) = 0) est donc équivalente à un système linéaire homogène, dont le nombre d’équations est au plus p. Remarque : Dans la proposition précédente, on a nécessairement n ≥ p − dimF . (exercice) 6 CHAPITRE 1. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES. Définition 1.1.13 Soit A ∈ Mn,p (K). On appelle matrice extraite de A toute matrice A0 ∈ M0 n0 ,p0 (K), 1 ≤ n0 ≤ n, 1 ≤ p0 ≤ p, obtenue à partir de A en rayant n − n0 lignes et p − p0 colonnes. Proposition 1.1.14 Soit A ∈ Mn,p (K). Soit r le rang de A. Alors il existe une ou plusieurs matrices carrées extraites de A, de dimension r × r et inversibles. Ce sont toutes les matrices r ×r extraites de A en choisissant r lignes linéairement indépendantes et r colonnes linéairement indépendantes et en rayant les autres. De plus, si r0 > r, toute matrice carrée extraite de A et de dimension r0 × r0 (s’il en existe) est non inversible. Preuve : Choisissons r colonnes de A linéairement indépendantes et r lignes de A linéairement indépendantes et rayons toutes les autres lignes et les autres colonnes. On obtient une matrice carrée A0 de dimension r × r. Montrons que les r lignes de A0 sont linéairement indépendantes. Supposons, pour simplifier les notations, qu’on a gardé les r premières lignes et les r premières colonnes de A. a1,1 . . . a1,r a1,r+1 . . . a1,p a2,1 . . . a2,r a2,r+1 . . . a2,p .. . A= ar,1 . . . ar,r ar,r+1 . . . ar,p .. . an,1 . . . an,r an,r+1 . . . an,p Ecrivons une relation linéaire entre les lignes de A0 . Soient λ1 ,...,λr ∈ K telles que λ1 (a1,1 , ..., a1,r ) + ... + λr (ar,1 , ..., ar,r ) = (0, ..., 0). Il s’agit de prouver que nécessairement λ1 = ... = λr = 0. Dans ce but on va prouver que : λ1 (a1,1 , ..., a1,p ) + ... + λr (ar,1 , ..., ar,p ) = (0, ..., 0). Comme on a supposé que les r premières lignes de A sont linéairement indépendantes, ça impliquera que λ1 = ... = λr = 0. Utilisons le fait que chacune des p − r dernières colonnes de A est une combinaison linéaire des r premières colonnes de A. Comme la r + 1 ème colonne de A est une combinaison linéaire des r premières colonnes de A, il existe des scalaires µ1 ,...,µr tels que a1,r+1 = µ1 a1,1 + µ2 a1,2 + ... + µr a1,r .. . ar,r+1 = µ1 ar,1 + µ2 ar,2 + ... + µr ar,r On en déduit que : λ1 a1,r+1 +...+λr ar,r+1 = λ1 (µ1 a1,1 +µ2 a1,2 +...+µr a1,r )+. . .+λr (µ1 ar,1 +µ2 ar,2 +...+µr ar,r ). Or λ1 (µ1 a1,1 + µ2 a1,2 + ... + µr a1,r ) + . . . + λr (µ1 ar,1 + µ2 ar,2 + ... + µr ar,r ) = µ1 (λ1 a1,1 + λ2 a2,1 + ... + λr ar,1 ) + ... + µr ((λ1 a1,r + λ2 a2,r ... + λr ar,r ) = 0. On trouve donc λ1 a1,r+1 +...+λr ar,r+1 = 0. On fait la même démonstration pour les colonnes numéros r + 2,...,p. On trouve λ1 a1,r+2 + ... + λr ar,r+2 = 0,....,λ1 a1,p + ... + λr ar,p = 0. Donc λ1 (a1,1 , ..., a1,p ) + ... + λr (ar,1 , ..., ar,p ) = (0, ..., 0) et ça implique que λ1 = ...λr = 0. Donc les lignes de A0 sont linéairement indépendantes, donc A0 est inversible. Soit maintenant r0 > r et soit A00 une matrice extraite de A, carrée r0 × r0 . Les lignes de A00 sont extraites d’une famille de r0 lignes de A, en rayant certaines colonnes. Or toute famille de r0 lignes de A est liée c’est à dire que l’une des r0 lignes de A est combinaison linéaire des r0 − 1 autres. Donc ceci est encore vrai pour les lignes de A00 . Les lignes de A00 ne sont pas linéairement indépendantes, donc A00 n’est pas de rang maximal, donc n’est pas inversible. Rappel Si A est une matrice carrée inversible, alors pour tout second membre B le système linéaire AX = B admet une solution unique X = A−1 B. 1.2. SYSTÈMES LINÉAIRES AVEC SECOND MEMBRE. ESPACES AFFINES. 7 Définition 1.1.15 Si A est une matrice carrée inversible, alors on dit que le système linéaire AX = B est un système de Cramer. Définition 1.1.16 Soit un système linéaire de matrice A ∈ Mn,p , de second membre B, noté AX = B. Soit r le rang de la matrice A. Choisissons une matrice r×r extraite de A et inversible. Les r lignes du systèmes ainsi choisies sont appelées les équations principales et les r inconnues ainsi choisies sont appelées les inconnues principales. Supposons qu’on a déterminé le rang r de la matrice A, qu’on a trouvé r lignes indépendantes et r colonnes indépendantes. Appelons A0 la matrice inversible r × r ainsi obtenue. Supposons, pour simplifier, que L1 ,...,Lr soient des lignes linéairement indépendantes. Alors les autres lignes de la matrice A sont des combinaisons linéaires de ces r lignes. Si les seconds membres br+1 ,...,bn sont des combinaisons linéaires des seconds membres b1 ,...,br avec les mêmes coefficients, alors on obtient un système équivalent en supprimant ces n − r équations. Sinon le système n’a pas de solution. Dans le cas où on obtient un système équivalent en ne conservant que les équations principales, alors on prend les p − r inconnues non principales comme paramètres et on résoud un système de Cramer de matrice A0 pour calculer les inconnues principales en fonction des paramètres. µ ¶ ½ 2 −4 1 2x −4y +z = 1 Exemple : A = . Soit le système AX = B suivant : 0 −1 1 x −y +z = 2. Le rang de A est 2. On voit que la matrice extraite de A en rayant la dernière colonne est une matrice inversible. On peut donc prendre x et y comme inconnues ½ principales et z comme 2x −4y = 1 − z paramètre et on résoud le système de Cramer d’inconnues x et y : x −y = 2 − z. 1.2 Systèmes linéaires avec second membre. Espaces affines. Soit A ∈ Mn,p (K), soit B ∈ Kn et soit le système linéaire AX = B. Interprétons ce système en utilisant l’application linéaire de Kp dans Kn de matrice A dans les bases canoniques de Kp Φ : Kp → Kn et Kn : X → AX. Proposition 1.2.1 (i) Le système AX = B admet au moins une solution si et seulement si B ∈ Im Φ. (ii) Supposons que B ∈ Im Φ et choisissons X0 ∈ Kp tel que B = Φ(X0 ) = AX0 . Alors l’ensemble des solutions de AX = B est S = {X0 + Y ; Y ∈ Ker Φ}. On notera S = X0 + Ker Φ. Preuve : On a (i) de manière évidente. Montrons (ii). AX = B ⇔ AX = AX0 ⇔ A(X0 − X) = 0 ⇔ X − X0 ∈ Ker Φ. Définition 1.2.2 Si X0 ∈ Kp et si F est un sous-espace vectoriel de Kp de dimension p0 , alors l’ensemble {X0 + Y ; Y ∈ F }, qu’on peut noter X0 + F , s’appelle le sous-espace affine de Kp de direction l’espace vectoriel F et passant par le point X0 . On définit la dimension de l’espace affine X0 + F comme étant égale à la dimension de l’espace vectoriel F . Remarque : Tout sous-espace affine de direction l’espace vectoriel {0} est réduit à un point. Un sous-espace affine de R2 (différent de R2 lui-même) est soit un point, soit une droite. Si c’est un point, sa direction est l’espace vectoriel {0}. Si c’est une droite, alors sa direction est la droite vectorielle associée, c’est à dire la droite qui lui est parallèle et qui passe par le point (0, 0). Un sous-espace affine de R3 (différent de R3 lui-même) est soit un point, soit une droite, soit un plan. Les directions associées sont respectivement l’espace vectoriel {0}, ou une droite vectorielle, ou un plan vectoriel. 8 CHAPITRE 1. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES. Par la proposition ci-dessus on a la discussion suivante, pour l’ensemble des solutions du système linéaire AX = B. Soit l’ensemble des solutions est vide, soit le système admet au moins une solution et alors l’ensemble des solutions est un sous-espace affine de Kp , dont la direction est l’espace vectoriel des solutions du système homogène associé AX = 0. Dans ce cas, si le système AX = 0 n’admet que la solution nulle, l’espace affine des solutions est réduit à un point. Sinon, l’espace affine des solutions est de dimension 1, ou etc..ou p. Définition 1.2.3 On appelle hyperplan d’un espace affine de dimension p tout sous-espace affine de dimension p − 1. On peut interpréter chaque ligne du systm̀e linéaire AX = B comme l’équation d’un hyperplan affine de Kp . L’ensemble des solutions du système linéaire est l’intersection de n hyperplans affines.