Rang d`une matrice, retour aux syst`emes linéaires.

publicité
Chapitre 1
Rang d’une matrice, retour aux
systèmes linéaires.
1.1
Rang d’une matrice. Rang d’un système linéaire.
Définition 1.1.1 Soient n, p ∈ N? et soit A ∈ Mn,p (K). On appelle rang de A le rang des p
colonnes de A, considérées comme des vecteurs de Kn . (C’est à dire la dimension du sous-espace
vectoriel de Kn engendré par les p colonnes de A.)
Proposition 1.1.2 Soit (u1 , ..., up ) une base de E, (v1 , ..., vn ) une base de F et soit f : E → F
une application linéaire. Soit A la matrice de f dans les bases (u1 , ..., up ) et (v1 , ..., vn ). Alors le
rang de f est égal au rang de A.
Preuve : On a rg (f ) = dim Im f = dim Vect {f (u1 ), ..., f (up )}. Et rg (A) = dim Vect {C1 , ..., Cp }
où C1 ,...,Cp sont les colonnes de A. Mais on sait que la jème colonne Cj est la colonne des coordonnées du vecteur f (uj ) dans la base (v1 , ..., vn ). Par conséquent la famille des vecteurs f (u1 ),
...,f (up ) et la famille des vecteurs C1 ,...,Cp ont le même rang. Donc rg (f ) = rg (A).
Corollaire 1.1.3 Si A et A0 sont deux matrices équivalentes, alors elles ont le même rang.
Preuve : Par hypothèse il existe deux matrices inversibles P ∈ Mp (K) et Q ∈ Mn (K) telles
que A0 = Q−1 AP . Soit Φ l’application linéaire de Kp dans Kn associée canoniquement à la
matrice A. Soient u1 ,...,up les vecteurs de Kp constitués par les colonnes de P . Alors, comme P
est inversible, (u1 , ..., up ) est une base de Kp et P est la matrice de passage de la base canonique
de Kp à la base (u1 , ..., up ) . De même on considère les colonnes de Q. Ce sont n vecteurs de Kn ,
appelés v1 ,...,vn , qui forment une base de Kn et Q est la matrice de passage de la base canonique
de Kn à la base (v1 , ..., vn ). Par la formule de changement de base, la matrice A0 est la matrice de
l’application linéaire Φ dans les bases (u1 , ..., up ) et (v1 , ..., vn ). Donc rg (A) = rg (Φ) = rg (A0 ).
Remarque : Soit A une matrice. On connaı̂t deux manières différentes de calculer le rang de
A. La première méthode consiste à trouver le rang des colonnes de A par la méthode expliquée
au Chapitre 3 : on applique la méthode du pivot de Gauss aux colonnes de A. La deuxième
méthode consiste à trouver la dimension du noyau de Φ, où Φ est l’application linéaire associée canoniquement à A. On utilise ensuite la formule : dim Im Φ + dim Ker Φ = p, qui donne
rg A = p − dim Ker Φ. (En effet, on sait par la proposition ci-dessus que rg A = dim Im Φ.)
Définition 1.1.4 Soit A ∈ Mn,p (K). On considère le système linéaire AX = 0. On dit que les
lignes du système sont linéairement indépendantes si les n matrices-lignes de A : (a1,1 , ..., a1,p ),....,
(an,1 , ..., an,p ) (considérées comme des vecteurs de Kp ) sont linéairement indépendantes.
1
2
CHAPITRE 1. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES.
Exemple : On donne le système linéaire homogène
½
2x −y +3z = 0
x −3y +z = 0
Les lignes du système sont linéairement indépendantes.
Définition 1.1.5 Soit A ∈ Mn,p (K). On appelle rang du système homogène AX = 0 le rang
des matrices-lignes de A (considérées comme des vecteurs de Kp ).
C’est la dimension du sous-espace vectoriel de Kp engendré par les n lignes de A. C’est aussi le
nombre maximal de lignes indépendantes parmi les lignes de A. On dit aussi que c’est le nombre
maximal d’équations indépendantes pour le système AX = 0. On va donner une formule qui lie
le rang du système homogène AX = 0 et la dimension de l’espace vectoriel des solutions.
Le problème : on donne un système linéaire homogène à n lignes et p colonnes, de rang r.
Soit F le sous-espace vectoriel de Kp formé par les solutions de ce système. Trouver la dimension
de F et une base de F .
Exemple : Soit F le sous-espace vectoriel de R4 formé par les solutions (x, y, z, t) du système
linéaire homogène
½
2x− y+ 3z+ t = 0
(Σ)
y− z+ t = 0
C’est un système échelonné. Il y a deux inconnues principales : x et y et deux inconnues non
principales qu’on prend comme paramètres : z et t. On résoud
 (Σ)
 par la méthode de la remontée.
x
½
 y 
x = −z − t

On trouve la solution
. Donc le vecteur 
 z  est solution du système (Σ) si
y
=z−t
t
 




x
−1
−1
 y 
 1 
 −1 





et seulement si 
 z  = z  1  + t  0 .
t
0
1




−1
−1
 1 


 et u2 =  −1  engendrent F . Montrons qu’ils
Cela montre que les vecteurs u1 = 
 1 
 0 
0
1
forment 
une base
de
F
.
Il
suffit
démontrer
qu’ils
sont
linéairement
indépendants. On remarque


  
−1
−1
0
 1 
 −1   0 


  
que si z 
 1  + t  0  =  0 , alors z = t = 0 car z et t sont des composantes du vec0
1
0
 
0
 0 

teur 
 0 . Donc u1 et u2 forment une base de F et la dimension de F est 2. Par ailleurs le rang
0
du système est deux, car du fait qu’il est échelonné, les lignes sont linéairement indépendantes.
Dans ce cas, on trouve dim F = p − r.
Généralisons ce résultat.
Proposition 1.1.6 Soit le système linéaire homogène AX = 0, de dimension n × p et de rang
r. La dimension de l’espace vectoriel F des solutions de ce système est p − r.
La démonstration de cette proposition découle de deux lemmes.
1.1.
RANG D’UNE MATRICE. RANG D’UN SYSTÈME LINÉAIRE.
3
Lemme 1.1.7 Le rang des lignes du système homogène AX = 0 est égal au nombre de lignes
non nulles du système échelonné équivalent EX = 0 obtenu par la méthode du pivot de Gauss.
Preuve C’est le raisonnement du chapitre 3, mais appliqué aux lignes de la matrice A, notées
L1 ,...,Ln , considérées comme des vecteurs de Kp . On rappelle le principe : si λ2 ,...,λn sont des
scalaires, alors le sous-espace vectoriel de Kp engendré par les vecteurs L1 ,...,Ln est le même
que les sous-espace vectoriel engendré par les vecteurs L1 , L2 − λ2 L1 ,...,Ln − λn L1 . Donc les
lignes obtenues après la première itération du pivot de Gauss ont le même rang que les lignes
L1 ,...,Ln . On réitère le procédé. Une fois terminée la méthode du pivot de Gauss le rang des n
lignes obtenues est égal au rang des lignes L1 ,...,Ln . Or, à cause du caractère échelonné, le rang
des n lignes obtenues est le nombre, appelé r, de lignes non nulles (car on montre facilement que
les r lignes non nulles, échelonnées, sont linéairement indépendantes) .
Lemme 1.1.8 Soit un système linéaire échelonné homogène de dimension r × p, dont les r
équations sont non nulles. Alors la dimension de l’espace vectoriel F des solutions de ce système
est égal au nombre d’inconnues non principales, c’est p − r.
Preuve : Rappelons que dans un tel système, il y a r inconnues principales et p − r inconnues
non principales qu’on prend comme paramètres. Quitte à réindexer les inconnues, appelons
x1 ,...,xr les inconnues principales et xr+1 ,..., xp les p − r paramètres. Pour chaque valeur du
(p − r)−uplet (xr+1 , ..., xp ) on trouve une unique solution du système par la méthode de la
remontée. Appelons ur+1 la solution (x1 , ..., xp ) trouvée pour (xr+1 , ..., xp ) = (1, 0, ...0), ur+2 la
solution trouvée pour (xr+1 , ..., xp ) = (0, 1, 0...0),..., up la solution trouvée pour (xr+1 , ..., xp ) =
(0, ..., 0, 1). Soit le vecteur u défini par u = xr+1 ur+1 + ... + xp up . Alors u est une solution du
système comme combinaison linéaire de solutions. Les p − r dernières composantes du vecteur
u sont xr+1 ,...,xp . Réciproquement, si u = (x1 , ..., xp ) est une solution du système, alors le
vecteur xr+1 ur+1 + ... + xp up est une solution du système pour les mêmes valeurs xr+1 ,...,xp des
paramètres, donc il est égal à u. L’ensemble des solutions est donc
F = {(x1 , ..., xp ) = xr+1 ur+1 + ... + xp up
;
xr+1 ∈ K, ..., xp ∈ K}.
Les vecteurs ur+1 ,...,up engendrent donc F . De plus la décomposition de toute solution u comme
combinaison linéaire des vecteurs ur+1 ,...,up est unique, puisque les coefficients qui apparaissent
dans la décomposition sont nécessairement les p − r dernières composantes de u. Les p − r
vecteurs ur+1 ,...,up forment donc une base de F .
Preuve de la proposition 1.1.6 Le rang r des lignes de A se calcule par la méthode
du pivot de Gauss appliquée aux lignes de A. Il est égal au nombre d’équations non nulles
dans le système échelonné qu’on trouve après l’utilisation de l’algorithme du pivot de Gauss
pour résoudre le système AX = 0. Soit F l’espace vectoriel des solutions du système homogène
AX = 0. C’est aussi l’ensemble des solutions du système échelonné à r lignes non nulles EX = 0,
obtenu par la méthode du pivot de Gauss. Donc dim F = p − r.
Proposition 1.1.9 Pour toute matrice, le rang des lignes est égal au rang des colonnes.
Preuve : Soit A ∈ Mn,p (K). Appelons r le rang des lignes de A, r0 le rang de A (c’est à dire le
rang des colonnes de A) et F l’espace vectoriel des solutions du système homogène AX = 0. On
a vu que dim F = p − r. Soit Φ l’application linéaire de Kp dans Kn associée canoniquement à
A. Alors F = Ker Φ. Par ailleurs, r0 = dim Im Φ. Par le théorème de la dimension on a
dim Kp = dim Ker Φ + dim Im Φ,
donc p = dim F + r0 , d’où dim F = p − r0 . Par conséquent p − r0 = p − r, donc r = r0 .
µ
¶
½
2 −4 1
2x −4y +z = 0
Exemple : A =
. Le système AX = 0 est
Le rang des
0 −1 1
−y +z = 0.
lignes de A est 2. On vérifie que le rang des colonnes aussi : C3 = −C2 − 23 C1 . L’espace vectoriel
4
CHAPITRE 1. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES.


3
des solutions sera de dimension 3 − 2 = 1. En effet, c’est la droite vectorielle de base  2  .
2
Pour la première équation prise séparémment, l’espace vectoriel des solutions est de dimension
3 − 1 = 2 (car le rang est 1), c’est un plan vectoriel. De même pour la seconde équation.
La droite vectorielle F est donc l’intersection de deux plans vectoriels (qu’on représente, dans
l’espace R3 , comme deux plans qui passent par le point (0, 0)). Donnons des bases de ces deux
plans vectoriels.
 


 
x
1
0
(2x − 4y + z = 0) ⇔ (z = −2x + 4y) ⇔  y  = x  0  + y  1 
z
−2
4
 
 
 
x
1
0
et (−y + z = 0) ⇔ (y = z) ⇔  y  = x  0  + z  1  . On a donc trouvé une
z
0
1
base pour chacun des deux plans vectoriels admettant pour équation cartésienne chacune des
équations du système.
Rappel : par définition, un hyperplan d’un K-espace vectoriel E de dimension p est un
sous-espace vectoriel de dimension p − 1.
Remarque : (i) L’espace vectoriel des solutions d’une seule équation linéaire non nulle, à p inconnues et à coefficients dans K, est un hyperplan de Kp . En effet, si (a1 , ..., ap ) ∈ Kp \{(0, ...., 0)},
alors le rang du système linéaire a1 x1 + .... + ap xp = 0 est 1.
(ii) Soit A ∈ Mn,p (K). Le K-espace vectoriel des solutions du système linéaire homogène AX = 0
est l’intersection de n hyperplans de Kp .
Proposition 1.1.10 Soit E un K-espace vectoriel de dimension p.
(i) Le noyau de toute forme linéaire non nulle de E est un hyperplan de E.
(ii) Tout hyperplan de E est le noyau d’une forme linéaire non nulle.
Preuve (i) Soit f une forme linéaire non nulle de E. C’est une application linéaire non
identiquement nulle de E dans K. Son image est un sous-espace vectoriel de K non réduit à zéro,
donc Im f = K (car dim K = 1). On a dim Ker f + dim Im f = dim E, donc dim Ker f = p − 1.
(ii) Soit H un hyperplan de E. Soit X un sous-espace supplémentaire de H (E = H ⊕ X). Soit
(e) une base de X. On définit une application f de E dans K par f : u 7→ λ, où λ est l’unique
scalaire tel que u = v + λe, avec v ∈ H. On vérifie facilement que f est une application linéaire
de E dans K et que ker f = H (exercice).
Proposition 1.1.11 Soit E un K-espace vectoriel de dimension p. Soit B = (e1 , ..., ep ) une
base de E. Soit H un hyperplan de E. Alors H admet une équation cartésienne dans la base B.
Autrement

 dit, il existe des scalaires a1 ,...,ap , tels que si u est un vecteur de E de coordonnées
x1
 .. 
 .  dans la base B, alors
xp
(u ∈ H) ⇔ (a1 x1 + .... + ap xp = 0)
De plus, les équations cartésiennes de H dans la base B diffèrent seulement d’une constante
multiplicative.
1.1.
RANG D’UNE MATRICE. RANG D’UN SYSTÈME LINÉAIRE.
5
Preuve : Soit f une forme linéaire de E telle que H = ker f . La matrice de f dans la base B
est une matrice-ligne. Appelons-la (a1 , ..., ap ). Alors u ∈ H si et seulement si f (u) = 0. Ceci se
traduit par


x1


(a1 , ...., ap )  ...  = 0
xp
Soient b1 ,...,bp des scalaires. Supposons que l’équation b1 x1 +...+bp xp = 0 soit une autre équation
cartésienne de H. Alors H est l’ensemble des solutions du système linéaire
½
a1 x1 + ... + ap xp = 0
b1 x1 + ... + bp xp = 0
Le rang de ce système est donc 1. Donc les deux équations ne sont pas linéairement indépendantes.
Il existe donc un scalaire µ tel que (b1 , ..., bp ) = µ(a1 , ..., ap ).
Proposition 1.1.12 Soit E un K-espace vectoriel de dimension p. Soit B = (e1 , ..., ep ) une base
de E. Soit F un sous-espace vectoriel de E, différent de E et de {0}. Alors F admet un système
d’équations cartésiennes dans la base B. Autrement dit, il existeun entier
 n et une matrice (ai,j )
x1
 .. 
de Mn,p (K), tels que si u est un vecteur de E de coordonnées  .  dans la base B, alors
xp


 a1,1 x1 + .... + a1,p xp = 0
..
(u ∈ H) ⇔
.


an,1 x1 + .... + an,p xp = 0
Preuve : Si F est un hyperplan de E, la proposition est déjà démontrée. supposons dimF ≤
p − 2. Il existe des hyperplans de E qui contiennent F . En effet, soit (u1 , ..., ur ) une base de
F . Par le théorème de la base incomplète, il existe des vecteurs ur+1 ,....,up tels que (u1 , ..., up )
soit une base de E. Alors, si on note H = V ect{u1 , ..., up−1 }, H est un hyperplan de E, car
E = H ⊕ V ect{up }. De plus, F ⊂ H. Notons H la famille de tous les hyperplans de E qui
contiennent F . On a facilement F ⊂ ∩H∈H H. Or on a aussi ∩H∈H H ⊂ F . En effet, si un vecteur
n’appartient pas à F , alors il existe un hyperplan de E qui contient F et qui ne contient pas
ce vecteur. En effet, si u ∈
/ F , alors (u, u1 , ..., ur ) est une famille libre et on sait que r + 1 ≤
p − 1. Complètons cette famille libre en une base de E, par des vecteurs ur+1 ,...,up−1 . Posons
H = V ect{u1 , ..., up−1 }. Alors H est un hyperplan qui contient F . De plus, E = H ⊕ V ect{u},
donc H ne contient pas le vecteur u. On a montré que tout vecteur qui n’appartient pas à F
n’appartient pas à ∩H∈H H. On a donc prouvé que F = ∩H∈H H. Pour chaque hyperplan H,
choisissons φH une forme linéaire telle que H = ker φH . On a
(u ∈ F ) ⇔ (∀H ∈ H, φH (u) = 0)
Mais la matrice de chaque forme linéaire φH dans la base B est une matrice-ligne à p coefficients.
Il ne peut donc pas y avoir plus de p lignes linéairement indépendantes. La condition (∀H ∈
H, φH (u) = 0) est donc équivalente à un système linéaire homogène, dont le nombre d’équations
est au plus p.
Remarque : Dans la proposition précédente, on a nécessairement n ≥ p − dimF . (exercice)
6
CHAPITRE 1. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES.
Définition 1.1.13 Soit A ∈ Mn,p (K). On appelle matrice extraite de A toute matrice A0 ∈
M0 n0 ,p0 (K), 1 ≤ n0 ≤ n, 1 ≤ p0 ≤ p, obtenue à partir de A en rayant n − n0 lignes et p − p0
colonnes.
Proposition 1.1.14 Soit A ∈ Mn,p (K). Soit r le rang de A. Alors il existe une ou plusieurs
matrices carrées extraites de A, de dimension r × r et inversibles. Ce sont toutes les matrices
r ×r extraites de A en choisissant r lignes linéairement indépendantes et r colonnes linéairement
indépendantes et en rayant les autres. De plus, si r0 > r, toute matrice carrée extraite de A et
de dimension r0 × r0 (s’il en existe) est non inversible.
Preuve : Choisissons r colonnes de A linéairement indépendantes et r lignes de A linéairement
indépendantes et rayons toutes les autres lignes et les autres colonnes. On obtient une matrice
carrée A0 de dimension r × r. Montrons que les r lignes de A0 sont linéairement indépendantes.
Supposons, pour simplifier les notations, qu’on a gardé les r premières lignes et les r premières
colonnes de A.


a1,1 . . . a1,r a1,r+1 . . . a1,p
 a2,1 . . . a2,r a2,r+1 . . . a2,p 




..


.

A=
 ar,1 . . . ar,r ar,r+1 . . . ar,p 




..


.
an,1 . . . an,r an,r+1 . . . an,p
Ecrivons une relation linéaire entre les lignes de A0 . Soient λ1 ,...,λr ∈ K telles que
λ1 (a1,1 , ..., a1,r ) + ... + λr (ar,1 , ..., ar,r ) = (0, ..., 0).
Il s’agit de prouver que nécessairement λ1 = ... = λr = 0. Dans ce but on va prouver que :
λ1 (a1,1 , ..., a1,p ) + ... + λr (ar,1 , ..., ar,p ) = (0, ..., 0).
Comme on a supposé que les r premières lignes de A sont linéairement indépendantes, ça
impliquera que λ1 = ... = λr = 0.
Utilisons le fait que chacune des p − r dernières colonnes de A est une combinaison linéaire
des r premières colonnes de A. Comme la r + 1 ème colonne de A est une combinaison linéaire
des 
r premières colonnes de A, il existe des scalaires µ1 ,...,µr tels que

 a1,r+1 = µ1 a1,1 + µ2 a1,2 + ... + µr a1,r
..
.


ar,r+1 = µ1 ar,1 + µ2 ar,2 + ... + µr ar,r
On en déduit que :
λ1 a1,r+1 +...+λr ar,r+1 = λ1 (µ1 a1,1 +µ2 a1,2 +...+µr a1,r )+. . .+λr (µ1 ar,1 +µ2 ar,2 +...+µr ar,r ).
Or
λ1 (µ1 a1,1 + µ2 a1,2 + ... + µr a1,r ) + . . . + λr (µ1 ar,1 + µ2 ar,2 + ... + µr ar,r )
= µ1 (λ1 a1,1 + λ2 a2,1 + ... + λr ar,1 ) + ... + µr ((λ1 a1,r + λ2 a2,r ... + λr ar,r ) = 0.
On trouve donc λ1 a1,r+1 +...+λr ar,r+1 = 0. On fait la même démonstration pour les colonnes
numéros r + 2,...,p. On trouve λ1 a1,r+2 + ... + λr ar,r+2 = 0,....,λ1 a1,p + ... + λr ar,p = 0. Donc
λ1 (a1,1 , ..., a1,p ) + ... + λr (ar,1 , ..., ar,p ) = (0, ..., 0) et ça implique que λ1 = ...λr = 0. Donc les
lignes de A0 sont linéairement indépendantes, donc A0 est inversible.
Soit maintenant r0 > r et soit A00 une matrice extraite de A, carrée r0 × r0 . Les lignes de A00
sont extraites d’une famille de r0 lignes de A, en rayant certaines colonnes. Or toute famille de
r0 lignes de A est liée c’est à dire que l’une des r0 lignes de A est combinaison linéaire des r0 − 1
autres. Donc ceci est encore vrai pour les lignes de A00 . Les lignes de A00 ne sont pas linéairement
indépendantes, donc A00 n’est pas de rang maximal, donc n’est pas inversible.
Rappel Si A est une matrice carrée inversible, alors pour tout second membre B le système
linéaire AX = B admet une solution unique X = A−1 B.
1.2. SYSTÈMES LINÉAIRES AVEC SECOND MEMBRE. ESPACES AFFINES.
7
Définition 1.1.15 Si A est une matrice carrée inversible, alors on dit que le système linéaire
AX = B est un système de Cramer.
Définition 1.1.16 Soit un système linéaire de matrice A ∈ Mn,p , de second membre B, noté
AX = B. Soit r le rang de la matrice A. Choisissons une matrice r×r extraite de A et inversible.
Les r lignes du systèmes ainsi choisies sont appelées les équations principales et les r inconnues
ainsi choisies sont appelées les inconnues principales.
Supposons qu’on a déterminé le rang r de la matrice A, qu’on a trouvé r lignes indépendantes
et r colonnes indépendantes. Appelons A0 la matrice inversible r × r ainsi obtenue. Supposons,
pour simplifier, que L1 ,...,Lr soient des lignes linéairement indépendantes. Alors les autres lignes
de la matrice A sont des combinaisons linéaires de ces r lignes. Si les seconds membres br+1 ,...,bn
sont des combinaisons linéaires des seconds membres b1 ,...,br avec les mêmes coefficients, alors
on obtient un système équivalent en supprimant ces n − r équations. Sinon le système n’a pas
de solution. Dans le cas où on obtient un système équivalent en ne conservant que les équations
principales, alors on prend les p − r inconnues non principales comme paramètres et on résoud
un système de Cramer de matrice A0 pour calculer les inconnues principales en fonction des
paramètres.
µ
¶
½
2 −4 1
2x −4y +z = 1
Exemple : A =
. Soit le système AX = B suivant :
0 −1 1
x −y +z = 2.
Le rang de A est 2. On voit que la matrice extraite de A en rayant la dernière colonne est
une matrice inversible. On peut donc prendre x et y comme inconnues
½ principales et z comme
2x −4y = 1 − z
paramètre et on résoud le système de Cramer d’inconnues x et y :
x −y = 2 − z.
1.2
Systèmes linéaires avec second membre. Espaces affines.
Soit A ∈ Mn,p (K), soit B ∈ Kn et soit le système linéaire AX = B. Interprétons ce système
en utilisant l’application linéaire de Kp dans Kn de matrice A dans les bases canoniques de Kp
Φ : Kp → Kn
et Kn :
X → AX.
Proposition 1.2.1 (i) Le système AX = B admet au moins une solution si et seulement si
B ∈ Im Φ.
(ii) Supposons que B ∈ Im Φ et choisissons X0 ∈ Kp tel que B = Φ(X0 ) = AX0 . Alors
l’ensemble des solutions de AX = B est
S = {X0 + Y ; Y ∈ Ker Φ}. On notera S = X0 + Ker Φ.
Preuve : On a (i) de manière évidente. Montrons (ii). AX = B ⇔ AX = AX0 ⇔ A(X0 − X) =
0 ⇔ X − X0 ∈ Ker Φ.
Définition 1.2.2 Si X0 ∈ Kp et si F est un sous-espace vectoriel de Kp de dimension p0 , alors
l’ensemble {X0 + Y ; Y ∈ F }, qu’on peut noter X0 + F , s’appelle le sous-espace affine de Kp
de direction l’espace vectoriel F et passant par le point X0 . On définit la dimension de l’espace
affine X0 + F comme étant égale à la dimension de l’espace vectoriel F .
Remarque : Tout sous-espace affine de direction l’espace vectoriel {0} est réduit à un point.
Un sous-espace affine de R2 (différent de R2 lui-même) est soit un point, soit une droite. Si
c’est un point, sa direction est l’espace vectoriel {0}. Si c’est une droite, alors sa direction est
la droite vectorielle associée, c’est à dire la droite qui lui est parallèle et qui passe par le point
(0, 0). Un sous-espace affine de R3 (différent de R3 lui-même) est soit un point, soit une droite,
soit un plan. Les directions associées sont respectivement l’espace vectoriel {0}, ou une droite
vectorielle, ou un plan vectoriel.
8
CHAPITRE 1. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES.
Par la proposition ci-dessus on a la discussion suivante, pour l’ensemble des solutions du
système linéaire AX = B. Soit l’ensemble des solutions est vide, soit le système admet au moins
une solution et alors l’ensemble des solutions est un sous-espace affine de Kp , dont la direction
est l’espace vectoriel des solutions du système homogène associé AX = 0. Dans ce cas, si le
système AX = 0 n’admet que la solution nulle, l’espace affine des solutions est réduit à un
point. Sinon, l’espace affine des solutions est de dimension 1, ou etc..ou p.
Définition 1.2.3 On appelle hyperplan d’un espace affine de dimension p tout sous-espace affine
de dimension p − 1.
On peut interpréter chaque ligne du systm̀e linéaire AX = B comme l’équation d’un hyperplan affine de Kp . L’ensemble des solutions du système linéaire est l’intersection de n hyperplans
affines.
Téléchargement