Algèbre linéaire

publicité
Introduction à l’algèbre linéaire
Thomas Richez
Table des matières
1. Généralités sur les matrices
2. Matrices et opérations élémentaires
3. Systèmes linéaires
4. Déterminant
1
5
8
13
Dans tout ce qui suit, K = Q, R ou C.
1. Généralités sur les matrices
1.1. Définitions.
Définition 1 (Matrice) : Soient n, p ∈ N∗ . Une matrice de taille n × p à coefficients dans K est un tableau
à n lignes et p colonnes constitué d’éléments mij de K. On note


m11 m12 · · · m1p

.. 
M =  m21
. 
mn1 mn2 · · · mnp
ou plus simplement M = (mij ) 1≤i≤n avec chaque mij ∈ K (ou encore plus simplement M = (mij )).
1≤j≤n
Notation 1 : L’ensemble des matrices n × p à coefficients dans K est noté Mn,p (K).
Fait 1 : Deux matrices A = (aij ) et B = (bij ) sont égales si et seulement si pour tous i, j, aij = bij .
−1
(1)  6

Exemple 1 :
1
2

2
1
π  ∈ M3,2 (R) ou
6
0
2
π
i−1
3i
∈ M2,3 (C).
(2) Matrice nulle de taille n × p : 0n,p = (mij )1≤i≤n où mij = 0 pour tous i, j.
1≤j≤p
(3) Matrice identité de taille n : In = (mij )1≤i,j≤n où mij =

1

0
In = 
.
 ..
0
0
1
..
.
···
···
..
.
..
.
0
0
..
.
0
1
1
(
1 si i = j
0 sinon



 ∈ Mn,n (K).


:
2
THOMAS RICHEZ
(4) Matrices élémentaires Eij : on note Eij la matrice élémentaire de taille n × p dont tous les termes
sont nuls sauf le coefficient (i, j) qui vaut 1. Par exemple pour n = 2 et p = 4,
0 0 0 0
∈ M2,4 (K).
E2,3 =
0 0 1 0
Définition 2 (Matrice carrée) : Soit n ∈ N∗ . Une matrice de taille n × n est appelée matrice carrée de
taille n. L’ensemble Mn,n (K) est noté Mn (K).
Définition 3 (Matrice diagonale et triangulaire) : Soit A = (aij ) ∈ Mn (K) une matrice carrée. Les
coefficients aii s’appellent les coefficients diagonaux de A. On dit que la matrice A est
– diagonale si l’on a aij = 0 dès que i 6= j,
– triangulaire supérieure si l’on a aij = 0 dès que i > j,
– triangulaire inférieure si l’on a aij = 0 dès que i < j.
1/2
Exemple 2 : La matrice
0

2
0
est diagonale tout comme la matrice identité In et la matrice −1
3
0

0 0
3 0
2 0
est triangulaire inférieure.
Définition 4 (Matrice ligne et colonne) : Une matrice de Mn,1 (K) (resp. M1,p (K)) est appelée une
matrice-colonne (resp. matrice-ligne).
1.2. Opérations sur les matrices.
Définition 5 (Addition de deux matrices) : Soient M, N ∈ Mn,p (K). La somme M + N est la matrice
de taille n × p à coefficients dans K définie par
M + N = (mij + nij )1≤i≤n ∈ Mn,p (K).
1≤j≤p
On additionne donc que des matrices de même taille.
Définition 6 (Multiplication par un scalaire) : Soient M ∈ Mn,p (K) et λ ∈ K. Le produit par un scalaire
λM est la matrice de taille n × p à coefficients dans K définie par
λM = (λmij )1≤i≤n ∈ Mn,p (K).
1≤j≤p
0
4 −1
−1 0 1
Exemple 3 : Si M =
et N =
, alors
−1 −1 2
3 0 5
−1 4 0
0
M +N =
et
3M =
2 −1 7
−3
12
−3
−3
.
6
Définition 7 (Produit de deux matrices) : Soient M ∈ Mn,p (K) et N ∈ Mp,r (K). Le produit M N est la
matrice de taille n × r à coefficients dans K définie par
!
p
X
MN =
mik nkj
∈ Mn,r (K).
k=1
1≤i≤n
1≤j≤r
Attention : le produit matriciel M N n’est défini que lorsque le nombre de colonnes de M est égal au
nombre de lignes de N . Il se peut donc que le produit M N soit défini tandis que N M ne l’est pas. Le produit
de deux matrices carrées de même taille est toujours défini.
 
1
Exemple 4 : Si M = 2 0 −3 et N = −3, comme 2×1+0×(−3)+(−3)×2 = −4, on a M N = −4 .
2
INTRODUCTION À L’ALGÈBRE LINÉAIRE
3

1
1
Exemple 5 : Si M =
1. Alors le produit matriciel M N est bien défini
−1
1
11 15 −2 6
. Par contre le produit
car M a autant de colonnes que N a de lignes et on a : M N =
13 35 −14 8
N M n’est pas défini.

3
2 3
et N = 1
2 7
2
0
0
5
2
1
−2
Définition 8 (Combinaison linéaire) : Soit k un entier ≥ 2. Une combinaison linéaire des matrices
A1 , A2 , . . . , Ak ∈ Mn,p (K) est une matrice de Mn,p (K) de la forme λ1 A1 + λ2 A2 + . . . + λk Ak où les λi ∈ K.
Proposition 1 (Règles de calcul) : Si A, B, C sont des matrices appartenant à Mn,p (K) et si λ, µ ∈ K,
alors on a
(1) (Associativité de l’addition) A + (B + C) = (A + B) + C et cette matrice est noté A + B + C,
(2) (Elément neutre pour +) A + 0n,p = 0n,p + A = A,
(3) (Existence d’un opposé) A − A = 0n,p ,
(4) (Commutativité) A + B = B + A.
On dit alors que (Mn,p , +) est un groupe commutatif (ou groupe abélien). On a aussi
(1) (λ + µ)A = λA + µA et λ(A + B) = λA + λB.
(2) (λµ)A = λ(µA) et on notera donc simplement λµA cette matrice,
De plus, si M ∈ Mn,p (K), N, N 0 ∈ Mp,q (K) et P ∈ Mq,r (K), on a aussi
(1) In M = M Ip = M ,
(2) (Associativité du produit matriciel) (M N )P = M (N P ), on notera donc simplement M N P cette
matrice,
(3) (Bilinéarité du produit matriciel)
(λA + µB)N = λAN + µBN
et
A(λN + µN 0 ) = λAN + µAN 0 .
(4) λ(M N ) = (λM )N = M (λN )
Pp
Démonstration. Démontrons simplement l’associativité du produit matriciel. Puisque M N = ( k=1 mik nkl )1≤i≤n ,
1≤l≤q
alors


# 
 q " p
X X


mik nkl plj 
(M N )P = 

 l=1 k=1

{z
}
|
∈ Mn,r (K).
1≤i≤n
1≤j≤r
=mnil
Pq
De même, puisque N P = ( l=1 nkl plj )1≤k≤p , alors
1≤j≤r


" q
#
X
X
 p


M (N P ) = 
mik
nkl plj 

k=1

l=1
|
{z
}
npkj
∈ Mn,r (K).
1≤i≤n
1≤j≤r
On obtient le résultat en permutant les symboles de sommation dans (M N )P et M (N P ).
Remarque 1 : Attention, le
1
0
produit matriciel N’est PAS commutatif : en général M N 6= N M . Par exemple
1
0 0
1 0
0 0
0 0
1 1
=
6=
=
.
1
1 0
1 0
1 1
1 0
0 1
Définition 9 (Transposée, matrice symétrique et antisymétrique) : Soit M ∈ Mn,p (K). La transposée de
M , notée t M est la matrice de taille p × n définie par t M = (mji ) avec 1 ≤ i ≤ n et 1 ≤ j ≤ p. Si t M = M ,
alors M est dite symétrique. Si t M = −M , alors M est dite antisymétrique.
4
THOMAS RICHEZ
1

2
t
A=
3
4

(1) Si A =
Exemple 6 :
(2) Si B =
1
7
7
, alors
0
1
5
t
3 4
, alors
7 8
2
6
B=
1
7

5
6

7
8
7
= B : la matrice B est symétrique.
0
Proposition 2 (Propriétés de la transposée) : Soient A, B ∈ Mn,p (K), C ∈ Mp,q (K) et λ ∈ K. Alors,
(1) t (t A) = A, t (λA) = λt A et t (A + B) = t A + t B,
(2) t (AC) = t C t A.
Démonstration. Exercice
1.3. Matrice carrée inversible.
Définition 10 (Matrice carrée inversible) : Une matrice carrée M ∈ Mn (K) est dite inversible s’il existe
une matrice N ∈ Mn (K) telle que M N = N M = In .
Notation 2 : L’ensemble des matrices carrées de taille n à coefficients dans K inversibles est noté GLn (K).
Lemme 1 : Soit A une matrice inversible de Mn (K). Il existe une unique matrice B ∈ Mn (K) telle que
AB = BA = In . Dans ce cas, on dit que B est l’inverse de A et on note B = A−1 .
Démonstration. Supposons que l’on dispose de deux inverses B et B 0 de A et montrons que B = B 0 .
Alors on a par associativité du produit matriciel les égalités suivantes :
B = In B = (B 0 A)B = B 0 (AB) = B 0 In = B 0 ;
ce qu’il fallait démontrer.
Fait 2 : On peut montrer que (M N = In ) ⇐⇒ (N M = In ). Ainsi il suffit de vérifier une seule de ces deux
relations pour affirmer qu’une matrice est l’inverse de l’autre.
2 1
3 −1
−1
Exemple 7 :
(1) La matrice A =
est inversible d’inverse A =
(faire le calcul).
5 3
−5 2
(2) Si A est inversible, alors A−1 l’est aussi et (A−1 )−1 = A.
Proposition 3 : Soient A, B, C ∈ Mn (K) des matrices telles que AB = In et CA = In . Alors B = C.
Démonstration. Puisque AB = In , alors C(AB) = CIn = C. On en déduit par associativité du
produit matriciel que C = (CA)B = In B = B. D’où le résultat.
Autrement dit, si une matrice A admet un inverse à gauche et un inverse à droite, alors ces inverses sont
les mêmes : la matrice est inversible.
Proposition 4 : Soient A ∈ GLn (K) et B, C ∈ Mn,p (K) telles que AB = AC. Alors B = C.
Démonstration. L’égalité AB = AC implique A−1 (AB) = A−1 (AC) ; ce qui équivaut à (A−1 A)B =
(A A)C par associativité du produit matriciel. Puis, par définition d’inverse d’une matrice In B = In C,
c’est-à-dire B = C.
−1
Proposition 5 (Inverse d’un produit) : Soient M, N ∈ GLn (K). Alors M N ∈ GLn (K) et (M N )−1 =
N −1 M −1 .
Démonstration. Il s’agit de montrer que l’une des deux relations
(M N )(N −1 M −1 ) = In
ou
(N −1 M −1 )(M N ) = In
est vérifiée. Cela résulte immédiatement de l’associativité du produit matriciel. Par exemple,
(M N )(N −1 M −1 ) = M (N N −1 )M −1 = M In M −1 = M M −1 = In .
INTRODUCTION À L’ALGÈBRE LINÉAIRE
5
Corollaire 1 : Si A ∈ GLn (K), alors
(1) pour tout k ∈ N, Ak ∈ GLn (K) et (Ak )−1 = (A−1 )k ,
(2) t A ∈ GLn (K) et (t A)−1 = t (A−1 ).
2. Matrices et opérations élémentaires
2.1. Opérations élémentaires sur les lignes et les colonnes.
Définition 11 (Matrices de dilatation et de transvection) : Soient M ∈ Mn (K), a ∈ K∗ , λ ∈ K et
1 ≤ i 6= j ≤ n.
– On appelle matrice de dilatation de rapport a, notée Di (a) ∈ Mn (K), la matrice In où le a remplace
le 1 de la ie ligne :
Di (a) = In + (a − 1)Eii .
– On appelle matrice de transvection de rapport λ, notée Tij (λ) ∈ Mn,p (K), la matrice In où le λ
remplace le 0 à la ie ligne et j e colonne :
Tij (λ) = In + λEij .
1 0
1 3
Exemple 8 :
(n = 2) D2 (−4) =
et T12 (3) =
.
0 −4
0 1




1 0 0
1 0 0
(n = 3) D2 (−4) = 0 −4 0 et T31 (5) = 0 1 0.
0 0 1
5 0 1
Proposition 6 (Opérations élémentaires sur les colonnes d’une matrice) : Soient M ∈ Mn,p (K), a ∈ K∗ ,
λ ∈ K et 1 ≤ i 6= j ≤ n. On note Cj la j e colonne de M . alors
– la matrice obtenue à partir de M en remplaçant Cj par aCj est M Dj (a),
– la matrice obtenue à partir de M en remplaçant Cj par Cj + λCi est M Tij (λ).
Démonstration. Notons Ek la matrice de Mp,1 (K) dont le coefficient de la ligne k vaut 1 et dont tous
les autres sont nuls. En particulier, on a la relation
M Ek = Ck .
De même, la k e colonne de la matrice M Dj (a) est égale à M Dj (a)Ek et la k-ème colonne de la matrice
M Tij (λ) est égale à M Tij (λ)Ek .
– si k 6= j, on a par définition des matrices élémentaires, Dj (a)Ek = Ek et Tij (λ)Ek = Ek . Donc la k e
colonne de M Dj (a) est juste (M Dj (a))Ek = M (Dj (a)Ek ) = M Ek , la k e colonne de M . De même
M Tij (λ)Ek = M Ek = Ck et on a le même résultat.
– Pour k = j, on a cette fois Dj (a)Ej = aEj et Tij (λ)Ej = Ej + λEi . Ainsi
M Dj (a)Ej = M (aEj ) = aM Ej = aCj
et
M Tij (λ)Ej = M (Ej + λj Ei ) = Cj + λCi .
On dit qu’on effectue des opérations élémentaires sur les colonnes de M (abrégé OEC).
Si on multiplie non plus à droite mais à gauche par les matrices de dilatation et transvection, on effectue
cette fois-ci des opérations élémentaires sur les lignes (OEL).
Proposition 7 (Opérations élémentaires sur les lignes d’une matrice) : Soient M ∈ Mn,p (K), a ∈ K∗ ,
λ ∈ K et 1 ≤ i 6= j ≤ n. On note Li la ie ligne de M . alors
– la matrice obtenue à partir de M en remplaçant Li par aLi est Di (a)M ,
– la matrice obtenue à partir de M en remplaçant Li par Li + λLj est Tij (λ)M .
t
Démonstration. Exercice : il suffit d’adapter la preuve précécente en multipliant à gauche par les
Ek = (0 · · · 010 · · · 0).
6
THOMAS RICHEZ
a
Exemple 9 : D1 (2)
c
b
2a
=
d
c
2b
d
1
ou encore T12 (−1)
3
2
4
7
−2
=
8
3
−2
4
−1
.
8
Lemme 2 (Inverse d’une matrice de dilatation et de transvection) : Toute matrice Di (a) avec a 6= 0 est
inversible d’inverse Di (1/a). Toute matrice Tij (λ) avec i 6= j est inversible d’inverse Tij (−λ).
In .
Démonstration. Il suffit de vérifier que l’on a les deux égalités Di (a)Di (1/a)) = In et Tij (λ)Tij (−λ) =
Proposition 8 (Echange de lignes et colonnes) : Soit A ∈ Mn (K). La matrice
ATij (1)Tji (−1)Tij (1)Di (−1)
a pour effet d’échanger les colonnes i et j de A à l’aide d’OEC. De même, on peut inverser les lignes i et j
de A de la manière suivante :
Di (−1)Tji (1)Tij (−1)Tji (1)A
Démonstration. Exercice.
2.2. Méthode de Gauss. A partir de maintenant, on cherche à transformer une matrice M ∈ Mn,p (K)
donnée en une matrice « plus simple »en utilisant seulement des OEL ; à savoir des opérations de la forme
Li ← aLi (avec a 6= 0), Li ← Li + λLj et Li ↔ Lj .
Définition 12 : Soit M ∈ Mn,p (K) (non nulle). M est dite en échelon si
(1) toute ligne de M est soit nulle, soit son premier coefficient non nul est 1 (un tel coefficient est appelé
un pivot de la ligne),
(2) si une ligne est nulle, alors les suivantes aussi,
(3) si le premier coefficient non nul de la ligne i est dans la colonne j, alors le premier coefficient non
nul de la ligne i + 1 est dans une colonne d’indice > j.
Si de plus dans la colonne d’un pivot tous les termes sont nuls (sauf le pivot), on dit que M est bien échelonnée
ou encore échelonnée réduite.
Exemple 10 :
– M ∈ M1,p (K) non nulle est bien échelonnée si et seulement si M est de la forme
(0 · · · 01 ∗ · · · ∗).
 
1
0
 
– M ∈ Mn,1 (K) non nulle est bien échelonnée si et seulement si M est de la forme  . .
 .. 
0
1 a
1 a
–
(a 6= 0) est bien échelonnée mais
ne l’est pas (car la dernière condition de la définition
0 0
0 1
12 n’est pas vérifiée.
– In est bien échelonnée pour tout n ≥ 1.
Théorème 1 : Soit M ∈ Mn,p (K) non nulle. A l’aide d’opérations élémentaires sur les lignes de M , il est
possible de transformer M en une matrice bien échelonnée.
Avant de montrer le théorème, donnons un corollaire immédiat.
Corollaire 2 : Pour tout matrice M ∈ Mn,p (K) non nulle, il existe une matrice inversible P , produit de
matrices de dilatations et de transvections, telle que P M est bien échelonnée.
Preuve du corollaire. C’est une conséquence directe du théorème 1 + proposition 7 + lemme 2 +
proposition 5.
Preuve du théorème. On raisonne par récurrence sur p ≥ 1. Notons P(p) la propriété pour tout
n ≥ 1, toute matrice n × p se transforme à l’aide OEL en une matrice bien échelonnée.
INTRODUCTION À L’ALGÈBRE LINÉAIRE
7


m11


(1) Initialisation p = 1 : M =  ...  est supposée non-nulle, c’est-à-dire qu’il existe un coefficient
mn1
mi0 1 6= 0.
– Si i0 = 1 : on effectue l’OEL suivante :
1
L1 .
m11


1
 m21 


On obtient une matrice de la forme  . .
 .. 
mn1
– Si i0 > 1, on effectue l’OEL suivante :
L1 ←
1 − m11
Li0 .
mi0 1
 
1
∗
 
Dans les deux cas, la matrice obtenue est de la forme  . . On nettoie alors la colonne en utilisant
 .. 
∗
les OEL suivantes :
L1 ← L1 +
Li ← Li − mi1 L1 ,
i ≥ 2.
 
1
0
 
La matrice obtenue est alors de la forme  . , donc bien échelonnée. La propriété P(1) est donc
 .. 
0
vraie.
(2) Hypothèse de récurrence et hérédité : On suppose que P(p−1) est vraie pour un certain p ≥ 2.
Il s’agit maintenant de montrer que P(p) est vraie. On note C ∈ Mn,1 (K) la première colonne de
M . Ainsi, M s’écrit
N ∈ Mn,p−1 (K).
M= C N ,
– Si C = 0, alors nécessairement N 6= 0. L’hypothèse de récurrence assure que l’on peut
transformer N en une matrice bien échelonnée par des OEL. Si on applique ces mêmes OEL
sur M , on obtient aussi une matrice bien échelonnée.
– Si C 6= 0, on peut appliquer des OEL à M (et donc à C) pour transformer M en une matrice
de la forme


1 ∗ ··· ∗


 0

0

,
M = .
N 0 ∈ Mn−1,p−1 (K)
(ceci est vrai car P(1) est vraie).

N0
 ..

0
Si n = 1 ou N 0 = 0, M 0 est bien échelonnée et c’est fini.
Sinon, N 0 6= 0 et on peut aussi lui appliquer l’hypothèse de récurrence. Il existe des OEL
qui transforment N 0 en une matrice N 00 ∈ Mn−1,p−1 (K) bien échelonnée. Les même OEL
appliquées à M 0 donnent donc une matrice de la forme


1 ∗ ··· ∗


 0

,
N 0 ∈ Mn−1,p−1 (K).
M0 = 

 ..
00
N
 .

0
8
THOMAS RICHEZ
il reste juste à nettoyer dans M 00 les colonnes des pivots de N 00 par des OEL et on obtient
une matrice bien échelonnée. La propriété P(p) est donc vraie, ce qui prouve l’hérédité de
la propriété. Celle-ci étant vraie pour p = 1, elle est vraie pour tout p ≥ 1 par principe de
récurrence.
Remarque 2 : Dans cette preuve, on n’a même pas utilisé que l’on peut permuter deux lignes à l’aide d’OEL.
Exemple 11 :
4
0
1 1 −1 2
0 −2 3 −4
1
1 0
0
2
.
0 1 − 32 2
M=
L2 ←L2 −2L1
L1 ←L1 −L2
2 2
2 0
−2
1
L1 ← 21 L1
L2 ←− 21 L2
1 1 −1 2
2 0 1 0
1 1 −1 2
0 1 − 32 2
est bien échelonnée. En termes de matrices de dilatation et transvection, on a
1
1 2 2 −2
1
0
1 0
2
= T12 (−1)D2 (− )T21 (−2)D1 ( )
0 1 − 32 2
2{z
2} 2 0 1
|
4
.
0
:=P
La matrice inversible P est un produit de matrices de dilatations ou transvections et est telle que P M est
bien échelonnée.
3. Systèmes linéaires
3.1. Généralités.
Exemple 12 : Par exemple, le système linéaire de deux équations à deux inconnues
(
x+y =1
3x + 6y = −3
Définition 13 (Système linéaire) : Un système linéaire à n équations et p inconnues x1 , x2 , . . . , xp est un
système de la forme

a11 x1 + a12 x2 + . . . + a1p xp = b1



 a21 x1 + a22 x2 + . . . + a2p xp = b2
(S)
.
..


.


an1 x1 + an2 x2 + . . . + anp xp = bn
Les aij , bi sont les données du système et les
(S) par la matrice

a11
 a21

A= .
 ..
an1
xj sont les inconnues de (S). On définit la matrice du système
a12
a22
···
···
an2
···

a1p
a2p 

..  ∈ Mn,p (K).
. 
anp
L’écriture matricielle de (S) est donnée par AX = B où A ∈ Mn,p (K) est donnée ci-dessus,
 
 
x1
b1
 .. 
 .. 
X =  .  ∈ Mp,1 (K)
et
B =  .  ∈ Mn,1 (K).
xp
bn
Ainsi, les matrices nous donnent un nouvel outil (bien pratique !) pour traiter des systèmes linéaires. Le
lien entre résolution d’un système linéaire et matrice est précisé dans la suite :
INTRODUCTION À L’ALGÈBRE LINÉAIRE
9
3.2. Résolution de systèmes linéaires.
Proposition 9 (Existence et unicité de solutions) : Soient A ∈ GLp (K) et B ∈ Mp,1 (K). Le système
(S) : AX = B admet un unique p-uplet (x1 , x2 , . . . , xp ) solution donné par
 
x1
 .. 
X =  .  = A−1 B.
xp
Démonstration. Si A est inversible, alors X = A−1 B est toujours une solution du système. En effet
A(A−1 B) = (AA−1 )B = In B = B.
De plus si X 0 est une autre solution du système : AX 0 = B. Alors
AX 0 = AX
=⇒
A−1 AX 0 = A−1 AX
⇐⇒
(A−1 A)X 0 = (A−1 A)X
⇐⇒
X 0 = X.
D’où l’unicité de la solution.
Remarque 3 : Dans cet énoncé, on suppose que A est inversible. En particulier, on est dans le cas où on a
autant d’équations que d’inconnues : le système linéaire est carré.
Proposition 10 : Soient A ∈ Mn,p (K) et B ∈ Mn,1 (K). Si P ∈ GLn (K), alors le système AX = B a les
mêmes solutions que le système (P A)X = P B.
Démonstration. Soit X ∈ Mp,1 (K). Si AX = B, on multiplie cette égalité matricielle par P et l’on
en déduit (P A)X = P B auquel cas X est bien aussi une solution du second système.. Réciproquement, si
(P A)X = P B, on multiplie cette égalité matricielle par P −1 : on obtient
P −1 (P A)X = P −1 (P B),
c’est-à-dire (P −1 P )AX = (P −1 P )B, ou encore AX = B. D”où le résultat.
Cette proposition peut se reformuler de la manière suivante en utilisant le corollaire 2 :
Proposition 11 (Résolution de systèmes linéaires) : Soit (S) un système linéaire à n équations et p
inconnues. Soit M = A B ∈ Mn,p+1 (K) où A ∈ Mn,p (K) et B ∈ Mn,1 (K) caractérisent le système
(S). On dit que M est la matrice augmentée de (S). Si M 0 est la forme bien échelonnée de M obtenue à
partir d’opérations élémentaires sur les lignes, alors le système (S 0 ) associé à M 0 a les mêmes solutions que
(S).
Méthode de Gauss pour résoudre un système (S) : on détermine la forme bien échelonnée de la matrice
augmentée M de (S) à l’aider d’OEL, puis on résout le système équivalent obtenu : les solutions obtenues
sont les solutions de (S).
Exemple 13 : On considère le système



x + y + z = 1
(S)
x+y−z =2


x + y + 2z = 1 .
2

1
Posons A = 1
1
1
1
1

1
−1
2
 
1
et B =  2  .
1
2
 
x
Si on note X = y , le système (S) s’écrit matriciellement AX = B. La matrice augmentée du système est
z
notée ici


1 1 1 1
M =  1 1 −1 2  .
1
1 1 2
2
10
THOMAS RICHEZ
Première étape : On effectue ensuite des OEL pour déterminer la forme échelonnée de M (et ainsi obtenir
un système linéaire équivalent plus simple à résoudre) :




1
1 1 1 1
1 1 1
L2 ←L2 −L1
L2 ←− 12 L2
L3 ←L3 −L1
 0 0 −2 1 
 0 0 1 −1 
M
⇔
⇔
2
1
0 0 1 −2
0 0 1 − 21

3 
1 1 0
L1 ←L1 −L2
2
L3 ←L3 −L2
 0 0 1 −1 
⇔
2
0
0
0
0
Deuxième étape : Le système échelonné (S 0 ) correspondant à (S) est donc

3


x + y = 2
(S 0 )
z = − 12


(0 = 0)
Les systèmes (S) et (S 0 ) admettent les mêmes solutions. Ainsi, les solutions de (S) sont données par les
triplets (x, y, z) ∈ K3 tels que x = 32 − y et z = − 21 , à savoir
1
3
3
− y, y, −
∈K |y∈K .
Sol =
2
2
Exemple 14 : Considérons le système
(S)


x + y + z = 1

x+y−z =2


x + y + 2z = 3.
Avec les mêmes notations que précédemment, on a

1 1 1
M =  1 1 −1
1 1 2

1
2 .
3
dont on vérifie que la matrice échelonnée est

1 1 0
M0 =  0 0 1
0 0 0

0
0 .
1
Le système linéaire correspondant est
(S)



x + y = 0
z=0


0 = 1.
Ce système linéaire n’admet donc pas de solution :
Sol = ∅.
Théorème 2 (Nombre de solutions d’un système linéaire) : Soient (S) un système linéaire, M ∈ Mn,p+1 (K)
sa matrice augmentée, M 0 la forme bien échelonnée de M et r le nombre de pivots dans M 0 .
(i) Si M 0 contient un pivot dans sa dernière colonne, alors le système (S) n’admet pas de solution,
(ii) Sinon, on a r ≤ p et
(1) si r = p, (S) a une unique solution,
(2) sinon r < p. On considère les p − r inconnues correspondant aux colonnes sans pivots comme des
variables libres. Alors les inconnues restantes s’expriment en fonction de ces variables libres. En
particulier, on a une infinité de solutions.
INTRODUCTION À L’ALGÈBRE LINÉAIRE
11
Démonstration.
(i) S’il y a un pivot dans la dernière colonne c’est que une des lignes de M 0 est
de la forme (0 · · · 0|1). Dans ce cas, cette ligne de M 0 correspond à l’équation 0 = 1 et il n’y a pas de
solution.
(ii) (1) Si r = p, alors M 0 est de la forme
!
Ip
∗
0
M =
0n−p,p 0n−p,1
donc le système s’écrit


x1 = ∗






x =∗

 2
..
.




xp = ∗




0 = 0 . . .
D’où une unique solution.
(2) Si r < p, toute inconnue xi correspondant à une colonne avec pivot vérifie une relation de la forme
xi + combinaison linéaires des variables libres = constante. D’où le résultat.
Proposition 12 : Soient A ∈ Mn,p (K) et B ∈ Mn,1 (K). Supposons qu’il existe X0 ∈ Mp,1 (K) tel que
AX0 = B. Les solutions du système AX = B sont les matrices de la forme X0 + Y où Y ∈ Mp,1 (K) est une
matrice quelconque vérifiant AY = 0.
Démonstration. Soit X ∈ Mp,1 (K). Posons Y = X − X0 . D’après les règles de calcul matriciel, on a
AX = A(X0 + Y ) = AX0 + AY = B + AY.
Dans ce cas, si AX = B on a AY = AX − B = 0 et donc X est bien de la forme X = X0 + Y avec AY = 0.
Réciproquement, si AY = 0, alors 0 = AY = AX − B et on a bien AX = B.
Autrement dit, si l’on connaît une solution particulière X0 du système AX = B, alors pour avoir toutes
les solutions de AX = B, il ne reste qu’à résoudre l’équation homogène AX = 0.
Lemme 3 : Soit A ∈ Mp (K) triangulaire supérieure avec que des 1 sur la diagonale. Alors A est inversible.
Démonstration. Ecrivons A = Ip + N où N est triangulaire supérieure avec diagonale nulle. Il est
facile de voir que N p = 0 (on dit que N est nilpotente). Par suite, on vérifie que
(Ip + N )(Ip − N + N 2 − N 3 + . . . + (−1)p−1 N p−1 ) = Ip
car N p = 0 ; de sorte que A est bien inversible.
Lemme 4 : Soit A ∈ Mp (K) en échelon. Alors A est triangulaire supérieure. De plus, si la dernière ligne de
A n’est pas nulle, les coefficients diagonaux de A sont tous égaux à 1. En particulier, si A est bien échelonnée
et si sa dernière ligne est non nulle, alors A = Ip .
Démonstration. (Exercice)
Théorème 3 : Soit A ∈ Mp (K). La matrice A est inversible si et seulement si la seule solution du système
AX = 0 est la solution nulle X = 0.
Démonstration. (⇒) Si A est inversible, la proposition 9 montre que X = A−1 0 = 0 est la seule
solution de AX = 0.
(⇐) Réciproquement, supposons que la seule solution du système AX = 0 est X = 0. Montrons que A
est inversible. En particulier, A 6= 0 et donc il existe P ∈ Mp (K) produit de matrices élémentaires telles que
P A est bien échelonnée (non nulle).
Or P est inversible. Ainsi le début de la preuve montre que la seule solution de (P A)X = 0 vérifie
AX = 0, et donc X = 0 par hypothèse.
12
THOMAS RICHEZ
Notons aussi que puisque la seule solution de (P A)X = 0 est X = 0 et puisque P A est carrée, bien
échelonnée, alors la dernière ligne de la matrice P A est non nulle. Par le lemme 4 précédent, il vient P A = Ip ;
ce qui signifie que A est inversible d’inverse P .
On en déduit immédiatement le corollaire important suivant (qui fournit une réciproque à la proposition
9) :
Corollaire 3 : Soient A ∈ Mp (K) et B ∈ Mp,1 (K). Alors A est inversible si et seulement si le système
AX = B admet une unique solution.
Démonstration. C’est une conséquence du théorème précédent et de la proposition 12.
3.3. Application à l’inversion de matrices. Dans toute cette partie, les matrices sont carrées.
Proposition 13 : Soient A ∈ Mn (K) et A0 ∈ Mn (K) sa forme bien échelonnée. Alors A est inversible si
et seulement si A0 = In . Dans ce cas, l’inverse A−1 de A peut s’obtenir de deux manières :
(1) c’est le produit P des Di (a) et Tij (λ) qui correspondent aux opérations élémentaires sur les lignes
qui permettent de transformer A en A0 ,
(2) c’est la matrice obtenue en faisant subir à In les opérations élémentaires sur les lignes qui permettent
de transformer A en A0 .
Démonstration. (⇒) : On suppose ici A inversible. Supposons de plus par l’absurde que A0 6= In .
Comme A0 est bien échelonnée et carrée, le lemme 4 montre que nécessairement sa dernière ligne est nulle.
 
0
 .. 
 
Alors la matrice augmentée du système A0 X =  .  =: B a un pivot dans sa dernière colonne. Donc ce
0
1
système n’admet pas de solution d’après le théorème 2. Notons P ∈ GLn (K) matrice correspondante à des
OEL tel que A0 = P A. Alors le système équivalent AX = P −1 B n’admet pas non plus de solution ; ce qui
vient contredire la proposition 9. Finalement A0 doit être égal à In .
(⇐) On suppose ici A0 = In . D’après le corollaire 2, il existe une matrice P , produit de matrices de transposition et transvection telles que P A = A0 = In . Donc A est inversible, d’inverse P ;ce qui prouve le point
(1). Par ailleurs, la matrice obtenue en faisant subir à In les mêmes OEL que A est P In = P : l’inverse de
A. D’où le point (2).


1 −3 1
Exemple 15 : On cherche à déterminer, s’il existe, l’inverse de la matrice A = −1 2 −1.
2 −1 3




1 −3 1 1 0 0
1 −3 1 1 0 0
L2 ←L2 +L1
L3 ←L3 −2L1
 −1 2 −1 0 1 0 
 0 −1 0 1 1 0 
2
−1
L2 ←−L2
L1 ←L1 −L3
3
0
0
1
0
1 −3 1 1
0 0
 0 1 0 −1 −1 0 
0 5 1 −2 0 1


1 0 0 −5 −8 −1
 0 1 0 −1 −1 0  .
0 0 1 3
5
1

Comme A0 = I3 , la proposition

−5
A−1 = −1
3

L1 ←L1 +3L2
L3 ←L3 −5L2

5
1 0 1
 0 1 0
0 0 1
1 −2
−2
−1
3
précédente assure que A est inversible, d’inverse

−8 −1
−1 0  = T13 (−1)T12 (3)T32 (−5)D2 (−1)T21 (1)T31 (−2).
5
1
0
−3
−1
5
1

0
0 
1
INTRODUCTION À L’ALGÈBRE LINÉAIRE
13
Remarque 4 : Inverser une matrice revient à résoudre (simultanément) 3 systèmes linéaires : AXi = Bi ,
i = 1, 2, 3 où Xi est la ie colonne de A−1 et Bi est le vecteur colonne qui a des 0 partout sauf un 1 en position
i.
4. Déterminant
Dans cette partie encore, toutes les matrices considérées sont carrées.
4.1. Motivation : le cas des matrices 2 × 2.
a b
∈ M2 (K)
c d
est inversible si et seulement si ad − bc 6= 0. Le nombre ad − bc est appelé le déterminant de M et se note
det(M ). De plus, l’inverse de M est dans ce cas donné par
1
d −b
−1
M =
.
ad − bc −c a
Proposition 14 (Déterminant d’une matrice carrée de taille 2) : Un matrice M =
Démonstration. Calculons
a b
d −b
ad − bc
0
=
= (ad − bc)I2 .
c d
−c a
0
ad − bc
(⇐) Par conséquent, si ad − bc 6= 0, on peut diviser par ad − bc et M est inversible.
a b
d −b
(⇒) Réciproquement, si ad − bc = 0, alors
= 0 · I2 = 0. Supposons donc par l’absurde
c d
−c a
que M est inversible. Alors en multipliant cette égalité par M −1 à gauche, on obtient
d −b
= 0,
−c a
c’est-à-dire a = b = c = d = 0 et donc M = 0 : contradiction car on a supposé M inversible, donc non nulle.
Ainsi on a bien montré ad − bc = 0 ⇒ M non inversible.
4.2. Définition.
Question : Généralisation aux matrices de tailles n × n ?
Définition 14 (Déterminant, mineur, cofacteur) : Soit A ∈ Mn (K). On appelle déterminant de A, et on
note det(A), le scalaire défini de la manière suivante :
– si n = 1 et A = (a), on pose det(A) = a,
– si n > 1, A = (aij )1≤i,j≤n , on pose
det(A) =
n
X
(−1)i+1 ai1 ∆i1 ,
i=1
où ∆i1 est le déterminant de la matrice de taille (n − 1) × (n − 1) obtenue en enlevant la ie ligne et la
première colonne de A.
Le déterminant ∆i1 est appelé le mineur d’indice (i, 1) de A et (−1)i+1 ∆i1 est appelé le cofacteur d’indice
(i, 1) de A. On note également
a11 a12 · · · a1n a21 a22 · · · a2n det(A) = .
.. ..
. a
ann n1 an2 · · ·
Remarque 5 : On dit que l’on a développé le déterminant de la matrice A par rapport à la première colonne.
a b
Exemple 16 (Cas des matrices 2 × 2) : Soit A =
. Alors
c d
det(A) = a × ∆11 − c∆21 = a det((d)) − c det((b)) = ad − bc
et on retrouve notre précédente définition du déterminant dans le cas des matrices de taille 2.
14
THOMAS RICHEZ

a11
Exemple 17 (Cas des matrices 3 × 3) : Soit A = a21
a31
a12
a22
a32

a13
a23 . Alors
a33
det(A) = a11 ∆11 − a21 ∆21 + a31 ∆31 .
Or d’après l’exemple précédent,
a
= 22
a32
a23 = a22 a33 − a23 a32 .
a33 a
∆21 = 12
a32
a13 = a12 a33 − a13 a32
a33 a
= 12
a22
a13 = a12 a23 − a13 a22 .
a23 ∆11
De même,
et
∆31
Finalement,
det(A) = a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 )
= (a11 a22 a33 + a21 a32 a13 + a31 a12 a23 ) − (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 ).
C’est la règle de Sarrus.
4.3. Quelques propriétés.
Lemme 5 (Déterminant d’une matrice triangulaire) : Le déterminant d’une matrice triangulaire A est égal
au produit des coefficients diagonaux de A.
Démonstration. On raisonne par récurrence sur le nombre n de lignes (et de colonnes) de la matrice
A.
Initialisation : Le résultat est clair lorsque n = 1 et 2.
Hérédité : Supposons le résultat démontré pour les matrices triangulaires d’une certaine taille fixée n − 1
(avec n ≥ 2) et montrons le résultat pour les matrices de taille n. Soit A = (aij ) ∈ Mn (K) triangulaire.
(Premier cas) Si A est triangulaire supérieure, puisque akl = 0 pour tout k > l, il vient par définition
du déterminant det A = a11 ∆11 . Or ∆11 est un déterminant d’une matrice triangulaire supérieure de
taille n − 1 : on peut donc appliquer l’hypothèse de récurrence : ∆11 = a22 a33 · · · ann et conclure que
det A = a11 · · · ann .
(Deuxième cas) Si A est triangulaire inférieure, alors pour tout i ≥ 2, ∆i1 est le déterminant d’une
matrice triangulaire inférieure dont la première ligne est nulle. Par hypothèse de récurrence, tous ces
déterminants sont nuls et là encore il ne reste que
det A = a11 ∆11 = a11 a22 · · · ann .
Dans les deux cas, la propriété est héréditaire. Etant vraie aux rangs n = 1, 2 elle est vraie pour tout n ∈ N∗
par principe de récurrence.
Proposition 15 (Propriétés du déterminant) : Pour tout A, B ∈ Mn (K), pour tout a, λ ∈ K, et pour tout
1 ≤ i 6= j ≤ n, on a
(1) det(Di (a)) = a, det(Tij (λ)) = 1, et det(In ) = 1,
(2) Multiplicativité du déterminant : det(AB) = det(A)det(B),
(3) det(λA) = λn det(A),
(4) det(Di (a)A) = a · det(A) et det(Tij (λ)A) = det(A),
(5) si une ligne de A est nulle, alors det(A) = 0,
(6) si deux lignes de A sont égales, alors det(A) = 0,
(7) si on échange deux lignes de A, alors le déterminant est multiplié par −1.
INTRODUCTION À L’ALGÈBRE LINÉAIRE
15
(1) Conséquence directe du lemme 5.
Démonstration.
(2) Admise.
(3) λA = D1 (λ)D2 (λ) · · · Dn (λ)A. D’après le point (2) et le point (1), on en déduit que
det(λA) = det (D1 (λ)D2 (λ) · · · Dn (λ)A)
= det(D1 (λ)) det(D2 (λ)) · · · det(Dn (λ)) det(A)
= λn det(A).
(4) Conséquence immédiate de (1) et (2).
(5) Si la ie ligne de A est nulle, alors Di (−1)A = A. Ainsi, par (4),
− det(A) = det(Di (−1)A) = det A,
ce qui est équivalent à ce que det A = 0.
(6) Si Li = Lj pour i 6= j, alors Tij (−1)A a sa ie ligne nulle. Par conséquent les points (4) et (5)
montrent que
det A = det(Tij (−1)A) = 0.
(7) Admise.
Remarque 6 : La propriété (4) montre que l’on ne change pas le déterminant en ajoutant à une ligne une
combinaison linéaire des autres lignes mais attention multiplier une ligne par un coefficient a multiplie le
déterminant de la matrice par a également !
Signalons aussi sans plus de détails la chose suivante. Nous avons choisi de définir le déterminant à
partir du développement selon la première colonne. Il se trouve qu’on peut développer le déterminant selon
n’importe quelle ligne/colonne. C’est cela qu’exprime la proposition suivante.
Proposition 16 : Supposons n ≥ 2. Soit A = (aij ) une matrice de Mn (K). Si ∆kl est le mineur d’indice
(k, l), ie. le déterminant de la matrice de Mn−1 (K) obtenue à partir de A en ayant supprimé la ligne k et la
colonne l, alors pour tous entiers i, j ∈ {1, 2, . . . , n}, on a
det A =
det A =
n
X
(−1)i+k aik ∆ik
k=1
n
X
(−1)j+k akj ∆kj
(développement selon la ie ligne)
(développement selon la j e colonne)
k=1
Le théorème qui suit permet de caractériser simplement l’inversibilité d’une matrice en termes de déterminants.
Théorème 4 (Critère d’inversibilité) : Soit A ∈ Mn (K). Alors A est inversible si et seulement si det(A) 6=
0.
Démonstration. (⇒) Si AB = In pour une certaine matrice B ∈ Mn (K), alors
det(A) det(B) = det(AB) = det(In ) = 1.
En particulier det A 6= 0 (et det B également).
(⇐) Par contraposée : supposons que A n’est pas inversible et montrons que det A = 0. Dans ce cas, la
proposition 13 montre que la matrice échelonnée de A, A0 6= In . Nécessairement, la dernière ligne de A0 doit
donc etre nulle (cf. Lemme 4). En particulier det A0 = 0 par la proposition précédente. Or P A = A0 pour une
certaine matrice inversible P , donc de déterminant non nul par la première partie de la preuve. Finalement,
0
{zP} det A = det(P A) = det A = 0.
|det
6=0
16
THOMAS RICHEZ
Donc det A = 0 nécessairement. On a donc montré
A non inversible
=⇒
det A = 0.
Par contraposée, det A 6= 0 ⇒ A inversible. D’où l’équivalence.
Le déterminant permet donc de caractériser les matrices inversibles.
Proposition 17 : Pour A ∈ Mn (K), on a
det(A) = det(t A).
Démonstration. Si n = 1, alors t A = A, donc trivialement det(t A) = det A. Supposons donc n ≥ 2.
Si A est une matrie élémentaire de la forme Di (a), alors t A = A et là encore le résultat est vrai. Si A est
de la forme Tij (λ), t A = Tji (λ) et det(t A) = det A = 1. Dans le cas où A est inversible, on décompose A en
produit de matrices élémentaires et le résultat découle de la multiplicativité du déterminant et des premiers
cas étudiés dans cette preuve. Enfin, si A est non inversible, t A l’est également. Le théorème précédent prouve
alors que det(t A) = det A = 0. Dans tous les cas, la proposition est vraie.
Une conséquence importante de cette proposition est que toutes les propriétés du déterminant énoncées
pour les lignes restent valables pour les colonnes. Ainsi, par exemple, on ne change pas la valeur du déterminant
en ajoutant à une colonne une combinaison linéaire des autres.
4.4. Utilisation du déterminant.
Exemple 18 : Soient a, b, c des
 nombres réels. Pour quelles valeurs du nombre réel m existe-t-il des nombres


mx − y + z = a
réels x, y, z uniques tels que −x + my + z = b ?


x + y + mz = c
Demander l’existence et l’unicité des réels, x, y, z se reformule en terme d’existence et d’unicité des


m −1 1
solutions du système linéaire donné ou encore en terme d’inversibilité de la matrice A = −1 m 1 .
1
1 m
Utilisons donc la caractérisation de l’inversibilité à l’aide du déterminant. On s’est ramené à répondre à la
question :
Pour quelle(s) valeur(s) de m a-t-on det(A) 6= 0 ?
On a
m −1 1 0 −1 − m 1 − m2 −1
1 L2 ←L2 +L3 m
L
←L
−mL2
1
1
0 m + 1 m + 1
0 m + 1
det A = −1 m 1 =
=
m + 1 .
1
1
1
1 m
1
m 1
m En développant par rapport à la première colonne, il vient
−1 − m 1 − m2 2 −1
det A = = (m + 1) m+1
m+1
1
1 − m
= (m + 1)2 (m − 2).
1 Le système admet donc une unique solution si et seulement si m 6= −1 et m 6= 2.
Donnons à présent une application du déterminant au calcul d’inverse de matrices.
Définition 15 (Comatrice) : Soit A = (aij ) une matrice de Mn (K), où n ≥ 2. Notons ∆ij le déterminant
de la matrice de taille n − 1 × n − 1 obtenue en ayant supprimé la ie ligne et la j e colonne. On appelle cofacteur
de aij le nombre (−1)i+j ∆ij .
La comatrice de A est la matrice de Mn (K)
Com(A) = ((−1)i+j ∆ij )1≤i,j≤n .
INTRODUCTION À L’ALGÈBRE LINÉAIRE
17
Proposition 18 : Supposons n ≥ 2. Si A est une matrice de Mn (K), alors on a
t
Com(A)A = At Com(A) = (det A)In .
En particulier, si A est une matrice inversible, on a la formule
A−1 =
1 t
Com(A).
det A
Cette formule permet de retrouver immédiatement l’expression de l’inverse d’une matrice de taille 2 × 2.
On termine ce chapitre en donnant simplement une méthode de calcul des solutions pour les systèmes
inversibles.
Proposition 19 (Formules de Cramer) : Soit AX = B l’écriture matricielle d’un système linéaire (A ∈
Mn (K)). Si A est inversible, alors le système admet une unique solution (A−1 B). On peut la calculer en
utilisant les formules de Cramer suivantes. Si on note t (x1 x2 . . . xn ) l’unique solution, alors
xi =
où Ai s’obtient en remplaçant

3 −2
Exemple 19 : A = 1 2
4 −3
On a
det(Ai )
det(A)
la ie colonne de A par B.

 
2
5
−1 et B = 2.
1
1
det A = 3 · 2 − 3 · 2 + 4 · (−2) · (−1) − 4 · 2 · 2 − (−3) · (−1) · 3 − (−2)
= 6 − 6 + 8 − 16 − 9 + 2
= −15 6= 0.
Par conséquent A est inversible et
vérifiant
5
1 x1 =
2
det A 1
3
1 x2 =
1
det A 4
3
1 x3 =
1
det A 4
le système linéaire associé à A admet une unique solution (x1 , x2 , x3 )
2 10 − 12 + 2 − 4 − 15 + +4
−15
=
=1
−1 =
−15
−15
1
5 2 6 + 2 − 20 − 16 + 3 − 5
−30
=
=2
2 −1 =
−15
−15
1 1
−2 5
−45
6 − 15 − 16 − 40 + 18 + 2
=
=3
2 2 =
−15
−15
−3 1
−2
2
−3
Remarque 7 : L’intérêt des formules de Cramer est surtout théorique. En effet cette méthode nécessite le
calcul de plusieurs déterminants, qui peuvent être très lourds à mener plus le système est grand. Ainsi, en
pratique, pour résoudre un système 2 × 2, on pourra penser à utiliser la formule explicite de l’inverse des
matrices de taille 2 et pour les systèmes plus grands, on appliquera généralement la méthode de Gauss en
faisant des OEL.
Téléchargement