Matrices - BCPST Hoche

publicité
Chapitre 6
Matrices
– Connaître les opérations sur les matrices : addition, multiplication, transposition,
etc.
– Savoir utiliser la formule de Newton sur les matrices.
– Connaître les propriétés des matrices carrées, symétriques, scalaires, diagonales et
triangulaires.
– Avoir fait quelques exercices type (diagonalisation, calcul de puissances et d’inverse).
– Connaître le lien entre effectuer des opérations élémentaires et multiplier par certaines matrices particulières.
– La méthode de remontée.
– Introduire les notations utiles pour la suite ainsi que faire le lien entre système
linéaire et matrices.
\
=
$
CC
BY:
I
Introduction : définitions
Dans tout le chapitre, la lettre K désigne R ou C. Les éléments de K sont appelés les scalaires (par
opposition aux vecteurs), et sont traditionnellement notés avec des lettres grecques.
I.1
Rappel sur Kn
Définition 1. L’ensemble Kn est l’ensemble des n-uplets, c’est-à-dire des éléments de la forme : x =
(x1 , · · · , xn ), où les xi ∈ K. Les xi sont appelés les composantes du vecteur x.
Deux vecteurs sont égaux si et seulement si ils ont le même nombre d’éléments et que tous leurs éléments
sont égaux.
Dans cet ensemble, on peut ajouter des éléments x et x′ en ajoutant composante par composante :
x + x′ = (x1 , · · · , xn ) + (x′1 , · · · , x′n ) = (x1 + x′1 , · · · , xn + x′n ).
(on parle d’addition interne).
On peut aussi multiplier un vecteur x par un scalaire λ i.e. un élément de K, en multipliant toutes les
composantes :
λx = λ(x1 , · · · , xn ) = (λx1 , · · · , λxn ).
(on parle de multiplication externe).
1
2
CHAPITRE 6. MATRICES
On ne peut pas multiplier des vecteurs, mais il existe le produit scalaire entre deux vecteurs x et x′ :
x · x′ = (x1 , · · · , xn ) · (x′1 , · · · , x′n ) =
n
X
xi x′i
i=1
Ce produit scalaire associe à deux vecteurs un scalaire i.e. un élément de K.
Ensemble des matrices Mp,q (K)
I.2
Définition 2. Une matrice A à p lignes et q colonnes à coefficients dans K est un tableau de p×q éléments
(ai,j )i=1···p, j=1···q .
C’est donc :


a11 a12 · · · a1q


a21 a22 · · · a2q 

A= .
..
..
.. 

 ..
.
.
. 
ap1 ap2 · · · apq
Une matrice est donc déterminée par ses dimensions p et q, et par ses p × q coefficients (qui sont
éléments de K).
Deux matrices A et B sont égales si elles ont mêmes dimensions, et si elles ont les mêmes coefficients,
i.e. ∀i ∈ [[1, p]] , j ∈ [[1, q]] , Aij = Bij .
On note Mp,q (K), l’ensemble des matrices de taille p par q.
Note: Dans les matrices, le 1er indice est l’indice de ligne, le suivant, l’indice de colonne.
Exemple: !
1 2 3
–
∈ M2,3 (R)
4 5 6
!
1 i
–
∈ M2,2 (C)
−i 5


···
···
···
···
n
n


n

.
n

2 3


– La matrice de taille (3 × 2) telle que ai,j = i + j est : 3 4 ∈ M3,2 (R)
4 5
Une matrice de taille n (entier générique) est représenté en donnant ses éléments, par exemple : Aij =
max(i, j), ou bien en donnant sa forme générale en utilisant · · · , ici :

1

2

3

A = 4

.
.
.
2
2
3
4
..
.
3
3
3
4
..
.
n n n
4
4
4
4



n
··· n
On utilise aussi souvent la convention que les termes non écrits sont nuls.
Enfin, les vecteurs de Kn peuvent s’identifier au vecteur colonne de Mn,1 (K) ou au vecteur ligne
M1,n (K).
II
II.1
Opération sur les matrices
Addition de matrices
Définition 3. Soient A et B deux matrices de même taille p, q, la matrice A + B est définie comme la
matrice de taille p, q, telle que : ∀i ∈ [[1, p]] , ∀j ∈ [[1, q]] , (A + B)ij = Aij + Bij .
II. OPÉRATION SUR LES MATRICES
3
L’addition de deux matrices correspond donc à l’addition dans Kp×q , i.e. l’addition élément par élément.
C’est encore l’addition interne : à deux matrices de taille (p, q) on associe une matrice de taille (p, q).
Attention, on ne peut ajouter que des matrices de même taille.
Proposition 1. On a les propriétés classiques de l’addition : pour trois matrice A, B et C ∈ Mp,q (K)
– l’addition est commutative : A + B = B + A
– l’addition est associative : A + (B + C) = (A + B) + C
– si on note 0pq la matrice de taille p, q dont tous les éléments sont nuls, on a : A + 0pq = 0pq + A = A.
Démonstration. C’est l’addition dans Kp×q , donc cela hérite des propriétés de l’addition.
Note: Puisque l’addition est commutative, on peut donc utiliser la notation
Exemple:
"
#
"
#
"
1 i
2i 3i
1 + 2i
4i
+
=
−i 5
0 5i
−i
5 + 5i
#
X
.
Il faut aussi être capable d’additionner des matrices écrites avec des · · · comme :

0 1
0
···
. .
.. 1 0 · · ·
 ..

.
..
..
.
.
.
.
.
..
.
.
. 0
0 ···
···
II.2




0 1
0
···
0
··· 0
 
 
.
.
. . 0 · · · 0 1 . . 1 0 · · ·

0
 
 1
 
 
..
..
.. .. ..

+
.
.
.
.
. 
 = 0 1
 0
 .
 .
..
..
 .
 .
.
. 0  . 0
1
1
1  . 0
0 ··· 0
1
0 ··· 0
1 0
0
0
0
0


0


0



1
0
Multiplication par un scalaire
Définition 4. Soient A une matrice de Mp,q (K) et λ ∈ K, on appelle λA la matrice de Mp,q (K), définie
par ∀i ∈ [[1, p]] , j ∈ [[1, q]] , (λA)ij = λAij .
Ici encore, c’est la simple multiplication d’un vecteur par un scalaire, on retrouve la multiplication
externe de Kn .
Note: De plus, on peut maintenant parler de différence entre matrices, comme A + (−B).
Proposition 2. On a les propriétés classiques : soient A et B deux matrices de Mp,q (K)
– α(βA) = (αβ)A,
– (α + β)A = αA + βA,
– α(A + B) = αA + αB.
Démonstration. Encore une fois il n’y a rien à démontrer : ce sont les mêmes propriétés pour Rp×q
Note:
– Attention dans l’écriture (α + β)A = αA + βA, les + n’ont pas le même sens : cela peut être une addition dans
K, ou dans Mp,q (K)
– Avec ces propriétés, on a donc :
!
n
n
n
n
X
X
X
X
αAk = α
Ak , et aussi
(αk A) =
αk A,
k=1
où le symbole
Exemple:
P
k=1
k=1
k=1
a un sens différents selon si c’est une somme de matrices ou de scalaires.
"
#
"
x y z
λx λy λz
λ
=
u v w
λu λv λw
#
4
CHAPITRE 6. MATRICES
II.3
Produit matriciel
On quitte maintenant l’aspect purement vectoriel des matrices en ajoutant le produit de matrices.
Définition 5. Soient A ∈ Mp,q et B ∈ Mq,r On définit le produit de A par B comme la matrice C de
taille p, r telle que :
∀i ∈ [[1, p]] , ∀r ∈ [[1, r]] , Ci,j =
q
X
Ai,k Bk,j
k=1
Remarque:
– On ne peut pas faire le produit de n’importe quelle matrice par une autre : il faut que les dimensions
soient compatibles, il faut qu’il y ait une dimension en commun (celle sur laquelle on fait la somme).
En particulier, ce n’est pas parce que le produit AB est défini que le produit BA est défini.
– On conserve le même nombre de lignes que la première et on prend le nombre de colonne de la
seconde : si A ∈ Mp,q et B ∈ Mq,r , on a AB ∈ Mp,r .
– L’élément (AB)ij est donc le produit scalaire de la ligne i de A et de la colonne j de B. D’une
manière générale, on fait toujours le produit d’une ligne par une colonne.
Exemple:


#
"
# 1 2
"
a + 3b + 5c 2a + 4b + 6c
a b c 

3 4 =
d + 3e + 5f 2b + 4e + 6f
d e f
5 6
Pour faire un produit matriciel, on utilise souvent la technique le produit ainsi :

1

3
# "5
"
12
1 2 1
18
2 2 2
Remarquons qu’en particulier :
"
a b
c d
Donc le système d’équations linéaire
(
#" #

2

4
6 #
16
24
"
x
ax + by
=
y
cx + dy
#
ax + by = x0
bx + cy = y0
peut s’écrire comme une équation matricielle : AX = X0 , avec X =
!
a b
A=
la matrice (2 × 2) des coefficients, et X0 =
c d
le produit matriciel.
x0
y0
!
!
x
le vecteur (colonne) des inconnues,
y
le vecteur de second membre, ce qui motive
Proposition 3. Résoudre le système :
(S)


a11 x1 + . . . a1p xp





 a21 x1 + . . . a2p xp
..
.






a x + . . . a x
n1 1
np p
= b1
(l1 )
= b2
.
= ..
(l2 )
= bn
(ln )
II. OPÉRATION SUR LES MATRICES
5

a11

 a21
d’inconnue (x1 , . . . , xn ) revient à résoudre l’équation : AX = B, d’inconnue X ∈ Mn1 avec A = 
 ..
 .
Mnp

b1

 
 b2 

la matrice des coefficients, B = 
 ..  ∈ Mn1
.
bn
le vecteur (colonne) des inconnues.
a12
a22
..
.
an1 an2
 
x1
 
 x2 

le vecteur (colonne) du second membre. et X = 
 .. 
 . 
xn
Proposition 4. Certaines propriétés classiques de la multiplication sont conservées mais attention pas
toutes (commutativité et intégrité).
– Associativité : Soient A ∈ Mp,q , B ∈ Mq,r , et C ∈ Mr,s , ( i.e. telles que (AB)C ait un sens).
On a alors :
(AB)C = A(BC) = ABC
– Distributivité : Soient A ∈ Mp,q , B ∈ Mp,q , et C ∈ Mq,r ( i.e. telles que A(B + C) ait un sens).
On a alors :
A(B + C) = AB + AC.
De même si (A + B)C a un sens alors : (A + B)C = AC + BC.
– Distributivité sur les scalaires : Soient A ∈ Mp,q , B ∈ Mp,q et λ ∈ K, on a alors
(λA)B = A(λB) = λ(AB).
– Soit A ∈ Mpq (K), et r ∈ N, on a alors : A0qr = 0pr et 0rp A = 0rq ,
– Non commutativité : En règle générale AB 6= BA. Dans le cas contraire, on dit que les matrices
commutent.
– Non intégrité : on peut avoir deux matrices A 6= 0 et B 6= 0 et AB = 0, De même, on peut avoir
AB = AC, sans que B = C.
Commençons par les contre-exemples. Pour AB 6= BA :
tandis que
"
0 1
1 0
#"
"
0 −1
1 0
#
"
#
#
"
#
0 −1
1 0
=
1 0
0 −1
#"
0 1
−1 0
=
1 0
0 1
Ainsi les scalaires commutent avec les matrices mais pas les matrices entre elles.
Pour AB = 0 avec A 6= 0 et B 6= 0 :
"
1 −1
1 −1
#"
#
"
1 1
0 0
=
1 1
0 0
#
Démonstration. On commence par l’associativité, soient A ∈ Mp,q (K), B ∈ Mq,r (K), et C ∈ Mr,s (K).
On a : (AB) ∈ Mp,r (K), et (AB)C existe et (AB)C ∈ Mp,s (K). De même (BC) ∈ Mq,s (K), donc
A(BC) existe et A(BC) ∈ Mp,s (K).
Donc les matrices ont la bonne dimension.

· · · a1p
· · · a2p 

.. 
..

. 
.
· · · anp
6
CHAPITRE 6. MATRICES
De plus, d’après les formules du produit matriciel, (AB)ij =
q
X
Aik Bkj , et (BC)kj =
((AB)C)ij =
(AB)il Clj =
l=1
=
=
q
X
r
X
l=1
q
r X
X
l=1 k=1
q
X
Aik
k=1
r
X
Bkl Clj =
{z
(BC)kj
= A(BC)ij
Aik Bkl Clj
q X
r
X
Aik Bkl Clj
k=1 l=1
q
X
Aik (BC)kj
k=1
l=1
|
!
k=1
Aik Bkl Clj =
Bkl Clj donc
l=1
k=1
r
X
r
X
}
Montrons la distributivité. Soient A ∈ Mp,q , B ∈ Mp,q , et C ∈ Mq,r (i.e. telles que A(B + C) ait un
sens).
On a :
[A(B + C)]ij =
=
=
q
X
Aik (B
k=1
q 
X
k=1
q
X
+ C)kj

Aik Bkj + Aik Ckj 
Aik Bkj +
k=1
q
X
Aik Ckj
k=1
= (AB)ij + (AC)ij
Idem de l’autre côté.
Enfin la distributivité sur les scalaires :
(λA)B =
q
X
(λAik )Bkj = λ
k=1
q
X
Aik Bkj =
k=1
q
X
Aik (λBkj ).
k=1
Le dernier point est évident :
(A0)i,j =
q
X
Aik 0kj = 0.
k=1
III
III.1
Matrices carrées
Définition
Définition 6. Une matrice carrée est une matrice qui a le même nombre de lignes et de colonnes. On
note Mp (K) l’ensemble des matrices carrées de taille p. L’intêrét principal de cet ensemble est que le produit
y est bien défini et reste interne, on peut aussi multiplier une matrice carrée par elle-même.
On peut donc toujours multiplier deux matrices carrées de même taille, et ceci dans les deux sens, mais
le produit n’est pas commutatif.
III. MATRICES CARRÉES
7
Définition 7. On appelle matrice identité de taille n, la matrice carrée de Mn (K) notée In qui ne contient
que des 1 sur la diagonale.


1 0 ··· 0 0


0 1 · · · 0 0


.
.. 
..
.

.
In = .
.




..
0
Proposition 5. Cette matrice vérifie :
···
.
0
1




∀A ∈ Mn (K), AIn = In A = A.
Démonstration. On peut le constater en faisant le produit ou simplement écrire :
2
h
∀(i, j) ∈ [[1, n]] , AI
i
i,j
=
n
X
Aij Ikj = Aij ,
k=1
en effet le seul terme non nul est le terme pour k = j.
Remarque:
– Un corollaire important : In commute avec toutes les matrices.
– On dit que la matrice In est l’élément neutre pour la multiplication. Elle joue le même rôle que 1
pour la multiplication des scalaires Attention à ne pas écrire 1 au lieu de In .
Définition 8. Pour n ∈ N, On appelle puissance n-ième d’une matrice A ∈ Mn (K), la matrice An =
AA · · · A. Par convention : A0 = In .
Remarque:
– Calculer une puissance n-ième d’une matrice n’est pas facile. C’est souvent le sujet des exercices.
– sur le commutant d’une matrice : Toute matrice A commute avec elle-même, avec l’identité et
avec An pour tout n. De plus, si A commute avec B et C, alors elle commute avec B + C et BC.
Une conséquence importante est qu’une matrice A commute avec tout polynôme en A, i.e. toute
matrice B qui s’écrit B = a0 In + a1 A + a2 A2 + · · · + an An .
Déterminer l’ensemble des matrices qui commutent avec une matrice A est un exercice classique.
III.2
Formule du binôme
Dans Mn (K), on peut effectuer des calculs algébriques, en prenant garde au fait que deux matrices
ne commutent pas. On a par exemple :
(A + B)2 = A2 + B 2 + AB + BA
et
(A + B)(A − B) = A2 − B 2 − AB + BA
Pour revenir à l’identité classique, il faut que les matrices commutent, i.e. AB = BA. Un cas particulier
où on est sûr qu’il n’y a rien à vérifier est le cas de l’identité (qui commute avec toutes les matrices).
Dans ce cas, on a, par exemple, la formule du binôme de Newton, et les formules de factorisation.
Proposition 6. Soient A ∈ Mn (K), et p ∈ N, on a :
p
(In + A) =
p
X
k=0
!
p k
A
k
(6.1)
8
CHAPITRE 6. MATRICES
On a aussi :
In − An = (In − A)
n−1
X
Ak .
k=0
Si A et B sont deux matrices carrées qui commutent, alors :
p
(A + B) =
p
X
k=0
!
p k p−k
A B
.
k
Note: À chaque fois que la formule en (A + B)n est utilisée, il faut préciser que les matrices commutent.
Démonstration. Les démonstrations sont les mêmes que dans R ou C.
Par exemple :
(In − A)
n−1
X
Ak =
k=0
=
=
n−1
X
k=0
n−1
X
k=0
n−1
X
Ak − A
Ak −
Ak −
k=0
n−1
X
Ak
k=0
n−1
X
Ak+1
k=0
n
X
Ak = In − An .
k=1
Note: On voit en particulier ici l’intérêt d’apprendre la formule de Newton sous la forme (1 + x)n . En effet,
la formule sur (I + A)n est vraie quelque soit la matrice A, tandis que celle sur (A + B)n n’est vraie que si A et B
commute.
La formule du binôme de Newton est particulièrement utile pour calculer la puissance n-ième d’une
matrice A qui s’écrit A = λI + µN , où N est une matrice dont il est facile de calculer la puissance n-ième.
C’est le cas en particulier si la matrice N est nilpotente i.e. si N p = 0 pour un certain p, dans ce cas la
somme 6.1 se réduit à une somme pour k < p. C’est aussi le cas, si la matrice N vérifie N p = λp N , i.e.
s’écrit comme un scalaire multiplié par elle-même. Dans ce cas, on peut écrire la formule 6.1 comme un
scalaire multiplié par N .
Exemple:
"
#
a c
Soit A ∈ M2 (R), qui s’écrit : A =
avec a et b réels.
0 a
On écrit :
"
#
"
#
"
#
"
#
a 0
0 c
1 0
0 1
A=
+
=a
+c
= aI2 + cN
0 a
0 0
0 1
0 0
"
#
0 1
. En calculant, on obtient N 2 = 0. Ainsi on a : ∀n > 2, N n = N n−2 N 2 = 0.
avec N =
0 0
III. MATRICES CARRÉES
9
On obtient alors :
An =(aI + bN )n
=
=
=
n
X
k=0
n
X
k=0
1
X
k=0
!
n
(aI)n−k (bN )k
k
!
n n−k k k
a
b N
k
!
n n−k k k
a
b N
k
car ∀k > 2N k = 0
=an I2 + nan−1 bN
"
#
an nan−1 b
=
.
0
an
"
#
a+b
b
Exemple: Soit A ∈ M2 (R) qui s’écrit : A =
avec a et b réels. On écrit alors :
b
a+b
!
a 0
b b
A=
+
0 a
b b
!
!
1 1
= aI2 + b
= aI2 + bJ,
1 1
!
1 1
avec J =
.
1 1
On obtient facilement J 2 = 2J. Puis, par récurrence, on démontre ∀n ∈ N∗ , J n = 2n−1 J. (Attention la
formule n’est pas vraie si n = 0).
On a alors :
An =(aI + bJ)n
=
n
X
k=0
!
n
(aI)n−k (bJ)k
k
n
=a I2 +
n
=a I2 +
n
=a I2 +
!
n
X
n
(aI)n−k (bJ)k
k
k=1
n
X
k=1
n
X
"
!
n n−k k k−1
a
b 2 J
k
k=1
!
#
n n−k k k−1
J
a
b 2
k
{z
|
}
∈R
Or on a :
n
X
k=1
!
!
"
!
Ainsi :
"
n
#
1
(a + 2b)n − an .
2
1
an + 12 (a + 2b)n − an
A = a I2 + (a + 2b)n − an J =
1
n
n
2
2 (a + 2b) − a
n
#
n
1 X
n n−k
=
a
(2b)k − an
2 k=0 k
=
"
n
n n−k
n n−k k k−1 1 X
a
(2b)k
a
b 2
=
2 k=1 k
k
#
1
n
n
2 (a+ 2b) − a
an + 21 (a + 2b)n − an
10
CHAPITRE 6. MATRICES
III.3
Matrices inversibles
Définition 9. Une matrice A ∈ Mn (K) est dite inversible s’il existe B ∈ Mn (K) telle que AB = BA =
In . La matrice B est alors unique et on la note A−1 .
Note: Par définition pour montrer qu’une matrice A est inversible et que son inverse est B, il suffit donc de
vérifier AB = I et BA = I.
Démonstration. Démontrons que l’inverse est unique en supposant qu’il existe deux inverses B et B ′ vérifiant AB = AB ′ = BA = B ′ A = In . On a alors : B ′ AB = B = B ′ .
Note: Une matrice commute toujours avec son inverse.
Proposition 7. De plus, si AB = AC et A est inversible, alors on a B = C. En particulier, si AB = 0 et
A est inversible, alors B = 0.
Ainsi, une matrice inversible est simplifiable dans une équation.
Démonstration. Cette conséquence est claire : si AB = AC alors en multipliant par A−1 , on a B = C.
Note: En fait, on peut démontrer qu’il suffit que AB = In pour avoir BA = In . Voir le programme de seconde
année pour cela.
Exemple: Soit une matrice A telle que A2 = αA + βI. On a alors :
A2 − αA = βI
et donc
A(A − αI) = βI et (A − αI)A = βI
Si β 6= 0, on peut alors écrire :
A
1
(A − αI) = I et
β
1
(A − αI) A = I.
β
Ainsi, la matrice A est inversible, et A−1 = β1 (A − αI).
Si β = 0, on a :
A(A − αI) = 0.
Ainsi, il y a deux solution : soit A n’est pas inversible, soit A = αI (avec dans ce cas forcément α 6= 0).
Proposition 8. Soient A B deux matrices carrées de taille n inversible, alors (AB) est inversible avec
(AB)−1 = B −1 A−1 . En particulier, (A−1 )n = (An )−1 , ce qui permet de définir la puissance négative d’une
matrice inversible.
Démonstration. Pour démontrer que (AB) est inversible d’inverse B −1 A−1 , il suffit de former les deux
produits :
(AB)B −1 A−1 = AA−1 = In
et B −1 A−1 (AB) = BB −1 = In
Note:
– La matrice 0 n’est évidement pas inversible, (on peut par exemple le démontrer en remarquant qu’elle n’est
pas simplifiable dans l’équation 0A = 0).
– La somme de matrices inversibles n’est évidement pas inversible (dans le cas général), par exemple pour toute
matrice A, A + (−A) = 0 n’est pas inversible.
– Si A est inversible et λ 6= 0, alors (λA) est inversible d’inverse λ1 A−1 .
IV. TRANSPOSITION, MATRICES SYMÉTRIQUES ET ANTISYMÉTRIQUES
IV
IV.1
11
Transposition, matrices symétriques et antisymétriques
Transposition
Définition 10. Soit A ∈ Mpq On appelle transposée de A, la matrice t A ∈ Mqp , telle que
∀i ∈ [[1, q]] , ∀j ∈ [[1, p]] ,
t
A
ij
= Aji .
Autrement dit, les lignes de t A sont les colonnes de A.
Note: La transposée a une interprétation mathématique dans le programme de seconde année.
Exemple:
t

"
#
1 2
1 3 5


3 4 =
2 4 6
5 6
Proposition 9. On a les propriétés suivantes :
transposé de transposé Pour toute matrice A ∈ Mpq , on a t ( t A) = A,
transposé d’une somme Pour toutes matrices A et B ∈ Mpq , on a t (A + B) = t A + t B
transposé d’un produit Pour toutes matrices A ∈ Mpq et B ∈ Mqr , on a t (AB) = t B t A,
transposé d’une puissance Pour toute matrice A ∈ Mp , on a : ∀n ∈ N, t (An ) = (t A)n , que l’on note
simplement t An .
transposé de l’inverse Pour toute matrice A ∈ Mp inversible, on a : t A est inversible et (t A)−1 =
t
(A−1 ).
Démonstration. Les deux premiers points sont évidents.
Démontrons la propriété sur le produit. Soient A ∈ Mpq et B ∈ Mqr deux matrices. On a :
t
(AB)ij = (AB)ji =
q
X
Ajk Bki
k=1
=
q
X
(t A)kj (t B)ik =
k=1
t t
q
X
t
Bik t Akj
k=1
= ( B A)ij
La relation ∀n ∈ N, t (An ) = (t A)n , se démontre alors par récurrence en utilisant la propriété précédente.
Soit A inversible, la matrice t (A−1 ) existe alors et
t
A t (A−1 ) = t (A−1 A) = In
et
t
(A−1 ) t A = t (AA−1 ) = In
Ce qui démontre que t A est inversible et la relation (t A)−1 = t (A−1 ).
IV.2
Matrices symétriques et antisymétriques
En conséquence de la transposition, on définit
Définition 11. Soit A ∈ Mp une matrice carrée. On dit que A est une matrice symétrique si t A = A,
tandis qu’on dit qu’une matrice A est antisymétrique si t A = −A.
12
CHAPITRE 6. MATRICES




0
1 2
1 2 3




Exemple: La matrice 2 4 5 est symétrique, tandis que la matrice : −1 0 3 est antisymé−2 −3 0
3 5 6
trique.
Note:
– Une matrice antisymétrique vérifie donc ∀i ∈ [[1, p]] , Aii = 0, i.e. les coefficients diagonaux sont nuls.
– La seule matrice symétrique et antisymétrique est la matrice nulle.
– On note Sn (K) (resp. An (K)) l’ensemble des matrices symétriques (resp. antisymétriques).
Proposition 10. Pour les matrices symétriques, on a :
– Si A et B sont symétriques, A + B est symétrique, i.e. la somme de deux matrices symétriques est
une matrice symétrique.
– Si A et B sont symétriques et si A et B commutent, alors AB est aussi symétrique.
– En particulier, si A est une matrice symétrique, alors ∀n ∈ N, An est une matrice symétrique.
– Si A est une matrice symétrique, et A inversible, alors A−1 est une matrice symétrique.
Pour les matrices antisymétrique, la situation est plus complexe, on a :
– Si A et B sont antisymétriques, A + B est antisymétrique, i.e. la somme de deux matrices antisymétriques est une matrice antisymétrique.
– Par contre, le produit de deux antisymétriques n’est pas, dans le cas général, antisymétrique même
si les matrices commutent. De même la puissance n-ième d’une matrice antisymétrique n’est pas
antisymétrique.
– Si A est une matrice antisymétrique, et A inversible, alors A−1 est une matrice antisymétrique.
Démonstration. Pour la première partie, soient A et B deux matrices symétriques, on a alors :
– t (A + B) = t A + t B = A + B, donc A + B est symétrique.
– t (AB) = t B t A = BA = AB, donc AB est symétrique (si les matrices commutent).
– En raisonnant par récurrence on obtient alors : ∀n ∈ N, t (An ) est symétrique.
i−1
h
– Si A est inversible et symétrique, alors on a t (A−1 ) = t A
= A−1 , donc l’inverse de A est aussi
symétrique.
Pour la deuxième partie, soient A et B deux matrices antisymétriques, on a alors :
– t (A + B) = t A + t B = −A − B = −(A + B), donc A + B est antisymétrique.
– Si A est inversible et antisymétrique,
de A est aussi antisymétrique.
Pour les contre-exemples :
1
2
alors on a t (A−1 ) =
!
2
3
1 3
3 2
!
h
t
i−1
A
7 7
=
11 12
h
i−1
= −A
= −A−1 , donc l’inverse
!
(donc le produit de deux matrices symétriques n’est pas toujours symétriques).
0 1
−1 0
!
!
0 2
=
−2 0
!
0 2
−2 0
!
0 1
=
−1 0
−2 0
0 −2
!
donc le produit de deux matrices antisymétriques n’est pas antisymétrique, même si les matrices commutent.
On a aussi :
!
!2
−1 0
0 1
=
n’est pas antisymétrique.
0 −1
−1 0
Application 1 Montrer que toute matrice A s’écrit de manière unique comme la somme d’une matrice
symétrique et d’une matrice antisymétrique.
IV. TRANSPOSITION, MATRICES SYMÉTRIQUES ET ANTISYMÉTRIQUES
Application 2
est symétrique.
IV.3
13
Déterminer les conditions pour que deux matrices A et B antisymétriques vérifient AB
Trace
Cette partie est hors programme, il s’agit d’un exercice classique à savoir refaire.
La trace est une application à connaître :
Définition 12. Soit une matrice A ∈ Mn (K), les coefficients diagonaux de A sont les n réels : Aii .
On appelle trace de A, le réel T r(A) =
n
X
Akk , i.e. la trace est la somme des éléments diagonaux.
k=1
Note: On peut aussi parler de coefficients diagonaux d’une matrice non carrée et de sa trace, dans ce cas, en
considérant les élément Akk .
Proposition 11. On a les propriétés :
– ∀A, B ∈ Mn (K), ∀λ ∈ K,
T r(A + B) = T r(A) + T r(B),
T r(λA) = λT r(A).
et
– ∀A, B ∈ Mn (K), T r(AB) = T r(BA).
t
– ∀A ∈ Mn (K), T r( AA) =
n
X
A2ij ( i.e. la somme des carrés de tous les coefficients). En particulier,
i,j=1
T r(t AA) = 0 si et seulement si A = 0.
Démonstration. Soit A et B deux matrices, alors on a : ∀i ∈ [[1, n]], (A + B)ii = Aii + Bii , donc :
T r(A + B) =
n
X
(A + B)ii =
i=1
n
X
Aii +
i=1
n
X
Bii = T r(A) + T r(B).
i=1
De même, pour λ ∈ K,
n
X
T r(λA) =
(λA)ii =
i=1
n
X
λAii = λ
i=1
n
X
Aii = λT r(A).
i=1
Pour le produit, on a :
T r(AB) =
n
X
(AB)ii =
i=1
n X
n
X
Aik Bki =
i=1 k=1
Pour la dernière propriété, on a :
T r(t AA) =
n
X
i=1
(t AA)ii =
n X
n
X
Bki Aik =
k=1 i=1
|
n X
n
X
(BA)kk = T r(BA).
k=1
{z
(BA)kk
}
(t A)ij Aji =
i=1 j=1
n
X
n X
n
X
A2ji .
i=1 j=1
En particulier, cette somme n’est constituée que de termes positifs, donc si elle est nulle c’est que tous
les termes sont nuls, et donc que : ∀(i, j) ∈ [[1, n]]2 , Aij = 0, i.e. tous les coefficients de A sont nuls et donc
A = 0.
Ce résultat est à redémontrer (en l’adaptant) avant de l’utiliser.
14
CHAPITRE 6. MATRICES
V
Matrices particulières
V.1
Matrices scalaires
Définition 13. Soit λ ∈ K. On appelle matrices scalaires, une matrice M ∈ Mp (K) qui s’écrit M = λIn .
Proposition 12. Multiplier par une telle matrice revient alors à multiplier par λ.
Note:
– En particulier, les matrices scalaires commutent avec toutes les matrices.
– Si λ 6= 0, la matrice M = λIn est inversible d’inverse λ1 In .
– De manière évidente, la somme, le produit et l’inverse (si λ 6= 0) de matrice scalaire est une matrices scalaire.
V.2
Matrices diagonales
Définition 14. Une matrice diagonale est une
éléments non nuls sont sur la diagonale.

λ1 0 · · ·

..
0 λ
.

2
Ainsi la matrice A s’écrit : A =  . .
.
.. ...
.
0 ··· 0
matrice A qui vérifie : i 6= j ⇒ aij = 0, i.e. les seuls

0
.. 
.

.

0
λn
Note: On utilise parfois la notation A = diag(λ1 , · · · , λn ).
Proposition 13. On a les propriétés :
– La somme de matrices diagonales est diagonales, avec des coefficients diagonaux obtenus en faisant
la somme des coefficients diagonaux.
Cela s’écrit :

λ1

0

.
.
.
0
0
λ2
..
.
···




··· 0
α1 0


.
..

. .. 
  0 α2
+ .
..
..

. 0
.
  ..
0 λn
0 ···

··· 0
λ1 + α1
0
···
0



.
..
..
.


. .. 
0
λ2 + α2 . .
.
 

=
.
..
..
..
..
 

. 0  .
.
.
0 
0 αn
0
···
0 λn + αn
– Le produit de matrices diagonales est diagonales, avec des coefficients diagonaux obtenus en faisant
le produit des coefficients diagonaux.
Cela s’écrit :

λ1

0

.
.
.
0
0
λ2
..
.
···

··· 0
α1

.. 
..

. .
 0
 .
..

. 0
  ..
0 λn
0
0
α2
..
.
···



··· 0
λ1 α1
0

.. 
..

. . 
λ2 α2
  0
= .
..
..
  .
. 0  .
.
0 αn
0
···
···
0
.. 
..
.
. 

.
..

.
0 
0 λn αn
– Une matrice diagonale est diagonale, si tous les éléments diagonaux sont non nuls. L’inverse est alors
obtenue en inversant les coefficients diagonaux. Cela s’écrit :

λ1

0

.
.
.
0
–
0
λ2
..
.
···
−1
··· 0
.
..
. .. 


..
. 0

0 λn




=


1
λ1
0
..
.
0
0
···
..
1
.
λ2
.. ..
.
.
··· 0

0
.. 
. 



0
1
λn
V. MATRICES PARTICULIÈRES
15
– La puissance p-ième d’une matrice diagonale se calcule facilement : il suffit de mettre les coefficients
diagonaux à la puissance p :

λ1

0

.
.
.
0
Démonstration. Il suffit de le vérifier.
0
λ2
..
.
···
p

··· 0
λp1 0

.
..
 0 λp
. .. 


2
=
.

..
 . ..

. 0
.
.
0 λn
0 ···

··· 0
.
..
. .. 


..
. 0

0 λpn
On retiendra en particulier qu’une matrice diagonale est très facile à inverser, ainsi qu’à mettre à la
puissance n-ième.
Application 1 Soient D une matrice diagonale et P une matrice inversible. Soit une matrice A telle que
A = P DP −1 . Exprimer An en fonction de P , P −1 et D n . (Ce raisonnement par récurrence classique est à
savoir faire. Il faut toujours le refaire dans un écrit de concours).
Proposition 14. Soit A une matrice carré de taille n et D une matrice diagonale de taille n. On note
(λi )i∈[[1,n]] les éléments diagonaux de D, et Li (resp. Ci ) les lignes (resp. les colonnes) de A.
La matrice DA est alors obtenue à partir de A en appliquant à A les opérations : ∀i ∈ [[1, n]], Li → λi Li ,
i.e. chaque ligne de A est multipliée par λi .
La matrice AD est obtenue à partir de A en appliquant à A les opérations : ∀i ∈ [[1, n]], Ci → λi Ci , i.e.
chaque colonne de A est multipliée par λi .
Démonstration. C’est un simple calcul de produits de matrices définies avec des · · · . On peut voir aussi
avec un calcul direct :
n
∀(i, j) ∈ [[1, n]] (DA)ij =
X
k=1
La deuxième relation se montre de la même manière.
V.3
D
ik
|{z}
=0
si
Akj = λi Aij .
i6=j
Matrice triangulaire
Définition 15. Une matrice triangulaire (supérieure) est une matrice carré A de taille n qui vérifie
i > j ⇒ aij = 0. Ainsi, A s’écrit :


a11 a12 · · · a1n

a22 · · · a2n 



A=
.. 
..

.

. 
ann
On définit aussi les matrices triangulaires inférieures.
Note:
– On peut aussi définir les matrices triangulaires strictement inférieures/supérieures en imposant des coefficients
diagonaux nuls.
– La transposé d’une matrice triangulaire supérieure est évidemment une matrice triangulaire inférieure.
Proposition 15. On a les propriétés :
– La somme de deux matrices triangulaires supérieures (resp. inférieures) est triangulaire supérieure
(resp. inférieure).
– Le produit de deux matrices triangulaires supérieures (resp. inférieures) est triangulaire supérieure
(resp. inférieure). De plus, les coefficients diagonaux sont obtenus en faisant le produit des coefficients
diagonaux.
16
CHAPITRE 6. MATRICES
– Une matrice triangulaire supérieure (resp. inférieure) est inversible si et seulement si ses coefficients
diagonaux sont tous non nuls. Dans ce cas, son inverse est aussi supérieure (resp. inférieure). De
plus, les coefficients diagonaux sont alors les inverses des coefficients diagonaux.
Démonstration. Le mieux pour démontrer ces propositions est de le voir en faisant le produit de deux
matrices génériques triangulaires supérieures et de voir que le profil est conservé par somme et produit.
Cela s’écrit avec deux matrices triangulaires supérieures :






a11 + b11 a12 + b12 · · · a1n + b1n
b11 b12 · · · b1n
a11 a12 · · · a1n
 
 

a22 + b22 · · · a2n + b2n 
b22 · · · b2n  
a22 · · · a2n  








..
..  = 
..  + 
..
..
..


.
.
.


.
.  
.  
ann + bnn
bnn
ann
Et :





a11 b11
∗
···
∗
b11 b12 · · · b1n
a11 a12 · · · a1n

 


a
b
·
·
·
∗
b
·
·
·
b
a
·
·
·
a



22 22
22
2n 
22
2n  





.. 
..  = 
..  
..
..
..
.

.
.
.

. 
.  
. 
ann bnn
bnn
ann
Les termes marqués d’une étoile ∗ étant des termes qui sont (sauf exception) non nuls et que l’on ne calcule
pas.
On peut aussi le démontrer en considérant (AB)ij =
n
X
Aik Bkj .
k=1
On a alors pour deux matrices A et B triangulaires supérieures :
– si i > j, on peut écrire : (AB)ij =
j
X
k=1
Aik Bkj +
|{z}
n
X
Aik Bkj = 0, car dans la première somme
|{z}
k=j+1
0
0
i > j > k, donc Aik = 0 et dans la deuxième : k > j donc Bkj = 0. Donc les termes en dessous de la
diagonales sont nuls.
– si i = j, on a : (AB)ii =
i−1
X
k=1
Aik Bkj + Aii Bii +
|{z}
n
X
k=i+1
0
Aik Bki = 0,
|{z}
0
Le fait que l’inverse d’une triangulaire supérieure est triangulaire supérieure n’est pas évident, et se
démontre en utilisant la méthode de remontée.
Note: Si une matrice est triangulaire inférieure stricte, alors elle n’est pas inversible.
⋆
Méthode de remontée
Le grand intérêt des matrices triangulaires est que si A est une matrice triangulaire et B un vecteur
colonne, le système AX = B se résout par méthode de remontée, c’est-à-dire qu’on part de la dernière
ligne et que l’on calcule les inconnues au fur et à mesure, en partant de la dernière.
Soit A une matrice triangulaire supérieure de taille n et inversible, soit B ∈ Mn1 un vecteur colonne.
Le système AX = B d’inconnu le vecteur X ∈ Mn1 s’écrit :





AX = B ⇐⇒ 



a11
··· ···
a22 · · ·
..
.
..
.
an−1 n−1
ann
a2n
..
.

x1
x2
..
.


b1
b2
..
.


 


 


 


 


=


 


 
an−1 n  xn−1  bn−1 

ann
xn
bn
V. MATRICES PARTICULIÈRES
17
Résoudre cette équation matricielle, revient donc à résoudre le système d’inconnues (x1 , . . . , xn ) :


a11 x1 +



















...
...
+ann xn
=
b1
a22 x2 +
..
.
...
..
.
+a2n xn
..
.
=
b2
..
.
=
an−1 n−1 xn−1 + an−1 n xn = bn−1
ann xn
=
bn
Si la matrice A est inversible, alors comme dit dans la proposition 15, ses coefficients diagonaux sont alors
non nuls. Le système a alors une unique solution qui se calcule rapidement :
bn
,
– la dernière ligne donne xn : xn =
ann
– l’avant-dernière ligne s’écrit :
an−1 n−1 xn−1 + an−1 n xn = bn−1 ,
on peut donc en déduire xn−1 sous la forme :
xn−1 =
1
an−1 n−1
(bn−1 − an−1 n xn ) .
Comme xn est déjà calculé, on a bien xn−1 .
– On calcule de même les xi pour i = n . . . 1. La ligne i s’écrit (avec le signe somme) :
n
X
aik xk = bi ,
k=i
ce qui donne xi en utilisant les valeurs déjà calculées de xk pour k > j :


n
X
1 
bi −
aik xk  .
xi =
aii
k=i+1
Application 2 Montrer qu’une matrice s’écrit toujours comme somme d’une diagonale, d’une triangulaire supérieure stricte et d’une triangulaire inférieure stricte.
Application 3
supérieure.
⋆
Montrer que l’inverse d’une matrice triangulaire supérieure de taille 2 × 2 est triangulaire
Algorithme de remontée en Scilab
Voici l’algorithme permettant de résoudre le système AX = b pour une matrice A triangulaire supérieure
et inversible :
function x=resoudRemontee(A,b)
// entrée: A matrice triangulaire supérieure inversible de taille (n,n)
//
b vecteur de taille n
// sortie: x vecteur de taille n solution de AX=b
n=size(A,"r");
x(n)=b(n)/A(n,n); // dernier élément
for i=n-1:-1:1
// on calcule la somme
18
CHAPITRE 6. MATRICES
somme=0;
for k=i+1:n
somme=somme+A(i,k)*x(k); //nb: x(k) est déjà calculé
end
x(i)=(b(i)-somme)/A(i,i);
end
endfunction
Note: L’initialisation du dernier élément à part n’est pas utile : si i = n, la boucle for k=i+1:n ne contient
aucun terme, l’exécution ne rentre alors pas dans cette boucle.
VI
Matrices et systèmes
Comme on l’a vu : résoudre un système linéaire revient à déterminer les solutions d’une équation
AX = B, avec A la matrices des coefficients, B le vecteur du second membre, et X le vecteur des inconnues.
VI.1
Remarques sur l’application X 7→ AX
Le but de cette partie est de montrer par le calcul matriciel, certains résultats que l’on reverra avec plus
de détails dans les chapitres sur les espaces vectoriels (??) et les applications linéaires (??).
Si X est un vecteur colonne de taille n et A ∈ Mn (K), on peut effectuer le produit AX, qui est alors un
vecteur colonne de taille n. Cette opération permets d’associer à la matrice A l’application φA : Kn → Kn
définie par :




y1
x1
 .
 . 
 .
. 
X=
 .  7−→ Y = AX =  . 
yn
xn
On peut ainsi voir A comme une fonction sur Kn .
Définition 16. On appelle l’image du vecteur colonne X ∈ Mn1 par la matrice A ∈ Mn le vecteur colonne
AX.
Proposition 16. On a pour tout X et Y ∈ Mn1 et tout λ ∈ K :
A(X + Y ) = AX + AY
et
A(λx) = λAx.
et
φA (λX) = λφA (X).
Ainsi :
φA (X + Y ) = φA (X) + φA (Y )
Note:
– La fonction φA est donc une application linéaire.
– On peut aussi faire le produit t XA, qui est un vecteur ligne de taille n.
Application 1
Démontrer que φ est injective, si et seulement si φ(X) = 0 =⇒ X = 0.
Définition 17. On appelle ei le vecteur colonne de taille n tel que (ei )j (l’élément j de ce i-ième vecteur)
VI. MATRICES ET SYSTÈMES
19
est nul si i 6= j, vaut 1 sinon. Ainsi :


0
 . 
 . 
 . 




ei = 










 ← ligne i






0
1
0
..
.
0
Ce vecteur s’interprètera plus tard comme le i-ème vecteurs de la base canonique de Rn , pour
l’instant on voit juste que


 
 
 
0
0
1
0
0
1
x1
. X
 
 
 
n
 .. 
1
0
 x2 







+
·
·
·
+
x
+
x
=
x
X=
=
xi ei .
n 
2 .
1 .
 .. 
0
 .. 
 .. 
 . 
i=1
xn
Remarque: Supposons que l’on ait résolu les n équations AX = ei (en supposant que tous ces systèmes
aient une solution). On dispose
  donc de n vecteurs Xi vérifiant AXi = ei .
b1
.
.
Soit maintenant B = 
 .  un second membre d’un système AX = B (donc avec les mêmes coefficients).
bn
Alors on a :
A(
n
X
bi Xi ) =
k=1
n
X
bi AXi =
k=1
n
X
bi ei = B.
k=1
Ainsi, si on a résolu les n systèmes AXi = ei , alors :
– d’une part tous les systèmes AX = B, i.e. avec les mêmes coefficients et un second membre quelconque, ont une solution 1 ,
– de plus une solution est :
bi Xi , i.e. une combinaison linéaire des vecteur (Xi )i∈[[1,n]] avec les poids
k=1
(bi )i∈[[1,n]] .
Application 2
φA (fi ) = ei .
n
X
Démontrer que l’application φA est surjective si et seulement si ∀i ∈ [[1, n]] , ∃fi ∈ Mn1 :
Proposition 17. Soit une matrice A ∈ Mn (K), alors Aei est la colonne i de A. Ainsi, l’image par A du
vecteur ei (i-ième vecteur de la base canonique) est la colonne i de A.
Démonstration. Encore une fois le plus simple est de le démontrer avec une matrice générique, en faisant
le produit à la main :

   
0
a11 · · · a1i · · · a1n
a1i

 .

.
.
. 
0 
 ..

..
..  
  .. 


1 =  
.
 .
  . 
..
.. 
 .

  .. 
.
. 
 .

0
ani
an1 · · · ani · · · ann
0
Sinon on peut voir :
∀j ∈ [[1, n]] , (Aei )j =
n
X
k=1
1. on verra que dans ce cas la solution est unique
Ajk (ei )k = Aji .
20
CHAPITRE 6. MATRICES
Ce qui signifie que la j-ième coordonnée du vecteur (colonne) (Aei ) est l’élément (j, i) de A, ce qui signifie
bien que (Aei ) est la colonne i de A.
Remarque: Au niveau application, si on note pour i ∈ [[1, n]] Ci le vecteur Ci = Aei (Ci est l’image
par A du vecteur ei , mais c’est aussi la i-ième colonne de A). Alors
n
X
∀x ∈ Kn , Ax = A(
xi ei ) =
i=1
n
X
xi Aei =
i=1
n
X
xi Ci .
i=1
Ainsi, l’image d’un vecteur est la combinaison linéaire des images des vecteurs de la base i.e. des colonnes
de A.
On peut aussi voir que si deux matrices A et B vérifient : ∀X ∈ Mn1 , AX = BX, alors A = B
VI.2
Matrices des opérations élémentaires
Le lien entre opérations élémentaires et matrices n’est qu’un outil destiné aux démonstrations du chapitre
7. Il est donc inutile de connaître par cœur toutes les matrices d’opérations élémentaires, seuls la conclusion
finale est importante.
De même les notations utilisés ici ne sont pas standards et ne sont pas à retenir.
Puisque résoudre un système linéaire revient à résoudre un système du type AX = B, avec A la matrice
des coefficients et B le vecteur colonne du second membre. On cherche à faire le lien entre les opérations
sur le système (échange de ligne, combinaison linéaire de lignes, etc.) et la multiplication matricielle.
Pour simplifier, on se restreint à des matrices carrées, i.e. des systèmes avec autant d’équations que
d’inconnues. Les résultats généraux seront donnés au chapitre 7.
Par exemple, soit P la matrice diagonale des éléments (λi )i∈[[1,n]] , on a vu que la matrice P A est obtenue
à partir de A en multipliant chacune des lignes par λi . Or si la matrice si P est inversible, i.e. si ∀i ∈ [[1, n]] ,
λi 6= 0 on a : AX = B ⇔ P AX = P B (si la matrice P n’est pas inversible, on n’a qu’une implication).
On vient donc de démontrer le résultat déjà connu depuis la terminale : en multipliant chacune des lignes
d’un systèmes linéaires par une valeur non nulle, et en faisant la même opération sur le second membre, on
obtient un système équivalent.
Le but de cette partie est d’associer à chaque opérations élémentaires sur les systèmes une matrice.
⋆
Échanger des lignes
Définition 18. Soit 1 6 k < l 6 n, on appelle matrice de permutation des lignes k, l, la matrice Pkl
de taille n égale à l’identité sauf que sur la colonne k le 1 est sur la ligne l et sur la colonne l, le 1 est sur
la ligne k.
Par exemple, si n = 7, k = 2 et l = 5, on a :


1
Pkl








= 



0
1
1
1
1
0
1












1
↑
ck
↑
cl
← lk
← ll
VI. MATRICES ET SYSTÈMES
21
Cette définition provient de :
Proposition 18. Soit A une matrice de taille n, alors P A est la matrice de taille n égale à A sauf qu’on
a échangé la ligne k et l.
Démonstration. sur un exemple

1













a11

 a21
0
1

 a31
1


 a41
1

 a51
1
0


1  a61
a71
1
a12
a22
a32
a42
a52
a62
a72
a13
a23
a33
a43
a53
a63
a73
a14
a24
a34
a44
a54
a64
a74
a15
a25
a35
a45
a55
a65
a75


a11
a17
 
a27  a51
 

a37 
 a31
 
a47  = a41
 

a57 
 a21
 
a67  a61
a71
a77
a16
a26
a36
a46
a56
a66
a76
a12
a52
a32
a42
a22
a62
a72
a13
a53
a33
a43
a23
a63
a73
a14
a54
a34
a44
a24
a64
a74
a15
a55
a35
a45
a25
a65
a75
a16
a56
a36
a46
a26
a66
a76

a17

a57 

a37 


a47 

a27 


a67 
a77
Note: On pourra retenir en particulier que P est obtenue à partir de l’identité, en appliquant à l’identité
les changements de lignes : pour retrouver la matrice Pkl on applique donc l’opération associée à l’identité, car :
Pkl = Pkl In .
Proposition 19. Les matrices Pkl sont inversibles et leurs inverses sont elles mêmes.
En conséquence, on ne conserve l’équivalence des systèmes en inversant deux lignes.
Démonstration. En effet, l’opération inverse d’échanger les lignes k et l est de les échanger à nouveau, donc
Pkl est inversible et Pkl −1 = Pkl .
Note:
– Lorsqu’on manipule les matrices P , il est important de garder en tête leur interprétation en termes d’opérations
élémentaires.
– Si Pk′ l′ et Pkl sont deux matrices avec 4 indices distincts, alors ces matrices commutent. Cela signifie que si on
change les lignes k et l et k ′ et l′ , si les 4 indices sont distincts, alors peu importe l’ordre de ces opérations.
⋆
Multiplier une ligne par un scalaire β
Définition 19. On appelle matrice Mi (β), où β est un nombre réel, une matrice de taille n égale à l’identité,
sauf que l’élément i, i est remplacé par β. Ces matrices sont appelées matrices de multiplication de la
ligne i par β.
Par exemple si n = 8, M4 (β) est :


1
Cette définition provient de







M4 (β) = 







1
1
β
1
1
1
1






 ← li








Proposition 20. Soit A une matrice de taille n, alors Mi (β)A est la matrice obtenue en multipliant la
ligne i de A par β.
Note: Ici encore, Mi (β) est la matrice identité à qui on a appliqué l’opération correspondante.
22
CHAPITRE 6. MATRICES
Démonstration. Évident par un calcul direct, c’est aussi un cas particulier de multiplication de matrice
diagonale.
Proposition 21. Si β est non nul, alors Mi (β) est inversible d’inverse Mi ( β1 ).
En conséquence, on conserve l’équivalence des systèmes en multipliant une ligne par une valeur β 6= 0.
Démonstration. Ici encore, c’est un cas particulier de la proposition sur le matrices diagonales.
On peut aussi le voir ainsi : L’inverse de l’opération « multiplier la ligne i par β » est « diviser la ligne
i par β ».
⋆
Ajouter à une ligne une autre ligne
Définition 20. Pour i ∈ [[1, n]] et k ∈ [[1, n]], avec k 6= i on appelle matrice Li,k (α) une matrice égale à
l’identité, sauf sur la colonne i, où on a mis un coefficient α ligne k.
Exemple :


1



1




 ← li
1





1





L36 (α) = 
1



α
1  ← lk

1
↑
ci
Ces matrices sont appelées matrices de combinaison linéaire.
Cette définition provient de
Proposition 22. Soit A une matrice de taille n, alors Li A est la matrice obtenue en faisant l’opération :
lk ← lk + αli .
Démonstration. Encore une fois, le plus simple est de le voir directement. Sur un exemple :


1
=

a11
a21
a31
a41
a51
a61 + αa31
a71








a12
a22
a32
a42
a52
a62 + αa32
a72
1
1
1
1
α
1
1
a13
a23
a33
a43
a53
a63 + αa33
a73




a11
a21
a31
a41
a51
a61
a71
a14
a24
a34
a44
a54
a64 + αa34 a64
a74
a12
a22
a32
a42
a52
a62
a72
a13
a23
a33
a43
a53
a63
a73
a15
a25
a35
a45
a55
a65 + αa35
a75
a14
a24
a34
a44
a54
a64
a74
a15
a25
a35
a45
a55
a65
a75
a16
a26
a36
a46
a56
a66 + αa36
a76
a16
a26
a36
a46
a56
a66
a76
a17
a27
a37
a47
a57
a67
a77





a17
a27
a37
a47
a57
a67 + αa37
a77





Note: Encore une fois, Lik est la matrice identité à qui on a appliqué l’opération correspondante.
Proposition 23. La matrice Lik (α) est inversible et {Lik (α)}−1 est Lik (−α).
Démonstration. Pour inverser l’opération lk ← lk + αli , il faut faire : lk ← lk − αli .
VI. MATRICES ET SYSTÈMES
⋆
23
Conclusion
On retiendra plusieurs points essentiels :
– Faire des opérations élémentaires sur les lignes d’une matrice A corresponds à multiplier la matrice
A à gauche par des matrices particulières.
– Les opérations élémentaires actuellement connues sont :
– Échanger deux lignes : lk ↔ ll . La matrice P correspondante est inversible.
– Multiplier une ligne par un scalaire β : li ← βli . La matrice correspondante est alors inversible que
dans le cas où β 6= 0.
– Ajouter à une ligne k une autre ligne i multipliée par α : lk ← lk + αli . La matrice Lik (α) correspondante est alors inversible (quelque soit la valeur de α).
Remarque:
– On peut montrer que faire des opérations sur les colonnes de la matrice A revient à multiplier la
matrice A à droite par les mêmes matrices.
– En combinant ces opérations, on obtient les opérations élémentaires du type : ∀k 6= i, lk ← lk + αk li ,
qui sont inversibles quelque soit le choix des valeurs (αk )k6=i .
Ces opérations élémentaires seront les plus utilisées pour résoudre les systèmes : la ligne i reste
inchangée et on ajoute à toutes les autres lignes αk li .
– On pourra aussi faire des opérations du type : lk ← βlk + αli , qui sera inversibles si β 6= 0.
– Lorsque l’on fait plusieurs opérations à la suite sur les lignes d’une matrice, cela revient à multiplier
plusieurs fois la matrice A à gauche par différentes matrices (chaque matrice correspondant à une
opération). Comme la multiplication n’est pas commutative, l’ordre dans lequel on fait ces opérations
à de l’importance.
24
CHAPITRE 6. MATRICES
Feuille d’exercices Matrices
BCPST Lycée Hoche
Pelletier Sylvain
Exercice 1
BY:
$
\
CC
=
Résolution d’équations matricielles simples
Soient A =
1 2
3 4
!
et B =
−1 5
0
−3 11 −2
!
1. Effectuer le produit AB, que se passe-t-il pour BA ?
2. Trouver toutes les matrices X telles que AX = B
3. Trouver toutes les matrices X telles que XA = B.
Correction
1.
2. Il faut chercher les solutions avec des matrices de la forme :
d’équation donne : X =
!
a b c
. La résolution du système
d e f
!
−1 1 −2
. (c’est la seule solution).
0 2 1
3. Si XA a un sens, c’est que X est de type (p, 2) on a alors XA de type (p, 2), ne peut
Exercice 2
Puissance d’une
! matrice et suites couplées
1 −1
Soit la matrice A =
−1 1
1. Déterminer An pour tout n ∈ N,
2. On considère les deux suites (xn ) et (yn ) définies par la donnée de x0 et y0 et les relations de récurrence
(
xn
yn
On pose Xn =
xn+1 = xn − yn
yn+1 = −xn + yn
!
3. Établir une relation entre Xn+1 , A et Xn .x
4. En déduire une expression de xn et yn en fonction de x0 , y0 , et n.
Correction :
1. On a An = 2n−1 A, ce que l’on peut démontrer par récurrence.
2. Xn+1 = AXn , donc par récurrence, on a Xn = An X0 .

x =
n
3. on obtient :
y =
n
2n−1 (x0 − y0 )
2n−1 (y0 − x0 )
Matrice nilpotente

0 1 0

Soit la matrice : N =  0 0 1
0 0 0
Exercice 3
1. Calculer N 2 et N 3 ,
et commutant



2. Déterminer l’ensemble des matrices qui commutent avec N , i.e. résoudre l’équation XN = N X,
d’inconnue X.
Correction :
VI. MATRICES ET SYSTÈMES

0

2
1. On obtient N =  0
0
2. On fait l’équation AN
25

0 1

0 0 , et N 3 = 0
0 0
= N A, avec A de taille (3, 3), ce qui donne :




d e f
0 a b

 

AN = N A ⇔ 0 d e  = g h i 
0 0 0
0 g h



d=g=h=0


⇔ d=e=i



b = d


a b c


⇔A = 0 a b 
0 0 a
⇔A = aI + bN + cN 2 , (a, b, c) ∈ R3
Formule de Newton et matrice nilpotente


2 1 0


Soit la matrice A =  0 2 1 
0 0 2
1. Déterminer λ et µ tels que A = λI3 + µN avec N la matrice de l’exercice précédent.
Exercice 4
2. Calculer A2 et A3 en fonction de I3 , N et N 2 .
3. En déduire An pour tout n ∈ N.
Correction :
1. A = 2I + N .
2. A2 = 4I + 4N + N 2 , et A3 = 8I + 12N + 6N 2 .
n(n − 1) n−2 2
3. An = 2n I + n2n−1 I +
2
N .
2
Exercice 5 Calcul de l’inverse! par polynôme annulateur
4 −10
Soit la matrice A =
1 −3
1. Calculer A2 ,
2. Déterminer λ et µ tels que A2 + λA + µI2 = 02 .
3. En déduire que la matrice A est inversible et calculer A−1 .
Correction :
1. On obtient :
A2
=
!
6 10
.
1 −1
2. on a A2 = A + 2I,
1
3. On obtient alors : A
(1 − I) =
2
Exercice 6

1

et J =  1
1
1
(1 − I) A = I.
2


a 1 1


Étant donné un nombre complexe a, on définit la matrice M =  1 a 1  On note I = I3 ,
1 1 a

1 1

1 1 
1 1
26
CHAPITRE 6. MATRICES
1. Déterminer M en fonction de a, I et J.
2. Déterminer J k pour k ∈ N.
3. En déduire une expression de la matrice M n pour n ∈ N.
4. (a) Exprimer M 2 en fonction de M et I,
(b) En déduire les valeurs de a pour lesquels M est inversible et déterminer M −1 (lorsqu’elle existe).
(c) Dans le cas où M est inversible, montrer que la formule trouvée au 3 est encore vraie pour
n = −1, puis pour tout entier n ∈ Z.
Correction :
1. M = (a − 1)I + J.
2. J k = 3k−1 J (récurrence).
1
3. M = (a − 1)n I + [(a + 2)n − (a − 1)n ] J (en utilisant Newton).
3
4. (a) En reprenant l’équation précédente pour n = 2, on obtient : M 2 = (2a + 1)M − (a − 1)(a + 2)M
(b) Si a 6= 1 et a 6= −2, On a :
h
i
h
i
1
1
M
(2a + 1)I − M =
(2a + 1)I − M M = I.
(a − 1)(a + 2)
(a − 1)(a + 2)
Si a = 1 on obtient M (3I − M ) = 0, donc si M est inversible (par l’absurde) alors M = 3I
(contradiction). Donc M n’est pas inversible. Pour a = −2, on obtient de même M = −3I, donc
M non inversible.
(c) Pour a 6= 1 et a 6= 2, on a :
h
i
1
(2a + 1)I − M
(a − 1)(a + 2)
h
i
1
=
(2a + 1)I − (a − 1)I − J
(a − 1)(a + 2)
1
1
(a + 2)I −
J
=
(a − 1)(a + 2)
(a − 1)(a + 2)
1
1
1
1
=
I+
−
J
(a − 1)
3 a+2 a−1
M −1 =
Donc la formule est vrai pour n = −1.
Ai n ∈ Z, on a soit n > 0 et la formule est vrai, soit n = −m avec m ∈ N, et il faut montrer que :
1
M −m = (M m )−1 = (a − 1)−m I + [(a + 2)−m − (a − 1)−m ] J . Pour cela, il suffit de calculer :
3
1
(a + 2)−m − (a − 1)−m J
3
#"
"
#
1
1
= (a − 1)m I + [(a + 2)m − (a − 1)m ] J (a − 1)−m I + (a + 2)−m − (a − 1)−m J .
3
3
M m (a − 1)−m I +
Comme les matrices J et I commutent, et J 2 = 3J on obtient :
1 a − 1m
a + 2m
I+
−1+
−1 J
3 a+2
a−1
1
+ (a + 2)−m − (a − 1)−m [(a + 2)m − (a − 1)m ] J 2
9
1 a − 1m a + 2m
1
a − 1m a + 2m
=I+
+
−2 J +
1−
−
+ 1 J = I.
3 a+2
a−1
3
a+2
a−1
VI. MATRICES ET SYSTÈMES
27
Exercice 7 Soit A une matrice carrée telle qu’il existe D diagonale et P inversible, et telle que A =
P DP −1 . On note λ1 , . . . , λn les valeurs sur la diagonale de D. Calculer An pour n ∈ N en fonction de
(λi )i=1...n .
Exercice 8 Soit (un )n∈N une suite définie par les valeurs de u0 et de u1 et la relation de récurrence
(R) : un+2 = un+1 + 2un ,
vraie pour tout entier naturel n.
1. Donner l’expression de un en fonction de n et de u0 et u1 .
2. Soit la matrice


1 −1 −1


A =  −1
1 −1 
−1 −1
1
Montrer que An s’écrit :


avec les suites an et bn vérifiant (R).
an bn bn


n
A =  bn an bn 
bn bn an
3. Déterminer An pour tout n.
Correction
1. suite récurrente linéaire d’ordre 2 : r 2 − r − 2 = (r − 2)(r + 1) un = α2n + β(−1)n On trouve :
1
un = [2n (u1 + u0 ) − (−1)n (u1 − 2u0 )].
3
2. Par récurrence.
3. En mettant ensemble les questions, on a :
1
an = (2n+1 + (−1)n )
3
n
D’où A .
1
bn = (−2n + (−1)n ).
3
Exercice 9 On appelle trace d’une matrice A ∈ Mn (K) le réel T r(A) =
trace est la somme des éléments diagonaux.
Pn
k=1 Akk ,
autrement dit la
1. Montrer que pour toutes matrices A et B, et tout scalaire λ, on a : T r(A + B) = T r(A) + T r(B), et
T r(λA) = λT r(A).
2. Montrer que pour toutes matrices A et B, on a T r(AB) = T r(BA)
3. En déduire qu’il n’existe pas de matrice A et B telles que AB − BA = In .
Exercice 10
Soient les matrices :





0 −2
2 1 −2
1 −2
3





A= 2
1
0  , C =  −2
0 −4  , B =  1 3
0 0
5
2
1
1
1 −1
E=
2 1 1
−1 2 1
!
, F =
1 3
2 1
!
, G=
1
2
0
7 −4
AB, BA, AD, AE, EA, ED, EBD
(a) A − 2X = B
(b) 2A + 3(X − B) − C = 5(X + C) − 3B

1
3


2 
, D =  −2 −1  ,
3 
1
5
0
1. Calculer les produits suivants :
2. Résoudre les équations suivantes :


!
.
28
CHAPITRE 6. MATRICES
Feuille d’exercices Matrices 2
BCPST Lycée Hoche
Pelletier Sylvain
$
BY:
\
CC
=
Exercice 1
Calcul de puissance par diagonalisation




2 0 −1
1
1 0




Soit les matrices de M3 (R) définies par : A = −4 0 2  et P = −2 −2 1
0 0 1
0
1 0
1. Montrer que P est inversible d’inverse : P −1


1 0 −1


= 0 0 1 .
2 1 0
2. Calculer la matrice D = P −1 AP et vérifier qu’elle est diagonale.
3. Exprimer A puis An en fonction de D, P et P −1 .
4. En déduire l’expression de An en fonction de n.
Exercice 2 Matrices stochastiques
Une matrice carrée A d’ordre n à coefficients dans R est dite stochastique si elle vérifie les propriétés :
– ∀(i, j) ∈ [[1, n]]2 , Aij > 0, i.e. tous les coefficients de A sont positifs ou nuls,
– ∀i ∈ [[1, n]],
n
X
Aij = 1, i.e. la somme des coefficients sur chaque ligne de A fait 1.
j=1
Ces matrices interviennent dans le calcul des probabilités.
1. Donner des exemples de matrices stochastiques d’ordre n.
2. Soit A et B deux matrices stochastiques et α et β deux réels positifs ou nuls tels que α + β = 1.
Montrer que αA + βB est stochastique.
3. Montrer que le produit de deux matrices stochastiques est stochastique.
4. Soit A une matrice stochastique dont toutes les lignes sont identiques, montrer que A2 = A.
Exercice 3
Un calcul d’inverse
1. Soit A et B deux matrices carrées de même ordre qui commutent. Factoriser An − B n pour tout entier
naturel n > 2.


1 1 0 0


0 1 1 0 
 est inversible et déterminer son inverse.

2. en déduire que la matrice M = 

0 0 1 1 
0 0 0 1
Exercice 4 Matrices nilpotentes
Une matrice carrée M est dite nilpotente s’il existe un entier p tel que M p = 0 (la matrice nulle).


!
0 a b
1
1
0 1 

dont nilpotentes.
1. Vérifier que les matrices
, 0 0 c  et
−1 −1
0 0
0 0 0
2. Déterminer toutes les matrices nilpotentes et diagonales.
!
3. Montrer qu’une matrice nilpotente ne peut être inversible.
4. Montrer sur un exemple que la somme et le produit de deux matrices nilpotentes n’est pas nécessairement une matrice nilpotente.
5. Soit maintenant deux matrices A et B nilpotente qui commutent.
(a) Montrer que A + B est nilpotente.
(b) Montrer que AB est nilpotente
Chapitre 7
Systèmes linéaires
Les buts de ce chapitre sont :
– Savoir résoudre un système échelonné.
– Savoir utiliser la méthode de gauss pour se ramener à un système échelonné.
– Savoir gérer le cas d’un paramètre dans le système
– Connaître les résultats théoriques sur les systèmes de Cramer et sur la structure de
l’ensemble des solutions d’un système linéaire.
– Savoir inverser une matrice par la méthode de Gauss Jordan.
Essentiellement il s’agit d’un chapitre de calcul avec peu de théorie.
La résolution des systèmes linéaires ne doit pas être négligé : c’est souvent la première
question de l’épreuve d’algèbre de l’épreuve « Agro A » , et un erreur peut pénalisé
la résolution de la suite de ce problème.
\
=
$
CC
BY:
I
I.1
Définitions
Systèmes linéaires
Définition 21. On appelle système linéaire à n équations et p inconnues x1 , . . . , xp un système (S) de
la forme :
(S)


a11 x1 + . . . a1p xp





 a21 x1 + . . . a2p xp
..
.






a x + . . . a x
n1 1
np p
= b1
(l1 )
= b2
.
= ..
(l2 )
= bn
(ln )
Comme on l’a vu, cela revient à regarder le système AX = B, où A est la matrice (n, p) qui contient
les coefficients du système, i.e. les (aij )i=1...n, j=1...p , tandis que X est le vecteur des inconnues et
B le second membre. Une solution de ce système est un élément X de Kp , avec X = (x1 , . . . , xp ), qui
vérifie toutes les équations. Deux système sont équivalents s’ils ont le même ensemble solution.
Exemple: Le système :

x + y = 3
x − y = 2
en faisant la somme des lignes, on a 2x = 5, donc x = 52 , tandis que si on fait la différence des lignes, on a
29
30
CHAPITRE 7. SYSTÈMES LINÉAIRES
2y = 1, donc y = 21 . Donc ce système a une unique solution :
S=
5 1
,
2 2
Par contre, si on considère juste le système constitué de la première ligne :
{x + y = 3
Tout élément de la forme (3 − y, y) est solution, on, écrit alors :
n
o
n
o
S = (3 − y, y)|y ∈ R
et le système a une infinité de solutions : on a un degré de liberté, y ∈ R.
Cette représentation n’est pas unique, on peut en effet prendre x comme degré de liberté, et obtenir :
S = (x, 3 − x)|x ∈ R .
La représentation est différente, mais bien sûr l’ensemble S est le même.
Enfin, si on ajoute une équation :



x+y =3


x−y =2



2x + y = λ
Pour que (x, y) soit solution, il faut nécessairement que les deux premières équations soient satisfaites,
c’est-à-dire que x = 25 et y = 12 . Ainsi,
– Si λ = 11
2 , le système a toujours une unique solution :
S=
– Si λ 6=
11
2 ,
5 1
,
2 2
le système n’a pas de solutions :
S=∅
Sur l’exemple, on voit qu’un système peut n’avoir aucune solution, une unique solution ou une infinité
de solutions.
Note: Notons que la matrice A ne contient pas a priori de colonne de zéros : une colonne de zéros correspond à
une inconnue qui n’intervient pas. De même, une ligne de zéros correspond à une équation du type 0 = bi , ce qu’on
appelle une équation de compatibilité : si elle n’est pas vérifié, il n’y a pas de solution.
⋆
Équivalence des systèmes et multiplication matricielle
Proposition 24. Si M est une matrice inversible, alors le système
(S) ⇔ AX = B ⇔ M AX = M B,
donc on garde l’équivalence du système AX = B en multipliant (à gauche) la matrice A par une
matrice inversible.
Démonstration. En effet, si AX = B, alors M AX = M B, et si M AX = M B, alors en multipliant par
M −1 , on obtient AX = B.
II. LE PIVOT DE GAUSS
I.2
31
Opérations élémentaires
La notion d’opération élémentaire dépend du contexte et des auteurs, mais d’une manière générale, faire
une opération élémentaire revient toujours à multiplier par une matrice inversible pour obtenir un système
équivalent plus simple à résoudre.
Définition 22. On considérera comme opération élémentaire :
– L’échange de deux lignes j et k, lj ↔ lk
– La multiplication d’une ligne par un scalaire β non nul, li ← βli .
– Ajouter la ligne i multipliée par un cœfficient αk aux autres lignes : ∀k 6= i, lk ← lk + αk li , la ligne i
restant inchangée.
Ces opérations élémentaires reviennent, comme on l’a vu, à multiplier la matrice A par les matrices
correspondantes :
– la matrice Pkj pour la permutation,
– la matrice Mi (β) pour la multiplication,
– un produit de matrices de la forme Lik (αk ) pour les combinaisons linéaires.
Les matrices correspondantes étant inversibles, on obtient :
Proposition 25. En effectuant des opérations élémentaires sur un système, on conserve l’équivalence entre
les systèmes.
Remarque: On utilisera aussi des opérations du type : lk ← βlk + αli , qui sont inversibles si β 6= 0.
Lorsqu’on utilise les opérations élémentaires pour résoudre un systèmes, les points les plus importants sont
donc :
– Indiquer quelles sont les opérations faites ,
– vérifier que ces opérations ont un sens (ne pas diviser par 0),
– vérifier que les opérations faites sur les matrices sont inversibles,
– indiquer l’ordre dans lequel on fait ces opérations, si celui-ci a de l’importance.
II
II.1
Le pivot de Gauss
Systèmes échelonnés
Définition 23. Un système est dit échelonné si le nombre de zéros qui commencent chaque ligne de la
matrice A est strictement croissant, jusqu’à ce que la matrice finisse éventuellement par une ligne de 0.
On appelle pivot de la matrice A et de la ligne i, le premier élément non nul de la ligne i. (Éventuellement il peut ne pas y avoir de pivot si la ligne est vide dans la matrice, i.e. n’existe pas dans le
système)
Par exemple, une matrice triangulaire supérieure dont tous les éléments diagonaux sont tous non nuls.
La notion de matrice échelonnée généralise celle de matrice triangulaire supérieure.
Exemple:


∗ ∗ ∗ ∗ ∗ ∗



∗ ∗ ∗ ∗


A=
∗ ∗ ∗


où les désignent des éléments non nuls, les ∗ des éléments quelconques, et les termes vides sont nuls.
32
CHAPITRE 7. SYSTÈMES LINÉAIRES
Remarque: En changeant l’ordre des inconnues, on peut toujours ramener un système échelonné à un
système où le nombre de 0 augmente de 1 à chaque ligne, i.e. où A est de la forme :






A=




∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗

∗

∗

∗


∗



L’intérêt des systèmes échelonnés est qu’ils se résolvent facilement :
Proposition 26. Pour résoudre un système échelonné on utilise la méthode de substitution, semblable la
méthode de remonté :
– On regarde si les équations de compatibilité sont vérifiées, sinon il n’y a pas de solution.
– On part ensuite de la dernière équation, et on détermine la dernière inconnue.
– Celle-ci peut être entièrement déterminée, ou dépendre de « degrés de liberté », i.e. d’inconnues qui
n’interviennent pas dans le système.
– On remonte ensuite en déterminant les inconnues en partant de la fin.
On obtient alors les solutions du problème (si il y en a).
Note: Cette proposition pourrait être utilisée comme définition d’un système échelonné.
Démonstration. Pour simplifier, on suppose que l’on a échangé l’ordre des inconnues comme dans la remarque ci-dessus. Soit lr la dernière ligne du système, elle s’écrit :
xr + ∗xr+1 + ∗xr+2 + · · · ∗ xp = br
On a donc :
1
(br − ∗xr+1 + ∗xr+2 + · · · ∗ xp ) .
La valeur de xr s’exprime donc en fonction de p − r paramètres, qui seront les degrés de liberté.
On reporte ensuite cette valeur dans les lignes du dessus, de proche en proche. La ligne i s’écrit :
xr =
xi +
n
X
∗xk = bi .
k=i+1
On peut donc écrire xi en fonction des valeurs de (xk )k>i :


n
X
1
xi = bi −
∗xk  ,
k=i+1
Les valeurs (xk )i<k6r étant déjà calculées par les lignes situées en-dessous, les autres valeurs (xk )k>r étant
libres.
Exemple: Pour le système :



3x − y + z = 0


2y + z = 3
, l’inconnue z est déjà déterminé, on remplace donc



z = −1.
dans la ligne 2 pour obtenir y :



3x − y + z = 0


y=2



z = −1.
puis x en remplaçant dans la ligne 1 :



x=1


y=2



z = −1.
.
II. LE PIVOT DE GAUSS
33
n
o
Il y a donc une seule solution : S = (1, 2, −1) . (on a ici un système échelonné qui se résout par
remontée).



x + 2y − z = 1
x + 2y − z = 1
x = 3 + 3z
Pour le système :
⇔
⇔
y + z = −1
y = −1 + z
y = −1 + z
n
o
L’ensemble des solutions est : S = (3 + 3z, −1 + z, z)z ∈ R . (on a ici un système échelonné où un
degré de liberté apparaît
 à la dernière ligne).
x + y − z = 1
n
Pour le système :
⇔ x = 2 − yz = 1
z = 1
n
o
L’ensemble des solutions est S = (2 − y, y, 1)y ∈ R . (on a ici un système échelonné où un degré de
liberté apparaît en remontant).


−x − 3y + z + t = 0
x = −3y − 3 + t
Pour le système :
⇔
z = −3
z = −3
n
o
L’ensemble des solutions est S = (−3y − 3 + t, y, −3, t)(y, t) ∈ R2 . (on a ici un système échelonné où
deux degrés de liberté apparaissent).
Il faut surtout avoir compris les exemples.
II.2
Réduction de Gauss d’une matrice
Proposition 27. Soit A une matrice de taille (n, p), il existe une matrice M ∈ Mn (K) telle que la matrice
U = M A soit échelonnée. De plus, M peut s’écrire comme le produit de matrices d’opérations élémentaires.
Démonstration. La démonstration se fait en déterminant un algorithme permettant de calculer U . On
procède colonne par colonne. Considérons tout d’abord la première colonne : si elle ne contient que des
zéros alors on passe à la suivante. Sinon,
– on regarde le premier élément non nul de la première colonne, supposons que ce soit l’élément ligne
k,
– on fait l’opération : l1 ↔ lk , de cette manière l’élément a11 est non nul, cela revient à multiplier A
par la matrice P1k .
– on fait les opérations
∀k > 1, lk ← lk + αk1 l1 ,
a
j1
. Cela revient à multiplier A par un produit de matrices L1j (α). De cette manière,
avec αk1 = − a11
on met des éléments non nuls sur la première colonne des lignes 2 à n.
(on peut dire que l’on utilise la ligne 1, pour obtenir des termes nul en dessous, plus précisément, on
utilise le terme non nul a11 pour obtenir : ∀j > 1, aj1 = 0 ).
La matrice ainsi obtenue est alors de la forme :

∗ ∗


∗


∗



∗


∗


∗

∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗

∗

∗

∗


∗

∗


∗
∗
Cette matrice est obtenue en multipliant la matrice A à gauche par un produit de matrice d’opérations
élémentaires, puisque l’on a fait que des opérations élémentaires.
On applique alors le même procédé à la sous matrice de taille (n − 1, p − 1), contituée des lignes de 2 à
n et des colonnes de 2 à p :
34
CHAPITRE 7. SYSTÈMES LINÉAIRES
– Si cette partie ne contient que des zéros, on ne fait rien,
– sinon on échange deux lignes de manière à avoir a22 6= 0,
– on utilise cette valeur non nulle, pour éliminer les valeurs situées en dessous.
. En appliquant le même procédé, on obtient une matrice de la forme :

∗ ∗ ∗ ∗


∗ ∗ ∗


∗ ∗



∗ ∗


∗ ∗


∗ ∗

∗ ∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗

∗

∗

∗


∗ .

∗


∗
∗
En continuant ainsi le procédé, on obtient une matrice échelonnée, on note U cette matrice.
De plus, on voit que l’on n’a fait que des opérations élémentaires, i.e. on a multiplié à gauche la
matrce A par des matrices d’opérations élémentaires. La matrice U obtenue à la fin s’écrit donc : U =
Mp Mp−1 . . . M1 A, où les matrices Mi correspondent à chaque opérations élémentaires faites sur la matrice
|
{z
II.3
Réduction de Gauss d’un système
M
}
A. On obtient donc le résultat en posant M = Mp Mp−1 . . . M1 .
Proposition 28. En utilisant une succession d’opérations élémentaires (au plus deux fois plus que d’équations), on peut trouver un système équivalent à (S) qui soit échelonné.
Démonstration. L’algorithme et la démonstration sont les mêmes que pour les matrices. Le système est
équivalent à AX = B, en multipliant par M , cela s’écrit U X = M B. Ce qui signifie qu’en effectuant les
mêmes opérations sur le second membre, on obtient un système équivalent échelonné.
On a ainsi obtenu une méthode pratique de résolution de système : on rend le système échelonné, puis on
résout par substitution.
III
III.1
Structure de l’ensemble des solutions
Notion de rang
Définition 24. Le rang d’une matrice A est le nombre de pivot dans la matrice échelonnée U obtenue en
appliquant la réduction de gauss à la matrice A.
Le rang d’un système est le rang de la matrice des coefficients
Note: Le rang d’un système ne dépend donc pas du second membre.
On verra une meilleure définition dans les chapitres suivants. Pour l’instant on admet que cela ne dépend
pas de l’ordre des lignes ni de la manière dont on fait des opérations sur les lignes.
Toujours pour simplifier, on se place dans le cas où on a échangé l’ordre des inconnues dans le système,
pour que le nombre de 0 qui commence chaque ligne augmente de 1 à chaque ligne.
On note p le nombre d’inconnues et n le nombre d’équations, r le rang. Quatre cas sont possibles :
1. si r = p = n, la matrice est triangulaire supérieure avec des coefficients non nuls sur la diagonale (i.e.
inversible),
III. STRUCTURE DE L’ENSEMBLE DES SOLUTIONS
35
2. si r = n < p, la matrice contient une dernière ligne non réduite à un seul élément,
3. si r = p < n, la matrice contient des lignes de 0 à la fin.
4. si r < p et r < n, la matrice contient des lignes de 0 à la fin. et une dernière ligne non réduite à un
seul élément.
Ces quatres cas s’écrivent de manière symbolique par :







1=








2=














3=


















4=







III.2
⋆
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗

∗
∗
∗
∗
∗
∗
∗
∗
∗
∗

∗

∗


∗

∗


∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗

∗

∗

∗
∗
∗
∗
∗
∗
∗
∗
∗


∗

∗

∗


∗

∗


∗











∗

∗

∗


∗








Les différents cas, système de Cramer
Système de Cramer
Les systèmes de Cramer correspondent au cas 1.
Définition 25. Un système est dit de Cramer s’il a autant d’équations que d’inconnues et si le rang est
égal aux nombres de lignes. i.e. p = n = r. Le fait d’être de Cramer ne dépend pas du second membre,
uniquement de la matrice A.
Remarque: Si le système est de Cramer, alors la matrice est inversible, puisqu’on a A = M −1 U , avec
U triangulaire supérieure avec des termes non nuls sur la diagonale.
36
CHAPITRE 7. SYSTÈMES LINÉAIRES
Proposition 29. Le système a alors une unique solution quel que soit le second membre.
Démonstration. Ce résultat a déjà été démontré : le système se résoud par remontée, et a donc une unique
solution.
⋆
Les autres cas
Maintenant, supposons que l’on soit dans le cas 3 ou 4. Le système, une fois mis sous forme échelonnée,
est alors fini par des équations du type 0 = bi . Ceux sont les équations de compatibilité.
On a alors deux cas :
– Soit effectivement les dernières lignes sont la tautologie 0 = 0, et on peut alors les enlever du système,
cela revient alors au cas où il n’y a pas de ligne du type 0 = bi , i.e. au cas 1 (pour le 3) ou 2 (pour
le quatre).
– Soit ce n’est pas le cas, et le système n’a pas de solution, on parle alors de système incompatible.
Dans le cas 2, comme on l’a vu avec la méthode de subsitution, les solutions dépendent de p − r
paramètres, en particulier il y a une infinité de solutions.
⋆
Conclusion
On a donc le résultat théorique suivant :
Proposition 30. Un système linéaire de rang r, à p inconnues et n équations admet toujours 0,1 ou une
infinité de solutions.
Si il admet une infinité de solutions, celle-ci dépendent de p − r paramètres.
Si le système est un système de Cramer il y a toujours une unique solution, sinon l’existence de solution
dépend du second membre.
Note: En particulier, on voit que si l’ensemble solution admet plusieurs représentation « avec des degré de
liberté », le nombre de degré de liberté est toujours p− r, quelque soit le second membre, et quelque soit les opérations
faites sur le système.
III.3
Structure de l’ensemble de solutions
Définition 26. Soit un système linéaire (S) : AX = B, on appelle système linéaire homogène associé
le système linéaire (Sh ) : AX = 0.
Le système (Sh ) est toujours compatible i.e. il a toujours au moins une solution, car le vecteur 0 est
solution. D’après le résultat précédent, soit 0 est la seule solution soit il y en a une infinité.
Notons Sh l’ensemble des solutions de (Sh ), et S l’ensemble des solutions de (S).
Supposons que l’on connaisse une solution X0 du système (S),
Soit Xh une solution de (Sh ), alors X = X0 +Xh est solution de (S), en effet A(X +Xh ) = AX +AXh =
AX = B. Ainsi, si on ajoute la solution particulière de (S) et une solution de (Sh ) on obtient une solution
de (S)
Réciproquement, si X est solution de (S), alors X − X0 est solution du système homogène (Sh ), puisque
A(X − X0 ) = B − B = 0. On peut donc écrire X = X0 + (X − X0 ) i.e. le vecteur X est somme de la
solution particulière X0 ∈ S et d’une solution du système homogène (X − X0 ) ∈ Sh .
Ainsi, la conclusion de cette étude est :
Proposition 31. Si le système linéaire (S) : AX = B est de Cramer, alors il admet une unique solution :
n
o
S = A−1 B .
IV. INVERSION DE MATRICE PAR LA MÉTHODE DE GAUSS JORDAN
37
Sinon, soit le système n’admet aucune solution, et S = ∅, soit il admet une infinité de solutions qui sont
de la forme X = X0 + XH , où X0 est une solution particulière et XH une solution du système homogène.
Dans ce dernier cas, on peut donc écrire :
S = X0 + Sh
Remarque: On voit que pour la fonction φ : Rn → Rn X 7→ AX, est injective si et seulement si elle
est surjective.
IV
IV.1
Inversion de matrice par la méthode de Gauss Jordan
Lien entre systèmes et inversion des matrices
On rappelle que l’on note ei le n-ième vecteur de base en colonne, i.e. le vecteur de taille (n, 1) avec un
1 ligne i et des 0 ailleurs.
Proposition 32. La matrice A est inversible si et seulement si le système associé AX = Y est de Cramer
(pour tout Y puisque cela ne dépend pas de Y ). De plus, dans ce cas, si Y est un vecteur de variable
générique, alors la solution du système AX = Y s’exprime comme le produit de Y par une matrice B, et
B est l’inverse de A.
Démonstration. Supposons que la matrice est inversible, alors AX = Y est équivalent à X = A−1 Y donc
a une unique solution.
Supposons maintenant que le système soit de Cramer, alors soient f1 , . . . , fn les solutions de Afi = ei
qui existent et sont uniques.
On construit la matrice B obtenue en concaténant les vecteurs fi :

|
|
|
|

|
|
|
|

B=
f1 f2 f3 f4

|
|
|
|
|
|
|
|

··· |

··· | 

· · · fn 


··· | 
··· |
, on voit en effectuant le produit que la matrice AB est la matrice obtenue en concaténant les Afi i.e. les
ei :

|
|
|
|

|
|
|
|

AB = A 
f
f
f
f
2
3
4
 1

|
|
|
|
|
|
|
|


|
|
|
|
··· |
 
|
|
|
··· |   |
 
Af1 Af2 Af3 Af4
=
· · · fn 
 
 
|
|
|
··· |   |
|
|
|
|
··· |

|
|
|
|

|
|
|
|


= e1 e2 e3 e4

|
|
|
|
|
|
|
|

1

0

=
0

0
0
0
1
0
0
0
0
0
1
0
0
0
0
0
1
0


···
|

···
| 

· · · Afn 


···
| 
···
|

··· |

··· | 

· · · en 


··· | 
··· |
0

0

0
 = In

0
1
38
CHAPITRE 7. SYSTÈMES LINÉAIRES
Cette matrice est l’identité, on a donc montré AB = I. On admet ensuite que BA = In
Soit maintenant un vecteur Y générique et A inversible. On cherche à exprimer la solution du système
AX = Y , en fonction de Y
On le décompose sur la base et on l’écrit comme une somme de
n
X
i=1
n
X
yi ei , la solution de AX = Y est
i=1
yi fi .
En effet
A
n
X
yi fi
i=1
!
=
n
X
yi Afi =
i=1
n
X
yi ei = 1,
i=1
i.e. le vecteur X s’exprime comme le produit de Y par une matrice B qui est la matrice des coefficients
fi .
Remarque:
– Concrètement, cela veut dire que l’on peut inverser une matrice A en résolvant le système AX = Y
avec des variables Y génériques. On obtient ainsi X en fonction de Y sous la forme BY , où B est
une matrice de coefficients.
– Cela signifie aussi que l’on peut inverser une matrice en résolvant les n systèmes linéaires (Si ) AX = ei
et en concaténant les vecteurs fi ainsi obtenus dans une matrice B qui est alors A−1 .
– Cela signifie aussi que lorsqu’on résout un système linéaire, la solution s’exprime linéairement en
fonction du second membre. On ne peut pas donc avoir des expressions de la forme : xk = yi2 + · · · ,
xk = yi yj + · · · , ou xk = ln(yj ).
IV.2
Méthode de Gauss Jordan
Proposition 33. Si la matrice A est inversible, alors on peut la transformer en In en faisant des opérations
sur les lignes. De plus, si on fait les mêmes opérations élémentaires dans le même ordre sur les
lignes de la matrice identité, on obtient A−1 .
Démonstration. On a déjà vu qu’il existe M1 , produit d’opérations sur les lignes, tel que M1 A = U , avec
U triangulaire supérieure, i.e. de la forme :

∗
u22
u11







M1 A = 






∗
∗
u33
∗
∗
∗
..
.
∗
∗
∗
∗
∗
∗
∗
..
.
∗
∗
∗
∗







∗ 
,

∗ 



∗ 
∗
..
.
unn
les termes diagonaux étant non nuls, car la matrice A est inversible.
En faisant ensuite les opérations : ∀i, li ← u1ii li , on se ramène à une matrice de la forme :

1 ∗ ∗ ∗


1 ∗ ∗


1 ∗


1
M2 M1 A = 






∗
∗
∗
∗
..
.
∗
∗
∗
∗
u1n
u2n
u3n
u4n
..
.







,



∗

1 un−1 n 

1
IV. INVERSION DE MATRICE PAR LA MÉTHODE DE GAUSS JORDAN
39
Ces opérations reviennent à multiplier U par une matrice M2 produit d’opérations élémentaires Mi (β).
Puis on peut faire l’opération : ∀i < n, li ← li − uin ln , qui permet de mettre des 0 au dessus de la
diagonale dans la dernière colonne.
On est donc ramené à une matrice de la forme

1 ∗ ∗ ∗


1 ∗ ∗


1 ∗



1






∗
∗
∗
∗
..
.

0

0

0


0
.
.. 
∗ .

1 0

1
∗
∗
∗
∗
En procédant de même : faire des opérations élémentaires, colonne par colonne, comme pour la méthode
de Gauss, on peut ainsi trouver une matrice M3 , produit de matrices d’opérations élémentaires telle que :
M3 M2 M1 A = In , i.e. la matrice obtenue à partir de A en faisant ces opérations élémentaires est l’identité.
On obtient donc le résultat théorique suivant : si la matrice A est inversible, on peut effectuer des
opérations sur les lignes pour la transformer en la matrice identité.
Il reste à calculer la matrice A−1 = M3 M2 M1 . Pour cela, il suffit de les interpréter en terme d’opérations :
multiplier (à gauche) une matrice par M3 M2 M1 revient à faire les opérations élémentaires (dans le même
ordre) qui permettent de transformer A en la matrice identité.
Comme M3 M2 M1 = M3 M2 M1 In , on calcule M3 M2 M1 en faisant ces opérations élémentaires sur la
matrice In .
Remarque: En pratique, on écrit les deux matrices A et In l’une à côté de l’autre, et on fait les
opérations en parallèle.
Remarque: La même démonstration permet de montrer que si on part du vecteur colonne B et que
l’on fait les mêmes opérations élémentaires, on obtient le vecteur M3 M2 M1 B = A−1 B, i.e. la solution de
AX = B.
40
CHAPITRE 7. SYSTÈMES LINÉAIRES
Feuille d’exercices Systèmes linéaires
BCPST Lycée Hoche
Pelletier Sylvain
Exercice 1
Exercice 2
Exercice 3
Exercice 4
=
$
Résoudre le système :


5x − 10y − z − 7t




x − 2y + z − t
(S) :

2x − 4y − z − 3t




x − 2y + 4z
=
=
=
=
7
1
3
0


5x − 10y − z − 7t




x − 2y + z − t
(S) :
 2x − 4y − z − 3t




x − 2y + 4z
=
=
=
=
7
1
3
5


−y + z + t



 −9x + 2y + z + 2t
(S) :

x−y+z




−3x + z + t
=
=
=
=
1
3
3
4
Résoudre le système :
Résoudre le système :
Déterminer les valeurs de λ pour lesquelles le système (Sλ ) n’est pas de Cramer :
(Sλ ) :
Exercice 5
BY:
\
CC
(
(4 − λ)x + 3y = 0
2x + (1 + λ)y = 0
En exprimant les solutions de AX = Y en fonction de X, calculer l’inverse de la matrice :


Exercice 6
4 1 −1


A= 1 5
4 
5 4
1
Calculer l’inverse des matrices :


Exercice 7


2 −3 −1
1
2 −1




A= 2
1 −3 
4 −1  , B =  1
−3 −1
7
−2 −5
3
Résoudre les systèmes :
(S)



x + 2y + z − t




x − y + z + t


2x + y + 3z − t





x + y + 2z + t
Correction :
S=
(
1 3 6 1
− ,− , ,−
7 7 7 7
=0
=1
=2
= 1.
)
.
IV. INVERSION DE MATRICE PAR LA MÉTHODE DE GAUSS JORDAN
Exercice 8
Résoudre en fonction du paramètre m ∈ C le système suivant :
(S)
Correction :
– Si m = 1, S1 =
(
x + my + z



x + y + mz
)
(x, y, 1 − x − y) (x, y) ∈ R2 .
– Si m = −2, S−2 = ∅.
– Si m 6= −2 et m 6= 1, Sm =
Exercice 9



mx + y + z


(
=1
=m
= m2
1
(m + 1)2
−m − 1
,
,
m+2 m+2 m+2
!)
.
Résoudre dans R4 les systèmes suivants :
(S1 )
(S3 )



x + 4y + 3z + t = 1



x + y + 2z + 3t = 1
(S2 )
x + y + z − t = 2.
2x + 5y + 4z − t = 4



x − 3y − 2z + 3t = 5



x + 2y + 3z + 4t = 10




2x − y + z − t = 1


3x + y + 4z + 3t = 11





−2x + 6y + 4z + 10t = 18.
Correction :



2x + y = 8




−6y + 7z = −19
(S4 )


−x + z = −2





4x + 7y − z = 25.
)
S1 = (3 − 6t, −2 − 19t, 2 + 27t, t) t ∈ R
(
!)
2
S1 =
3 − y + 5t, y, −1 − 4t(y, t) ∈ R
!)
(
2 19
9
12
2
− z − t,
− z − t, z, t(z, t) ∈ R
S1 =
5
5 5
5
(
S1 = ∅.
Exercice 10
Résoudre dans R4
Correction : S =
Exercice 11
(



x + 3y − z + t = 1




2x + 2y + z + 2t = 0
(S)


x − y − 2z + t = −1




x + 7y − 4z + t = 3.
1
1
− − t, , 0, t
2
2
)
t ∈ R
Résoudre dans C3 (en fonction de m ∈ C)
(S)
Correction :



x − my + m2 z


mx −
m2 y
+ mz



mx + y − m2 z
= 2m
= 2m
= 1 − m.
41
42
CHAPITRE 7. SYSTÈMES LINÉAIRES
)
– Si m = 0, S = (0, 1, z) z ∈ C
(
)
– Si m = 1, S = (1, z − 1, z) z ∈ C
(
)
– Si m = −1, S = (−2 − z, 0, z) z ∈ C
(
– Si m = i ou m = −i, S =(∅.
– Dans les autres cas, S =
1−m
2
m3 + 3m
,
,
2
2
(1 + m )(1 + m) 1 + m 1 + m
!)
Téléchargement