Telechargé par mayssa klouj

Cours maths L2 .

publicité
Cours n°1
21 septembre 2020
CHAPITRE I
RESOLUTIONS DE SYSTEMES D’EQUATIONS LINEAIRES PAR LA METHODE DU PIVOT DE GAUSS
I. Rappels sur les équations linéaires
Pour commencer, rappelons qu’une équation est une égalité de la forme :
membre de gauche = membre de droite (noté 𝑀𝐺 = 𝑀𝐷)
ou
1er membre = 2nd membre.
Par exemple, les équations du second degré sont de la forme : ax² + bx + c = 0.
Quand qualifie-t-on une équation de linéaire ? Avant de donner une définition, quelques exemples.
Exemple 1 – équation E1 : 5x = – 3
L’équation 5x = – 3 (appelée E1) est linéaire.
Les réels 5 et – 3 sont les coefficients ou paramètres de cette équation, x en est l’inconnue ou la
variable. Cette équation a donc une seule inconnue et est de la forme :
un réel × l’inconnue = un réel
ou
ax = u.
On la résout en déterminant la (ou les) valeur(s) de x qui la vérifie(nt). Ici, comme :
3
5x = – 3 ⇒ 𝑥 = − ,
5
3
l’équation E1 a pour unique solution : 𝑥 = − .
5
Géométriquement, il s’agit d’un point sur la droite des réels.
Exemple 2 – équation E2 : x + 2y = 10
L’équation E2 est également linéaire. Les réels 1, 2 et 10 en sont les coefficients (ou paramètres) ; x et y
en sont les inconnues.
𝑥
On peut aussi dire que le point ou couple (𝑦) est l’inconnue de E2.
Cette équation est donc plus généralement de la forme : ax + by = u. On aura reconnu l’équation d’une
droite. Et, comme :
𝑥
x + 2y = 10 ⇒ 𝑦 = − + 5,
2
𝑥
l’équation E2 a une infinité de solutions : ce sont tous les couples de la forme ( 𝑥
).
− +5
2
𝑥
Géométriquement, ce sont tous les points de la droite d’équation : x + 2y = 10 ou 𝑦 = − + 5.
2
Exemple 3 – équation E3 : 2x − 3y + z = 1
L’équation E3 est linéaire. Les réels 2, – 3, 1 et 1 en sont les coefficients (ou paramètres) ; x, y et z en sont
les inconnues.
𝑥
On dit aussi que le point ou triplet (𝑦) est l’inconnue de E3.
𝑧
Cette équation est donc plus généralement de la forme : ax + by + cz = u. C’est l’équation d’un plan.
Et comme :
2x − 3y + z = 1 ⇒ 𝑧 = 1 − 2𝑥 + 3𝑦,
𝑥
𝑦
l’équation E3 a une infinité de solutions : ce sont tous les triplets de la forme (
).
1 − 2𝑥 + 3𝑦
Géométriquement, ce sont tous les points du plan d’équation 2x − 3y + z = 1.
1
Cours n°1
21 septembre 2020
Définition I.1
On appelle équations linéaires, les équations de la forme :
𝑎1 𝑥1 + ⋯ + 𝑎𝑛 𝑥𝑛 = 𝑢
ou, ce qui revient au même, de la forme :
∑𝑛𝑖=1 𝑎𝑖 𝑥𝑖 = 𝑢,
où les ai (i = 1, …, n) et u sont les paramètres (réels) et où les xi (i = 1, …, n) sont les inconnues à
déterminer en fonction des paramètres.
Remarque : on note ici les inconnues 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 mais en pratique, on peut leur donner le nom que
l’on souhaite. Par exemple, pour une équation à quatre inconnues on pourra nommer ces dernières
𝑥, 𝑦, 𝑧 et 𝑡. On aura dans ce cas : 𝑎1 𝑥 + 𝑎2 𝑦 + 𝑎3 𝑧 + 𝑎4 𝑡 = 𝑢.
Or on sait (voir votre cours de L1) que l’expression 𝑎1 𝑥1 + ⋯ + 𝑎𝑛 𝑥𝑛 est appelée combinaison linéaire
des inconnues x1, …, xn affectée des paramètres a1, … , an. D’où :
Définition I.1bis
On appelle équations linéaires, les équations dont le membre de gauche est une combinaison linéaire
de variables (ou inconnues) et dont le membre de droite est un paramètre.
II. Systèmes d’équations linéaires
A. Présentation
Un système d’équations linéaires est composé d’équations linéaires ayant les mêmes inconnues. Plus
précisément :
Définitions I.2
Un système de m équations linéaires à n inconnues est un système du type :
𝑎11 𝑥1 + … + 𝑎1𝑗 𝑥𝑗 +… + 𝑎1𝑛 𝑥𝑛 = 𝑢1 𝐿1
⋮
⋮
⋮
S 𝑎𝑖1 𝑥1 + … + 𝑎𝑖𝑗 𝑥𝑗 + + 𝑎𝑖𝑛 𝑥𝑛 = 𝑢𝑖 𝐿𝑖
⋮
⋮
⋮
{𝑎𝑚1 𝑥1 + … +𝑎𝑚𝑗 𝑥𝑗 +… +𝑎𝑚𝑛 𝑥𝑛 =𝑢𝑚 𝐿𝑚
où Li désigne la ième équation, les inconnues de ce système étant les n nombres xi, les coefficients aij et
bi (i = 1, …, m ; j = 1, …, n) étant donnés.
Lorsque u1 = … = un = 0, on dit que le système est homogène.
Cas particuliers :
Pour un système de trois équations à trois inconnues, cela s’écrit :
𝑎11 𝑥1 +𝑎12 𝑥2 +𝑎13 𝑥3 =𝑢1 𝐿1
S {𝑎21 𝑥1 +𝑎22 𝑥2 +𝑎23 𝑥3 =𝑢2 𝐿2 si les inconnues sont nommées 𝑥1 , 𝑥2 et 𝑥3
𝑎31 𝑥1 +𝑎32 𝑥2 +𝑎33 𝑥3 =𝑢3 𝐿3
𝑎11 𝑥+𝑎12 𝑦+𝑎13 𝑧=𝑢1 𝐿1
ou S {𝑎21 𝑥+𝑎22 𝑦+𝑎23 𝑧=𝑢2 𝐿2 si les inconnues sont nommées 𝑥, 𝑦 et 𝑧
𝑎31 𝑥+𝑎32 𝑦+𝑎33 𝑧=𝑢3 𝐿3
2
Cours n°1
21 septembre 2020
Par exemple les systèmes S1 et S2 ci-dessous sont des systèmes d’équations linéaires :
𝑥 − 𝑦 + 𝑧 = −1
𝐿1
𝑥 + 2𝑦 = 10
𝐿1
𝑆1 : {
𝑆2 {−𝑥 + 2𝑦 + 2𝑧 = 0
𝐿2
2𝑥 − 𝑦 = 5
𝐿2
2𝑥 + 𝑦 − 2𝑧 = −5
𝐿3
Remarques :
✓ On notera les équations d’un système L1, L2, etc. On a choisi la lettre « L » pour « Ligne ».
✓ Alors que S1 est un système de deux équations à deux inconnues, le système S2 est un système de
trois équations à trois inconnues.
✓ Comme le sous-entend la définition, un système d’équations linéaires peut très bien avoir plus
d’équations que d’inconnues ou plus d’inconnues que d’équations.
Résoudre un système d’équations linéaires consiste à trouver la (les) valeur(s) des inconnues pour
laquelle (lesquelles) toutes les équations du système sont vérifiées simultanément ou à démontrer que
de telles valeurs n’existent pas, auquel cas le système n’a aucune solution.
Plusieurs méthodes de résolutions existent : la méthode de résolution par substitution, la méthode de
Carmer, celle du pivot de Gauss, ... C’est cette dernière que nous allons pour l’instant présenter et utiliser.
B. La méthode du pivot de Gauss
La méthode du pivot de Gauss permet de résoudre très facilement les systèmes d’équations linéaires,
et ce, quel que soit leur nombre d’équations ou d’inconnues. Elle est basée sur l’utilisation de
combinaisons linéaires de deux équations. Comment fait-on de telles combinaisons linéaires ?
Considérons les deux équations suivantes :
𝑀𝐺 = 𝑀𝐷1 𝐿1
{ 1
𝑀𝐺2 = 𝑀𝐷2 𝐿2
Une combinaison linéaire de 𝐿1 et 𝐿2 est une équation 𝐿 de la forme 𝐿 = 𝑎1 × 𝐿1 + 𝑎2 × 𝐿2 qui s’écrit :
(𝑎1 𝑀𝐺1 + 𝑎2 𝑀𝐺2 ) = (𝑎1 𝑀𝐷1 + 𝑎2 𝑀𝐷2 )
2𝑥 + 3𝑦 = 3 𝐿1
𝑥 + 2𝑦 = 1 𝐿2
Calculons par exemple 𝐿 = 𝟒𝐿1 + 𝟐𝐿2 :
𝟒 × (2𝑥 + 3𝑦) + 𝟐 × (𝑥 + 2𝑦) = 𝟒 × 3 + 𝟐 × 1
⟺ 10𝑥 + 16𝑦 = 14 (𝐿)
Exemple – Soit le système 𝑆 : {
•
•
(𝐿)
Calculons maintenant 𝐿 = 𝟐𝐿1 − 𝟒𝐿2
𝟐 × (2𝑥 + 3𝑦) + 𝟒 × (𝑥 + 2𝑦) = 𝟐 × 3 + 𝟒 × 1 (𝐿)
⟺
− 𝑦 = 1 (𝐿)
On remarque que l’inconnue 𝑥 a « disparu » de l’équation. C’est cette possibilité de faire « disparaître
des inconnues » par la combinaison linéaire d’équations qui est au cœur de la résolution du système
par la méthode du pivot de Gauss.
PRINCIPE DE LA METHODE DU PIVOT
La méthode du pivot de Gauss — ou méthode du pivot — consiste à garder une équation du système
inchangée, appelée le pivot, et à remplacer chacune des autres équations par une combinaison linéaire
d’elle-même (avec un coefficient non nul) et du pivot, ce, dans le but d’y faire disparaître l’une des
inconnues ou, ce qui revient au même, d’y faire apparaître un zéro à la place du coefficient précédant
l’une des inconnues.
3
Cours n°1
21 septembre 2020
1. Cas des systèmes de deux équations à deux inconnues
Reprenons le système S1 :
𝑥 + 2𝑦 = 10
𝐿1
𝑆1 : {
.
2𝑥 − 𝑦 = 5
𝐿2
Dans le système S1, si on garde L1 comme pivot, on peut faire disparaître x dans L2 en remplaçant cette
équation par 𝐿′2 = L2 – 2L1, par exemple 1. Le système S1 devient alors :
𝑆1′
{
𝑥 + 2𝑦 = 10
− 5𝑦 = −15
𝐿1
𝐿′2 = 𝐿2 − 2 × 𝐿1
L’intérêt de cette méthode est que les systèmes S1 et 𝑆1′ ont le même ensemble de solutions2 : on dit qu’ils
sont équivalents. Il s’ensuit que, pour déterminer l’ensemble des solutions du système S1, il suffit de
résoudre le système 𝑆1′ , ce qui se fait, très facilement, en commençant par la seconde équation, qui n’a
plus qu’une inconnue, y, qu’il est dès lors facile de déterminer. En effet, de 𝐿′2 , on déduit aisément que :
𝑦=
−15
−5
⟹ 𝑦 = 3.
On peut alors déduire la valeur de x, en remplaçant y par sa valeur dans 𝐿1 :
𝑥 = 10 − 2 × y = 10 − 2 × 3 = 4.
4
Le système S1 a ainsi pour unique solution : 𝑥 = 4 et y = 3, ce que l’on peut écrire : ( ).
3
4
Géométriquement, ( ) est l’intersection des deux droites d’équations L1 et L2 (voir graphique).
3
𝑦
𝑳𝟐
5
3
𝑥
4 5
10
𝑳𝟏
−5
Remarque : toute égalité de la forme ax + by = u peut s’interpréter comme l’équation d’une droite dans
le plan. La solution d’un système de deux équations linéaires à deux inconnues est donc donnée par
l’intersection de deux droites. Or, en règle générale, deux droites se coupent en un seul point (comme
dans le cas de S1, le système a alors une unique solution). Il n’en est cependant pas ainsi dans les cas
particuliers où
• les droites sont confondues. C’est le cas lorsque les deux équations sont proportionnelles,
autrement dit lorsque L2 = αL1. Le système a alors une infinité de solutions, qui sont tous les
points de l’unique droite dont L1 et L2 sont l’équation.
• les droites sont parallèles sans être confondues (elles ont le même coefficient directeur, mais
pas la même ordonnée à l’origine). Le système n’a alors aucune solution puisqu’aucun point
n’est commun aux deux droites.
1
On aurait tout aussi bien pu remplacer 𝐿2 par 𝐿′2 = − 𝐿2 + 2𝐿1 ou par 𝐿′2 = 𝐿2 − 𝐿1, entre autres. L’important étant simplement de
2
faire disparaître x.
2 Pour les ‘experts’, la démonstration de cette proposition se trouve dans (Gun & Jallais, 2018, p. 21-22.
1
4
Cours n°1
21 septembre 2020
2. Cas des systèmes de trois équations à trois inconnues
Qu’en est-il lorsque le système a plus de deux équations ? Appliquons la méthode du pivot au système
S2 pour voir ce qu’il en est :
𝑥 − 𝑦 + 𝑧 = −1
𝐿1
𝑆2 {−𝑥 + 2𝑦 + 2𝑧 = 0
𝐿2
2𝑥 + 𝑦 − 2𝑧 = −5
𝐿3
Conseil : pour simplifier, on choisira toujours de garder, dans un premier temps, la première équation
comme pivot (ici L1) et de faire disparaître la première inconnue (ici 𝑥).
Dans le système S1, si l’on garde L1 comme pivot, on peut faire disparaître 𝑥 dans le reste du système en
remplaçant L2 par 𝐿′2 = L2 + L1, et L3 par 𝐿′3 = L3 – 2×L1 par exemple.
Le système S2 devient alors :
𝑆2′ {
𝑥 − 𝑦 + 𝑧 = −1
𝑦 + 3𝑧 = −1
3𝑦 − 4𝑧 = −3
𝐿1
𝐿′2 = 𝐿2 + 𝐿1
𝐿′3 = 𝐿3 − 2 × 𝐿1
Attention :
✓ Chacune des deux équations 𝐿2 et 𝐿3 est remplacée par une combinaison linéaire d’elle-même
(avec un coefficient non nul) et du pivot (ici L1).
✓ Il est impératif de faire disparaître la même inconnue (ici 𝑥) des autres équations que le pivot.
On remarque alors que le système 𝑆2′ est composé du pivot, L1, et d’un sous-système de deux équations
(𝐿′2 et 𝐿′3 ) à deux inconnues (𝑦 et 𝑧), en bleu ci-dessous. En éliminant la même inconnue, dans les autres
équations que le pivot, on a ainsi fait apparaître un sous-système comportant une inconnue (𝑥) de
moins :
𝑥 − 𝑦 + 𝑧 = −1
𝐿1
𝑦 + 3𝑧 = −1
𝐿′2
𝑆2′ {
3𝑦 − 4𝑧 = −3
𝐿′3
A ce sous-système, de deux équations à deux inconnues, on peut alors appliquer la méthode du pivot.
Pour ce faire, on procède exactement comme on l’a fait pour le système S1 : on choisit 𝐿′2 comme pivot
et on remplace 𝐿′3 par une combinaison linéaire d’elle-même (avec un coefficient non nul) et de ce
nouveau pivot (𝐿′2 ) de façon à y faire disparaître l’inconnue y. On peut par exemple remplacer 𝐿′3 par
𝐿′′3 = 𝐿′3 − 3𝐿′2 , ce qui donne :
𝑆2′′
𝑥 − 𝑦 + 𝑧 = −1
𝑦 + 3𝑧 = −1
{
− 13𝑧 = 0
𝐿1
𝐿′2
.
𝐿′′3 = 𝐿′3 − 3𝐿′2
En éliminant ainsi les variables, on « triangularise » le membre de gauche du système (voir triangle
orange sur le système 𝑆2′′). Comme dans le cas précédent, les systèmes 𝑆2 , 𝑆2′ 𝑒𝑡 𝑆2′′ sont équivalents. Ils
ont le même ensemble de solutions. Or 𝑆2′′ est très facile à résoudre, en commençant par la 3e équation,
puis en remontant. La 3e équation permet de déterminer z :
𝑥 − 𝑦 + 𝑧 = −1
𝐿1
𝑦 + 3𝑧 = −1
𝐿′2 ,
𝑧 = 0
𝐿′′3
Après avoir remplacé z par 0 dans les deux
En remplaçant y par −1 dans L1, on trouve
e
autres équations, la 2 équation permet de
alors x :
𝑥 = −1 + 𝑦 = −2
déterminer y :
𝑆2′′ ⇒ {
.
𝑥 − 𝑦 = −1
𝐿1
𝑦 = −1
𝑦 = −1
𝐿′2 .
𝑆2′′ ⇒ {
𝑧=0
𝑧= 0
𝐿′′3
−2
Le système S2 a ainsi (−1) pour unique solution.
0
𝑆2′′ ⇒ {
5
Cours n°1
21 septembre 2020
Remarque – Toute égalité de la forme ax + by + cz = u peut s’interpréter comme l’équation d’un plan
dans l’espace. La solution d’un système de trois équations linéaires à trois inconnues est donc donnée
par l’intersection de trois plans. Or, en règle générale, trois plans se coupent en un seul point : en règle
générale deux plans se coupent en une droite et une droite et un plan se coupent en un point. Dans ce
cas (qui est celui de S2), le système a alors une unique solution. Il n’en est cependant pas ainsi dans les
cas particuliers où l’un des plans est une combinaison linéaire des deux autres ou lorsqu’ils sont
confondus (le système a alors une infinité de solutions) ou encore lorsque au moins deux des trois plans
sont parallèles sans être confondus (le système n’a alors aucune solution puisqu’aucun point n’est
commun aux deux plans).
Considérons, par exemple, le système S3 suivant :
𝑥− 𝑦+ 𝑧 =1
𝐿1
𝑆3 {−𝑥 + 𝑦 − 𝑧 = 𝑎
𝐿2
2𝑥 − 2𝑦 + 2𝑧 = 𝑏
𝐿3
Les membres de gauches de ces trois équations sont proportionnels. En effet, notant MG i le membre de
gauche de l’équation Li, on a : MG2 = – MG1 et MG3 = 2MG1. Les trois plans sont donc confondus ou
parallèles sans être confondus selon les valeurs des paramètres a et b.
• Si a = −1 et b = 2 : le lien entre les membres de droite est le même que celui existant entre les
membres de gauches. Les trois plans sont alors confondus et le système a une infinité de solutions.
En effet, dans ce cas :
𝑥− 𝑦+ 𝑧 = 1
𝑆3 {−𝑥 + 𝑦 − 𝑧 = −1
2𝑥 − 2𝑦 + 2𝑧 = 2
𝐿1
𝑥 − 𝑦 +𝑧=1
𝐿1
𝐿2 ⇔ {
0=0
𝐿2 + 𝐿1 ⇔ {𝑧 = 1 − 𝑥 + 𝑦
𝐿3
0=0
𝐿3 − 2𝐿1
𝑥
𝑦
L’ensemble des solutions du système S3 est alors : {(
) , 𝑥 ∈ ℝ, 𝑦 ∈ ℝ}.
1−𝑥+𝑦
•
Si a ≠ −1 ou b ≠ 2 : l’un des liens entre les membres de droites diffère du lien existant entre les
membres de gauche. Par exemple pour a = −1 mais b = 3, le plan dont L3 est l’équation est parallèle
aux deux autres et le système n’a aucune solution. En effet, dans ce cas, l’application de la méthode
du pivot au système S3 fait apparaître une équation impossible (ci-dessous 𝐿′3 ) :
𝑥 − 𝑦 +𝑧=1
𝐿1
𝑥− 𝑦+ 𝑧 = 1
𝐿1
0=0
𝐿′2 = 𝐿2 + 𝐿1
𝑆3 {−𝑥 + 𝑦 − 𝑧 = −1
𝐿2 ⇔ {
.
2𝑥 − 2𝑦 + 2𝑧 = 3
𝐿3
0=1
𝐿′3 = 𝐿3 − 2𝐿1
De nombreux autres cas sont étudiés dans le dossier de TD et les exercices complémentaires.
3.
Résumé – cas général
PRINCIPE DE LA METHODE DU PIVOT (SUITE)
La méthode du pivot consiste tout d’abord à « triangulariser » le membre de gauche d’un système
d’équations, en procédant par étapes. Lors de la première étape, la première équation est choisie
comme pivot (elle est donc laissée inchangée) et utilisée pour éliminer, par combinaison linéaire, la
première inconnue de chacune des autres équations. Lors de la deuxième étape, c’est la deuxième
équation qui est utilisée comme pivot pour éliminer la deuxième inconnue des équations suivantes ;
etc. Et on continue ainsi jusqu’en bas du système. Pour un système comportant m équations, l’opération
peut ainsi être réitérée jusqu’à m – 1 fois.
Attention, ces combinaisons linéaires se font d’une manière très précise décrite dans le premier encadré
sur le principe de la méthode du pivot (plus haut).
Une fois le membre de gauche ainsi « triangularisé », on détermine alors les solutions du système en
remontant de la dernière équation à la première.
6
Cours n°1
21 septembre 2020
La méthode du pivot s’applique très facilement à tous les systèmes d’équations linéaires, quels que
soient leurs nombres d’équations et d’inconnues.
Un système d’équations linéaires peut avoir une infinité, une unique, voire aucune solution. Sauf quand
il est homogène, auquel cas il a toujours au moins une solution. Soit en effet le système homogène S4
suivant :
𝑎11 𝑥1 + … + 𝑎1𝑗 𝑥𝑗 +… + 𝑎1𝑛 𝑥𝑛 =0
⋮
⋮
⋮
S4 𝑎𝑖1 𝑥1 + … + 𝑎𝑖𝑗 𝑥𝑗 + + 𝑎𝑖𝑛 𝑥𝑛 =0
⋮
⋮
⋮
𝑎
𝑥
+
…
+𝑎
𝑥
+…
+𝑎
𝑥
=0
{ 𝑚1 1
𝑚𝑗 𝑗
𝑚𝑛 𝑛
0
Il a toujours au moins une solution puisqu’il a pour solution le n-uplet ( ⋮ ). En effet, on a bien :
0
𝑎11 × 0 + … + 𝑎1𝑗 × 0 +… + 𝑎1𝑛 × 0 =0
⋮
⋮
⋮
𝑎𝑖1 × 0 + … + 𝑎𝑖𝑗 × 0 + + 𝑎𝑖𝑛 × 0 =0.
⋮
⋮
⋮
𝑎
×
0+
…
+𝑎
×
0+…
+𝑎
×
0=0
{ 𝑚1
𝑚𝑗
𝑚𝑛
Astuce
Il est fortement conseillé d’aller dans l’ordre indiqué (première équation utilisée pour éliminer la
première inconnue dans les autres équations, deuxième équation utilisée pour éliminer la deuxième
inconnue dans les équations suivantes, troisième équation utilisée pour éliminer la troisième inconnue
dans les équations suivantes, etc.). Cela transforme immédiatement le membre de gauche du système
en un « triangle », ce qui permet de contrôler qu’on procède correctement.
Cependant, l’ordre des équations ou des inconnues n’ayant pas d’importance, pour aller plus vite ou
simplifier les calculs, il est parfois préférable de le modifier avant d’appliquer la méthode du pivot. On
peut, par exemple, simplifier la résolution du système S3 :
2𝑥 + 𝑦 − 𝑧 = 1
S4 {− 𝑥 + 𝑦 − 𝑧 = − 2
𝑥 − 2𝑦 − 𝑧 = 3
𝐿1
𝐿2
𝐿3
en intervertissant les places de 𝑥 et de 𝑧 de la façon suivante :
−𝑧 + 𝑦 + 2𝑥 = 1
S4 {− 𝑧 + 𝑦 − 𝑥 = − 2
−𝑧 − 2𝑦 + 𝑥 = 3
𝐿1
𝐿2 .
𝐿3
La résolution s’en trouve, en effet, simplifiée puisqu’il suffit alors de remplacer L2 par L2 – L1 et L3 par
L3 – L1 :
𝑆4′ {
−𝑧 + 𝑦 + 2𝑥 =
1
− 3𝑥 = − 3
− 3𝑦 − 𝑥 =
2
𝐿1
𝐿′2 = 𝐿2 − 𝐿1 ,
𝐿′3 = 𝐿3 − 𝐿1
Il suffit alors de permuter les équations 𝐿′2 et 𝐿′3 ainsi obtenues pour triangulariser le système :
𝑆4′′ {
−𝑧 + 𝑦 + 2𝑥 = 1
− 3𝑦 − 𝑥 = 2
− 3𝑥 = −3
𝐿1
𝐿′3 = 𝐿3 − 𝐿1 ,
𝐿′2 = 𝐿2 − 𝐿1
𝑥
1
On déduit alors que la solution de ce système est : (𝑦 ) = (−1).
𝑧
0
7
Cours n°1
21 septembre 2020
CHAPITRE II
MATRICES ET SYSTEMES D’EQUATIONS LINEAIRES
On va voir dans ce chapitre qu’il est possible de savoir si un système d’équations linéaires a des solutions
et, le cas échéant, s’il en a une ou plusieurs, sans résoudre ledit système. Pour ce faire, nous utiliserons la
représentation matricielle du système. C’est donc cette représentation que nous allons étudier dans ce
chapitre. Nous allons également y introduire la notion fondamentale de rang.
I. Représentation matricielle d’un système d’équations linéaires
Reprenons le système S2 résolu dans le chapitre précédent :
𝑥 − 𝑦 + 𝑧 = −1
𝐿1
𝑆2 {−𝑥 + 2𝑦 + 2𝑧 = 0
𝐿2 .
2𝑥 + 𝑦 − 2𝑧 = −5
𝐿3
Comme tous les systèmes d’équations linéaires, ce système peut s’écrire sous une forme matricielle
de la façon suivante :
−1
1 −1
1 𝑥
𝑆2 (−1
2
2) (𝑦) = ( 0).
2
1 −2 𝑧
−5
X
A
U
PRINCIPE DU PASSAGE D’UNE ECRITURE A L’AUTRE
Le passage d’une écriture à l’autre est montré ci-dessous à l’aide de codes couleur et de légendes :
𝑥 − 𝑦 + 𝑧 = −1
𝑆2 {−𝑥 + 2𝑦 + 2𝑧 = 0
2𝑥 + 𝑦 − 2𝑧 = −5
3 équations
donc 3 lignes
1
 (−1
2
𝐿1
1 × 𝑥 − 1 × 𝑦 + 1 × 𝑧 = −1
𝐿2 {−1 × 𝑥 + 2 × 𝑦 + 2 × 𝑧 = 0
𝐿3
2 × 𝑥 + 1 × 𝑦 − 2 × 𝑧 = −5
𝐿1
𝐿2
𝐿3
−1
1 𝑥
2) ( 𝑦 ) = ( 0)
−2 𝑧
−5
−1
2
1
3 inco
3 inconnues
donc 3
colonnes
Le système 𝑆2 peut donc s’écrire ainsi :
1
𝑆2 (−1
2
−1
1 𝑥
2) (𝑦) = ( 0).
−2 𝑧
−5
−1
2
1
Cette écriture présente le double avantage d’être plus synthétique ― puisqu’elle évite la répétition des
variables et du signe « = » ― et de séparer les éléments de natures différentes dans trois tableaux de
nombres ― appelés matrices ― distincts :
• la matrice des coefficients du système :
1
A = (−1
2
8
−1
2
1
1
2) ;
−2
Cours n°1
•
21 septembre 2020
la matrice colonne des seconds membres :
−1
U = ( 0) ;
−5
•
qualifiée ainsi car ne comportant qu’une seule colonne ;
la matrice colonne des variables du système :
𝑥
X = (𝑦).
𝑧
Les symboles désignant ces variables n’ayant pas grande importance (au sens où l’ensemble des
solutions reste inchangé lorsqu’on remplace x, y et z, par x1, x2 et x3, ou par α, β et γ, par exemple), tous
les éléments qui caractérisent le système S2 peuvent être regroupés dans une matrice unique :
1
(𝐀|𝐔) = (−1
2
−1
2
1
1 −1
2| 0)
−2 −5
appelée matrice élargie du système, dans laquelle une barre verticale sépare les coefficients (à gauche)
des éléments du second membre (à droite).
Lorsque le système est ainsi présenté, la méthode du pivot consiste à « triangulariser » la partie gauche
de la matrice élargie en y faisant apparaître des zéro. C’est ce qui apparaît ci-dessous où les différentes
étapes de la résolution de S2 sont reprises, à gauche, sous la forme de systèmes (comme dans le chapitre
précédent), et à droite, sous la forme de matrices élargies :
𝑆2
𝑥 − 𝑦 + 𝑧 = −1
−𝑥
+ 2𝑦 + 2𝑧 = 0
{
2𝑥 + 𝑦 − 2𝑧 = −5
1
(𝐀|𝐔) = (−1
2
−1
2
1
1 −1
2| 0)
−2 −5
𝑥 − 𝑦 + 𝑧 = −1
𝑦 + 3𝑧 = −1
3𝑦 − 4𝑧 = −3
𝐿1
𝐿′2 = 𝐿2 + 𝐿1
𝐿′3 = 𝐿3 − 2𝐿1
1
(0
0
−1
1
3
1 −1
3|−1)
−4 −3
𝑥 − 𝑦 + 𝑧 = −1
𝑦 + 3𝑧 = −1
− 13𝑧 = 0
𝐿1
𝐿′2
𝐿′′3 = 𝐿3 − 3𝐿′2
1
(0
0
−1
1
0
1 −1
3|−1)
−13 0
𝑆2′ {
𝑆2′′ {
𝐿1
𝐿2
𝐿3
Fin du cours de la semaine 1 – travail à effectuer
•
Faire le Quiz intitulé « Quiz - Cours n°1 »
•
Préparer le TD 1
Si vous êtes en difficulté (par exemple pour préparer le TD), des exercices du même type
sont disponibles :
• Sur l’EPI (exercices complémentaires du chapitre I)
• Dans le manuel (Gun & Jallais, 2018, p. 33-38).
Complément de cours, en cas de besoin ou envie : (Gun & Jallais, 2018, Chapitre I)
9
Poly n°2
II. Les matrices
A. Présentation
Définitions II.1
Les matrices sont des tableaux de nombres du type :
𝑎11 … 𝑎1𝑗 …
⋮
⋮
…
A = 𝑎𝑖1 … 𝑎𝑖𝑗
⋮
⋮
(𝑎𝑚1 … 𝑎𝑚𝑗 …
i, le 1er indice, donne le n° de
la ligne,
j, le 2nd indice, donne le n° de
la colonne.
𝑎1𝑛
⋮
𝑎𝑖𝑛 ,
⋮
𝑎𝑚𝑛 )
m lignes
n colonnes
On peut également les noter:
A = (aij),
où aij est l’élément de A se situant à l’intersection de sa ième ligne et de sa jème colonne, i = 1, …, m
(lignes), j = 1, …, n (colonnes).
On dit que la matrice est de format (m , n), le format d’une matrice A étant le couple :
(nombre de lignes de A , nombre de colonnes de A).
Quelques exemples :
1
1 −1
1 1 1
A1 = (1
2), 𝐀𝟐 = (−1 2 1), 𝐀𝟑 = (2
0
1
1
0
−1
2
2
−3
1
−1
1
1), 𝐀𝟒 = (2) et 𝐀𝟓 = (2
3
0
−1
0
3)
Sont cinq matrices, la première de format (3 , 2), la deuxième de format (2 , 3), la troisième de format
(3 , 4), la quatrième de format (3 , 1), la cinquième de format (1 , 4).
Plus généralement, on a vu que les matrices de format (m , 1), ne comportant donc qu’une colonne
comme A4, s’appellent des matrices colonnes, alors que les matrice de format (1 , n), ne comportant
donc qu’une ligne comme A5, s’appellent des matrices lignes.
B. Quelques matrices particulières
En raison de leur forme particulière, certaines matrices sont très utiles. On les rencontrera d’ailleurs
souvent par la suite.
1. Matrices nulles
Définition II.2
Les matrices nulles de format (m , n) sont les matrices, notées 0m,n, composées uniquement de 0.
C’est par exemple le cas des matrices suivantes :
01,2 = (0
0), 02,2 = (
0
0
0
0
), et 03,4 = (0
0
0
11
0
0
0
0
0
0
0
0).
0
Poly n°2
2. Matrices opposées
Définition II.3
Soit une matrice A = (aij), de format (m , n).
On appelle opposée de A, la matrice, notée −𝐀, dont les éléments sont les opposées des éléments de
A. Cette matrice est donc de format (m, n) et on a :
−𝐀 = (−𝑎𝑖𝑗 ).
Par exemple les deux matrices suivantes sont opposées :
1 −1 4
−1 1 −4
𝐀 = (2 3 −2) et 𝐁 = (−2 −3 2) = −𝐀.
0 2 −1
0 −2 1
3. Matrices transposées
Définition II.4
Soit une matrice A = (aij), de format (m , n).
On appelle transposée de A, la matrice, notée 𝐀′ , dont les colonnes sont formées par les lignes de A.
Cette matrice est donc de format (n, m) et on a :
′
′
𝐀′ = (𝑎𝑖𝑗
), avec 𝑎𝑖𝑗
= 𝑎𝑗𝑖 .
Par exemple, la transposée de la matrice M :
1 −1
M = (1
2),
1
1
est la matrice 𝐌 ′ :
𝐌′ = (
1 1 1
).
−1 2 1
4. Sous-matrices
Définition II.5
Soit une matrice A = (aij), de format (m , n).
On appelle sous-matrice de A, toute matrice obtenue en ôtant à A une ou plusieurs de ses lignes ou
colonnes.
Par exemple la matrice :
1 −1 4
2 3 −2
𝐀=(
)
4 −3 0
0 2 −1
a plusieurs sous-matrices, parmi lesquelles les matrices :

3 −2
(−3 0) obtenue en ôtant à A sa première ligne et sa première colonne ;
2 −1

1 −1 4
(4 −3 0) obtenue en ôtant à A sa deuxième ligne ;
0 2 −1

(
1 −1
) obtenue en ôtant à A sa troisième colonne et ses deux dernières lignes.
2 3
12
Poly n°2
5. Matrices carrées
Définition II.6
Les matrices carrées sont des matrices ayant le même nombre de lignes et de colonnes.
Elles sont donc de la forme :
A = (aij) où i = 1, … , n ; j = 1, … , n.
Ainsi, les matrices :
3
𝐀𝟓 = (2), 𝐀𝟔 = (
5
0
−2
5
) et 𝐀𝟕 = (
4
1
3
2
−3
4
2
−1
−2
6
0
3
1
)
−1
−4
sont des matrices carrées.
Définitions II.7
Pour les matrices carrées, on ne parle pas de format, mais d’ordre, une matrice carrée d’ordre n étant
une matrice comportant n lignes et n colonnes.
On appelle diagonale principale d’une matrice carrée sa diagonale nord-ouest/sud-est. La diagonale
principale de la matrice A = (aij) est donc formée des termes aii.
On appelle trace d’une matrice carrée A, la somme, notée tr(A), des termes situés sur sa diagonale
principale :
𝑖=𝑛
tr(𝐀) = ∑ 𝑎𝑖𝑖 .
𝑖=1
0
2 −1
3
5 −3 −2
1
La matrice 𝐀𝟕 = (
), par exemple,
1
4
6 −1
3
2
0 −4
 est d’ordre 4 ;
 sa diagonale principale est encadrée en orange
 sa trace est : tr(𝐀𝟕 ) = 0 − 3 + 6 − 4 = −1.
6. Matrices triangulaires
Définitions II.8
Les matrices triangulaires sont des matrices carrées ne comportant que des 0 en dessous ou audessus de leur diagonale principale.
Plus précisément :
 Une matrice triangulaire supérieure est une matrice carrée ne comportant que des 0 en
dessous de sa diagonale principale. Elle est donc de la forme :
Tinf = (aij), avec aij = 0 si i > j (i = 1, … , n, j = 1, … , n).
 Une matrice triangulaire inférieure est une matrice carrée ne comportant que des 0 au-dessus
de sa diagonale principale. Elle est donc de la forme :
Tsup = (aij), avec aij = 0 si i < j (i = 1, … , n, j = 1, … , n).
13
Poly n°2
Les matrices
2 1 −1
2 0 0
T1 = (0 3 1) et 𝐓𝟏′ = ( 1 3 0),
0 0 2
−1 1 2
par exemple, sont triangulaires respectivement supérieure et inférieure.
L’application de la méthode du pivot à la matrice élargie du système S2 (au début de ce chapitre) :
1 −1
1 1
(−1
2
2|−2),
2
1 −2 −5
et c’était d’ailleurs son but, a fait apparaître une matrice triangulaire supérieur à gauche de la barre
verticale :
1 −1
1 1
(0
1
3|−1)
0
0 −13 0
C’est la raison pour laquelle on parle de « triangulariser » un système lorsqu’on lui applique la
méthode du pivot, ce que l’on fait, d’ailleurs, y compris lorsque la matrice des coefficients du système
n’est pas carrée.
7. Matrices diagonales
Définition II.9
Une matrice diagonale est une matrice carrée dont tous les termes sont nuls, à l’exception éventuelle
de ceux situés sur sa diagonale principale (appelés termes diagonaux). C’est donc une matrice de la
forme :
D = (aij), avec aij = 0 si i ≠ j (i = 1, … , n, j = 1, … , n).
C’est par exemple le cas des deux matrices suivantes :
3 0 0
0
2 0 0
0 0 0
0
(0 3 0) et (
).
0 0 −1
0
0 0 2
0 0 0 −2
Remarque : une matrice diagonale est triangulaire supérieure et inférieure.
8. Matrice identité d’ordre n
Définition II.10
On appelle matrice identité d’ordre n, notée In, la matrice diagonale d’ordre n dont tous les termes
diagonaux sont égaux à 1. On a donc :
In = (aij), avec aij = 0 si i ≠ j et aij = 1 si i = j (i = 1, … , n, j = 1, … , n).
Ainsi les matrices suivantes sont-elles des matrices identité :
1
1 0 0
1 0
0
I2 = (
), I3 = (0 1 0), I4 = (
0 1
0
0 0 1
0
9. Matrices scalaires
0
1
0
0
0
0
1
0
0
0
), etc.
0
1
Définitions II.11
On appelle matrice scalaire, une matrice de la forme 𝐒𝐧 = 𝜆𝐈𝐧 , où λ est un réel quelconque. On a
donc Sn = (aij), avec aij = 0 si i ≠ j et aij = 𝜆 si i = j (i = 1, … , n, j = 1, … , n).
14
Poly n°2
C’est par exemple le cas des matrices suivantes :
1
0
2
(
−2 0 0
5 0
), ( 0 −2 0) et
0 5
0 0 −2
1
0
2
0
0
(0
0
0
0
0
0
1
2
0
0
.
1
2)
10. Matrices symétriques
Définition II.12
Une matrice symétrique est une matrice égale à sa transposée. C’est donc une matrice A telle que :
A = A’.
C’est par exemple le cas des matrices suivantes :
3
1 −1 0
0
(−1 3 2) et (
0
0 2 −1
0
0 0
0
0 0
0
).
0 −1
0
0 0 −2
11. Matrices antisymétriques
Définition II.13
Une matrice antisymétrique est une matrice dont la transposée est égale à son opposée. C’est donc
une matrice A telle que :
𝐀′ = −𝐀.
C’est par exemple le cas des deux matrices suivantes :
0
0 −1 0
0
(1 0 2) et (
0
0 −2 0
0
0
0
0
0
0
0
0
0
0
0
).
0
0
C. Opérations sur les matrices
1. Somme de deux matrices de même format (m , n)
PRINCIPE DE LA SOMME DE DEUX MATRICES
La somme de deux matrices n’est possible que si celles-ci sont de même format et s’effectue en
additionnant les éléments qui sont à la même place (sur la même ligne et la même colonne), comme
dans l’exemple suivant :
1 + (− 3)
1+0
1 1
−3 0
−2 1
(− 2 2) + (− 1 2) = (−2 + (− 1)
)
=
(
− 3 4).
2+2
0 −1
1 3
1 2
0+
1 −1+3
On peut ainsi définir la somme de deux matrices de format (m , n) de la façon suivante :
Définition II.12
La somme des deux matrices de format (m , n), A = (aij) et B = (bij), est la matrice :
C = A + B = (cij) avec cij = aij + bij.
15
Poly n°2
La somme de deux matrices de format (m , n) a plusieurs propriétés.
PROPRIETES DE LA SOMME DE DEUX MATRICES DE FORMAT (M , N)
S1 – Elle est commutative. Ceci signifie que, quelles que soient les matrices A et B de format (m , n),
on a :
A + B = B + A.
S2 – Elle est associative. Ceci signifie que, quelles que soient les matrices A, B et C de format (m , n),
on a :
(A + B) + C = A + (B + C).
S3 – Elle a un éléments neutre : la matrice nulle de format (m , n) que l’on notera 0m,n. Ceci signifie
que, quelle que soit la matrice A, on a :
A + 0m,n = 0m,n + A = A.
S4 – Tout matrice A de format (m , n) a une opposée pour la somme, notée – A. Et on a :
A + (– A) = – A + A = 0m,n.
S5 – La transposée de la somme de deux matrices est égale à la somme des transposées de ces
deux matrices. Autrement dit, quelles que soient les matrices A et B de format (m , n), on a :
(𝐀 + 𝐁)′ = 𝐀′ + 𝐁 ′ .
1 1
−3 0
En posant, par exemple : 𝐀 = (− 2 2) et 𝐁 = (− 1 2),
0 −1
1 3
−2 1
1 −2
0
−3 −1
on a vu que 𝐀 + 𝐁 = (− 3 4) et on définit les transposées 𝐀′ = (
) et 𝐁 ′ = (
1
2 −1
0
2
1 2
1 −2
0
−3 −1 1
−2 −3 1
On a donc : 𝐀′ + 𝐁 ′ = (
)+(
)=(
), soit 𝐀′ + 𝐁 ′ = (𝐀 + 𝐁)′ .
1
2 −1
0
2 3
1
4 2
1
)
3
2. Le produit d’une matrice par un réel
PRINCIPE DU PRODUIT D’UNE MATRICE PAR UN REEL
Le produit d’une matrice par un nombre λ s’effectue en multipliant chaque élément de cette matrice
par λ, comme dans l’exemple suivant :
3
3
3×1
3×1
1 1
6).
3 × (− 2 2) = (3 × (− 2) 3 × 2
) = (− 6
3×0
3 × (−1)
0 −1
0 −3
On peut ainsi définir le produit d’une matrice de format (m , n) par un réel de la façon suivante :
Définition II.13
Le produit d’une matrice A = (aij) de format (m , n) par un réel λ, est la matrice :
λA = (λ×aij).
Ce produit a plusieurs propriétés (assez intuitives).
PROPRIETES DU PRODUIT D’UNE MATRICE PAR UN REEL
Quel que soit les matrices A et B de format (m , n) et les réels α et β. On a :
P1. α(A + B) = αA + αB
P2. (α + β)A = αA + βA
P3. α(βA) = (αβ)A
P4. Ce produit a un élément neutre : le réel 1. Ceci signifie que, quelle que soit la matrice A, on a :
1×A = A.
16
Poly n°2
3. Produit d’une matrice par une matrice colonne à droite
PRINCIPE DU PRODUIT D’UNE MATRICE PAR UNE MATRICE COLONNE A DROITE
Le produit d’une matrice A par une matrice colonne X à droite est la combinaison linéaire des
colonnes de A dont les coefficients sont les éléments de X.
Par exemple, le produit de la matrice A :
par la matrice colonne X :
1 −1
A = (1
2)
1
1
2
X=(
)
−3
est :
5
1
−1
AX = 2× (1) +(– 3)× ( 2) = (− 4).
−1
1
1
Ce produit n’est évidemment possible que parce le nombre de colonnes de A est égal au nombre
de lignes de X.
Définition II.13
Le produit de la matrice A :
où Cj est la
jème
A = (C1 … Cn),
colonne de A, par la matrice colonne X :
𝑥1
X = ( ⋮ ),
𝑥𝑛
est :
AX = x1C1 + … + xnCn..
Dans le cas particulier où A est une matrice ligne, le produit AX est un nombre. Ainsi le produit de
la matrice ligne de format (1, 3) :
L = (1 −1 2)
par la matrice colonne de format (3, 1) :
−1
C = ( 0),
2
est le nombre :
LC = (– 1) × 1 + 0 × (– 1) × + 2 × 2 = 3.
On peut aussi écrire le résultat sous la forme d’une matrice d’ordre 1 : LC = (3).
4. Produit de deux matrices
Le principe du produit matriciel se déduit de celui du produit d’une matrice par une colonne. Soient,
par exemple, les deux matrices :
− 1 2 1 −3
1 −1 2
A=(
) et B = ( 0 3 −2 −1).
0 −2 3
2 1 0 1
Si l’on note C1, C2, C3, C4 les colonnes de B, alors on peut définir le produit AB de ces deux matrices en
posant :
AB = (AC1 AC2 AC3 AC4).
On utilise alors la règle du produit d’une matrice (A) par une colonne (C1, C2, C3 et C4 successivement)
― qui peut être appliquée dans la mesure où le nombre de colonnes de A est égal au nombre
d’éléments de chaque colonne Ci :
1
−1
2
3
AC1 = −1 × ( ) + 0× ( ) + 2× ( ) = ( ),
0
−2
3
6
17
Poly n°2
1
−1
2
1
AC2 = 2 × ( ) + 3× ( ) + 1 × ( ) = ( ),
0
−2
3
−3
1
−1
2
3
AC3 = 1 × ( ) – 2× ( ) + 0× ( ) = ( )
0
−2
3
4
et
1
−1
2
0
AC4 = – 3× ( ) – 1× ( ) +1 × ( ) = ( ).
0
−2
3
5
On a donc :
AB = (
3
6
1
−3
3
4
0
).
5
Définition II.14
Le produit des matrices A = (aij), de format (m, n), et B = (C1 … Cp), de format (n, p), où Ci est la ième
colonne de B, est donné par:
AB = (AC1 … ACp).
Ce produit n’est possible que si le nombre de colonnes de A est égal au nombre de lignes de B. Et le
format de la matrice AB est (m, p), où m est le nombre de lignes de A et p, le nombre de colonnes de B.
Le produit de deux matrices peut être effectué différemment, tout en arrivant évidemment au même
résultat. En effet, en posant, dans notre exemple :
𝐿
A = ( 1)
𝐿2
(où L1 et L2 sont les lignes de A), et en disposant les trois matrices A, B et AB de la façon suivante :
𝐁 = ( 𝐶1
↓
𝐀
𝐶2
𝐶3
𝐶4 )
↓
↓
↓
𝐀𝐁 =
𝐿1 𝐶1 𝐿1 𝐶2 𝐿1 𝐶3 𝐿1 𝐶4
(
),
𝐿2 𝐶1 𝐿2 𝐶2 𝐿2 𝐶3 𝐿2 𝐶4
𝐿 →
= ( 1)
𝐿2 →
on obtient le même résultat que précédemment :
−1
 L1C1 = (1 − 1 2) ( 0) = (– 1) × 1 + 0×(– 1) + 2×2 = 3,
2
−1
 L2C1 = (0 − 2 3) ( 0) = (– 1)× 0 + 0×(– 2) + 2×3 = 6,
2
2
 L1C2 = (1 − 1 2) (3) = 2× 1 +3×(– 1) + 1×2 = 1
1

etc.
Définition II.14bis
Le produit des matrices :
𝐿1
A = ( ⋮ ), de format (m, n) et B = (𝐶1
𝐿𝑚
…
𝐶𝑝 ), de format (n, p),
est :
𝐿1 𝐶1
AB = ( ⋮
𝐿𝑚 𝐶1
où Li est la
ième
ligne de A et Cj la
jème
…
…
colonne de B.
18
𝐿1 𝐶𝑝
⋮ ) = (LiCj),
𝐿𝑚 𝐶𝑝
Poly n°2
Fin de la semaine 2
Faire le Quiz intitulé « Quiz - Cours 2 »
Dans la préparation du TD, vous pouvez aller jusqu’à l’exercice 4 du
dossier de TD 2
19
Poly n°3
Pour se remettre le produit matriciel en mémoire
0
1
1 2 3
5 1
) et B = (1 −3) est 𝐀𝐁 = (
).
−4 0 1
1 −2
1
2
Une des façons de simplifier le calcul est de l’effectuer en disposant les matrices de la façon suivante :
Le produit AB des matrices A = (
0
𝐁 = (1
1
↓
A=(
1 2 3 →
)
−4 0 1 →
𝐀𝐁 = (
1
−3)
2
↓
𝐿1 𝐶2 = 1
5 1
),
1 −2
Le produit matriciel a plusieurs propriétés.
PROPRIETES DU PRODUIT MATRICIEL
PII-1. Lorsque le produit matriciel est possible, il est associatif : l’ordre dans lequel on effectue le
produit de trois matrices n’affecte pas le résultat. Autrement dit :
(AB)C = A(BC)
Quelles que soient les matrices A, de format (m , n), B, de format (n , p) et C, de format (p , r).
PII-2. Lorsque le produit matriciel est possible, il est distributif par rapport à la somme de deux
matrices. Autrement dit :
A(B + C) = AB + AC
Quelles que soient la matrice A, de format (m , n), et les matrices B et C de format (n , p).
PII-3. Le produit d’une matrice quelconque A, de format (m, n) par la matrice identité Im à gauche, ou
la matrice identité In à droite, est égal à A :
ImA = AIn = A
PII-4. La transposée du produit de deux matrices est égale au produit des transposées, dans l’ordre
inverse. Autrement dit, soient deux matrices A et B, on a :
(𝐀𝐁)′ = 𝐁 ′ 𝐀′ .
Cette propriété est démontrée en annexe (annexe 1) de ce chapitre (pour les experts)
PII-5. Le produit de deux matrices transposées est une matrice symétrique.
Cette dernière propriété est une conséquence de la propriété précédente. En effet :
(𝐴𝐴′ )′ = (𝐴′ )′ 𝐴′ = 𝐴𝐴′ .
En revanche, le produit matriciel n’est pas commutatif
En règle générale, lorsque le produit AB est possible, le produit BA ne l’est pas (voir le premier
exemple de produit matriciel page précédente, où A est une matrice de format (2 , 3) et B, une matrice
de format (3 , 4)). En effet, puisque A est de format (m , n) et B, de format (n , p) ― de sorte que AB soit
possible ―, pour que BA soit possible, il faudrait que m = p, ce qui n’a a priori aucune raison d’être. En
outre, même lorsque ces deux produits AB et BA sont possibles, ils peuvent être différents, comme
ceux des matrices :
1 0
1 1
A=(
) et B = (
),
1 1
0 1
puisque :
1 1
2 1
AB = (
) et BA = (
).
1 2
1 1
20
Poly n°3
D. Matrice inverse d’une matrice carrée
On dit que la matrice carrée B est l’inverse à droite de la matrice carrée A si :
AB = I.
A, B et I étant évidemment de même ordre.
De même, C est l’inverse à gauche de A si :
CA = I.
Si on multiplie à droite les deux membres de cette égalité par B, l’inverse à droite de A, on a :
CAB = B.
Comme AB = I, il s’ensuit que C = B.
L’inverse à droite d’une matrice carrée est donc égal à son inverse à gauche. C’est pourquoi on ne
parle que de l’ « inverse » de A. Celui-ci est, en outre, unique. Supposons, en effet, que A ait une autre
inverse, D. On aurait alors :
AD = I.
Si on multiplie à gauche les deux membres de cette égalité par C, on a :
CAD = C.
Comme CA = I, il s’ensuit que D = C. L’inverse est donc bien unique. On le note A-1 et on a :
AA– 1= A– 1A = I.
D’où :
Définition II.15
On dit que la matrice carrée 𝐌 d’ordre 𝑛 est l’inverse de la matrice carrée 𝐀 d’ordre 𝑛 si et seulement
si, on a :
𝐀𝐌 = 𝐌𝐀 = 𝐈𝐧 .
On note alors cette matrice : 𝐌 = 𝐀−𝟏 .
E. Retour sur la méthode du pivot
1
Le produit de la matrice A = (−1
2
−1
2
1
𝑥
1
2) par la matrice colonne X = (𝑦) à droite est :
𝑧
−2
1
1
−1
AX = x(− 1) + y( 2) + z( 2)
2
1
−2
−𝑦
𝑥
𝑧
= (−𝑥 ) + ( 2𝑦 ) + ( 2𝑧),
𝑦
2𝑥
−2𝑧
𝑥− 𝑦+ 𝑧
= (− 𝑥 + 2𝑦 + 2𝑧).
2𝑥 + 𝑦 − 2𝑧
C’est le membre de gauche du système :
𝑥 − 𝑦 + 𝑧 = −1
𝑆2 {−𝑥 + 2𝑦 + 2𝑧 = 0,
2𝑥 + 𝑦 − 2𝑧 = −5
que l’on peut, pour cette raison, écrire sous la forme :
1
𝑆2 (−1
2
−1
2
1
−1
1 𝑥
2) ( 𝑦 ) = ( 0)
−2 𝑧
−5
indiquée au début de ce chapitre.
De la même façon, on peut écrire le système :
𝑥1 + 2𝑥2 + 2𝑥3 = 1
S5 { − 𝑥1 + 𝑥2 + 𝑥3 = − 1
2𝑥1 − 2𝑥2 + 𝑥3 = − 4
21
𝐿1
𝐿2 ,
𝐿3
Poly n°3
sous la forme :
𝑥1
1 2 2
1
où B = (− 1 1 1), X = (𝑥2 ) et U = (− 1).
𝑥3
2 −2 1
−4
Lorsque l’on considère le système sous sa forme matricielle, on applique la méthode du pivot à la
matrice élargie, ici (B│U) :
𝐿1
1
2 2
1
(𝐁|𝐔) = (−1
1 1 | −1 ) 𝐿2
𝐿3
2 −2 1
−4
ce qui revient à le « triangulariser ». En choisissant L1 comme pivot et en remplaçant L2 par L2 + L1 et
L3 par – L3 + 2L1, on obtient :
𝐿1 (pivot)
1
2 2
1
( 0
3 3 | 0 ) 𝐿′2 = 𝐿2 + 𝐿1
0
6 3
6
𝐿′3 = −𝐿3 + 2𝐿1
′
On réitère alors l’opération. En prenant 𝐿2 comme pivot et en remplaçant 𝐿′3 par 3𝐿′3 – 2𝐿′2 , on obtient :
𝐿1
1
2 −2
1
( 0
3
3 | 0 ) 𝐿′2 (2𝑛𝑑 pivot)
0
0 −3
6
𝐿′′3 = 𝐿′3 − 2𝐿′2
La matrice élargie qui en résulte est celle du système :
𝑥1 + 2𝑥2 − 2𝑥3 = 1
3𝑥2 + 3𝑥3 = 0,
{
− 3𝑥3 = 6
BX = U,
que l’on peut résoudre en commençant par la dernière ligne. On trouve alors que le système S5 a pour
unique solution le triplet :
1
( 2).
−2
F.
Détermination de l’inverse d’une matrice carrée par la méthode du pivot
La méthode du pivot permet de savoir si une matrice carrée a une inverse (on dit alors qu’elle est
inversible) et, le cas échéant, de la déterminer.
METHODE
Si A est la matrice que l’on cherche à inverser, on considère le système :
[1]
AX = U
où X et U sont des matrices colonnes quelconques. On peut aussi écrire ce système :
AX = IU
où I est la matrice identité de même ordre que A. On applique alors la méthode du pivot à ce système,
en combinant ses lignes, de façon à transformer A en une matrice identité. Comme, ce faisant, on
combine également les lignes de I, on arrive finalement à une égalité de la forme :
IX = MU
ou encore :
X = MU.
La matrice M est en fait l’inverse de A, si elle existe. En effet, en pré-multipliant les deux membres de
l’équation [1] par A– 1, il vient :
A– 1AX = A– 1U
et donc :
X = A– 1U.
De cette égalité et de X = MU, on déduit que :
MU = A– 1U.
Cette égalité étant vraie quelle que soit la matrice colonne U, il s’ensuit que :
M = A– 1.
22
Poly n°3
Remarque : pour que le raisonnement précédent soit valable, et donc que A– 1 existe, il faut pouvoir
transformer A en la matrice identité de même ordre, ce qui n’est possible que si, lors de sa
« triangularisation », aucun zéro n’apparaît sur sa diagonale (on verra plus loin d’autres méthodes
permettant de savoir si une matrice carrée est inversible).
Pour voir concrètement comment on procède, on va reprendre l’exemple de la matrice B (du système
S5 de la page précédente) :
1 2 2
B = (− 1 1 1).
2 −2 1
On considère alors le système :
S5 : BX = IU
ou encore :
𝐿1
1 0 0
1 2 2
𝐿2 (− 1 1 1)X = (0 1 0)U.
2 −2 1
0 0 1
𝐿3
Etape 1 – Pour y faire apparaître une matrice I à la place de la matrice B, on commence par
triangulariser cette matrice. Pour ce faire, on garde L1 comme pivot et l’on remplace L2 et L3
respectivement par L2 + L1 et L3 – 2L1, et on le fait dans toute l’équation, donc dans les deux matrices,
ce qui donne :
𝐿1 (pivot) 1 2 2
1 0 0
𝐿2 + 𝐿1 (0 3 3)X = ( 1 1 0)U
−2 0 1
𝐿3 − 2𝐿1 0 −6 −3
On réitère alors l’opération, en prenant 𝐿′2 comme
deux matrices, ce qui donne :
𝐿1
1 2
𝐿′2 (2è𝑚𝑒 pivot) (0 3
0 0
𝐿′3 + 2𝐿′2
pivot et en remplaçant 𝐿′3 par 𝐿′3 + 2𝐿′2 dans les
2
1 0 0
3)X = (1 1 0)U
3
0 2 1
La matrice du membre de gauche de ce système est alors une matrice triangulaire supérieure.
Etape 2 – L’étape suivante consiste à la transformer en une matrice diagonale. Pour ce faire, on
applique à nouveau la méthode du pivot, mais en choisissant, cette fois-ci, la dernière ligne 𝐿′′3 comme
pivot de façon à faire apparaître des 0 dans la dernière colonne de la matrice. On remplace 𝐿′2 par
𝐿′′2 = −𝐿′2 + 𝐿′′3 et 𝐿1 par 𝐿′1 = 3𝐿1 − 2𝐿′′3 . On obtient alors :
3𝐿1 − 2𝐿′′3
3 6 0
3 −4 −2
−𝐿′2 + 𝐿′′3
(0 −3 0)X = (−1 1 1)U
0 2 1
𝐿′′3 (3è𝑚𝑒 pivot) 0 0 3
′′
′
′
En gardant, enfin, 𝐿2 comme pivot et en remplaçant 𝐿1 par 𝐿1 + 2𝐿′′2 , il vient :
𝐿′1 + 2𝐿′′2
3 0 0
1 −2 0
𝐿′′2 (4è𝑚𝑒 pivot) (0 −3 0)X = (−1 1 1)U
0 0 3
0 2 1
𝐿′′3
Etape 3 – La dernière étape consiste à transformer la matrice diagonale du membre de gauche en une
matrice identité. Pour ce faire, il suffit de diviser 𝐿′′1 et 𝐿′′3 par 3 et 𝐿′′2 par – 3, ce qui donne :
1⁄ −2⁄
0
3
3
1 0 0
(0 1 0)X = 1⁄3 −1⁄3 −1⁄3 U
0 0 1
2⁄
1⁄
( 0
3
3)
Par conséquent, le système BX = IU est équivalent au système IX = 𝐁 −𝟏 U avec :
1⁄ −2⁄
0
3
3
𝐁 −𝟏 = 1⁄3 −1⁄3 −1⁄3 .
2⁄
1⁄
( 0
3
3)
23
Poly n°3

Remarques
Comme X et U restent inchangées lors de toutes ces opérations, on peut travailler sur la matrice
élargie :
1 2 21 0 0
(𝐁|𝐈) = (− 1 1 1|0 1 0).
2 −2 1 0 0 1
En procédant comme ci-dessus, on obtient dans ce cas :
1
−2⁄
0
1 0 0 ⁄3
3
1
−1
−1
⁄3
⁄3 .
0 1 0|| ⁄3
2⁄
1⁄
(0 0 1 0
3
3)
La matrice située à droite de la barre verticale est alors B – 1.

On vérifie que le système S5 :
1
où U = (− 1),
−4
résolu dans le paragraphe précédent, a pour solution :
1⁄ −2⁄
0
3
3
1
1
−𝟏
1
−1
−1
X = 𝐁 U = ⁄3
⁄3
⁄3 (− 1) = ( 2).
−4
−2
2⁄
1⁄
( 0
3
3)
BX = U,
III. Rang d’une matrice et résolution d’un système d’équations linéaires
La notion de rang joue un rôle central en algèbre linéaire. Par exemple, le rang des matrices d’un
système d’équations linéaires permet de savoir si celui-ci a ou non une solution, et ce, avant même
d’en commencer la résolution. Mais il permet bien d’autres choses, on le verra.
Pour définir la notion de rang d’une matrice, il faut d’abord présenter celle de dépendance linéaire,
qui lui est étroitement associée.
A. Dépendance linéaire des colonnes d’une matrice
Définition II.15
Soit A = (C1 … Cn), une matrice de format (m , n), où Cj désigne la jème colonne de A.
On dit que les colonnes C1, …, Cn de A sont linéairement dépendantes ou liées s'il existe n nombres
x1,…, xn, non tous nuls, tels que :
x1C1 + … + xnCn = 0m,1
Comme :
x1C1 + … + xnCn = 0m,1
𝑥1
 (C1 … Cn)( ⋮ ) = 𝟎𝐦,𝟏 (voir, plus haut, produit d’une matrice par une matrice colonne à droite)
𝑥𝑛
𝑥1
 𝐀 ( ⋮ ) = 𝟎𝐦,𝟏
𝑥𝑛
𝑥1
 𝐀𝐗 = 𝟎𝐦,𝟏 avec X = ( ⋮ ),
𝑥𝑛
cette définition peut également s’énoncer ainsi :
24
Poly n°3
Définition II.15bis
Soit A = (C1 … Cn), une matrice de format (m , n), où Cj désigne la jème colonne de A. On dit que les
colonnes de A sont linéairement dépendantes ou liées s’il existe une matrice colonne X non nulle, telle que :
AX = 0m,1.
1 1 −1
1
Par exemple, le produit de la matrice A1 = (−1 2 −1) par la matrice colonne non nulle X = (2) est :
−1 5 −3
3
1 1 −1 1
1
−1
0
1
A1X = (−1 2 −1) (2) = 1 (−1) + 2 (2) + 3 (−1) = (0).
−1 5 −3 3
−1
5
−3
0
Les colonnes de A1 sont donc linéairement dépendantes.
Si l’on note C1, C2 et C3, les trois colonnes de A1, on a donc C1 + C2 + 3C3 = O3,1. D’où C1 = −C2 − 3C3.
1 2 3
−1
Autre exemple : le produit de A2 = (4 5 6) par la matrice colonne non nulle X = ( 2 ) est nul (faites7 8 9
−1
le !), et les colonnes de A2 sont donc linéairement dépendantes. Ici, si l’on note C1, C2 et C3, les trois
colonnes de A2, on a donc −C1 + 2C2 −C3 = O3,1. D’où C1 = 2C2 − C3.
Dans ces deux cas, on peut écrire l’une des colonnes de la matrice comme une combinaison linéaire
des deux autres. En fait, la dépendance linéaire des colonnes d’une matrice exprime simplement le fait
que l’une des colonnes de cette matrice est une combinaison linéaire des autres. Il découle, en effet, de
la définition précédente que :
PROPRIETE II-6
Les colonnes d’une matrice A sont linéairement dépendantes – ou liées – si et seulement si l’une
d’entre elles peut s’écrire sous la forme d’une combinaison linéaire des autres.
Démontration de la propriété II-6
Si C1, par exemple, est une combinaison linéaire des autres colonnes de A = (C1 … Cn) :
C1 = 2C2+… +nCn,
alors il vient immédiatement que les colonnes C1,…, Cn sont linéairement dépendantes puisque l’on a :
C 1 –  2C 2 – … –  n C n = 0
avec au moins un coefficient, celui de C1, non nul.
• Réciproquement, si les colonnes de A sont linéairement dépendantes, alors (par définition de la
dépendance linéaire) il existe n nombres, x1, …, xn, dont l’un au moins est différent de 0, tels que :
x1C1 + … + xnCn = 0
Si, par exemple, x1 est non nul, cette égalité peut alors s’écrire :
x2
xn
C1 = x C2 + … + x Cn
1
1
La colonne C1 est donc une combinaison linéaire des autres colonnes de la matrice A.
1
Par exemple, Ici, si l’on note C1 et C2 les deux colonnes de la matrice A3 = (2
3
C3 = −2C2 + 0C1.
Les colonnes de A3 sont linéairement dépendantes.
25
2
2
2
−1
−1), on a :
−1
Poly n°3
Autre exemple, les colonnes de la matrice B :
1 −1 0
B = (2
1 0),
3 −2 0
sont linéairement dépendantes. Si l’on note C1, C2 et C3 ses trois colonnes respectivement, on a, en
effet :
C3 = 0C1 + 0C2.
Il existe donc bien une matrice colonne X non nulle telle que BX = 03,1 puisque :
1 −1 0 0
0
(2
1 0) (0) = (0).
3 −2 0 1
0
Ceci est d’ailleurs le cas de toutes les matrices comportant une colonne de 0, puisque celle-ci peut
toujours s’écrire sous la forme d’une combinaison linéaire des autres colonnes de la même matrice (il
suffit que tous les coefficients de cette combinaison linéaire soient nuls). Soit :
PROPRIETE II-7
Si une matrice a une colonne de 0, alors ses colonnes sont linéairement dépendantes (ou liées).
B. Indépendance linéaire des colonnes d’une matrice
L’indépendance linéaire est le contraire de la dépendance linéaire : les colonnes d’une matrice sont
linéairement indépendantes si elles ne sont pas linéairement dépendantes. Soit, si l’on reprend la
définition de la dépendance linéaire donnée plus haut :
Définition II.16
Soit A = (C1 … Cn), une matrice de format (m , n), où Cj désigne la jème colonne de A.
On dit que les colonnes C1, …, Cn de A sont linéairement indépendantes ou libres si le système :
x1C1 + … + xnCn = 0m,1
a pour seule solution :
x1 = 0, …, xn = 0.
Ou, ce qui revient au même, si le système :
𝑥1
AX = 0, où X = ( ⋮ )
𝑥𝑛
a pour seule solution X = 0.
C. Comment savoir si les colonnes d’une matrice sont libres ou liées ?
METHODE
Pour savoir si les n colonnes d'une matrice A = (C1 … Cn) de format (m , n) sont linéairement
dépendantes ou indépendantes, on résout donc le système :
AX = 0m,1.
Ce système dont le second membre est 0 ― et qui est donc homogène ― a toujours X = 0n,1 pour
solution. Deux cas de figure sont dès lors possibles :
1er cas ― X = 0n,1 en est l’unique solution et les colonnes de A sont linéairement indépendantes;
2nd cas ― ce système a d’autres solutions que X = 0n,1 : les colonnes de A sont linéairement
dépendantes.
Soit, par exemple, la matrice :
2
1 −1
M = (− 1
1
1).
1 −2 −1
26
Poly n°3
Les colonnes de M sont linéairement indépendantes si et seulement si on a :
MX = 03,1 ⇒ X = 03,1.
Pour résoudre ce système, on applique la méthode du pivot à la matrice :
2
1 −1 0
(M│0) = (− 1
1
1|0).
1 −2 −1 0
On obtient ainsi :
𝐿1
2 1 −1 0
2 1 −1 0 𝐿1
2
1 −1 0
(M│0) = (− 1
1
1|0)→ (0 3 1|0) 𝐿′2 = 𝐿1 + 2𝐿2 → (0 3 1|0)𝐿′2
1 −2 −1 0
𝐿′3 = 𝐿1 − 2𝐿3
0 5 10
0 0 2 0 𝐿′′3 = 5𝐿′2 − 3𝐿′3
D’où :
2𝑥 + 𝑦 − 𝑧 = 0
𝑥=0
MX = 03,1  {
3𝑦 + 𝑧 = 0 {𝑦 = 0.
𝑧=0
2𝑧 = 0
Le système MX = 03,1 a donc pour unique solution : X = 03,1. Il s’ensuit que les colonnes de M sont
linéairement indépendantes. On peut d’ailleurs dire la même chose des matrices « intermédiaires »
apparues lors de la triangularisation de M :
2 1 −1
2 1 −1
(0 3
1) et (0 3
1).
0 0
2
0 5
1
Remarque : le système étant homogène, en appliquant la méthode du pivot à (M│0) ne modifie que la
partie de cette matrice située à gauche de la ligne verticale (puisque des combinaisons linéaires de 0
donneront toujours 0). Du coup, on aurait pu se passer de récrire cette colonne de 0 à chaque étape et
appliquer la méthode à M uniquement.
Par la même méthode, on peut démontrer que les colonnes de la matrice N :
2 1 −1
N = (− 1 1
1)
−1 4
2
sont linéairement dépendantes. En effet, en appliquant la méthode du pivot à cette matrice, on obtient
(par exemple) :
𝐿1
𝐿1
2 1 −1
2 1 −1
(0 3 1) 𝐿1 + 2𝐿2 , puis (0 3 1) 𝐿′2 .
0 9 3 𝐿1 + 2𝐿3
0 0 0 3𝐿′2 − 𝐿′3
Le système NX = 03,1 est donc équivalent au système :
2 1 −1 𝑥1
0
(0 3 1) (𝑥2 ) = (0)
0 0 0 𝑥3
0
que l’on peut aussi écrire sous la forme :
2𝑥1 + 𝑥2 − 𝑥3 = 0
{
3𝑥2 + 𝑥3 = 0
et qui a pour solutions :
2𝑥
𝑥
x1 = 3 , x2 = − 3 , x3 quelconque.
3
3
Le système NX = 03,1 ayant d’autres solutions que X = 03,1, les colonnes de N sont linéairement
dépendantes, tout comme celles des matrices :
2 1 −1
2 1 −1
(0 3 1), (0 3 1) et (2 1 −1).
03 1
09 3
00 0
Dans ces deux exemples, l’application de la méthode du pivot à la matrice – M dans le premier cas et N
dans le second –a consisté ici à « triangulariser » la matrice, ce qui nous a permis d’aboutir à une
matrice triangulaire.
Dans le cas de la matrice M, nous avons abouti à la matrice :
2 1 −1
(0 3
1)
0 0
2
27
Poly n°3
qui est une matrice triangulaire ne comportant aucun zéro sur sa diagonale principale, raison pour
laquelle la seule solution du système a été X = 03,1. A chaque fois qu’il en est ainsi, on peut conclure
que les colonnes de la matrice sont linéairement indépendantes. En effet :
PROPRIETE II-8
Si aucun des termes de la diagonale principale d’une matrice triangulaire n’est nul, alors les colonnes
de cette matrice sont linéairement indépendantes.
Dans le cas de la matrice N, en revanche, nous avons abouti à la matrice :
2 1 −1
( 0 3 1)
00 0
qui est une matrice triangulaire comportant un zéro sur sa diagonale principale, raison pour laquelle
le système avait d’autres solutions que X = 03,1. A chaque fois qu’il en est ainsi, on peut conclure que
les colonnes de la matrice sont linéairement dépendantes. En effet :
PROPRIETE II-9
Si (au moins) l’un des termes de la diagonale principale d’une matrice triangulaire est nul, alors les
colonnes de cette matrice sont linéairement dépendantes.
Les propriétés II-8 et II-9 sont démontrées dans les encadrés du manuel (Gun & Jallais, 2018), p. 73-76.
Le système NX = 0 est ainsi équivalent à un système homogène comportant plus d’inconnues que
d’équations, plus précisément au système :
𝑥1
0
(2 1 −1) (𝑥2 ) = (0).
03 1 𝑥
3
0
Ce second cas permet de constater que lorsqu’une matrice a plus de colonnes que de lignes (non
nulles), alors ces colonnes ne peuvent pas être linéairement indépendantes. Le nombre de colonnes
linéairement indépendantes d’une matrice ne peut donc pas excéder le nombre de lignes (non nulles)
que cette dernière comporte. De façon plus générale
PROPRIETE II-10
Si une matrice a plus de colonnes que de lignes, alors ses colonnes sont linéairement dépendantes.
Fin de la semaine 3
Faire le Quiz intitulé « Quiz-Cours n°3 »
Dans la préparation du TD, vous pouvez aller jusqu’à la question 1 de
l’exercice 5 du dossier de TD 2
28
Poly n°3
Annexe 1 - Démonstration de la propriété P24
Commençons par remarquer que si
est une matrice colonne et
𝑐1
C=( ⋮ )
𝑐𝑛
L = (𝑙1
une matrice ligne, alors :
LC = (𝑙1
𝐂 ′ 𝐋′ = (𝑐1
Par conséquent :
…
𝑙𝑛 )
𝑐1
… 𝑙𝑛 ) ( ⋮ ) = l1c1 + … + lncn
𝑐𝑛
et
𝑙1
… 𝑐𝑛 ) ( ⋮ ) = c1 l1 + … + cnln
𝑙𝑛
[II.1]
LC = 𝐂 ′ 𝐋′ .
Soit maintenant les matrices :
𝐿1
A = ( ⋮ ), de format (m, n),
𝐿𝑚
et B = (𝐶1 … 𝐶𝑝 ), de format (n, p),
(où Li est la ième ligne de A et Cj la jème colonne de B).
Si on pose :
alors :
Or, comme :
AB = (mij) avec mij = (LiCj),
′
′
(𝐀𝐁)′ = (𝑚𝑖𝑗
) avec 𝑚𝑖𝑗
= mji = (LjCi)
𝐶1′
𝐁 𝐀 = ( ⋮ )(𝐿′1
𝐶𝑝′
′ ′
…
𝐿′𝑚 ) = (𝐶𝑖′ 𝐿𝑗′ ).
et comme (en raison de [II.1]) :
il résulte que :
LjCi = 𝐶𝑖′ 𝐿𝑗′ ,
(𝐀𝐁)′ = 𝐁 ′ 𝐀′ .
29
Poly n°4
Remarque
Alors que l’on s’est ici intéressé à la dépendance ― ou à l’indépendance ― linéaire des colonnes d’une
matrice A, la méthode utilisée, s’appuyant sur la résolution des systèmes d’équations linaires présentée
au chapitre 1, a paradoxalement consisté à appliquer le pivot aux lignes de A. Or, on a vu (toujours dans
le chapitre 1) que, lorsque deux lignes (ou équations) d’un système étaient liées, l’application du pivot
faisait apparaître une ligne de 0. En appliquant cette méthode aux colonnes de A, elle doit donc faire
apparaître au moins une colonne de 0 lorsque ces dernières sont liées (linéairement dépendantes).
Ainsi, si l’on applique la méthode du pivot aux colonnes de la matrice N :
2 1 −1
N = (− 1 1
1)
−1 4
2
on obtient par exemple :
2
0
0
(− 1
3
1),
−1
9
3
𝐶1 2𝐶2 − 𝐶1 2𝐶3 + 𝐶1
2
puis (−1
−1
𝐶1
0
3
9
𝐶2′
0
0).
0
3𝐶3′ − 𝐶2′
La troisième colonne de cette dernière matrice étant nulle, les colonnes de N sont linéairement
dépendantes. On aurait pu arriver à la même conclusion en remarquant que les deux dernières colonnes
de la matrice précédente sont proportionnelles (𝐶3′ = 3𝐶2′ ).
Cette méthode présente l’avantage de permettre de déterminer le lien existant entre ces colonnes. En
effet, de :
3𝐶3′ − 𝐶2′ = 0,
on déduit :
3(2C3 + C1) – (2C2 – C1) = 0
et donc
4C1 – 2C2 + 6C3 = 0,
ce qui donne, par exemple :
C2 = 2C1 + 3C3.
Si l’on applique maintenant le pivot aux colonnes de :
2
1 −1
M = (− 1
1
1)
1 −2 −1
on obtient :
2
(− 1
1
𝐶1
0
3
−5
2𝐶2 − 𝐶1
0
2
puis (− 1
1),
−1
1
2𝐶3 + 𝐶1
𝐶1
0
3
−5
𝐶2′
0
0).
2
3𝐶3′ − 𝐶2′
Aucune colonne de 0 n’apparaît : les termes de la diagonale de cette matrice triangulaire étant non nuls,
les colonnes de M sont linéairement indépendantes.
Ainsi, pour savoir si les colonnes d’une matrice A sont liées ou libres, on peut appliquer la méthode du
pivot indifféremment aux lignes ou aux colonnes de cette matrice. Mais seule l’application du pivot aux
colonnes permet d’identifier l’éventuelle relation linéaire existant entre les colonnes.
30
Poly n°4
D. Dépendance (ou indépendance) linéaire des lignes d’une matrice
Les définitions données dans le cas des colonnes d’une matrice se transposent aisément dans le cas de
ses lignes.
Définition II.17
𝐿1
Soit A = ( ⋮ ), une matrice de format (m , n), où Li désigne la ième ligne de A.
𝐿𝑚
On dit que les lignes L1, …, Lm de A sont linéairement dépendantes ou liées s'il existe m nombres x1,…,
xm, non tous nuls, tels que :
y1L1 + … + ymLn = 01,n
Comme :
y1L1 + … + ymLm = 01,n
𝐿1
 (y1 … ym)( ⋮ ) = 𝟎𝟏,𝐦
𝐿𝑚
 (𝑦1 … 𝑦𝑚 )𝐀 = 𝟎𝟏,𝐧
 𝐘𝐀 = 𝟎𝟏,𝐧 avec Y = (𝑦1 … 𝑦𝑚 ),
cette définition peut également s’énoncer ainsi :
Définition II.17bis
𝐿1
Soit A = ( ⋮ ), une matrice de format (m , n), où Li désigne la ième ligne de A. On dit que les lignes de A
𝐿𝑚
sont linéairement dépendantes ou liées s’il existe une matrice ligne Y non nulle, telle que :
YA = 01,n.
Comme les lignes de la matrice A sont les colonnes de sa transposée 𝐀′ , dire que les lignes de A sont
linéairement dépendantes revient à dire que les colonnes de 𝐀′ le sont. Toutes les propriétés rencontrées
dans les paragraphes précédents (A, B et C.) sont donc également valables ici.
Pour savoir, par exemple, si les lignes d’une matrice sont linéairement indépendantes, on peut donc
utiliser les mêmes méthodes que pour ses colonnes, en appliquant le pivot sur ses lignes. Pour répondre
à la question posée ― dépendance ou indépendance linéaire des lignes ―, il suffit alors de regarder si sa
diagonale comporte ou non (au moins) un 0.
Si, par exemple, on applique la méthode du pivot aux lignes de la matrice :
2 1 −1
N = (− 1 1
1),
−1 4
2
il vient :
2 1 −1 𝐿1
2 1 −1 𝐿1
(0 3 1) 2𝐿2 + 𝐿1 , puis : (0 3 1)𝐿′2
.
0 9 3 2𝐿3 + 𝐿1
0 0 0 𝐿′3 − 3𝐿′2
Cette dernière matrice comportant une ligne de 0, ses lignes, et en conséquence celles de N, sont
linéairement dépendantes.
Cette méthode permet même de déterminer le lien entre les lignes de N. En effet, comme :
𝐿′3 − 3𝐿′2 = 0,
il s’ensuit que :
(2L3 + L1) – 3(2L2 + L1) = 0,
et donc que :
L1 + 3L2 – L3 = 0.
31
Poly n°4
E. Rang d’une matrice
Quand on pose la question de la dépendance ou de l’indépendance linéaire des colonnes (ou lignes)
d’une matrice, on considère ces colonnes (ou lignes) dans leur ensemble, comme un tout. La question
porte en fait sur la matrice, dont l’ensemble des colonnes (ou ligne) est libre ou lié.
Considérons les quatre matrices M1, M2, M3 et M4 suivantes :

M1 = (
1
0
2
),
3
matrice triangulaire sans 0 sur sa diagonale principale, et donc dont les deux colonnes sont
linéairement indépendantes.

M2 = (
1
0
2
3
−1
1
), M3 = (
−3
1
2
2
−3
0
) et M4 = (
−3
0
0
0
0
),
0
M2, M3 et M4 sont trois matrices de format (2 , 3) dont les colonnes sont linéairement dépendantes,
puisqu’elles ont plus de colonnes que de lignes. Pourtant elles sont différentes :
o M2 contient des sous-matrices d’ordre 2 dont les colonnes sont linéairement indépendantes ;
1 2
1 −1
2 −1
M1 = (
), tout d’abord, mais aussi :(
) et (
). Prises deux à deux, les colonnes
0 3
0 −3
3 −3
de M2 sont donc linéairement indépendantes ; plus précisément, les trois colonnes de M2 sont
linéairement dépendantes, mais on peut extraire de M2 deux colonnes linéairement
indépendantes.
1 2 1 −3
2 −3
o Ce n’est pas le cas de M3, dont les trois sous-matrices d’ordre 2, (
), (
) et (
)
1 2 1 −3
2 −3
ont des colonnes linéairement dépendantes. En revanche, chacune des sous-matrices colonnes
1 2
−3
de M3, ( ), ( ) et ( ) est linéairement indépendante. Prises une à une, les colonnes de M3
1 2
−3
sont donc linéairement indépendantes ; plus précisément, les trois colonnes de M3 sont
linéairement dépendantes, mais on peut extraire de M3 une colonne linéairement
indépendante.
o Quant à M4, comme c’est une matrice nulle, elle ne contient que des sous-matrices nulles, à
savoir des sous-matrices dont les colonnes sont linéairement dépendantes.
La notion de rang permet de bien distinguer les cas de ces trois matrices.
1. Définitions
Définition II.18
On appelle rang de la matrice A, noté rangA, le nombre maximum de colonnes (ou de lignes)
linéairement indépendantes que cette matrice contient.
Si l’on reprend l’exemple des quatre matrices ci-dessus, on a :
1 2
 rangM1 = rang(
) = 2 (puisque ses deux colonnes sont linéairement indépendantes) ;
0 3
1 2 −1
 rangM2 = rang(
)=2
0 3 −3
1 2 −3
 rangM3 = rang(
) = 1.
1 2 −3
0 0 0
 rangM4 = rang(
) = 0.
0 0 0
La matrice M1 présente la particularité d’être carrée et d’avoir toutes ses colonnes (et donc toutes ses
lignes) linéairement indépendantes. Pour cette raison, on dit qu’elle est de plein rang ou régulière. Au
contraire, les matrices carrées dont les colonnes (et donc les lignes) sont linéairement dépendantes
sont qualifiées de singulières.
32
Poly n°4
C’est par exemple le cas de la matrice suivante, qui est carrée, et dont les colonnes sont linéairement
dépendantes (puisque ses deux premières colonnes sont proportionnelles) :
−1 2 − 1
(− 1 2
1)
−1 2
3
Dans le cas particulier des matrices triangulaires, l’observation de la diagonale principale suffit à
conclure si elles sont singulières ou régulières selon que leur diagonale principale contient ou pas (au
moins) un zéro. On peut donc reformuler les propriétés II-8 et II-9 comme suit :
PROPRIETE II-8BIS
Si aucun des termes de la diagonale principale d’une matrice triangulaire T n’est nul, alors cette matrice
est régulière. On a : rangT = ordreT.
PROPRIETE II-9BIS
Si au moins l’un des termes de la diagonale principale d’une matrice triangulaire T est nul, alors cette
matrice est singulière. On a : rangT < ordreT.
Remarque : dans la définition du rang, on a supposé implicitement que le rang des lignes d’une matrice
est égal à celui de ses colonnes. Or il n’existe a priori aucune raison pour que cela soit le cas. En fait, il
s’agit d’un résultat qui est loin d’aller de soi et qu’on pourra démontrer quand on disposera des outils
nécessaires. Pour le moment, on énoncera les propriétés du rang d’une matrice qui sont valables pour
ses lignes et pour ses colonnes.
2. Propriétés
Trois propriétés permettent de déterminer très facilement le rang de n’importe quelle matrice :
PROPRIETES DU RANG
PROPRIETE II-11 – Le rang d’une matrice ne change pas si l’on permute ses colonnes ou ses lignes.
PROPRIETE II-12 – Le rang d’une matrice ne change pas si l’on remplace une de ses lignes
(respectivement colonnes) par une combinaison linéaire d’elle-même (avec un coefficient non nul) et
d’une autre ligne (respectivement colonne) de la matrice.
PROPRIETE II-13 – Le rang d’une matrice est supérieur ou égal au rang de n’importe laquelle de ses sousmatrices.
Les propriétés II-11 et II-12 permettent de faire apparaître très facilement une matrice – ou une sousmatrice – triangulaire ayant le même rang que A.
□ Exemple 1
−1 1 1
Soit la matrice A1 = ( 1 −1 1).
1 1 −1
On a :
−1
0
0
1
0
2)
1
2
0
𝐶1 𝐶2 + 𝐶1 𝐶3 + 𝐶1
(en raison de la propriété II-12, C1 servant de pivot).
On a donc :
−1 0 0
rangA1 = rang( 1 2 0)
1 0 2
(en raison de la propriété II-11 ; on a ici permuté les colonnes 2 et 3).
rangA1 = rang (
33
Poly n°4
Il s’ensuit que :
rangA1 = 3
(en raison de la propriété II-8, cette matrice triangulaire d’ordre 3 ne comportant aucun 0 sur sa
diagonale)
□ Exemple 2
Soit la matrice :
−1 2 1
A2 = ( 2 −4 −2
0 1 2
−4 5 −2
−5
10)
−6
−2
On a :
−1
0
rangA2 = rang (
0
0
2
0
1
3
1
0
2
6
−5 𝐿1
0 2𝐿1 + 𝐿2
)
(voir propriété II-12)
−6 𝐿3
−18 4𝐿1 − 𝐿4
−1
0
= rang (
0
0
2
1
3
0
1
2
6
0
−5 𝐿1
−6 𝐿3
) ′ (voir propriété II-11)
−18 𝐿4
0 𝐿′2
−1
0
= rang (
0
0
2
1
0
0
1
2
0
0
−5 𝐿1
−6 𝐿3
)
′ (voir propriétés II-11 et II-12)
0 3𝐿3 − 𝐿4
0 𝐿′2
−1
0
2
1
1
2
−1
−5
) ≥ rang(
0
−6
= rang (
Or rang(
−1
0
2
) (voir propriété II-13)
1
2
) = 2 (voir propriété II-8bis).
1
On a donc : rangA2 ≥ 2 et rangA2 ≤ 2 (car A2 a deux lignes). D’où : rangA2 = 2.
3. Rang et existence de solutions des systèmes d’équations linéaires
Soit le système d’équations linéaires :
AX = U,
où X est la matrice colonne des inconnues, où A et U sont deux matrices données, la première, de format
(m, n), la seconde, de format (1, m). En notant A = (C1 … Cn), ce système peut également s’écrire :
x1C1 + … + xnCn = U.
Ceci signifie que la matrice colonne U peut s’écrire sous la forme d’une combinaison linéaire des
colonnes de A.
De deux choses l’une : soit ceci est vrai, et le système a au moins une solution, soit ceci est faux et le
système n’a pas de solution. Or ceci est vrai (U peut s’écrire sous le forme d’une combinaison linéaire
des colonnes de A) si et seulement si en ajoutant la colonne U, on n’augmente pas le rang (c’est-à-dire
le nombre de colonnes linéairement indépendantes) et que l’on a :
rang (A│U) = rangA.
Sinon :
rang (A│U) = 1 + rangA.
Puisqu’on ajoute une colonne qui n’est pas une combinaison linéaire des autre, ce qui ajoute 1 au
nombre total de colonnes linéairement indépendantes.
Il s’ensuit la propriété suivante :
34
Poly n°4
PROPRIETE 39 – Le système AX = U :
. a (au moins) une solution si et seulement si rang(A│U) = rangA
. n’a pas de solution si et seulement si rang(A│U) = 1 + rangA.
□ Exemple 1
𝐿1
(c’est le même que dans le cours n°1).
𝐿2
𝑥
1 2
10
On peut l’écrire sous la forme AX = U, avec A = (
), X = (𝑦) et U = ( ).
2 −1
5
Soit le système 𝑆1 : {
𝑥 + 2𝑦 = 10
2𝑥 − 𝑦 = 5
La propriété 39 nous dit que ce système a une solution si rang(A│U) = rangA, mais n’en a pas si
rang(A│U) = 1 + rangA.
Comme :
rangA = rang (
1
2
1
2
) = rang (
−1
0
2 𝐿1
)
=2
−5 𝐿2 − 2𝐿1
et
rang(A│U) = rang(
1
2
2 10
1
| ) = rang (
−1 5
0
2 10 𝐿1
|
)
= 2.
−5 −15 𝐿2 − 2𝐿1
En effet, cette dernière matrice ayant deux lignes, son rang est inférieur ou égal à 2. Or son rang est
supérieur ou égal au rang de sa sous-matrice A.
On a donc : rang(𝐀|𝐔) = rang𝐀 et le système S1 a au moins une solution.
□ Exemple 2
𝑥−𝑦+𝑧=1
Soit le système 𝑆 : {−𝑥 + 𝑦 − 𝑧 = 2
2𝑥 − 𝑦 + 𝑧 = 0
𝐿1
𝐿2
𝐿3
𝑥
1
1 −1
1
On peut l’écrire sous la forme AX = U, avec A = (−1
1 −1), X = (𝑦) et U = (2).
𝑧
2 −1
1
0
Comme :
1 −1
1 𝐿1
1 −1
1 𝐿1
1 −1
1
𝐿
rangA = rang(−1
)=2
1 −1) 2 = rang (0
0
0) 𝐿2 + 𝐿1 = rang (
0
1
−1
2 −1
1 𝐿3
0
1 −1 𝐿3 − 2𝐿1
et
1 −1
1 1 𝐿1
1 −1
1 1 𝐿1
𝐿
rang(𝐀|𝐔) = rang (−1
1 −1|2) 2 = rang (0
0
0| 3) 𝐿2 + 𝐿1
𝐿
2 −1
10 3
0
1 −1 −2 𝐿3 − 2𝐿1
1
= rang (0
0
−1
1
0
1 1 𝐿1
1
−1|−2) 𝐿′3 ≥ rang (0
0 3 𝐿′2
0
−1 1
1|−2)
0 3
On a : rang(𝐀|𝐔) ≥ 3 et rang(𝐀|𝐔) ≤ 3 car la matrice (𝐀|𝐔) a trois lignes.
D’où : rang(𝐀|𝐔) = 3 = 1 + rang𝐀 et le système S n’a pas de solution.
35
Poly n°4
CHAPITRE III
LES ESPACES VECTORIELS
Les espaces vectoriels sont des ensembles dont les éléments s’appellent des vecteurs et qui se caractérisent
par une certaine structure.
I. Structure d’espace vectoriel
L’un des espaces vectoriels les plus familiers aux économistes est l’ensemble IR². On trouve des
éléments de IR² dans le modèle IS-LM, dans la présentation usuelle du modèle du consommateur, où on
se limite, le plus souvent, à des paniers de biens ne comportant que deux éléments, ou lorsque l’on
présente la fonction de production.
A. L’exemple de IR²
𝑢1
Rappelons que IR² est l’ensemble des couples ordonnés (𝑢 ) où u1 et u2 sont deux réels :
2
𝑢1
IR² = {(𝑢 ) , 𝑢1 ∈ ℝ, 𝑢2 ∈ ℝ},
2
« couple ordonné » signifiant simplement que si u1  u2, alors on a :
𝑢1
𝑢2
(𝑢 )  (𝑢 ).
2
1
Si, par exemple, le couple
𝑢1
(𝑢 )
2
désigne un panier contenant x1 pommes et x2 poires, alors il va de soi que le panier
1
( ),
3
contenant une pomme et trois poires, diffère du panier
3
( ),
1
contenant trois pommes et une poire.
𝑢1
En revanche, on peut noter tous ces couples indifféremment en colonne (𝑢 ) ou en ligne (u1, u2). Dans
2
ce manuel, on privilégiera la notation en colonne afin de faciliter le passage de l’écriture matricielle à
l’écriture vectorielle et inversement.
𝑌
𝐾
Par exemple, les couples (Y , i) ou ( ) du modèle IS-LM, (K , L) ou ( ) de la fonction de production, ou
𝑖
𝐿
𝑞1
le panier de bien (𝑞 ) sont des éléments de IR².
2
Graphiquement, on peut représenter un vecteur soit par une flèche, soit par un point. Par exemple, le
1
panier de biens ( ) contenant 1 pomme et 3 poires peut être représenté comme suit :
3
Quantité de poires
1
( )
3
3
2
1
Quantité de pommes
0
1
36
Poly n°4
1. La somme de deux vecteurs de IR²
La somme de deux vecteurs de IR² se définit de la même façon que la somme de deux matrices de format
(2, 1) ― ou (1, 2) si l’on note les vecteurs en lignes. Ainsi, la somme des deux vecteurs :
𝑢1
𝑣1
U = (𝑢 ) et V = (𝑣 )
2
2
est-elle égale à :
𝑢 + 𝑣1
U+V=( 1
).
𝑢2 + 𝑣2
Graphiquement, on fait la somme de deux vecteurs de IR² en appliquant la règle du parallélogramme.
1
2
Par exemple, le somme des vecteurs ( ) et ( ) peut être représentée comme suit :
3
−1
1
( )
3
1
3
1
2
3
( )+( )=( )
3
−1
2
2
1
0
3
1
(
−1
2
)
−1
Remarquons que la somme de deux vecteurs de IR² a pour résultat un vecteur de IR². Pour cette raison
on dit que cette somme est une loi de composition interne. Plus généralement,
Définition III.1
On appelle loi de composition interne toute application de E×E dans E.
.
Une loi de composition interne compose deux éléments d’un même ensemble (ici E, d’où le EE) pour
donner un élément de cet ensemble.
La somme vectorielle a les même propriétés S1 à S4 que la somme de deux matrices de même format
(voir cours n°2)1 : elle est (S1) commutative et (S2) associative ; (S3) elle possède un élément neutre
unique, le vecteur (0), appelé le vecteur nul et noté 0 ou ⃗⃗⃗⃗
02 et, enfin, (S4) tout vecteur X de IR² a un
0
opposé, noté – X, pour la somme vectorielle.
En résumé : sur IR², on peut définir une loi de composition interne, la somme vectorielle, ayant les
propriétés S1, S2, S3 et S4.
1
En revanche, comme on peut écrire un vecteur en ligne ou en colonne, il n’est pas question de transposé d’un vecteur.
37
Poly n°4
0
Remarque : il y a donc deux notations possibles pour la colonne ( ) ∶
0
 La notation matricielle : 02,1 car c’est une matrice nulle ayant 2 lignes et une colonne,
 La notation vectorielle : ⃗⃗⃗⃗
02 où la flèche indique qu’il s’agit d’un vecteur nul et où le nombre 2
précise que ce vecteur appartient a IR².
2. Produit d’un vecteur de IR² par un réel (homothétie)
Le produit d’un vecteur de IR² par un réel – ou homothétie – se définit de la même façon que le produit
d’une matrice par un réel. Ainsi, le produit du vecteur :
𝑢1
U = (𝑢 )
2
par le réel λ est égal à :
λ𝑢
λ𝑈 = ( 1 ).
λ𝑢2
Graphiquement, ce vecteur a la même direction que U. Seule sa longueur change. Le vecteur 2U, par
exemple, est deux fois plus long que U.
Remarquons que le produit d’un vecteur de IR² par un réel a pour résultat un vecteur de IR². Pour cette
raison on dit que cette somme est une loi de composition externe. Plus généralement,
Définition III.2
On appelle loi de composition externe toute application de E×F dans E.
.
Une loi de composition externe compose deux éléments de deux ensembles différents (ici E et F, d’où le
EF) pour donner un élément du premier de ces deux ensembles.
La somme vectorielle a les même propriétés P1 à P4 que le produit d’une matrice par un réel (voir cours
n°2)2.
En résumé : sur IR², on peut définir une loi de composition externe, l’homothétie (ou produit d’un
vecteur de IR² par un réel) ayant les propriétés P1, P2, P3 et P4.
Fin de la semaine 4
Faire le Quiz : « Quiz-Cours n° 4 »
Dans la préparation des TD, vous pouvez aller jusqu’aux exercices 1a
et 2a de l’exercice 1 du dossier de TD 3.
2
En revanche, comme on peut écrire un vecteur en ligne ou en colonne, il n’est pas question de transposé d’un vecteur.
38
Cours n°5
B. Définition d’un espace vectoriel sur IR
Si l’on considère maintenant, non plus les couples ordonnés de IR², mais les triplets ordonnés de IR3,
𝑢1
(𝑢2 ), on peut définir, exactement de la même façon :
𝑢3
 une loi de composition interne, la somme de deux vecteurs de IR3, vérifiant les propriétés S1, S2, S3
et S4, l’élément neutre de la somme de deux vecteurs de IR3 étant le vecteur nul IR3, noté ⃗⃗⃗⃗
03 , avec :
0
⃗⃗⃗⃗
03 = (0);
0
 une loi de composition externe, le produit d’un vecteur de IR3 par un réel, vérifiant les propriétés
P1, P2, P3 et P4.
Et il en va de même si l’on considère les quadruplets ordonnés de réels de IR4. Sur IR4, on peut définir
deux lois : une loi de composition interne, la somme vectorielle, possédant les propriétés S1 à S4, et
une loi de composition externe, l’homothétie, possédant les propriétés P1 à P4.
A cet égard, IR², IR3, IR4, IR5 … et plus généralement IRn ont tous la même structure : une structure
d’espace vectoriel.
Définition III.31
On appelle espace vectoriel sur IR, tout ensemble E muni de deux lois :

une loi de composition interne (appelée somme vectorielle) ayant les propriétés S1, S2, S3 et S4

et une loi de composition externe (appelée homothétie ou produit d’un vecteur par un réel) et
vérifiant P1, P2, P3 et P4.
C. Les sous-espaces vectoriels
Si l’on reprend la définition d’un espace vectoriel, on voit tout de suite que démontrer qu’un ensemble
est un espace vectoriel est une opération assez longue, comportant une bonne dizaine d’étapes : il
faut, en effet, démontrer que, sur cet ensemble, on peut définir deux lois de compositions, l’une
interne, l’autre externe. Il faut ensuite démontrer que la première possède les quatre propriétés S1 à
S4, et enfin que la seconde possède les quatre propriétés P1 à P4.
Cela dit, la plupart de ces étapes sont inutiles lorsque l’ensemble en question est une partie – ou un
sous-ensemble – non vide d’un espace vectoriel. Considérons, en effet, par exemple l’ensemble E1
suivant :
𝑢1
E1 = {(𝑢 ) ∈ ℝ², 𝑢2 = 2𝑢1 }.
2
Les éléments de l’ensemble E1 sont les vecteurs de IR² dont le second élément est égal à deux fois le
premier, comme, par exemple :
1 2 0,25 − 1
0
( ), ( ), (
), (
) ou ( ).
0,5
2 4
−2
0
Tout élément de cet ensemble étant un vecteur de IR², E1 est une partie – un sous-ensemble – de IR².
En conséquence :
 Les deux lois de compositions sont donc les mêmes pour E1 que pour IR² : on peut faire la somme
de deux vecteurs de E1 puisque ce sont des vecteurs de IR² et, pour la même raison, on peut faire
le produit de tout vecteur de E1 par un réel.
 En outre, ces deux lois de compositions ont les mêmes propriétés : la somme de deux éléments de
E1 étant une somme de deux vecteurs de IR², elle a les mêmes propriétés que cette dernière
1
La définition, plus générale, d’un espace vectoriel sur un corps K est donnée dans (Gun & Jallais 2014, p. 93).
39
Cours n°5
sur IR² ; et le produit d’un élément de E1 par un réel étant un produit d’un vecteur de IR² par un
réel, il a les mêmes propriétés que ce dernier sur IR².
Dès lors, pour savoir si E1 est un espace vectoriel sur IR, on doit simplement vérifier :
 d’une part, que la somme vectorielle est bien une loi de composition interne sur E1, autrement dit
que, lorsque l’on fait la somme de deux éléments quelconques de E1, le résultat est bien un
élément de E1 (on dit alors que E1 est stable pour la somme vectorielle) ;
 et, d’autre part, que l’homothétie est bien une loi de composition externe sur E1, autrement dit
que, lorsque l’on fait le produit d’un élément quelconque de E1 par un réel, on obtient bien un
élément de E1 (on dit alors que E1 est stable pour l’homothétie).
𝑢1
Dans notre exemple, les éléments de l’ensemble E1 = {(𝑢 ) ∈ ℝ², 𝑢2 = 2𝑢1 }.
2
sont de la forme :
𝑢1
(2𝑢 ), où u1 est un réel.
1
Considérons deux éléments quelconques de E1,
𝑢1
𝑣1
U = (2𝑢 ), avec u1∈ IR et V = (2𝑣 ), avec v1∈ IR,
1
1
Leur somme W = U + V est égale à :
𝑤1
𝑢 + 𝑣1
W = (𝑤 ) = ( 1
).
2𝑢1 + 2𝑣1
2
et comme 2u1 + 2v1 = 2(u1 + v1), on a bien 𝑤2 = 2𝑤1 ce qui implique que W est un élément de E1.
De même, le produit d’un vecteur de E1,
𝑢1
U = (2𝑢 ), u1∈ IR,
1
par un réel α, est égal à :
α𝑢1
αU = (α2𝑢 ).
1
C’est donc un élément de E1 puisque α2u1 = 2(αu1).
Il s’ensuit que l’ensemble E1 est stable pour la somme vectorielle et l’homothétie ; c’est donc un espace
vectoriel. On dit que c’est un sous-espace vectoriel de IR².
De façon plus générale, on a la propriété suivante :
PROPRIETE III-1
Soit Ei une partie non vide d’un espace vectoriel 2 E.
L’ensemble Ei est un espace vectoriel si et seulement si Ei est stable pour la somme vectorielle et pour
l’homothétie.
On dit alors que Ei est un sous-espace vectoriel de E sur IR.
Contrairement à E1, l’ensemble E2 :
𝑢1
E2 = {(𝑢 ) ∈ ℝ², 𝑢2 = 2𝑢1 + 1},
2
n’est pas un espace vectoriel. Pourtant, comme E1, E2 est une partie non vide de IR² : tous ses éléments
sont en effet des vecteurs de IR² et il contient par exemple le vecteur :
1
( ),
3
puisque 3 = 2(1) + 1.
Les lois de composition sont donc les mêmes pour E2 et IR² et elles ont les mêmes propriétés, du
moins sur IR². Cependant, on peut démontrer que la somme de deux éléments de E2 n’est pas
2
Dans ce cours, on ne rencontrera que des sous-espaces vectoriels de ℝn.
40
Cours n°5
nécessairement un élément de E2 : la somme vectorielle n’est donc pas une loi de composition interne
sur E2.
𝑢1
Les éléments de E2 sont, en effet, de la forme (2𝑢 + 1), où u1 est un réel.
1
Considérons deux éléments quelconques de E2,
𝑢1
𝑣1
U = (2𝑢 + 1), u1∈ IR et V = (2𝑣 + 1), u1 ∈ IR,
1
1
Leur somme W = U + V est égale à :
𝑤1
𝑢1 + 𝑣1
W = (𝑤 )= (
).
2𝑢1 + 1 + 2𝑣1 + 1
2
Ce n’est donc pas un élément de E2 puisque :
𝑤2 = 2u1 + 1 + 2v1 + 1 = 2(u1 + v1) + 2 = 2𝑤1 + 2 ≠ 2𝑤1 + 1.
Il s’ensuit que l’ensemble E2 n’est pas stable pour la somme vectorielle ; ce n’est donc pas un espace
vectoriel.
Nous aurions pu arriver directement à cette conclusion en remarquant que E2 ne contient pas le
vecteur nul de IR² (puisque 0 ≠ 2(0) + 1) et, en conséquence, que la somme vectorielle n’a pas
d’élément neutre sur E2 (elle ne vérifie donc pas la propriété S3 sur E2).
Plus généralement :
PROPRIETE III-2
Pour que Ei soit un sous-espace vectoriel de E sur IR, il faut que Ei contienne l’élément neutre de E
pour la somme vectorielle.
Cas particulier de ℝn : pour que Ei soit un sous-espace vectoriel de ℝn sur IR, il faut que Ei contienne le
vecteur nul de ℝn, noté ⃗⃗⃗⃗
0𝑛 .
Cette condition n’est qu’une condition nécessaire. Elle permet donc d’établir rapidement, si elle n’est
pas remplie, que Ei n’est pas un espace vectoriel. En revanche, dans le cas où elle est remplie, elle n’est
pas suffisante pour conclure que Ei est un espace vectoriel.
D. Systèmes générateurs d’un espace vectoriel
Etant données les propriétés de la somme vectorielle et de l’homothétie sur un espace vectoriel, on a
vu, d’une part, que la somme de deux vecteurs d’un espace vectoriel E sur IR était un vecteur de E et,
d’autre part, que le produit d’un vecteur de E par un réel était également un vecteur de E. Il s’ensuit
que les combinaisons linéaires de vecteurs de E sont des vecteurs de E.
Par exemple, la combinaison linéaire des deux vecteurs de IR² :
1
−1
( ) et (
),
2
1
affectés des réels 1 et 2 est le vecteur de IR² :
1−2
1
−1
−1
1× ( ) + 2× (
)=(
)= (
).
2+2
2
1
4
On peut remarquer qu’une combinaison linéaire est en fait une combinaison de sommes et
d’homothéties de vecteurs.
Réciproquement, on peut dire que tout vecteur peut s’écrire sous la forme d’une combinaison linéaire
d’autres vecteurs du même espace vectoriel.
−1
Par exemple, le vecteur (
)
4
est (on vient de le voir) une combinaison linéaire des vecteurs :
1
−1
( ) et (
)
2
1
affectés des réels 1 et 2, qui sont alors les coefficients de la combinaison linéaire ;
41
Cours n°5
mais c’est aussi une combinaison linéaire des vecteurs :
1
0
( ) et ( )
0
1
affectés des scalaires – 1 et 4, puisque :
−1
1
0
(
) = −1 ( ) + 4 ( )
4
0
1
2
Si l’on prend maintenant le vecteur ( ),
1
on peut également l’écrire sous la forme d’une combinaison linéaire des vecteurs :
1
−1
( ) et (
)
2
1
puisque :
2
1
−1
( )=( )–(
),
1
2
1
ou sous la forme d’une combinaison linéaire des vecteurs :
1
0
( ) et ( )
0
1
puisque :
2
1
0
( ) = 2( ) + ( ),
1
0
1
On peut alors se demander si l’on ne peut pas écrire tous les vecteurs de IR2 sous la forme d’une
combinaison linéaire des vecteurs :
1
−1
( ) et (
)
2
1
ou encore des vecteurs :
1
0
( ) et ( ).
0
1
Plus généralement, on peut se demander si, pour chaque espace vectoriel E, on ne pourrait pas
trouver un ensemble de vecteurs (contenant si possible un petit nombre de vecteurs) desquels on
pourrait déduire, par combinaison linéaire, tous les autres vecteurs de E. En fait, de tels ensembles
existent : ce sont les systèmes générateurs de E.
Définition III.4
On dit que l’ensemble G = {C1, …, Cn} engendre l’espace vectoriel E – ou est un système générateur
de E – si et seulement si tout élément X de E peut s’écrire sous la forme d’une combinaison linéaire des
vecteurs de G.
□ Exemple 1
Comme :
𝑢1
𝑢
0
1
0
(𝑢 ) = ( 1 ) + ( ) = u1( )+ u2( ),
𝑢2
0
2
0
1
tous les vecteurs de IR² peuvent s’écrire sous la forme d’une combinaison linéaire des deux vecteurs :
1
0
( ) et ( ).
0
1
L’ensemble G1 :
1
0
G1 = {( ) , ( )}
0
1
est donc un système générateur de IR².
□ Exemple 2
42
Cours n°5
𝑢1
De la même façon, les vecteurs de l’espace vectoriel E1 = {(𝑢 ) ∈ ℝ², 𝑢2 = 2𝑢1 } rencontré plus haut
2
sont de la forme :
𝑢1
(2𝑢 )
1
ou encore :
1
u1× ( ).
2
On a donc :
1
E1 = {𝑢1 × ( ) , 𝑢1 ∈ ℝ}.
2
1
L’ensemble E1 est donc engendré par le singleton {( )}.
2
□ Exemple 3
On peut également montrer que l’ensemble G2 :
1
1
1
) , ( ) , ( )}
−1
1
−2
est générateur de IR². Par définition, en effet, G2 est générateur de IR² si et seulement si tout vecteur
de IR² peut s’écrire sous la forme d’une combinaison linéaire des vecteurs de G2, autrement dit, si, quel
que soit le vecteur :
𝑢1
(𝑢 )
2
de IR², il existe trois réels x1, x2, x3 tels que :
𝑢1
1
1
1
(𝑢 ) = x1( ) + x2( ) + x3( ).
2
−1
1
−2
Le problème posé est donc celui de l’existence (ou non) de solutions au système :
𝑥1
𝑢1
1 1
1 𝑥
(
) ( 2 ) = (𝑢 ).
−1 1 −2 𝑥
2
3
Or, à la fin du chapitre précédent, on a vu que ce système a au moins une solution si et seulement si on
a:
1 1
1 𝑢1
1 1
1
rang(
| ) = rang(
)
−1 1 −2 𝑢2
−1 1 −2
Comme :
1 1
1
1 1
1 𝐿1
rang(
) = rang(
)
=2
−1 1 −2
0 2 −1 𝐿2 + 𝐿1
(en effet le rang de cette matrice est inférieur ou égal
à 2, son nombre de lignes, et ses deux premières
colonnes forment une matrice triangulaire de rang 2),
et comme :
1 1
1 𝑢1
rang (
| )=2
−1 1 −2 𝑢2
(en effet, le rang de cette matrice est inférieur ou égal
à son nombre de lignes et supérieur ou égal au rang de
la matrice précédente puisque celle-ci est l’une de ses
sous-matrices),
on peut donc conclure que ce système a au moins une solution et, en conséquence, que G2 engendre
IR².
G2 = {(
De façon plus générale, on a :
PROPRIETE III-3
L’ensemble {C1, …, Cn} est générateur de E si et seulement si, quel que soit le vecteur U de E, on a (en
adoptant l’écriture matricielle) :
rang(𝐶1 ⋯ 𝐶𝑛 |𝑈) = rang(𝐶1 ⋯ 𝐶𝑛 ).
43
Cours n°5
Le concept de système générateur est très précieux au sens où il permet de « résumer » l’infinité de
vecteurs contenue dans un espace vectoriel en un nombre fini de vecteurs. Ainsi, on l’a vu, l’infinité de
vecteurs de IR2 peut être déduite, par combinaison linéaire, de deux ou trois vecteurs (G1 ou G2). Cet
exemple montre au passage qu’un espace vectoriel a plusieurs systèmes générateurs.
Fin de la semaine 5
Faire le Quiz intitulé « Quiz - Cours n° 5 »
Dans la préparation des TD, vous pouvez aller jusqu’à l’exercice 6 du
dossier de TD 3
44
Poly n°6
Le concept de système générateur, on l’a vu, permet de « résumer » l’infinité de vecteurs contenue dans
un espace vectoriel en un nombre fini de vecteurs. En effet, si E est un espace vectoriel, alors l’ensemble
des vecteurs de E peuvent s’écrire sous la forme de combinaisons linéaires de certains d’entre eux, qui
en forment donc ce que l’on appelle un système générateur de E.
Mais ce concept est également très utile pour démontrer qu’un ensemble est un sous-espace
vectoriel d’un espace vectoriel donné. Soit, par exemple, l’ensemble :
2
1
E3 = {α (−1) + β (1) , α ∈ ℝ, β ∈ ℝ}.
2
0
On va ici voir que, comme E3 est l’ensemble de toutes les combinaisons linéaires de deux vecteurs de IR3,
alors E3 est un sous-espace vectoriel de IR3. Pour démontrer cela, on utilise simplement la propriété III1 vue plus haut. Cette démonstration se fait donc en trois étapes.
Etape 1 – On vérifie tout d’abord que l’ensemble E3 est une partie non vide de IR3.
Ce qui est vrai puisque,
 d’une part, elle contient le vecteur nul de IR3. En effet :
0
2
1
(0) = 0 × (−1) + 0 × (1),
0
2
0
 et, d’autre part, tous les éléments de E3 sont des éléments de IR3.
La propriété III-1 s’applique donc : l’ensemble E3 est un espace vectoriel de IR3 si et seulement si E3 est
stable pour la somme vectorielle et pour l’homothétie.
Etape 2 – On vérifie alors la stabilité de E3 pour la somme vectorielle
Or E3 est stable pour la somme vectorielle. Soit, en effet, deux éléments quelconques de E 3 :
2
2
1
1
𝑈 = α (−1) + β (1) et 𝑈′ = α′ (−1) + β′ (1),
2
0
2
0
où α, β, α’ et β’ sont des réels. La somme de ces deux éléments est :
2
2
1
1
𝑈 + 𝑈′ = α (−1) + β (1) + α′ (−1) + β′ (1)
2
0
2
0
2
1
= (α + α′) (−1) + (β + β′) (1)
2
0
C’est donc bien un élément de E3 puisque c’est une combinaison linéaire des deux vecteurs :
2
1
(−1) et (1).
2
0
Etape 3 – On vérifie enfin la stabilité de E3 pour l’homothétie
Comme :
2
1
λ𝑈 = λα (−1) + λβ (1)
2
0
est également un élément de E3 quel que soit le réel λ, puisque c’est une combinaison linéaire des deux
vecteurs :
2
1
(−1) et (1),
2
0
l’ensemble E3 est stable pour l’homothétie.
45
Poly n°6
Ainsi, l’ensemble E3 étant une partie non vide de IR3 stable pour la somme vectorielle et l’homothétie,
c’est un sous-espace vectoriel de IR3. C’est même plus précisément le sous-espace vectoriel de IR3
engendré par l’ensemble G :
2
1
G = {(−1) , (1)}.
2
0
Plus généralement :
PROPRIETE III-4
L’ensemble engendré par un ensemble G de vecteurs de IRn est un sous-espace vectoriel de IRn.
[propriété démontrée en annexe de ce cours]
Ou (cas général), l’ensemble engendré par un système G de vecteurs appartenant tous au même espace
vectoriel E sur IR est un sous-espace vectoriel de E sur IR.
De cette propriété, on déduit une méthode très rapide pour démontrer qu’un ensemble est un sousespace vectoriel de IRn.
METHODE
Pour démontrer qu’un ensemble Ei est un sous-espace vectoriel de IRn (ou plus généralement d’un
espace vectoriel E), il suffit de démontrer qu’il est engendré par un ou plusieurs vecteurs de IRn
(respectivement de E), autrement dit qu’il est l’ensemble de toutes les combinaisons linéaires de ces
vecteurs.
𝑢1
Pour démontrer, par exemple, que l’ensemble E1 = {(𝑢 ) ∈ ℝ², 𝑢2 = 2𝑢1 } est un sous-espace vectoriel
2
de IR2, il suffisait donc de remarquer (comme on l’a fait plus haut) que E1 est l’ensemble des
combinaisons linéaires d’un vecteur de IR2 :
1
E1 = {𝑢1 ( ) , 𝑢1 ∈ ℝ},
2
1
puis de conclure qu’il s’agit donc du sous-espace vectoriel de ℝ² engendré par {( )}.
2
Lorsque le système générateur est un singleton (un ensemble composé d’un unique vecteur), on parle
d’ailleurs plutôt dans ce cas d’homothétiques d’un vecteur de IR2. E1 est donc l’ensemble des
homothétiques du vecteur
1
( ).
2
II. Bases d’un espace vectoriel
On vient de voir que IR2 était engendré (entre autres) par :
1
1
1
G2 = {( ) , ( ) , ( )}.
−1
1
−2
IR2 est donc l’ensemble des combinaisons linéaires des vecteurs de G2, ce que l’on peut écrire :
1
1
1
ℝ2 = {α ( ) + β ( ) + γ ( ) , α ∈ ℝ, β ∈ ℝ, γ ∈ ℝ }.
−1
1
−2
1
1
1
) , ( ) et ( ) forment, en effet, une matrice de format
−1
1
−2
(2 , 3) dont le rang est en conséquence inférieur ou égal à 2.
Or G2 est lié. Les trois vecteurs colonnes (
46
Poly n°6
Pour savoir comment ces vecteurs colonnes sont liés, on peut appliquer la méthode du pivot aux
colonnes la matrice formée par ces trois vecteurs :
(
1 1
1
)
−1 1 −2
𝐶1 𝐶2 𝐶3
⟹
(
1
−1
𝐶1
0
2
𝐶2 − 𝐶1
0
)
⟹
−1
𝐶3 − 𝐶1
(
1
−1
𝐶1
0
2
𝐶2′
0
)
0
′
2𝐶3 + 𝐶2′
On a donc (dernière colonne de cette dernière matrice) :
0
2𝐶3′ + 𝐶2′ = ( ).
0
Et comme 𝐶3′ = 𝐶3 − 𝐶1 et 𝐶2′ = 𝐶2 − 𝐶1 , en remplaçant dans l’équation [1], on obtient :
0
2(𝐶3 − 𝐶1 ) + (𝐶2 − 𝐶1 ) = ( ),
0
ce qui donne :
0
−3𝐶1 + 𝐶2 + 2𝐶3 = ( ),
0
ou encore :
𝐶2 = 3𝐶1 − 2𝐶3 .
[1]
1
1
1
), 𝐶 = ( ) et 𝐶3 = ( ) :
−1 2
1
−2
1
1
3
2
1
3𝐶1 − 2𝐶3 = 3 × ( ) − 2 × ( ) = ( ) − ( ) = ( ) = 𝐶2 .
−1
−2
−3
−4
1
On peut vérifier ce résultat sachant que 𝐶1 = (
1
1
1
Si, maintenant, on remplace 𝐶2 par 3𝐶1 − 2𝐶3 , autrement dit, on replace ( ) par 3 × ( ) − 2 × ( ),
1
−1
−2
dans la définition de ℝ2 comme ensemble des combinaisons linéaires des vecteurs de G2, on obtient :
1
1
1
ℝ2 = {α ( ) + β ( ) + γ ( ) , α ∈ ℝ, β ∈ ℝ, γ ∈ ℝ },
−1
1
−2
Ce qui s’écrit également :
1
1
1
1
ℝ2 = {α ( ) + β [3 × ( ) − 2 × ( )] + γ ( ) , α ∈ ℝ, β ∈ ℝ, γ ∈ ℝ },
−1
−1
−2
−2
Ou encore :
ℝ2 = {(α + 3𝛽) (
1
1
) + (−2β + γ) ( ) , α ∈ ℝ, β ∈ ℝ, γ ∈ ℝ }.
−1
−2
Or on peut noter ceci :
ℝ2 = {λ (
1
1
) + μ ( ) , λ ∈ ℝ, μ ∈ ℝ, }.
−1
−2
1
1
) , ( )} est également un système générateur de ℝ2 .
−1
−2
Ainsi, si tout vecteur de IR2 peut s’écrire sous la forme d’une combinaison linéaire des trois vecteurs de
G2 (puisque G2 engendre IR2), il peut également s’écrire sous la forme d’une combinaison linéaire des
deux vecteurs de G3.
1
On se rend ainsi compte que, dans G2, le vecteur ( ) était superflu pour engendrer ℝ2 . Pourquoi ? Et
1
bien tout simplement parce qu’il était lui-même une combinaison linéaire des deux autres vecteurs de
G 2.
On en déduit que G3 = {(
En revanche, G3 étant libre (puisque ses deux vecteurs ne sont pas proportionnels), il ne contient aucun
vecteur superflu pour engendrer ℝ2 : si l’on ôte l’un des deux vecteurs de G3, on obtient un singleton,
1
1
G4 = {( )} ou G5 = {( )}, qui n’engendre pas ℝ2 .
−1
−2
Montrons-le pour G4.
𝑢1
On sait que G4 engendre ℝ2 , si et seulement si (voir cours n°5), quel que soit le vecteur (𝑢 ) de ℝ2 , on
2
a:
1 𝑢1
1
rang( |𝑢 ) = rang ( ).
−1 2
−1
47
Poly n°6
1
) = 1 puisque cette colonne est non nulle ;
−1
𝑢1
1 𝑢1
1
1
et rang( |𝑢 ) = 2 pour tous les vecteurs de ℝ2 non proportionnels à ( ), par exemple (𝑢 ) = ( ).
−1 2
−1
2
0
𝑢1
1 𝑢1
1
2
On n’a donc pas rang( |𝑢 ) = rang ( ) quel que soit le vecteur (𝑢 ) de ℝ .
−1 2
−1
2
Or : rang(
Il s’ensuit que G4 n’engendre pas ℝ2 .
Et, exactement de la même façon, on peut montrer la même chose pour G5. Faites-le !
Ici, comme les familles 𝐺4 et 𝐺5 sont des singletons, on pourrait raisonner plus simplement En effet, une
famille de vecteur engendre ℝ2 si et seulement si tous les vecteurs de ℝ2 peuvent s’écrire sous la forme
d’une combinaison linéaire des vecteurs de ℝ2 . Ainsi, G4 engendre ℝ2 si et seulement si tous les vecteurs
1
de ℝ2 sont proportionnels à ( ), ce qui n'est pas le cas. Il s’ensuit que G4 n’engendre pas ℝ2 .
−1
Finalement, G3 étant libre, il ne contient aucun vecteur superflu pour engendrer IR2. De tels systèmes
générateurs ― ne contenant aucun vecteur superflu parce qu’ils sont libres ― sont ce que l’on appelle
des bases d’un espace vectoriel.
A. Définition
Définition III.5
On dit qu’un ensemble ℬ de vecteurs de l’espace vectoriel E est une base de E si et seulement si :
→ ℬ engendre E
→ et ℬ est libre (ses vecteurs sont linéairement indépendants).
Reprenons, par exemple, les quatre systèmes de vecteurs de ℝ² suivant :
1
0
1
1
1
1
1
1
G1 = {( ) , ( )}, G2 = {( ) , ( ) , ( )}, G3 = {( ) , ( )} et G4 = {( )}.
0
1
−1
1
−2
−1
1
1
Dans le cours n°5, on a vu que G1 et G2 étaient deux systèmes générateurs de ℝ². Pour que ce soient des
bases de ℝ², il faut donc qu’ils soient libres. Or ceci, on l’a vu plus haut, n’est pas le cas de G2, qui n’est
donc pas une base de ℝ². En revanche, G1 est libre puisque ses deux vecteurs ne sont pas proportionnels.
C’est donc une base de ℝ².
Il en va de même de G3 qui, on vient de le voir, est générateur de ℝ² et libre.
En revanche, G4 est bien libre, puisque son unique vecteur est non nul, mais il n’est pas générateur de
ℝ². Donc G4 n’est pas une base de ℝ².
1
Autre exemple : dans le cours n°5, on a vu que G = {( )} était un système générateur de l’espace
2
vectoriel E1 suivant :
𝑢1
E1 = {(𝑢 ) ∈ ℝ², 𝑢2 = 2𝑢1 }.
2
Or G est libre puisqu’il ne contient qu’un seul vecteur, qui est non nul. Donc G est une base de E1.
Remarque :
𝑢1
1
0
G1 = {( ) , ( )} est appelée la base canonique de ℝ². De fait, tout vecteur (𝑢 ) de ℝ² peut s’écrire sous
0
1
2
la forme :
1
0
𝑢1 ( ) + 𝑢2 ( ).
0
1
1
0
0
De la même façon, l’ensemble {(0) , (1) , (0)} est la base canonique de ℝ3.
0
0
1
Plus généralement l’ensemble des n vecteurs colonnes qui forment la matrice identité d’ordre n, In, est
la base canonique de ℝn.
48
Poly n°6
B. Propriétés des bases
PROPRIETE III-5
Si tout vecteur de l’espace vectoriel E peut s’écrire sous la forme d’une combinaison linéaire unique des
vecteurs de l’ensemble G, alors G est une base de E.
Cette propriété est démontrée en Annexe 1 à la fin de ce cours.
On peut montrer, par exemple, que tout vecteur :
𝑢1
X = (𝑢2 )
𝑢3
de IR3 peut s’écrire sous la forme d’une combinaison linéaire unique des vecteurs de G,
−1
1
1
G = {( 1) , (−1) , ( 1)}.
1
1
−1
et, en conséquence (propriété III-5), que G est une base de IR3.
En effet, tout vecteur X de IR3 peut s’écrire sous la forme d’une combinaison linéaire unique des vecteurs
de G1 si et seulement si le système :
𝑢1
−1
1
1
𝑥1 ( 1) + 𝑥2 (−1) + 𝑥3 ( 1) = (𝑢2 )
𝑢3
1
1
−1
qui peut aussi être mis sous la forme :
𝑢1
−1
1
1 𝑥1
𝑥
𝑢
( 1 −1
1) ( 2 ) = ( 2 )
𝑢3
1
1 −1 𝑥3
a une solution unique.
Pour le savoir, appliquons la méthode du pivot à la matrice élargie :
−1
1
1 𝑢1 𝐿1
( 1 −1
1|𝑢2 ) 𝐿2
1
1 −1 𝑢3 𝐿3
En choisissant la première ligne, L1, comme pivot et en remplaçant L2 et L3 respectivement par
𝐿′2 =L2 + L1 et 𝐿′3 =L3 + L1, on obtient :
𝐿1 (pivot)
−1 1 1 𝑢1
′
𝑢
+
𝑢
( 0 0 2| 1
2 ) 𝐿2 = 𝐿2 + 𝐿1
′
𝑢
+
𝑢
0 2 0 1
3 𝐿3 = 𝐿3 + 𝐿1
et, en permutant les deux dernières lignes de cette matrice (ce qui revient à changer l’ordre des
équations du système) :
𝐿1 (pivot)
−1 1 1 𝑢1
( 0 2 0|𝑢1 + 𝑢3 ) 𝐿′3
0 0 2 𝑢1 + 𝑢2 𝐿′2
Le système à résoudre devient alors :
− 𝑥1 + 𝑥2 + 𝑥3 =
𝑢1
2𝑥2
= 𝑢1 + 𝑢3
{
2𝑥3 = 𝑢1 + 𝑢2
ce qui donne :
𝑢 2 + 𝑢3
2
𝑢1 + 𝑢3
𝑥2 =
2
𝑢1 + 𝑢2
{ 𝑥3 =
2
Le système admet donc une solution unique et on peut en conclure que G est une base de IR3.
𝑥1
=
PROPRIETE III-6 (réciproque de la propriété III-5)
49
Poly n°6
Si l’ensemble G est une base de E, alors tout vecteur de l’espace vectoriel E peut s’écrire sous la forme
d’une combinaison linéaire unique des vecteurs de G.
Cette propriété est démontrée en Annexe 2 à la fin de ce cours.
1
1
Ainsi, ayant vu plus haut que G3 = {( ) , ( )} était une base de ℝ², on sait, grâce à la propriété III-6
−1
1
𝑢1
que tout vecteur (𝑢 ) de ℝ² peut s’écrire sous la forme d’une combinaison linéaire unique des vecteurs
2
de G3, autrement dit que le système d’équations linéaires :
𝑢1
1
1
𝑥 ( ) + 𝑦 ( ) = (𝑢 )
−1
1
2
𝑥
𝑢1
a une unique solution (𝑦), et ce, quel que soit le vecteur (𝑢 ) de ℝ².
2
C. Coordonnées d’un vecteur dans une base
Nous venons de voir qu’un ensemble ℬ est une base d’un espace vectoriel si (propriété III-5) et
seulement si (propriété III-6) tout vecteur de cet espace peut s’écrire sous la forme d’une combinaison
linéaire unique des vecteurs de ℬ. Les coefficients de cette combinaison linéaire sont appelés
coordonnées de U dans la base ℬ. Ainsi, si ℬ = {C1, …, Cn} et si U = x1C1 + … + xnCn, alors les xi sont les
coordonnées de U dans ℬ, ce que l’on note :
𝑥1
U=( ⋮ )
𝑥𝑛 ℬ
Exemple
𝑢1
1
1
) , ( )} était une base de ℝ². Quel que soit le vecteur (𝑢 ) de ℝ², le système
−1
1
2
d’équations linéaires :
𝑢1
1
1
𝑥 ( ) + 𝑦 ( ) = (𝑢 )
−1
1
2
𝑥
𝑢1
a une unique solution (𝑦), et cette solution donne les coordonnées du vecteur (𝑢 ) dans la base G3.
On a vu que G3 = {(
2
Trouvons cette solution en appliquant la méthode du pivot au système :
𝑢1
𝑢1
1
1
1 1 𝑥
𝑥 ( ) + 𝑦 ( ) = (𝑢 ) ⇔ (
) ( ) = (𝑢 )
−1
1
2
−1 1 𝑦
2
dont la matrice élargie est :
1 1 𝑢1 𝐿1
(
| )
−1 1 𝑢2 𝐿2
𝑢 −𝑢
𝑥= 1 2
𝐿1 (pivot)
1 1 𝑢1
2
⇔(
|
)
⇔ {
𝑢1 +𝑢2 .
0 2 𝑢1 + 𝑢2 𝐿′2 = 𝐿1 + 𝐿2
𝑦=
2
Le système a donc pour unique solution :
𝑢1 − 𝑢2
𝑥
2
( 𝑦 ) = (𝑢 + 𝑢 )
1
2
2
𝑢1
Cette solution donne les coordonnées du vecteur (𝑢 ) dans la base G3, ce que l’on peut écrire :
2
𝑢1 −𝑢2
𝑢1
2
(𝑢 ) = (𝑢1+𝑢
) .
2
2
2
𝐺3
Non, non, il n’y a pas d’erreur. Le G3 en indice indique bien que ce sont les coordonnées dans
1
1
G3 = {( ) , ( )}. Cette dernière égalité est donc une autre façon d’écrire :
−1
1
𝑢1 − 𝑢2
𝑢1 + 𝑢2
𝑢1
1
1
(𝑢 ) =
×( )+
×( )
2
−1
1
2
2
50
Poly n°6
ce que vous pouvez vérifier1.
𝑢1
Pour mieux comprendre ce dont il s’agit, nous allons considérer un vecteur (𝑢 ) particulier.
2
𝑢1
3
Posons, par exemple, (𝑢 ) = ( ).
2
1
𝑢1
𝑢1
3
En fait, écrire (𝑢 ) = ( ) sans autre précision, c’est dire que les coordonnées du vecteur (𝑢 ) dans la
2
1
2
3
base canonique sont ( ), puisque l’on a :
1
𝑢1
3
1
0
(𝑢 ) = ( ) = 3 × ( ) + 1 × ( ).
2
1
0
1
Plutôt que de prendre la base canonique, on peut prendre la base G3. On dit que l’on change de base. Et
𝑥
3
1
1
les coordonnées du vecteur ( ) dans la base G3 = {( ) , ( )} sont données par la solution (𝑦) du
1
−1
1
système :
1
1
3
𝑥 ( ) + 𝑦 ( ) = ( ).
−1
1
1
Nous venons de déterminer cette solution. Il s’agit de :
𝑢1 −𝑢2
𝑥
2
(𝑦) = (𝑢1+𝑢
)
2
2
Avec 𝑢1 = 3 et 𝑢2 = 1, on a donc :
3−1
𝑥
1
2
(𝑦) = (3+1
) = ( ).
2
2
3
1
Ce qui signifie que les coordonnées du vecteur ( ) dans la base G3 sont : ( ), ce que l’on peut écrire :
1
2
3
1
( )=( )
1
2 𝐺3
En fait, on a :
3
1
0
( )=𝟑×( )+𝟏×( )
1
0
1
3
1
1
( )=𝟏×( )+𝟐×( )
1
−1
1
et
3
Coordonnées de ( ) dans la base
1
canonique de ℝ².
3
Coordonnées de ( ) dans la base 𝐺3 .
1
Graphiquement, ce changement de base apparaît comme un changement de repère :
2
( )
2
1
( )
1
0
( )
1
3
( )
1
3
( )
0
1
( )
0
(
1
)
−1
𝑢1 −𝑢2
1
On a bien :
𝑢1 −𝑢2
2
1
( )+
−1
𝑢1 +𝑢2 1
2
()
1
2
= (𝑢 −𝑢 ) +
2
1
2
𝑢1 +𝑢2
𝑢1 −𝑢2
2
(𝑢1+𝑢
)=
2
2
(𝑢2−𝑢
1
2
2
51
+
+
𝑢1 +𝑢2
2
𝑢1 +𝑢2 ) =
2
2𝑢1
𝑢1
(2𝑢2 2) = (𝑢 ).
2
2
Poly n°6


3
Dans le repère vert (base canonique), le vecteur ( ) est tracé grâce au parallélogramme en
1
1
𝟑
0
𝟎
pointillés verts en ajoutant 𝟑 × ( ) = ( ) à 𝟏 × ( ) = ( ).
0
𝟎
1
𝟏
3
Dans le repère rouge (base G3) ( ) est tracé grâce au parallélogramme en pointillés rouges
1
1
𝟏
1
𝟐
faisant la somme de 𝟏 × ( ) = ( ) et 𝟐 × ( ) = ( ).
−1
−𝟏
1
𝟐
Fin de la semaine 6
Faire le Quiz intitulé « Quiz - Cours n° 6 »
Pour la préparation du TD, vous pouvez faire
les exercices 9 à 11 du dossier de TD 3
52
Poly n°6
Annexe 1 - Démonstration de la propriété III-5
Enoncé de la propriété III-5 : si tout vecteur de l’espace vectoriel E peut s’écrire sous la forme d’une
combinaison linéaire unique des vecteurs de l’ensemble G, alors G est une base de E.
Démonstration
Soit l’ensemble G de n vecteurs de E : G = {C1, …, Cn}.
Si, tout vecteur de E peut s’écrire sous la forme d’une combinaison linéaire des vecteurs de G, alors G
est un système générateur de E (par définition d’un système générateur).
G est donc une base de E si les vecteurs de G sont linéairement indépendants. Or, selon les hypothèses
de la PROPRIETE III-5, le système :
⃗
λ1C1 + … + λnCn = 0
a pour unique solution :
λi = 0, i = 1,…, n.
⃗
En effet, 0C1 + … + 0Cn = 0 et, par hypothèse, ⃗0 peut s’écrire sous la forme d’une combinaison linéaire
unique des vecteurs de G.
Annexe 2 - Démonstration de la propriété III-6
Enoncé de la propriété III-6 : si l’ensemble G est une base de E, alors tout vecteur de l’espace vectoriel
E peut s’écrire sous la forme d’une combinaison linéaire unique des vecteurs de G.
Démonstration (uniquement pour les experts)
Soit l’ensemble G de n vecteurs de E : G = {C1, …, Cn}.
Comme G est un système générateur de E, tout vecteur X de E peut s’écrire sous la forme d’une
combinaison linéaire des vecteurs de G. La propriété III-6 nous dit que si, en outre, G est un système
libre, alors cette combinaison linéaire est unique.
Raisonnons par l’absurde et supposons que ce ne soit pas le cas, autrement dit qu’il existe un vecteur X
de E pouvant s’écrire sous la forme de deux combinaisons linéaires différentes des vecteurs de G. On a
donc :
[1] X = λ1C1 + … + λnCn
et
[2] X = μ1C1 + … + μnCn
Si, tout vecteur de E peut s’écrire sous la forme d’une combinaison linéaire des vecteurs de G, alors G
est un système générateur de E (par définition d’un système générateur).
G est donc une base de E si les vecteurs de G sont linéairement indépendants. Or, selon les hypothèses
de la PROPRIETE III-5, le système :
λ1C1 + … + λnCn = ⃗0
a pour unique solution :
λi = 0, i = 1,…, n.
avec l’existence d’au moins un i tel que λi ≠ μi (les deux combinaisons linéaires sont différentes).
En soustrayant [2] à [1], on obtient :
⃗
(λ1 – μ1)C1 + … + (λn – μn)Cn = 0
avec au moins un i, tel que (λi – μi) ≠ 0. Les vecteurs de G sont donc linéairement dépendants. Si donc ils
sont linéairement indépendants, alors il n’existe pas de vecteur X de E pouvant s’écrire sous la forme de
deux combinaisons linéaires différentes des vecteurs de G.
53
Poly n°7
III. Dimension d’un espace vectoriel
On s’intéressera ici aux espaces vectoriels ayant au moins un système générateur comportant un
nombre fini de vecteurs
A. Définition
Définition III.6
On appelle dimension d’un espace vectoriel E, le nombre, noté dimE, de vecteurs contenus dans
n’importe laquelle de ses bases.
Le nombre de vecteur d’un ensemble ℬ, que l’on appelle cardinal de ℬ, est noté cardℬ.
Ainsi, si ℬ = {C1, … , Cp} est une base de l’espace vectoriel E, alors on a :
[1] dimE = cardℬ = p.
Ainsi, on a : dimℝ² = 2, dimℝ3= 3 et, plus généralement, dimℝn = n.
1
Autre exemple : dans le cours n°6, on a vu que G = {( )} était une base de l’espace vectoriel E1 suivant :
2
𝑢1
E1 = {(𝑢 ) ∈ ℝ², 𝑢2 = 2𝑢1 }.
2
On a donc : dimE1 = cardG = 1.
B. Propriétés
Remarque – Les démonstrations de cette partie étant relativement faciles et permettant de réviser les
concepts vus précédemment, nous les avons laissées dans le corps du texte. Nous vous conseillons donc
vivement de les travailler. Cependant, vous pouvez préparer les TD en vous contentant de comprendre les
propriétés
Soit E, un espace vectoriel sur ℝ, et soit ℬ, une base d’un espace vectoriel E. Comme ℬ est libre, on a :
rangℬ = cardℬ.
En remplaçant dans l’équation [1] plus haut, il vient :
dimE = rangℬ.
D’où la propriété III-7.
PROPRIÉTÉ III-7
La dimension d’un espace vectoriel est égale au rang de n’importe laquelle de ses bases.
Lorsqu’un système générateur G d’un espace vectoriel E est lié, l’un de ses vecteurs est une combinaison
linéaire des autres, de sorte que l’on peut l’ôter au système de façon à former un autre système
générateur 𝐺 ′ du même espace vectoriel E, avec rangG = rang𝐺 ′ . Si 𝐺 ′ est lié, on peut continuer et
obtenir un autre système générateur 𝐺 ′′ de E, avec rangG = rang𝐺 ′ = rang𝐺 ′′ . Et l’on peut continuer ainsi
jusqu’à l’obtention d’un système libre, ℬ, i.e. d’une base de E, avec, par construction : rangG = rangB.
Ainsi, tout système générateur de E contient une base de E, tous deux ayant le même rang.
Réciproquement, toute base de E est un système générateur de E. D’où la propriété III-8.
PROPRIÉTÉ III-8
La dimension d’un espace vectoriel est égale au rang de n’importe lequel de ses systèmes générateurs.
54
Poly n°7
PROPRIÉTÉ III-9
Soit E, un espace vectoriel de dimension p et soit S = {C1, … , Ck}, un ensemble de k vecteurs de E. On a :
rangS ≤ p.
Démonstration de la propriété III-9
Soit S = {C1, … , Ck}, un ensemble de k vecteurs d’un espace vectoriel E de dimension p.
L’espace vectoriel E étant de dimension p, ses bases contiennent donc p vecteurs. Notons ℬ = {B1, … , Bp}
une de ces bases. On a ainsi :
rangℬ = p,
et donc :
rang{B1, … , Bp, C1, … , Ck} = p
(en effet, comme ℬ est une base de E, tout vecteur Ci de E peut s’écrire sous la forme d’une combinaison
linéaire des vecteurs de ℬ).
Il s’ensuit que :
rang{C1, … , Ck} ≤ p.
En fait, on applique déjà cette propriété depuis la section III du chapitre 2. Par exemple, quand on avait
un matrice de format (2 , 3), du type :
1 3 2
A=(
),
2 −1 3
on concluait que les trois colonnes étaient linéairement dépendantes, parce que leur nombre était
supérieur au nombre de lignes. En fait, comme la matrice a deux lignes, ses trois colonnes sont des
vecteurs de ℝ². Comme dimℝ² = 2, la propriété III-9 nous dit que le rang de A est nécessairement
inférieur ou égal à 2.
PROPRIÉTÉ III-10
Soit E, un espace vectoriel de dimension p et soit S = {C1, … , Ck}, un ensemble de k vecteurs de E.
Si rangS = p, alors S est générateur de E.
Démonstration de la propriété III-10
Etape 1 – rappel de la propriété III-3
S = {C1, … , Ck} engendre E si et seulement si, quel que soit le vecteur U de E, on a :
rang(𝐶1 ⋯ 𝐶𝑘 |𝑈) = rang(𝐶1 ⋯ 𝐶𝑘 )
C’est donc cette égalité que l’on doit démontrer pour démontrer que S engendre E.
Pour ce faire, on doit partir du fait que : rangS = p.
Etape 2
Si rangS = rang(𝐶1
⋯
𝐶𝑘 ) = 𝑝, alors :
[1]
rang(𝐶1
⋯
𝐶𝑘 |𝑈) ≥ 𝑝.
Etape 3
Comme C1, … , Ck et U sont des vecteur de E, un espace vectoriel de dimension p, en raison de la propriété
précédente (III-9), on sait que :
[2]
rang(𝐶1 ⋯ 𝐶𝑘 |𝑈) ≤ 𝑝.
Etape 4
De [1] et [2], on déduit que :
rang(𝐶1
⋯ 𝐶𝑘 |𝑈) = 𝑝
et donc (puisque rangS = p)que :
rang(𝐶1 ⋯ 𝐶𝑘 |𝑈) = rang(𝐶1
Ce qu’il fallait démontrer pour démontrer que S engendre E.
55
⋯ 𝐶𝑘 ).
Poly n°7
Cette propriété permet de trouver très facilement des systèmes générateurs d’espaces vectoriels dont
on connaît la dimension. Reprenons, par exemple, la matrice A :
1
3 2
A=(
)
2 −1 3
Ses colonnes sont des vecteurs de l’espace vectoriel ℝ², dont la dimension est 2.
Or, les deux lignes de A n’étant pas proportionnelles, on a : rangA = 2.
De la propriété III-10, on peut donc déduire que l’ensemble S composé par les trois colonnes de A :
1
3
2
S = {( ) , ( ) , ( )}
2
−1
3
est un système générateurs de ℝ².
PROPRIÉTÉ III-11
Soit E, un espace vectoriel de dimension p.
Si ℬ est un ensemble libre de p vecteurs de E, alors ℬ est une base de E.
Démonstration de la propriété III-11
Comme ℬ est libre et contient p vecteurs, on a ; rangℬ = p.
Comme ℬ est un ensemble de vecteurs de E et que rangℬ = p, alors (en raison de la propriété
précédente : III-10), ℬ engendre E.
ℬ étant libre et générateur de E, c’est une base de E.
PROPRIÉTÉ III-11BIS (CAS PARTICULIER)
Tout ensemble libre de n vecteurs de ℝn est une base de ℝn.
Ainsi, pour savoir si un ensemble de vecteurs est une base de ℝn, il suffit de vérifier :
 qu’il contient n vecteurs ;
 que tous ses vecteurs appartiennent à ℝn ;
 que cet ensemble est libre (autrement dit que ses vecteurs sont linéairement indépendants).
1
−1
2
Considérons, par exemple, l’ensemble S = {(0) , (−1) , (4)} de vecteurs de ℝ3 :
0
0
3
 il contient 3 vecteurs ;
 ses vecteurs appartiennent à ℝ3 ;
 cet ensemble est libre, puisque ses vecteurs forment la matrice triangulaire ne comportant
aucun 0 sur sa diagonale principale suivante :
1 −1 2
M = (0 −1 4)
0 0 3
⟹ l’ensemble 𝐒 forme donc une base de ℝ3 .
C. Dimension, base et solutions d’un système d’équations linéaires
Soit le système d’équations linéaires :
[1] AX = U
où A est une matrice carrée régulière d’ordre n à éléments réels ; où X et U sont des vecteurs de ℝn.
On peut montrer que les n colonnes de A forment une base de ℝn
Les n colonnes de A sont des vecteurs de ℝn. Elles sont en outre linéairement indépendantes puisque A
est régulière. Elles forment donc (propriété III-11bis) une base de ℝn. Notons cette base ℬA.
On peut alors en déduire que le système [1] a une solution unique
56
Poly n°7
Comme ℬA est une base de ℝn, tout vecteur U de ℝn peut s’écrire sous la forme d’une combinaison
linéaire unique des vecteurs de ℬA. Autrement dit, quel que soit le vecteur U de ℝn, il existe un unique
vecteur X de ℝn solution de l’équation AX = U : le système [1] a une solution unique.
On peut enfin déterminer aisément cette solution
La matrice A étant régulière, elle est inversible : A – 1 existe. D’où :
AX = U ⇒ A – 1(AX) = A – 1U ⇒ (A – 1A)X = A – 1U ⇒ I2X = A – 1U ⇒ X = A – 1U.
La solution du système [1] est donc : X = A – 1U.
Elle donne les coordonnées du vecteur U dans la base ℬA.
Considérons, par exemple, le système :
[2] BX = U
1 2 2
Avec B = (− 1 1 1).
2 −2 1
1⁄ −2⁄
0
3
3
Dans le cours n°3, on a vu que B était inversible et que B – 1 = 1⁄3 −1⁄3 −1⁄3 .
2⁄
1⁄
( 0
3
3)
On peut maintenant dire les choses comme suit :
 B étant une matrice régulière d’ordre 3 à éléments réels, ses colonnes forment une base ℬ de ℝ3.
 la solution du système [2] est en conséquence unique.
 cette solution, X = B – 1U donne les coordonnées de U dans la base ℬ.
1
On a vu dans le cours n°3 que lorsque U = (− 1), alors :
−4
1⁄ −2⁄
0
3
3
1
1
X = B – 1U = 1⁄3 −1⁄3 −1⁄3 (− 1) = ( 2).
−4
−2
2⁄
1⁄
( 0
3
3)
1
1
Les coordonnées du vecteur U dans la base ℬ sont donc : ( 2) et on peut écrire 𝑋 = ( 2) .
−2
−2 ℬ
IV Bases orthonormées de IRn
A. Le produit scalaire de deux vecteurs de IRn
Définition III.7
𝑢1
𝑣1
𝑢𝑛
𝑣𝑛
Le produit scalaire de deux vecteurs de IRn est une opération qui, à deux éléments U = ( ⋮ ) et V = ( ⋮ )
de IRn, associe le réel :
U∗V = u1v1 + … + unvn
ou encore, en adoptant l’écriture matricielle, le scalaire U’V, où U’ est la transposée de U.
Ainsi, par exemple, le produit scalaire des deux vecteurs :
1
−3
3
2
U1 = (2) et U2 = ( 0),
est :
U1∗U2 = 1(– 3) + 2(0) + 3(2) = 3.
57
Poly n°7
−2
En adoptant, cette fois, l’écriture matricielle, le produit scalaire de U1 et de U3 = ( −1) est :
1
−2
𝑈1′ 𝑈3 = (1 2 3) ( −1) = (– 2) × 1 + (– 1) × 2 + 1 × 3 = – 1.
1
En procédant de même, le produit scalaire des deux vecteurs de la base canonique de IR² est :
0
(1 0) ( ) = 1(0) + 0(1) = 0.
1
De la définition du produit scalaire de vecteurs (ou de matrices) colonnes de même format découlent
immédiatement un certain nombre de propriétés. En particulier :
PROPRIÉTÉ III-12 – Le produit scalaire est commutatif, ce qui signifie que, quels que soient les vecteurs U
et V de ℝn, on a : 𝑈 ∗ 𝑉 = 𝑉 ∗ 𝑈.
PROPRIÉTÉ III-13 – quels que soient les vecteurs U et Vi de ℝn et les réels λi (i = 1, …, p), on a :
𝑈 ∗ (λ1 𝑉1 + ⋯ + λ𝑝 𝑉𝑝 ) = λ1 𝑈 ∗ 𝑉1 + ⋯ + λ𝑝 𝑈 ∗ 𝑉𝑝 .
B. Norme d’un vecteur
𝑢1
Un cas particulier intéressant de produit scalaire est celui d’un vecteur U = ( ⋮ ) avec lui-même. On a
𝑢𝑛
alors :
𝑈 ∗ 𝑈 = 𝑢12 + ⋯ + 𝑢𝑛2 .
⃗ . On note ||U|| sa racine carrée et on
Cette expression est toujours positive et ne s’annule que si U = 0
l’appelle norme euclidienne (ou tout simplement norme) de U. On a donc :
‖𝑈‖ = √𝑢12 + ⋯ + 𝑢𝑛2 .
Ainsi, par exemple, les normes des vecteurs :
1
−3
U1 = (2) et U2 = ( 0)
3
2
sont-elles respectivement :
‖𝑋1 ‖ = √12 + 22 + 32 = √14 et ‖𝑋2 ‖ = √(−3)2 + 02 + 22 = √13.
De la définition de la norme d’un vecteur de IRn, on déduit immédiatement :
PROPRIÉTÉ III-14 – Quel que soit le vecteur U de ℝn et le réel λ, on a : ‖λ𝑈‖ = |λ| × ‖𝑈‖
En effet :
‖λ𝑈‖ = √(λ𝑢1 )2 + ⋯ + (λ𝑢𝑛 )2 = √λ2 × √𝑢12 + ⋯ + 𝑢𝑛2 = |λ| × ‖𝑈‖.
58
Poly n°7
𝑢1
Le nombre ‖𝑈‖ s’interprète comme la longueur du segment [OU]1. En effet, dans le cas où U = (𝑢 ), u1
2
et u2 étant les coordonnées de U dans un système d’axes, le segment [OU] est l’hypoténuse d’un triangle
rectangle dont les deux autres côtés sont de longueurs respectivement égales à u1 et u2 (voir figure cidessous).
U
u2
0
u1
D’après le théorème de Pythagore, le carré de la longueur OU est donc égal à la somme des carrés de u1
et de u2 :
OU² = 𝑢12 + 𝑢22 .
On a donc bien :
OU = √𝑢12 + 𝑢22 = ‖𝑈‖ :
la norme du vecteur X est égale à la longueur du segment [OU].
C. Vecteurs et espaces vectoriels orthogonaux
Définition III.8
On dit que deux vecteurs U et V sont orthogonaux (ce que l’on note 𝑈 ⊥ 𝑉) lorsque leur produit scalaire
est nul.
Les vecteurs :
1
−1
U1 = (2) et U4 = (−1),
3
1
par exemple, sont orthogonaux, puisque l’on a :
U1∗U4 = 1(– 1) + 2(– 1) + 3(1) = 0.
Il en va de même les vecteurs U1 et U5, avec :
2
U5 = (−1),
0
puisque l’on a :
U1∗U5 = 1(2) + 2(– 1) + 3(0) = 0.
Il s’ensuit que le vecteur U1 est orthogonal à tout vecteur de la forme αX4+βX5, par exemple au vecteur :
2
−1
0
U6 = 2U4+U5 = 2 (−1) + (−1) = (−3),
1
0
2
On note [OU] le segment joignant les points O et U, OU, la longueur du segment [OU] et (OU), la droite passant par les
points O et U,
1
59
Poly n°7
Ce que l’on vérifie aisément : U1∗U6 = 1(0) + 2(– 3) + 3(2) = 0.
Définition III.9
On dit qu’un vecteur de ℝn est orthogonal à un sous-espace vectoriel de ℝn s’il est orthogonal à tout
élément de cet espace vectoriel.
On vient de voir, par exemple, que le vecteur U1 est orthogonal au sous-espace vectoriel A1 de IR3
engendré par U4 et U5 :
A1 = {αU4+βU5, α∈IR, β∈IR},
mais c’est également le cas de tout vecteur de la forme γU1.
On peut également chercher à déterminer le sous-espace vectoriel de IR3 orthogonal à un vecteur
quelconque de cet espace vectoriel. Ainsi, le sous-espace vectoriel de IR3 orthogonal au vecteur U2
rencontré plus haut est :
−3
A2 = {U ∈ IR3/ U2∗U = 0} avec U2 = ( 0).
2
𝑢1
Or, en posant U = (𝑢2 ), on a :
𝑢3
U2∗U = – 3u1 +0u2+ 2u3.
2𝑢
Comme par hypothèse U2∗U = 0, les vecteurs de A2 sont tels que u1 = 3 : ce sont les vecteurs de la
3
2𝑢3⁄
2⁄
0
3
3
forme ( 𝑢2 ) = 𝑢2 (1) + 𝑢3 ( 0 ).
0
𝑢3
1
Le sous-espace vectoriel de IR3 orthogonal au vecteur U2 est donc le sous-espace vectoriel engendré par
2⁄
0
3
la base ℬ = {(1) , ( 0 )}
0
1
Définition III.10
Deux sous-espaces vectoriels de ℝn sont orthogonaux si tout élément de l’un est orthogonal à tout
élément de l’autre.
Ceci est le cas, on vient de le voir, des espaces vectoriels A1 et A3, où A3 = {γU1, γ∈IR}, ou encore des
sous-espaces vectoriels A2 et A4 où A4 = {γU2, γ∈IR}.
D. Bases orthonormées de IRn
Définition III.11
Une base est dite orthonormée lorsque ses vecteurs sont orthogonaux deux à deux et de norme égale
à 1.
Par exemple la base canonique de IR3 est orthonormée. En effet :
 Ses trois vecteurs sont orthogonaux deux à deux, puisque :
0
0
0
(1 0 0) (1) = 0, (1 0 0) (0) = 0 et (0 1 0) (0) = 0.
0
1
1
 Ils sont en outre de norme unitaire, puisque :
1
0
0
‖(0)‖ = √12 + 02 + 02 = 1, ‖(1)‖ = √02 + 12 + 02 = 1 et ‖(0)‖ = √02 + 02 + 12 = 1. et.
0
0
1
60
Poly n°7
Et c’est aussi le cas des bases canoniques des espaces vectoriel de type IRn (quel que soit n).
La base canonique de IR3 n’est pas la seule base orthonormée de cet espace vectoriel. Tout ensemble de
trois vecteurs de IR3 orthogonaux deux à deux et de norme égale à 1 est une base orthonormée de IR3.
Pour déterminer une autre base orthonormée de IR3, on procède en trois étapes :
Etape 1 – on choisit un vecteur de IR3, n’importe lequel2 :
2
𝑈1 = (1),
2
Etape 2 – on trouve deux vecteurs de IR3, 𝑈2 et 𝑈3 , orthogonaux à 𝑈1 et orthogonaux entre eux.
−2
 On peut trouver 𝑈2 directement. On voit assez facilement que si l’on pose 𝑈2 = ( 2), on a :
1
2
−2
𝑈1 ∗ 𝑈2 = (1) ∗ ( 2) = 2(−2) + 1(2) + 2(1) = −4 + 4 = 0.
2
1
Ces deux vecteurs sont donc orthogonaux.
𝑥
Si on ne « voit pas », on cherche un vecteur 𝑈2 = (𝑦) tel que 𝑈1 ∗ 𝑈2 = 0 autrement dit
𝑧
vérifiant :
𝑥
2
(1) ∗ (𝑦) = 0,
𝑧
2
ou encore :
2x + y + 2z = 0.
Ce qui donne :
y = – 2x – 2z.
On choisit alors une valeur pour x et une valeur pour z et on en déduit y.
 On cherche alors 𝑈3 . C’est :
𝑥
o un vecteur de ℝ3. Il est donc de la forme : 𝑈3 = (𝑦)
𝑧
o orthogonal à U1 et à U2 (on garde le vecteur U2 trouvé plus haut) Il vérifie donc le
système d’équations :
𝑥
2
𝑦
( ) ∗ (1) = 0 (𝑈3 𝑒𝑠𝑡 𝑜𝑟𝑡ℎ𝑜𝑔𝑜𝑛𝑎𝑙 à 𝑈1 )
𝑧
2
S:
𝑥
−2
(𝑦) ∗ ( 2) = 0 (𝑈3 𝑒𝑠𝑡 𝑜𝑟𝑡ℎ𝑜𝑔𝑜𝑛𝑎𝑙 à 𝑈2 )
{ 𝑧
1
Or :
2𝑥 + 𝑦 + 2𝑧= 0 𝐿1
2𝑥 + 𝑦 + 2𝑧= 0 𝐿1
𝑥 = − 𝑧⁄2
S⇔{
⇔{
⇔{
−2𝑥 + 2𝑦 + 𝑧= 0 𝐿2
3𝑦 + 3𝑧= 0 𝐿2 + 𝐿1
𝑦= −𝑧
− 𝑧⁄2
D’où 𝑈3 = ( −𝑧), où z est un réel quelconque.
𝑧
On choisit donc U3 en choisissant une valeur de z.
−1
Pour simplifier les calculs, on choisit ici : z = 2, ce qui donne : 𝑈3 = (−2).
2
On a ainsi déterminé une base ℬ de ℝ3 dont les vecteurs sont orthogonaux deux à deux :
2
−2
−1
ℬ= {(1) , ( 2) , (−2)}.
2
1
2
2
Nous avons choisi le nôtre de façon à ce que les calculs soient simples.
61
Poly n°7
Etape 3 – on déduit de cette base ℬ une base orthonormée de ℝ3
Pour ce faire, on commence par déterminer les normes de ces trois vecteurs :
2
 ‖𝑈1 ‖ = ‖(1)‖ = √22 + 12 + 22 = √9 = 3.
2
−2
 ‖𝑈2 ‖ = ‖( 2)‖ = √(−2)2 + 22 + 12 = √9 = 3.
1
−1
 ‖𝑈3 ‖ = ‖(−2)‖ = √(−1)2 + (−2)2 + 22 = √9 = 3.
2
Que faire ? Utiliser les propriétés vues plus haut.
 On sait tout d’abord que : ‖λ𝑈‖ = |λ| ∙ ‖𝑈‖ (quel que soit le réel λ).
1
1
Notons 𝑁 > 0 la norme du vecteur 𝑈 non nul, on aura alors ‖ 𝑈‖ = | | ∙ ‖𝑈‖ =
N
N
1
𝑁
× 𝑁 = 1 : en
multipliant un vecteur de la base par l’inverse de sa norme, on obtient un vecteur de norme
unitaire qui lui est homothétique on conserve donc la propriété d’être orthogonal aux deux
autres vecteurs de la base.
On a calculé ‖𝑈1 ‖ = 3, on va donc remplacer dans la base le vecteur 𝑈1 par son homothétique
2⁄
3
2
1
1
𝑈1 = (1) = 1⁄3 .
3
3
2
2
( ⁄3)
−2⁄
−1⁄
3
3
−2
−1
1
1
1
1
2
−2
Et il en va de même des vecteurs ‖𝑈 ‖ 𝑈2 = ( 2) =
⁄3 et ‖𝑈 ‖ 𝑈3 = 3 (−2) =
⁄3 .
3
2
3
1
2
1⁄
2⁄
( 3)
( 3)

Or on sait que : 𝑈 ⊥ 𝑉 ⇒ 𝑈 ⊥ λ𝑉 (quel que soit le réel λ). Les trois vecteurs
1
‖𝑈3
1
‖𝑈1 ‖
1
𝑈1 , ‖𝑈 ‖ 𝑈2 et
2
𝑈 sont donc orthogonaux deux à deux à l’image des vecteurs U1, U2 et U3.
‖ 3
Ainsi :
2⁄
−2⁄
−1⁄
3
3
3
1⁄ , 2⁄
−2⁄
ℬO =
,
3
3
3
2⁄
1⁄
2⁄
{ ( 3) ( 3 ) ( 3 ) }
est une base orthonormée de ℝ3.
On peut ainsi trouver une base orthonormée de ℝn.
MÉTHODE POUR TROUVER UNE BASE ORTHONORMÉE DE ℝn
On construit une base orthonormée de ℝn (autrement dit un ensemble de n vecteurs de ℝn orthogonaux
deux à deux et de norme unitaire) en trois étapes.
Première étape – On choisit n’importe quel vecteur de ℝ n.
Deuxième étape – on trouve n – 1 autres vecteurs de ℝn, orthogonaux avec ce premier vecteur et
orthogonaux deux à deux ;
Troisième étape – On divise chacun des n vecteurs par sa norme (pour que le résultat ne soit pas trop
indigeste, il est préférable de choisir les vecteurs de façon à ce que leur norme soit relativement simple).
62
Poly n°7
Les vecteurs colonnes d’une base orthonormée forment ce que l’on appelle une matrice orthogonale.
Définition III.12
On appelle matrice orthogonale une matrice dont les colonnes sont orthogonales deux à deux et de
norme égale à 1.
Fin de la semaine 7
Faire le Quiz intitulé « Quiz - Cours n°7 »
Dans la préparation du TD, vous pouvez terminer le dossier de TD 3.
63
Poly n°8
CHAPITRE 4. LES APPLICATIONS LINÉAIRES
I. Définitions et propriétés
Quelques rappels sur les applications
Une application f(∙) d’un ensemble E vers un ensemble F associe à chaque élément de E un et un seul
élément de F, ce que l’on peut représenter de la façon suivante :
Figure 1
Vocabulaire :
• 𝐸 est l’ensemble de départ de f(∙) et 𝐹 est son ensemble d’arrivée. Ce que l’on écrit : f(∙) : E →F.
• y2 est l’image de x3 par 𝑓(⋅) : y2 = f(x3).
• x2 et x3 sont les deux antécédents de y2 par f(∙).
Si chaque élément de E a une et une seule image par f(∙) dans F, en revanche les éléments de F peuvent
ne pas avoir d’antécédent dans E (dans la figure 1, c’est le cas de y4), ou en avoir plusieurs (comme y2
dans la figure 1).
Lorsque tous les éléments de F ont au moins un
antécédent dans E par f(∙) (i.e. lorsque F ne contient
aucun élément du type du y4 de la figure 1), on dit que
l’application f(∙) est surjective. C’est le cas, par
exemple, de l’application de la figure 2 ci-contre.
Figure 2
Lorsqu’aucun élément de F n’a plusieurs antécédents
dans E (i.e. lorsque F ne contient aucun élément
comme le y2 des figures 1 et 2), on dit que
l’application est injective. C’est par exemple le cas de
l’application de la figure 3 ci-contre.
Figure 3
Enfin, lorsque l’application est à la fois injective et
surjective, on dit qu’elle est bijective : dans ce cas,
chaque élément de F a donc un et un seul antécédent
dans E, comme dans la figure 4 ci-contre.
Figure 4
64
Poly n°8
Applications dont les ensembles de départ et d’arrivée sont des ℝ-espaces vectoriels
Pour les applications linéaires que nous allons étudier, les ensembles de départ et d’arrivée sont des ℝespaces vectoriels. On notera donc :
𝑓(∙) ∶
ℝ𝑛
⟶ ℝ𝑚
𝑥1
𝑦1
𝑥1
⋮
⋮
𝑋 = ( ) ⟼ 𝑌 = 𝑓(𝑋) 𝑜𝑢 𝑒𝑛𝑐𝑜𝑟𝑒 ( ) = 𝑓 ( ⋮ )
𝑦𝑚
𝑥𝑛
𝑥𝑛
où chacun des 𝑦𝑖 est une fonction de 𝑥1 , 𝑥2 , … , 𝑥𝑛 .
On dit parfois simplement : « soit l’application 𝑓(⋅) définie par 𝑓(𝑋) = 𝑌 » sans indiquer quels sont les
ensembles de départ et d’arrivée. Dans ce cas,
• pour identifier l’ensemble de départ, on compte les coordonnées des vecteurs X ;
• pour identifier l’ensemble d’arrivée, on compte les coordonnées des vecteurs Y.
Définition et propriétés des applications linéaire
Parmi les applications ayant des ℝ-espaces vectoriels pour espaces de départ et d’arrivée, certaines
« préservent » les combinaisons linéaires : pour cette raison, on les qualifie de linéaires.
Définition IV.1
Soient E et F deux ℝ-espaces vectoriels et soit f(∙) une application de E dans F définie par
𝑦1
𝑥1
⋮
( ) = 𝑓( ⋮ )
𝑦𝑚
𝑥𝑛
Cette application est linéaire si et seulement si :
X ∈ E, 𝑋 ′ ∈ E, α∈ ℝ , β∈ ℝ ,
on a :
f(αX+β𝑋 ′ ) = αf(X) +βf(𝑋 ′ ).
ou de manière équivalente, cette application est linéaire si et seulement si :
𝑦𝑖 = 𝑎𝑖1 𝑥1 + 𝑎𝑖2 𝑥2 + ⋯ 𝑎𝑖𝑛 𝑥𝑛 pour tout 𝑖 = 1,2, … , 𝑚
Exemple 1
L’application f1(∙), de ℝ² dans ℝ², définie par :
𝑥1
2𝑥 + 3𝑥2
f1(𝑥 ) = ( 1
),
−𝑥1 − 2𝑥2
2
est une application linéaire, puisque
 la première ligne du vecteur image 𝑦1 = 2𝑥1 + 3𝑥2 est une combinaison linéaire de lignes 𝑥1 et 𝑥2 ;
 la deuxième ligne du vecteur image 𝑦2 = −𝑥1 − 2𝑥2 est une combinaison linéaire de 𝑥 et 𝑦.
Exemple 2
En revanche, l’application f2(∙), de ℝ² dans ℝ², définie par :
𝑥1
2𝑥 + 3𝑥2
f2(𝑥 ) = ( 1
),
−𝑥1 − 2
2
n’est pas une application linéaire puisque la deuxième ligne du vecteur image 𝑦2 = −𝑥1 − 2 n’est pas
une combinaison linéaire de 𝑥1 et 𝑥2 .
***
Lorsque f(∙) est une application linéaire, on a donc :
f(αX+β𝑋 ′ ) = αf(X) + βf(𝑋 ′ ),
et ce, quels que soit les réels α et β. En particulier, pour α = β = 0, on a :
f(0X+0𝑋 ′ ) = 0f(X)+0f(𝑋 ′ ),
65
Poly n°8
ce qui donne :
⃗⃗⃗⃗𝐸 ) = ⃗⃗⃗⃗
f(0
0𝐹 .
D’où la propriété :
PROPRIÉTÉ IV-1 – Pour que f(∙) soit une application linéaire de E dans F, il faut que l’on ait :
⃗⃗⃗⃗𝐸 ) = ⃗⃗⃗⃗
𝑓(0
0𝐹 .
Cette propriété est une condition nécessaire pour qu’une application f(∙) soit linéaire, dont on aurait
d’ailleurs pu se servir pour démontrer que l’application f2(∙) rencontrée plus haut n’est pas linéaire.
Celle-ci étant, en effet, définie par :
𝑥1
2𝑥 + 3𝑥2
f2(𝑥 ) = ( 1
),
−𝑥1 − 2
2
on a :
0
2×0+3×0
0
0
f2( ) = (
) = ( ) ≠ ( ).
0
−0 − 2
−2
0
Encore une fois, cette condition est nécessaire :
⃗ 𝐸) ≠ 0
⃗ 𝐹 , alors 𝑓(⋅) ne peut pas être une application linéaire.
si 𝑓(0
En revanche, elle n’est pas suffisante : que cette condition soit vérifiée ne suffit pas à conclure que 𝑓(⋅)
⃗⃗⃗⃗𝐸 ) = ⃗⃗⃗⃗
est linéaire. L’application 𝑓(⋅) peut très bien ne pas être linéaire bien que l’on ait : 𝑓(0
0𝐹 .
II. Représentation matricielle d’une application linéaire
A. Principe et propriété
Considérons l’application linéaire f1(∙) définie (voir plus haut) par :
𝑥1
𝟐𝑥 + 𝟑𝑥2
f1(𝑥 ) = ( 1
).
−𝑥1 − 𝟐𝑥2
2
Comme :
𝟐𝑥 + 𝟑𝑥2
𝟐
𝟑
𝟐
𝟑 𝑥1
( 1
) = 𝑥1 ( ) + 𝑥2 ( ) = (
)( )
−𝑥1 − 𝟐𝑥2
−𝟏
−𝟐
−𝟏 −𝟐 𝑥2
on a :
𝑥1
𝑥1
2
3
[1] f1(𝑥 ) = A1(𝑥 ), avec A1 = (
).
2
2
−1 −2
On dit alors que la matrice A1 représente l’application linéaire f1(∙) par rapport aux bases canoniques
de ses espaces de départ et d’arrivée.
Pourquoi « par rapport aux bases canoniques de ses espaces de départ et d’arrivée » ? Parce que,
comme f1(∙) est linéaire, on a :
𝑥1
𝑥1
1
0
1
0
1
0
f1(𝑥 ) = f1[𝑥1 ( ) + 𝑥2 ( )] = 𝑥1 f1( )+ 𝑥2 f1( ) = [𝑓1 ( ) 𝑓1 ( )] (𝑥 ).
2
0
1
0
1
0
1
2
D’où, par identification avec [1] :
2
3
1
0
) = [𝑓1 ( ) 𝑓1 ( )].
−1 −2
0
1
La première (respectivement la seconde) colonne de la matrice A1 est donc l’image par f1(∙) du premier
(respectivement du second) vecteur de la base canonique de ℝ², l’espace de départ de f1(∙).
Comme, par ailleurs, on a :
1
2×1+3×0
2
1
0
f1( ) = (
)= ( ) = 𝟐( )− 𝟏( )
0
−1 − 2 × 0
−1
0
1
et :
0
2×0+3×1
3
1
0
f1( ) = (
) = ( ) = 𝟑 ( ) − 𝟐 ( ),
1
−0 − 2 × 1
−2
0
1
1
0
les deux colonnes de A1 sont les coordonnées de f1( ) et de f1( ) respectivement dans la base
0
1
canonique de ℝ², l’espace d’arrivée de f1(∙).
A1 = (
66
Poly n°8
C’est la raison pour laquelle on dit que A1 représente f1(∙) par rapport aux bases canoniques de ses
espaces de départ et d’arrivée.
Toute application linéaire f(∙) de E dans F peut ainsi être représentée par une matrice A par rapport aux
bases canoniques de ses espaces de départ et d’arrivée.
 Son nombre de colonnes est alors égal au nombre de vecteurs que contient la base canonique de
son espace de départ, à savoir dimE,
 et son nombre de lignes, au nombre de vecteurs que contient la base canonique de son espace
d’arrivée, à savoir dimF.
Réciproquement, si une application f(∙) est définie par f(X) = AX, alors elle est linéaire. En effet, quels
que soient les réels α et β, et les vecteurs X et 𝑋 ′ de l’espace de départ de f(∙), on a alors :
f(αX + β𝑋 ′ ) = A(αX + β𝑋 ′ ) = αAX +βA𝑋 ′ = αf(X) + βf(𝑋 ′ ).
Plus généralement :
PROPRIÉTÉ IV-2 – L’application f(∙) de E dans F est linéaire si et seulement si on peut écrire :
f(X) = AX,
où A est la matrice, de format (dimF , dimE), dont les colonnes sont les images par f(∙) des vecteurs de
la base canonique de E (la jème colonne de A donne les coordonnées dans la base canonique de F de
l’image par f(∙) du jème vecteur de la base canonique de E).
On dit alors que A représente f(∙) par rapport aux bases canoniques de E et de F.
B. Exemples
Exemple 1
Soit l’application linéaire f3(∙), de ℝ² dans ℝ3 définie par :
𝑥+𝑦
𝑥
f3(𝑦) = ( 𝑦 ).
3𝑥 − 2𝑦
Comme :
𝑥+𝑦
1
1
( 𝑦 ) = 𝑥 (0) + 𝑦 ( 1) ;
3𝑥 − 2𝑦
3
−2
on a :
1
1 𝑥
𝑥
f3(𝑦) = (0
1) (𝑦).
3 −2
1
1
A3= (0
1) est donc la matrice représentant f3(∙) par rapport aux bases canoniques de ℝ² et de ℝ3 .
3 −2
Exemple 2
De même, l’application linéaire f4(∙), de ℝ4 dans ℝ² définie par :
𝑥
𝑥 + 2𝑦 − 𝑧 + 𝑡
𝑦
f4( ) = (
)
𝑧
−2𝑥 + 𝑦 − 𝑡
𝑡
peut s’écrire :
𝑥
𝑥
𝑦
1 2 −1
1 𝑦
f4( ) = (
) ( ).
𝑧
−2 1
0 −1 𝑧
𝑡
𝑡
67
Poly n°8
où A4 = (
1
−2
2
1
−1
0
1
) est la matrice représentant f4(∙) par rapport aux bases canoniques de ℝ4 et
−1
de ℝ².
III. Rang et noyau d’une application linéaire
Dans toute cette partie (sauf dans les exemples), on considérera une application linéaire f(∙), de E dans
F, définie par f(X) = AX.
Image d’une application linéaire
Définition IV.2
On appelle image de l’application linéaire f(∙) l’ensemble, noté Imf ou f(E) des images par f(∙) des
vecteurs de E.
Ce que l’on peut noter :
𝐼𝑚𝑓 = 𝑓(𝐸) = {𝑓(𝑋), 𝑋 ∈ 𝐸}.
Même si cette représentation n’est pas appropriée (aux espaces vectoriels), la compréhension de ce
concept peut sans doute être facilitée par la figure 5 suivante :
Figure 5
Comme f(X) = AX, l’ensemble Imf s’écrit également :
Imf = f(E) = {AX, XE}.
Par exemple : si l’on reprend l’application linéaire f1(∙) définie plus haut, on a :
𝑥1
2
3 𝑥1
2
3
Imf1= {𝐀𝟏 𝑋, 𝑋 ∈ ℝ²} = {(
) ( ), (𝑥 ) ∈ ℝ²} = {𝑥1 ( ) + 𝑥2 ( ) , 𝑥1 ∈ ℝ, 𝑥2 ∈ ℝ}.
−1 −2 𝑥2
2
−1
−2
L’ensemble Imf1 est ainsi le sous-espace vectoriel de ℝ² engendré par les colonnes de A1.
De la même façon, dans le cas général où f(X) = AX, où A est une matrice de format (m , n), en posant :
𝑥1
ème
A = (C1 … Cn), où Cj est la j colonne de A, et X = ( ⋮ ), alors :
𝑥𝑛
𝑥1
𝑥1
𝑥1
⋮
⋮
Imf = {AX, XE} = {(𝐶1 ⋯ 𝐶𝑛 ) ( ), ( ) ∈ 𝐸} = {𝑥1 𝐶1 + 𝑥𝑛 𝐶𝑛 , ( ⋮ ) ∈ 𝐸}
𝑥𝑛
𝑥𝑛
𝑥𝑛
C’est donc l’ensemble des combinaisons linéaires des colonnes de A, qui sont les images par f(∙) des
vecteurs de la base canonique de E. Ces colonnes étant des éléments de F, Imf est un sous-espace
vectoriel de F. Ainsi :
PROPRIÉTÉ IV-3 – Soit f(∙) l’application linéaire de E dans F définie par : f(X) = AX. Alors :
 Imf est le sous-espace vectoriel de F engendré par les colonnes de A.
68
Poly n°8

On a donc : dimImf = rangA.
L’ensemble Imf est donc un sous-espace vectoriel de F. Il existe un cas particulier : celui où ces deux
ensembles sont confondus – où, en conséquence Imf = F. Dans ce cas, tous les éléments de F sont des
éléments de Imf, ils sont donc tous l’image d’au moins un vecteur X de E. C’est le cas où l’application f(∙)
est surjective.
PROPRIÉTÉ IV-4 – Soit f(∙) l’application linéaire de E dans F. Alors :
f(∙) est surjective si et seulement si Imf = F.
Rang d’une application linéaire
1. Définition
Définition IV.3
Le rang d’une application linéaire f(∙) est égal à la dimension de son image :
Rangf = dimImf.
Et comme (on vient de le voir), dimImf = rangA, il s’ensuit que :
PROPRIÉTÉ IV-4 – Soit f(∙) l’application linéaire de E dans F définie par : f(X) = AX. Alors :
rangf = rangA.
2. Exemples
 Soit l’application linéaire f3(∙), de ℝ² dans ℝ3 définie par :
1
1
f3(𝑋) = 𝐀𝟑 𝑋 avec A3= (0
1) (c’est la même que plus haut).
3 −2
On a :
1
1
Rangf3 = rangA3 = rang(0
1) = 2.
3 −2
 De même, le rang de l’application linéaire f4(∙), de ℝ4 dans ℝ², définie par :
1 2 −1
1
f4(𝑋) = 𝐀𝟒 𝑋 avec A4 = (
) (c’est la même que plus haut),
−2 1
0 −1
est :
1 2 −1
1
Rangf4 = rangA4 = rang(
) = 2.
−2 1
0 −1
3
3
● Soit l’application linéaire f5(∙), de ℝ dans ℝ , définie par :
−2
1
1
f5(X) = A5X, avec A5 = ( 1
1 −2).
1 −2
1
On a :
−2
1
1
−2 1
1
−2
1
1
Rangf5 = rangA5 = rang( 1
1 −2) = rang( 0
3 −3) = rang( 0 3 −3) = 2.
1 −2
1
0 −3
3
0 0
0
3. Remarques
Comme le rang d’une application linéaire f(∙) est égal au rang de la matrice A qui la représente (par
rapport aux bases canoniques de ses espaces de départ et d’arrivée) et comme le rang d’une matrice est
égal au nombre de colonnes linéairement indépendantes que cette matrice contient, le rang de f(∙) est
inférieur ou égal au nombre de colonnes de A :
rangf ≤ nombre de colonnes de A.
69
Poly n°8
Or, on a vu que le nombre de colonnes de A était égal à la dimension de l’espace de départ de
l’application f(∙). On a donc :
rangf ≤ dimE,
PROPRIÉTÉ IV-5 – Le rang d’une application linéaire est inférieur ou égal à la dimension de son espace de
départ.
Par ailleurs, on a vu que Imf est un sous-espace vectoriel de F. On a donc :
dimImf  dimF,
ou encore :
rangf  dimF,
autrement dit :
PROPRIÉTÉ IV-6 – Le rang d’une application linéaire est inférieur ou égal à la dimension de son espace
d’arrivée.
4. Rang d’une application linéaire surjective
Une application de E dans F est surjective si et seulement tout élément de F est l’image d’au moins un
élément de E. L’application linéaire f(∙) est donc surjective si et seulement si (on l’a vu plus haut) Imf = F.
Supposons que l’on ait : dimF = m.
. Si dimImf = m, alors tout ensemble de m vecteurs de Imf est une base de Imf. Comme ces vecteurs sont
également des vecteurs de F et comme dimF = m, ils forment aussi une base de F. On a donc Imf = F. Si
donc dimImf = dimF, alors Imf = F (et f(∙) est surjective).
. Réciproquement, si Imf et F sont un seul et même ensemble (i.e. si Imf = F, et donc f(∙) surjective), alors
ils ont la même dimension (dimImf = dimF).
Et comme dimImf = rangf, il s’ensuit que :
PROPRIÉTÉ IV-7 – L’application linéaire f(∙), de E dans F et définie par f(X) = AX, est surjective si et
seulement si on a :
rangf = dimF,
ou, ce qui revient au même :
rangA = nombre de lignes de A.
Exemples
 L’application f4(∙) vue plus haut est surjective. En effet, c’est une application de ℝ4 dans ℝ² avec
rangf4 = 2. On a donc bien : rangf4 = dimℝ².
 En revanche, l’application f3(∙) vue plus haut ne l’est pas. C’est en effet une application de ℝ² dans
ℝ3 . Elle est donc surjective si et seulement si on a rangf3 = dimℝ3 = 3. Or on a vu que : rangf3 = 2.
On a vu plus haut que le rang d’une application linéaire était inférieur ou égal à la dimension de son
espace de départ :
rangf  dimE.
Il s’ensuit que si la dimension de son espace d’arrivée est strictement supérieure à la dimension de son
espace de départ (si dimF > dimE), alors le rang de cette application ne peut être égal à la dimension de
son espace d’arrivée (rangf ≠ dimF). D’où la condition nécessaire :
PROPRIÉTÉ IV-7 – L’application linéaire f(∙), de E dans F et définie par f(X) = AX, ne peut être surjective si :
dimF > dimE,
ou, ce qui revient au même, si :
70
Poly n°8
nombre de lignes de A > nombre de colonnes de A.
C’est le cas de f3(∙).
5. Rang d’une application linéaire injective
On a vu qu’une application de E dans F est injective si et seulement si les éléments de F ont au plus un
antécédent dans E, autrement dit, si et seulement si deux éléments distincts de E ont des images
nécessairement distinctes par f(∙) dans F.
Soit l’application f(∙), définie par f(X) = AX.
Si les colonnes de A sont linéairement dépendantes, alors il existe un vecteur X non nul tel que AX = ⃗0.
⃗
Le vecteur nul de F a donc au moins deux antécédents distincts dans E : un vecteur X non nul et 0
⃗
⃗
(puisque A0 = 0). L’application f(∙) n’est donc pas injective.
D’où la condition nécessaire :
PROPRIÉTÉ IV-8 – Pour que l’application linéaire f(∙), de E dans F et définie par f(X) = AX, soit injective, il
faut que les colonnes de A soient linéairement indépendantes.
Si l’on suppose maintenant que f(∙) n’est pas injective, il existe alors deux éléments distincts de E, X et
X’, ayant la même image par f(∙). Si l’on note cette image Y, on a donc :
[1] Y = AX et
[2]
Y = AX’.
En soustrayant [2] à [1], on obtient :
⃗.
A(X – X’) = 0
Il existe ainsi un vecteur non nul Z (= X – X’) tel que : AZ = ⃗0. Les colonnes de A sont donc linéairement
dépendantes.
PROPRIÉTÉ IV-9 – Pour que l’application linéaire f(∙), de E dans F et définie par f(X) = AX, soit injective, il
suffit que les colonnes de A soient linéairement indépendantes.
On a donc (entre les propriétés IV-8 et IV9) :
f(∙) injective si et seulement si les colonnes de A sont linéairement indépendantes
à savoir :
f(∙) injective si et seulement si rangA = nombre de colonnes de A.
Sachant que rangf = rangA et que le nombre de colonnes de A est égal à la dimension de E, l’espace de
départ de f(∙), on en déduit la propriété suivante :
PROPRIÉTÉ IV-10 – Une application linéaire f(∙), de E dans F, est injective, si et seulement si son rang est
égal à la dimension de son espace de départ.
Ainsi, par exemple, l’application f3(∙) est injective car son rang est égal à la dimension de son espace de
départ (ou, ce qui revient au même, puisque le rang de la matrice A3 est égal au nombre de colonnes de
A3). En revanche, l’application f4(∙) n’est pas injective, puisqu’elle est de rang 2 alors que la dimension
de son espace de départ, IR4, est égale à 4 (ou encore puisque le rang de A4 diffère du nombre de
colonnes de cette matrice).
On a vu plus haut que le rang d’une application linéaire est inférieur ou égal à la dimension de son
espace de départ :
rangf  dimE.
71
Poly n°8
Il s’ensuit que si la dimension de son espace de départ est strictement supérieure à la dimension de son
espace d’arrivée (si dimE > dimF), alors le rang de cette application ne peut être égal à la dimension de
son espace de départ (rangf ≠ dimE). D’où la condition nécessaire :
PROPRIÉTÉ IV-11 – L’application linéaire f(∙), de E dans F et définie par f(X) = AX, ne peut être injective si :
dimE > dimF,
ou, ce qui revient au même, si :
nombre de colonnes de A > nombre de lignes de A.
Fin de la semaine 8
Faire le Quiz intitulé « Quiz - Cours n°8 »
Dans la préparation du TD, vous pouvez commencer le dossier de TD 4 :
vous pouvez faire l’exercice 1 et commencer à faire l’exercice 2 (en
déterminant les espaces de départ et d’arrivée, l’image et le rang des
applications linéaires).
72
Poly n°9
C. Noyau d’une application linéaire
1. Définition
Définition IV.4
On appelle noyau d’une application linéaire f(∙) de E dans F définie par : f(X) = AX, l’ensemble, noté kerf,
des éléments de E ayant pour image par f(∙) le vecteur nul de F. Ce que l’on peut noter :
Kerf = {XE / f(X) = ⃗0F}
ou, ce qui revient au même :
Kerf = {XE / AX = ⃗0F}.
Pour ce dernier ensemble, on parle indifféremment de kerf ou de kerA.
Même si cette représentation n’est pas appropriée (aux espaces vectoriels), la compréhension de ce
concept peut sans doute être facilitée par la figure 6 suivante :
Figure 1
PROPRIETE IV-12 – Kerf est un sous-espace vectoriel de E.
Démonstration de la propriété IV-12
Kerf est une partie de E (les vecteurs de kerf appartiennent tous à E) non vide (il contient le vecteur nul
⃗ E = ⃗0F) et stable ;
de E puisque A0
• pour la somme vectorielle: car, si X et Y sont deux éléments de kerf, alors X + Y l’est aussi
⃗ F),
(puisqu’alors A(X + Y) = AX + AY = 0
• et pour l’homothétie : car si X appartient à kerf, alors, quel que soit le réels α, αX appartient aussi à
⃗ F).
kerf (puisqu’alors A(αX) = αAX = 0
2. Exemples
● Reprenons l’application linéaire f1(∙), de IR² dans IR², définie par :
2
3
f1(X) = A1X, avec A1 = (
).
−1 −2
𝑥
𝑥
0
Kerf1 = kerA1 = {(𝑦) IR² / A1(𝑦) = ( )}.
0
La matrice A1 étant de plein rang (ses deux colonnes ne sont pas proportionnelles), ses colonnes sont
linéairement indépendantes. La seule solution du système :
⃗F
A1X = 0
est donc :
⃗ E.
X=0
On a donc :
0
kerf1 = kerA1 = {( )}.
0
73
Poly n°9
•
Reprenons, maintenant, l’application linéaire f4(∙), de ℝ4 dans ℝ², définie par :
1 2 −1
1
f4(X) = A4X, avec A4 = (
).
−2 1
0 −1
𝑥
𝑥
𝑦
𝑦
0
Kerf4 = kerA4 ={( ) ∈ ℝ4 ; 𝐀𝟒 ( ) = ( )}.
𝑧
𝑧
0
𝑡
𝑡
Comme:
𝑥
𝑥
𝑦
0
1 2 −1
1 𝑦
0
𝐀𝟒 ( ) = ( ) (
)( ) = ( )
𝑧
0
−2 1
0 −1 𝑧
0
𝑡
𝑡
𝑥
+ 2𝑦 − 𝑧 + 𝑡 = 0
{
−2𝑥 + 𝑦
− 𝑡 =0
𝑧 =
𝑥
+ 2𝑦 + 𝑡 = 𝑥 + 2𝑦 − 2𝑥 + 𝑦
{
𝑡 = −2𝑥 + 𝑦
𝑧 = −𝑥 + 3𝑦
{
𝑡 = −2𝑥 + 𝑦
on a :
𝑥
1
0
𝑦
0
1
Kerf4 = kerA4 ={(−𝑥 + 3𝑦) , 𝑥 ∈ ℝ, 𝑦 ∈ ℝ} = {𝑥 ( ) + 𝑦 ( ) , 𝑥 ∈ ℝ, 𝑦 ∈ ℝ}.
−1
3
−2𝑥 + 𝑦
−2
1
1
0
0
1
Le noyau de f4(∙)est le sous-espace vectoriel de IR4 engendré par : G = {( ) , ( )}.
−1
3
−2
1
3. Noyau d’une application linéaire injective
Repartons de la définition du noyau de l’application f(∙) :
⃗ F}
Kerf = {XE / AX = 0
⃗
⃗
Le vecteur X = 0E est toujours solution du système AX = 0F.
Deux cas sont alors possibles:
• il en est l’unique solution. C’est le cas lorsque les colonnes de A sont linéairement indépendantes ;
• il en est une des solutions. C’est le cas lorsque les colonnes de A sont linéairement dépendantes.
Or on a vu plus haut que l’application f(∙) est injective si et seulement si les colonnes de A sont
linéairement indépendantes. Il s’ensuit que :
PROPRIETE IV-13 – L’application f(∙) est injective si et seulement si:
⃗⃗⃗⃗𝐸 }.
kerf = {0
Ainsi, l’application f3(∙)rencontrée plus haut étant injective, son noyau ne contient que le vecteur nul de
son espace de départ, qui était ℝ².
⃗ }  dimkerf = 0, on a :
Enfin, comme kerf = {0
PROPRIETE IV-14 – L’application f(∙) est injective si et seulement si:
dimkerf = 0.
74
Poly n°9
D. Le théorème des dimensions
THEOREME DES DIMENSIONS
Soit f(∙) une application linéaire de E dans F définie par f(X) = AX. On a:
dimImf + dimKerf = dimE
ou
rangf + dimKerf = dimE
ou, ce qui revient au même:
rangA + dimkerA = nombre de colonnes de A.
La démonstration de ce théorème se trouve en annexe de ce poly.
• Si l’on prend l’exemple de l’application linéaire f4(∙), de ℝ4 dans ℝ², définie par :
1 2 −1
1
f4(X) = A4X, avec A4 = (
).
−2 1
0 −1
On a :
1 2 −1
1
✓ dimImf = rangA4 = rang (
) = 2 (deux lignes non proportionnelles).
−2 1
0 −1
1
0
0
1
✓ dimKerf = rang{( ) , ( )} = 2 (deux vecteurs non proportionnels)
−1
3
−2
1
✓ E = ℝ4 et donc dimE = 4.
On a donc bien : dimE = dimImf + dimKerf (4 = 2+2).
E. Détermination de kerf lorsque l’on connait sa dimension : un exemple
Soit f(∙) une application linéaire, de E dans F, définie par : f(X) = AX. D’après le théorème des dimensions,
on a :
dimkerf = dimE – rangf
ou encore :
dimkerA = nombre de colonnes de A – rangA
Si l’on reprend, par exemple, l’application linéaire f5(∙), de ℝ3 dans ℝ3 , définie par :
−2
1
1
f5(X) = A5X, avec A5 = ( 1
1 −2)
1 −2
1
Comme A5 a trois colonnes, et comme (voir plus haut) on a : rangA5 = 2, on en déduit que :
dimkerf = dimkerA5 = 3 – 2 = 1.
Tout ensemble comportant un vecteur non nul de kerA5 forme donc une base de kerA5.
Pour déterminer kerA5, il suffit donc de trouver un vecteur (non nul) de kerA5.
Comme les vecteurs de kerA5 sont (par définition du noyau d’une matrice) des vecteurs X tels que :
⃗
A5X = 0
[1],
et comme (par définition du produit d’une matrice par un vecteur colonne à droite), en notant C1, C2 et
𝑥
C3 les trois colonnes de A5 respectivement et en posant 𝑋 = (𝑦), on a :
𝑧
A5X = xC1 + yC2 + zC3,
et donc, en remplaçant dans [1] :
xC1 + yC2 + zC3 = ⃗0.
Trouver un vecteur de kerA5 revient ainsi à trouver une combinaison linéaire des colonnes de A5 égale
au vecteur nul.
Ici, on voit bien que :
C1 + C2 + C3 = ⃗0.
75
Poly n°9
Ce que l’on peut écrire :
(𝐶1
𝐶2
1
𝐶3 ) (1) = ⃗0.
1
Il s’ensuit que l’on a :
0
1
A5(1) = (0).
1
0
1
Le vecteur (1) est donc un vecteur de kerA5. Il constitue même une base de kerA5 (puisque la
1
dimension de cet ensemble est égale à un). D’où :
1
kerA5 = {α (1) , α ∈ IR}.
1
IV. Les isomorphismes
Définition
Définition IV.5
On appelle isomorphisme une application linéaire bijective, i.e. une application linéaire à la fois
injective et surjective.
C’est le cas, par exemple, on l’a vu de l’application linéaire f1(∙) rencontrée plus haut, définie par :
2
3
f1(X) = A1X, avec A1 = (
).
−1 −2
0
On a, en effet vu que f1(∙) était injective puisque kerf1 = kerA1 = {( )}.
0
Et comme f1(∙) est une application de ℝ2 dans ℝ2 , elle est bijective si et seulement si elle est surjective.
PROPRIETE IV-15 – L’application f(∙) définie par f(X) = AX est un isomorphisme si et seulement si A est
une matrice carrée régulière.
Démonstration de la propriété IV-15
En effet, on a vu que l’application linéaire f(∙) est surjective si et seulement si on a :
rangA = nombre de lignes de A,
et injective si et seulement si on a :
rangA = nombre de colonnes de A.
Elle est donc bijective si et seulement si on a :
rangA = nombre de lignes de A = nombre de colonnes de A,
donc si A est régulière.
−1 1 1
Ainsi, la matrice M = ( 1 −1 1) étant régulière (voir poly 4, page 33), l’application f(∙), de ℝ3 dans
1 1 −1
ℝ3 , définie par f(X) = MX est un isomorphisme.
76
Poly n°9
Application inverse d’un isomorphisme, matrice inverse d’une matrice régulière
Ainsi, si A est régulière, alors elle est inversible.
Et la matrice inverse de A, notée 𝐀−1 , est telle
que :
Si f(∙) est un isomorphisme de E dans F, alors
elle admet une application inverse (ou
réciproque), notée 𝑓 −1 (⋅), de F dans E, définie
par :
𝑓 −1 [f(X)] = X, pour tout X de E
ou
−1
f[𝑓 (Y)] = Y pour tout Y de F,
A𝐀−1 = 𝐀−1 A = I.
Ceci se déduit, en effet, directement de la
colonne de gauche si l’on considère que A est la
matrice de 𝑓(⋅) par rapport aux bases
canoniques de ses espaces de départ et
d’arrivée et 𝐀−1 la matrice de 𝑓 −1 (⋅).
et cette application 𝑓 −1 (⋅) est également un
isomorphisme.
V. Retour sur la résolution de systèmes d’équations
Soit l’application linéaire f(∙), de ℝ𝑛 dans ℝ𝑚 , définie par :
f(X) = AX,
où A est une matrice de format (m, n).
Le système de m équations linéaires à n inconnues :
AX = Y
𝑚
établit simplement que le vecteur Y de ℝ a au moins un antécédent X par f(∙) dans ℝ𝑛 , autrement dit
que le vecteur Y est un élément de Imf.
Plusieurs cas sont alors possibles :
• lorsque f(∙) est surjective (lorsque rangA = nombre de lignes de A), alors ceci est vrai, autrement
dit le système a au moins une solution quel que soit Y de ℝ𝑚 , puisque, comme Imf = ℝ𝑚 , tout
élément Y de ℝ𝑚 appartient à Imf.
•
o
•
lorsque f(∙) est injective (rangA = nombre de colonnes de A), alors le système a au plus une
solution ; plus précisément,
o il a une solution unique si Y est un élément de Imf
et n’a pas de solution dans le cas contraire.
lorsque f(∙) est bijective, alors le système a une solution unique. La matrice A est alors inversible
et la solution est donnée par : X = A – 1Y.
VI. Représentation matricielle d’une application linéaire dans d’autres bases que les
bases canoniques de ses espaces vectoriels de départ et d’arrivée
On a vu qu’une application linéaire f(∙) de E dans F pouvait s’écrire :
f(X) = AX,
où A est la matrice représentant f(∙) par rapport aux bases canoniques de E et de F.
A. Définition
On peut représenter f(∙) par rapport à d’autres bases que les bases canoniques de ses espaces de départ
et d’arrivée.
77
Poly n°9
Définition IV.6
Soit f(∙) une application linéaire de ℝ𝑛 dans ℝ𝑚 définie par 𝑓(𝑋) = 𝐀𝑋 où 𝐀 est de format (𝑚 , 𝑛).
Soient ℬ𝑛 = {𝑉1 , 𝑉2 , … , 𝑉𝑛 } une base de ℝ𝑛 et ℬ𝑚 = {𝑊1 , 𝑊2 , … , 𝑊𝑚 } une base de ℝ𝑚 .
La matrice M qui représente f(∙) par rapport aux bases ℬ𝑛 et ℬ𝑚 est :
𝐌 = (𝐶1 … 𝐶𝑛 )
où la colonne C𝑗 donne les coordonnées de 𝑓(𝑉𝑗 ) dans la base ℬ𝑚 .
Chaque colonne j de la matrice M est ainsi le vecteur colonne des coordonnées, dans la base ℬ𝑚 de
l’espace d’arrivée, de l’image par f(∙) du jème vecteur de la base ℬ𝑛 de l’espace de départ.
B. Exemple
Soit f(∙) une application linéaire de ℝ3 dans ℝ2 , définie par :
𝑥1
𝑥1
𝑥1
𝑥 + 2𝑥2 − 𝑥3
1 2 −1
𝑓 (𝑥2 ) = 𝐀 (𝑥2 ) avec 𝐀 = (
), ou encore 𝑓 (𝑥2 ) = ( 1
)
𝑥2 + 𝑥3
0
1
1
𝑥3
𝑥3
𝑥3
1
2
1
1
1
Et soient ℬ3 = {(1) , (1) , (0)} une base de ℝ3 et ℬ2 = {( ) , ( )} une base de ℝ2 .
1
2
0
1
2
Alors la matrice M représentant f(∙) par rapport à ℬ3 et ℬ2 est :
𝐌 = (𝑪𝟏 𝑪𝟐 𝑪𝟑 ),
1
2
1
où C1, C2 et C3 donnent respectivement les coordonnées de 𝑓 (1), 𝑓 (1) et 𝑓 (0) dans la base ℬ2 .
0
1
2
•
Détermination de C1
1
1
1
C1 donne les coordonnées dans ℬ2 = {( ) , ( )} du vecteur 𝑓 (1).
1
2
0
1
1ère étape : pour trouver C1, on détermine d’abord le vecteur 𝑓 (1) :
0
1
1
1
1 2 −1
3
𝑓 ( 1) = 𝐀 ( 1) = (
) (1) = ( ).
0 1
1
1
0
0
0
3
1
1
2nde étape : on détermine les coordonnées de ( ) dans la base ℬ2 = {( ) , ( )}
1
1
2
𝒂𝟏𝟏
C’est le vecteur C1 = (𝒂 ) unique solution du système :
𝟐𝟏
1
1
3
𝒂𝟏𝟏 ( ) + 𝒂𝟐𝟏 ( ) = ( ).
1
2
1
𝟓
En résolvant ce système, on trouve : 𝒂𝟏𝟏 = 𝟓 et 𝒂𝟐𝟏 = −𝟐. (Faites-le !) D’où : C1 = ( )
−𝟐
Détermination de C2
2
1
1
C2 donne les coordonnées dans ℬ2 = {( ) , ( )} du vecteur 𝑓 (1).
1
2
1
2
1ère étape : pour trouver C2, on détermine d’abord le vecteur 𝑓 (1) :
1
2
2
2
1 2 −1
3
𝑓 ( 1) = 𝐀 ( 1) = (
) (1) = ( ).
0 1
1
2
1
1
1
3
1
1
2nde étape : on détermine les coordonnées de ( ) dans la base ℬ2 = {( ) , ( )}
2
1
2
𝒂𝟏𝟐
C’est le vecteur C2 = (𝒂 ) unique solution du système :
𝟐𝟐
1
1
3
𝒂𝟏𝟐 ( ) + 𝒂𝟐𝟐 ( ) = ( ).
1
2
2
𝟒
En résolvant ce système, on trouve : 𝒂𝟏𝟐 = 𝟒 et 𝒂𝟐𝟐 = −𝟏. (Faites-le !) D’où : C2 = ( )
−𝟏
78
Poly n°9
Détermination de C3
1
1
1
C3 donne les coordonnées dans ℬ2 = {( ) , ( )} du vecteur 𝑓 (0).
1
2
2
1
1ère étape : pour trouver C3, on détermine d’abord le vecteur 𝑓 (0) :
2
1
1
1
1 2 −1
−1
𝑓 ( 0) = 𝐀 ( 0) = (
) (0) = ( ).
0 1
1
2
2
2
2
−1
1
1
2nde étape : on détermine les coordonnées de ( ) dans la base ℬ2 = {( ) , ( )}
2
1
2
𝒂𝟏𝟑
C’est le vecteur C3 = (𝒂 ) unique solution du système :
𝟐𝟑
1
1
−1
𝒂𝟏𝟑 ( ) + 𝒂𝟐𝟑 ( ) = ( ).
1
2
2
−𝟒
En résolvant ce système, on trouve : 𝒂𝟏𝟑 = −𝟒 et 𝒂𝟐𝟑 = 𝟑. (Faites-le !) D’où : C3 = ( ).
𝟑
On a donc :
𝐌=(
𝟓
−𝟐
𝟒
−𝟏
−𝟒
).
𝟑
C. Méthode & lien entre les matrices A et M
Reprenons l’exemple ci-dessus de l’application linéaire f(∙) de ℝ𝑛 dans ℝ𝑚 , définie par :
𝑓(𝑋) = 𝐀(𝑋).
𝑛
Et soient ℬ𝑛 = {𝑉1 , ⋯ , 𝑉𝑛 } une base de ℝ et ℬ𝑚 = {𝑊1 , ⋯ , 𝑊𝑚 } une base de ℝ𝑚 .
On notera respectivement P = (𝑉1 ⋯ 𝑉𝑛 ) et Q = (𝑊1
les vecteurs de ℬ𝑛 et ℬ𝑚 respectivement.
⋯
𝑊𝑚 ) les matrices dont les colonnes sont
La matrice M représentant f(∙) par rapport à ℬ𝑛 et ℬ𝑚 est :
𝐌 = (𝐶1 ⋯ 𝐶𝑛 ),
où C1, … , Cn donnent respectivement les coordonnées de 𝑓(𝑉1 ), …, 𝑓(𝑉𝑛 ) dans la base ℬ𝑚 .
Détermination de C1
C1 donne les coordonnées dans ℬ𝑚 du vecteur 𝑓(𝑉1 ).
1ère étape : pour trouver C1, on détermine d’abord le vecteur 𝑓(𝑉1 ) :
𝑓(𝑉1 ) = 𝐀𝑉1 .
nde
2 étape : on détermine les coordonnées de 𝐀𝑉1 dans la base ℬ𝑚 = {𝑊1 , ⋯ , 𝑊𝑚 }
𝒂𝟏𝟏
C’est le vecteur C1 = ( ⋮ ) unique solution du système :
𝒂𝟏𝒎
𝒂𝟏𝟏 𝑊1 + ⋯ + 𝒂𝟏𝒎 𝑊𝑚 = 𝐀𝑉1 ,
Autrement dit du système :
𝒂𝟏𝟏
(𝑊1 ⋯ 𝑊𝑚 ) ( ⋮ ) = 𝐀𝑉1
𝒂𝟏𝒎
A savoir le système :
QC1 = AV1 [1]
Comme la matrice Q est régulière (ses colonnes forment une base de ℝ𝑚 ), elle est inversible. En
notant Q – 1 son inverse et en pré-multipliant les deux membres de [1] par Q – 1, on obtient :
C1 = Q – 1AV1
En réitérant l’opération pour chacune des colonnes de M, on obtient ainsi :
79
Poly n°9
𝐌 = (𝐐 – 𝟏 𝐀𝑉1
𝐐 – 𝟏 𝐀𝑉𝑛 ).
⋯
Or :
(𝐐 – 𝟏 𝐀𝑉1
⋯
𝐐 – 𝟏 𝐀𝑉𝑛 ) = 𝐐 – 𝟏 𝐀(𝑉1
⋯
𝑉𝑛 ) = 𝐐 – 𝟏 𝐀𝐏
On a donc :
𝐌 = 𝐐 – 𝟏 𝐀𝐏.
Et comme M et A représentent la même application linéaire. Pour cette raison, on dit qu’elles sont
semblables.
PROPRIETE IV-16
Soit l’application linéaire f(∙) de ℝ dans ℝ , définie par : f(X) = AX.
Soient ℬ𝑛 = {𝑉1 , ⋯ , 𝑉𝑛 } une base de ℝ𝑛 et P = (𝑉1 ⋯ 𝑉𝑛 ) la matrice dont les colonnes sont les
vecteurs de ℬ𝑛 .
Soient ℬ𝑚 = {𝑊1 , ⋯ , 𝑊𝑚 } une base de ℝ𝑚 et Q = (𝑊1 ⋯ 𝑊𝑛 ) la matrice dont les colonnes sont les
vecteurs de ℬ𝑚 .
La matrice M représentant l’application linéaire f(∙) par rapport aux bases ℬ𝑛 et ℬ𝑚 est :
𝐌 = 𝐐 – 𝟏 𝐀𝐏.
On dit alors des matrices A et M qu’elles sont semblables.
𝑛
𝑚
D. Matrices diagonalisables
Définition IV.7
Une matrice A est dite diagonalisable s’il existe une matrice diagonale D semblable à A.
Vous verrez cela plus en détail au second semestre. Notamment vous verrez comment on trouve la
matrice P donnée plus bas.
Donnons juste ici un exemple.
Reprenons l’application f1(∙), de ℝ² dans ℝ², définie par :
𝑥
𝑥
2
3
f1(𝑦) = A1(𝑦), avec A1 = (
).
−1 −2
−1
3
−1
3
Soient la base ℬ2 = {( ) , ( )} et P = (
) la matrice dont les colonnes sont les vecteurs de
1
−1
1 −1
ℬ2 .
La matrice M1 représentant l’application f1(∙) par rapport à ℬ2 est :
𝐌𝟏 = 𝐏 – 𝟏 𝐀𝟏 𝐏
En appliquant la méthode du pivot à la matrice (𝐏|𝐈), on trouve 𝐏 – 𝟏 :
−1
(𝐏|𝐈) = (
1
31
|
−1 0
0 𝐿1
−1
)
→(
1 𝐿2
0
1
→(
0
31
|
21
0 1/2
|
1 1/2
𝐿1
0
−2
)
→(
1 𝐿2 + 𝐿1
0
3/2 𝐿′1 ⁄−2
)
1/2 𝐿′2 ⁄2
D’où :
1/2
𝐏–𝟏 = (
1/2
80
3/2
).
1/2
0 −1
|
2 1
−3 2𝐿1 − 3𝐿′2
)
𝐿′2
1
Poly n°9
On a donc :
1/2
𝐌𝟏 = 𝐏 – 𝟏 𝐀𝟏 𝐏 = (
1/2
3/2
2
)(
1/2 −1
3 −1
)(
−2
1
1/2
3
)=(
1/2
−1
3/2
1
)(
1/2 −1
3
−𝟏
)=(
−1
𝟎
Cette matrice étant diagonale, on dit que A1 est diagonalisable.
Fin de la semaine 9
Faire le Quiz intitulé « Quiz - Cours n°9 »
Dans la préparation du TD, vous pouvez terminer le dossier de TD 4.
81
𝟎
).
𝟏
Poly n°9
Annexe
Démonstration du théorème des dimensions
Supposons que l’on ait dimE = n et dimkerf = p. Pour démontrer le théorème des dimensions, on doit ici
simplement démontrer que rangf = n – p.
Soit B’, une base de kerf. B’ est donc un ensemble de p vecteurs linéairement indépendants de kerf.
Notons X1,… Xp ces p vecteurs, on a :
B’ = {X1, …, Xp}.
Comme les vecteurs de B’ sont tous des vecteurs de E, on peut compléter B’ de façon à former une base
de E. Pour ce faire, il suffit de choisir n – p vecteurs de E, que l’on notera Xp+1, …, Xn, qui, conjointement
aux vecteurs de B’, forment un système libre de n vecteur de E. Notons B cette base de E, on a :
B = { X1, …, Xp, Xp+1, …, Xn}.
Comme B est une base de E, tout vecteur X de E peut s’écrire sous la forme d’une combinaison linéaire
unique des vecteurs de B. Notons λi les coefficients de cette combinaison linéaire. On a alors :
X = λ1X1 + … + λnXn.
Comme f(∙) est linéaire, il s’ensuit que l’on a :
f(X) = λ1f(X1) + … + λnf(Xn).
L’ensemble Imf est donc engendré par le système f(B) et l’on a :
rangf = rangf(B) = rang{f(X1), …, f(Xp), f(Xp+1), …, f(Xn)}
Comme les vecteurs X1, …, Xp appartiennent à kerf, on a :
f(X1) = … = f(Xp) = ⃗0F
et donc :
⃗ F,…, ⃗0F, f(Xp+1),…, f(Xn)} = rang{f(Xp+1),…, f(Xn)}.
rangf = rang{0
Il s’ensuit que le rang de f(∙) est égal à n – p si et seulement si l’ensemble {f(Xp+1), …, f(Xn)}, qui contient
n – p vecteurs, est libre.
Pour démontrer le théorème des dimensions, il suffit donc désormais de démontrer que {f(Xp+1), …,
f(Xn)} est libre, i.e. que le système d’équations :
⃗F
[1] p+1f(Xp+1) + … + nf(Xn) = 0
a pour seule solution : p+1 = … = n = 0.
Or, f(∙) étant linéaire, le système [1] implique :
f(p+1Xp+1 + … + nXn) = ⃗0F
De [1], on déduit donc que le vecteur p+1Xp+1 + … + nXn appartient à kerf. C’est dire qu’il peut s’écrire
sous la forme d’une combinaison linéaire unique des vecteurs de B’ (puisque B’ est une base de kerf). Si
l’on note 1, …, p les coefficients de cette combinaison linéaire, on a :
p+1Xp+1 + … + nXn = 1X1 + … + pXp,
et donc :
1X1 + … + pXp – p+1Xp+1 – … – nXn = ⃗0E
[2].
Comme B = {X1, …, Xp, Xp+1, …, Xn} est un système libre (puisque c’est une base de E), l’équation [2] a pour
unique solution : 1 = … = p = p+1 = … = n = 0.
Conclusion : f(B) est libre et rangf = cardf(B) = n – p.
82
Téléchargement