MAT 193: Alg`ebre linéaire Chapitre I: Alg`ebre

publicité
MAT 193: Algèbre linéaire
Chapitre I: Algèbre matricielle
Le but de ce chapitre est d’étudier les opérations et les propriétés de matrices. Applications des matrices se trouvent dans la plupart des domaines scientifiques et du génie. En informatique et en infographie, elles sont utilisées pour classer des pages web, pour représenter
des couleurs et pour projeter une image en 3 dimensions sur un écran en 2 dimensions.
Partout dans ce cours, on désigne par Z l’ensemble des entiers, par Q l’ensemble des
nombres rationnels et par R l’ensemble des nombres réels.
1.1. Polynômes
1.1.1. Définition. Soit un polynôme réel de degré n suivant:
f (x) = an xn + · · · + a1 x + a0 , où an ̸= 0.
Pour tout a ∈ R, on pose
f (a) = an an + · · · + a1 a + a0 ∈ R.
On dit que a est une racine de f (x) si f (a) = 0.
1.1.2. Proposition. Soit f (x) un polynôme réel de degré n. Alors a ∈ R est une racine
de f (x) si et seulement si f (x) = (x − a)g(x), avec g(x) un polynôme réel de degré n − 1.
Par conséquent,
(1) f (x) admet au plus n racines réelles; et
(2) f (x) admet n racines réelles a1 , . . . , an (incluant les multiplicités) si et seulement si
f (x) = c(x − a1 ) · · · (x − an ),
où c est le coefficient de xn .
Il n’y a pas de règle pour trouver les racines d’un polynôme réel général. Néanmoins, on
a le résultat suivant pour les polynômes quadratiques.
1.1.3. Proposition. Soit un polynôme réel quadratique
f (x) = ax2 + bx + c, où a ̸= 0.
1
Alors f (x) admet une racine réelle si et seulement si ∆ = b2 − 4ac ≥ 0; et dans ce cas, f (x)
admet deux racines réelles suivantes:
√
√
−b − ∆
−b + ∆
,
x2 =
.
x1 =
2a
2a
Le résultat suivant est très pratique pour trouver des racines d’un polynôme entier.
1.1.4. Proposition. Soit un polynôme entier
f (x) = xn + an−1 xn−1 + · · · + a1 x + a0 , où a0 , . . . , an−1 ∈ Z.
Si q ∈ Q est une racine de f (x), alors q ∈ Z est un diviseur de a0 .
1.2. Matrices
1.2.1. Définition. Une matrice réelle de type m × n est un tableau de mn nombres
réels rangés sur m lignes et n colonnes comme suit:





C1
C2 · · ·
Cn
a11
a21
..
.
a12
a22
..
.
···
···
..
.
a1n
a2n
..
.
am1 am2 · · ·
amn





L1
L2
Lm
On appelle aij le (i, j)-terme où i est l’indice de ligne et j est l’indice de colonne.
La matrice est dite nulle, notée 0m×n , si aij = 0 pour tous 1 ≤ i ≤ m et 1 ≤ j ≤ n.
La matrice s’appelle une matrice-ligne si m = 1; et une matrice-colonne si n = 1.
La matrice est dite carrée d’ordre n si m = n. Dans ce cas, les termes a11 , a22 , . . . , ann
sont appelés les termes diagonaux.
Deux matrices sont dites égales si elles sont du même type et les termes en même position
sont égaux.
Remarque. Une matrice carrée (a) d’ordre 1 sera identifiée avec le nombre a.
En tant qu’une première application de matrices, on parlera la représentation matricielle
des images numériques.
1.2.2. Définition. Une couleur sur un écran d’ordinateur est déterminée par trois
nombres réels r, v, b entre 0 et 1, appelés coordonnées RVB, qui donnent les intensités du
2
rouge, du vert et du bleu respectivement. Une telle couleur est représentée par une matricecolonne
 
r
 v .
b
Dorénavant, on identifiera une couleur à la matrice-colonne de ses coordonnées RVB.
À titre d’exemple, on a le tableau suivant:
rouge vert bleu blanc noir cyan magenta jaune gris pourpre
1
1
0
0
1
0
0
1
1
0, 6
3
1
0
1
0
1
0
1
0
1
0
3
1
0
0
1
1
0
1
1
0
1
3
1.2.3. Définition. Une image numérique sur un écran d’ordinateur est constituée de
petits carrés colorés, appelés pixels, qui sont rangés sur p lignes et q colonnes. Chaque pixel
est représenté par la matrice-colonne des coordonnées RVB de sa couleur. Ainsi une image
numérique de p × q pixels sera représentée par une matrice de type 3 × (pq) de nombres entre
0 et 1 comme suit:


r1 r2 · · · rpq
 v1 v2 · · · vpq  .
b1 b2 · · · bpq
où la première colonne représente le pixel au coin supérieur gauche et la dernière colonne
représente le pixel au coin inférieur droit.
En tant qu’une deuxième application, on parlera des matrices de probabilités.
Exemple. Supposons que chaque année au Québec, 3% des habitants en ville déménagent
à la campagne, et 5% des habitants à la campagne déménagent en ville. Par conséquent, les
probabilités pour qu’une personne qui habite en ville cette année habitera en ville ou à la
campagne l’année prochaine sont de 0, 97 et de 0, 03 respectivement. Les probabilités pour
qu’une personne qui habite à la campagne cette année habitera en ville ou à la campagne
l’année prochaine sont respectivement de 0, 05 et de 0, 95, respectivement. La matrice des
probabilités
(
)
0, 97 0, 05
0, 03 0, 95
décrit le changement de la répartition de la population du Québec.
1.3. Opérations matricielles
3
Le but de cette section est de définir et étudier les opérations arithmétiques sur les
matrices. Partout dans ce cours, on désignera par Mm×n (R) l’ensemble des matrices réelles
de type m × n et par Mn (R) l’ensemble des matrices carrées réelles d’ordre n.
1.3.1. Définition. Soient A = (aij )m×n , B = (bij )m×n ∈ Mm×n (R). On définit
(1) a · A = (aaij )m×n = A · a, pour tout a ∈ R;
(2) A + B = (aij + bij )m×n ;
(3) A − B = (aij − bij )m×n .
Remarque. Si A et B ne sont pas du même type, alors ni A + B ni A − B n’est défini.
Les opéatrations matricielles satisfont aux axiomes énoncés dans le résultat suivant.
1.3.2. Proposition. Soient A, B ∈ Mm×n (R) et a, b ∈ R.
(1) 1 · A = A;
(2) (ab)A = a(bA);
(3) (a ± b)A = aA ± bA;
(4) a(A ± B) = aA ± aB;
(5) A + 0m×n = A;
(6) A − A = 0m×n ;
(7) A + B = B + A;
(8) (A + B) + C = A + (B + C).
On introduira la multiplication matricielle dans la définition suivante.
1.3.3. Multiplication. (1) Le produit d’une matrice de type 1 × n et une matrice de
type n × 1 est une matrice de type 1 × 1 définie par


b1

 ∑n
(a1 · · · an )  ...  =
ak bk .
k=1
bn
(2) Si A = (aik ) ∈ Mm×n (R) et B = (bkj ) ∈ Mn×p (R), alors le produit de A et B est défini
par AB = (cij )m×p , où


b1j

 ∑n
cij = (ai1 · · · ain )  ...  =
aik bkj , i = 1, . . . , m; j = 1, . . . , p.
k=1
bjn
Remarque. (1) Si A = 0m×n ou B = 0n×p , alors AB = 0m×p .
(2) Si A, B ∈ Mn (R), alors AB ∈ Mn (R).
Exemple. Supposons que le nombre de résidents au Québec est constant et que le
changement de la répartition de la population en ville et à la campagne est décrit par la
matrice de probabilités suivante:
(
)
0, 97 0, 05
.
0, 03 0, 95
4
Supposons que les nombres de résidents en ville et à la campagne cette année sont v0 et
c0 , respectivement. Si v1 , c1 sont les nombres de résidents en ville et à la campagne l’année
prochaine, alors
v1 = 0, 97v0 + 0, 05c0
c1 = 0, 03v0 + 0, 95c0 ,
c’est-à-dire,
(
v1
c1
)
(
=
0, 97 0, 05
0, 03 0, 95
1.3.4. Définition. Pour tout entier n ≥ 1, la

1 0 ···
 0 1 ···

In =  . . .
 .. .. . .
0 0 ···
)(
v0
c0
)
.
matrice carrée

0
0 

.. 
. 
1
n×n
s’appelle matrice-identité d’ordre n.
1.3.5. Proposition. Si A, B, C des matrices réelles et a, b ∈ R, alors chacune des
égalités suivantes est vraie lorsque l’un de ses deux membres est défini.
(1)
(2)
(3)
(4)
(5)
(AB)C = A(BC);
(aA)(bB) = (ab)(AB);
A(B + C) = AB + AC;
(A + B)C = AC + BC;
Si A est de type m × n, alors Im A = AIn = A.
Remarque. (1) La multiplication matricielle n’est pas commutative.
(2) Le produit AB peut être nul sans que A ou B est nulle.
(3) Si A1 , A2 , . . . , An sont des matrices telles que Ai Ai+1 est défini pour i = 1, . . . , n − 1,
on définit alors
A1 A2 · · · An = (· · · (A1 A2 ) · · · An−1 )An .
On va donner deux résultats qui facilitent le calcul du produit de deux matrices. On
commence par le cas où le facteur à droite est une matrice-colonne.
1.3.6. Proposition. Soit A une matrice réelle dont les colonnes sont A1 , . . . , An . Si
a1 , . . . , an ∈ R, alors


a1


A  ...  = a1 A1 + · · · + an An .
an
5
Le résultat suivant nous dit que le calcul d’un produit de deux matrices générales se
ramème au produit traité dans la proposition précédente.
1.3.7. Proposition. Soient A ∈ Mm×n (R) et B ∈ Mn×p (R). Si B1 , . . . , Bp sont les
colonnes de B, alors
AB = (AB1 · · · ABp ).
1.3.8. Définition. Soit A = (aij )m×n une matrice réelle. On dit que A est
(1) diagonale rectangulaire si aij = 0 pour tous 1 ≤ i ≤ m; 1 ≤ j ≤ n avec i ̸= j;
(2) diagonale si A est carrée et diagonale rectangulaire; et dans ce cas, on note
A = diag {a11 , a22 , . . . , ann } .
En appliquant les propositions 1.3.6 et 1.3.7, on obtient le résultat suivant.
1.3.9. Proposition. Soit A = (A1 , · · · , An ) ∈ Mm×n (R) partagée en colonnes. Si
a1 , . . . , an ∈ R, alors
A · diag {a1 , · · · , an } = (a1 A1 , · · · , an An ).
1.3.10. Définition. Soit A = (aij )m×n . On définit la transposée de A comme suit:
AT = (a′ij )n×m , où a′ij = aji , i = 1, . . . , n; j = 1, . . . , m.
Remarque. (1) La i-ième ligne de AT est la transposée de la i-ième colonne de A;
(2) La j-ième colonne de AT est la transposée de la j-ième ligne de A.
1.3.11. Proposition. Soient A, B des matrices réelles et a ∈ R.
(1) (AT )T = A.
(2) (aA)T = aAT .
(3) Si A, B sont de même type, alors (A + B)T = AT + B T .
(4) Si AB est défini, alors (AB)T = B T AT .
1.3.12. Définition. Une matrice carrée A = (aij )n×n est dite symétrique si AT = A,
c’est-à-dire, aji = aij , pour tous 1 ≤ i, j ≤ n.
Exemple. (1) Une matrice diagonale est symétrique.
(2) Pour toute matrice A, les matrices AAT et AT A sont symétriques.
1.4. Opérations élémentaires et matrices échelonnées
6
Soit A = (aij )m×n une matrice. Un terme aij est dit plus à gauche que akl si j < l. Par
exemple, le (3, 2)-terme d’une matrice est plus à gauche que le (1, 5)-terme.
1.4.1. Définition. Soit A une matrice de m lignes L1 , . . . , Lm . On dit que A est
échelonnée si la condition suivante est vérifiée pour tout i = 2, . . . , m :
Lorsque Li est non nulle, Li−1 est aussi non nulle et son premier terme non nul est plus
à gauche que le premier terme non nul de Li .
En outre, si A est échelonnée, alors le premier terme non nul d’une ligne non nulle de A
s’appelle le pivot de cette ligne.
Remarque. Si Am×n est échelonnée, alors chaque ligne, ainsi que chaque colonne, de A
contient au plus un pivot. Par conséquent, le nombre de pivots de A est plus petit ou égal
à min {m, n}.
Exemple. (1) Une matrice-ligne est échelonnée.
(2) Une matrice nulle est échelonnée sans pivots.
(3) La matrice-identité d’ordre n est échelonnée ayant n pivots.
1.4.2. Définition. Les opérations élémentaires sur les lignes d’une matrice sont les
opérations suivantes:
Type 1: Échanger deux lignes, notée Li ↔ Lj avec i ̸= j.
Type 2: Additionner à une ligne un multiple d’une autre ligne, notée Li + aLj avec i ̸= j.
Type 3: Multiplier une ligne par un nombre non nul, notée aLi avec a ̸= 0.
En outre, on dit qu’une matrice A se réduit à une autre matrice B si cette dernière est
obtenue à partir de A par une suite finie d’opérations élémentaires sur les lignes.
1.4.3. Lemme. Toute opération élémentaire T sur les lignes d’une matrice est inversible.
Plus précisément,
(1) si T est Li ↔ Lj , alors T −1 est Li ↔ Lj ;
(2) si T est Li + aLj avec i ̸= j, alors T −1 est Li − aLj ;
(3) si T est aLi avec a ̸= 0, alors T −1 est a−1 Li .
1.4.4. Corollaire. Soient A, B ∈ Mm×n (R). Si A se réduit à B, alors
(1) B se réduit à A;
(2) A = 0m×n si et seulement si B = 0m×n .
On a maintenant le résultat fondamental suivant.
1.4.5. Théorème. Toute matrice A se réduit à une matrice échelonnée, appelée une
forme échelonnée de A.
Remarque. Une matrice échelonnée est une forme échelonnée d’elle-même.
7
Évidemment, les formes échelonnées d’une matrice ne sont pas uniques, mais le nombre
de pivots est un invariant.
1.4.6. Proposition. Pour toute A ∈ Mm×n (R), les formes échelonnées de A ont le
même nombre de pivots. Ce nombre commun s’appelle le rang de A, noté rg(A).
Remarque. Le rang d’une matrice échelonnée est le nombre de ses pivots, ou bien le
nombre de ses lignes non nulles.
Exemple. rg(0m×n ) = 0 et rg(In ) = n.
Le résultat suivant rassemble des propriétés élémentaires du rang d’une matrice.
1.4.7. Lemme. Soit A une matrice de type m × n.
(1) rg(AT ) = rg(A) ≤ min {m, n}.
(2) rg(A) = 0 si, et seulement si, A = 0m×n .
(3) Si A se réduit à B, alors rg(A) = rg(B).
1.4.8. Proposition. Si A ∈ Mn (R) est échelonnée de n pivots, alors on peut réduire A
à In par éliminant les termes au-dessus des pivots à partir du dernier pivot.
1.5. Matrices inversibles
On sait que tout nombre réel non nul a admet un inverse a−1 tel que aa−1 = a−1 a = 1.
D’une façon analogue, on définira la notion de l’inverse pour les matrices carrées.
1.5.1. Définition. Une matrice A ∈ Mn (R) est dite inversible s’il existe B telle que
AB = BA = In .
Dans ce cas, B s’appelle l’inverse de A, et noté B = A−1 .
Exemple. La matrice idntité In est inversible avec In−1 = In .
1.5.2. Lemme. Soit A une matrice inversible d’ordre n.
(1) A−1 et AT sont inversibles avec (A−1 )−1 = A et (AT )−1 = (A−1 )T .
(2) Si B est une matrice inversible d’ordre n, alors AB est inversible avec
(AB)−1 = B −1 A−1 .
Le problème se pose de savoir quand une matrice carrée est inversible et comment trouver
l’inverse s’il existe.
8
1.5.3. Théorème. Si A ∈ Mn (R), alors A est inversible si, et seulement si, rg(A) = n.
Voici la méthode pour inverser les matrices si possible.
1.5.4. Théorème. Soit A une matrice inversible d’ordre n.
(1) Si B ∈ Mn×p (R), alors (A | B) s’échelonne à (In | C), où C = A−1 B.
(2) En particulier, (A | In ) s’échelonné à (In | C), où C = A−1 .
Maintenant, on considère les puissances d’une matrice carrée.
1.5.5. Définition. Soit A ∈ Mn (R). Pour r ≥ 1, on définit
r fois
z }| {
A = AA · · · A .
r
En outre, lorsque A est non nul, on pose A0 = In ; et si A est inversible, alors on définit
A−r = (A−1 )r , pour r > 0.
Remarque. (1) Ar As = Ar+s et (Ar )s = Ars , pour tous r, s > 0.
(2) Si A est inversible, alors Ar As = Ar+s et (Ar )s = Ars , pour tous r, s ∈ Z.
(3) Si AB = BA, alors (AB)r = Ar B r .
Exemple. Supposons que le nombre de résidents au Québec est constant et que le
changement de la répartition de la population en ville et à la campagne est décrit par la
matrice de probabilités suivante:
(
)
0, 97 0, 05
.
0, 03 0, 95
Supposons que les nombres de résidents en ville et à la campagne n années après cette
année sont vn et cn , respectivement. On a déjà vu que
(
) (
)(
)
vn
0, 97 0, 05
vn−1
=
, n = 1, 2, · · · .
cn
0, 03 0, 95
cn−1
Par conséquent,
(
vn
cn
)
(
=
0, 97 0, 05
0, 03 0, 95
)n (
v0
c0
)
, n = 0, 1, 2, · · · .
On conclut cette section par une décomposition spéciale de matrices.
1.5.6. Définition. Une matrice carrée A = (aij )n×n est dite
(1) triangulaire supérieure si aij = 0, pour tous 1 ≤ j < i ≤ n.
9
(2) triangulaire inférieure si aij = 0, pour tous 1 ≤ i < j ≤ n.
(3) triangulaire si A est triangulaire supérieure ou inférieure.
Remarque. (1) Une matrice carrée échelonnée est triangulaire supérieure.
(2) Une matrice diagonale est triangulaire.
1.5.7. Lemme. (1) Un produit de matrices triangulaires inférieures (respectivement,
supérieures) est triangulaire inférieur (respectivement, supérieur).
(2) Si A est une matrice triangulaire inférieure (respectivement, supérieure) inversible,
alors A−1 est aussi triangulaire inférieur (respectivement, supérieur).
1.5.8. Définition. Une opération élémentaire T sur les lignes d’une matrice s’appelle
une opération triangulaire inférieure si T est de type Li + aLj avec i > j ou de type aLi
avec a ̸= 0.
Remarque. (1) L’inverse d’une opération triangulaire inférieure est triangulaire inférieure.
(2) En effectuant une opération triangulaire inférieure à une matrice triangulaire inférieure,
on obtient une matrice triangulaire inférieure.
1.5.9. Théorème. Soit A ∈ Mn (R) admettant une réduction
T1
A
/ A1
T2
/ A2
/ ···
/ Ar−1
Tr
/ U,
où les Ti sont des opérations triangulaires inférieures, et U est triangulaire supérieure. Si
In
Tr−1
/ L1
−1
Tr−1
/ L2
/ ···
/ Lr−1
T1−1
/ L,
alors L est triangulaire inférieure telle que A = LU, appelée une décomposition LU de A.
Remarque. La décomposition LU est utilisée en analyse numérique, pour résoudre des
systèmes d’équations linéaires, et pour calculer le déterminant.
1.6. Exercices
1. Factoriser les polynômes suivants si possible.
(1) x2 + 2x + 2;
(2) x3 + x2 − 2;
(4) x4 − 9x2 − 4x + 12;
(5) x3 − x2 − x − 2.
(3) x6 − 3x3 + 2;
2. (MATLAB) Trouver les racines de 8x4 − 30x3 + 35x2 − 15x + 2.
3. Trouver la matrice qui représente l’image numérique suivante:
gris
noir
jaune
vert pourpre magenta
rouge magenta blanc
10
4. Supposer que chaque année au Québec, 96% des habitants en ville réstent en ville, et 93%
des habitants à la campagne réstent à la campagne. Donner la matrice des probabilités
qui décrit le changement de la répartition de la population en ville et à la campagne du
Québec.
5. Donner, à l’aide de les propositions 1.3.6 et 1.3.7, la troisième colonne du produit AB, où




2
1
2
3 0 1 2


1
0
 0



A=
0 9 0 7 ; B=
.
0
0
 √2

√
0 8 1 2
2 −1 1 + 3
6. Calculer, l’aide des propositions 1.3.6 et 1.3.7, les produits matriciels suivants.


0
0
1
0
0
0


√

1 0
3 4 6 3 
 0 1 0 0 0 0 
√



11 3 1   0 0 0 0 0 0 
 3 7 √0
(1) 
;

5 5 0 3  0 0 0 1 0 0 
 √0 4
√


7 0 0
2 0 7  0 0 0 0 0 1 
1 0 0 0 0 0



 0 0 0 0 1
√
7 4 6 3
1


√

 0 0 0 1 0 
7
11 3 1  
 3
√  0 0 1 0 0 
(2) 
.

4
5 0
3 
 √0
 0 1 0 0 0 
5 0
1 0 5
1 0 0 0 0
7. Calculer, à l’aide de la proposition 1.3.9, les



7 8 0 9 2 


 2 9 3 8 0 


 5 4 8 7 9 

3 5 7 9 8
produits suivants de matrices rationnelles:

3 0
0
0 0
0 0
0
0 0 


0 0 −1
0 0 .

0 0
0 −3 0 
0 0
0
0 4
8. Considérer deux matrices symétriques suivantes:
(
)
(
)
a b
0 1
A=
, B=
.
b c
1 0
Trouver la condition pour que AB soit symétrique.
9. Calculer AT A et AAT , où
(
A=
1
2
√
3
2
11
−
√
3
2
1
2
)
.
10. Considérer la matrice suivante:
(
A=
1 2 1
2 3 1
)
.
Vérifier que AT A et AAT sont symétriques.
11. Montrer, pour toute matrice A, que AAT et AT A sont symétriques.
12. Soient A et B deux matrices symétriques de même type.
(1) Montrer que A + B et A − B sont symétriques.
(2) Si AB = BA, montrer que AB est symétrique.
13. Dans chacun des

1
1 2

3 6
 2
(1) 
 3 −1 2
1
2 3
cas suivants, trouver le rang de chacun des matrices suivantes:



1 −1
2 −1
−3



1
4
3 
−5 
 3
(2) 
.
;
−7 
 −5 −3 −6 −7 
−2
2 −4
2
−1
14. Trouver, si possible, l’inverse de chacune des matrices suivantes.



1
1 2 −3
1 1 2 3



3 6 −5 
 2
 2 3 6 5
(1) 
(2) 
;
 3 −1 2 −7 
 3 3 2 1
7
3 10 −15
1 1 3 1



.

15. Dans chacun des cas suivants, déterminer les valeurs réelles de x pour que la matrice
donnée soit inversible.


(
)
1
2
3
1+x
1
(1)
;
(2)  1 5 − x
1 .
1
1−x
2
4
x+3
16. En sachant que A est inversible,

1

 2
A=
 3
1
trouver A−1 B, où


1
1 2 3


3 6 5 
 0
B=
,
3 2 1 
 1
0
1 3 1
17. Dans chacun des cas suivants, calculer A−3 .


(
)
1 0 2
3 4
(1) A =
;
(2) A =  2 1 0  .
2 1
3 1 3
12
0
1
0
1



.

18. (MATLAB) Trouver les valeurs réelles de x telles que la matrice A soit inversible, où


−1
x
0
0


x
0 
 0 −1
A=
.
0 −1
x 
 0
10 −27 20 −3
19. (MATLAB) Supposer que le nombre de résidents du Québec est constant; et chaque
année, 2% des habitants en ville déménagent à la campagne, et 4% des habitants à la
campagne déménagent en ville. Si les nombres de personnes qui habitaient en ville et
à la compagne en 2000 étaient 5 millions et 2 millions respectivement, quels seront les
nombres de personnes qui habiteront en ville et à la compagne en 2020?
20. Trouver une décomposition LU de chacune des



1
1 2
1
2
(1)  2
(2)  1
3 6 ;
4
3 −1 2
3 −6
13
matrices suivantes:

−1
−3  .
−7
Chapitre II: Déterminants
À chaque matrice carrée, on associe un nombre, appelé son déterminant. Ceci sera
appliqué pour déterminer si une matrice carrée est inversible et pour calculer les valeurs
propres d’une matrice carrée. En géométrie, on utilise le déterminant pour calculer l’aire
d’un parallélogramme et le volume d’un parallélépipéde.
2.1. Définition. Soit A = (aij )n×n ∈ Mn (R). Le déterminant de A, noté det(A) ou |A|,
est un nombre réel défini par récurrence comme suit:
Si n = 1, on définit det(a11 ) = a11 .
Supposons que n > 1 et le déterminant de toute matrice carrée d’ordre n − 1 est défini.
Pour tous 1 ≤ i, j ≤ n, désignons par Mij la sousmatrice de A obtenue en supprimant
la i-ième ligne et la j-ième colonne. D’après l’hypothèse de récurrence, mij = det(Mij ) est
défini, appelé mineur de A d’indices i, j. On définit alors
(1) pour un indice de ligne fixe i,
det(A) = ai1 (−1)i+1 mi1 + ai2 (−1)i+2 mi2 + · · · + ain (−1)i+n min ,
appelé développement suivant la i-ième ligne; ou bien
(2) pour un indice de colonne fixe j,
det(A) = a1j (−1)1+j m1j + a2j (−1)2+j m2j + · · · + anj (−1)n+j mnj ,
appelé développement suivant la j-ième colonne.
Remarque. Si une ligne ou une colonne de A est nulle, alors det(A) = 0.
Le calcul du déterminant d’une matrice carrée d’ordre 2 est evident.
2.2. Proposition.
a11 a12
a21 a22
= a11 a22 − a12 a21 .
Le calcul du déterminant d’une matrice carrée d’ordre 3 est aussi simple.
2.3. Proposition. Soit une matrice carrée d’ordre 3 comme suit:


a11 a12 a13
A =  a21 a22 a32  .
a31 a32 a33
En ajoutant les deux premières colonnes

a11
′

A =
a21
a31
de A à droite, on obtient la matrice suivante:

a12 a13 a11 a12
a22 a23 a21 a22  .
a32 a33 a31 a32
14
En calculant la somme de trois produits des termes sur les diagonales complètes de A′ et la
somme de trois produits des termes sur les anti-diagonales complètes, on trouve que
det(A) = (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) − (a12 a21 a33 + a13 a22 a31 + a11 a23 a32 ).
Le résultat suivant est une conséquence immédiate de la définition.
2.4. Proposition. Soit A une matrice de lignes L1 , . . . , Ln et de colonnes C1 , . . . , Cn .
(1) Si Cj = aC ′ avec a ∈ R pour un certain 1 ≤ j ≤ n, alors
det(A) = a · det(C1 , . . . , Cj−1 , C ′ , Cj+1 , . . . , Cn ).
(2) Si Li = aL′ avec a ∈ R pour un certain 1 ≤ i ≤ n, alors


L1
 .. 
 . 


 Li−1 


′ 
det(A) = a · det 
 L .
 L

 i+1 
 . 
 .. 
Ln
Exemple.
2·1 2·2
5
7
= 2 1 2
5 7
2·1 2 =
2 · 5 7 ;
1 2
mais que 2 5 7
2·1 2·2
̸= 2·5 2·7
.
On étudiera comment calculer le déterminant d’une matrice carrée de grande taille. Le
premier résultat est de réduire le taille de certains matrices spéciales.
2.5. Proposition. Si A et B sont des matrices carrées, alors
(
)
(
)
A C
A 0
det
= det(A) det(B) = det
.
0 B
D B
Exemple.
3
√
5
0
0
0
√
√
5
4
2
√
2
3
a
0
7
2
√ √
0
5
3
√ √
0
3
5
a
√
b
7
2 5
√ √
3
5
√
· 5
5 =
3 0 = (6 − 5)5(5 − 3) = 10.
√ √
5
2
0
3
5 0
0
Le résultat est une conséquence immédiate de la proposition 2.5.
15
2.6. Proposition. Le déterminant d’une matrice triangulaire est le produit de ses
termes diagonaux.
Exemple. det(In ) = 1.
On sait que toute matrice carrée se réduit à une matrice triangulaire supérieure. Donc
le résultat suivant nous dit que le calcul du déterminant d’une matrice générale se réduit au
calcul du déterminant d’une matrice triangulaire supérieure.
2.7. Théorème. Soient A, B ∈ Mn (R).
(1) Si B est obtenue par échangeant deux lignes (respectivement, deux colonnes) de A,
alors det(A) = −det(B).
(2) Si B est obtenue par additionnant un multiple d’une ligne (respectivement, colonne)
de A à une autre ligne (respectivement, colonne) de A, alors det(A) = det(B).
(3) Si B est obtenue par multipliant une ligne (respectivement, colonne) de A par un
nombre non nul a ∈ R, alors det(A) = a−1 · det(B).
Le résultat suivant rassemble des propriétés importants de détermiant de matrices.
2.8. Théorème. Pour toutes A, B ∈ Mn (R), on a
(1) det(A) = det(AT );
(2) det(AB) = det(A) det(B).
(3) det(Ar ) = (det(A))r , pour tout entier r ≥ 1.
Exemple. On a vue que la matrice

2 4 6
A= 3 5 7 
1 2 3

admet une décomposition LU suivante:



2 0 0
1
2
3
A =  3 1 0   0 −1 −2  .
1 0 1
0
0
0
D’où, det(A) = det(L) · det(U ) = 0.
Le résultat suivant est très pratique pour déterminer si une matrice est inversible ou non.
2.9. Théorème. Si A ∈ Mn (R), alors A est inversible si, et seulement si, det(A) ̸= 0;
et dans ce cas,
det(Ar ) = (det(A))r , pour tout r ∈ Z.
16
En outre, si ad − bc ̸= 0, alors
(
)−1
a b
c d
1
=
ad − bc
(
d −b
−c
a
)
.
2.10. Corollaire. Soient A, B ∈ Mn (R). Si AB = In , alors A est inversible avec
A = B.
−1
Remarque. Si A, B sont non carrées, alors le corollaire 2.10 n’est plus valide.
2.11. Exercices
1. Calculer les détermiants suivants.
√
3+ 2
−1
0
√
(1) −6
0
1+ 3
√
0
4+ 2
5
(3) 1
2
3
4
5
2
3
4
5
6
3
4
5
6
7
4
5
6
7
8
5
6
7
8
9
;
(2) .
1 −1
0
0
2
4
0
0
0
0
5
2
0
0 −6 −2
;
2. Calculer, à l’aide de la proposition 2.2 et du théorème 2.5, le déterminant suivant:
− √12 − √16
√1
2
√3
2
− √16
√2
6
√1
3
√1
3
√1
3
.
3. Trouver premièrement une décomposition LU de A, et en calculer det(A), où

2 6 10
A =  1 4 7 .
3 1 5

4. Calculer le déterminant suivant:
17
√ √
√
7
5
4
2
a
√ √
√
5
7
3
a
b
√
√
0
0
11
13
0 .
√
0
0
2
5
5
√
√
0
0
13
11
0
5. Dans chacun des cas suivants, calculer le déterminant de la matrice donnée et donner les
valeurs réelles de a pour que la matrice soit inversible.






0
a
0
0
1 1 1 1
a+1 3 4




0 −1
0 
 1
 1 3 3 3 

(1)
a
2 2  (2) A = 
.
 ; (3) 
0 1+a 
 1 3 a a 
 0 −1
4
3 a
1
0
2 −1
1 3 a 5
6. Montrer, pour toute valeur réelle de x, que la matrice suivante est inversible.


√
1
1
x − 2
 √

x
3
3
 2

√

.
0
x+ 3
3
 0
√ 
0
0
−2
x− 3
Indice: Le déterminant de la matrice est un polynôme en x, trouver ses racines.
7. Dans chacun des cas suivants, calculer le déterminant de A, en détuire si A est inversible
ou non, et trouver det(A−3 ) lorsque A est inversible.




3 1 −1 5
1 2 −1 0




 9 3 −3 15 
 0 3 −1 0 
(1) A = 
(2) A = 
;
.
 6 7 −8 10 
 3 0 −2 0 
−3 4 −8 2
0 4 −3 2
8. Considérer la matrice suivante:



A=

a
−1
1
−1

1 −1
1

a −1 −1 
.
1
a −1 
1
1
a
(1) Pour toute valeur réelle de a, montrer que A est inversible. Indice: Calculer AAT et
appliquer le corollaire 2.8.
(2) Calculer det(A−2 ).
18
Chapitre III: Systèmes d’équations linéaires
La résolution de systèmes d’équations linéaires apparaı̂t dans beaucoup de domaines,
comme en traitement numérique du signal, en optimisation linéaire et en analyse numérique.
Dans ce chapitre, on étudiera les propriétés et la résolution de tels systèmes.
3.1. Définition. Un système d’équations linéaires sur R est un ensemble d’équations
linéaires comme suit:
a11 x1
a21 x1
..
.
+ ···
+ ···
+ a12 x2
+ a22 x2
..
.
+ a1n xn
+ a2n xn
..
.
am1 x1 + am2 x2 + · · ·
= b1
= b2
..
.
+ amn xn = bm ,
aij , bi ∈ R.
On appelle x1 , x2 , . . . , xn les inconnues ; aij les coefficients ; et bi , les termes constants.
Une solution de ce système est un n-uplet (s1 , s2 , . . . , sn ), si ∈ R, tel que
ai1 s1 + ai2 s2 + · · · + ain sn = bi , i = 1, . . . , m.
Le système est dit compatible s’il admet au moins une solution; et sinon, incompatible.
Deux systèmes d’équations linéaires sont dits équivalents s’ils ont le même ensemble de
solutions.
Exemple. Un grand sapin coûte 3 dollars et 3 petits sapins coûtent un dollar. Si l’on
veut acheter 100 sapins avec 100 dollars, combien de petits sapins et combien de grands
sapins doit-t-on acheter?
Solution. Si l’on achète x grands sapins et y petits sapins, alors
x +
3x +
y
= 100
= 100.
1
y
3
On verra que ce système est compatible ayant une seule solution x = 25 et y = 75.
3.2. Définition. Soit un système d’équations linéaires suivant:
a11 x1
a21 x1
..
.
+ a12 x2
+ a22 x2
..
.
+ ···
+ ···
am1 x1 + am2 x2 + · · ·
La matrice





+ a1n xn
+ a2n xn
..
.
+ amn xn = bm
···
···
..
.
a1n
a2n
..
.
am1 am2 · · ·
amn
a11
a21
..
.
a12
a22
..
.
= b1
= b2
..
.
19





(∗)
s’appellent la matrice des coefficients; et la matrice





a11
a21
..
.
a12
a22
..
.
···
···
..
.
a1n
a2n
..
.
am1 am2 · · ·
s’appelle la matrice augmentée.

a11 a12
 a21 a22

 ..
..
 .
.
b1
b2
..
.





amn bm
Le système (∗) est équivalent

 
· · · a1n
x1
b1




· · · a2n   x2   b2
..   ..  =  ..
...
.  .   .
am1 am2 · · ·
amn
xn
de sorte que (s1 , s2 , . . . , sn ) est une solution du

s1
 s2

 ..
 .
à l’équation matricielle





(∗∗)
bm
système (∗) si, et seulement si, la colonne





sn
est une solution de l’équation matricielle (∗∗).
Dès maintenant, un système de m équations linéaires à n inconnues sera noté comme une
équation matricielle
AX = B,
où A ∈ Mm×n (R) et B ∈ Mm×1 (R). Le but est résoudre un tel système, c’est-à-dire,
(1) déterminer si le système est compatible ou incompatible;
(2) trouver toutes les solutions s’il est compatible.
On commence par un cas spécial où la matrice des coefficients du système est inversible.
3.3. Proposition. Soit AX = B un système d’équations linéaires sur R. Si A est
inversible, alors le système admet une seule solution donnée par
X = A−1 B.
Ensuite, on étudiera la résolution de certains systèmes asset simples, c’est-à-dire, les
systèmes échelonnés tels que définis ci-dessous.
3.4. Définition. Un système d’équations linéaires à n inconnues
AX = B
20
est dit échelonné si la matrice augmentée (A|B) est échelonnée. Dans ce cas, A est échelonnée
avec rg(A) ≤ rg(A|B), en outre
(1) une inconnue est dite libre si aucun de ses coefficients n’est un pivot de A;
(2) le nombre d’inconnues libres est égal à n − rg(A).
Le résultat suivant nous dit comment résoudre un système échelonné d’équations linéaires.
3.5. Théorème. Soit AX = B un système échelonné d’équations linéaires à n inconnues.
(1) Si rg(A) < rg(A|B), alors le système est incompatible.
(2) Supposons que rg(A) = rg(A|B), c’est-à-dire, B ne contient aucun pivot de (A|B).
(i) S’il n’y a pas d’inconnues libres, alors le système admet une seule solution
qui peut être trouvée par substitution successivement à partir de la dernière
équation non nulle.
(ii) S’il y a s inconnues libres xj1 , . . . , xjs , alors le système a une infinité de
solutions qui sont en bijection avec les s-uplets (λ1 , . . . , λs ), λj ∈ R, de la
façon suivante :
Étant donné (λ1 , . . . , λs ), on pose xjl = λl , l = 1, . . . , s. En déplaçant les
ai,jl λj à droite, on obtient un système échelonné sans inconnues libres. En
résolvant ce dernier par substitution, on trouve les valeurs pour les inconnues
non libres. Cela donne la solution du système original correspondant à
(λ1 , . . . , λs ).
La stratégie de la résolution d’un système général consiste à réduire le système à un autre
système plus simple sans changer l’ensemble des solutions.
3.6. Théorème. L’ensemble des solutions d’un système d’équations linéaires n’est pas
changé par les opérations élémentaires suivantes:
Type 1: Échanger deux équations, notée Ei ↔ Ej .
Type 2: Additionner à une équation un multiple d’une autre équation, notée Ei + aEj .
Type 3: Multiplier une équation par un nombre non nul a, notée aEi .
Remarque. Effectuer une opération élémentaire sur les équations d’un système est
équivalent à effectuer une opération élémentaire de même type sur les lignes de la matrice
augmentée.
On voit que la nouvelle matrice augmentée est la matrice augmentée du nouveau système.
3.7. Corollaire. Soit AX = B un système d’équations linéaires. Si l’on échelonne
(A|B) à une matrice échelonnée (A′ |B ′ ), alors le système original est équivalent au système
échelonné A′ X = B ′ .
Remarque. La méthode donnée dans le corollaire 3.7 s’appelle élimination de Gauss.
21
Le résultat suivant se découle du théorème 3.5 et le corollaire 3.7.
3.8. Théorème. Soit AX = B un système d’équations linéaires à n inconnues. Le
système est compatible si et seulement si rg(A) = rg(A|B); et dans ce cas,
(1) si rg(A) = n, alors le système admet une seule solution.
(2) Si rg(A) < n, alors le système admet une infinité de solutions.
On conclut cette section par étudier des systèmes d’équations linéaires dont les termes
constants sont tous nuls.
3.9. Définition. Un système d’équations linéaires AX = B est dit homogène si B = 0.
Dans ce cas, X = 0 est une solution, appelée la solution nulle.
Il s’agit d’un problème très important de savoir quand un système homogène a des solutions non nulles.
3.10. Théorème. Soit AX = 0 un système homogène de m équations linéaires à n
inconnues.
(1) Le système admet des solutions non nulles si, et seulement si, rg(A) < n.
(2) Si m < n, alors le sysème admet des solutions non nulles.
En appliquant les théorèmes 3.10(1) et 2.9, on obtient le résultat suivant.
3.11. Corollaire. Soit AX = 0 un système homogène d’équations linéaires. Si A est
carrée, alors le système a des solutions non nulles si et seulement si det(A) = 0.
3.12. Exercices
1. Considérer le système d’équations linéaires suivant:
x1 − x2 + x3 = 6
x1 + x2 + 2x3 = 8
2x1 − 3x2 − x3 = 1.
(1) Vérifier que la matrice des coefficients est inversible en calculant son déterminant.
(2) Résoudre le système par inverser la matrice des coefficients (c’est-à-dire, appliquer la
proposition 3.3).
2. Résoudre par l’élimination de Gauss les systèmes suivants:
(1)
x1
2x1
x1
4x1
− 3x2
+ x2
+ 4x2
+ 2x2
+ x3
− 3x3
+ x3
− x3
+ 2x4
+ x4
− 5x4
− 2x4
=
=
=
=
22
6
2
1
0;
(2)
x1
2x1
x1
x1
+
+
+
+
2x2
4x2
2x2
2x2
− x3
− x3
+ 2x3
− 4x3
+ 2x4
+ 3x4
+ x4
+ 3x4
=
=
=
=
1
2
1
1.
3. Trouver le point d’intersection de trois plans affines définis par les équations cartésiennes
x + 2y − z = 1, 2x − y + z = 2, et 3x + 2y − z = 3, respectivement.
4. Considérer le système suivant:
x + y − z = 1
x + 2y + az = 2
2x + ay + 2z = 3.
Déterminer les valeurs réelles de a pour lesquelles le système
(1) n’ait pas de solution;
(2) ait une infinité de solutions;
(3) ait une seule solution.
5. Dans chacun des cas suivants, trouver la condition pour que le système soit compatible.
(1)
x − 2y + z = 6
3x + y − z = 7
−x + y + az = 6.
(2)
x + 2y − 3z = a
2x + 6y − 11z = b
x − 2y + 7z = c.
6. Soient P1 , P2 , et P3 les plans affines définis par les équations catésiennes x + 2y + z = 1,
et 2x + 5y + az = 1, et x + ay + 2z = 2, respectivement. Trouver les valeurs réelles de a
pour que les trois plans se coupent, c’est-à-dire, leur intersection est non vide.
7. Pour quelle valeur de a, le système homogène
x
x
3x
−x
− y + z =
− 4y + z =
+ y + az =
− 2y − z =
0
0
0
0,
a-t-il des solutions non nulles? Si c’est le cas, trouver toutes les solutions.
23
8. Dans chacun des cas suivants, déterminer si le système homogène admet des solutions
non nulles.
(1) 2x − y + 4z = 0
y + z = 0
3x + y
= 0;
(2) 3x − y + 2z = 0
y + z = 0
3x
+ 3z = 0;
(3)
x1 − 3x2 + 6x3
x2 − x3
2x1 − x2 + 3x3
4x1 + 4x2
− 3x4
+ x4
− x4
+ x4
=
=
=
=
0
0
0
0.
24
Chapitre IV: Espaces vectoriels
Dans les applications, beaucoup de quantités comme la chaleur et la température, peuvent
être décrites par une seule variable. Mais certains d’autres quantités, comme la force et la
couleur numérique, exigent plusieurs variables pour leur définition. On les appelle quantités
vectorielles. Les quantités vectorielles différentes possèdent des propriétés communes. Par
exemple, une quantité vectorielle peut être multipliée par un constant et deux quantités
vectorielles de même genre peuvent être additionnées. Afin d’étudier les quantités vectorielles
diverses en même temps, on introduit la notion d’espace vectoriel et on étudie celle-ci en
général. En suite, on applique des résultats généraux dans des applications particulières.
4.1. Base et dimension
4.1.1. Définition. On appelle les nombres réels scalaires. Un ensemble E, ses éléments
s’appellent vecteurs, est dit espace vectoriel réel (ou bien, espace vectoriel sur R) s’il est
muni d’une multiplication scalaire
· : R × E → E : (a, u) 7→ a · u
et d’une addition
+ : E × E → E : (u, v) 7→ u + v
satisfaisant les axiomes suivants pour tous a, b ∈ R et u, v, w ∈ E.
(1) (associativité) a · (b · u) = (ab) · u;
(2) (neutralité) 1 · u = u;
(3) (commutativité) u + v = v + u;
(4) (associativité) u + (v + w) = (u + v) + w;
(5) E a un vecteur nul 0E tel que u + 0E = u;
(6) u admet un opposé (−u) tel que u + (−u) = 0E ;
(7) (distributivité) a · (u + v) = a · u + a · v;
(8) (distributivité) (a + b) · u = a · u + b · u.
En outre, on dit que E est nul si E = {0E }.
Remarque. (1) Pour tous u, v ∈ E, on définit u − v = u + (−v).
(2) Pour tous u1 , . . . , un ∈ E avec n > 2, on définit
u1 + · · · + un = (· · · (u1 + u2 ) + · · · + un−1 ) + un .
Exemple. L’ensemble E = {0} est un espace vectoriel réel nul, pour les opérations
suivantes:
0 + 0 = 0, a · 0 = 0, pour tout a ∈ R.
25
4.1.2. Proposition. Pour tout entier n ≥ 1, on a un espace vectoriel réel



a1




 .. 
n
R =  .  | ai ∈ R




an
dont les opérations sont définies ci-dessous:

 


a1
aa1

 


a  ...  =  ...  ,

an
 
a1
..  + 
.  
an
aan
 

b1
a 1 + b1

..  = 
..
.
.  
.
bn
an + bn
Exemple. (1) Prenant n = 1, on voit que R est un espace vectoriel sur R, noté R R.
(2) Prenant n = 2, on obtient l’espace vectoriel réel
(
a
b
R =
2
)
, où a, b ∈ R.
Ceci s’appelle le plan à cause du fait que tout vecteur
( )
a
∈ R2
b
peut être représenté un vecteur du plan comme suit:
y
6
• u=
3
b
(a )
b
- x
a
Les deux opérations vectorielles peuvent être illustrées comme suit:
y
6
au
u
- x
−bu
26
où a, b sont positifs; et
y
r
*
6
u+v
u
*
v
-
x
(3) Prenant n = 3, on obtient l’espace vectoriel réel


a
R3 =  b  , où a, b, c ∈ R.
c
Ceci admet aussi une réalisation géométrique dans l’espace usuel de dimension 3.
(4) Une couleur numérique C dont les coorodnnées RVB sont {r; v; b} est représentée par
le vecteur
 
r
 v  ∈ R3 .
b
Doréavant, on fera l’identification suivante:

r
C =  v .
b

Dès maintenant, on se fixe E un espace vectoriel réel. D’abord, on rassemble des propriétés élémentaires d’espaces vectoriels dans le résultat suivant.
4.1.3. Proposition. Soit E un espace vectoriel réel. Les énoncés suivants sont valides
pour tous u, v, w ∈ E et a, b ∈ R.
(1) Si u + v = u + w, alors v = w.
(2) au = 0E si, et seulement si, a = 0 ou u = 0E .
(3) (−1)u = −u et −(−u) = u.
(4) −(u + v) = −u − v.
(5) u + v = w si, et seulement si, u = w − v.
27
4.1.4. Définition. Soient u1 , . . . , un ∈ E. Un vecteur u ∈ E est dit combinaison linéaire
de u1 , . . . , un s’il existe a1 , . . . , an ∈ R, appelés coefficients, tels que
u = a1 u1 + · · · + an un .
Remarque. (1) 0E est une combinaison linéaire de toute famille de vecteurs u1 , . . . , un .
(2) Une combinaison linéaire d’un vecteur v est un multiple av de v, où a ∈ R. En
particulier, v est une combinaison linéaire de v.
Exemple. Considérons les vecteurs
( )
( )
1
2
u=
,v =
∈ R2 .
2
1
(
On a
2u + 3v =
8
7
)
.
Ceci est illustré par
*
*
*
*
4.1.5. Proposition. Une couleur numérique C est obtenue en mélangeant des couleurs
numériques C1 , . . . , Cn si et seulement si C est une combinaison linéaire de C1 , . . . , Cn à
coefficients entre 0 et 1, c’est-à-dire,
C = a1 C1 + · · · + an Cn ;
0 ≤ a1 , . . . , an ≤ 1,
où ai représente l’intensité de la couleur numérique Ci .
4.1.6. Lemme. Soient u1 , . . . , un ∈ Rm . Si u ∈ Rm , alors
u = a1 u1 + · · · + an un
28
avec a1 , . . . , an ∈ R si et seulement si


a1
 .. 
 . 
an
est une solution du système d’équations linéaires suivant:
(u1 · · · un )X = u.
4.1.7. Théorème. Si u1 , . . . , un , u ∈ Rm , alors les conditions suivantes sont équivalentes:
(1) u est une combinaison linéaire de u1 , . . . , un .
(2) Le système (u1 · · · un )X = u est compatible.
(3) rg(u1 · · · un ) = rg(u1 · · · un | u).
En général, les coefficients d’une combinaison linéaire de u1 , . . . , un ne sont pas uniques.
On étudiera quand les coefficients de toute combinaison linéaire de u1 , . . . , un sont uniques.
4.1.8. Définition. Des vecteurs u1 , . . . , un ∈ E sont dits
(1) linéairement dépendants s’il existe a1 , . . . , an ∈ R, non tous nuls, tels que
a1 u1 + · · · + an un = 0E ;
(2) linéairement indépendants sinon; c’est-à-dire, toute égalité a1 u1 + · · · + an un = 0E
entraı̂ne que a1 = · · · = an = 0.
Remarque. (1) Par convention, la famille vide ∅ est libre.
(2) En bref, on dit qu’une famille {u1 , . . . , un } est liée ou libre si u1 , . . . , un sont linéairement
dépendants ou indépendants, respectivement.
4.1.9. Théorème. Si u1 , . . . , un ∈ Rm , alors les conditions suivantes sont équivalentes.
(1) La famille {u1 , . . . , un } est libre.
(2) rg(u1 , . . . , un ) = n.
(3) Le système homogène (u1 , . . . , un )X = 0 n’a que la solution nulle.
Le résultat suivant dit que c’est facile de déterminer si une petite famille de vecteurs est
liée ou libre.
4.1.10. Lemme. Si u, v ∈ E, alors
(1) {u} est liée si, et seulement si, u = 0E ;
(2) {u, v} est liée si et seulement si, un de u, v est un multiple de l’autre.
Le résultat suivant donne une caractérisation de l’indépendance linéiare.
29
4.1.11. Proposition. Si u1 , . . . , un ∈ E, alors les conditions suivantes sont équivalentés.
(1) La famille {u1 , . . . , un } est libre;
(2) Toute sous-famille de {u1 , . . . , un } est libre;
(3) Aucun des vecteurs u1 , . . . , un n’est une combinaison linéaire des autres vecteurs.
(4) Toute combinaison linéaire u de u1 , . . . , un s’écrit d’une façon unique
u = a1 u1 + · · · + an un , avec a1 , . . . , an ∈ R.
Remarque. Si {u1 , . . . , un } est libre, alors ui ̸= 0E , i = 1, . . . , n.
4.1.12. Définition. Soit E un espace vectoriel réel non nul. Une famille ordonnée
{u1 , . . . , un } de vecteurs de E s’appelle base si
(1) {u1 , . . . , un } est libre, et
(2) tout u ∈ E est une combinaison linéaire de u1 , . . . , un .
Remarque. Si E = {0E } alors, par convention, la famille vide ∅ est la seule base de E.
4.1.13. Proposition. L’espace vectoriel réel Rn a une base, appelée base canonique,
comme suit:

 
 
 
1
0
0





 0 

 1 
 ..  

 
 
 
e1 =  .  , e2 =  .  , · · · , en =  .  .

 .. 
 .. 
 0 






0
0
1
Démonstration. Comme (e1 e2 · · · en ) = In , ce qui est de rang n, la famille {e1 , e2 , . . . , en }
est libre. En outre, pour tout u ∈ Rn , le système In X = u est compatible. Ainsi u est une
combinaison linéaire de e1 , . . . , en . Ceci achève la démonstration.
Exemple. (1) La base canonique de R R est {1}.
(2) La base canonique de R2 est
{
( )
( )}
1
0
e1 =
, e2 =
,
0
1
illustrée par le diagramme comme suit:
y
6
e2
6
-
e1
30
- x
(3) La base de l’espace usuel R3 est

 
 
 
1
0
0 

e =  0  , e2 =  1  , e3 =  0  .
 1

0
0
1
illustrée par le diagramme comme suit:
z
6
e3
6
-
e
x
e2
- y
1
4.1.14. Théorème. Toutes les bases de E ont le même nombre de vecteurs. Ce nombre
commun s’appelle la dimension de E, noté dim(E).
Remarque. dim(E) = 0 si, et seulement si, E = {0E }.
Exemple. Comme {e1 , . . . , en } est une base de Rn , on voit que dim(Rn ) = n. Par
conséquent, toute base de Rn se compose de n vecteurs. Cependant, une famille de n
vecteurs de Rn n’est pas nécessairement une base.
4.1.15. Théorème. Si dim(E) = n, alors
(1) toute famille libre de n vecteurs de E est une base;
(2) toute famille de plus que n vecteurs de E est liée.
4.2. Coordonnées
Le but de cette section est d’appliquer la théorie de matrices à l’étude d’espaces vectoriels
de dimension finie. Partout dans cette section, on se fixe E un espace vectoriel réel de
dimension finie.
4.2.1. Définition. Soit {u1 , . . . , un } une base de E. Alors tout u ∈ E s’écrit d’une
façon unique
(∗)
u = a1 u1 + · · · + an un ,
où a1 , . . . , an ∈ R s’appellent les coordonnées de u dans la base {u1 , . . . , un }.
31
Remarque. Si l’on considère (u1 , . . . , un ) comme une matrice-ligne et met les coordonnées en colonne


a1
 .. 
n
 . ∈R ,
an
appelée la colonne des coordonnées de u dans la base {u1 , . . . , un }, alors l’équation (∗) devient


a1


u = (u1 , . . . , un )  ...  .
an
Ceci est illustrée par le diagramme suivant:






a1
..
.
an
(u1 , . . . , un )






/ u.
L’observation suivante sera pratique.
4.2.2. Lemme. Considérons l’espace vectoriel réel Rn . Étant donné un vecteur


a1


u =  ...  ,
an
ses coordonnées dans la base canonique {e1 , . . . , en } sont {a1 , . . . , an }, appelées coordonnées
canoniques. Par conséquent, la colonne des coordonnées canoniques de u est simplement u.
Plus généralement, on a la notion suivante.
4.2.3. Définition. Soit {u1 , . . . , un } une base de E. Soit {v1 , . . . , vm } ⊆ E. Si Aj est
la colonne des coordonnés de vj dans {u1 , . . . , un }, j = 1, . . . , m, alors
{v ,...,v }
P{u11,..., umn } := (A1 · · · Am ) ∈ Mn×m (R)
s’appelle matrice des coordonnées de la famille {v1 , . . . , vm } dans la base {u1 , . . . , un }.
{v}
Remarque. (1) P{u1 ,...,un } est la colonne de coordonnées de v dans {u1 , . . . , un }.
(2) En considérant (v1 , . . . , vm ) et (u1 , . . . , un ) comme des matrices-ligne, on a
{v ,...,v }
(v1 , . . . , vm ) = (u1 , . . . , un )P{u11,..., umn } .
32
Ceci est illustré par le diagramme suivant:
{v ,...,v
(u1 , · · · , un )
}
P{u 1,..., um}
n
1
/ (v1 , · · · , vm ).
Le résultat suivant est une conséquence immédiate du lemme 4.2.2.
4.2.4. Lemme. Soit {e1 , . . . , en } la base canonique de Rn . Si u1 , . . . , um ∈ Rn , alors
{u ,...,u }
P{e11,...,enm} = (u1 · · · um ).
Le résultat suivant nous dit comment déterminer si une famille de vecteurs est une base
ou non en utilisant sa matrice des coordonnées.
4.2.5. Théorème. Si {u1 , . . . , un } est une base de E, alors v1 , . . . , vn ∈ E forment une
v ,...,v }
base de E si et seulement si P{u11 ,...,unn } est inversible.
Soit A = (A1 · · · An ) ∈ Mn (R) partagée en colonnes. D’après le lemme 4.2.4, la matrice
des coordonnées de {A1 , . . . , An } dans la base canonique est A. En appliquant le théorème
4.2.5, on obtient immédiatement le résultat suivant.
4.2.6. Corollaire. Si A ∈ Mn (R), alors les colonnes de A forment une base de Rn si et
seulement si A est inversible.
On conclut cette section par la matrice de passage d’une base à une autre base.
4.2.7. Définition. Si {u1 , . . . , un } et {v1 , . . . , vn } sont deux bases de E, alors la matrice
des coordonnées
{v ,...,v }
P{u11,...,unn }
s’appelle la matrice de passage de {u1 , . . . , un } à {v1 , . . . , vn }.
{v ,...,v }
Remarque. D’après le théorème 4.2.5, P = P{u11,...,unn } est inversible telle que
(v1 , . . . , vn ) = (u1 , . . . , un )P.
Ceci est illustré par le diagramme suivant:
(u1 , · · · , un )
P
/ (v1 , · · · , vn ).
Exemple. Si {u1 , . . . , un } est une base de E, alors la matrice de passage de {u1 , . . . , un }
à {u1 , . . . , un } est la matrice identité In .
Le résultat suivant est une conséquence immédiate du lemme 4.2.4.
33
4.2.8. Lemme. Si {u1 , . . . , un } est une base de Rn , alors la matrice de passage de la
base canonique {e1 , . . . , en } à {u1 , . . . , un } est la matrice
(u1 u2 · · · un ).
D’après le lemme 4.2.2, il est trivial de trouver les coordnnés d’un vecteur de Rn dans
la base canonique. Le résultat suivant nous dit comment utiliser la matrice de passage pour
trouver les coordonnées d’un vecteur dans une base non canonique.
4.2.9. Théorème. Soient {u1 , . . . , un } et {v1 , . . . , vn } deux bases de E. Soit P la
{u}
matrice de passage de {u1 , · · · , un } à {v1 , · · · , vn }. Si u ∈ E avec A = P{u1 ,...,un } , alors
{u}
P{v1 ,...,vn } = P −1 A.
Remarque. Le théorème 4.2.9 est illustrée par le diagramme commutatif suivant:
P
/ (v1 , · · · , vn )
MMM
MMM
MMM
MMM
P −1 A
M
A MMM
MMM
MMM
M& (u1 , · · · , un )
u.
On conclut cette section par une application de matrice de passage à l’imagerie. Un
espace de couleur est une représentation mathématique d’un ensemble de couleurs. L’espace
de couleur le plus populaire utilisé en infographie est l’espace RVB. Dans ce modèle, une
couleur ayant {r; v; b} pour coordonnées RVB est représentée par le vecteur
 
r
 v  ∈ R3 .
b
En particulier, le rouge R, le vert V et le bleu

 
1
R =  0 ,V = 
0
B sont représentés par

 
0
0


0 ,
1 ,B =
1
0
c’est-à-dire, les vecteurs de la base canonique de R3 . Par conséquent, les vecteurs de l’espace
RVB sont contenus dans le cube unitaire de R3 .
Remarquons que certaines couleurs visibles ne sont pas comprises dans l’espace RVB.
Pour régler ce problème, en 1931, la Commission internationale de l’éclairage (CIE) a introduit l’espace XYZ, en choisissant trois quasi-couleurs X, Y, Z de telle manière que toute
34
couleur visible C admet des coordonnées XYZ non-négatives {Cx ; Cx ; Cz }, où Cy représente
la luminance de C. Dans l’espace vectoriel R3 répéré par RVB, les quasi-couleurs X, Y, Z
sont représentées par les vecteurs suivants:






0, 418456
−0, 158657
−0, 082833
X =  −0, 091167  , Y =  0, 252426  , Z =  0, 015707  .
0, 000921
−0, 002550
0, 178595
La matrice des coordonées de {X, Y, Z} dans la base canonique est donnée par


0, 418456 −0, 158657 −0, 082833
M =  −0, 091167
0, 252426
0, 015707  ,
0, 000921 −0, 002550
0, 178595
ce qui est inversible avec

M −1

0, 49000 0, 31000 0, 20000
1
 0, 17697 0, 81240 0, 01063  .
≈
0, 17697
0, 00000 0, 01000 0, 99000
Par conséquent, {X, Y, Z} est une base de R3 . On remarque que la matrice de passage de
{R, V, B} à {X, Y, Z} est M ; et la matrice de passage de {X, Y, Z} à {R, V, B} est M −1 .
En appliquant le théorème 4.2.9, on obtient la conversion entre les coordonnées RVB et les
coordonnées XYZ d’une couleur comme suit.
4.2.10. Théorème. Toute couleur visible C s’exprime comme
C = Cx · X + Cy · Y + Cz · Z;
Cx , Cy , Cz ≥ 0.
(1) On appelle {Cx ; Cy ; Cz } coordonnées XYZ de C.
(2) Si C appartient à l’espace RVB dont les coordonnées RVB sont {Cr ; Cv ; Cb }, alors







Cr
Cr
Cx
0, 49000 0, 31000 0, 20000
1
 Cy  = M −1  Cv  =
 0, 17697 0, 81240 0, 01063   Cv 
0, 17697
Cz
Cb
0, 00000 0, 01000 0, 99000
Cb
et


 


Cx
0, 418456 −0, 158657 −0, 082833
Cx
Cr
 Cv  = M  Cy  =  −0, 091167
0, 252426
0, 015707   Cy  .
Cz
0, 000921 −0, 002550
0, 178595
Cz
Cb

Exemple. (1) Trouver les coordonnées XYZ du magenta.
(2) Soit C une couleur dont les coordonnées XYZ sont {2, 1, 1}. Trouver les coordonnées
RVB de C.
35
Solution. (1) Les coordonnées RVB du magenta sont {1, 0, 1}. D’après le théorème
4.2.10, ses coordonnées XYZ sont données par

  

0, 49000 0, 31000 0, 20000
1
3, 89897
1
 0, 17697 0, 81240 0, 01063   0  =  1, 06007  .
0, 17697
0, 00000 0, 01000 0, 99000
1
5, 59417
(2) D’après le théorème 4.2.10, les coordonnées RVB de C sont données par

 
  

Cr
0, 418456 −0, 158657 −0, 082833
2
0, 595422
 Cv  =  −0, 091167
0, 252426
0, 015707   1  =  0, 085799  .
Cb
0, 000921 −0, 002550
0, 178595
1
0, 177887
C’est-à-dire, la couleur C est constituée de 60% du rouge, 9% du vert, et 18% du bleu.
4.3. Sous-spaces vectoriels
Le but de cette section est d’étudier un type de sous-ensembles d’un espace vectoriel,
appelés sous-espace vectoriels. Les sous-espace vectoriels de Rn apparaissent souvent en lien
avec une matrice.
Partout dans cette section, on se fixe E un espace vectoriel réel.
4.3.1. Définition. Un sous-ensemble non vide F de E s’appelle sous-espace vectoriel si
les conditions suivantes sont vérifiées.
(1) Si u ∈ F et a ∈ R, alors au ∈ F .
(2) Si u, v ∈ F , alors u + v ∈ F .
Remarque. Si F est un sous-espace vectoriel de E, alors F est lui-même un espace
vectoriel réel pour les opérations induites de celles de E.
Exemple. (1) {0E } et E sont des sous-espaces vectoriels de E, appelés sous-espaces
vectoriels triviaux de E.
(2) L’espace RVB n’est pas un sous-espace vectoriel de R3 .
4.3.2. Proposition. Soit F un sous-espace vectoriel de E.
(1) F est stable pour les combinaisons linéaires.
(2) Si dim(E) = n, alors dim(F ) ≤ n; et dim(F ) = n si, et seulement si, F = E.
Remarque. Un sous-espace vectoriel F de Rn s’appelle
(1) une droite vectorielle si dim(F ) = 1;
(2) un plan vectoriel si dim(F ) = 2.
36
Exemple. (1) Si F est un sous-espace non trivial du plan R2 , alors 0 < dim(F ) < 2.
D’où, dim(F ) = 1. C’est-à-dire, F est une droite vectorielle.
(2) Si F est un sous-espace non trivial de R3 , alors 0 < dim(F ) < 3, et donc dim(F ) = 1
ou 2. C’est-à-dire, F est une droite vectorielle ou un plan vectoriel.
4.3.3. Proposition. Si u1 , . . . , ur ∈ E, alors l’ensemble
< u1 , . . . , ur >:= {a1 u1 + · · · + ar ur | a1 , . . . , ar ∈ R}
est un sous-espace vectoriel de E, appelé le sous-espace vectoriel engendré par u1 , . . . , ur .
Remarque. Une famille ordonnée {u1 , . . . , un } de vecteurs de E est une base si et
seulement si
(1) {u1 , . . . , un } est libre et
(2) E =< u1 , . . . , un > .
On s’intérèsse à trouver une base d’un sous-espace vectoriel. Le résultat suivant est
evident.
4.3.4. Lemme. Si F est un sous-espace vectoriel de E engendré par u1 , . . . , ur , alors
{u1 , . . . , ur } est une base de F si et seulement si {u1 , . . . , ur } est libre.
Exemple. (1) Si u ∈ Rn est non nul, alors
< u >= {au | a ∈ R}
est la droite vectoriel dont {u} est une base.
(2) Si u, v ∈ Rn sont non co-linéaire, alors {u, v} est libre et
< u, v >= {au + bv | a, b ∈ R}
est le plan vectoriel dont {u, v} est une base.
On va étudier deux sous-espaces associés à une matrice A ∈ Mm×n (R).
4.3.5. Définition. Soit A = (A1 · · · An ) ∈ Mm×n (R) avec A1 , . . . , An ∈ Rm . Le sousespace vectoriel
C(A) :=< A1 , . . . , An >
de Rm s’appelle l’espace-colonne de A.
Le résultat est une conséquence immédiate du théorème 4.1.6.
4.3.6. Proposition. Soit A ∈ Mm×n (R). Alors
(1) C(A) = {Au | u ∈ Rn }.
37
(2) Un système AX = B est compatible si et seulement si B ∈ C(A).
Le résultat suivant nous dit comment trouver une base de l’espace-colonne d’une matrice.
4.3.7. Théorème. Soit A = (A1 · · · An ) ∈ Mm×n (R) partagée en colonnes. Si les pivots
d’une forme échelonnée de A se trouvent dans les colonnes j1 , · · · , jr , alors {Aj1 , · · · , Ajr }
est une base de C(A). En particulier,
dim C(A) = rg(A).
En appliquant le théorème 4.3.7, on obtient le résultat suivant.
4.3.8. Corollaire. Soit A ∈ Mm×n (R) avec C(A) un sous-espace vectoriels de Rm . Les
conditions suivantes sont équivalentes.
(1) Les colonnes de A forment une base de C(A).
(2) Les colonnes de A sont linéairement indépendantes.
(3) rg(A) = n.
Enfin, on revient au problème de la résolution d’un système homogène d’équations
linéaires.
4.3.9. Lemme. Si A ∈ Mm×n (R), alors l’ensemble
N (A) := {u ∈ Rn | Au = 0}
est un sous-espace vectoriel de Rn , appelé noyau de A.
Remarque. Autrement dit, N (A) est l’ensemble des solutions du système homogène
AX = 0. Pour cette raison, N (A) s’appelle aussi espace-solution du système homogène
AX = 0.
Le résultat suivant nous dit comment trouver une base du noyau d’une matrice.
4.3.10. Théorème. Soit A ∈ Mm×n (R) dont A′ est une forme échelonnée.
Si le système homogène échelonné A′ X = 0 n’a aucune inconnue libre, alors N (A) est
nul et a pour base l’ensemble vide.
Si le système échelonné A′ X = 0 admet s inconnues libres xi1 , xi2 , . . . , xis , alors on résout
ce système successivement
(1) en posant xi1 = 1, xi2 = · · · = xis = 0, ce qui donne solution u1 ;
(2) en posant xi1 = 0, xi2 = 1, xi3 = · · · = xis = 0, ce qui donne solution u2 ;
..
.
(s) en posant xi1 = xi2 = · · · = xis−1 = 0, xis = 1, ce qui donne solution us .
De cette façon, on obtient une base {u1 , . . . , us } de N (A).
38
En tout cas, dim N (A) = n−rg(A), c’est-à-dire, le nombre d’inconnues libres du système
homogène échelonné.
Remarque. Une droite vectorielle ou un plan vectoriel est l’espace-solution d’un système
homogène.
Appliquant les théorèmes 4.3.7 et 4.3.10, on obtient le résultat suivant.
4.3.11. Corollaire. Si A ∈ Mm×n (R), alors dim C(A) + dim N (A) = n.
4.4. Sous-espaces affines
On commence par la notion de coorodnnées homogènes, ce qui est important pour
l’infographie. Le point d’arrivée d’un vecteur


a1
 .. 
n
 . ∈R
an
sera noté (a1 , . . . , an ). On additionne et multiplie par un scalaire les points d’arrivée des
vecteurs de Rn d’une façon évidente. Ceci nous donne aussi un R-espace vectoriel, noté R(n) .
4.4.1. Définition. Soit p = (a1 , . . . , an ) ∈ R(n) . On appelle


x1
 .. 
 . 

 ∈ Rn+1
 xn 
xn+1
un vecteur de coordonnées homogènes de p si xn+1 ̸= 0 et
(
)
x1
xn
,··· ,
= p.
xn+1
xn+1
En particulier,

a1
 .. 


p̂ =  . 
 an 
1

s’appelle le vecteur des coordonnées homogènes normalisées de p. Par contre, on appelle


a1


p⃗ =  ...  ∈ Rn
an
39
le vecteur des coordonnées canoniques de p.
Le résultat suivant est évident.
4.4.2. Lemme. Soit p un point de R(n) ayant un vecteur de coordonnées homogènes
v ∈ Rn+1 est. Alors w ∈ Rn+1 est aussi un vecteur de coordonnées homogènes de p si et
seulement si w = av pour un certain nombre non nul a.
4.4.3. Définition. On dit que p1 , . . . , pr ∈ R(n) sont
(1) affinement indépendants, ou bien {p1 , . . . , pr } est affinement libre, si p̂1 , . . . , p̂r sont
linéairment indépendants dans Rn+1 ;
(2) affinement dépendants, ou bien, {p1 , . . . , pr } est affinement liée, si p̂1 , . . . , p̂r sont
linéairment dépendants dans Rn+1 .
Remarque. (1) Une famille d’un seul point est affinement libre.
(2) Une famille affinement libre de points de R(n) contient au plus n + 1 points.
4.4.4. Définition. Soit {p1 , . . . , pr } une famille affinement libre de points de R(n) . Un
point p s’appelle barycentre de p1 , . . . , pr s’il existe c1 , · · · , cr ∈ R tels que
p = c1 p1 + · · · + cr pr et c1 + · · · + cr = 1
c’est-à-dire,
p̂ = c1 p̂1 + · · · + cr p̂r .
Dans ce cas, les coefficients c1 , . . . , cr sont uniques et appelés coordonnées barycentriques de
p dans {p1 , . . . , pr }.
4.4.5. Proposition. Si p1 , p2 ∈ R(n) , alors {p1 , p2 } est affinement libre si et seulement
si p1 ̸= p2 ; et dans ce cas, l’ensemble des barycentres de p1 , p2 est donné par
D(p1 , p2 ) = {tp1 + (1 − t)p2 | t ∈ R},
ce qui est la droite affine passant par p1 , p2 ; et
δ(p1 , p2 ) = {tp1 + (1 − t)p2 | 0 ≤ t ≤ 1}
est le segment d’éxtrémités p1 , p2 .
Exemple. Soit D la droite affine de R(2) passant par (2, 1) et (4, 5).
(1) Un point p = (x, y) appartient à D si et seulement si p est un barycentre de p1 , p2 si et
seulement si p̂ est une combinaison linéiare de p̂1 , p̂2 si et seulement si rg(p̂1 p̂2 ) = rg(p̂1 p̂2 | p̂).
Maintenant,




2 4 x
1 1
1
.
(p̂1 p̂2 | p̂) =  1 5 y  ⇒  0 2
x−2
1 1 1
0 0 2x − y − 3
40
Par conséquent, (x, y) ∈ D si et seulement si
2x − y = 3,
appélée l’équation cartésienne de D.
(2) Un point p = (x, y) appartient à D si, et seulement s’il existe t ∈ R tel que
(x, y) = t(2, 1) + (1 − t)(4, 5).
C’est-à-dire,
x = −2t + 4
y = −4t + 5;
t ∈ R,
appelées équations paramétriques de D.
4.4.6. Proposition. Si p1 , p2 , p3 ∈ R(n) , alors {p1 , p2 , p3 } est affinement libre si et
seulement si p1 , p2 , p3 ne se trouvent pas sur une même droite affine; et dans ce cas, l’ensemble
des barycentres de p1 , p2 , p3 est
P (p1 , p2 , p3 ) = {sp1 + tp2 + (1 − s − t)p3 | s, t ∈ R},
ce qui est le plan affine passant par p1 , p2 , p3 . En outre,
∆(p1 , p2 , p3 ) = {sp1 + tp2 + (1 − s − t)p3 | 0 ≤ s, t, s + t ≤ 1}
est le triangle de sommets p1 , p2 , p3 .
Exemple. Considérer les points p1 = (1, 3, 7), p2 = (2, 7, 6), p3 = (0, 4, 7) de R(3) . Comme




1 2 0
1 1
1




 3 7 4 
 0 1 −1 
(p̂1 p̂2 p̂3 ) = 
⇒
,
1 
 7 6 7 
 0 0
1 1 1
0 0
0
{p̂1 , p̂2 , p̂3 } est libre dans R4 , et donc, {p1 , p2 , p3 } est affinement libre dans R(3) . Soit P le
plan affine passant par p1 , p2 , p3 . Alors un point p = (x, y, z) appartient à P si et seulement
s’il existent s, t ∈ R tels que
(x, y, z) = sp1 + tp2 + (1 − s − t)p3 = (s + 2t, −s + 3t + 4, −t + 7).
C’est-à-dire,
x = 2t + s
y = 4 − s + 3t
z = 7 − t;
appelées les équations paramétriques de P.
41
s, t ∈ R,
On conclut cette section par une application de coordonnées barycentriques à l’infographie,
qui donne une méthode pour colorer un triangle d’une façon lisse.
4.4.7. Proposition. Soit ∆ un triangle coloré de sommets p1 , p2 , p3 auxquels les couleurs
sont C1 , C2 , C3 respectivement. Si p ∈ ∆, alors la couleur à p est donnée par
a1 C1 + a2 C2 + a3 C3 ,
où a1 , a2 , a3 sont les coordonnées barycentriques de p dans {p1 , p2 , p3 }.
4.5. Exercices
1. Montrer qu’un espace vectoriel réel non nul contient une infinité de vecteurs.
2. Soit D une couleur obtenue en mélangeant 20% du blanc, 25% du magenta, 30% du gris
et 10% du pourpre.
(1) Exprimer la colonne des coordonnées RVB de la couleur D comme combinaison
linéaire des colonnes des coordonnées du blanc, du magenta, du gris et du pourpre.
(2) Donner les coordonnées RVB de la couler D.
3. Considérer les vecteurs de R4 suivants:





1
0
7





 −2 
 2 
 4
u1 = 
 , u2 = 
 , u3 = 
 1 
 1 
 1
0
−1
1






;u = 


6
−2
2
3






;v = 


−5
−2
4
−4



.

À l’aide du lemme 4.1.5, déterminer lequel de u et v est une combinaison linéaire de
u1 , u2 , u3 ; et donner une expression explicite dans le cas échéant.
4. Considérer les vecteurs de R4 suivants:
 

3
1
 

 2 
 4
u =   , v1 = 
 a 
 −5
b
2






 , v2 = 


1
2
3
1



.

Donner les valeurs réelles de a et b pour que u soit une combinaison linéaire de v1 et v2 .
5. Considérer les vecteurs de R5 suivants:




u1 = 


3
2
0
1
1








 , u2 = 




2
0
3
0
−4








 , u3 = 




42
0
5
6
−2
0








,u = 




5
31
24
−7
11




.


(1) Exprimer, si possible, u comme une combinaison linéaire de u1 , u2 et u3 .
(2) Vérifier que la famille {u1 , u2 , u3 } est libre.
6. (1) Montrer qu’aucune des couleurs blanc, cyan et magenta ne peut être obtenue en
mélangeant deux autres. Indice: Vérifier que leurs colonnes des coordonnées RVB
sont linéairement indépendantes.
(2) Déterminer si l’on peut obtenir le pourpre en mélangeant le blanc, le cyan et le
magenta.
(3) Déterminer si l’on peut obtenir le blanc en mélangeant le jaune, le magenta et le cyan;
si oui, comment?
7. Considérer les vecteurs de R4 suivants:

 
1
2
 

 2
 1 
u1 =   , u 2 = 
 1 
 3
1
2






 , u3 = 


4
−1
0
3






;u = 


1
−5
−7
a



.

(1) Déterminer si {u1 , u2 , u3 } est liée ou libre.
(2) Donner la valeur réelle de a pour que u soit une combinaison linéaire de u1 , u2 , u3 ; et
dans ce cas, exprimer u comme une combinaison linéaire de u1 , u2 , u3 .
8. Dans chacun des cas suivants, déterminer si les vecteurs de R3 sont linéairement dépendants
ou indépendants:

 
 


 
 

1
3
2
1
2
3

 
 


 
 

 3   8   9 
 −2   1   −6 
(1) 
(2) 
, 
, 
;
, 
, 
.
 −1   −5   4 
 4   0   1 
4
7
23
1
−3
4
9. Soit E un espace vectoriel réel. Si u1 , u2 , u3 ∈ E sont linéairmeent indépendants, montrer
que la famille {v1 = 3u1 , v2 = 2u1 − u2 , v3 = u1 + u3 } est libre.
10. (MATLAB) Considérer les vecteurs de



x
−1



 −1
 0 
u1 = 
 , u2 = 
 0
 0 
66
40
R4 suivants:







 , u3 = 






 , u4 = 


0
x
−1
35

0
0
x
−6



.

Donner les valeurs réelles de x pour que {u1 , u2 , u3 , u4 } soit une base de R4 .
43
Indice: Considérer A = (u1 u2 u3 u4 ), la matrice des coordonnées de {u1 , u2 , u3 , u4 } dans
la base canonique {e1 , e2 , e3 , e4 }. D’après le théorème 4.2.5, {u1 , u2 , u3 , u4 } est une base
de R4 si, et seulement si, A est inversible si, et seulement si, det(A) ̸= 0. Calculer det(A),
ce qui est un polynôme en x. Trouver les racines réelles de ce polynôme à l’aide du
MATLAB.
11. Considérer les vecteurs de R3 suivants:
 
  

2
2
1
 −1  ,  −1  ,  1  .
1
a
3
Donner la valeur réelle de a pour que {u1 , u2 , u3 } soit une base de R3 .
12. Considérer les vecteurs de R3 suivants:



2
1
u1 =  2  , u2 =  1  .
−1
1

(1) Vérifier, à l’aide du théorème 4.1.8, que {u1 , u2 } est libre.
(2) Montrer que {u1 , u2 } n’est pas une base de R3 en donnant, à l’aide du théorème
4.1.6(3), un vecteur qui n’est pas une combinaison linéaire de u1 , u2 .
13. Dans chacun des cas suivants déterminer, avec justification, si les vecteurs donnés forment
une base de R3 ou non.
   
2
1



(1)
1 , 1 ;
0
0
    
3
4
2
(2)  1  ,  1  ,  5  ;
0
6
0

    
 
1
7
2
5







(3)
6 , −3 , 3 , 2  .
3
4
5
−1

14. Considérer les vecteurs de R2 suivants:
( )
(
)
( )
(
)
1
2
4
7
u1 =
, u2 =
;u =
;v =
.
1
−1
5
−3
44
(1) Vérifier que {u1 , u2 } est une base de R2 .
(2) Trouver la matrice des coordonnées de {u, v} dans cette base.
Indice: Trouver, à l’aide de la proposition 4.2.10, la colonne des coordonnées de
chacun des u, v dans {u1 , u2 }.
15. Dans chacun des cas suivants déterminer, à l’aide du théorème 4.2.5, si la famille de
vecteurs est une base de R4 ou non.
       
6
1
1
1
       
 1   0   1   4 
(1)   ,   ,   ,   ;
 1   1   1   6 
3
0
1
1



(2) 

3
2
−5
2
 
 
 
,
 
−2
0
1
−3
 
 
 
,
 
0
0
1
1
 
 
 
,
 
4
−1
3
0
 
 
 
,
 
13
−2
7
5



.

16. Soit {u1 , u2 , u3 } une base de R3 .
(1) Trouver la colonne des coordonnées de u1 − u3 dans la base {u1 , u2 , u3 }.
(2) Trouver la matrice des coordonnées de {u1 , u2 } dans la base {u1 , u2 , u3 }.
17. Soit {u1 , u2 , u3 } une base de R3 . Dans chacun des cas suivants, trouver la matrice de
passage de la base {u1 , u2 , u3 } à la base donnée:
(1) {u1 , u2 , u3 };
(2) {u3 , u1 , u2 };
(3) {u2 , u3 , u1 };
(4) {u3 , u2 , u1 }.
18. Considérer les vecteurs de R3 suivants:
 






1
1
1
6
u1 =  0  , u2 =  −1  , u3 =  −2  ; u =  −5  .
0
0
1
2
(1) Donner la matrice des coordonnées de {u1 , u2 , u3 } dans la base canonique {e1 , e2 , e3 }.
(2) Vérifier, à l’aide du théorème 4.2.5(3), que {u1 , u2 , u3 } est une base de R3 .
(3) Donner le vecteur w dont les coordonnées dans {u1 , u2 , u3 } sont {2, 3, −2}.
(4) Trouver, à l’aide de la proposition 4.2.10, la colonne des coordonnées de u dans la
base {u1 , u2 , u3 }.
45
19. (MATLAB)
(1) Donner les coordonnées XYZ du pourpre.
(2) Donner les coordonnées RVB d’une couleur dont les coordonnées XYZ sont {1, 2, 1}.
20. Dans chacun de cas suivants, déterminer si le sous-ensemble donné de R2 est un sousespace vectoriel ou non.
{( )
}
{( )
}
a
a
(1) F1 =
| b = 2a ;
(2) F2 =
| b = a2 .
b
b
21. Soit F le sous-espace vectoriel de R4 engendré par les vecteurs suivants:

 
 

2
2
1

 
 

 2   3   −1 
.
,

,
 1   −1   0 
1
1
−1
Donner un vecteur u ∈ R4 , qui n’appartient pas à F .
22. Soit F le sous-espace vectoriel de R4 engendré par les vecteurs suivants:


 




2
3
5
1


 




 −1 
 0 
 −1 
 1 
u1 = 
 , u2 =   , u 3 = 
 , u4 = 
.
 3 
 2 
 5 
 −1 
−1
1
0
2
Trouver une base de F et donner dim(F ). Indice: Appliquer le théorème 4.3.7 à la matrice
formée de ces vecteurs.
23. Soit F le sous-espace vectoriel de R4 engendré par





−1
1
1





 1 
 −1 
 1
u1 = 
 , u2 = 
 , u3 = 
 1 
 1 
 −1
1
1
1



;

et considérer ses vecteurs suivants:
v1 = 2u1 − u2 + u3 , v2 = u1 − u2 + u3 , v3 = u1 − u3 ; u = 3u1 − u2 + 4u3 .
(1) Vérifier, à l’aide du lemme 4.3.4, que {u1 , u2 , u3 } est une base de F .
(2) Donner la matrice des coordonnées de {v1 , v2 , v3 } dans {u1 , u2 , u3 }, et vérifier que
{v1 , v2 , v3 } est aussi une base de F .
46
24. Si u, v ∈ Rn sont linéairement indépendants, montrer que le sous-espace vectoriel engendré
par u, v admet un vecteur qui a des termes strictement positifs ainsi que des termes
strictement négatifs.
25. Soit F le sous-espace vectoriel de R3 engendré par
 


4
−7
u =  6  , v =  −9  .
8
−5
Donner un vecteur de F ayant des termes strictement positifs ainsi que des termes strictement négatifs.
26. Soit F le sous-espace vectoriel

 
1

 

 1 
u1 =   , u2 = 

 0 
1
de R4 engendré par les vecteurs suivants:






1
−1
2






0 

 2 
 −2 
;v = 
;u = 
 , u2 = 
1 
 −1 

 0 
3
1
1
1
1
a
1



.

(1) Déterminer si u appartient à F ou non.
(2) Donner la valeur réelle de a pour que v appartienne à F.
27. Dans chacun des cas suivants, calculer la dimension du sous-espace vectoriel de R4 engendré par les vecteurs donnés:

 
 

1
2
0

 
 

 −1   0   −2 
(1) 
, 
, 
;
 2   −1   5 
1
0
−1

(2)




1
−1
2
1
 


,





4
−2
0
1
 


,

28. Considérer la matrice et les

1

 0
A=
 −1
0




3
−1
2
−1



.

vecteurs suivants:


3
2
0 3 1


4 −2 5 3 
 8
;u = 
5
2 1 8 
 3
−2
1 −1 2 1
(1) Donner une base de C(A).
47






;v = 


2
3
7
2



.

(2) Déterminer le quel de u, v appartient à C(A).
indice: Pour les deux parties, il suffit d’échelonner (A | u | v).
29. Trouver une base de N (A), où



A=

1
3
−1
4
3
1 5 4
8 −2 9 6
7
4 10 11
1 −1 4 0



.

30. Trouver une base de l’espace-solution de chacun des systèmes homogènes suivants:
(1)
2x1
x1
3x1
4x1
+ x2
− x2
+ 3x2
+ 5x2
− x3
+ x3
− 3x3
− 5x3
(2)
x1
x1
2x1
9x1
+ 2x2
− x2
− 3x2
− 9x2
−
−
+
+
− x4
+ x4
− 3x4
− 5x4
3x3
3x3 +
x4
4x3 − 5x4
6x3 − 16x4
+ x5
− 2x5
+ 4x5
+ 7x5
+
−
+
+
=
=
=
=
2x5
3x5
2x5
2x5
=
=
=
=
0
0
0
0.
0
0
0
0.
31. Donner une base de la droite vectoriel ℓ définie par les équations cartésiennes:
x + y − z = 0
x − 3y + z = 0.
32. Donner une base du plan vectoriel P défini par l’équation cartésienne:
2x − y + 5z = 0.
33. Donner des équations cartésiennes de la droite contenant le vecteur suivant:
 
7

u=
4 .
3
34. Soit P le sous-espace vectoriel de R3 engendré par



1
3
u1 =  2  , u2 =  −3  .
2
5

(1) Vérifier que P est un plan vectoriel.
(2) Trouver une équation cartésienne de P .
48
35. Dans chacun des cas suivants, déterminer si les vecteurs donnés sont des coordonnées
homgènes d’un même point de R(3) ; et si oui, donner ce point.

 
 

    

7
3
5
1
2
1

 
 

    

 −7   −3   −5 
 0   0   −1 
(1) 
(2)   ,   , 
, 
, 
;
.
 14   6   10 
 2   4   2 
21
9
15
1
2
−1
36. Considérer les points de R4 suivants:
p1 = (1, 1, 0, 1), p2 = (2, 3, 4, 2), p3 = (1, 2, 4, 1); p = (1, 1, 5, 1); q = (0, −2, −8, 0).
(1) Vérifier que p1 , p2 , p3 sont linéairement dépendants.
(2) Vérifier que p1 , p2 , p3 sont affinement indépendants.
(3) Le quel de p, q est un barycentre de p1 , p2 , p3 ? et dans le cas échéant, donner les
coordonnées barycentriques de ce point dans {p1 , p2 , p3 }.
37. Considérer les points p1 = (1, 1), p2 = (2, 1); p = (−1, 1) de R(2) .
(1) Donner les équations paramétriuqes de la droite affine D passant par p1 , p2 .
(2) Vérifier que p appartient à D, et donner ses coordonnées barycentriques dans {p1 , p2 }.
(3) Déterminer si p appartient au segment d’extrémités p1 et p2 .
38. Considérons les points de R(3) suivants:
(
p1 = (3, −1, 2), p2 = (−1, 2, 5), p3 = (2, 1, 7); p =
)
7 1
, ,4
4 4
(1) Vérifier que p1 , p2 , p3 sont affinement indépendants.
(2) Trouver les équations paramétriques du plan affine P passant par p1 , p2 , p3 .
(3) Vérifier que le point p appartient au triangle de sommets p1 , p2 , p3 ; et donner ses
coordonnées barycentriques.
(4) Soit ∆ un triangle coloré de sommets p1 , p2 , p3 , auxquels les couleurs sont cyan, jaune
et blanc respectivement. Donner les coordonnées RVB de la couleur au point p.
49
Chapitre V: Applications linéaires
On a étudié des propriétés élémentaires d’espaces vectoriels. Dans la plupart de cas, il est
utile de relier un espace vectoriel réel à un autre par une application linéaire enter eux. Les
applications linéaires jouent un rôle important dans beaucoup de branches de mathématiques
ainsi que dans les sciences appliquées comme infographie.
5.1. Trigonométrie
On commence par un petit rappel de la trigonométrie. Étant donné un vecteur non nul
( )
x
u=
∈ R2 .
y
√
La longueur de u est r = x2 + y 2 , et un argument θ de u est un angle de l’axe des abscisses
positif à u. Dans ce cas, u peut être représenté par le vecteur suivant:
6
y
u
3
r
θ
-
x
Maintenant, on définit
cos θ =
x
x
=√
;
r
x2 + y 2
(
Ceci nous donne
u=
sin θ =
r cos θ
r sin θ
y
y
=√
.
r
x2 + y 2
)
,
appelé forme géométrique de u.
Le tableau suivant donne les valeurs de sinus et de cosinus de certains angles spéciaux.
θ
0
π
6
π
4
π
3
π
2
√
1
2
0 −1
1
1
0
cos θ 1
3
2
√
2
2
sin θ 0
1
2
√
2
2
50
π 2π
√
3
2
0
5.1.1. Proposition. Si θ, ϕ sont des angles, alors
(1) cos2 θ + sin2 θ = 1;
(2) cos(θ + ϕ) = cos θ cos ϕ − sin θ sin ϕ;
(3) sin(θ + ϕ) = sin θ cos ϕ + cos θ sin ϕ.
Exemple. (1) cos(2π + θ) = cos θ et sin(2π + θ) = sin θ.
(2) Considérons la matrice suivante:
(
)
cos θ − sin θ
Aθ =
.
sin θ
cos θ
En vue de la proposition 5.1.1(1), on vérifie que Aθ est inversible avec
(
)
cos θ sin θ
−1
Aθ =
= ATθ .
− sin θ cos θ
En appliquant la proposition 5.1.1(2) et (3), on obtient le résultat suivant qui nous permet
de trouver le sinus et le cosinus des angles spéciaux dans les autres quadrants.
5.1.2. Proposition. Si θ est un angle, alors
(1) cos(π − θ) = − cos θ,
sin(π − θ) = sin θ;
(2) cos(π + θ) = − cos θ,
sin(π + θ) = − sin θ;
(3) cos(2π − θ) = cos θ,
sin(2π − θ) = − sin θ.
5.2. Applications générales
Le but de section est étudier des applications entre deux ensembles généraux.
5.2.1. Définition. Soit X, Y deux ensembles. Une application T de X dans Y est une
règle qui associe à chaque élément x ∈ X un élément unique T (x) ∈ Y , notée
T : X → Y : x 7→ T (x).
On appelle X le domaine; et Y , le codomaine, de T . En outre, si y = T (x), on appelle alors
y l’image de x; par T et x, un préimage de y.
Exemple. (1) Pour tout ensemble X, on a l’application identité
1IX : X → X : x 7→ x.
(2) Pour tout entier n ≥ 1, on a l’application de déterminant
det : Mn (R) 7→ R : A 7→ det(A).
51
(3) On a une application comme suit:
T : R → R(2) : θ 7→ (cos θ, sin θ) .
5.2.2. Définition. Soit T : X → Y une application. Si Z ⊆ X, alors
T (Z) = {T (z) | z ∈ Z} ,
un sous-ensemble de Y , s’appelle l’image de Z par T . En particulier, T (X) s’appelle simplement l’image de T et noté Im(T ).
Exemple. Considérer la translation suivante:
T : R(2) → R(2) : (x, y) 7→ (x + 1, y + 2),
appelée une translation. Trouver T (Σ), où Σ est le segment des extrémités p1 = (1, 0) et
p2 = (0, 1).
Solution. On prétedn que T (Σ) = ∆, le segment des extrémités T (p1 ) = (2, 2) et
T (p2 ) = (1, 3). En effet, pour tout p = (x, y) ∈ Σ, on a
p = tp1 + (1 − t)p2 = (t, 1 − t), 0 ≤ t ≤ 1.
Donc T (p) = (t + 1, 3 − t). De l’autre côté,
tT (p1 ) + (1 − t)T (p2 ) = (t + 1, 3 − t) = T (p) = T (tp1 + (1 − t)T (p2 ).
D’où, T (p) ∈ ∆. Par conséquent, T (Σ) ⊆ ∆. Réciproquement, si q = (a, b) ∈ ∆, alors
q = sT (p1 ) + (1 − s)T (p2 ) = (s + 1, 3 − s), 0 ≤ s ≤ 1.
Or p′ = sp1 + (1 − s)(1 − s)p2 ∈ Σ est tel que T (p′ ) = sT (p1 ) + (1 − s)T (p2 ) = q. Ainsi
p′ ∈ T (Σ). Ceci montre que T (Σ) = ∆.
5.2.3. Définition. Une application T : X → Y est dite
(1) surjective si tout y ∈ Y admet au moins un préimage x ∈ X, c’est-à-dire, Im(T ) = Y ;
(2) injective si tout y ∈ Y admet au plus un préimage x ∈ X;
(3) bijective si tout y ∈ Y ademt exactement un préimage x ∈ X, c’est-à-dire, T est
surjective et injective.
5.2.4. Définition. Soient deux applications T : X → Y et S : Y → Z. On définit
l’application composée de T et S comme suit:
S ◦ T : X → Z : u 7→ S(T (u)).
52
Remarque. Pour toute application T : X → Y , on a
T ◦ 1IX = T et 1IY ◦ T = T.
5.2.5. Définition. Soit T : X → Y une application bijective. Tout y ∈ Y admet un
préimage unique x ∈ X, noté x = T −1 (y). Ceci donne une application
T −1 : Y → X : y 7→ T −1 (y),
appelée inverse de T .
Remarque. L’inverse T −1 : Y → X de T est l’application unique telle que
T −1 ◦ T = 1IX et T ◦ T −1 = 1IY .
5.3. Applications linéaires
Dès maintenant, on s’intèsse à des applications entre deux espaces vectoriels réels, qui
sont compatibles avec les opérations vectorielles.
5.3.1. Définition. Une application T : Rn → Rm est dite linéaire si, pour tous u, v ∈ Rn
et a ∈ R, les conditions suivantes sont vérifiées:
(1) T (u + v) = T (u) + T (v);
(2) T (au) = a T (u).
Remarque. (1) Si T : Rn → Rm est linéaire, alors T (0) = 0 et
T (a1 u1 + · · · + ar ur ) = a1 T (u1 ) + · · · + ar T (ur ),
pour tous u1 , . . . , ur ∈ Rn et a1 , . . . , ar ∈ R.
Exemple. L’application nulle suivante est évidemment linéaire:
0 : Rn → Rm : u 7→ 0m×1 .
5.3.2. Théorème. Une application T : Rn → Rm est linéaire si, et seulement si, T est
définie par une matrice A ∈ Mm×n (R), c’est-à-dire, T est de la forme suivante:
T : Rn → Rm : u 7→ Au.
Dans ce cas, si {e1 , . . . , en } est la base canonique de Rn , alors
A = (T (e1 ) · · · T (en )).
53
Le résultat suivant nous dit comment trouver l’application composée de deux applications
linéaires.
5.3.3. Proposition. Soient des applications linéaires
T : Rn → Rm : u 7→ Au et S : Rm → Rp : v 7→ Bv,
où A ∈ Mm×n (R) et B ∈ Mp×m (R). Alors S ◦ T est linéaire de la forme
S ◦ T : Rn → Rp : u 7→ (BA)u.
On étudiera les propriétés des applications linéaires.
5.3.4. Proposition. Soit T : Rn → Rm une application linéaire. Si F est un sousespace vectoriel de Rn engendré par v1 , . . . , vr , alors T (F ) est un sous-espace vectoriel de Rm
engendré par T (v1 ), . . . , T (vr ).
Le résultat suivant nous dt comment déterminer si une application linéaire est injective
ou non.
5.3.5. Proposition. Soit T : Rn → Rm une application linéaire.
(1) N (T ) = {u ∈ Rn | T (u) = 0} est un sous-espace vectoriel de Rn , appelé noyau de T .
(2) T est injective si et seulement si N (T ) = {0}.
Le résultat suivant nous dit comment trouver l’image et le noyau d’une application linéaire
à partir de sa matrice.
5.3.6. Théorème. Soit T : Rn → Rm une application linéaire. Si T est définie par
A ∈ Mm×n (R), alors
(1) Im(T ) = C(A);
(2) N (T ) = N (A);
(3) dim(Im(T )) + dim(N (T )) = n.
Le résulat suivant est une conséquence immédiate du théorème 5.3.6 et de la proposition
5.3.5.
5.3.7. Corollaire. Soit T : Rn → Rm une application linéaire. Si T est définie par
A ∈ Mm×n (R), alors
(1) T est injective si et seulement si rg(A) = n.
(2) T est surjective si et seulement si rg(A) = m.
Le résultat suivant donne des propiétés imporatantes d’applications linéaires injectives,
qui sera utile en infographie.
54
5.3.8. Proposition. Soit T : Rn → Rm une application linéaire injective. Alors T envoie
un segment d’extrémités p1 et p2 en le segment d’extrémités T (p1 ) et T (p2 ); un triangle de
sommets p1 , p2 , p3 en le triangle de sommets T (p1 ), T (p2 ), et T (p3 ).
5.4. Transformations linéaires
Le but de cette section est d’étudier les applications linéaires d’un espace vectoriel dans
lui-même.
5.4.1. Définition. (1) Une application linéaire T : Rn → Rn s’appelle une transformation linéaire de Rn .
(2) Une transformation linéaire bijective de Rn s’appelle un automorphisme de Rn .
5.4.2. Proposition. Pour tout c ∈ R, l’application
Hc : Rn → Rn : u 7→ cu,
appelée homothétie, est une transformation linéiare de Rn . En outre, Hc est un automorphisme de Rn si et seulement si c ̸= 0.
Remarque. Plus précisément, Hc s’appelle contraction si 0 < c < 1; et dilatation si
c > 1.
Exemple. On voit que H0 l’application nulle 0 : Rn → Rn : u 7→ 0; et H1 est
l’application identité 1I : Rn → Rn : u 7→ u.
Comme d’habitude, la théorie des matrices est très utile pour étudier les transformations
linéaires.
5.4.3. Définition. Soit T une transformation linéaire Rn . Si {u1 , . . . , un } est une base
de Rn , alors la matrice des coordonnées
{T (u ),...,T (un )}
1
P{u1 ,...,u
n}
s’appelle la matrice de T dans la base {u1 , . . . , un }, notée [T ]{u1 ,...,un } .
Remarque. Si [T ]{u1 ,...,un } = A, alors
(T (u1 ), · · · , T (un )) = (u1 , · · · , un )A.
Ceci est illustré par
(u1 , · · · , un )
A
/ (T (u1 ), · · · , T (un )).
55
Exemple. Considérons une homothétie Hc : Rn
{u1 , . . . , un } de Rn , on a

c ···
 .. . .
[Hc ]{u1 ,...,un } =  .
.
0 ···
→ Rn : u 7→ cu. Pour toute base

0
..  .
. 
c
En particulier, [0]{u1 ,...,un } = 0n×n et [1IRn ]{u1 ,...,un } = In .
5.4.4. Lemme. Soit une transformation linéaire
T : Rn → Rn : u 7→ Au.
Alors la matrice de T dans la base canonique {e1 , . . . , en } est A. Autrement dit, toute
transformation linéaire de Rn est définie par sa matrice dans la base canonique.
La matrice d’une transformation linéaire change si l’on change la base. Ce changement
est décrit dans le résultat suivant.
5.4.5. Théorème. Soit T une transformation linéaire de Rn . Soient {u1 , . . . , un } et
{v1 , . . . , vn } deux bases de Rn . Si P est la matrice de passage de {u1 , . . . , un } à {v1 , . . . , vn },
alors
[T ]{v1 ,...,vn } = P −1 [T ]{u1 ,...,un } P.
Ceci est illustré par le diagramme commutatif suivant:
[T ]{u1 ,...,un }
(u1 , . . . , un )
P
[T ]{v1 ,...,vn }
(v1 , . . . , vn )
/ (T (u1 ), . . . , T (un ))
P
/ (T (v1 ), . . . , T (vn )).
On dit que A, B ∈ Mn (R) sont semblables s’il existe une matrice inversible P telle que
B = P −1 AP . Le théorème 5.4.5 dit que les matrices d’une transformation linéaire dans deux
bases sont semblables.
Exemple. Soit ℓ la droite vectorielle avec équation cartésienne x − y = 0. Son perpendiculaire ℓ⊥ est la droite vectorielle avec équation cartésienne x + y = 0. Par définition, la
réflexion Rℓ du plan par rapport à ℓ est la transformation linéaire telle que
(1) Rℓ (u) = u pour tout u ∈ ℓ; et
(2) Rℓ (v) = −v pour tout v ∈ ℓ⊥ .
Trouver la formule de Rℓ sous les coordonnées canoniques.
Solution. La question est de trouver [R]{e1 ,e2 } . Considérons les vecteurs suivants:
(
u1 =
1
1
)
(
∈ ℓ;
u2 =
56
1
−1
)
∈ ℓ⊥ .
Étant libre, {u1 , u2 } est une base de R2 . Par définition, on a
Rℓ (u2 ) = −1.
Rℓ (u1 ) = u1 ;
D’où,
(
[Rℓ ]{u1 ,u2 } =
1
0
0 −1
)
.
Remarquons la matrice de passage de {e1 , e2 } à {u1 , u2 } est
(
)
1
1
P =
.
1 −1
D’après le théorème 5.4.5, [Rℓ ]{u1 ,u2 } = P −1 [Rℓ ]{e1 ,e2 } P, et donc
(
[Rℓ ]{e1 ,e2 } = P [Rℓ ]{u1 ,u2 } P
−1
0 1
1 0
=
)
.
C’est-à-dire, Rℓ est de la forme:
(
Rℓ : R → R :
2
2
x
y
)
(
7→
0 1
1 0
)(
x
y
)
(
=
y
x
)
.
Le résultat suivant explique l’utilité de la matrice d’une transformation linéaire.
5.4.6. Théorème. Soit T une transformation linéaire de Rn , dont la matrice dans une
base {u1 , . . . , un } est A. Pour tout u ∈ Rn , on a
{T (u)}
{u}
P{u1 ,...,un } = AP{u1 ,...,un } .
Le résultat est une conséquence de la proposition 5.3.4.
5.4.7. Proposition. Si T et S sont des transformations linéaires de Rn , alors S ◦ T l’est
aussi; et pour toute base {u1 , . . . , un } de Rn , on a
[S ◦ T ]{u1 ,...,un } = [S]{u1 ,...,un } [T ]{u1 ,...,un } .
Le résultat nous dit comment déterminer si une transformation linéaire est un automorphisme ou non; et si oui, comment trouver son inverse.
5.4.8. Théorème. Soit T une transformation linéaire de Rn . Si {u1 , . . . , un } est une
base de Rn , alors les trois conditions suivantes sont équivalentes.
(1) T est un automorphisme.
(2) [T ]{u1 ,...,un } est inversible.
57
(3) {T (u1 ), . . . , T (un )} est une base de Rn .
Dans ce cas, [T ]{u1 ,...,un } est la matrice de passage de {u1 , . . . , un } à {T (u1 ), . . . , T (un )}
et T −1 est un automorphisme avec
(
)−1
[T −1 ]{u1 ,...,un } = [T ]{u1 ,...,un }
.
On conclut cette section avec un genre spécial d’automorphismes du plan, c’est-à-dire,
les rotations en 2D.
5.4.9. Définition. Soit θ un angle fixe. L’application
(
)
(
)
r cos ϕ
r cos(ϕ + θ)
2
2
ρθ : R → R :
→
r sin ϕ
r sin(ϕ + θ)
s’appelle rotation de l’angle θ du plan.
5.4.10. Théorème. Pour tout angle θ, la rotation ρθ de l’angle θ du plan est un
automorphism de la forme
( )
(
)( )
x
cos θ − sin θ
x
2
2
ρθ : R → R :
7→
,
y
sin θ
cos θ
y
dont l’inverse est de la forme:
(
ρ−1
θ
:R →R :
2
2
x
y
)
(
7→
)(
cos θ sin θ
− sin θ cos θ
x
y
)
.
Démonstration. En vue de la proposition 5.1.1(2) et le théorème 5.3.2, on peut montrer
que ρθ est linéaire. Comme
(
e1 =
cos 0
sin 0
)
(
,
e2 =
cos π2
sin π2
)
,
par définition, on a
(
ρθ (e1 ) =
cos θ
sin θ
)
(
,
ρθ (e2 ) =
D’où,
[ρθ ]{e1 ,e2 } =
{ρ (e1 ),ρ (e2 )}
P{e1θ,e2 } θ
cos( π2 + θ)
sin( π2 + θ)
(
=
)
(
=
cos θ − sin θ
sin θ
cos θ
− sin θ
cos θ
)
:= Aθ .
C’est-à-dire, ρθ est de la forme
(
ρθ : R → R :
2
2
x
y
)
(
7→
58
cos θ − sin θ
sin θ
cos θ
)(
x
y
)
.
)
.
En outre, Aθ est inversible avec
(
A−1
θ
=
cos θ sin θ
− sin θ cos θ
)
.
D’après le théorème 5.4.8, ρθ est un automorphisme et
(
−1
[ρθ ]{e1 ,e2 } =
A−1
θ
=
cos θ sin θ
− sin θ cos θ
)
.
C’est-à-dire, ρ−1
θ est de la forme suivante:
(
ρ−1
θ
:R →R :
2
2
x
y
)
(
7→
cos θ sin θ
− sin θ cos θ
)(
x
y
)
.
Remarque. On voit que ρ−1
θ = ρ−θ .
5.5. Calibration de caméra
Dans le traitement d’image, on utilise la calibration de caméra, ou bien la projection
perspective, pour modéliser le processus de formation des images. Cette application est non
linéaire mais représentable par la multiplication par une matrice en coordoonées homogènes.
Dans ce modèle, l’espace R(3) sera repéré par un repère caméra tel que défini ci-dessous:
(1)
(2)
(3)
(4)
l’origine est le centre optique de la caméra;
l’axe des z pointe vers les objets;
l’axe des y pointe vers le haut;
l’axe des x est parallèle à la base de la caméra et pointe vers la gauche (en face des
objets).
Dans la prise d’une photo, un point (x, y, z) de R(3) avec z > 0 est projeté sur le plan
image défini par z = −d, où d est la distance focale (c’est-à-dire, entre le point optique et le
plan image) de la caméra. On note
Zd = {(x, y, d) ∈ R(3) | x, y ∈ R} et Z̸=0 = {(x, y, z) ∈ R(3) | z ̸= 0}.
5.5.1. Définition. Soit d ̸= 0. La projection perspective de centre 0 = (0, 0, 0) sur le
plan Zd est l’application définie par
P 0,d : Z̸=0 → Zd : p 7→ p∗ ,
où p∗ est le point d’intersection du plan affine Zd et la droite vectorielle passant par p et 0.
59
5.5.2. Théorème. Soient d ̸= 0, et P 0,d la projection perspective de centre 0 sur Zd .
Pour tout p ∈ Z̸=0 , l’image P0,d (p) a pour coordonnées homogènes


1 0 0 0


 0 1 0 0 

 p̂,
 0 0 1 0 
0 0 d1 0
où la matrice s’appelle matrice en coordonnées homogènes de P 0,d .
Démonstration. Considérons un point p = (x, y, z) avec z ̸= 0. Par définition, on a
∗
p = (x∗ , y ∗ , d) avec x∗ , y ∗ ∈ R. Comme la droite passant par p et 0 se compose des points
tp, avec t ∈ R, on voit que p∗ = sp avec s ∈ R. Ceci donne x∗ = sx; y ∗ = sy; d = sz,
c’est-à-dire,
(
)
dx dy
∗
p =
, ,d .
z z
Par conséquent, p∗ a pour vecteurs de coordonnées homogènes

  
 dx  
 
dx
x
1 0 0 0
x
z
 dy  

  
 
 z   dy 
 y   0 1 0 0  y 

,
 et   = 
 .
 d   dz 
 z   0 0 1 0  z 
z
z
0 0 d1 0
1
1
d
Exemple. Donner la matrice en coordonnées homogènes de la projection perspective
P0,−1 , et calculer l’image du point p = (1, 2, 3) par cette projection.
Solution. D’après le théorème 5.5.2, la matrice en coordonnées homogènes est


1 0
0 0


0 0 
 0 1

 := A.
1 0 
 0 0
0 0 −1 0
Comme



A · p̂ = 

d’après le théorème 5.5.2, on a
1
0
0
0
0
0
1
0
0
1
0 −1
0
0
0
0





1
2
3
1


 
 
=
 
(
)
1 2
P0,−1 (p) = − , − , −1 .
3 3
5.6. Exercices
60
1
2
3
−3



,

1. Calculer
π
π
(1) cos 12
et sin 12
;
(2) cos 7π
et sin 7π
;
12
12
(3) cos 5π
et sin 5π
;
12
12
(4) cos 17π
et sin 17π
.
12
12
2. Dans chacun des cas suivants, trouver un argument du vecteur donné.
√ )
(
)
(
(
)
(
)
3
−2 3
1
−1
√
(1)
;
(2)
;
(3)
;
(4)
.
−3
2
− 3
−1
3. Pour tout angle θ, on pose
(
cos θ − sin θ
sin θ
cos θ
Aθ =
)
.
Vérifier, pour tous angles θ, ψ, que Aθ Aψ = Aθ+ψ .
4. Considérer l’application du déterminant
det : M3 (R) → R : A 7→ det(A).
(1) Déterminer, avec justification, si cette application est injective ou non.
(2) Déterminer, avec justification, si cette application est surjective ou non.
(3) Déterminer, avec justification, si cette application est bijective ou non.
5. Considérer l’application suivante
T : R(2) → R(2) : (x, y) 7→ (x − 3, y + 3).
(1) Vérifier que T est bijective et trouve son inverse T −1 .
(2) Trouver l’image par T du triangle ∆ de sommets
p1 = (−3, 3), p2 = (−2, 3), p3 = (−3, 4).
6. Considérer l’application suivante:
(
T : M3×2 (R) → M2×3 (R) : A 7→ A +
T
1 2 3
4 5 6
(1) Vérifier que T est une application bijective.
(2) Donner l’inverse T −1 .
7. Considérer l’application suivante
(
T :R →R :
2
2
x
y
61
)
(
7→
x2 − y 2
x + y2
)
.
)
.
(1) Calculer T (e1 ) et T (e2 ), avec {e1 , e2 } la base canonique de R2 .
(2) Trouver un vecteur spéficique u de R2 tel que T (u) ̸= Au, où A est la matrice formée
par T (e1 ) et T (e2 ).
(3) Déterminer, à l’aide du théorème 5.3.2, si T est linéaire ou non.
8. Dans chacun des cas suivants, vérifier que l’application T est non linéaire.
( )
(
)
x
x+7
2
2
(1) T : R → R :
7→
.
y
y−5
(
(2)
T :R →R :
2
2
x
y
)
(
7→
x+y
y2
)
.
9. Dans chacun des cas suivants, trouver la matrice qui définit l’application linéaire T .
 
(
)
x
7x
(1) T : R3 → R2 :  y  7→
.
−5y
z
(
x
y
)

7x
7→  9y  .
0

(2)
T : R2 → R3 :
(3)

(
)
x
2x
−
y
+
3z
3
2 
.
T :R →R :
y  7→
x − 5y + z
z

10. Considérer l’application linéaire suivante:
(
T :R →R :
2
2
x
y
)
(
7→
5x
7y
)
.
(1) Donner la matrice qui définit T .
(2) Donner l’image par T du disque S 1 = {(x, y) | x2 + y 2 ≤ 1}.
11. Considérer les vecteurs de R3 suivants:

 

 

 

a
−1
0
1
−1
u1 =  1  , u2 =  2  , u3 =  1  ; v =  0  , u =  b  .
c
1
2
1
1
(1) Vérifier que {u1 , u2 , u3 } est une base de R3 .
(2) Donner la matrice de passage de {u1 , u2 , u3 } à la base canonique {e1 , e2 , e3 } de R3 .
62
(3) À l’aide de la partie (2), trouver l’application linéaire T : R3 → R4 telle que
 

 

1
1
0
 


 
 0 
 −1 
 0 
T (u1 ) =   , T (u2 ) = 
 , T (u3 ) =   .
 0 
 0 
 1 
0
0
1
12. Considérons l’application linéaire
(
T :R →R :
2
2
x
y
)
(
7→
2x
3y
)
et l’application linéaire S : R2 → R3 telle que




−1
2
S(e1 ) =  2  , S(e2 ) =  −5  .
3
7
(1) Donner la matrice qui définit l’application composée S ◦ T .
(2) Donner la formule de S ◦ T en coordonnées canoniques.
13. Considérer l’application linéaire suivante:




x1
x3 + x4


 x 
.
T : R4 → R3 :  2  7→ 
x1 − x2 + x4
 x3 
2x1 − 2x2 + x3 + 3x4
x4
(1) Donner la matrice qui définit T .
(2) Donner une base de Im(T ).
(3) Donner une base de N (T ).
14. Considerer la base canonique {e1 , e2 , e3 , e4 } de R4 . Soit T : R4 → R3 une application
linéaire telle que
 
 
 
 
1
0
2
1







T (e1 ) =
0 .
1 , T (e4 ) =
3 , T (e3 ) =
2 , T (e2 ) =
1
3
0
1
(1) Trouver, à l’aide du théorème 5.3.2, la matrice qui définit T .
(2) Donner, à l’aide des théorèmes 4.3.7, 4.3.10 et 5.3.6, la dimension de Im(T ) et celle
de N (T ).
(3) Déterminer, à l’aide du corollaire 5.3.7, si T est injective ou surjective.
63
15. Dans chacun des cas suivants, trouver une base pour chacun de N (T ) et Im(T ).


 
x + 2y + 3z
x
(1) T : R3 → R3 :  y  7→  2x + 4y + 6z  ;
z
−3x − 6y − 9z




x1
x1 − x2 + x3 − x4


 x 
(2) T : R4 → R3 :  2  7→  2x1 + 3x2 − 2x3 + 5x4  .
 x3 
3x1 + 2x2 − x3 + 4x4
x4
16. Considérer l’application linéaire T : R4 → R3 : u 7→ Au, où




1 2 0 1
1 2 3 4
(1) A =  2 3 1 0  ;
(2) A =  2 3 4 5  .
3 5 1 1
1 1 1 1
Dans chacun des cas ci-dessus, trouver la dimension de N (T ) et celle de Im(T ), et en
déterminer si T est injective et si T est surjective.
17. Considérer l’application linéaire suivante:
(
T : R2 → R3 :
x
y
)

2y
7→  3x  .
x−y

(1) Trouver la matrice qui définit T .
(2) Vérifier, à l’aide du corollaire 5.3.7, que T est injective.
(3) À l’aide de la proposition 5.3.8, donner l’image par T du triangle ∆ de sommets
p1 = (1, 1), p1 = (1, −1), et p3 = (0, 2).
18. Donner une application linéaire T : R2 → R3 qui envoie le segment d’extrémités p1 = (1, 2)
et p2 = (−1, 1) en le segment d’extrémités q1 = (1, 1, −1) et q2 = (0, 1, −1) .
19. Dans chacun des cas suivants, trouver la transformation linéaire T : R3 → R3 dont la
matrice dans la base canonique {e1 , e2 , e3 } est la matrice donnée.




1 −2 −2
2
2 −1
(2) 13  −1
(1) 12  −2
1 −2  ;
2
2 ;
−2 −2
1
2 −1
2

0 1
0
1
0 0 −1  .
3
−1 0
0

(3)
64
20. Considérer la transformation linéaire suivante:
 


x
x + 3y + z
T : R3 → R3 :  y  7→  2x − y + 2z  .
z
3x + 2y + 3z
(1) Trouver la matrice de T dans la base canonique de R3 .
(2) Donner une base pour chacun de N (T ) et Im(T ).
(3) Donner la valeur de a pour que u ∈ Im(T ), où


1
u =  a .
1
(4) Donner la valeur de b pour que v ∈ N (T ), où


−1
v =  b .
1
21. Dans chacun des cas suivants, trouver la dimension de chacun de Im(T ) et N (T ), et en
déterminer si T est un automorphisme ou non.





x1
1 2 3 4
x1





 x 
 2 3 4 5   x2 
(1) T : R4 → R4 :  2  7→ 

.
 x3 
 3 4 5 6   x3 
x4
4 5 6 7
x4
(2)
T : R4 → R4 linéaire telle que
 

1
 

 3 

T (e1 ) =   , T (e2 ) = 
 4 

7
2
1
3
4






 , T (e3 ) = 


3
2
5
7






 , T (e4 ) = 


−1
1
0
1



.

22. Considérer la projection de R2 sur l’axe des y comme suit:
( )
( )
x
0
2
2
py : R → R :
7→
.
y
y
(1) Donner, à l’aide du théorème 5.3.3, la matrice de py dans la base suivante:
{
(
u1 =
1
3
)
(
, u2 =
65
−1
1
)}
.
(2) Trouver les coordonnées de u = 2u1 − 5u2 et celles de T (u) dans la base {u1 , u2 }.
Indice: Appliquer le théorème 5.4.5.
23. Considérer la transformation linéaire suivante:
 


x
2x − 3y + z
T : R3 → R3 :  y  7→  3x + y − z  .
z
2x − y + z
(1) Trouver la matrice de T dans la base de R3 suivante:



 
 
1
1
0 
u1 =  1  , u2 =  0  , u3 =  1  .


0
1
1

Indice: D’abord, trouver la matrice de T dans la base canonique à l’aide du lemme
5.4.3; et ensuite, appliquer le théorème 5.4.4.
(2) Donner les coordonnées de T (u) dans la base {u1 , u2 , u3 }, où

1
u =  2 .
1

Indice: D’abord, trouver les coordonnées de u dans la base {u1 , u2 , u3 } à l’aide de la
proposition 4.2.9, et ensuite; appliquer le théorème 5.4.5.
24. Trouver la transformation linéaire T de R2 telle que T (u1 ) = −u1 et T (u2 ) = u2 , où
(
u1 =
−1
2
)
(
, u2 =
2
1
)
.
Indice: Vérifier que {u1 , u2 } est une base de R2 .
25. Trouver une transformation linéaire T de R3 telle que T (u1 ) = 2u1 , T (u2 ) = 3u2 , et
T (u3 ) = 4u3 , où





−1
1
1
u1 =  −1  , u2 =  1  , u3 =  1  .
1
−1
1

Indice: D’abord, vérifier que {u1 , u2 , u3 } est une base de R3 et trouver la matrice de T
dans cette base; et ensuite, trouver la matrice de T dans la base canonique {e1 , e2 , e3 } de
R3 à l’aide du théorème 5.4.4.
66
26. Dans chacun des suivants, déterminer si la transformation linéaire T est un automorphisme ou non; et si oui, trouver son inverse T −1 .
( )
(
)
x
x+y
2
2
(1) T : R → R :
7→
;
y
x−y
(
(2)
T :R →R :
2
2
x
y
)
(
7→
x+y
x+y
)
.
27. Considérer la transformation linéaire suivante:


 
2x − y + z
x
T : R3 → R3 :  y  7→  x + 3y − z  .
z
4x + 5y + 2z
(1) Vérifier que T est un automorphisme.
(2) Trouver l’inverse T −1 de T .
28. Dans chacun des cas suivants, trouver les valeurs de a pour que T soit un automorphisme.
(1) T : R3 → R3 : u 7→ Au, où

2
0 −1
A =  3 −1
4 .
a
3
2

(2) T : R3 → R3 est linéaire satisfaisant à la condition suivante:
 



1
2
1





T (e1 ) =
3 ,
1 , T (e3 ) =
−2 , T (e2 ) =
a
−1
3

avec {e1 , e2 , e3 } la base canonique de R3 .
29. Soit ρ la rotation du plan d’un angle
2π
.
3
(
T (e1 ) =
2
1
Soit T la transformation linéaire de R2 telle que
)
(
,
T (e2 ) =
1
2
)
,
avec {e1 , e2 } la base canonique de R2 .
(1) Trouver la matrice de ρ ◦ T et celle de T ◦ ρ dans {e1 , e2 }.
(2) Calculer l’image de u par ρ ◦ T et celui par T ◦ ρ, et en déterminer si ρ ◦ T = T ◦ ρ
ou non, où
( )
1
u=
.
1
67
30. Considérer la projection perspective P0,−3 de centre 0 sur le plan Z−3 . Soit ∆ le triangle
de sommets p1 = (1, 0, 1), p2 = (0, 1, 1) et p3 = (0, 0, 1).
(1) Calculer qi = P0,−3 (pi ), pour i = 1, 2, 3.
(2) Vérifier que l’image de ∆ par P0,−3 est le triangle de sommets q1 , q2 , q3 .
Indice: D’après la proposition 4.4.8, tout p ∈ ∆ s’écrit
p = sp1 + tp2 + (1 − s − t)p3 , avec 0 ≤ s, t, 1 − s − t ≤ 1.
Calculer P0,−3 (p) à l’aide de la matrice de P0,−3 en coordonnées homogènes. Pour la partie
(1), spécifier les valeurs s = 1, t = 0; s = 0, t = 1; et s = t = 0. Pour la partie (2), vérifier
que P0,−3 (p) = sq1 + tq2 + (1 − s − t)q3 .
68
Chapitre VI: Diagonalisation
Comme on a déjà vu, une transformation linéaire d’un espace vectoriel réel est complètement
déterminée par sa matrice dans une base. Le but de ce chapitre est d’étudier quand on peut
trouver une base dans laquelle la matrice de la transformation linéaire est diagonale. Comme
les matrices d’une transformation linéaire dans deux bases sont semblables, ceci se ramène
au problème quand une matrice carrée est semblable à une matrice diagonale. Pour ce faire,
on a besoin de notions de valeurs propres et de vecteurs propres. On parlera une application
de valeurs propres en informatique, soit l’algorithme PageRank.
6.1. Diagonalisation de matrices et de transformations linéaires
6.1.1. Définition. Une matrice carrée A est dite diagonalisable s’il existe une matrice
inversible P telle que P −1 AP est diagonale.
Exemple. Une matrice diagonale est diagonalisable.
6.1.2. Définition. Soit A ∈ Mn (R). On dit que λ0 ∈ R est une valeur propre de A s’il
existe un vecteur non nul u0 ∈ Rn tel que Au0 = λ0 u0 . Dans ce cas, u0 est dit vecteur propre
associé à λ0 .
Remarque. (1) Un vecteur propre est non nul, mais une valeur propre peut être nul.
(2) Si u0 est un vecteur propre de A associé à une valeur propre λ0 , alors au0 l’est aussi
pour tout nombre réel non nul a.
6.1.3. Théorème. Une matrice A ∈ Mn (R) est diagonalisable si, et seulement si, A
admet n vecteurs propres linéairement indépendants u1 , . . . , un . Dans ce cas, P = (u1 · · · un )
est inversible telle que


λ1 · · · 0


P −1 AP =  ... . . . ...  ,
0
···
λn
où λi est la valeur propre à laquelle ui est associé.
Le résultat précédent nous dit qu’une matrice carrée est diagonalisable si elle possède
assez de vecteurs propres linéairement indépendants. On va étudier comment trouver les
valeurs propres et les vecteurs propres associés.
6.1.4. Définition. Soient A ∈ Mn (R) et λ une variable. On appelle
χA (λ) = det(A − λIn ) = (−1)n λn + an−1 λn−1 + · · · + a1 λ + det(A)
le polynôme caractéristique de A.
69
Voici le résultat pour trouver les valeurs propres d’une matrice carrée.
6.1.5. Théorème. Soient A ∈ Mn (R) et λ0 ∈ R. Les énoncés suivants sont équaivalents.
(1) λ0 est une valeur propre de A.
(2) λ0 est une racine de χA (λ).
(3) rg(A − λ0 In ) < n.
Remarque. Comme χA (λ) est de degré n, A a au plus n valeurs propres réelles.
Le résultat suivant nous dit comment trouver les vecteurs propres d’une matrice carrée.
6.1.7. Théorème. Soit A ∈ Mn (R) dont λ0 est une valeur propre.
(1) Un vecteur u0 ∈ Rn est un vecteur propre de A associé à λ0 si, et seulement si, u0 est
un vecteur non nul de N (A − λ0 In ).
(2) Une base de N (A − λ0 In ) est une famille libre maximale de vecteurs propres de A
associés à λ0 .
Remarque. Soit λ0 une valeur propre de A.
(1) N (A − λ0 In ) s’appelle l’espace propre de A associé à λ0 .
(2) dimN (A−λ0 In ) = n−rg(A−λ0 In ), appelée multiplicité géométrique et notée mg(λ0 ).
(3) mg(λ0 ) est le plus grand nombre de vecteurs propres linéairement indépendants de A
associés à λ0 .
6.1.8. Définition. Soit A ∈ Mn (R) dont λ0 est une valeur propre. Le plus grand
exposant r tel que (λ0 − λ)r divise χA (λ) s’appelle multiplicité algébrique de λ0 , noté ma(λ0 ).
Le résultat suivant montre la relation entre la multiplicté géométrique et la multilicité
algébrique d’une valeur propre.
6.1.9. Proposition. Soit A ∈ Mn (R) dont λ0 est une valeur propre. Alors
1 ≤ mg(λ0 ) ≤ ma(λ0 ).
Par conséquent, si ma(λ0 ) = 1, alors mg(λ0 ) = ma(λ0 ).
On est prêt de donner un critère pour qu’une matrice carrée soit diagonalisable et une
méthode pour la diagonaliser si c’est possible.
6.1.10. Théorème. Une matrice A ∈ Mn (R) est diagonalisable si, et seulement si, les
deux conditions suivantes sont vérifiées.
(1) χA (λ) = (λ1 − λ)n1 · · · (λs − λ)ns , où ni > 0 et λi ∈ R avec λi ̸= λj lorsque i ̸= j.
(2) mg(λi ) = ma(λi ), c’est-à-dire, mg(λi ) = ni , pour i = 1, . . . , s.
70
Dans ce cas, si Bi est une base de N (A − λi In ), pour i = 1, . . . , s, alors B = B1 ∪ · · · ∪ Bs
est une base de Rn constituée de vecteurs propres de A, qui forment une matrice inversible
P telle que
{
}
n
n
z }|1 {
z }|s {
P −1 AP = diag λ1 , . . . , λ1 , . . . , λs , . . . , λs .
Plus précisément, la j-ième colonne de P est un vecteur propre associé au j-ième terme
diagonal de P −1 AP , pour j = 1, . . . , n.
On conclut cette section avec la diagonalisation de transformation linéaire.
6.1.11. Définition. Une transformation linéaire
existe une base {u1 , · · · , un } de Rn telle que

λ1 · · ·
 .. . .
[T ]{u1 ,··· ,un } =  .
.
0
···
T de Rn est dite diagonalisable s’il

0
..  ,
. 
λn
c’est-à-dire, T (ui ) = λi ui , pour i = 1, . . . , n. Dans ce cas, on dit aussi que T est un
changmenet d’échelle.
Exemple. Considérons la transformation linéaire:
( )
(
)
x
2x
2
2
T :R →R :
7→
.
y
3y
D’après le lemme 5.4.4, on voit que
(
[T ]{e1 ,e2 } =
2 0
0 3
)
.
Donc, T est un changement d’échelle. Si S 1 est le cercle unitaire défini par l’équation
x2 + y 2 = 1, alors T (S 1 ) = Σ, l’ellipse défini par l’équation
x2 y 2
+
= 1.
4
9
Voici le critère et le procédé de la diagonalisation de transformation linéaire.
6.1.12. Théorème. Soit T une transformation linéaire de Rn . Si A est la matrice de T
dans la base canonique, alors T est diagonalisable si, et seulement si, A est diagonalisable.
Dans ce cas, si {u1 , . . . , un } est une base de Rn composée de vecteurs propres de A associés
à λ1 , . . . , λn respectivement, alors


λ1 · · ·
0

..  .
[T ]{u1 ,...,un } =  ... . . .
. 
0 ···
71
λn
6.2. L’algorithme PageRank
Un réseau de pages web se compose d’un nombre fini de pages et des liens entre eux. Un
moteur de recherche affiche des pages web selon leur importance de telle sorte que la page la
plus importante apparaı̂t en premier. Le PageRank, inventé par Larry Page, est l’algorithme
utilisé par Google pour classer des pages web. Pour établir le modèle mathématique, on doit
représenter un rśeau de pages web par un graphe orienté.
6.2.1. Définition. Un réseau de n pages web est représenté par un graphe orienté tel
que défini ci-dessous:
(1) Les pages sont représentées par les entiers 1, 2, . . . , n.
(2) Un lien de la page i vers la page j sera représenté par une flèche i → j.
Exemple. Le graphe orienté suivant représente un réseau de 4 pages web et 8 liens.
1 o>
^> >
/ 3
@ O
>>>>
>>>>
>>>
/ 4
2
6.2.2. Définition. Soit W un réseau des pages web 1, 2, . . . , n. Soit lj le nombre de
liens sortant de la page j, pour j = 1, 2, . . . , n. On définit matrice des liens de W comme
suit:
L = (lij )n×n ,
{
où
lij =
1
,
lj
0,
s’il existe un lien de la page j vers la page i;
sinon.
L’algorithme PageRank attribue à chaque page une valeur entre 0 et 1, appelée score
d’importance, selon le principal suivant: le score d’importance d’une page web est d’autant
plus grand qu’elle a un grand nombre de pages importantes la référençant.
6.2.3. Définition. Soit W un réseau des pages web 1, . . . , n. Soit lj le nombre de
liens sortant de la page j, pour j = 1, . . . , n. À chaque page i, on donne une valeur xi avec
∑
0 < xi < 1, appelée score d’importance de la page i, de sorte que ni=1 xi = 1 et
∑ xj
xi =
, i = 1, . . . , n.
lj
∃ j→i
Dans ce cas,

x1
 .. 
 . 
xn

72
s’appelle un vecteur des scores d’importance.
On étudiera quand un web admet un seul vecteur des scores.
6.2.5. Définition. Un réseau de pages web est dit fortement connexe si toutes les deux
pages distinctes peuvent être rejointes par un chemin.
Remarque. Un réseau de pages web est fortement connexe si son graphe orienté admet
un cycle orienté qui passe toutes les pages.
6.2.6. Théorème. Soit W un réseau de pages web dont L est la matrice des liens. Si
W est fortement connexe, alors L admet un vecteur propre u0 associé à la valeur 1, et
v=
1
u0 ,
a
avec a la somme des termes de u0 , est le seul vecteur des scores d’importance de W .
6.3. Exercices
1. Dans chacun des cas suivants, trouver la valeur
valeur propre de la matrice donnée, et dans ce
de 2.



3 2
1 2 3
(2)  a 1
(1)  3 1 2  ;
2 3
2 1 a
réelle de a pour que la valeur 2 soit une
cas, calculer la multiplicité géométrique

1
3 .
1
2. Montrer qu’une matrice carrée A est inversible si et seulement si la valeur 0 n’est pas
valeur propre A.
3. Soit A une matrice inversible. Montrer que si λ0 est une valeur propre de A, alors
une valeur propre de A−1 .
4. Diagonaliser, si possible, la matrice suivante:

2 −1
1
 −1
1 −1  .
0
1
1

5. Vérifier que la transformation linéaire suivante est un changement d’échelle :
( )
(
)
x
2x + y
2
2
T :R →R :
7→
.
y
2x + 3y
73
1
est
λ0
6. Diagonaliser la transformation linéaire suivante :




x
−4x − 4y − 8z
T : R3 → R3 :  y  7→  4x + 6y + 4y  .
z
6x + 4y + 10z
7. (MATLAB) Considérer la matrice



A=


5
1
1 −1

1
5
1 −1 
.
1
1
5 −1 
−1 −1 −1
5
(1) Trouver le polynôme caractéristique de A.
(2) Trouver les valeurs propres de A.
(3) Donner une décomposition A = P DP −1 , avec P inversible et D diagonale.
8. Soit W un réseau de pages web représenté par le graphe suivant:
/
3
/
4
1 o
O
2 o
O
(1) Donner la matrice des liens L de W .
(2) Vérifier que W est fortement connexe.
(3) Donner le vecteur des score d’importance de W .
9. (MATLAB) Donner le vecteur des scores d’importance du réseau des pages web suivant:
1 o>
^>>>
4
o
>> @ 3O
@ 2
O
>
^
>>>>
>
>>>>
>>>>
>>>>
>>>>
>>> >
/ 5
/ 6
74
Chapitre VII: Espaces euclidiens
Outre la structure d’espace vectoriel réel, le plan admet une géométrie euclidienne qui
mésure la longueur, la distance, et l’angle de vecteurs. Le but de ce chapitre est de généraliser
ces notions aux espaces vectoriels réels de dimensions supérieures.
7.1. Produit scalaire
La géométrie euclidienne de Rn est basée sur la notion de produit scalaire tel que défini
ci-dessous.
7.1.1. Théorème. Le produit scalaire sur Rn est, par définition, la fonction de deux
variables suivante:
< , >: Rn × Rn → R : (u, v) 7→< u, v >:= uT v,
qui est bilinéaire, symétrique et défini positif, c’est-à-dire, pour u, v, w ∈ Rn et a, b ∈ R,
(1) < au + bv, w >= a < u, w > +b < v, w >; < u, av + bw >= a < u, v > +b < u, w >;
(2) < u, v >=< v, u >;
(3) < u, u > est strictement positif pour tout u ̸= 0.
Remarque. Muni du produit scalaire, l’espace réel Rn s’appelle espace euclidien.
À l’aide de la notion du produit scalaire, on a une autre interprétation du produit de
matrices suivante.
7.1.2. Lemme. Soient A = (A1 · · · Am ) ∈ Mn×m (R) et B = (B1 · · · Bp ) ∈ Mn×p (R)
partagées en colonnes. Alors
 T 
A1
 .. 
T
A B =  .  (B1 · · · Bp ) = (ATiBj )m×p = (< Ai , Bj >)m×p .
ATm
On généralise la notion de la longueur d’un vecteur du plan comme suit.
7.1.3. Définition. Pour tout u ∈ Rn , on définit la longueur de u comme étant
||u|| =
√
< u, u >,
un nombre réel non négatif. En outre, un vecteur de longueur 1 est dit unitaire.
75
Le résultat suivant est évident.
7.1.4. Lemme. Si u ∈ Rn , alors u ̸= 0 si, et seulement si, ||u|| ̸= 0; et dans ce cas,
est unitaire, appelé le vecteur unitaire de même direction que u.
u
||u||
7.1.5. Définition. Si u, v ∈ Rn , alors ||u − v|| s’appelle distance entre u et v, notée
d(u, v).
La longueur de vecteur satisfait à une inégalité importante énoncées ci-dessous.
7.1.6. Inégalité de Cauchy-Schwarz. Si u, v ∈ Rn , alors
| < u, v > | ≤ ||u|| · ||v||.
L’inégalité de Cauchy-Schwartz nous permet de généraliser la notion d’un angle dans le
plan comme suit.
7.1.7. Définition. Soient u, v ∈ Rn tous non nuls. Comme
| < u, v > |
≤ 1,
||u|| · ||v||
il existe un unique θ ∈ [0, π] tel que
cos θ =
< u, v >
.
||u|| · ||v||
On dit alors que θ est angle non orienté entre u et v.
7.2. Orthogonalité
7.2.1. Définition. Deux vecteurs u, v ∈ Rn sont dits orthogonaux, noté u ⊥ v, si
< u, v >= 0.
Remarque. (1) Pour tout u ∈ Rn , on a u ⊥ 0.
(2) Si u, v ∈ Rn sont tous non nuls, alors ils sont orthogonaux si, et seulement si, l’angle
non orienté entre eux est π2 .
7.2.2. Lemme. Si F est un sous-espace vectoriel de Rn , alors
F ⊥ = {u ∈ Rn | u ⊥ v, pour tout v ∈ F }
est un sous-espace vectoriel de Rn , appelé orthogonal de F .
76
7.2.3. Théorème. Soit F un sous-espavce vectoriel de Rn .
(1) dim(F ) + dim(F ⊥ ) = n.
(2) (F ⊥ )⊥ = F .
(3) Si F est engendré par v1 , . . . , vr , alors
F ⊥ = {u ∈ Rn | u ⊥ vi , i = 1, . . . , r}.
7.2.4. Corollaire. Si A ∈ Mm×n (R), alors C(A)⊥ = N (AT ).
Plus généralement, on a la notion suivante.
7.2.5. Définition. Soit r ≥ 1. Une famille {u1 , . . . , ur } de vecteurs de Rn est dite
(1) orthogonale si < ui , uj >= 0, pour tous 1 ≤ i, j ≤ r avec i ̸= j;
(2) orthonormée si, pour tous 1 ≤ i, j ≤ r, on a
{
0, si i ̸= j;
< ui , uj >=
1, sinon.
Remarque. Une famille d’un seul vecteur est orthogonale.
Le résultat suivant est une conséquence du lemme 7.1.2.
7.2.6. Proposition. Si A ∈ Mm×n (R), alors les colonnes de A forment
(1) une famille orthogonale si et seulement si ATA est diagonale;
(2) une famille orthonormée si et seulement si ATA = In .
Le résultat nous comment obtenir une famille orthonormée à partir d’une famille orthogonale.
7.2.7. Lemme. Soit {u1 , . . . , ur } une famille orthogonale de vecteurs de Rn . Si les ui
sont tous non nuls, alors {u1 , . . . , ur } est libre, et
{
}
u1
ur
,...,
||u1 ||
||ur ||
est une famille orthonormée.
Remarque. En générale, une famille orthogonale n’est pas nécessairement libre. Cependant, une famille orthonormée est toujours libre.
7.2.8. Définition. Soit F un sous-espace vectoriel de Rn . Une base de F est dite orthogonale ou orthonormée si elle est une famille orthogonale ou orthonormée, respectivement.
Exemple. (1) La base canonique {e1 , . . . , en } de Rn est une base orthonormée.
77
(2) Si L est une droite vectorielle engendré un vecteur u, alors
{
}
u
||u||
est une base orthonormée de L.
Le résultat suivant explique l’importance d’une base orthonormée.
7.2.9. Théorème. Soit F un sous-espace vectoriel de Rn , dont {u1 , . . . , ur } est une
base orthonormée. Si v ∈ F , alors
v =< u1 , v > u1 + · · · + < ur , v > ur .
7.2.10. Définition. Soit F un sous-espace vectoriel de Rn , dont {u1 , . . . , ur } est une
base orthonormée. Pour tout u ∈ Rn , on définit sa projection orthogonale sur F par
projF u =< u1 , u > u1 + · · · + < ur , u > ur .
Le résultat suivant ramasse les propriétés de projection orthogonale.
7.2.11. Théorème. Soit F un sous-espace vectoriel de Rn , ayant une base orthonormée.
Pour tout u ∈ Rn , on a
(1) u − proj F u ∈ F ⊥ ;
(2) d(u, proj F u) ≤ d(u, v), pour tout v ∈ F
(3) u ∈ F si et seulement si u = proj F u.
On considère un cas particulier de la projection orthogonale sur une droite.
7.2.12. Proposition. Soit L une droite vectorielle de Rn engendré par un vecteur v.
Pour tout u ∈ Rn , on a
< v, u >
proj F u =
v,
< v, v >
ce qui s’appelle aussi projection orthogonale de u sur v, notée proj v u.
Remarque. Ceci est illustrée par le diagramme suivant:
u
36
u − projv u
-
projv u
-v
Le résultat suivant affirme en particulier que tout sous-espace vectoriel de Rn admet une
base orthonormée.
78
7.2.13. Procédé de Gram-Schmidt. Soit F un sous-espace vectoriel de Rn , dont
{u1 , . . . , ur } est une base. Si l’on pose successivement
v1 = u1 ;
v2 = u2 −
<v1 ,u2 >
<v1 ,v1 >
v1 ;
v3 = u3 −
<v1 ,u3 >
<v1 ,v1 >
v1 −
<v2 ,u3 >
<v2 ,v2 >
v2 ;
..
.
= ur −
<v1 ,ur >
<v1 ,v1 >
v1 −
<v2 ,ur >
<v2 ,v2 >
v2 − · · · −
vr
<vr−1 ,ur >
<vr−1 ,vr−1 >
vr−1 ,
alors {v1 , v2 , . . . , vr } est une base orthogonale de F , et donc
{
}
v1
v2
vr
,
, ··· ,
||v1 || ||v2 ||
||vr ||
est une base orthonormée de F .
Soit A ∈ Mm×n (R) de rang n. D’après le corollaire 4.3.8, les colonnes de A forment une
base de C(A). En appliquant le procédé de Gram-Schmidt à cette base, on obtient une base
orthonormée de C(A). En vue de la construction du Gram-Schmidt, on obtient le résultat
suivant.
7.2.14. Théorème. Soit A ∈ Mm×n (R) de rang n. Soit {C1 , . . . , Cn } la base orthonormée de C(A) obtenue en appliquant Gram-Schmidt aux colonnes de A. Si l’on pose
Q = (C1 · · · Cn ), alors QT Q = In et R = QT A est triangulaire supérieure telles que
A = QR,
appelée décomposition QR de A.
7.3. Géométrie analytique
Le but de cette section est d’appliquer les résultats de la section précédante pour étudier
la géométrie de l’espace R3 . Soit P un plan vectoriel de R3 . D’après le théorème 7.2.3(1),
P ⊥ est de dimension 1, c’est-à-dire, une droite vectorielle engendré par un vecteur non nul.
Cette observation conduit à la notion suivante.
7.3.1. Définition. Soit P un plan vectoriel de R3 . Un vecteur non nul de P ⊥ s’appelle
vecteur normal à P .
Comme P = (P ⊥ )⊥ par le théorème 7.2.3, on a le résultat suivant.
7.3.2. Proposition. Un plan vectoriel P de R3 est défini par l’équation
ax + by + cz = 0
79
si et seulement si


a
 b 
c
est un vecteur normal à P .
On va donner une méthode pour trouver un vecteur normal à un plan vectoriel, en
utilisant la notion du produit vectoriel tel que défini ci-dessous.
7.3.3. Définition. Soit {e1 , e2 , e3 } la base canonique de R3 . Pour




x1
x2
u =  y1  , v =  y2  ∈ R3 ,
z1
z2
on définit le produit vectoriel de u et v par
u ∧ v = (y1 z2 − y2 z1 )e1 − (x1 z2 − x2 z1 )e2 + (x1 y2 − x2 y1 )e3 ∈ R3 ,
c’est-à-dire,
x1 x2 e1 u ∧ v = y1 y2 e2 ,
z z e 1
2
3
un déterminant formel développé suivant la dernière colonne.
7.3.4. Proposition. Soient u, v des vecteurs non co-linéaires de R3 . Si w = u ∧ v, alors
(1) u ∧ v est un vecteur normal au plan vectoriel engendré par u et v.
(2) det(u, v, u ∧ v) = ||u ∧ v||2 > 0.
On conclut cette section par la notion d’un angle orienté entre deux vecteurs de R3 .
7.3.5. Définition. Soit P un plan vectoriel de R3 auquel w est un vecteur normal. Si
u, v ∈ P sont non nuls, alors un angle de u à v orienté par w est un angle θ tel que
cos θ =
< u, v >
det(u v w)
et sin θ =
.
||u|| · ||v||
||u|| · ||v|| · ||w||
Remarque. Si w′ est un autre vecteur normal à P et θ′ est l’angle orienté par w′ de u
à v, alors w′ = aw pour un certain a ̸= 0, et donc
{
θ, si a > 0;
′
θ =
−θ, si a < 0.
7.4. Matrices orthognales
80
Le but de cette section est d’étudier une classe importante de matrices, appelées matrice
orthogonales. En tant que cas particulier de la Proposition 7.2.7, on a le résultat suivant.
7.4.1. Théorème. Soit A ∈ Mn (R) de colonnes A1 , . . . , An . Les conditions suivantes
sont équivalents:
(1) {A1 , . . . , An } est une base orthonormée de Rn .
(2) ATA = In .
(3) A est inversible avec A−1 = AT .
Dans ce cas, on dit que A est orthogonale.
Remarque. Soit A une matrice orthogonale.
(1) Si l’on permute des colonnes de A, la matrice résultante est orthogonale.
(2) Si l’on multiplie une colonne de A par −1, la matrice résultante est orthogonale.
Exemple. (1) Une matrice identité est orthogonale.
(2) Pour tout angle θ, les matrices suivantes sont orthogonales:
(
) (
)
cos θ − sin θ
− sin θ cos θ
;
;
sin θ
cos θ
cos θ sin θ
 
cos θ
1 0
0
 0 cos θ − sin θ  ;  0
sin θ
0 sin θ
cos θ


 
cos θ − sin θ 0
0 − sin θ
cos θ 0  .
1
0  ;  sin θ
0
0
1
0
cos θ
On ramasse des propriétés de matrices orthogonales dans le résultat suivant, qui est une
conséquence du théorème 2.7 et du corollaire 2.9.
7.4.2. Lemme. Soient A, B ∈ Mn (R).
(1) Si A est orthogonale, alors det(A) = ±1.
(2) A est orthogonale si, et seulement si, AT est orthogonale.
(3) Si A, B sont orthogonales, alors AB est orthogonale.
Le résultat suivant est un cas particulier du théorème 7.2.13.
7.4.3. Corollaire. Si A est une matrice inversible, alors
A = QR,
où Q est orthogonale et R est triangulaire supérieure.
Si {u1 , . . . , un } est une base orhtonormée de Rn alors, d’après la définition, (u1 · · · un ) est
une matrice orthogonale. Le résultat suivant, un cas particulier de la proposition 4.2.9 et
du théorème 4.2.10, nous dit comment calculer les coordonnées d’un vecteur dans une base
orthonormée et comment trouver la matrice de passage entre deux bases orthonormées.
81
7.4.4. Théorème. Soit {u1 , . . . , un } une base orhtonormée de Rn .
(1) Pour tout u ∈ Rn , on a
{u}
P{u1 ,...,un } = (u1 · · · un )T u.
(2) Des vecteurs v1 , . . . , vn ∈ Rn forment une base orthonormée si, et seulement si,
est orthogonale; et dans ce cas,
{v ,...,v }
P{u11,...,unn }
{v ,...,v }
P{u11,...,unn } = (u1 · · · un )T (v1 · · · vn ).
D’après le théorème 7.4.4, la matrice de passage entre deux bases orthonormées est orthogonale. Le résultat suivant est un cas particulier du théorème 5.3.7.
7.4.5. Théorème. Soient {u1 , . . . , un } et {v1 , . . . , vn } deux bases orthonormées de Rn .
Si T est une transformation linéaire de Rn , alors
[T ]{v1 ,...,vn } = P T [T ]{u1 ,...,un } P,
où P est la matrice de passage de {u1 , . . . , un } à {v1 , . . . , vn }.
7.5. Matrices symétriques
Le but de cette section est d’étudier les matrices symétriques. On montrera que toute
matrice symétrique est diagonalisable par une matrice orthogonale. En tant qu’application,
on donnera la décomposition en valeurs singulières d’une matrice quelconque.
7.5.1. Proposition. Si A ∈ Mn (R) est symétrique, alors
(1) χA (λ) = (λ1 − λ) · · · (λn − λ), avec λ1 , . . . , λn ∈ R ;
(2) deux vecteurs propres de A associés à deux valeurs propres distinctes sont orthogonaux.
Voici le procédé de la diagonalisation d’une matrice symétrique par une matrice orthogonale.
7.5.2. Théorème de l’axe principal. Si A ∈ Mn (R) est symétrique, alors il existe
une matrice orthogonale P telle que P −1 AP = P T AP est diagonale, où P est trouvée de la
façon suivante.
(1) On factorise χA (λ) = (λ1 − λ)n1 · · · (λs − λ)ns avec ni > 0 et λi ̸= λj lorsque i ̸= j.
(2) Pour chaque i = 1, . . . , s, on trouve
(i) une base Bi de N (A − λi In ), en résolvant (A − λi In )X = 0.
(ii) une base orthonormée Oi de N (A − λi In ), en appliquant le procédé de GramSchmidt à Bi .
82
(3) O = O1 ∪ · · · ∪ Os est une base orthonormée de Rn dont les vecteurs forment une
matrice orthogonale P telle que
{
}
n
n
z }|1 {
z }|s {
P −1 AP = P T AP = diag λ1 , . . . , λ1 , . . . , λs , . . . , λs .
Remarque. Le théorème de l’axe principal sera utile dans la mécanique quantique.
7.5.4. Définition. Une matrice symétrique A ∈ Mn (R) est dite définie positive si
u Au > 0, pour tout vecteur non nul u ∈ Rn .
T
Exemple. In est définie positive.
Le résultat suivant nous dit comment déterminer la positivité définie et semi-définie d’une
matrice symétrique en terme de ses valeurs propres.
7.5.5. Théorème. Une matrice symétrique est définie positive si et seulement si ses
valeurs propres sont toutes strictement positives.
Remarque. Une matrice symétrique définie positive est inversible.
On conclut cette section par la décomposition en valeurs singulières de matrices, qui est
appliquée au traitement d’images.
7.5.6. Théorème. Si A ∈ Mm×n (R) de rang r, alors ATA et AAT sont semi-défini
positives avec
χATA (λ) = (λ1 − λ) · · · (λr − λ)(−λ)n−r
et
χAAT (λ) = (λ1 − λ) · · · (λr − λ)(−λ)m−r ,
avec λ1 ≥ · · · ≥ λr > 0. En particulier,
(1) ATA est définie positive si et seulement si rg(A) = n.
(2) AAT est définie positive si et seulement si rg(A) = m.
Remarque. Les matrices ATA et AAT ont les mêmes valeurs propres non nulles en
comptant les multiplicités algébriques.
En vue des théorèmes 7.5.5 et 7.5.6, on peut définir la notion suivante.
7.5.7. Définition. Soit A ∈ Mm×n (R). Supposons que ATA a pour valeurs propres
λ1 ≥ λ2 ≥ · · · ≥ λn ≥ 0.
83
(1) Les valeurs singulières de A sont les valeurs suivantes:
√
σ1 ≥ σ2 ≥ · · · ≥ σn , où σi = λi .
(2) La forme en valeurs singulières de A est la matrice diagonale rectangulière suivante:
Σ = (σij )m×n ,
{
où
σij =
0,
σi ,
si i ̸= j;
si i = j ≤ min{m, n}.
Les résultat suivant relie les vecteurs propres de ATA et ceux de AAT associés à une
même valeur propre non nulle.
7.5.8. Lemme. Soit A ∈ Mm×n (R) dont σ0 est une valeur singulière non nulle. Si
N (ATA − σ02 I) a pour base orthonormée {v1 , . . . , vs }, alors N (AAT − σ02 I) a pour base
orthonormée
{
}
1
1
(Av1 ), . . . , (Avs ) .
σ0
σ0
Voici le procédé pour trouver une décomposition en valeurs singulières d’une matrice.
7.5.9. Théorème. Soit A ∈ Mm×n (R) de rang r ( > 0) et de valeurs singulières
σ1 ≥ · · · ≥ σr > σr+1 = · · · = σn = 0.
(1) Trouvons une base orthonormée {v1 , . . . , vr , vr+1 , . . . , vn } de Rn avec vi un vecteur
propre de ATA associé à σi2 , et posons V = (v1 · · · vr vr+1 · · · vn ).
(2) Posons ui =
1
(Avi )
σi
∈ Rm , pour i = 1, . . . , r.
(3) Si r = m, posons alors U = (u1 · · · um ).
(4) Si r < m, trouvons alors une base orthonormée {ur+1 , . . . , um } de N (AAT ), et
posons U = (u1 · · · ur ur+1 · · · um ).
(5) Si Σ est la forme en valeurs singulières de A, alors
A = UΣ V T
avec U, V orthogonales, appelée décomposition en valeurs singulières de A.
7.6. Transformations orthogonales
Le but de cette section est d’étudier les transformations orthogonales telles que définies
ci-dessous.
84
7.6.1. Définition. Une transformation linéaire T de Rn est dite orthogonale si, pour
tous u, v ∈ Rn , on a
< T (u), T (v) >=< u, v > .
Exemple. Pour tout c ∈ R, l’homothétie
Hc : Rn → Rn : u 7→ cu
est orthogonale si, et seulement si, c = ±1.
Voici des propriétés des transformations orthogonales.
7.6.2. Proposition. Soit T une transformation orthogonale de Rn .
(1) ||T (u)|| = ||u||, pour tout u ∈ Rn .
(2) d(T (u), T (v)) = d(u, v), pour tous u, v ∈ Rn .
(3) Si u, v ∈ Rn sont non nuls, alors l’angle non orienté entre T (u), T (v) est égal à celui
entre u, v.
Remarque. Une transformation orthogonales de Rn , avec 2 ≤ n ≤ 3, transforme les
rectangle en rectangles, et les carrés en carrés.
Le résultat suivant donne un critère pour vérifier si une transformation linéaire est orthogonale ou non.
7.6.3. Théorème. Soit {u1 , . . . , un } une base orthonormée de Rn . Si T est une transformation linéaire de Rn , alors les conditions suivantes sont équivalentes:
(1) T est orthogonale;
(2) {T (u1 ), . . . , T (un )} est une base orthonormée de Rn ;
(3) [T ]{u1 ,...,un } est orthogonale.
Dans ce cas, la matrice de passage de la base {u1 , . . . , un } à la base {T (u1 ), . . . , T (un )}
est [T ]{u1 ,...,un } .
Remarque. Une transformation orthogonale est un automorphisme.
Exemple. La rotation ρθ d’un angle θ du plan est orthogonale. En effet, {e1 , e2 } est une
base orthonormée de R2 et
(
)
cos θ − sin θ
[ρ]{e1 ,e2 } =
,
sin θ
cos θ
ce qui est orthogonale.
Le résultat suivant est une application importante de la décomposition en valeurs singulières.
85
7.6.4. Théorème. Toute application linéaire T : Rn → Rm se décompose comme
T = ρ2 ◦ σ ◦ ρ1 ,
où ρ1 est une transformation orthogonale de Rn , et σ est un changement d’échelle, et ρ2 est
une transformation orthogonale de Rm .
On a vu que les rotations de R2 sont orthogonales. On va définir les rotations de R3 .
7.6.5. Définition. Soit L une droite vectorielle de R3 engendré par u. Alors u est un
vecteur normal au plan L⊥ . Une rotation ρθ,u autour de L d’un angle θ orienté par u est une
transformation linéaire de R3 satisfaisant les deux conditions suivantes.
(1) Si v ∈ L, alors ρθ,u (v) = v.
(2) Si v ∈ L⊥ est non nul, alors ρθ,u (v) ∈ L⊥ est non nul et l’angle de v à ρθ,u (v) orienté
par u est θ.
Remarque. En bref, on appelle ρθ,u la rotation d’un angle θ autour de u.
Le résulat suivant nous dit comment calculer les rotations de R3 .
u
7.6.6. Théorème. Soit L une droite de R3 engendré par u. Si v1 = ||u||
, et {v2 , v3 } est
⊥
une base orthonormée de L avec det(v1 v2 v3 ) > 0, alors {v1 , v2 , v3 } est une base orthonormée
de R3 telle que


1 0
0
[ρθ ,u ]{v1 ,v2 ,v3 } =  0 cos θ − sin θ  .
0 sin θ
cos θ
Remarque. Une rotation de R3 est une transformation orthogonale.
Voici la procédé pour calculer une rotation de R3 .
7.6.7. Théorème. Soit L une droite vectorielle de R3 engendrée par un vecteur u.
(1) Trouver un vecteur non nul v ∈ L⊥ .
(2) Posant w = u ∧ v, on obtient une base orthogonale {v, w} de L⊥ .
(3) On a une base orthonormée {u1 , u2 , u3 } de R3 avec det(u1 u2 u3 ) > 0, où
u1 =
u
v
w
, u2 =
, u3 =
.
||u||
||v||
||w||
(4) Si ρ est la rotation autour de u d’un angle θ, alors

1 0
0
=  0 cos θ − sin θ  := A.
0 sin θ
cos θ

[ρ]{u1 ,u2 ,u3 }
86
(5) Posant P = (u1 u2 u3 ), on obtient
[ρ]{e1 ,e2 ,e3 } = P AP T .
Exemple. Soit L la droite de R3 engendré par
 
1

u=
1 .
1
Trouver la rotation ρ autour de L d’un angle
π
3
orienté par u.
Solution. D’après le théorème 7.2.3(3), L⊥ est défini par l’équation
x + y + z = 0.
Posant y = 1 et z = 0, on trouve x = −1. Ceci donne


−1
v =  1  ∈ L⊥ .
0
Posons

−1
w = u ∧ v =  −1  .
2

Posons





1
−1
−1
v
w
u
1
1
1
u1 =
= √  1  , u2 =
= √  1  , u3 =
= √  −1  .
||u||
||v||
||w||
3
2
6
1
0
2

Alors {u1 , u2 , u3 } est une base orthonormée de R3 telle que




1
0
0
2
0
0
√
1
[ρ]{u1 ,u2 ,u3 } =  0 cos π3 − sin π3  =  0
1 − 3  := A.
√
2
0 sin π3
cos π3
0
3
1
Posant
√

 √
2 − 3 −1
√
√
1
P = (v1 v2 v) = √  2
3 −1  ,
√
6
2
0
2
on obtient

2 −1
2
1
= P AP T =  2
2 −1  .
3
−1
2
2

[ρ]{e1 ,e2 ,e3 }
87
C’est-à-dire, ρ est de la forme




x
2x − y + 2z
1
ρ : R3 → R3 :  y  7→  2x + 2y − Z  .
3
z
−x + 2y + 2z
On conclut cette section par une application dans la stéréovision.
7.6.8. Théorème. Soit M un objet situé à la position (a, b, c) dans un repère caméra
initial de R3 . Si l’on tourne la caméra d’un angle θ autour d’un vecteur non nul u, alors la
position (x, y, z) de M dans le nouveau repère caméra est donnée par
(x, y, z) = (a, b, c)A,
où A est la matrice de ρθ,u dans la base canonique de R3 .
Démonstration. Par l’hypothèse, la colonne des coordonnées de M dans la base canonique {e1 , e2 , e3 } de R3 est
 
a

v=
b .
c
Étant orthogonale, ρθ,u transforme {e1 , e2 , e3 } en une base orthonormée {u1 , u2 , u3 }, où
ui = ρθ,u (ei ), i = 1, 2, 3. D’après le théorème 7.6.3, A est la matrice de passage de {e1 , e2 , e3 }
à {u1 , u2 , u3 }. Supposons que M est situé à la position (x, y, z) dans le nouveau repère
caméra. Alors la colonne des coordonnées de M dans {u1 , u2 , u3 } est

x
w =  y .
z

D’après le théorème 7.4.4(1), w = AT v. D’où
(x, y, z) = wT = v T A = (a, b, c)A.
Exemple. Dans un repère caméra initial de R3 , un objet M est situé à la position
(1, 1, −2). Si l’on tourne la caméra d’un angle π3 autour du vecteur

1
u =  1 ,
1

quel est la position de M dans le nouveau repère caméra de R3 ?
88
Solution. Désignons par ρ la rotation de R3 d’un angle
π
3
autour de u. On a vu que

[ρ]{e1 ,e2 ,e3 }

2 −1
2
1
=  2
2 −1  := A.
3
−1
2
2
D’après le théorème 7.6.7, la position de M dans le nouveau repère caméra est donnée par

2 −1
2
1
(1, 1, −2)A = (1, 1, −2)  2
2 −1  = (2, −1, −1).
3
−1
2
2

7.7. Méthode des moindres carrés
La méthode des moindres carrés, indépendamment élaborée par Legendre en 1805 et
Gauss en 1809, permet de comparer des données expérimentales à un modèle mathématique
censé décrire ces données.
7.7.1. Définition. Soit un système d’équations linéaires
AX = B, où A ∈ Mm×n (R).
Un vecteur S ∈ Rn s’appelle solution à moindres carrés si, pour tout u ∈ Rn , on a
||AS − B|| ≤ ||Au − B||,
c’est-à-dire, AS = proj C(A) B.
Remarque. Si le système AX = B est compatible, alors une solution à moindres carrés
est une solution exacte.
Le résultat suivant nous donne une méthode très pratique pour trouver les solutions à
moindres carrés d’un système d’équations linéaires.
7.7.2. Théorème. Soit un système d’équations linéaires
AX = B, où A ∈ Mm×n (R).
Un vecteur S ∈ Rn est une solution à moindres carrés de ce système si et seulement si S est
une solution exacte du système compatible suivant:
(ATA)X = ATB.
89
Si A ∈ Mm×n (R) est de rang n, alors ATA est définie positive. En particulier, ATA est
inversible. Cette observation nous donne le résultat suivant.
7.7.3. Corollaire. Soit un système d’équations linéaires
AX = B, où A ∈ Mm×n (R).
Si rg(A) = n, alors le système admet une seule solution à moindres carrés donnée par
S = (ATA)−1 AT B.
Dans la pratique, on veut décrire la relation entre deux variables x et y selon des données
observées. Ces données observées sont représentées par des points du plan. Si ces points
ont tendance à former une droite, on peut trouver une droite qui correspond le mieux à ces
points.
Exemple. En enregistrant la pression (en atm) d’un gaz à température (en Celsius)
différente, on obtient les données suivantes:
p
6
3
• (300, 2.4)
• (200, 2)
2
• (100, 1.5)
1
0
100
200
t
300
Donner l’estimation de la pression du gaz à 400 degrés Celsius.
Solution. Comme les points ont tendance à former une droite, on va trouver une droite
qui correspond le mieux les données observées. Supposons que p = at + b, où a, b ∈ R.
D’après les données observées, on considère le système suivant:
100a + b = 1, 5
200a + b = 2
300a + b = 2, 4.



1, 5
100 1
A =  200 1  et B =  2  .
2, 4
300 1

90
Comme les colonnes de A sont linéairement indépendantes, la matrice
(
)
14 × 104 6 × 102
T
A A=
6 × 102
3
est inversible, et le système admet une seule solution à moindres carrés suivante:
(
)(
)
(
)
1
1
3
−6 × 102 12, 7 × 102
2, 7 × 102
T
−1
T
S = (A A) (A B) =
=
.
5, 9
6 × 104 −6 × 102 14 × 104
6 × 104 6, 4 × 104
C’est-à-dire, la droite cherchée est définie par l’équation
p=
2, 7
3, 2
t+
.
600
3
Ainsi la pression sera environ 2,86 atm à la température 400 degrés Celsius.
Lorsque les points représentant des données expérimentales ont tendance à former une
courbe, on peut trouver une fonction polynomiale qui correspond le mieux à ces points.
Exemple. Étant données des données expérimentales suivantes:
y
6
(16, 2)
2
•
(4, 1) •
(8, 0)
-
•
0
4
8
x
16
•
(8, −1)
Donner une fonction polynomiale quadratique
x = a + by + cy 2 ,
qui correspond le mieux à ces données.
Solution. D’après les données observées, on obtient le système suivant:
a − b + c
a
a + b + c
a + 2b + 4c
Ceci donne



A=

=
=
=
=
8
8
4
16.


8
1 −1 1


1
0 0 
 8
 et B = 
1
1 1 
 4
16
1
2 4
91



.

Ainsi




4 2 6
36
AT A =  2 6 8  et AT B =  28  .
6 8 18
76
Comme les colonnes de A sont linéairement indépendantes, AT A est inversible. D’après le
corollaire 7.6.3, le système admet une seule solution à moindres carrés suivante:

 

36
5
11
3 −5
1 
S = (AT A)−1 (AT B) =
3
9 −5   28  =  −1  .
20
−5 −5
5
76
3

C’est-à-dire, la function polynomiale quadratique cherchée est définie par l’équation
x = 5 − y + 3y 2 .
7.8. Exercices
1. Dans chacun des cas suivants, à l’aide



1 −1 1
2



0 0 
 1
 0
(1) A = 
, B = 
1 1 
 1
 1
1
2 4
2




(2) A = 


2
3
2
1
2

1
0
1 −1 


4 −1  ,

3 −1 
5
1




B=


du Lemme 7.1.2, calculer AT B.



;

−1
1
0
1
2




.


2. Dans chacun des cas suivants, à l’aide du Lemme 7.1.2, calculer calculer AT A.




1 −1
1
1
2


1 −1 
 1


(1) A =
(2) A = 
2
1 ;
.
2
3 
 0
2 −2
0
2 −2
3. Trouver le vecteur unitaire de même direction que le vecteur suivant:


4


 −2 
.

 3 
1
92
4. Dans chacun des cas suivants, calculer la distance entre u et v.

 





0
3
1
5


 




 1 
 5 
 0 
 −3 
(1) u = 
 , v =   ; (2) u = 
, v = 
.
 −4 
 1 
 1 
 −1 
1
1
−4
1
5. Dans chacun des cas suivants, calculer l’angle non orienté entre u et v.

 √ 



 
1
− 3
−2
1







, v=
(1) u =
; (2) u =
0
0
1 , v=
1 .
√
−1
3
−1
2
6. Donner une base de F ⊥ , où F est le sous-espace vectoriel de R4 engendré par




2
1




 1 
 −1 
u=
.
, v = 
 −1 
 0 
2
1
7. À l’aide du corollaire 7.2.3, donner une base de C(A)⊥ , où




1 0 2
1 −1 1
 0 1 1 




1
0
0




(1) A = 
(2) A =  1 1 3  .
;


1 1 
 1
 0 0 0 
1
2 4
1 1 3
8. Considérer la matrice suivante:



A=


−1
1

1 −1 
.
2
3 
2 −2
(1) À l’aide du lemme 7.1.2, calculer ATA.
(2) Déterminer, à l’aide de la proposition 7.2.10, si les colonnes de A forment une base
orthonormée ou non de C(A).
9. Vérifier, à l’aide de la Proposition 7.2.9, que les colonnes de A forment une base
orthonormée de C(A), où


− √15 √25
 2

√
√1  .
A=
 5
5 
0
0
93
10. Soient


A = (A1 A2 ) = 

√3
11
√1
11
√1
11
− √16
√2
6
√1
6


;



1
u =  1 ;
−1


4
v =  −1  .
0
(1) En calculant AT A, vérifier que A1 , A2 forment une base orthonormée de C(A).
(2) En calculant la projection orthogonale de v sur C(A), vérifier que v ∈ C(A).
(3) Donner la projection orthogonale de u sur C(A), et en déterminer si u appartient
à C(A) ou non.
11. Considérer les vecteurs de l’espace euclidien R4 suivants:




1
1




 −2 
 0 
;
v
=
u=


.
 2 
 −1 
1
0
(1) Donner une base orthonormée du sous-espace vectoriel F engendré par u.
(2) Calculer la projection orthogonale de v sur F .
12. Déterminer si les vecteurs suivants forment une base orthonormée de R3 ou non:
 1 
 2 
 2 
3
 2 

 , u2 = 
u1 = 
−
 3 

− 23
3
2
3
− 13
3



 , u3 =  − 1  .

 3 
2
3
13. Soit F le sous-espace vectoriel de R4 engendré par u1 , u2 , u3 , où





 
1
1
−1
1





 
 0
 0 
 1 
 1 
u1 =   , u2 = 
;v = 
 , u3 = 
 −1
 1 
 1 
 0 
0
−1
0
1
(1) Vérifier que {u1 , u2 , u3 } est une base orthogonale de F .
(2) Donner, à l’aide du lemme 7.2.5 une base orthonormée de F .
(3) Donner la projection orthogonale de v sur F .
94



.

14. Soit F le sous-espace vectoriel de R4 engendré par u1 , u2 , u3 , u4 ,







−1
0
−2
1







 1 
 1 
 3 
 1
u1 = 
 , u2 = 
 , u3 = 
 , u4 = 
 0 
 1 
 1 
 0
1
−1
1
1
où






;v = 


1
0
0
1



.

(1) À l’aide du théorème 4.3.7, donner une base de F .
(2) En appliquant le procédé de Gram-Schmidt, donner une base orthonormée de F .
(3) Calculer projF v; et en déterminer si v appartient au F ou non.
15. Considérer la matrice suivante:



A=

1
1
1
1
0
1
1
1
1
2
2
2



.

(1) Vérifier que les colonnes de A forment une base de C(A);
(2) Donner une base pour chacun de C(A) et C(A)⊥ .
(3) En appliquant le procédé de Gram-Schmidt aux bases trouvées en (1), donner une
base orthonormée pour chacun de C(A) et C(A)⊥ .

16. Soient


A=

1
1
0
0
1
0
1
1
0
1
2
0



.

(1) Vérifier que les colonnes de A forment une base de C(A);
(2) Donner une base orthonormée de C(A);
(3) Donner une décomposition QR de A.
17. Considérer les vecteurs de l’espace euclidien R3 suivants:

 





3
4
0
−
1
5
5
 9 
 


u1 =  − 25
; u =  −1  .
 , u2 =  45  , u3 =  − 12
25 
12
3
16
2
25
5
25
(1) Vérifier, à l’aide du théorème 7.4.1, que {u1 , u2 , u3 } est une base orthonormée de
R3 .
95
(2) Trouver, à l’aide du théorème 7.4.4(1), la colonne des ccordonnées de u dans
{u1 , u2 , u3 }.
18. Considérer les vecteurs de l’espace euclidien R2 suivants:
( 1 )
( √ )
3
−2
2
√
u1 =
,
u
=
.
2
3
1
2
2
(1) Vérifier que {u1 , u2 } est une base orthonormée de R2 .
(2) Donner, à l’aide du théorème 7.4.5, la transformation linéaire T de R2 telle que
(
)
3
0
[T ]{u1 ,u2 } =
.
0 −4
Attention: It faut donner la formule de T en coordonnées canoniques.
19. Trouver les valeurs de a, b, c telles que la matrice suivante soit orthogonale.

 1
√
√1
a
14

 13
.
 √
√2
b
14

 3
3
√1
√
− 14 c
3
20. Donner une décomposition QR de la matrice

1 0

 0 1
A=
 1 1
0 1
inversible suivante:

1 0

0 1 
.
1 0 
1 1
21. Considérer la base canonique {e1 , e2 , e3 } de R3 . Calculer les produits vectoriels e1 ∧ e2 ,
e2 ∧ e3 et e3 ∧ e1 .
22. Dans chacun des cas suivants, à l’aide de la proposition 7.3.4, trouver un vecteur normal
au plan P engendré par u, v, et en donner une l’équation pour P.





 

4
5
0
2
(1) u =  −1  , v =  3  ; (2) u =  0  , v =  −1  .
2
−1
2
1
23. Considérer les vecteurs de l’espace euclidien R3 suivants:

 

1
1



u=
0 .
−1 , v =
1
0
96
(1) Donner l’angle θ de u à v orienté par u ∧ v.
(2) Donner l’angle ϕ de u à v orienté par v ∧ u.
24. Dans chacun des cas suivants, diagonaliser la matrice symétrique donnée par une matrice orthogonale et déterminer si la matrice donnée est définie positive ou non.




1 1 0
5 −4 −2
(1)  1 2 1  ;
(2)  −4
5
2 ;
0 1 2
−2
2
2




0
1
1 0
2 0 1 0




2 1 
 1 −2
 0 2 0 1 
(4) 
(3) 
.
;
2 −2 1 
 1
 1 0 2 0 
0
1
1 0
0 1 0 2
25. Donner une décomposition en valeurs singulières de chacune des matrices suivantes.
(
(1)
4 11 14
8 7 −2
)
(
;

1 −1
(3)  −2
2 ;
2 −2

(2)
3 2
2
2 3 −2
)
;

1 1
(4)  0 1  .
−1 1

26. Déterminer si la transformation linéaire suivante est orthogonale ou non:




x1
x1 − x2 − x3 − x4



1
 x1 − x2 + x3 + x4 
4
4  x2 
T :R →R :
 7→ 
.
2  x1 + x2 − x3 + x4 
 x3 
x4
x1 + x2 + x3 − x4
27. Dans chacun des cas suivants, trouver la matrice de la transformation linéaire T dans
la base canonique; déterminer si T est orthogonale ou non; et si oui, donner son inverse
en spécifiant la formule sous les coordonnées canoniques.



a − 2b + 2c
a
7  2a − 2b + c  ;
(1) T : R3 → R3 :  b  →
−2a + b + 2c
c


2
1
2
 
a
−
b
+
c
a
3
3
 32

3 
2
3


(2) T : R → R :
7→  3 a + 3 b − 13 c 
b
.
c
− 13 a + 23 b + 23 c

97
28. Soit ρ la rotation du plan d’un angle
7π
.
6
(1) Donner la matrice de ρ dans la base canonique {e1 , e2 } de R2 .
(2) Calculer l’image par ρ du rectangle de sommets suivants:
p1 = (0, −1), p2 = (3, −1), p3 = (0, 1), p4 = (3, 1).
29. Soit ρ la rotation de R3 autour de l’axe des x d’un angle


−1
u =  0 .
0
5π
3
orienté par le vecteur
(1) Donner la matrice de ρ dans base canonique {e1 , e2 , e3 } de R3 .
(2) Calculer l’image par ρ du vecteur suivant


2
v =  3 .
−1
30. Soit L la droite vectorielle de R3 engendrée par le vecteur suivant:


1
v =  −1 
1
(1) Calculer la rotation ρ de R3 autour de L d’un angle 5π
orienté par v, c’est-à-dire,
6
donner la matrice de ρ dans la base canonique {e1 , e2 , e3 }.
(2) Dans un repère caméra initial de R3 , un objet M est situé à la position (1, 0, 1).
On tourne la caméra d’un angle 5π
autour du vecteur v. Trouver la position de M
6
dans le nouveau repère caméra de R3 . Indice: Utiliser le résultat de la partie (2).
31. Donner la rotation de R3 autour de l’axe des x d’un angle
2π
3
orienté par e1 .
32. Dans chacun des cas suivants, trouver la solution à moindres carrés du système:
(1)
x
− z = 6
2x + y − 2z = 1
x + y
= 9
x + y − z = 3;
(2)
2x
− z = 0
x − 2y + 2z = 6
2x − y
= 0
y − z = 6.
98
33. Trouver une solution à moindres carrés de chacun des systèmes suivants:
(1)
x1 + x2
+ 2x4
x1
− x3
x2 + x3 + 2x4
−x1 + x2 − x3 − x4
(2) 4x1
+ x3
x1 − 5x2 + x3
6x1 + x2
x1 − x2 − 5x3
+
−
+
−
5x4
3x4
7x4
5x4
=
=
=
=
2
5
6
6;
=
=
=
=
9
0
0
0.
34. Trouver la droite y = a + bx, qui correspond le mieux les données observées suivantes:
(
0
2
) ( ) ( ) ( )
1
2
3
,
,
,
.
1
3
6
35. Trouver la courbe quadratique y = a + bx + cx2 , qui correspond le mieux les données
observées suivantes:
(
0
2
) (
) ( ) (
)
−1
1
2
,
,
,
.
6
4
12
99
Téléchargement