Cours d`algèbre linéaire

publicité
Cours d'algèbre linéaire
Yannick Henrio
5 mars 2013
2
Table des matières
1 L'espace vectoriel Rn
1.1
1.2
1.3
1.4
Rn est un espace vectoriel sur
Combinaisons linéaires . . . .
Sous-espaces vectoriels de Rn
Exercices du chapitre 1 . . . .
R.
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Dénition d'une matrice . . . . . . . . . . . . . . . . .
Opérations élémentaires sur les lignes d'une matrice .
Matrices échelonnées . . . . . . . . . . . . . . . . . . .
Echelonnement d'une matrice . . . . . . . . . . . . . .
2.4.1 Enoncé du théorème d'existence . . . . . . . .
2.4.2 Méthode du pivot de Gauss . . . . . . . . . . .
2.4.3 Rang d'une matrice . . . . . . . . . . . . . . .
Réduction d'une matrice échelonnée . . . . . . . . . .
2.5.1 Existence et unicité d'un échelonnement réduit
2.5.2 Méthode de réduction d'une matrice échelonnée
Exercices du chapitre 2 . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
matrice
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
. . .
. . .
rang
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 La méthode du pivot de Gauss
2.1
2.2
2.3
2.4
2.5
2.6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Résolution des systèmes linéaires
3.1
3.2
3.3
3.4
3.5
Généralités sur les systèmes linéaires . . . . . . . . . . . . . . .
3.1.1 Matrices associées à un système . . . . . . . . . . . . . .
3.1.2 Ensemble des solutions d'un système . . . . . . . . . . .
Description de l'ensemble des solutions d'un système linéaire .
Structure de l'ensemble des solutions d'un système . . . . . . .
3.3.1 Le cas particulier d'un système homogène : Noyau d'une
3.3.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . .
Quelques conséquences de la structure des solutions . . . . . .
Exercices du chapitre 3 . . . . . . . . . . . . . . . . . . . . . . .
4 Familles de vecteurs de
4.1
4.2
4.3
4.4
4.5
4.6
4.7
Rn
Généralités sur les familles de vecteurs de Rn . . . . . . . .
Matrice d'une famille de vecteurs dans une base . . . . . . .
Dimension d'un sous-espace vectoriel de Rn . . . . . . . . .
Calcul d'une base de l'image d'une matrice et interprétation
Compléter une famille libre en une base . . . . . . . . . . .
Le théorème du rang . . . . . . . . . . . . . . . . . . . . . .
Exercices du chapitre 4 . . . . . . . . . . . . . . . . . . . . .
3
. .
. .
. .
du
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
2
3
5
5
5
6
6
6
7
7
8
8
8
9
11
11
11
12
12
14
14
14
15
16
17
17
18
19
19
20
20
21
4
TABLE DES MATIÈRES
5 Matrices
5.1
5.2
5.3
5.4
5.5
Mn,p est un espace vectoriel . . . . . . . . . . . . . . . . .
Produit de deux matrices . . . . . . . . . . . . . . . . . .
Matrices carrées inversibles . . . . . . . . . . . . . . . . .
5.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . .
5.3.2 Matrice d'une opération élémentaire sur les lignes .
5.3.3 Critères d'inversibilité . . . . . . . . . . . . . . . .
5.3.4 Calcul de l'inverse : Méthode de Gauss-Jordan . .
Calcul de l'image d'une matrice . . . . . . . . . . . . . . .
Exercices du chapitre 5 . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6 Espaces vectoriels de dimension nie et applications linéaires
6.1
6.2
Dimension nie . . . . . . . . . . . . . .
6.1.1 Généralités . . . . . . . . . . . .
6.1.2 Matrice d'une famille de vecteurs
6.1.3 Matrices de passage . . . . . . .
Applications linéaires . . . . . . . . . . .
6.2.1 Généralités . . . . . . . . . . . .
6.2.2 Cas des dimensions nies . . . .
. . .
. . .
dans
. . .
. . .
. . .
. . .
. . . . . .
. . . . . .
une base
. . . . . .
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
23
25
25
25
26
26
27
27
29
30
30
31
31
32
32
33
Chapitre 1
L'espace vectoriel Rn
Soit n ≥ 1 un entier. On rappelle que Rn est l'ensemble des suites de réels ~u = (x1 , . . . , xn ).
Les éléments de Rn seront appelés vecteurs de longueur n. Le réel xi est appelé i-ième coordonnée
canonique du vecteur ~u. On notera ~0n = (0, . . . , 0) le vecteur nul de longueur n.
1.1 Rn est un espace vectoriel sur R.
Soient ~u = (x1 , . . . , xn ) et ~v = (y1 , . . . , yn ) des vecteurs de Rn , et α un réel. On note
~u + ~v = (x1 + y1 , . . . , xn + yn )
On dénit ainsi une addition
R × Rn
(α, ~u)
et
α.~u = (α.x1 , . . . , α.xn )
R n × Rn → Rn
et une action des scalaires sur les vecteurs
(~u, ~v ) 7→ ~u + ~v
→ Rn
. Ces opérations satisfont les
7→ α.~u
Propriétés 1. (Rn , +, .) est un espace vectoriel sur R. Autrement dit, si ~u, ~v et w~ sont des
vecteurs de Rn , et si α et β sont des scalaires, alors les assertions suivantes sont satisfaites :
[EV1]
[EV2]
[EV3]
[EV4]
[EV5]
[EV6]
[EV7]
[EV8]
(~u + ~v ) + w
~ = ~u + (~v + w)
~
~u + ~v = ~v + ~u
~u + ~0p = ~0p + ~u = ~u
~u + (−1).~u = ~0p
α.(~u + ~v ) = α.~u + α.~v
(α + β).~u = α.~u + β.~u
(αβ).~u = α.(β.~u)
1.~u = ~u
1.2 Combinaisons linéaires
Dénition 1. Soit p ≥ 1 un entier. Considérons une famille nie F = (~u1 , . . . , ~up ) de vecteurs
de Rn . Une combinaison linéaire de la famille F est un vecteur de la forme
p
X
αk .~uk = α1 .~u1 + · · · + αp .~up ,
k=1
1
avec (α1 , . . . , αp ) ∈ Rp
2
CHAPITRE 1.
L'ESPACE VECTORIEL
RN
On note vect (F) l'ensemble des combinaisons linéaires de la famille F . Par convention, on pose
également vect (∅) = {~0n }.
vect (F) = { ~v ∈ Rn : ∃(α1 , . . . , αp ) ∈ Rp ~v =
p
X
αk .~uk }
k=1
Exemple 1. Si 1 ≤ i ≤ n, notons ~ei = (0, . . . , 0, 1, 0, . . . , 0) le vecteur de Rn dont toutes les
coordonnées canoniques sont nulles, sauf la i-ième qui vaut 1. Si x1 , . . . , xn sont des réels, alors
(x1 , . . . , xn ) =
n
X
xi .~ei .
On en déduit que tout vecteur de Rn est de manière unique combinaison
i=1
linéaire de la famille (~e1 , . . . , ~en ). On appelle cette famille la base canonique de Rn .
Exemple 2. Notons (~e1 , . . . , ~en ) la base canonique de Rn . Si 1 ≤ k ≤ n, alors
vect (~e1 , . . . , ~ek ) = { (x1 , . . . , xn ) ∈ Rn : xk+1 = · · · = xn = 0 }
En eet, si (α1 , . . . , αk ) ∈ Rk , alors
k
X
αi .~ei = (α1 , . . . , αk , 0, . . . , 0),
donc
i=1
k
X
αi .~ei ∈ { (x1 , . . . , xn ) ∈ Rn : xk+1 = · · · = xn = 0 }
i=1
Réciproquement, si ~u = (x1 , . . . , xn ) ∈ Rn satisfait xk+1 = · · · = xn = 0, alors
~u = (x1 , . . . , xk , 0, . . . , 0) =
k
X
xi .~ei ∈ vect (~e1 , . . . , ~ek )
i=1
1.3 Sous-espaces vectoriels de Rn
Un sous-espace
trois conditions :
~0n ∈ V .
[SEV1]
vectoriel (parfois noté sev) de Rn
[SEV2]
∀~u ∈ V ∀~v ∈ V
(~u + ~v ) ∈ V
[SEV3]
∀α ∈ R ∀~u ∈ V
(α.~u) ∈ V
est une partie V de Rn satisfaisant les
Exemple 3. Rn est clairement un sous-espace vectoriel de Rn . L'ensemble {~0n } est lui aussi un
sous-espace vectoriel de Rn .
Proposition 1. Soit V un sous-espace vectoriel de Rn . Soit (~u1 , . . . , ~up ) une famille de vecteurs
de V . Toute combinaison linéaire de la famille (~u1 , . . . , ~up ) appartient à V .
Proposition 2. Soit (~u1 , . . . , ~up ) une famille de vecteurs de Rn . L'ensemble vect (~u1 , . . . , ~up )
est le plus petit sous-espace vectoriel contenant tous les ~uj . Précisément,
[1] ∀j ∈ {1, . . . , p}
~uj ∈ vect (~u1 , . . . , ~up ).
[2] vect (~u1 , . . . , ~up ) est un sous-espace vectoriel de Rn .
[3] Si V est un sev de Rn contenant les vecteurs ~uj , alors vect (~u1 , . . . , ~up ) ⊂ V .
1.4.
3
EXERCICES DU CHAPITRE 1
Dénition 2. Soit V un sous-espace vectoriel de Rn . Une famille génératrice de V est une
famille (~u1 , . . . , ~up ) de vecteurs de Rn telle que V = vect (~u1 , . . . , ~up ). Cela revient à dire que les
vecteurs ~ui sont tous dans V et que tout vecteur de V peut s'écrire comme combinaison linéaire
de la famille (~u1 , . . . , ~up ).
Exemple 4. Posons F = { (x, y, z) ∈ R3 : x + 2y − 3z = 0 }. Alors F est un s.e.v. de R3 . En
eet,
SEV1 : 0 + 2.0 − 3.0 = 0 donc ~0 ∈ F .
SEV2 : Supposons ~u = (x, y, z) ∈ F et ~v = (x0 , y 0 , z 0 ) ∈ F . Autrement dit, on a x + 2y − 3z = 0
et x0 + 2y0 − 3z 0 = 0. En additionnant ces deux équations, on obtient
(x + x0 ) + 2(y + y 0 ) − 3(z + z 0 ) = (x + 2y − 3z) + (x0 + 2y 0 − 3z 0 ) = 0 + 0 = 0
Ainsi, ~u + ~v = (x + x0 , y + y0 , z + z 0 ) ∈ F . F est donc stable par addition.
SEV3 : Supposons ~u = (x, y, z) ∈ F et α ∈ R. On a donc x + 2y − 3z = 0. En multipliant cette
équation par le scalaire α, on obtient
(αx) + 2(αy) − 3(αz) = α.(x + 2y − 3z) = α.0 = 0
Ainsi, α.~u = (αx, αy, αz) ∈ F . F est donc stable par multiplication par un scalaire.
Remarquons qu'un vecteur de F s'écrit (−2y + 3z, y, z) = y.(−2, 1, 0) + z.(3, 0, 1). Ainsi tout
vecteur de F est combinaison de la famille (~u1 = (−2, 1, 0), ~u2 = (3, 0, 1)). Par ailleurs, ~u1 ∈ F
( car (−2) + 2.1 − 3.0 = 0 ) et ~u2 ∈ F ( car 3 + 2.0 − 3.1 = 0 ). Ainsi la famille (~u1 , ~u2 ) est
génératrice de F .
Proposition 3. Soient V et W des sous-espaces vectoriels de Rn . Alors V ∩W est un sous-espace
vectoriel de Rn .
Dénition 3. Soient V et W des sous-espaces vectoriels de
directe, et on note V ⊕ W , lorsque V ∩ W = {~0n }.
Rn .
On dit qu'ils sont en somme
Proposition 4. Soient V et W des sous-espaces vectoriels de Rn . Alors l'ensemble
V + W = { ~u ∈ Rn : ∃~v ∈ V ∃w
~ ∈ W ~u = ~v + w
~ }
est un sous-espace vectoriel de Rn .
Dénition 4. Soient V et W des sous-espaces vectoriels de
mentaire de V si V ∩ W = {~0n } et V + W = Rn .
Rn .
On dit que W est un supplé-
Proposition 5. Soit V un sous-espace vectoriel de Rn . Si W est un supplémentaire de V , alors
∀~u ∈ Rn ∃!(~v , w)
~ ∈V ×W
~u = ~v + w
~
1.4 Exercices du chapitre 1
Exercice 1 : Considérons les vecteurs de R2
: ~u1 = (1, −1), ~u2 = (2, 3), ~u3 = (4, 5).
1. Calculer les combinaisons linéaires suivantes : 3~u1 +2~u2 −~u3 , −~u1 +5~u2 −4~u3 , 2~u1 +9~u2 −5~u3 ,
et ~u1 + ~u2 + 6~u3 .
2. Déduire d'un calcul précédent que ~u3 est combinaison linéaire de ~u1 et ~u2 .
3. En déduire que vect (~u1 , ~u2 , ~u3 ) = vect (~u1 , ~u2 ).
4
CHAPITRE 1.
L'ESPACE VECTORIEL
RN
Exercice 2
: Parmi les parties suivantes de R3 , lesquelles sont des sous-espaces vectoriels de
R ? Pour chacun de ces sous-espaces vectoriels, trouver une famille génératrice.
3
1. A = { (x, y, z) ∈ R3 : xyz = 0 }.
2. B = { (x, y, z) ∈ R3 : 3x + 2y + 5z = 0 }.
3. C = { (x, y, z) ∈ R3 : x + y + z = 4 }.
4. D = { (x, y, z) ∈ R3 : x + 2z = 0 et y − 3z = 0 }.
Exercice 3 : Posons V
= { (x, y, z) ∈ R3 : 8x − 18y + 7z = 0 }, ~u = (1, 2, 4) et ~v = (−3, 1, 6).
1. Vérier que V est un sous-espace vectoriel de R3 .
2. Vérier que ~u ∈ V et ~v ∈ V .
3. Montrer que (~u, ~v ) est une famille génératrice de V .
Exercice 4 : Notons V
= { (x, y) ∈ R2 : y = 0 } et W = { x, y) ∈ R2 : x = 0 }.
1. Représenter V et W dans le plan R2 .
2. Vérier que V et W sont des sous-espaces vectoriels de R2 .
3. La partie V ∪ W est-elle un sous-espace vectoriel de R2 ?
Exercice 5 : Soient V
et W deux sous-espaces vectoriels de Rn . On dénit un ensemble
V + W = { ~u ∈ Rn : ∃~v ∈ V ∃w
~ ∈ W ~u = ~v + w
~ }
1. Montrer que V + W est un sous-espace vectoriel de Rn .
2. Soit (~v1 , . . . , ~vp ) une famille génératrice de V et (w
~ 1, . . . , w
~ q ) une famille génératrice de W .
Montrer qu'alors (~v1 , . . . , ~vp , w
~ 1, . . . , w
~ q ) est une famille génératrice de V + W .
Exercice 6 : Notons V
l'ensemble des solutions du système à 5

− 2x3
− 8x5
 x1
x2 − 5x3
+ 3x5

x4 − x5
inconnues :
= 0
= 0
= 0
1. Montrer que V est un sous-espace vectoriel de R5 .
2. Vérier que si ~v ∈ V , alors toutes les coordonnées canoniques de ~v ∈ V peuvent s'écrire en
fonction des seules coordonnées x3 et x5 . En déduire la forme générale d'un vecteur de V .
3. Construire une famille génératrice à deux vecteurs de V .
4. Existe-t'il un vecteur ~u de V satisfaisant V = vect (~u) ?
Chapitre 2
La méthode du pivot de Gauss
2.1 Dénition d'une matrice
Dénition
5. Soient n > 0 etp > 0 des entiers. Une matrice A de taille (n, p) est un tableau

A[1, 1]

A=
..
.
...
A[1, p]
..
.


de nombres réels à n lignes et p colonnes. On note aussi souvent
A[n, 1] . . . A[n, p]
ai,j = A[i, j]. Si n = 1, on dira
que A est un vecteur ligne. Si p = 1, on dira que A est un vecteur
colonne.
Si 1 ≤ i ≤ n, on note Li (A) = (A[i, 1] . . .A[i, p] ) la i-ième ligne de la matrice A.
A[1, j]
Si 1 ≤ j ≤ p, on note

Cj (A) = 
..
.


la j -ième colonne de la matrice A.
A[n, j]
Exemple 5. La matrice nulle 0n,p est la matrice de taille (n, p) dont tous les coecients sont
nuls.
Exemple 6. La matrice unité In de taille n est la matrice carrée de taille n dont tous les
coecients non diagonaux sont nuls, et dont tous les coecients diagonaux sont égaux à 1 :

1
...

In = 
0
0



1
On appelle symbole de Kronecker le réel δi,j déni par δi,j = 1 si i = j et δi,j = 0 sinon. On
a alors
2
∀(i, j) ∈ {1, . . . , n}
In [i, j] = δi,j
2.2 Opérations élémentaires sur les lignes d'une matrice
Il existe 3 types d'opérations élémentaires sur les lignes d'une matrice : Transvection, dilatation et permutation.
Dénition 6. On se donne deux numéros de lignes i 6= k, et un scalaire λ quelconque. L'opération de transvection de rapport λ sur la ligne Li le long de la ligne Lk est l'opération notée
Li ← Li + λLk consistant à remplacer la ligne Li par la ligne Li + λLk .
5
6
Exemple 7.
CHAPITRE 2.
1
2
4
3
−2
7
L2 ← L2 − 2L1
LA MÉTHODE DU PIVOT DE GAUSS
produit la matrice
1
0
−2
11
4
−5
.
Dénition 7. On se donne un numéro de ligne i, et un scalaire non nul λ. L'opération de
dilatation de rapport λ sur la ligne i, notée Li ← λ.Li , consiste à multiplier la ligne Li par le
scalaire λ.
1
2
Exemple 8.
5
6
L2 ← 21 L2
1
1
produit la matrice
5
3
Dénition 8. On se donne deux numéros de lignes i 6= k. L'opération de permutation des
lignes Li et Lk , notée Li ↔ Lk , consiste à échanger les lignes Li et Lk .
Exemple 9.
0
1
8
9
L1 ↔ L2
produit la matrice
1
0
9
8
2.3 Matrices échelonnées
Dénition 9. Soient A une matrice de taille (n, p), et k un entier satisfaisant 1 ≤ k ≤ n. Si
la ligne Lk de A est nulle, on pose jk (A) = p. Sinon, on appelle pivot de la ligne Lk (A) son
premier coecient non nul en partant de la gauche. On note alors jk (A) le nombre de zéros de
la ligne situés à gauche du pivot. L'entier jk (A) sera nommé la profondeur de la ligne Lk (A).
Remarquons tout de suite que la ligne Lk (A) est nulle si et seulement si jk (A) = p.


1 5 0
0
j1 = 1
 j2 = 0
 1
3
7
4

.
Exemple 10. Nous avons entouré les pivots de la matrice 
 0
0
6 8  j3 = 2
0
0
0
j4 = 4
0
Dénition 10. Soit M une matrice de taille (n, p). Nous dirons que la matrice M est échelonnée si les deux conditions suivantes sont satisfaites :
Ech1 La suite (j1 (M ), . . . , jn (M )) est croissante.
Ech2 Si k est un entier tel que 1 ≤ k < n et jk (M ) < p, alors jk (M ) < jk+1 (M ).
Les pivots sont donc rangés par ordre strictement croissant dans la matrice. En particulier,
chaque colonne contient au plus un pivot. Une colonne d'une matrice échelonnée est dite principale si elle contient un pivot. Sinon, on dit que la colonne est auxiliaire. Nous noterons PM =
{ j ∈ {1, . . . , p} : Cj (M ) est principale } et AM = { j ∈ {1, . . . , p} : Cj (M ) est auxiliaire }.
Exemple 11. La matrice de l'exemple précédent n'était pas échelonnée, carj2 < j1 . Si on échange

1 3 7 4
 0
1 5 0 
.
les deux premières lignes, on obtient en revanche une matrice échelonnée : 
 0
0
6 8 
Les 3 premières colonnes sont principales, la dernière est auxiliaire.
0
0
0
0
2.4 Echelonnement d'une matrice
2.4.1 Enoncé du théorème d'existence
Dénition 11. Soit A une matrice. Un échelonnement de A est une matrice échelonnée B
déduite de A par une suite d'opérations élémentaires sur les lignes.
Théorème 1. Soit A une matrice de taille (n, p). Il existe au moins un échelonnement de A.
2.4.
7
ECHELONNEMENT D'UNE MATRICE
2.4.2 Méthode du pivot de Gauss
Soit A une matrice non échelonnée de taille (n, p). En particulier, A est non nulle et possède
donc des pivots.
La notation M désignera une matrice variable. Au départ, M = A. En aboutissement de la
méthode du pivot de Gauss, la variable M devient un échelonnement de A.
Nous utilisons deux curseurs, l'un L pour les lignes de M et l'autre C pour ses colonnes. Au
départ, L = L1 et C est le colonne la plus à gauche qui contient un pivot (autrement dit la
première colonne non nulle). Notons a le coecient à l'intersection de la ligne L et de la colonne
C . Si a = 0, soit i le numéro d'une ligne d'un pivot de la colonne C . En permutant les lignes Li
et L, on se ramène au cas où a 6= 0. Soit b un autre pivot de la colonne C . Si i désigne le numéro
b
de ligne du pivot b, la transvection Li ← Li − .L nous ramène au cas où b = 0. En faisant cette
a
opération pour chaque pivot de la colonne C autre que a, on se ramène au cas où C ne contient
que ce seul pivot. Si M n'est toujours pas échelonnée, on déplace le curseur de ligne d'un cran
vers le bas, et le curseur de colonne vers la droite jusqu'à la colonne suivante contenant un pivot,
et on recommence le processus jusqu'à obtenir l'échelonnement cherché.
Exemple 12. Nous allons
 échelonner la matrice

2
3
6
−7
 4
11
18 −18 
 L2 ← L2 − 2L1 .

 2
3
6
0  L3 ← L3 − L1
L4 ← L4 + L1
−2 −13 −4 10


3
6 −7
2
 0
5
6 −4 


 0
0
0 7 
L4 ← L4 + 2L2
0 −10 2 3


2 3 6 −7
 0 5 6 −4 


 0 0 0
7  L3 ↔ L4
0 0 14 −5


2 3
6
−7
 0
5
6
−4 



0
14 −5 

 0
0
0
0
7
suivante :
Cette matrice est échelonnée.
2.4.3 Rang d'une matrice
Proposition 6. Soit A une matrice de taille (n, p). Soient B et B 0 sont deux échelonnement de
A. Alors PB = PB .
0
Dénition 12. Soit A une matrice de taille (n, p). Le nombre de pivots d'un échelonnement B
de A est égal à cardPB , donc ne dépend pas du choix de cet échelonnement : On l'appelle le rang
de la matrice A, noté rg(A).

Exemple 13. Soit
matrice :
1
A= 1
5
1
3
11
1
−5
−13

1
2 .
8
Pour calculer le rang de A, nous échelonnons la
8
CHAPITRE 2.
LA MÉTHODE DU PIVOT DE GAUSS


1 1
1
1
 1 3
−5 2  L2 ← L2 − L1
5 11 −13 8
L3 ← L3 − 5.L1


1 1
1
1
 0 2 −6 1 
0 6 −18 3
L ← L3 − 3.L2
 3

1 1 1 1
 0
2 −6 1 . Cette matrice échelonnée
0
0
0 0
contient 2 pivots, donc rg(A) = 2.
Proposition 7. Soit A une matrice de taille (n, p). Alors, rg(A) ≤ min(n, p).
Cela résulte du fait qu'il y a au plus un pivot par ligne et un pivot par colonne dans une
matrice échelonnée.
2.5 Réduction d'une matrice échelonnée
2.5.1 Existence et unicité d'un échelonnement réduit
Dénition 13. Soit A une matrice de taille (n, p). On dira que A est échelonnée réduite si A
est échelonnée, si les pivots sont tous égaux à 1, et si chaque colonne principale de A ne possède
qu'un seul coecient non nul : le pivot de cette colonne. Autrement dit, A est échelonnée et
chaque colonne principale de A est un vecteur de la base canonique de Rn .
Théorème 2. Soit A une matrice. Il existe un unique échelonnement réduit de A.
2.5.2 Méthode de réduction d'une matrice échelonnée
Soit A une matrice échelonnée de taille (n, p). On commence avec M = A. Si M est nulle, elle
est échelonnée réduite. Sinon, on place les curseurs de ligne L sur la dernière ligne non nulle de
A et le curseur de colonne C sur la colonne portant le pivot de L. Soit a la valeur de ce pivot. On
1
eectue la dilatation Li ← Li pour se ramener au cas où a = 1. Puis, à l'aide de transvections
a
de la forme Li ← Li + λ.L, on annule tous les coecients dans la colonne C au-dessus du pivot.
Si M n'est toujours pas réduite, on déplace le curseur de ligne L d'un cran vers le haut et le
curseur de colonne C sur la colonne portant le pivot de L. On recommence alors le processus
jusqu'à ce que la matrice soit réduite.
Exemple 14. On part de la matrice échelonnée suivante. Remarquons qu'on peut mettre tous
les pivots àla valeur 1 dès le départ.
 Nous n'indiquons que le curseur de colonne pour le pas
1
2
3
4
surcharger  0 −11 −13 −20  L2 ← −1/11 L2






1
0
0
1
0
0
1
0
0
2
1
0
2
1
0
0
1
0
0
0
16
39
L3 ← 1/16 L3

3
4
L1 ← L1 − 3.L3
13/11 20/11  L2 ← L2 − 13/11.L3
1
39/16

0 −53/16
L1 ← L1 − 2.L2
0 −17/16 
1 39/16 
0 −19/16
0 −17/16 . Cette matrice est échelonnée
1 39/16
réduite.
2.6.
9
EXERCICES DU CHAPITRE 2
2.6 Exercices du chapitre 2
Exercice 1 : Pour chacune des matrices Ai

0
 0
A1 = 
 0
0
1
0
0
0
3
0
0
2
4
1
4
0
8
2
5
−8
1
 0
A3 = 
 0
0
0
0
0
0
0
1
0
0
5
0
0
0


1
A5 =  13
23
2
27
48
ci-dessous,


0
1
2
0
7
0
0
0
−2
0
0
2


1
7
 0
3 
 , A4 = 
 4
3 
0
0
2
0
0
0
3
0
0
−8

−5

3 
 , A2 = 


6
9
5
2
2
0
1
−7
3
7 15
 2
−93 32 54 151  , A6 = 
 −1
−165 56 92 263
−3

4 8
5 2
3 5
0 −8

−5
3 

4 
9

4 5 6
5 2 3 

5 0 7 
0 4 3

2 5 1
7 4 5 

1 7 7 
4 3 5
1) Donner les profondeurs des lignes de Ai . La matrice Ai est-elle échelonnée ?
2) Calculer un échelonnement Mi de Ai .
3) Déterminer les colonnes principales et les colonnes auxiliaires de Mi .
4) Donner le rang de Ai .
5) Calculer l'échelonnement réduit Bi de Ai .
Exercice 2 : Soit M
une matrice de taille (n, p). Si 1 ≤ q ≤ p, on note Mq la matrice formée
des q premières colonnes de M .
1) Vérier que si 1 ≤ k ≤ n, alors jk (Mq ) = min(jk (M ), q).
2) En déduire que si M est échelonnée, alors Mq est échelonnée.
Exercice 3 : Expliquer comment calculer un échelonnement d'une matrice quelconque seulement
avec des transvections.
Exercice 4 : Pour toute matrice A de taille (n, p) et pour tout q ∈ {1, . . . , p}, on note Vq (A) le
sous-espace vectoriel engendré par les q premières colonnes de A. On note par ailleurs (~e1 , . . . , ~en )
la base canonique de Rn .
1. Vérier que ∀A ∈ Mn,p ∀q ∈ {1, . . . , p − 1}
Vq (A) ⊂ Vq+1 (A).
2. Vérier que ∀A ∈ Mn,p ∀q ∈ {1, . . . , p − 1}
Vq (A) = Vq+1 (A) ⇐⇒ Cq+1 (A) ∈ Vq (A).
3. On suppose ici que A est une matrice échelonnée réduite de taille (n, p). On note j0 (A) = 0.
Vérier que si 0 ≤ k ≤ n − 1 et si jk (A) < q ≤ jk+1 (A), alors Vq (A) = vect (~e1 , . . . , ~ek )
4. Soit A une matrice de taille (n, p) et B une matrice déduite de A par une opération
élémentaire sur les lignes. Vérier que ∀q ∈ {1, . . . , p − 1}
Vq (A) = Vq+1 (A) ⇐⇒
Vq (B) = Vq+1 (B).
5. En déduire une preuve de la proposition 6 du chapitre 2.
10
CHAPITRE 2.
LA MÉTHODE DU PIVOT DE GAUSS
Chapitre 3
Résolution des systèmes linéaires
Soit p ≥ 1 un entier. Une
forme
équation linéaire d'inconnues (x1 , . . . , xp ) est une équation de la
a1 .x1 + · · · + ap .xp = b
Les ai et le coecient b sont des constantes réelles. Un système linéaire d'inconnues (x1 , . . . , xp )
est une suite nie d'équations linéaires en ces inconnues. Une solution du système est un vecteur
de Rp solution de chacune des équations formant le système. On présente traditionnellement un
tel système linéaire S à n équations comme suit :


 a1,1 x1 + . . . + a1,p xp = b1
..
S:
.


an,1 x1 + . . . + an,p xp = bn
Exemple 15. Le système d'équations à deux équations et trois inconnues x,
est linéaire :
2x
3x
+ y
+ 2y
+ 3z
+ 5z
y
et z ci-dessous
= 21
= 32
3.1 Généralités sur les systèmes linéaires
3.1.1 Matrices associées à un système
On reprend les notations précédentes. Notons A la matrice de taille (n, p) dont les coecients
sont les ai,j , où 1 ≤ i ≤ n et 1 ≤ j ≤ p. On dit que A est la matrice du système S .
On appelle matrice augmentée du système S la matrice de taille (n, p + 1) :


a1,1 . . . a1,p b1

.. 
..
(A|b) =  ...
. 
.
an,1
...
an,p
bn
Exemple 16. On reprend le système de l'exemple 15. Sa matrice est
matrice augmentée est (A|b) =
2 1 3
3 2 5
21
32
11
.
A =
2
3
1
2
3
5
. Sa
12
CHAPITRE 3.
RÉSOLUTION DES SYSTÈMES LINÉAIRES
3.1.2 Ensemble des solutions d'un système
L'ensemble des solutions du système S est la partie de Rp ci-dessous :
Sol(S) = Sol(A|b) = { (t1 , . . . , tp ) ∈ Rp : ∀i ∈ {1, . . . , n}
ai,1 t1 + · · · + ai,p tp = bi }
Nous dirons d'un système S qu'il est compatible si Sol(S) 6= ∅.
Proposition 8. Soient S et S 0 deux systèmes linéaires, de matrices augmentées (A|b) et (A0 |b0 )
respectivement. Si la matrice (A0 |b0 ) peut de déduire de (A|b) par une suite d'opérations élémentaires sur les lignes, alors Sol(S 0 ) = Sol(S).
Exemple 17. Calculons l'ensemble des solutions du système de l'exemple 15 : On applique la
méthode du pivot de Gauss pour obtenir une matrice échelonnée réduite. La proposition précédente
assure
que l'ensemble
des solutions n'est pas modié par les opérations sur les lignes eectuées.
2 1 3
3 2 5
2
1
0
1/2
1 1/2
0 1
1 0 1
0 1 1
21
32
L2 ← L2 − 32 L1
3
21
L1 ← 1/2.L1
1/2 1/2 L2 ← 2.L2
L1 ← L1 − 1/2.L2
3/2 21/2
1 1
10
1
Ainsi, l'ensemble des solutions cherché est aussi l'ensemble des solutions du système
x
y
+ z
+ z
= 10
= 1
⇐⇒
x =
y =
10 − z
1−z
Donc Sol(S) = {(10 − z, 1 − z, z) : z ∈ R}.
3.2 Description de l'ensemble des solutions d'un système
linéaire
Lemme 1. Soit M une matrice échelonnée réduite de taille (n, p), et S = (M |b) un système de
matrice M . Notons r le nombre
X de pivots de la matrice M . Si 1 ≤ k ≤ r, la k -ième équation du
système S s'écrit xj +1 +
M [k, q]xq = bk . Si r + 1 ≤ k ≤ n, la k -ième équation du système
k
s'écrit 0 = bk .
q∈AM
Théorème 3. Soit M une matrice échelonnée réduite de taille (n, p). Si q ∈ PM , la colonne Cq
possède un seul pivot, et on note iq le numéro de ligne de ce pivot. Soit b un vecteur de Rn . On
note S le système de matrice augmentée (M |b).
[1] Le système S est compatible si et seulement si, pour chaque ligne nulle Li de la matrice A,
le coecient bi est nul.
[2] Supposons S compatible. Si (tj )j∈A ∈ RA , il existe une unique solution du système
satisfaisant xj = tj pour tout j ∈ AM . Ses coordonnées principales sont données par la
formule
X
M
M
∀q ∈ P
xq = biq −
M [iq , j].tj
j∈AM
(3.1)
3.2.
DESCRIPTION DE L'ENSEMBLE DES SOLUTIONS D'UN SYSTÈME LINÉAIRE
13
Exemple 18. Nous allons résoudre le système linéaire d'inconnues x, y, z et t donné par

 x
3x

2x
+
+
+
y
3y
2y
+ z
+ z
− z
−
−
−
5t =
9t =
t =
16
36
14
Nous
commençons par mettre
sa matrice sous forme échelonnée réduite :


1
 3
2

1
 0
0

1
 0
0
1
3
2
1
0
0
1
0
0
1
1
−1
1
−2
−3
1
−2
0
1
 0
0

1
 0
0
1
0
0
1
0
0
1
1
0
0
1
0
−5
−9
−1
−5
6
9
−5
6
0
16
36  L2 ← L2 − 3L1
14
L ← L3 − 2L1
 3
16
−12 
−18
L ← L3 − 32 L2
 3
16
−12  L2 ← − 21 L2
0
Ce dernier système est sous forme échelonnée. Les variables auxiliaires sont y et t. Les variables
principales
sont x et z
.

−5
−3
0
−2
−3
0
L1 ← L1 − L2
16
6 
0


10
 x
6  : On obtient

0
− 2t = 10
− 3t = 6
0 = 0
10 − y + 2t
Ainsi (x, y, z, t) est solution du système si et seulement si xz =
= 6 + 3t
L'ensemble des solutions est donc { (10 − y + 2t, y, 6 + 3t, t) : (y, t) ∈ R2 }.
+ y
z
.
Corollaire 1. Critère de compatibilité pour un système échelonné
Soit S un système échelonné de matrice augmentée (A|b). Alors S est compatible si et seulement
si, pour toute ligne nulle Li de la matrice A, le coecient bi correspondant au second membre
est nul.
Exemple 19. Nous allons vérier que le système
patible :

1 1
 3 2
 −1 0
1 1
 0 −1
 0 1
1 1
 0 −1
0 0

1 2
1 −4 
1 7
2
1
−2 −10
2
9
1
2
−2 −10
0
−1

 x +
3x +

−x
y
2y
+ z
+ z
+ z
= 2
= −4
= 7
est incom-
L2 ← L2 − 3L1
L3 ← L3 + L1

 L3 ← L3 + L2

En regardant la dernière ligne, on obtient l'équation 0 = −1 qui n'a clairement pas de solution :
Le système est bien incompatible.
14
CHAPITRE 3.
RÉSOLUTION DES SYSTÈMES LINÉAIRES
3.3 Structure de l'ensemble des solutions d'un système
3.3.1 Le cas particulier d'un système homogène : Noyau d'une matrice
Dénition 14. Un système linéaire est homogène lorsque tous ses seconds membres sont nuls.
Théorème 4. Soit S un système linéaire homogène à p inconnues. Alors son ensemble des
solutions est un sous-espace vectoriel de Rp . En particulier, S est compatible : Il admet la solution
nulle.
Dénition 15. Soit A une matrice de taille (n, p). On appelle noyau de A le sous-espace vectoriel
de Rp formé des solutions du système (A|~0n ). On note
ker(A) = Sol(A|~0n )
Théorème 5. Soit M une matrice échelonnée réduite de taille (n, p). Si j
l'unique vecteur de ker(M ) satisfaisant xj = 1 et xl = 0 si l ∈ AM et l 6= j .
∀~s ∈ ker(M ) ∃!(tj )j∈AM ∈ RAM
~s =
X
∈ AM ,
notons ~sj
tj .~sj
j∈AM
Nous dirons que la famille (~sj )j∈AM est une base de ker(M ).
Exemple 20. Considérons le système linéaire homogène de matrice échelonnée réduite :

1
 0
0
0
1
0
−8
−3
0
2
−5
0

0 −9
0 4 
1 −1
Les variables auxiliaires sont x3 , x4 et x6 . Construisons la base de solutions (~s3 , ~s4 , ~s6 ) donnée
par le théorème précédent :
Le vecteur ~s3 s'obtient en résolvant le système avec les conditions supplémentaires x3 = 1, x4 = 0
et x6 = 0. On trouve ~s3 = (8, 3, 1, 0, 0, 0).
Le vecteur ~s4 s'obtient en résolvant le système avec les conditions supplémentaires x3 = 0, x4 = 1
et x6 = 0. On trouve ~s4 = (−2, 5, 0, 1, 0, 0).
Le vecteur ~s6 s'obtient en résolvant le système avec les conditions supplémentaires x3 = 0, x4 = 0
et x6 = 1. On trouve ~s6 = (9, −4, 0, 0, 1, 1).
3.3.2 Cas général
Dénition 16. Une partie D de Rp est un sous-espace ane de Rp s'il existe un vecteur ~u0
et un sous-espace vectoriel V de Rp tels que
∀~u ∈ Rp
~u ∈ D
⇐⇒
(~u − ~u0 ) ∈ V
Nous dirons que D est le sous-espace ane de direction V passant par ~u0 .
Théorème 6. Soit S un système linéaire, de matrice augmentée (A|b). Si ~s0 est une solution
particulière de S , Sol(S) est le sous-espace ane de direction ker(A) passant par ~s0 .
Compte tenu de la description des solutions d'un système homogène, on obtient nalement le
3.4.
QUELQUES CONSÉQUENCES DE LA STRUCTURE DES SOLUTIONS
15
Théorème 7. Soit S un système linéaire compatible, de matrice augmentée (A|b) échelonnée
réduite, de taille (n, p). Soit ~s0 = (x0 , . . . , xn ) l'unique solution du système S telle que xj = 0 si
j ∈ A. Notons (~sj )j∈A la base de solutions de ker(A) construite au théorème 5. Alors
Sol(S) = { ~s0 +
X
tj .~sj : (tj )j∈A ∈ RA }
j∈A
Ainsi, pour résoudre un système linéaire quelconque, il sut de le mettre sous forme échelonnée réduite. On lit directement sous cette forme une solution particulière s'il est compatible,
et une base de solutions du système homogène associé.
Exemple 21. Nous allons résoudre le système linéaire :

 x1
5x1

2x1
+ 4x2
+ x2
+ x2
− 22x3
− 15x3
− 9x3
+ x4
+ x4
+ 9x5
− 16x5
− 7x5
= 33
= 17
= 14
On
sous forme échelonnée réduite :

 commence par mettre le système
−22 1
−15 0
−9 1
4
−22
−19 95
−7
35
4
−22
−19 95
33
9
−16 17  L2 ← L2 − 5.L1
−7 14
L3 ← L3 − 2.L1

33
1
9
−5 −61 −148 
7
−1 −25 −52
L ← L3 − 19
.L2
 3
1
9
33
−5 −61 −148  L ← − 1 .L
 2
2
19
16
48
48
L3 ← 19
0
0
−
16 .L3
19
19 19
33
4 −22 1
9
L ← L1 − L3
5
61 148  1
5
.L3
1 −5
 L2 ← L2 − 19
19 19
19
3
0 0
0
1 −3


1 4 −22 0 12 30
L1 ← L1 − 4L2
 0 1 −5 0 4
7 
0 0
0
1 −3 3


1 0 −2 0 −4 2
 0 1 −5 0 4 7 
0 0 0 1 −3 3
1
 5
2

1
 0
0

1
 0

0

1

 0
4
1
1
Ce système échelonné n'a aucune ligne nulle, donc il est compatible. Une solution particulière
est donnée en résolvant le système avec les conditions supplémentaires x3 = x5 = 0. On trouve
~s0 = (2, 7, 0, 3, 0). Par ailleurs, une base de solutions du système homogène associé est donnée
par les vecteurs ~s3 = (2, 5, 1, 0, 0) et ~s5 = (4, −4, 0, 3, 1)). Les solutions du système sont donc les
vecteurs de la forme :
~s0 + α.~s3 + β.~s5 = (2 + 2α + 4β, 7 + 5α − 4β, α, 3 + 3β, β)
où α et β sont des scalaires quelconques.
3.4 Quelques conséquences de la structure des solutions
Proposition 9. Soit S = (A|b) un système compatible à p inconnues. Alors S possède une seule
solution si et seulement si rg(A) = p.
16
CHAPITRE 3.
RÉSOLUTION DES SYSTÈMES LINÉAIRES
Proposition 10. Soit A une matrice de taille (n, p). Tout système de matrice A est compatible
si et seulement si rg(A) = n.
3.5 Exercices du chapitre 3
Exercice 1 : Pour chacun des systèmes ci-dessous,
a) Déterminer s'il est compatible
b) S'il est compatible, donner l'ensemble de ses solutions.
c) S'il est compatible, donner une solution particulière et une base de solutions du système
homogène associé

 x + 2y + 3z = 10
2x + y − z = 3
1.

−x + 3y + 2z = 5

 3x − 4y + 5z = 1
7x − 2y − 4z = 3
2.

−x − 6y + 14z = 8

 6x + 10y + 4z − 7t = −33
7x + 9y + 10z + 12t = 57
3.

4x + 5y + 6z + 8t = 38

6x1 + 6x2 + 2x3 − 58x4 + x5 = 53



3x1 + 3x2 + x3 − 29x4 + x5 = 31
4.
5x1 + 5x2 + 2x3 − 50x4 + x5 = 48



3x1 + 3x2
− 24x4 + x5 = 24

4x + 5y + 3z + 21y = 18



3x + 3y + 4z + 27t = 10
5.
2x + 2y + 3z + 20t = 10



18x + 22y + 15z + 104t = 85
Exercice 2
: Trouver tous les polynômes f (x) = ax3 + bx2 + cx + d satisfaisant f (−1) = 0,
f (0) = 5, f (1) = 4 et f 0 (1) = 0.
Exercice 3 : On considère un rectangle satisfaisant les conditions suivantes : Si on augmente de
5 m la largeur d'un rectangle et de 4 m sa longueur, son aire augmente de 180 m2 . Si on diminue
sa largeur de 2 m et sa longueur de 3 m, l'aire diminue de 72 m2 . Calculez les dimensions du
rectangle.
Exercice 4 : Soit D un sous-espace ane de Rn de direction V . Vérier qu'alors
∀~v ∈ Rn
~v ∈ V ⇐⇒ ( ∃~u1 ∈ D ∃~u2 ∈ D
~v = ~u2 − ~u1 )
En déduire que la direction de D est entièrement déterminée par V .
Exercice 5 : On note E l'ensemble des applications de f : R → R satisfaisant
∃(α, β) ∈ R2 ∀x ∈ R
f (x) = α cos x + β sin x
1. Montrer que les scalaires α et β sont uniquement déterminés par f .
2. Vérier que toutes les fonctions f de E sont dérivables.
π
π
3. Montrer qu'il existe une unique fonction f de E telle que f ( ) = 1 et f 0 ( ) = 3.
4
6
Chapitre 4
Familles de vecteurs de Rn
4.1 Généralités sur les familles de vecteurs de Rn
Fixons une famille F = (~u1 , . . . , ~up ) de vecteurs de Rn .
Dénition 17. On dit que F est libre, ou encore linéairement indépendante, si
∀(α1 , . . . , αp ) ∈ Rp
α1 .u1 + · · · + αp .up = ~0n ⇒ α1 = · · · = αp = 0
Autrement dit, la seule combinaison linéaire de la famille F donnant le vecteur nul est celle dont
tous les coecients sont nuls. Par convention, la famille vide est libre.
Dans le cas contraire, on dit que F est liée ou linéairement dépendante.
Exemple 22. Notons ~u = (1, 1), ~v = (1, 2), et w~ = (1, 3). Nous allons vérier que la famille
(~u, ~v ) est libre et que la famille (~u, ~v , w)
~ est liée :
Pour voir le premier point, soient α et β des scalaires. Alors α.~u + β.~v = (α + β, α + 2β). Donc,
si α.~u + β.~v = ~0, on a α + β = 0 et α + 2β = 0. On a alors β = (α + 2β) − (α + β) = 0 − 0 = 0 et
ensuite α = α + 0 = α + β = 0. La famille (~u, ~v) est libre. Pour voir le second point, soient α, β
et γ des scalaires. Alors α.~u + β.~v + γ.w~ = (α + β + γ, α + 2β + 3γ). Donc α.~u + β.~v + γ.w~ = ~0
si
et seulement
si (α, β, γ) est solution du système homogène de matrice :
1
1
1
0
1
0
1 1
2 3 L2 ← L2 − L1
1 1
L1 ← L1 − L2
.
1 2
0 −1
.
1 2
La colonne C3 est l'unique colonne auxiliaire. Une base de solutions du système est donné
vecteur (1, −2, 1). En particulier, ~u − 2~v + w~ = ~0. La famille (~u, ~v, w)
~ est donc liée.
par le
Dénition 18. Soit V un sous-espace vectoriel de Rn contenant les vecteurs de la famille F .
On rappelle que F est génératrice de V si de plus tout vecteur de V est combinaison linéaire de
la famille F . On dit que F est une base de V si c'est une famille libre et génératrice de V . Par
convention, pour V = {~0}, son unique base est la famille vide.
Exemple 23. La base canonique de Rn est une base de Rn .
17
18
CHAPITRE 4.
FAMILLES DE VECTEURS DE
RN
Théorème et dénition 1. Soit B = (~e1 , . . . , ~ed ) une base d'un sous-espace vectoriel V de Rn .
Alors tout vecteur de V s'écrit de manière unique comme combinaison linéaire de la famille B :
∀~v ∈ V ∃!(α1 , . . . , αd ) ∈ Rd
~v = α1 .~e1 + · · · + αd .~ed
Le scalaire αi est la i-ième coordonnée de ~v dans la base B.
Exemple 24. Reprenons les notations de l'exemple 22. On a déjà vu que la famille (~u, ~v) est
libre. Montrons qu'elle est également génératrice, autrement dit une base de R2 . Soit (x, y) ∈ R2 .
Le vecteur (x, y) est combinaison linéaire de la famille (~u, ~v) si et seulement si il existe des
scalaires α et β tels que (x, y) = α.~
u + β.~v = (α + β, α + 2β). Cela revient à dire que le système
1 1 x
de matrice augmentée 1 2 y est compatible. Vérions le :
1
1
1
0
1
0
1
2
1
1
0
1
x
y
L2 ← L2 − L1
L1 ← L1 − L2
x
y−x 2x − y
y−x
Ce système possède donc une unique solution : α = 2x−y et β = y −x. En particulier, on obtient
∀(x, y) ∈ R2
(x, y) = (2x − y).~u + (y − x).~v ∈ vect (~u, ~v )
Ainsi, la famille (~u, ~v) engendre R2 : C'est une base de R2 . Les coordonnées du vecteur (x, y)
dans la base B = (~u, ~v) sont (2x − y) et (y − x) d'après l'équation ci-dessus.
4.2 Matrice d'une famille de vecteurs dans une base
Fixons un sous-espace vectoriel V de Rn , et soit B = (~e1 , . . . , ~ed ) une base de V . Si F =
(~v1 , . . . , ~vp ) est une famille de vecteurs de V , nous noterons ai,j la i-ième coordonnée du vecteur
~vj dans la base B , pour 1 ≤ i ≤ d et 1 ≤ j ≤ p. Autrement dit,
∀j ∈ {1, . . . , p}
~vj =
d
X
ai,j .~ei
i=1
On obtient ainsi une matrice de taille (d, p) notée MatB (~v1 , . . . , ~vp ) = (ai,j )1≤i≤d,1≤j≤p . Sa j -ième
colonne donne les coordonnées du vecteur ~vj dans la base B . On dira que c'est la matrice de
la famille F dans la base B de V .
Exemple 25. On reprend la base B = (~u, ~v) de l'exemple 24. Posons w
~ 1 = (4, 7) et w
~ 2 = (5, 6).
1 4
Comme w~ 1 = 1.~u + 3.~v et w~ 1 = 4.~u + 1.~v, on obtient MatB (w~ 1 , w~ 2 ) = 3 1 .
Proposition 11. Caractérisation matricielle des familles libres
Soit V un sous-espace vectoriel de Rn , et soit B = (~e1 , . . . , ~ed ) une base de V . Si (~v1 , . . . , ~vp ) est
une famille de vecteurs de V , soit A = MatB (~v1 , . . . , ~vp ). Les assertions suivantes sont équivalentes :
[1] La famille (~v1 , . . . , ~vp ) est libre.
[2] Le système homogène de matrice A possède une unique solution (la solution nulle).
[3] rg(A) = p
4.3.
DIMENSION D'UN SOUS-ESPACE VECTORIEL DE
19
RN
Proposition 12. Caractérisation matricielle des familles génératrices
Soit V un sous-espace vectoriel de Rn , et soit B = (~e1 , . . . , ~ed ) une base de V . Si (~v1 , . . . , ~vp ) est
une famille de vecteurs de V , soit A = MatB (~v1 , . . . , ~vp ). Les assertions suivantes sont équivalentes :
[1] La famille (~v1 , . . . , ~vp ) est génératrice de V .
[2] Tout système de matrice A est compatible.
[3] rg(A) = d
Corollaire 2. Soit V un sous-espace vectoriel de Rn possédant une base à
(~v1 , . . . , ~vp ) ∈ V p . Alors,
[1] Si (~v1 , . . . , ~vp ) est une famille libre, alors p ≤ d.
[2] Si (~v1 , . . . , ~vp ) est une famille génératrice de V , alors p ≥ d.
d
vecteurs. Soit
4.3 Dimension d'un sous-espace vectoriel de Rn
Théorème 8. Soit V un sous-espace vectoriel de Rn . Il existe au moins une base de V .
Théorème et dénition 2. Soit V un sev de Rn . Toutes les bases de V ont le même nombre
d de vecteurs. On appelle ce nombre la dimension de V , et on note dim(V ) = d.
Cela résulte immédiatement du corollaire 2.
Exemple 26.
dim(Rn ) = n
car la base canonique de Rn contient n vecteurs.
Proposition 13. Soient V et W des sev de Rn satisfaisant V
[1] dim(V ) ≤ dim(W ).
[2] Si dim(V ) = dim(W ), alors V = W .
⊂ W.
Alors :
4.4 Calcul d'une base de l'image d'une matrice et interprétation du rang
Dénition 19. Soit A une matrice de taille (n, p). On appelle image de la matrice
espace vectoriel de Rn engendré par les vecteurs colonnes de A. On note
A
le sous-
im(A) = vect ( C1 (A), . . . , Cp (A) )
Proposition 14. Soit A une matrice de taille (n, p) et ~v un vecteur colonne de Rn . Alors
~v ∈ im(A)
⇐⇒
le système (A|~v ) est compatible.
En eet, (x1 , . . . , xp ) est une solution de (A|~v ) si et seulement si
p
X
xj .Cj (A) = ~v .
j=1
Théorème 9. Soit A une matrice de taille (n, p). Soit P l'ensemble des colonnes principales
d'un échelonnement B de A. Alors ( Cj (A) )j∈P est une base de im(A). En particulier,
dim im(A) = rg(A)
20
CHAPITRE 4.
FAMILLES DE VECTEURS DE

Exemple 27. Pour trouver une base de l'image de
par
 échelonner :
1
 1
 1
1
 0
0

1
3
2
−4
3
−1
−7
3
 0
0
0
-1

2
1  L2 ← L2 − L1
−5  L3 ← L3 − L1
2
−1 
−7
L ← L3 − 7.L2
3
5
2
−1 −1  On a P = {1, 2},
0
0
1
A= 1
1
3
2
−4
5
4
−2

2
1 ,
−5
RN
on commence
5
4
−2
5
−1
−7
donc ((1, 1, 1), (3, 2, −4)) est une base de im(A).
4.5 Compléter une famille libre en une base
Théorème 10. Théorème de la base incomplète
Soit V un sous-espace vectoriel de Rn . Soit B une base de V . Soit L une famille libre de V .
Alors, on peut compléter L avec des vecteurs de la base B pour obtenir une base de V contenant
cette famille libre.
Exemple 28. La famille ( ~u = (1, 2, 3, 4) , ~v = (1, 1, 2, 5) ) est libre. On échelonne la matrice
suivante
dont l'image 
est égale à R4 : Ces 4 dernières colonnes forment la base canonique.

1
 2

 3
 4
1
 0

 0
0

1
 0

 0
0





~e2
1 1 0 0 0
1 0 1 0 0 
 L2 ← L2 − 2.L1
2 0 0 1 0  L3 ← L3 − 3.L1
L
5 0 0 0 1
4 ← L4 − 4.L1
1
1 0 0 0
−1 −2 1 0 0 

−1 −3 0 1 0  L3 ← L3 − L2
1 −4 0 0 1
L ← L4 + L2
 4
1
1
0 0 0
−1 −2 1 0 0 

0 −1 −1 1 0 
0 −6 1 0 1
L4 ← L4 − 6.L3

1
1
1
0
0 0
0
-1 −2 1 0 0 

. On a P = {1, 2, 3, 4}. Donc, en notant ~e1 = (1, 0, 0, 0)
0
0
-1 −1 1 0 
0
0
0
7 −6 1
= (0, 1, 0, 0), la famille (~u, ~v , ~e1 , ~e2 ) est une base de R4 qui complète la famille libre (~u, ~v ).
4.6 Le théorème du rang
Théorème 11. Théorème du rang.
Soit A une matrice de taille (n, p). Alors dim ker(A) + rg(A) = p
et
4.7.
21
EXERCICES DU CHAPITRE 4
4.7 Exercices du chapitre 4
Exercice 1 : Pour chacune des familles de vecteur Fk
F1
F2
F3
F4
=(
=(
=(
=(
de Rnk ci-dessous,
(1, 2, 3) , (2, −3, 4) ), n1 = 3.
(1, −5) , (3, 8), (7, −4) ), n2 = 2.
(4, −5, 6) , (6, 2, 1), (0, −11, 16) ), n3 = 3.
(1, 1, 1, 1) , (1, 2, 5, −9), (3, 2, 1, 4) ), n4 = 4.
1) Donner la matrice de la famille Fk dans la base canonique de Rnk .
2) Déterminer si la famille Fk est libre ou liée.
3) Si Fk est liée, donner une relation de dépendance linéaire entre ses vecteurs.
4) Déterminer si la famille Fk est génératrice de Rnk .
5) Si Fk n'est pas génératrice de Rnk , donner une condition nécessaire et susante pour qu'un
vecteur de Rnk soit combinaison linéaire de la famille Fk .
Exercice 2 : Soit F = (~u1 , ~u2 , ~u2 , ~u4 , ~u5 ), où
~u1 = (1, 2, 3, 4), ~u2 = (−1, 5, 0, 7), ~u3 = (1, 9, 6, 15), ~u4 = (4, 7, 3, 1), ~u5 = (4, 21, 9, 23)
1) Donner la matrice de la famille F dans la base canonique de R4 .
2) Donner une base de vect F . Quelle est

1
3
5 2 −3
Exercice 3 : A =  10 −7 13 0 2
−5 4 −6 5 3
sa dimension ?

5
7
1 −8 
−2 6
1) Donner une base et la dimension de ker(A).
2) Compléter cette base de ker(A) en une base de R7 .
Exercice 4
: Soit V un sous espace vectoriel de Rn et (e1 , . . . , ed ) une base de V . Soient
(ed+1 , . . . , en ) une famille de vecteurs de Rn telle que la famille (e1 , . . . , en ) soit une base de
Rn . Montrer que W = vect
de V .

 (ed+1 , . . . , en ) est un supplémentaire
1
2
3 4 5
 −2
1
0 6 7 
. En utilisant le résultat précédent, trouver
Exercice 5 : Soit A = 
 1
8
−5 4 6 
−3 −19 21 2 −1
un supplémentaire W de im(A) dans R4 et un supplémentaire V de ker(A) dans R5 .
22
CHAPITRE 4.
FAMILLES DE VECTEURS DE
RN
Chapitre 5
Matrices
On note Mn,p l'ensemble des matrices de taille (n, p). Si n = p, on notera plus simplement
Mn = Mn,n .
5.1 Mn,p est un espace vectoriel
On dénit une addition sur Mn,p par :

 
b1,1 . . .
a1,1 . . . a1,p
 ..
..  +  ..
 .
.   .
an,1
...
an,p
bn,1
...
 
b1,p
a1,1 + b1,1
..  = 
..
.  
.
bn,p
an,1 + bn,1
On dénit une multiplication externe par un scalaire λ par :

 
λa1,1 . . .
a1,1 . . . a1,p

 ..

..
.
..  = 
λ.  .
.
λan,1 . . .
an,1 . . . an,p
...
...

a1,p + b1,p

..

.
an,p + bn,p

λa1,p

..

.
λan,p
Propriétés 2. Soient A, B et C des matrices de taille (n, p). Soient λ ∈ R et µ ∈ R. Alors,
[1] (A + B) + C = A + (B + C).
[2]
[3]
[4]
[5]
[6]
[7]
[8]
A+B =B+A
A + 0n,p = 0n,p + A = A
A + (−1).A = 0n,p
λ.(A + B) = λ.A + λ.B
(λ + µ).A = λ.A + µ.A
(λµ).A = λ.(µ.A)
1.A = A
5.2 Produit de deux matrices
On va dénir un produit A.B de deux matrices A et B seulement si la condition suivante est
satisfaite : Le nombre de colonnes de A coïncide avec le nombre de lignes de B . On
commence par dénir le cas particulier où B est un vecteur colonne.
23
24
CHAPITRE 5.
MATRICES
Dénition 20. Soient n ≥ 1 et p ≥ 1 des entiers, on dénit une application
Mn,p × Mp,1 −→ Mn,1
en posant
(A , X )
7−→ A.X

p
X

A[1, j]xj

 j=1





..
.. 
A.  ...  =
xj Cj (A) =
xj 
.
. =
 p
j=1
j=1
 X
xp
A[n, j]

A[n, j]xj


x1
p
X
p
X

A[1, j]









j=1
On dit que A.X est le produit de la matrice A par la matrice colonne X .
Exemple 29.
1
2
7
−3
2
6


−1
1
7
2
10
.  1  = (−1).
+ 1.
+ 2.
=
2
−3
6
7
2
Propriétés 3. On considère deux matrices A et B de taille (n, p), deux vecteurs colonnes X et
Y de hauteur p, et un scalaire λ ∈ R. Alors,
[1] A.(X + Y ) = A.X + A.Y
[2] (A + B).X = A.X + B.X
[3] A.(λ.X) = λ.(A.X) = (λ.A).X
Dénition 21. Soient n, p et q des entiers strictement positifs. Soient A une matrice de taille
et B une matrice de taille (p, q). Si 1 ≤ k ≤ q, la colonne Ck (B) est de hauteur p, donc
on peut former le vecteur colonne A.Ck (B)de hauteur n. Il existe une unique matrice notée A.B
de taille (n, q) dont la k-ième colonne est A.Ck (B) pour 1 ≤ k ≤ q. On a ainsi construit une
application
(n, p)
Mn,p
(A
× Mp,q
, B )
−→ Mn,q
7−→ A.B
Proposition 15. Calcul d'un produit de matrices.
Soient n, p et q des entiers strictement positifs. Alors, si A ∈ Mn,p et ∀B ∈ Mp,q ,
∀i ∈ {1, . . . , n} ∀j ∈ {1, . . . , q}
(A.B)[i, j] =
p
X
A[i, k].B[k, j]
k=1

Exemple 30. Prenons

2
−2 
7
de B est
1
A= 5
3
de A est 2. Le nombre de lignes
peut présenter les calculs comme suit :

1
A= 5
3

2
−2 
7


et B =
4
−2
−1
6
5 8
8 −5
. Le nombre de colonnes
2. On peut donc calculer la matrice produit A.B : On
4
−2
−1
6
5
8
8
−5
0
24
−2
11
−17
39
21
9
71
−2
50
−11
=B

 = A.B
Par exemple, A.B[1, 1] = 1.4 + 2.(−2) = 4 − 4 = 0 et A.B[2, 3] = 5.5 + (−2).8 = 25 − 16 = 9.
5.3.
25
MATRICES CARRÉES INVERSIBLES
Propriétés 4. Soient n, p, q et r des entiers strictement positifs. Alors
[1] ∀A ∈ Mn,p ∀(B, C) ∈ Mp,q 2
A.(B + C) = A.B + A.C .
[2] ∀(A, B) ∈ Mn,p 2 ∀C ∈ Mp,q
(A + B).C = A.C + B.C
[3] ∀λ ∈ R ∀A ∈ Mn,p ∀B ∈ Mp,q
A.(λ.B) = λ.(A.B) = (λ.A).B
[4] ∀A ∈ Mn,p ∀B ∈ Mp,q ∀C ∈ Mq,r
[5] ∀A ∈ Mn,p
In .A = A
[6] ∀A ∈ Mn,p
A.Ip = A
(A.B).C = A.(B.C)
5.3 Matrices carrées inversibles
5.3.1 Généralités
Proposition et dénition 1. Soit U une matrice carrée de taille n. On dit que U est inversible
s'il existe une matrice V telle que U V = V U = In . La matrice V est alors unique et s'appelle
l'inverse de U . On notera V = U −1 .
Nous devons vérier l'unicité d'une matrice V satisfaisant U V = V U = In . Supposons que
W soit une autre matrice carrée de taille n satisfaisant U W = W U = In . Alors W = W.In =
W.(U.V ) = (W.U ).V = In .V = V
Exemple 31. La matrice unité In est inversible, et est son propre inverse, car In2 = In .
Exemple 32. Soit D une matrice diagonale. Autrement dit, D[i, j] = 0 si i 6= j . Alors
inversible si et seulement si ∀i ∈ {1, . . . , n} D[i, i] 6= 0. De plus, dans ce cas,

D[1, 1]−1

D−1 = 
0
...
0
D[n, n]−1
D
est



Proposition 16. Soient P et Q deux matrices inversibles de taille n. Alors P Q est inversible,
d'inverse (P Q)−1 = Q−1 P −1 .
En eet, (Q−1 P −1 )(P Q) = Q−1 (P −1 P )Q = Q−1 In Q = Q−1 Q = In et P Q(Q−1 P −1 ) =
P (QQ−1 )P −1 = P In P −1 = P P −1 = In . La matrice Q−1 P −1 est donc l'inverse de la matrice
P Q.
Proposition 17. Soient U et V des matrices carrées de taille n. Alors U.V
= In ⇔ V.U = In .
5.3.2 Matrice d'une opération élémentaire sur les lignes
Dénition 22. La matrice d'une opération élémentaire sur les lignes est la matrice obtenue en
appliquant cette opération à la matrice identité In .
Proposition 18. Soit U la matrice d'une opération élémentaire sur les lignes.
[1] La matrice U est inversible.
[2] Soit A une matrice de taille (n, p). Le produit U A s'identie à la matrice déduite de A en
eectuant cette opération élémentaire.
Corollaire 3. Soit A une matrice de taille (n, p) et B un échelonnement de A. Il existe une
matrice inversible U telle que B = U.A.
26
CHAPITRE 5.
MATRICES
5.3.3 Critères d'inversibilité
Théorème 12. Soit U une matrice carrée de taille n. Les assertions suivantes sont équivalentes :
La matrice U est inversible.
[2] Il existe une matrice carrée V telle que V.U = In .
[3] ker(U ) = {~0n }.
[4] rg(U ) = n.
[5] im(U ) = Rn .
[6] Il existe une matrice carrée V telle que U.V = In .
[7] L'échelonnement réduit de U est la matrice In .
En particulier, toute matrice inversible peut de décomposer en un produit de matrices d'opérations
élémentaires sur les lignes.
[1]
Corollaire 4. Soient A et B deux matrices de taille (n, p). On peut déduire la matrice B de
la matrice A par une suite d'opérations élémentaires sur les matrices si et seulement si il existe
une matrice inversible U telle que B = U A.
Corollaire 5. Soit A une matrice de taille (n, p). Il existe une matrice inversible U de taille
n telle que U.A soit échelonnée. Pour calculer une telle matrice, on peut employer la méthode
suivante : On forme la matrice (A|In ) et on opère sur les lignes jusqu'à obtenir une matrice
(A0 |P ), où A0 est un échelonnement de A. La matrice P est inversible et satisfait P.A = A0 .
5.3.4 Calcul de l'inverse : Méthode de Gauss-Jordan
Théorème 13. Soit U une matrice carrée inversible de taille n. On forme la matrice A = (U |In )
de taille (n, 2n). On applique à A la méthode du pivot de Gauss pour mettre la matrice U sous
forme échelonnée réduite. On obtient alors la matrice A0 = (In |U −1 ).

1 2 3
Exemple 33. Soit U =  2 7 6 . Nous allons appliquer la méthode de Gauss-Jordan pour
3 1 5
vérier que U est inversible,
et calculer son inverse :


1 2 3 1 0 0
 2 7 6 0 1 0  L2 ← L2 − 2L1
3 1 5 0 0 1
L3 ← L3 − 3L1


1 0 0
1 2
3
 0 3
0 −2 1 0 
0 −5 −4 −3 0 1
L3 ← L3 + 53 L2


1 2 3
1
0
0
 0 3 0
−2
1
0  L2 ← 1/3.L2
L3 ← −1/4.L3
0 0 −4 −19/3 5/3 1
Cette dernière matrice est échelonnée avec 3 pivots, donc de rang 3. Ainsi U est de rang 3, et

donc inversible. On poursuit le pivot de Gauss pour obtenir

L1 ← L1 − 3L3
1 2 3
1
0
0
 0 1 0 −2/3
1/3
0 
0 0 1 19/12 −5/12 −1/4
une matrice échelonnée réduite :
5.4.

1
 0
0

1
 0
0
27
CALCUL DE L'IMAGE D'UNE MATRICE
2
1
0
0
1
0

5/4
3/4
L1 ← L1 − 2L2
0 −15/4
0 −2/3
1/3
0 
1 19/12 −5/12 −1/4


0 −29/12 7/12
3/4
−29/12
−2/3
1/3
0 . Ainsi, U −1 =  −2/3
0
1 19/12 −5/12 −1/4
19/12
7/12
1/3
−5/12

3/4
0 
−1/4
5.4 Calcul de l'image d'une matrice
Théorème 14. Soit A une matrice de taille (n, p) de rang r. Soit U une matrice inversible de
taille n telle que U A soit échelonnée. Alors


im(A) = ker 
U [r + 1, 1] . . .
..
.
U [n, 1]
...
U [r + 1, p]
..
.



U [n, n]


1 5
 1 −6 

Exemple 34. A = 
 1 5 . On commence par calculer U :
1 7


1 5 1 0 0 0
 1 −6 0 1 0 0  L2 ← L2 − L1


 1 5 0 0 1 0  L3 ← L3 − L1
L4 ← L4 − L1
 1 7 0 0 0 1

1
5
1 0 0 0
 0 −11 −1 1 0 0 


 0
0
−1 0 1 0 
L ← 11.L4 + 2.L2
0
2
−1 0 0 1

4
1
5
1
0 0 0
 0 −11 −1 1 0 0 


 0
0
−1 0 1 0 
−13 2 0 11
0
0
−1 0 1 0
Ainsi, l'image de A est égale à ker −13
. Autrement
2 0 11
dit,


x1
 x2 


 x3  ∈ im(A)
x4
⇐⇒
−x1 + x3 = 0 et − 13x1 + 2x2 + 11x4 = 0
5.5 Exercices du chapitre 5
Exercice 1 : On considère les matrices suivantes :

2
 3
A=
 7
1
5
1
0
2


4
1
−5 
, B =  2
3 
3
0


7
0
−9  , C =  2
1
−2

5 6 1
5 8 4 
0 4 0
28
CHAPITRE 5.
MATRICES
Calculer tous les produitsde matrices
possiblesavec ces3 matrices.
2 3
Exercice 2 : Soit A = −5 6 et B = 72 14 . Calculer AB et BA. Le produit de
matrices dans M2 est-ilcommutatif
?
0 1 2
Exercice 3 : Soit A =  0 0 5 . Calculer A2 et A3 . Que remarquez vous ?
0 0 0
Exercice 4 : Soient A et B des matrices tels que le produit AB ait un sens. Vérier que
ker(B) ⊂ ker(AB) et que im(AB) ⊂ im(A)
.

17 −240 96
Exercice 5 : Considérons la matrice A =  18 −269 108 .
42 −630 253
1) Vérier que A2 = I3 .
2) On pose V = ker(A − I3 ). Vérier que V est de dimension 2 et donner une base (~u1 , ~u2 )
de V .
3) On pose W = ker(A + I3 ). Vérier que W est de dimension 1 et donner une base ~u3 de W .
4) Vérier que B = (~u1 , ~u2 , ~u3 ) est une base de R3 .
5) Soit P de la base B dans la base canonique de R3 . Justier sans calcul que P est inversible,
puis calculer P −1 .
6) Calculer D = P −1 AP . Que remarquez-vous ?
Exercice 6 : Soit M
une matrice carrée de taille d. On rappelle que M 0 = Id .
1) Vérier que, pour tout entier n ≥ 1, (Id + M )
n
X
(−1)k M k = Id + (−1)k+1 M k+1 .
k=0
2) On suppose que M est nilpotente, c'est-à-dire qu'il existe un entier q ≥ 1 tel que M q = 0.
Déduire de la question précédente qu'alors Id + M est inversible, et donner son inverse.


3
21
30
3) Soit A =  −13 −98 −137 . Calculer A2 et A3 . En déduire que A est nilpotente.
9
68
95
4) Calculer (I3 + A)−1 sans utiliser la méthode de Gauss-Jordan.
 
1
5) Soit X =  0 . Vérier que B = (X, A.X, A2 .X) est une base de R3 .
0
6) Soit P la matrice de la base B dans la base canonique de R3 . Calculer P −1 avec la méthode
de Gauss-Jordan, puis calculer B = P −1 AP .
Chapitre 6
Espaces vectoriels de dimension nie
et applications linéaires
Dénition 23. Un espace vectoriel sur R est un ensemble E , muni d'une addition
E×E → E
(u, v) 7→ u + v
×E → E
et d'une multiplication par un scalaire R(λ,
qui satisfait les axiomes suivants :
v) 7→ λ.v
(EV1 )
L'addition est associative :
∀(u, v, w) ∈ E 3
(EV2 )
(u + v) + w = u + (v + w)
L'addition est commutative :
∀(u, v) ∈ E 2
(EV3 ).
L'addition possède un élément neutre noté 0E :
∃0E ∈ E ∀u ∈ E
(EV4 ).
u + 0E = 0E + u = u
Tout vecteur possède un opposé :
∀u ∈ E ∃v ∈ E
(EV5 ).
u + v = v + u = 0E
Distributivité par rapport à l'addition dans E
∀λ ∈ R ∀(u, v) ∈ E 2
(EV6 ).
(λ + µ).u = λ.u + µ.u
Associativité externe :
∀(λ, µ) ∈ R2 ∀u ∈ E
(EV8 ).
λ.(u + v) = λ.u + λ.v
Distributivité par rapport à l'addition des scalaires :
∀(λ, µ) ∈ R2 ∀u ∈ E
(EV7 ).
v+u=u+v
(λ.µ).u = λ.(µ.u)
Action de l'unité :
∀u ∈ E
29
1.u = u
30CHAPITRE 6.
ESPACES VECTORIELS DE DIMENSION FINIE ET APPLICATIONS LINÉAIRES
Exemple 35. Un sous-espace vectoriel de Rn est un espace vectoriel sur R. Mn,p est un espace
vectoriel sur R.
Exemple 36. Soit X un ensemble quelconque. On rappelle que RX est l'ensemble des applications de X dans R. On dénit une addition sur RX par :
∀f ∈ RX ∀g ∈ RX ∀x ∈ X
(f + g)(x) = f (x) + g(x)
On dénit une multiplication externe sur RX par :
∀λ ∈ R ∀f ∈ RX ∀x ∈ X
(λ.f )(x) = λf (x)
Muni de ces opérations, RX est un espace vectoriel sur R.
Proposition 19. Soit E un espace vectoriel sur R. Alors :
[1] L'élément neutre pour l'addition dans E est unique. On l'appelle le vecteur nul de E .
[2] ∀u ∈ E
[3]
0.u = 0E
Si u ∈ E , son opposé est égal à (−1).u. On le note −u.
Dénition 24. Soit E un espace vectoriel sur R. Un sous-espace vectoriel de E est une partie
V de E satisaisant les conditions :
[SEV1]
0E ∈ V .
[SEV2]
∀~u ∈ V ∀~v ∈ V
(~u + ~v ) ∈ V
[SEV3]
∀α ∈ R ∀~u ∈ V
(α.~u) ∈ V
6.1 Dimension nie
6.1.1 Généralités
Dénition 25. Soit E un espace vectoriel sur R. Pour tout entier
on notera
(u1 , . . . , up ) ∈ E p ,
p≥1
vect (u1 , . . . , up ) = { u ∈ E : ∃(α1 , . . . , αp ) ∈ Rp u =
p
X
et pour toute famille
αj .uj }
j=1
l'ensemble des combinaisons linéaires de cette famille.
Dénition 26. Soit E un espace vectoriel sur R et F
vecteurs de E .
[1] On dira que F est libre si
∀(α1 , . . . , αp ) ∈ Rp
p
X
= (u1 , . . . , up ) ∈ E p
une famille nie de
αj .uj = 0E =⇒ α1 = · · · = αp = 0
j=1
On dira que F est génératrice de E si vect (u1 , . . . , up ) = E .
[3] On dira que F est une base de E si c'est une famille libre et génératrice de E .
[2]
Dénition 27. Soit E un espace vectoriel sur R. On dit qu'il est de dimension nie lorsqu'il
existe un entier p ≥ 1 et une famille (u1 , . . . , up ) ∈ E p génératrice de E .
6.1.
31
DIMENSION FINIE
Théorème 15. Soit E un espace vectoriel sur R de dimension nie. Alors E admet une base
nie.
Démonstration. Soit d le nombre minimum de vecteurs d'une famille génératrice de E . Soit F =
(v1 , . . . , vd ) une famille génératrice de E . Supposons que F soit linéairement dépendante. Soient
d
X
(λ1 , . . . , λd ) ∈ Rd une famille non nulle de scalaires telle que
λj vj = 0E . Soit m ∈ {1, . . . , d}
j=1
tel que λm 6= 0. Alors
vm = −
X λj
vj
λm
j6=m
et donc vm ∈ vect (vj )j6=m . Mais alors (vj )j6=m est une famille génératrice de E à (d−1) vecteurs,
ce qui contredit la dénition de d. Ainsi, F est libre. C'est donc une base nie de E .
6.1.2 Matrice d'une famille de vecteurs dans une base
Dénition 28. Soit E un espace vectoriel sur R de dimension nie et B = (e1 , . . . , ed ) une base
de E . Si F = (u1 , . . . , up ) ∈ E p est une famille de vecteurs de E , on appelle matrice de F dans
la base B l'unique matrice M = MatB (F) de taille (d, p) telle que
∀j ∈ {1, . . . , p}
uj =
d
X
M [i, j].ei
i=1
Autrement dit, la colonne Cj de M donne les coordonnées de uj dans la base B.
Proposition 20. Soit E un espace vectoriel sur R de dimension nie et B = (e1 , . . . , ed ) une
base de E . Si F = (u1 , . . . , up ) ∈ E p est une famille de vecteurs de E et si A = MatB (F), alors
[1] La famille F est libre si et seulement si rg(A) = p.
[2] La famille F est génératrice de E si et seulement si rg(A) = d.
[3] La famille F est une base de E si et seulement si rg(A) = p = d.
Corollaire 6. Soit E un espace vectoriel de dimension nie sur R.
[1] Toutes les bases de E ont même nombre de vecteurs. Ce nombre est la dimension de E ,
notée dim E .
[2] Soit V un sous-espace vectoriel de E . Alors V est de dimension nie et dim(V ) ≤ dim(E).
De plus, si dim(V ) = dim(E), alors V = E .
6.1.3 Matrices de passage
Dénition 29. Soit E un espace vectoriel de dimension nie sur R. Soient B et B0 deux bases
de E . On appelle matrice de passage de B à B0 la matrice
0
PBB = MatB (B 0 )
Proposition 21. Soit E un espace vectoriel de dimension nie d sur R. Soient B, B0 et B” trois
bases de E .
[1] PBB = Id
0
[2] PBB” = PBB PBB”
0
[3] PBB
0
est inversible et (PBB )−1 = PBB0 .
0
32CHAPITRE 6.
ESPACES VECTORIELS DE DIMENSION FINIE ET APPLICATIONS LINÉAIRES
6.2 Applications linéaires
6.2.1 Généralités
Dénition 30. Soient E et F deux espaces vectoriels sur R. Une application linéaire de E vers
F est une application f : E → F satisfaisant
∀(α, β) ∈ R2 ∀(u, v) ∈ E 2
f (α.u + β.v) = α.f (u) + β.f (v)
En particulier, une application linéaire f : E → F satisfait toujours f (0E ) = 0F .
Exemple 37. Soit V un sous-espace vectoriel de
est clairement linéaire.
Rn .
Rn
L'application d'inclusion V~u →
7→ ~u
Exemple 38. Soit E un espace vectoriel. Si λ ∈ R, l'homothétie de rapport λ
linéaire.
E
u
→ E
7
→
λ.u
est
Exemple 39. Dans le plan muni d'une base orthonormée, la symétrie orthogonale par rapport à
l'axe des abscisses envoie le vecteur de coordonnées (x, y) sur celui de coordonnées (x, −y). Cette
symétrie est donc linéaire.
−→ Mn,1
Exemple 40. Soit A une matrice de taille (n, p). Considérons l'application fA : Mp,1
.
X 7−→ A.X
C'est une application linéaire. En eet, si X et Y sont deux vecteurs colonne de hauteur p et si
α et β sont des scalaires, on a
fA (α.X+β.Y ) = A.(α.X+β.Y ) = A.(α.X)+A.(β.Y ) = α.(A.X)+β.(A.Y ) = α.fA (X)+β.fA (Y )
Proposition 22. Soient E , E 0 et E” trois espaces vectoriels sur R, f : E → E 0 une application
linéaire et g : E 0 → E” une application linéaire. Alors g ◦f : E → E” est une application linéaire.
Dénition 31. Soient E et F deux espaces vectoriels sur R et f une application linéaire de E
vers F . On appelle noyau de f le sous-espace vectoriel de E :
ker(f ) = { u ∈ E : f (u) = 0F }
Proposition 23. Soient E et F deux espaces vectoriels sur R et
E vers F . Alors, f est injective si et seulement si ker(f ) = {0E }.
f
une application linéaire de
Dénition 32. Soient E et F deux espaces vectoriels sur R et f une application linéaire de E
vers F . On appelle image de f le sous-espace vectoriel de F :
im(f ) = { v ∈ F : ∃u ∈ E
f (u) = v }
Si F est de dimension nie, on appelle rang de f l'entier rg(f ) = dim im(f ).
Proposition 24. Soient E et F deux espaces vectoriels sur R et
E vers F . Alors, f est surjective si et seulement si im(f ) = F .
f
une application linéaire de
6.2.
33
APPLICATIONS LINÉAIRES
6.2.2 Cas des dimensions nies
Dénition 33. Soient E et F deux espaces vectoriels de dimension nie sur R et f : E → F
une application linéaire. Si BE = (e1 , . . . , ep ) est une base de E et si BF = (f1 , . . . , fn ) est une
base de F , on notera
E
MatB
BF (f ) = MatBF f (BE ) = MatBF (f (e1 ), . . . , f (ep ))
Proposition 25. Soient E et F deux espaces vectoriels de dimension nie sur R, BE =
(e1 , . . . , ep ) une base de E et BF = (f1 , . . . , fn ) une base de F . Soit f : E → F une application linéaire et A = MatBB (f ). Alors, si (x1 , . . . , xp ) ∈ Rp et (y1 , . . . , yn ) ∈ Rn
E
F




x1
y1
p
X




yi .fi = f (
xj .ej ) ⇐⇒  ...  = A.  ... 
i=1
j=1
xp
yn
n
X
Théorème 16. Soient E et F deux espaces vectoriels de dimension nie sur R, BE une base de
E et BF une base de F . Soit f : E → F une application linéaire et A = MatB
B (f ). Alors,
[1] rg(f ) = rg(A).
E
F
[2] dim ker(f ) + rg(f ) = dim F
Proposition 26. Soient E , F et G trois espaces vectoriels de dimension nie sur R, f : E → F
une application linéaire et g : F → G une application linéaire. Soient BE , BF et BG des bases
respectives de E , F et G. Alors,
BF
BE
E
MatB
BG (g ◦ f ) = MatBG (g).MatBF (f )
Corollaire 7. Formule de changement de base
Soient E et F deux espaces vectoriels de dimension nie sur R. Soient BE et BE0 deux bases de
0
. Soient BF et BF0 deux bases de F et Q la matrice de
E et P la matrice de passage de BE à BE
B
0
passage de BF à BF . Alors, si A = MatB (f ) et A0 = MatBB (f ), on a l'égalité matricielle
E
F
A0 = Q−1 AP
0
E
0
F
Téléchargement