Cours d`algèbre linéaire de J.-P. Troallic

publicité
Cours d’algèbre linéaire de J.-P. Troallic
FMdKdD
fmdkdd [à] free.fr
Université du Havre
Année 2007–2008
Table des matières
I
Espaces vectoriels
I.1 Préliminaires . . . . . . . . . . . . . . . . . . . . .
1.1
Groupes . . . . . . . . . . . . . . . . . . .
1.2
Corps . . . . . . . . . . . . . . . . . . . . .
1.3
Convention . . . . . . . . . . . . . . . . .
I.2 Structures d’espace vectoriel . . . . . . . . . . .
2.1
Conséquences immédiates des axiomes
I.3 Sous-espaces vectoriels . . . . . . . . . . . . . . .
3.1
Rappels . . . . . . . . . . . . . . . . . . . .
I.4 Base et dimension d’un espace vectoriel . . . .
I.5 Rang d’une suite finie de vecteurs . . . . . . . .
5.1
Méthode du pivot de Gauss . . . . . . .
I.6 Espaces vectoriels quotients . . . . . . . . . . . .
6.1
Notation et définition . . . . . . . . . . .
6.2
Proposition et définition . . . . . . . . .
I.7 Applications linéaires . . . . . . . . . . . . . . . .
7.1
Espaces isomorphes . . . . . . . . . . . .
7.2
Notation et définition . . . . . . . . . . .
7.3
Théorème et définition . . . . . . . . . .
7.4
Proposition et définition . . . . . . . . .
I.8 Sous-espaces vectoriels supplémentaires . . . .
8.1
Proposition et définition . . . . . . . . .
8.2
Proposition et définition . . . . . . . . .
8.3
Généralisation . . . . . . . . . . . . . . .
I.9 Espace vectoriel produit . . . . . . . . . . . . . .
9.1
Définition et proposition . . . . . . . . .
I.10 Espaces vectoriels d’applications linéaires . . .
10.1 Notation et définition . . . . . . . . . . .
10.2 Cas particuliers . . . . . . . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
4
4
4
6
7
8
10
15
15
16
17
17
18
19
19
20
21
23
23
24
25
25
25
26
26
26
TABLE DES MATIÈRES
II Matrices
II.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . .
II.2 Matrices particulières . . . . . . . . . . . . . . . . . . . .
II.3 Opérations sur les matrices . . . . . . . . . . . . . . . .
3.1
Matrices élémentaires . . . . . . . . . . . . . . .
3.2
Transposition . . . . . . . . . . . . . . . . . . . .
3.3
Produit de matrices . . . . . . . . . . . . . . . .
3.4
Matrices carrées . . . . . . . . . . . . . . . . . .
II.4 Matrices et applications linéaires . . . . . . . . . . . . .
4.1
Remarques utiles . . . . . . . . . . . . . . . . . .
4.2
Notation matricielle d’une application linéaire
4.3
Notation et définition . . . . . . . . . . . . . . .
II.5 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . .
II.6 Matrices carrées inversibles . . . . . . . . . . . . . . . .
6.1
Définitions et rappels . . . . . . . . . . . . . . .
II.7 Changement de base . . . . . . . . . . . . . . . . . . . .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
28
28
29
29
30
30
30
30
32
32
32
33
34
34
35
III Déterminants
III.1 Permutations d’un ensemble fini . . . . . . . . . . . . . . . . . . . .
III.2 Formes multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . .
III.3 Formes n-linéaires alternées sur un espace vectoriel de dimension finie n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
III.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . .
4.1
Notations et définition . . . . . . . . . . . . . . . . . . . . .
4.2
Notation et définition . . . . . . . . . . . . . . . . . . . . . .
III.5 Calcul de l’inverse d’une matrice carrée inversible . . . . . . . . .
III.6 Systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . .
6.1
Notation matricielle . . . . . . . . . . . . . . . . . . . . . . .
6.2
Système de Cramer . . . . . . . . . . . . . . . . . . . . . . .
6.3
Systèmes linéaires quelconques . . . . . . . . . . . . . . . .
37
37
38
IV Réduction de matrices carrées
IV.1 Valeurs propres, vecteurs propres,
sous-espaces propres . . . . . . . . . . . . . . . . . . . . .
1.1
Notation et définition . . . . . . . . . . . . . . . .
IV.2 Endomorphismes diagonalisables . . . . . . . . . . . . .
2.1
Cas particulier important . . . . . . . . . . . . . .
IV.3 Polynômes caractéristiques . . . . . . . . . . . . . . . . .
IV.4 Cas des matrices . . . . . . . . . . . . . . . . . . . . . . . .
IV.5 Applications de la diagonalisation . . . . . . . . . . . . .
5.1
Élévation à la puissance k d’une matrice carrée
52
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
40
42
42
46
47
48
48
49
50
52
53
54
56
56
59
59
59
TABLE DES MATIÈRES
5.2
Résolution de systèmes différentiels linéaires
IV.6 Endomorphismes trigonalisables . . . . . . . . . . . . .
6.1
Proposition et définition . . . . . . . . . . . . .
IV.7 Théorème de Cayley-Hamilton . . . . . . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
60
61
62
63
Chapitre I
Espaces vectoriels
I.1
Préliminaires
1.1
Groupes
Voir le cours d’algèbre générale.
1.2
Corps
Voir le cours d’algèbre générale.
1.3
Convention
Dans toute la suite, K désigne un corps commutatif, principalement R ou C.
I.2
Structures d’espace vectoriel
2.0.1 Définition. Soit E un ensemble. On dit que E est muni d’une structure
d’espace vectoriel sur K, ou encore que E est un espace vectoriel sur K, si E est
muni d’une loi de composition interne et d’une loi de composition externe de
domaine d’opérateurs K avec les propriétés suivantes :
1. La loi interne, le plus souvent notée additivement, confère à E une structure de groupe commutatif. On notera 0E ou 0 son élément neutre.
2. La loi externe, qui est une application de K × E dans E, le plus souvent
notée multiplicativement,
est telle que pour tous λ, µ ∈ K et x, y ∈ E :
– λ x + y = λx + λ y
– λ + µ x = λx + µx
4
CHAPITRE I. ESPACES VECTORIELS
5
– λµ x = λ µx
– 1x = x
Remarque. Soit E un espace vectoriel sur K. Alors les éléments de E sont souvent appelés des vecteurs et ceux de K des scalaires. Si K = R (resp. C), on
dit que E est un espace vectoriel réel (resp. complexe).
Exemples.
1. Soit n ∈ N∗ .Considérons l’ensemble Kn = K × K × · · · × K (n fois). Pour
tous x = x 1 , x 2 , . . . , x n et y = y1 , y2 , . . . , yn posons :
x + y = x 1 + y1 , x 2 + y2 , . . . , x n + yn
Il est immédiat que cette addition sur Kn est associative
et commutative.
Elle admet un élément neutre qui est
0K , 0K , . . . , 0K , noté 0. De plus,
chaque élément x = x 1 , x 2 , . . . , x n ∈ Kn admet −x 1 , −x 2 , . . . , −x n
pour opposé, noté −x. L’ensemble Kn muni de + est donc un groupe
commutatif.
D’autre part, pour tous λ ∈ K et x = x 1 , x 2 , . . . , x n ∈ Kn posons λx =
λx 1 , λx 2 , . . . , λx n . On vérifie aisément que Kn muni de ces deux lois
est un espace vectoriel sur K. On dit que c’est la structure naturelle, ou
canonique, d’espace vectoriel sur Kn .
2. Soit A un ensemble non vide et soit E un espace vectoriel sur K. Soit
F (A, E) l’ensemble de toutes les applications de A dans E. Pour tous
f , g ∈ F (A, E), définissons l’élément f + g de F (A, E) par :
f + g (a) = f (a) + g(a)
pour tout a ∈ E.
Pour tous λ ∈ K et f ∈ F (A, E), définissons l’élément λ f de F (A, E)
par λ f (a) = λ f (a) pour tout a ∈ A. Il est immédiat que F (A, E)
est ainsi muni d’une structure d’espace vectoriel sur K. L’élément nul
de F (A, E) est l’application nulle de A dans E. Là encore on parle de
structure usuelle, ou canonique, d’espace vectoriel sur F (A, E).
Le plus souvent on prend E = Kn ou même E = K.
Remarque. La structure d’espace vectoriel sur Kn (resp. sur F (A, E)) définie
dans l’exemple précédent est appelée la structure d’espace vectoriel usuelle
sur Kn (resp. sur F (A, E)).
CHAPITRE I. ESPACES VECTORIELS
2.1
6
Conséquences immédiates des axiomes
2.1.1 Propositions. Soit E un espace vectoriel sur K. Soient x, y ∈ E et λ, µ ∈ K.
Alors on a :
1. λ x − y = λx − λ y.
2. λ0E = 0E .
3. λ (−x) = −λx.
4. λ − µ x = λx − µx.
5. 0K x = 0E .
6. (−λ)x = −λx.
7. (−λ)(−x) = λx.
8. λx = 0 si et seulement si λ = 0 ou x = 0.
9. Soit x 1 , x 2 , . . . , x n ∈ E. Alors on a :
n
X
λ
!
xi
=
i=1
n
X
λx i
i=1
10. Soient λ1 , . . . , λn ∈ K. Alors :
n
X
i=1
!
λi
x=
n
X
λi x
i=1
11. Supposons que K = R. Soit α ∈ Z. Alors :

(1
·· + 1
· · + 1x} = |x + ·{z
· · + x}
| + ·{z
})x = 1x
| + ·{z



α fois
α fois
α fois

+ · · · + (−x) si α < 0
αx = (−x)
|
{z
}



−α
fois

0 si α = 0
si α > 0
Démonstrations. Soit E un espace vectoriel sur K. Soient x, y ∈ E et λ, µ ∈ K.
1. On a λ x − y + λ y = λ x − y + y = λx, donc λ x − y = λx −
λ y.
2. λ0E = λ 0E − 0E = λ0E − λ0E = 0E
3. λ(−x) = λ 0E − x = λ0E − λx = 0E − λx = −λx
4. On a λ − µ x + µx = λ − µ + µ x = λx, d’où λ − µ x = λx −
µx.
CHAPITRE I. ESPACES VECTORIELS
7
5. On a 0K x = 0K − 0K x = 0K x − 0K x = 0E .
6. On a (−λ)x = 0K − λ x = 0K x − λx = 0E − λx = −λx.
7. Conséquence de 3 et 6.
8. Si λ = 0 ou si x = 0, il résulte de 5 et 2 que λx = 0. Inversement, supposons que λx = 0. Supposons que
0, montrons que nécessairement
λ 6= −1
−1
x vaut 0. On a x = 1x = λ λ x = λ (λx) = λ−1 0E = 0E .
9. On raisonne par récurrence sur n. C’est évident pour n = 1. Supposons
la propriété vraie pour n ; montrons qu’elle est vraie pour n + 1. Soient
x 1 , x 2 , . . . , x n+1 ∈ E ; alors :
!
!
!
n+1
n
X
X
λ
xi = λ
x i + x n+1
i=1
i=1
=λ
n
X
!
xi
+ λx n+1
i=1
=
n
X
λx i + λx n+1
i=1
=
n+1
X
λx i
i=1
10. Par récurrence sur n.
Remarque. Soit (G, +) un groupe commutatif. Rappelons que pour tous x, y
de E, l’opposé de y est noté − y et x + (− y) est noté x − y.
I.3
Sous-espaces vectoriels
Soit E un espace vectoriel sur K.
3.0.1 Définition. On appelle sous-espace vectoriel de E toute partie F de E
vérifiant les conditions suivantes :
– F est non vide.
– Si x, y ∈ F alors x + y ∈ F ; c.-à-d. F est stable pour la loi interne.
– Si λ ∈ K et si x ∈ F, alors λx ∈ F ; c.-à-d. F est stable pour la loi externe.
3.0.2 Propositions. Soit F un sous-espace vectoriel de E. Alors :
1. 0E ∈ F.
2. Si x, y ∈ F, alors x − y ∈ F ; donc − y ∈ F.
CHAPITRE I. ESPACES VECTORIELS
8
3. Les lois d’addition et de multiplication par les scalaires données sur E induisent sur F des lois qui confèrent à F une structure d’espace vectoriel sur
K. Lorsque F sera considéré comme un espace vectoriel sur K, ce sera toujours pour cette structure induite.
Démonstration. Soient x, y ∈ F. On a − y = (−1) y, donc − y ∈ F. On a aussi
x − y = x + (− y) donc x − y ∈ F, ce qui établit 2. Pour obtenir 1, il suffit de
prendre x et y égaux. Le 3 est immédiat.
Remarque. 0E est le plus petit sous-espace vectoriel de E, et E est le plus
grand sous-espace vectoriel de E.
3.1
Rappels
1. Soit X un ensemble et soit I un ensemble auxiliaire que l’on appellera
un ensemble d’indices. Supposons qu’à chaque élément (ou indice) de I,
on associe un et un seul élément deE, que l’on notera x i . On dit alors
que l’on s’est donné
une famille x i i ∈ I d’éléments de X indexée par I.
Une famille x i i ∈ I d’éléments de X n’est donc pas autre chose qu’une
application de I dans X, celle qui à tout i ∈ I associe un et un seul élément
de X noté x i .
2. Soit x i i ∈ I une
famille d’éléments d’un ensemble X. On appelle sousfamille de x i i ∈ I toute famille x i i ∈ J où J est une partie de I.
Exemples.
1. Si I = {1, . . . , n} la famille x i i ∈ I se note x i 1¶i¶n , ou x 1 , . . . , x n , ou
x 1 , x 2 , . . . , x n et est appelée une suite (finie) d’éléments de X.
2. Si I = N, la famille x i i ∈ I se note x i i ∈ N ou encore x 0 , x 1 , . . . , x n , . . .
ou x 0 , x 1 , . . . , x n , . . . et est appelée une suite (infinie) d’éléments de X.
Remarque. On est souvent conduit à considérer
une famille de parties d’un
ensemble Y, c’est à dire une T
famille Ai i ∈ I d’éléments de X = P (Y).
L’intersection des Ai , notée i∈I Ai , est par définition l’ensemble des éléments
de Y qui appartiennent à AS
i pour tout i ∈ I. (On suppose I 6= ;).
La réunion des Ai , notée i∈I Ai , est par définition l’ensemble des éléments
de Y qui appartiennent à Ai pour au moins un i de I.
3.1.1 Proposition. Soit FiTi ∈ I une famille non vide (c.-à-d. I 6= ;) de sousespaces vectoriels de E. Alors i∈I Fi est un sous-espace vectoriel de E.
CHAPITRE I. ESPACES VECTORIELS
9
T
Démonstration.
i∈I Fi est non vide car 0E ∈ Fi pour tout i ∈ I. Soient x, y
T
dans i∈I Fi ; alors x,T
y ∈ Fi pour tout i ∈ I. On a donc
T x + y ∈ Fi pour tout
i ∈ I et donc x + y ∈ i∈I Fi . Enfin, si λ ∈ K et si x ∈ Ti∈I Fi alors
T x ∈ Fi pour
tout x ∈ I, donc λx ∈ Fi pour tout i ∈ I et donc λx ∈ i∈I Fi . i∈I Fi est donc
un sous-espace vectoriel de E.
Remarque. Si F1 et F2 sont des sous-espaces vectoriels de E, alors F1 ∪ F2 n’est
généralement pas un sous-espace vectoriel. En fait, F1 ∪ F2 est un sous-espace
vectoriel de E si et seulement si F1 ⊂ F2 ou F2 ⊂ F1 .
3.1.2 Définition. Soit x 1 , . . . , x n une suite finie de vecteurs de E. On appelle
combinaison linéaire de x 1 , . . . , x n tout vecteur x de E ayant la propriété suivante : il existe une
Pn suite finie λ1 , . . . , λn (de même longueur n) d’éléments de
K telle que x = i=1 λi x i .
3.1.3 Théorème. Soit x 1 , . . . , x n une suite finie de vecteurs de E et soit F l’ensemble des combinaisons linéaires de x 1 , . . . , x n . Alors F est un sous-espace vectoriel de E, et c’est le plus petit sous-espace vectoriel de E contenant les vecteurs
x 1 , . . . , x n . On dit que F est le sous-espace vectoriel de E engendré par la suite
x1, . . . , x n.
Démonstration. Si I = {1, . . . , n} alors :
x i = 0x 1 + · · · + 0x i−1 + x i + 0x i+1 + · · · + 0x n
pour i ∈ I. Par conséquent, x i ∈ F pour i ∈ I. D’autre part, tout sous-espace vectoriel de E contenant x 1 , x 2 , . . . , x n contient λ1 x 1 , . . . , λn x n (quels que soient
λ1 , . . . , λn ∈ K), donc contient λ1 x 1 + · · · + λn x n . Par conséquent, tout sousespace vectoriel de E qui contient les x i (i ∈ I) contient F. Pour achever la
démonstration, il reste à établir que F est un sous-espace vectoriel de E.
Tout d’abord, F 6= ; car x 1 ∈ F (on pourrait aussi dire 0E ∈ F car 0E = 0K x 1 +
· · · + 0K x n ). Soient x, y ∈ F et λ ∈ K. Avec λi , µi ∈ K, on a :
x=
n
X
i=1
λi x i
et
y=
n
X
µi x i
i=1
Pn
Pn
x
.
Comme
λ
+
µ
On a donc
x
+
y
=
λ
+
µ
x
et
λx
=
λλ
i
i
i
i
i
i
i
i=1
i=1
et λλi sont dans K, on a x + y ∈ F et λx ∈ F. F est donc un sous-espace
vectoriel de E.
3.1.4 Définition. Soit A une partie non vide de E. On appelle combinaison
linéaire finie de vecteurs de A tout vecteur de E qui est combinaison linéaire
d’une suite finie de vecteurs de A.
CHAPITRE I. ESPACES VECTORIELS
10
3.1.5 Théorème. Soit A une partie non vide de E et soit F l’ensemble des combinaisons linéaires finies de vecteurs de A. Alors F est un sous-espace vectoriel de E
et c’est le plus petit sous-espace vectoriel de E qui contient A. On dit que F est le
sous-espace vectoriel engendré par A, ou encore que A est une partie génératrice
de F.
Démonstration. Vérifions que si x, y ∈ F alors x + yP∈ F. Par définition, il
p
existe x 1 , . . . , x p ∈ A et λ1 , . . . , λ p ∈ K tels que x = i=1 λi x i . De même, il
Pq
existe y1 , . . . , yq ∈ A et µ1 , . . . , µq ∈ K tels que : y = i=1 µi yi . On a alors :
x + y = λ1 x 1 + · · · + λ p x p + µ1 y1 + · · · + µq yq
Ce qui montre que x + y ∈ F.
Le reste de la démonstration est laissé en exercice.
3.1.6 Corollaire. Soient F et G deux sous-espaces
vectoriels de E. Alors le sous
espace vectoriel H de E engendré par F ∪ G est x + y/x ∈ F, y ∈ G , noté F + G.
Remarques.
1. Le sous-espace vectoriel de E engendré par une suite finie x 1 , . . . , x n de
vecteurs
de E coïncide
avec le sous-espace vectoriel de E engendré par
A = x k /1 ¶ k ¶ n .
2. On peut définir le sous-espace vectoriel de E engendré par une famille
x i i ∈ I de vecteurs de
E. C’est
par définition le sous-espace vectoriel de
E engendré par A = x i /i ∈ I .
3. On convient que le sous-espace vectoriel de E engendré par ; est 0E .
I.4
Base et dimension d’un espace vectoriel
4.0.1 Définitions. Soit E un espace vectoriel sur K et soit x 1 , . . . , x n une suite
finie de vecteurs de E (de longueur n).
1. On dit que cette suite est liée, ou encore que les vecteurs x 1 , . . . , x n sont
linéairement dépendants s’il existe une suite finie λ1 , . . . , λn de scalaires
de K non tous nuls telle que λ1 x 1 + · · · + λn x n = 0.
2. On dit que la suite finie x 1 , . . . , x n est libre, ou encore que les vecteurs
x 1 , . . . , x n sont linéairement indépendants,
si la suite x 1 , . . . , x n n’est pas
liée. La suite finie x 1 , . . . , x n est donc libre si et seulement si la condition suivante est vérifiée : si λ1 , . . . , λn ∈ K et si λ1 x 1 + · · · + λn x n = 0
alors nécessairement λ1 = 0, . . . , λn = 0.
CHAPITRE I. ESPACES VECTORIELS
11
Remarques.
1. Une suite réduite à un vecteur x de E est libre si et seulement si x 6= 0.
2. Noter que si la suite finie x 1 , . . . , x n est libre, alors les vecteurs x i sont
deux à deux distincts, c’est à dire si i 6= j alors x i 6= x j . En revanche, la
réciproque est fausse.
4.0.2 Proposition. Soit E un espace vectoriel sur K et soit x 1 , . . . , x n une suite
finie de vecteurs de E. Les conditions suivantes sont équivalentes :
1. La suite x 1 , . . . , x n est liée.
2. Il existe i ∈ {1, . . . , n} tel que x i soit combinaison linéaire de x 1 , . . . , x i−1 ,
x i+1 , . . . , x n .
Démonstration.
1 =⇒ 2 : supposons que l’on ait une relation λ1 x 1 + · · · + λn x n = 0 avec λi 6= 0
pour un certain i ∈ {1, . . . , n}. Alors on a :
λi−1
λi+1
λn
λ1
x1 + · · · + −
x i−1 + −
x i+1 + · · · + −
xn
xi = −
λi
λi
λi
λi
donc x i est combinaison linéaire de x 1 , . . . , x i−1 , x i+1 , . . . , x n .
2 =⇒ 1 : par hypothèse on a :
x i = α1 x 1 + · · · + αi−1 x i−1 + αi+1 x i+1 + · · · + αn x n
et par conséquent :
α1 x 1 + · · · + αi−1 x i−1 + (−1)x i + αi+1 x i+1 + · · · + αn x n = 0
La suite x 1 , . . . , x n est donc liée.
4.0.3 Proposition. Soit E un espace vectoriel sur K et soit x 1 , . . . , x n , x n+1 une
suite finie de vecteurs de E. On suppose que la suite x 1 , . . . , x n est libre. Alors
la suite x 1 , . . . , x n , x n+1 est libre si et seulement si x n+1 n’est pas combinaison
linéaire de x 1 , . . . , x n .
Démonstration. Si la suite x 1 , . . . , x n , x n+1 est libre, x n+1 n’est pas combinaison
linéaire de x 1 , . . . , x n . Réciproquement, soient λ1 , . . . , λn , λn+1 ∈ K tels que
λ1 x 1 + · · · + λn x n + λn+1 x n+1 = 0 ; on doit montrer que λ1 = 0, . . . , λn =
0, λn+1 = 0. Si l’on avait λn+1 6= 0, on aurait :
λ1
λn
x n+1 = −
x1 + · · · + −
xn
λn+1
λn+1
ce qui est contraire à l’hypothèse. On a donc λn+1 = 0. Ceci implique λ1 x 1 +
· · · + λn x n = 0 et comme x 1 , . . . , x n est libre, on a λ1 = 0, . . . , λn = 0.
CHAPITRE I. ESPACES VECTORIELS
12
4.0.4 Définition. Soit E un espace vectoriel sur K et soit e1 , . . . , en une suite
finie de vecteurs de E. On dit que cette suite finie est une base de E si elle est à
la fois libre et génératrice de E.
Exemple. Considérons l’espace vectoriel Kn sur K usuel (voir I.2). Posons :
e1 = (1, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
..
.
en = (0, . . . , 0, 1)
Alors la suite e1 , . . . , en est une base de Kn appelée la base canonique de Kn .
4.0.5 Proposition. Soit E un espace vectoriel sur K. Supposons que la suite finie
e1 , . . . , en de vecteurs de E soit une base de E. Alors tout vecteur x de E s’écrit, et
de manière unique, sous la forme x = λ1 e1 + · · · + λn en avec λ1 , . . . , λn ∈ K.
Démonstration. Comme la suite e1 , . . . , en engendre
par définition,
Pn E, x s’écrit, P
n
de cette manière. Supposons que l’on ait x = i=1 λi x i et x = i=1 µi x i avec
λi , µi ∈ K et i = 1, . . . , n. On a :
n
X
i=1
λi ei =
n
X
i=1
µi ei
⇐⇒
n
X
λi − µi e1 = 0
i=1
Comme la suite e1 , . . . , en est libre, on a λi − µi = 0, c’est à dire λi = µi , pour
tout i = 1, . . . , n.
4.0.6 Définition. Notations de 4.0.5. Alors les λ1 , . . . , λn sont appelés les composantes, ou encore les coordonnées de x par rapport à la base e1 , . . . , en de E.
4.0.7 Définition. Soit E un espace vectoriel sur K. On dit que E est de dimension finie s’il existe une partie finie A de E qui engendre E. Il est équivalent de
dire qu’il existe une suite finie x 1 , . . . , x p de vecteurs de E qui engendre E.
4.0.8 Proposition. Soit E un espace vectoriel de dimension finie sur K et soit G
une partie génératrice de E. Alors il existe une partie génératrice finie H de E telle
que H ⊂ G.
Démonstration. Par hypothèse, il existe une partie génératrice finie A de E.
Pour tout a ∈ A, soit Ga une partie finie
S de G telle que a soit combinaison
linéaire de vecteurs de Ga . Posons H = a∈A Ga . Alors H est une partie finie de
G. Montrons que H engendre E. Soit F le sous-espace vectoriel de E engendré
par H ; pour montrer que F = E, il suffit de montrer que A ⊂ F. Soit a ∈ A ; a
est une combinaison linéaire (évidemment finie) de vecteurs de Ga , donc une
combinaison linéaire de vecteurs de H, donc un élément de F.
CHAPITRE I. ESPACES VECTORIELS
13
4.0.9 Théorème (Base incomplète). Soit E un espace vectoriel de dimension
finie sur K et soit G une partie génératrice de E. Soit x 1 , . . . , x p une suite finie
libre de vecteurs de E. Alors il existe des vecteurs x p+1 , . . . , x n appartenant à G
tels que la suite finie x 1 , . . . , x p , x p+1 , . . . , x n soit une base de E.
Démonstration. Soit H une partie génératrice finie de E telle que H ⊂ G (voir
4.0.8). Soit S l’ensemble des suites finies libres de vecteurs de E de la forme
x 1 , . . . , x p , . . . , a p+1 , . . . , am où a p+1 , . . . , am appartiennent à H.
L’ensemble S est fini car H est fini et car on ne trouve jamais deux fois le
même vecteur dans une suite finie libre de vecteurs de E. Choisissons dans S
un élément x 1 , . . . , x p , x p+1 , . . . , x n tel que n soit aussi grand que possible.
Montrons que le sous-espace vectoriel F de E engendré par la suite x 1 , . . . , x p ,
x p+1 , . . . , x n est égal à E. Il suffit de montrer que H ⊂ F. Soit x ∈ H ; la suite
x 1 , . . . , x p , x p+1 , . . . , x n est libre, et la suite x 1 , . . . , x p , x p+1 , . . . , x n , x est liée.
Par conséquent, d’après 4.0.3, x est une combinaison linéaire de la suite finie
x 1 , . . . , x p , x p+1 , . . . , x n . Autrement dit, x ∈ F.
Remarque. Le théorème 4.0.9 est le plus souvent appliqué en prenant G = E.
4.0.10 Corollaire. Tout espace vectoriel de dimension finie admet une base e1 ,
. . . , en . On convient qu’un espace vectoriel réduit à {0} admet ; comme base.
4.0.11 Lemme. Soit E un espace vectoriel sur K. Soit x 1 , . . . , x p une suite finie
de vecteurs de E, et soient y1 , . . . , y p+1 des combinaisons linéaires de x 1 , . . . , x p .
Alors les y1 , . . . , y p+1 sont linéairement dépendants.
Démonstration. Admis ; se démontre par récurrence sur p.
4.0.12 Théorème. Soit E un espace vectoriel de dimension finie sur K. Si x 1 , . . . ,
x p et y1 , . . . , yq sont deux bases de E, alors p = q.
Démonstration. Supposons que l’on ait p < q. Il résulte alors du lemme 4.0.11
que la suite y1 , . . . , y p , y p+1 est liée et donc, a fortiori, que la suite y1 , . . . , yq
est liée, ce qui est absurde par hypothèse. On a donc q ¶ p.
Par symétrie, on a aussi p ¶ q, et donc p = x.
4.0.13 Définition. Soit E un espace vectoriel de dimension finie sur K. Le
nombre de termes d’une base quelconque de E est appelé la dimension de E.
Ce nombre est noté dimK E (ou dim E).
Remarque. Soit E un espace vectoriel de dimension finie sur K. La dimension
de E est supérieure ou égale à 1, sauf si E est réduit à {0}. La dimension d’un
espace réduit à un point est par convention 0.
CHAPITRE I. ESPACES VECTORIELS
14
4.0.14 Théorème. Soit E un espace vectoriel de dimension finie n sur K. Soit
x 1 , . . . , x p une suite (finie de longueur p) de vecteurs de E. Alors :
1. Si la suite x 1 , . . . , x p est libre, on a p ¶ n. Plus précisément, on peut compléter x 1 , . . . , x p en une base x 1 , . . . , x p , x p+1 , . . . , x n de E.
2. Si la suite x 1 , . . . , x p engendre E, on a p ¾ n. Plus précisément, on peut
extraire de la suite x 1 , . . . , x p une base de E.
Démonstration. Résulte de 4.0.9.
4.0.15 Théorème. Soit E un espace vectoriel de dimension finie n sur K. Soit
x 1 , . . . , x p une suite de vecteurs de E. Les conditions suivantes sont équivalentes :
1. La suite x 1 , . . . , x p est une base de E.
2. La suite x 1 , . . . , x p est libre et p = n.
3. La suite x 1 , . . . , x p engendre E et p = n.
Démonstration. Résulte de 4.0.9 et 4.0.12.
Exemple. Considérons Kn muni de sa structure usuelle d’espace vectoriel sur
K (voir I.2). Alors Kn est un espace vectoriel de dimension finie n sur K (voir
I.4).
4.0.16 Théorème. Soit E un espace vectoriel de dimension finie n sur K et soit
F un sous-espace vectoriel de E. Alors F est un sous-espace vectoriel de dimension
finie, et l’on a :
dimK F ¶ dimK E
Pour que F = E, il faut et il suffit que dimK F = dimK E.
Démonstration. Admis ; utilise principalement 4.0.14.
Exercice. Soit E un espace vectoriel sur K de dimension finie. Soient F et G
deux sous-espaces vectoriels de E tels que F ⊂ G. Montrer que les conditions
suivantes sont équivalentes :
1. F = G
2. dim F = dim G
C’est une conséquence de 4.0.16 en considérant l’espace G à la place de l’espace E.
CHAPITRE I. ESPACES VECTORIELS
I.5
15
Rang d’une suite finie de vecteurs
5.0.1 Définition. Soit E un espace vectoriel sur K et soit x 1 , . . . , x p une suite
finie de vecteurs de E. Le rang de cette suite est€la dimension
Š du sous-espace
vectoriel de E qu’elle engendre. On le note rang x 1 , . . . , x p .
Notons que le rang de x 1 , . . . , x p ne peut pas dépasser p ni dim E quand E est
de dimension finie.
5.1
Méthode du pivot de Gauss
Nous allons indiquer, à partir d’un exemple, une méthode qui permet de déterminer le rang de x 1 , . . . , x p quand E est de dimension finie et que l’on connait
les coordonnées de x 1 , . . . , x p par rapport à une base de E. C’est la méthode
du pivot de Gauss, basée sur les deux propositions suivantes :
5.1.1 Proposition. Soit E un espace vectoriel sur K. On ne modifie pas le sousespace vectoriel de E engendré par une suite finie de vecteurs de E quand on fait
subir à cette suite l’une des transformations suivantes :
1. Changement de l’ordre de ses termes.
2. Multiplication de l’un quelconque de ses termes par un scalaire non nul.
3. Addition à l’un de ses termes d’un multiple d’un autre (au sens strict) terme.
5.1.2 Proposition.
Soit E un espace vectoriel de dimension finie n sur K et soit
E = e1 , . . . , en une base de E. Soit x 1 , . . . , x p une suite finie de longueur p de
vecteurs de E. On suppose :
– que la première coordonnée de x 1 par rapport à E n’est pas nulle,
– que la première coordonnée de x 2 par rapport à E est nulle et que la deuxième
n’est pas nulle,
– . . .,
– que les p − 1 premières coordonnées de x p par rapport à E sont nulles et la
pième n’est pas nulle.
Dans ces conditions, la suite x 1 , . . . , x p est libre et donc son rang est p.
Exemple. Soit E un espace vectoriel de dimension 3 sur R. Soit E = e1 , e2 , e3
une base de E. Considérons la suite S = x 1 , x 2 , x 3 , x 4 de vecteurs de E, avec
les coordonnées suivantes pour chaque x i suivant E :
x1 x2 x3
x4
2 −1
4 −4
3
2 −3
17
5 −3
8 −10
CHAPITRE I. ESPACES VECTORIELS
16
Ainsi, x 1 = 2e1 + 3e2 + 5e3 . On se propose de déterminer le rang de S , qui est
au plus égal
de
Š
€ suites de vecteurs
Š D’après€la propositionŠ 5.1.1, les
€ à dim E = 3.
000
00
00
000
0
00
0
00
0
0
0
0
E : S = x 1 , x 2 , x 3 , x 4 , S = x 1 , x 2 , x 3 , x 4 , S = x 1 , x 2 , x 3 , x 4 ont le
même rang que S , car elles engendrent le même sous-espace vectoriel de E.
x 1 x 20 = x 1 + 2x 2 x 30 = 2x 1 − x 3 x 40 = 2x 1 + x 4
2
0
0
0
3
7
9
23
5
−1
2
0
x1
2
3
5
x 20 x 300 = 9x 20 − 7x 30 x 400 = 23x 20 − 7x 40
0
0
0
7
0
0
−1
−23
−23
x1
2
3
5
x 20
x 300 x 4000 =
0
0
7
0
−1 −23
x 30 − x 400
0
0
0
Remarques. Notations de 5.1.
1. Les suites S , S 0 , S 00 , S 000 engendrent en fait le même sous-espace vectoriel F de E (voir 5.1.1) et la suite x 1 , x 20 , x 300 en est une base. Ici F = E.
2. Les suites x 1 , x 2 , x 3 et x 1 , x 20 , x 300 engendrent le même sous-espace vectoriel F de E. La suite x 1 , x 2 , x 3 est donc une base de F. L’égalité x 4000 = 0
implique x 4 = 2x 1 +4x 2 −x 3 ; elle permet donc d’obtenir les coordonnées
de x 4 par rapport à la base x 1 , x 2 , x 3 de F.
I.6
Espaces vectoriels quotients
Dans tout I.6, E est un espace vectoriel sur K et F est un sous-espace vectoriel
de E.
6.0.1 Proposition. La relation R entre éléments x, y de E, définie par xR y si
et seulement si x − y ∈ F, est une relation d’équivalence
sur E. Pour
tout x ∈ E,
la classe d’équivalence de x suivant R est x + F = x + y/ y ∈ F .
Démonstration. Si x ∈ E, on a x − x = 0E et 0E ∈ F donc xR x, c’est à dire que
R est refléxive. Si x, y ∈ E et si xR y, alors x − y ∈ F donc −(x − y) ∈ F, c’est
à dire y − x ∈ F, soit yR x ; R est donc symétrique. Si x, y, z ∈ E et si xR y et
si yRz, alors x − y ∈ F et y − z ∈ F donc (x − y) + ( y − z) ∈ F, c’est à dire
x − z ∈ F et donc
Si x ∈ E, la classe d’équivalence de x
xRz ; R est transitive.
suivant R est y ∈ E/ y − x ∈ F , c’est à dire x + F.
CHAPITRE I. ESPACES VECTORIELS
6.1
17
Notation et définition
L’ensemble quotient RE est encore noté EF et est appelé le quotient de E par F.
L’application ϕ : E 7→ EF , qui à tout x ∈ E associe sa classe d’équivalence suivant
R (c’est à dire x + F), est appelée la surjection canonique de E sur EF . Pour tout
x ∈ E, ϕ(x) est encore noté x. Notons que ϕ(x) est souvent appelé la classe
d’équivalence de x modulo F.
6.2
Proposition et définition
Munissons
E
F
de la loi interne notée + définie par x + y = x + y pour x, y ∈ E
et de la loi externe de domaine d’opérateurs K définie par λx = λx pour
λ ∈ K et x ∈ E. L’ensemble quotient EF est ainsi muni d’une structure d’espace
vectoriel sur K. Cet espace vectoriel est appelé l’espace vectoriel quotient de E
par F. Notons que 0E/F = 0E et −x = −x pour x ∈ E.
Démonstration. Notons tout d’abord que ces deux lois sont bien définies ; en
effet, supposons que x 1 = x 2 et y1 = y2 avec x 1 , x 2 , y1 , y2 ∈ E ; alors :
x 1 + y1 − x 2 + y2 = x 1 − x 2 + y1 − y2
x 1 + y1 = x 2 + y2 car
Comme x1 = x 2 , on ax 1 − x 2 ∈ F, et comme y1 = y2 , on a y1 − y2 ∈ F, et donc
x 1 − x 2 + y1 + y2 ∈ F car F est un sous-espace vectoriel de E. De même,
si λ ∈ K et si x 1 = x 2 pour x 1 , x 2 ∈ E, alors x 1 − x 2 ∈ F, donc λ x 1 − x 2 ∈ F,
ainsi λx 1 − λx 2 ∈ F, c’est à dire λx 1 = λx 2 . On vérifie aisément que EF est un
espace vectoriel sur K pour ces deux lois.
6.2.1 Proposition. Supposons E de dimension finie n. Soit e1 , . . . , e p une base de
F ; e1 , . . . , e p est une suite libre dans l’espace F, donc une suite libre dans l’espace
E ; on la complète en une base e1 , . . . , e p , e p+1 , . . . , en de E (voir 4.0.9 et 4.0.16).
Alors, e p+1 , . . . , en est une base de EF . En particulier, EF est de dimension finie, et
l’on a :
E
dim E = dim F + dim
F
Démonstration.
1. Soit x ∈ E. On a :
x = λ1 e1 + · · · + λ p e p + λ p+1 e p+1 + · · · + λn en
(λi ∈ K)
On a e1 = · · · = e p = 0E/F car e1 , . . . , e p ∈ F ; on a donc :
x = λ1 e1 + · · · + λ p e p + λ p+1 e p+1 + · · · + λn en = λ p+1 e p+1 + · · · + λn en
Par conséquent e p+1 , . . . , en engendre EF .
CHAPITRE I. ESPACES VECTORIELS
18
2. Montrons que e p+1 , . . . , en est une suite libre de EF . Soit λ p+1 , . . . , λn ∈ K
tels que λ p+1 e p+1 , . . . , λn en = 0E . On doit montrer que λ p+1 = · · · = λn =
0. On a :
λ p+1 e p+1 + · · · + λn en = 0E
Donc λ p+1 e p+1 + · · · + λn en ∈ F. Puisque e1 , . . . , e p est une base de F, il
existe λ1 , . . . , λ p ∈ K tels que :
λ p+1 e p+1 + · · · + λn en = λ1 e1 + · · · + λ p e p
On a donc :
€
Š
−λ1 e1 + · · · + −λ p e p + λ p+1 e p+1 + · · · + λn en = 0E
Comme e1 , . . . , e p , e p+1 , . . . , en est une base de E, on a λ p+1 = 0, . . . , λn =
0.
3. Il en résulte que EF est de dimension finie. Enfin on a :
dim E = n = p + (n − p) = dim F + dim
I.7
E
F
Applications linéaires
7.0.1 Définitions. Soient E et F deux espaces vectoriels sur K.
1. On appelle application linéaire de E dans F tout homomorphisme de E
dans F, c’est à dire toute application f de E dans F telle que :
∀x, y ∈ E
f (x + y) = f (x) + f ( y)
∀λ ∈ K, ∀x ∈ E
f (λx) = λ f (x)
2. Une application linéaire de E dans E est appelée un endomorphisme de
E, ou encore un opérateur linéaire sur E.
3. Si f : E 7→ F est linéaire bijective, on dit que f est un isomorphisme de
E sur F. Il est immédiat que f −1 : F 7→ E est alors un isomorphisme de F
sur E.
4. Un isomorphisme de E sur E est appelé un automorphisme de E.
Exemples. Soient E un espace vectoriel sur K et F un sous-espace vectoriel de
E. Alors :
1. L’application identique i : F 7→ E définie par i(x) = x pour tout x ∈ F est
linéaire.
2. La surjection canonique ϕ : E 7→ EF est une application linéaire par définition même des lois sur EF .
CHAPITRE I. ESPACES VECTORIELS
7.1
19
Espaces isomorphes
Soient E et F des espaces vectoriels sur K. S’il existe un isomorphisme de E sur
F, on dit que E est isomorphe à F, ou encore que E et F sont isomorphes. Ils
ont alors les « mêmes » propriétés.
7.1.1 Proposition. Soient E, F, G des espaces vectoriels sur K. Soient f : E 7→ F
et g : F 7→ G des applications linéaires. Alors g ◦ f : E 7→ G est linéaire.
Démonstration. Soient x, y ∈ E et λ ∈ K. Alors :
g◦f
x + y = g f x + y = g f (x) + f ( y)
= g f (x) + g f ( y)
= g ◦ f (x) + g ◦ f ( y)
De même :
g ◦ f (λx) = g f (λx) = λg f (x) = λ g ◦ f (x)
7.1.2 Corollaire. Le composé de deux isomorphismes d’espaces vectoriels (s’il
a un sens) est un isomorphisme d’espaces vectoriels. C’est également le cas des
endomorphismes et des automorphismes.
7.1.3 Proposition. Soient E et F des espaces vectoriels sur K et f : E 7→ F une
application linéaire. Alors :
1. f (0E ) = 0F et f (−x) = − f (x) pour tout x ∈ E.
2. Si A est un sous-espace vectoriel de E, alors f (A) est un sous-espace vectoriel
de F.
3. Si B est un sous-espace vectoriel de F, alors f −1 (B) est un sous-espace vectoriel de E.
7.2
Notation et définition
Soient E et F des
vectoriels sur K et f : E 7→ F linéaire. Le sous-espace
espaces
vectoriel f −1 0F de E est appelé le noyau de F et noté Ker F. On a donc :
Ker F = x ∈ E/ f (x) = 0F
Le sous-espace vectoriel f (E) de F est appelé l’image de f ; on le note Im f .
7.2.1 Proposition. Soient E et F des espaces vectoriels sur K et f : E 7→ F une
application linéaire. Alors :
CHAPITRE I. ESPACES VECTORIELS
20
1. f est surjective si et seulement si Im f = F.
2. f est injective si et seulement si Ker f = 0E .
Démonstration.
1. Évident.
2. Supposons f injective. Alors, si x ∈ Ker f , f (x)
= 0F = f (0E ) et comme
f est injective, x = 0E . On a donc Ker f = 0E (rappelons que 0E ∈
Ker f ). Inversement, supposons que Ker f = 0E . Soient x 1 , x 2 ∈ E tels
que f (x 1 ) = f (x 2 ). On a f x 1 − x 2 = 0F donc x 1 − x 2 ∈ Ker f , c’est à
dire x 1 − x 2 = 0E , et x 1 = x 2 .
7.3
Théorème et définition
Soient E et F des espaces vectoriels sur K et f : E 7→ F linéaire. Soient ϕ : E 7→
E
la surjection canonique et i : f (E) 7→ F l’application identique de f (E)
Ker f
dans F. Rappelons que ϕ et i sont linéaires. Alors :
1. Pour tous x 1 , x 2 ∈ E on a ϕ(x 1 ) = ϕ(x 2 ) si et seulement si f (x 1 ) = f (x 2 ).
2. L’application g : KerE f 7→ Im f définie par g(x) = f (x) a un sens et est un
isomorphisme d’espaces vectoriels.
3. Le diagramme suivant est commutatif :
f
E
ϕ
E
Ker f
/F
O
i
g
/ f (E)
C’est à dire que f = i ◦ g ◦ ϕ. Cette décomposition est appellée la décomposition canonique.
Démonstrations.
1. Soient x 1 , x 2 ∈ E. Alors :
ϕ(x 1 ) = ϕ(x 2 ) ⇐⇒ x 1 = x 2
⇐⇒ x 1 − x 2 ∈ Ker f
⇐⇒ f x 1 − x 2 = 0
⇐⇒ f (x 1 ) − f (x 2 ) = 0
⇐⇒ f (x 1 ) = f (x 2 )
CHAPITRE I. ESPACES VECTORIELS
21
2. D’après le 1, g est bien définie. Montrons que g est linéaire. Soient
x 1 , x 2 ∈ E et λ ∈ K. On a :
€
Š
g x 1 + x 2 = g x 1 + x 2 = f x 1 + x 2 = f (x 1 ) + f (x 2 ) = g(x 1 ) + g(x 2 )
€
Š
et g(λx 1 ) = g λx 1 = f (λx 1 ) = λ f (x 1 ) = λg(x 1 ) ; g est donc linéaire.
g est injective car g(x) = 0 f (E) (avec x ∈ E) implique f (x) = 0F , donc
x ∈ Ker f d’où x = 0, et 0 est l’élément neutre de KerE f .
g est surjective car :
Im g = g(x/x ∈ E
= f (x)/x ∈ E
= Im f
3. Soit x ∈ E. Alors :
i ◦ g ◦ ϕ (x) = i ◦ g ϕ(x)
= i ◦ g (x)
= i g(x)
= g(x)
= f (x)
7.4
Proposition et définition
Soient E et F des espaces vectoriels sur K et f : E 7→ F linéaire. Alors :
1. Si A est une partie génératrice de E, f (A) est une partie génératrice de
Im f .
2. Si E est de dimension finie, Im f est de dimension finie. Le rang de f ,
noté rang f , est par définition dim Im f .
Démonstrations.
1. Soit y ∈ Im f . Soit x ∈ E tel que y = f (x). Comme APengendre E, il
n
existe x 1 , . . . , x n ∈ A et λ1 , . . . , λn ∈ K tels que x = i=1 λi x i . On a
alors :
!
n
n
X
X
λi f (x i )
y = f (x) = f
λi x i =
i=1
i=1
Et comme f (x i ) ∈ f (A) pour i = 1, . . . , n, on voit que f (A) engendre
Im f (voir 3.1.5).
CHAPITRE I. ESPACES VECTORIELS
22
2. Supposons E de dimension finie. Soit A une partie génératrice finie de
E. Alors f (A) est une partie finie de Im f et d’après le 1, f (A) engendre
Im f . Par conséquent, Im f est de dimension finie.
7.4.1 Théorème. Soient E et F des espaces vectoriels sur K et f : E 7→ F linéaire.
On suppose E de dimension finie n et on désigne par e1 , . . . , en une base de E
telle que e1 , . . . , e p soit une base de Ker f (voir la démarche faite en 6.2.1). Alors
€
Š
f e p+1 , . . . , f en est une base de Im f . En particulier, on a :
dim E = dim Ker f + rang f
Démonstration. Considérons le diagramme :
E
f
ϕ
E
Ker f
/F
O
i
g
/ Im f
D’après 6.2.1, e p+1 , . . . , en est une base de KerE f . L’application g : KerE f 7→ Im f
€
Š
étant un isomorphisme, g e p+1 , . . . , g en est une base de Im f . Autrement
€
Š
dit, f e p+1 , . . . , f en est une base de Im f . Enfin on a :
dim E = n = p + (n − p) = dim Ker f + dim Im f
et par définition dim Im f = rang f .
7.4.2 Théorème. Soient E et F des espaces vectoriels de dimension finie sur K et
soit f : E 7→ F linéaire. On suppose que dim E = dim F. Les conditions suivantes
sont équivalentes :
1. f est injective.
2. f est surjective.
3. f est bijective.
Démonstration. Admis.
7.4.3 Proposition. Soient E et F des espaces vectoriels sur K. On suppose que E
est de dimension finie n, et on désigne par e1 , . . . , en une base de E. Soit b1 , . . . , bn
une suite finie de longueur n de vecteurs de F. Alors il existe
une et une seule
application linéaire f : E 7→ F telle que f e1 = b1 , . . . , f en = bn .
Pour que f soit injective, il faut et il suffit que b1 , . . . , bn soit libre. Pour que f
soit surjective, il faut et il suffit que la suite b1 , . . . , bn engendre F. Pour que f soit
bijective, il faut et il suffit que b1 , . . . , bn soit une base de F.
CHAPITRE I. ESPACES VECTORIELS
23
Démonstration. Exercice.
7.4.4 Corollaire.
1. Pour que deux espaces vectoriels de dimensions finies sur K soient isomorphes, il faut et il suffit qu’ils aient la même dimension.
2. Si E est un espace vectoriel de dimension finie n sur K, alors E est isomorphe
à Kn .
I.8
Sous-espaces vectoriels supplémentaires
E désigne un espace vectoriel sur K.
8.0.1 Définition. Soient F1 et F2 des sous-espaces vectoriels de E. Le sousespace vectoriel de E engendré par F1 ∪ F2 est :
F1 + F2 = x 1 + x 2 /x 1 ∈ F1 et x 2 ∈ F2
(voir 3.1.6). On dit que F1 + F2 est la somme de F1 et F2 .
8.1
Proposition et définition
Soient F1 et F2 des sous-espaces vectoriels de E. Les conditions suivantes sont
équivalentes :
1. On a F1 + F2 = E et F1 ∩ F2 = 0E .
2. Tout vecteur x de E s’écrit de façon unique (à l’ordre près) sous la forme
x = x 1 + x 2 avec x 1 ∈ F1 et x 2 ∈ F2 .
3. On a F1 +F2 = E et les hypothèses x 1 ∈ F1 , x 2 ∈ F2 , x 1 + x 2 = 0 impliquent
x 1 = x 2 = 0.
Démonstrations.
1 =⇒ 2 Soit x ∈ E. Supposons que x = x 1 + x 2 et x = y1 + y2 avec x 1 , y1 ∈ F1
et x 2 , y2 ∈ F2 . On a x 1 + x 2 = y1 + y2 donc x 1 − y1 = y2 − x 2 . Comme
x 1 , y1 ∈ F1 , x 1 − y1 ∈ F1 ; de même y2 − x 2 ∈ F2 . On en déduit que
x 1 − y1 , y2 − x 2 ∈ F1 ∩F2 , donc x 1 − y1 = 0 et y2 − x 2 = 0. Par conséquent
x 1 = y1 et x 2 = y2 .
2 =⇒ 3 Soient x 1 ∈ F1 et x 2 ∈ F2 tels que x 1 + x 2 = 0. On a 0 + 0 = 0 avec
0 ∈ F1 , 0 ∈ F2 et 0 ∈ E ; la condition d’unicité du 2 implique x 1 = 0 et
x 2 = 0.
CHAPITRE I. ESPACES VECTORIELS
24
3 =⇒ 1 Soit x ∈ F1 ∩ F2 ; on doit montrer que x = 0. On a x ∈ F2 donc −x ∈ F2
et comme x + (−x) = 0 avec x ∈ F1 , −x ∈ F2 on a x = 0 d’après 3.
8.1.1 Définition. Lorsque l’une quelconque des conditions de 8.1 est remplie,
on dit que F1 et F2 sont supplémentaires dans E, et l’on écrit E = F1 ⊕ F2 . On dit
aussi que E est somme directe de F1 et de F2 .
8.2
Proposition et définition
Soient F1 et F2 deux sous-espaces vectoriels supplémentaires de E. À tout vecteur x = x 1 + x 2 de E, avec x 1 ∈ F1 et x 2 ∈ F2 , faisons correspondre le vecteur
x 1 de F1 . L’application p1 : E 7→ F1 ainsi définie est linéaire, surjective, et son
noyau est F2 . La décomposition canonique de p1 fournit donc en particulier un
isomorphisme de FE sur F1 . On dit que p1 est la projection de E sur F1 , parallè2
lement à F2 . On définit de même la projection p2 de E sur F2 , parallèlement à
F1 .
Démonstration. Soient x = x 1 + x 2 et y = y1 + y2 des vecteurs de E, avec
x 1 , y1 ∈ F1 et x 2 , y2 ∈ F2 et soit λ ∈ K. On a :
x + y = x 1 + x 2 + y1 + y2
= x 1 + y1 + x 2 + y2
Comme x 1 , y1 ∈ F1 , x 1 + y1 ∈ F1 ; de même x 2 + y2 ∈ F2 . Par définition de p1 ,
on a donc p1 (x + y) = x 1 + y1 . Par ailleurs, on a p1 (x) = x 1 et p1 ( y) = y1 , donc
p1 (x + y) = p1 (x) + p1 ( y). De même, x = x 1 + x 2 donc λx = λ x 1 + x 2 =
λx 1 = λx 2 . Comme λx 1 ∈ F1 et λx 2 ∈ F2 , on a par définition de p1 , p1 (λx) =
λx 1 et x 1 = p1 (x) ; on a donc p1 (λx) = λp1 (x). p1 est donc linéaire.
p1 est surjective, car si y ∈ F1 , alors y = y + 0 avec y ∈ F1 et 0 ∈ F2 et donc
p1 ( y) = y.
Montrons que Ker p1 = F2 . Si x ∈ E et si p1 (x) = 0, alors sachant que x =
x 1 + x 2 avec x 1 ∈ F1 et x 2 ∈ F2 , on a x 1 = p1 (x) = 0 et donc x = x 2 ce
qui montre que x est dans F2 . Donc Ker p1 ⊂ F2 . Réciproquement, si x ∈ F2 ,
alors x = 0 + x avec 0 ∈ F1 et x ∈ F2 , d’où p1 (x) = 0 et x ∈ Ker p1 . Donc
F2 ⊂ Ker p1 .
8.2.1 Proposition. Supposons que E soit de dimension finie n sur K.
1. Soit e1 , . . . , en une base de E. Soit F1 le sous-espace vectoriel de E engendré par e1 , . . . , eq , et soit F2 le sous-espace vectoriel de E engendré par
eq+1 , . . . , en . Alors F1 et F2 sont supplémentaires.
CHAPITRE I. ESPACES VECTORIELS
25
2. Soient G1 et G2 deux sous-espaces vectoriels supplémentaires
de E. Soit
a1 , . . . , a r une base de G1 , et soit b1 , . . . , bs une base de G2 . Alors
a1 , . . . , a r , b1 , . . . , bs est une base de E. On a donc :
dim E = n = dim G1 + dim G2
3. Soit F un sous-espace vectoriel de E. Alors F possède au moins un sousespace supplémentaire dans E.
Démonstration. Exercice.
8.3
Généralisation
Soient F1 , . . . , F p des sous-espaces vectoriels de E. On dira que E est somme
directe de F1 , . . . , F p si tout vecteur x de E s’écrit de manière unique x =
x 1 + · · · + x p avec x 1 ∈ F1 , . . . , x p ∈ F p . On écrit alors E = F1 ⊕ · · · ⊕ F p .
I.9
Espace vectoriel produit
9.1
Définition et proposition
Soient E1 , . . . , E p des espaces vectoriels sur K. Munissons l’ensemble E1 × · · · ×
E p de la loi interne +, définie par :
€
Š €
Š €
Š
x 1 , . . . , x p + y1 , . . . , y p = x 1 + y1 , . . . , x p + y p
et de la loi externe de domaine d’opérateurs K définie par :
€
Š €
Š
λ x 1 , . . . , x p = λx 1 , . . . , λx p
Alors :
1. E1 × · · · × E p est ainsi muni d’une structure d’espace vectoriel sur K. On
dit que c’est l’espace vectoriel produit de E1 , . . . , E p .
2. Pour tout i ∈ 1, . . . , p , la i e projection pi : E1 × · · · × E p 7→ Ei définie par
€
Š
pi x 1 , . . . , x p = x i est linéaire.
3. Pour tout i ∈ 1, . . . , p , soit Fi = 0, . . . , 0, x i , 0, . . . , 0 /x i ∈ Ei . Alors
Fi est un sous-espace vectoriel de E1 × · · · × E p et l’on a E1 × · · · × E p =
F1 ⊕ · · · ⊕ F p .
Démonstration. Exercice.
CHAPITRE I. ESPACES VECTORIELS
26
9.1.1 Proposition. Soit E un espace vectoriel sur K, et soient F1 , . . . , F p des sousespaces vectoriels de E. On suppose que E = F1 ⊕ · · · ⊕ F p . Alors l’application de
€
Š
F1 × · · · × F p dans E, qui à x 1 , . . . , x p associe x 1 + · · · + x p est un isomorphisme
d’espaces vectoriels.
Démonstration. Exercice.
Problème. Soient E1 , . . . , E p des espaces vectoriels de dimension finie sur K.
Montrer que E1 × · · · × E p est un espace vectoriel de dimension finie sur K, et
€
Š
que dim E1 × · · · × E p = dim E1 + · · · + dim E p .
I.10
10.1
Espaces vectoriels d’applications linéaires
Notation et définition
Soient E et F des espaces vectoriels sur K. On note L (E, F) l’ensemble des
applications linéaires de E dans F.
Soient f , g ∈ L (E, F) et λ ∈ K. Alors l’application de E dans F, notée f + g,
qui à tout x de E associe f (x) + g(x) est linéaire. De même, l’application de E
dans F, qui à tout x de E associe λ f (x) est linéaire. Munissons L (E, F) de la
loi interne, notée +, qui à tous ( f , g) ∈ L (E, F) × L (E, F) associe f + g, et de
la loi externe de domaine d’opérateur K, qui à tout f ∈ L (E, F) et tout λ ∈ K
associe λ f . On munit ainsi L (E, F) d’une structure d’espace vectoriel sur K.
Notons que le zéro de L (E, F) est l’application nulle de E dans F, qui à tout
x ∈ E associe 0F ; on la note simplement 0, ou 0L (E,F) .
Notons aussi que l’opposé de f ∈ L (E, F) est l’application x → − f (x) : E 7→ F
que l’on note − f .
10.2
Cas particuliers
Remarques.
1. Soit E un espace vectoriel sur K. D’après 10.1, L (E, E), encore noté
L (E), est canoniquement muni d’une structure d’espace vectoriel sur K.
On peut munir L (E) d’une seconde loi interne, à savoir la composition
des applications, notée ◦. L’ensemble L (E) muni de + et de ◦ est un
anneau unitaire ; l’élément neutre pour ◦ est l’identité de E dans E, notée
IdE . L’ensemble des éléments inversibles de l’anneau unitaire L (E) est
un groupe pour la loi ◦. Ce groupe est appelé le groupe linéaire de E et
il est noté GL(E). Notons que les éléments inversibles de L (E) ne sont
autres que les automorphismes de E.
CHAPITRE I. ESPACES VECTORIELS
27
2. Soit E un espace vectoriel sur K. L (E, K) est un espace vectoriel sur K
pour les lois définies en 10.1 avec ici F = K. Cet espace vectoriel est noté
E∗ et est appelé le dual de E. Les éléments de E∗ sont appelés des formes
linéaires de E.
Chapitre II
Matrices
II.1
Définition
Soient n, p ∈ N∗ . On appelle matrice de type (n, p) à coefficients dans K tout
tableau de la forme :


a11 a12 . . . a1p
a

 21 a22 . . . a2p 
A =  ..
..
.. 
 .
.
. 
an1 an2 . . . anp
où les ai j sont dans K. La matrice A a n lignes et p colonnes. Les scalaires ai j
sont appelés les coefficients de A. Le coefficient ai j est situé sur la i e ligne et sur
€ Š
€ Š
la j e colonne. La matrice A se note brièvement ai j 1¶i¶n ou ai j . La suite
€
Š
€ 1¶ j¶p
Š
e
ai1 , . . . , ai p est appelée la i ligne de A. La suite a1 j , . . . , an j est appelée
la i e colonne de A. Chaque ligne (resp. colonne) de A peut s’identifier à un
vecteur d’espace vectoriel K p (resp. Kn ) appelé vecteur ligne (resp. vecteur
colonne) de A.
Si K = R (resp. si K = C) la matrice A est dite réelle (resp. complexe).
L’ensemble des matrices de type (n, p) à coefficients dans K est noté Mnp (K).
On note Mn (K) l’ensemble Mnn (K).
II.2
Matrices particulières
€ Š
Soient n, p ∈ N∗ et soit A = ai j une matrice de type (n, p) à coefficients dans
K.
1. Si p = 1, on dit que A est une matrice colonne.
28
CHAPITRE II. MATRICES
29
2. Si n = 1, on dit que A est une matrice ligne.
3. Si tous les ai j sont nuls, on dit que A est la matrice de type (n, p) à
coefficients nuls dans K. On la note 0 ou 0np .
4. Si n = p, lamatrice A est dite carrée d’ordre n. Dans ce cas, la suite
a11 , . . . , ann est appelée la diagonale principale de A.
5. Si A est carrée et si tous les coefficients situés en dehors de la diagonale
principale sont nuls, à savoir ai j = 0 dès que i 6= j, on dit alors que A est
une matrice diagonale.
6. Si A est carrée et si tous les coefficients situés strictement au dessus de
la diagonale principale sont nuls, à savoir ai j = 0 dès que j > i, on dit
que A est triangulaire inférieure. De même, si tous les coefficients situés
strictements en dessous de la diagonale principale sont nuls, c’est à dire
si ai j = 0 dès que i > j, on dit que A est trangulaire supérieure.
7. Si A est carrée et si ai j = a ji pour tous i, j, on dit que A est une matrice
carrée symétrique.
8. La matrice diagonale dont tous les coefficients situés sur la diagonale
principale valent 1 est notée In ou I, et est appelée la matrice unité
d’ordre n (à coefficients dans K).
II.3
Opérations sur les matrices
3.0.1 Proposition. Soient n, p ∈ N∗ . Sur Mnp (K) définissons une addition de
€ Š
€ Š
la façon suivante : si A = ai j et si B = bi j appartiennent à Mnp (K), on
€ Š
pose A + B = C avec C = ci j et ci j = ai j + bi j pour tous i ∈ {1, . . . , n} et
j ∈ 1, . . . , p .
Définissons également sur Mnp (K) une loi externe de domaine d’opérateurs K
€ Š
€
Š
en associant à tout λ ∈ K et à tout A = ai j ∈ Mnp (K) l’élément λA = λai j
de Mnp (K).
On munit ainsi Mnp (K) d’une structure d’espace vectoriel sur K. L’élément nul
€ Š
€
Š
de Mnp (K) est 0np . L’opposée de A = ai j , notée −A, est −ai j .
3.1
Matrices élémentaires
Soient n, p ∈ N∗ . Pour tous i ∈ {1, . . . , n} et j ∈ 1, . . . , p la matrice élémentaire Ei j de Mnp (K) est par définition celle dont tous les coefficients sont nuls,
excepté celui qui est sur la i e ligne et sur la j e colonne, qui lui vaut 1. Il est
immédiat que les Ei j forment une base de Mnp (K). En particulier l’espace
vectoriel Mnp (K) est de dimension finie np.
CHAPITRE II. MATRICES
3.2
30
Transposition
€ Š
€ Š
Soient A = ai j ∈ Mnp (K). La transposée de A, notée t A, est l’élément bi j
de M pn (K) défini par bi j = a ji . Il est immédiat que l’application A → t A :
Mnp (K) → M pn (K) est linéaire.
Remarque. Si A ∈ Mnp (K), il peut être commode de noter Ai j le coefficient de
A situé sur la i e ligne et sur la j e colonne.
Exemple. Soient A, B ∈ Mnp (K). Alors on a t (A + B) = t A + t B. t (A + B) et
t
A + t B appartiennent à Mnp (K). Soient i ∈ 1, . . . , p et j ∈ {1, . . . , n}. Alors
on a :
t
3.3
(A + B) i j = (A + B) ji = A ji + B ji = ( t A)i j + ( t B)i j =
t
A + tB ij
Produit de matrices
€ Š
Soient n, p, q ∈ N∗ . Soient A = ai j ∈ Mnp (K) et B = bkl ∈ Mqn (K). Le
€ Š
produit BA de B par A est par définition l’élément ci j de Mqp (K) tel que
ci j =
n
X
bik · ak j
k=1
pour tous i ∈ 1, . . . , q et j ∈ 1, . . . , p . Cette définition a un sens car le
nombre de colonnes de B est égal au nombre de lignes de A.
3.4
Matrices carrées
Soit n ∈ N∗ . D’après 3.0.1, Mn (K) est canoniquement un espace vectoriel sur
K. On peut munir Mn (K) d’une seconde loi interne, à savoir le produit de
matrice. L’ensemble Mn (K) muni de l’addition et de la multiplication est un
anneau unitaire ; l’élément neutre pour la multiplication est In . L’ensemble des
éléments inversibles de cet anneau unitaire est un groupe pour la multiplication. Ce groupe est appelé le groupe linéaire d’ordre n sur K et il est noté
GLn (K).
Exercice. Vérifier en détail toutes les propriétés données dans II.3.
II.4
Matrices et applications linéaires
4.0.1 Définition.
Soient
finie sur
€
Š E et F deux espaces vectoriels de dimension
K. Soit E = e1 , . . . , e p une base de E et soit F = f1 , . . . , f n une base de
CHAPITRE II. MATRICES
31
F. Soit u ∈ L (E, F). On appelle matrice de u par rapport aux bases E et F
l’élément de Mnp (K), noté MF E (u), dont la j e colonne est constituée par les
coordonnées u(e j ) par rapport à F . Si E = F, on écrit ME (u) au lieu de ME E (u).
4.0.2 Théorème. Notations de 4.0.1. Alors l’application Φ : L (E, F) 7→ Mnp (K)
définie par Φ(u) = MF E (u) est un isomorphisme d’espaces vectoriels (linéaire et
bijective).
Démonstration. Le fait que Φ soit bijective découle de 7.4.3. Montrons que Φ
est linéaire.
Soient u, v ∈ L (E, F) et λ ∈ K, on doit
que Φ(u€+ v)
€ montrer
Š
Š = Φ(u) + Φ(v)
et Φ(λu) = λΦ(u). On a MF E (u) = ai j et MF E (v) = bi j . Pour tout j ∈
1, . . . , p on a :
(u + v)(e j ) = u(e j ) + v(e j )
n
n
X
X
bi j f i
ai j f i +
=
i=1
i=1
=
n
X
€
Š
ai j + bi j f i
i=1
On a par conséquent MF E (u + v) = MF E (u) + MF E (v).
De même M(λu) = λM(u).
4.0.3 Théorème.
Soient
€
Š E, F, G des espaces vectoriels de dimension finie sur K.
Soient E = e1 , . . . , e p une base de E, F = f1 , . . . , f n une base de F et G =
€
Š
g1 , . . . , gq une base de G. Soient u ∈ L (E, F) et v ∈ L (F, G). Alors :
MG E (v ◦ u) = MG F (v)MF E (u)
€ Š
Démonstration. Posons MF E (u) = ai j et MG F (v) =
1, . . . , p on a :
€
Š
(v ◦ u)(e j ) = v u(e j )
!
n
X
=v
ak j f k
k=1
=
n
X
ak j v( f k )
k=1
=
=
n
X
ak j
q
X
bik g i
i=1
k=1
q
X
n
X
i=1
k=1
!
bi j ak j
gi
bkl . Pour tout j ∈
CHAPITRE II. MATRICES
32
ce qui établit 4.0.3.
4.1
Remarques utiles
En utilisant 4.0.2 et 4.0.3, on peut obtenir des propriétés concernant les matrices en s’appuyant sur des propriétés qui concernent des applications linéaires, et inversement.
Exemples. Soient E, F, G des espaces vectoriels sur K et soient u1 , u2 ∈ L (E, F)
et v1 , v2 ∈ L (F, G). Il est immédiat que l’on a v ◦ (u1 + u2 ) = v1 ◦ u1 + v1 ◦ u2
et (v1 + v2 ) ◦ u1 = v1 ◦ u1 + v2 ◦ u1 . Il en résulte que si A1 , A2 ∈ Mnp (K) et si
B1 , B2 ∈ Mqn (K), on a B1 (A1 +A2 ) = B1 A1 +B1 A2 et (B1 +B2 )A1 = B1 A1 +B2 A2 .
Soient E, F, G, H des espaces vectoriels sur K et soient u ∈ L (E, F), v ∈
L (F, G), w ∈ L (G, H). Il est immédiat que (w ◦ v)◦u = w ◦(v ◦u). On en déduit
que si A ∈ Mnp (K), B ∈ Mqn (K) et si C ∈ Mnq (K), on a (CB)A = C(BA).
Exercice. Démontrer ceci directement avec les matrices en vérifiant :
[(CB)A]i j = [C(BA)]i j
Exemple. Soient E et F des espaces vectoriels sur K de dimension finie p et n.
On a vu en 3.1 que Mnp (K) et de dimension finie np ; il en résulte que L (E, F)
est de dimension finie np.
4.2
Notation matricielle d’une application linéaire
Dans tout 4.2, E et F sont
€ des espaces
Š vectoriels de dimension finiesur K. On
munit E d’une base E = e1 , . . . , e p et F d’une base F = f1 , . . . , f n .
4.3
Notation et définition
Soit x ∈ E. On a x =
Pp
αi ei de manière unique. On pose :
 
α
 .1 

ME (x) =  .. 
 ∈ Mnp (K)
αp
i=1
On dit que ME (x) est la matrice de x par rapport à E . Deux vecteurs x 1 et x 2
de E sont égaux si et seulement si ME (x 1 ) = ME (x 2 ).
4.3.1 Proposition. Soit u ∈ L (E, F). Alors pour tout x ∈ E, on a :
MF (u(x)) = MF E (u)ME (x)
CHAPITRE II. MATRICES
33
Démonstration. Exercice.
4.3.2 Théorème.
Soit E un espace vectoriel de dimension finie sur K et soit
E = e1 , . . . , en une base de E. Alors l’application Φ : L (E) 7→ Mn (K) définie
par :
Φ(u) = ME (u)
est un isomorphisme d’anneaux unitaires. En particulier, on a :
Φ (GL(E)) = GLn (K)
Démonstration. Conséquence de 4.0.2 et 4.0.3.
II.5
Rang d’une matrice
€ Š
5.0.1 Définition. Soit A ∈ Mnp (K). Posons A = ai j . Désignons par E un
espace vectoriel
finie
sur K de dimension
n et choisissons dans E une base
E = e1 , . . . , en 1 . Pour tout j ∈ 1, . . . , p , posons :
vj =
n
X
ai j ei
i=1
Si on a choisi (E, E ) égal à Kn avec sa base canonique, v j n’est autre que le j e
vecteur colonne de la matrice A. On appelle rang de A, noté rang A ou rg A, le
rang de la suite finie v1 , . . . , vp de vecteurs de E. Il résulte de 7.4.3 que cette
définition ne dépend pas du couple (E, E ) choisi.
5.0.2 Proposition.
€
ŠSoient E et F des espaces vectoriels de
dimension finie sur
K, E = e1 , . . . , e p une base de E, et F = f1 , . . . , f n une base de F. Soit
u ∈ L (E, F). Alors on a :
rang u = rang MF E (u)
€ Š
Démonstration. Posons A = ai j = MF E (u). On a :
rang u = dim Im u
€
Š
= rang u(e1 ), . . . , u(e p )
(voir 7.4)
€
Š
Pn
Pour tout j ∈ 1, . . . , p soit v j = i=1 ai j f i . On a rang A = rang v1 , . . . , vp
par définition de rang A. On a donc rang u = rang A car u(e1 ) = v1 , . . . , v(e p ) =
vp par définition de MF E (u).
5.0.3 Proposition. Soit A ∈ Mnp (K). Alors on a :
rang( t A) = rang A
1
En pratique, (E, E ) sera le plus souvent Kn muni de sa base canonique.
CHAPITRE II. MATRICES
II.6
6.1
34
Matrices carrées inversibles
Définitions et rappels
Soit A ∈ Mn (K). On dit que A est inversible s’il existe B ∈ Mn (K) tel que
AB = In et BA = In (voir 3.4). S’il existe une telle matrice B, elle est unique ;
en effet soient B1 , B2 ∈ Mn (K) tels que AB1 = B1 A = In et AB2 = B2 A = In ; on
a:
B1 = B1 In = B1 (AB2 ) = (B1 A)B2 = In B2 = B2
Cette matrice B est notée A−1 et est appelée l’inverse de A dans Mn (K).
6.1.1 Proposition. Soit E un espace vectoriel de dimension finie n sur K et soit
E une base de E. Soit u ∈ L (E). Alors u est bijective si et seulement si ME (u) est
inversible. De plus, si u est bijective, alors :
−1
ME (u−1 ) = ME (u)
Démonstration. Conséquence de 4.3.2.
6.1.2 Proposition. Soient A, B ∈ Mn (K). Les conditions suivantes sont équivalentes :
1. A est inversible et B est son inverse, c’est à dire AB = In et BA = In .
2. AB = In .
Démonstration. Introduire un espace vectoriel E de dimension finie n sur K ;
choisir une base E de E ; considérer les deux éléments u et v de L (E) tels que
ME (u) = A et ME (v) = B. L’hypothèse 2 signifie que u ◦ v = IdE .
Remarque. Si A ∈ Mn (K) et si A est inversible, alors A−1 est inversible et
(A−1 )−1 = A.
6.1.3 Proposition. Soit A ∈ Mn (K). Alors A est inversible si et seulement si
rang A = n.
Démonstration. Soit E un espace vectoriel de dimension n sur K et soit E une
base de E. Soit u l’unique élément de L (E) tel que ME (u) = A. D’après 7.4.2,
u est bijective si et seulement si rang u = n. D’après 6.1.1, u est bijective si et
seulement si A est inversible, et d’après 5.0.2, rang u = rang A. Par conséquent
A est inversible si et seulement si rang A = n.
CHAPITRE II. MATRICES
II.7
35
Changement de base
7.0.1 Définition. Soit E un
de dimension finie p sur K. Soient
espace vectoriel
€
Š
0
0
0
E = e1 , . . . , e p et E = e1 , . . . , e p deux bases de E. On appelle matrice de
passage de la base E à la base E 0 la matrice de l’application linéaire :
IdE : (E, E 0 ) 7→ (E, E )
On la note PE E 0 . La j e colonne de PE E 0 est donc constituée par les coordonnées
de e0j par rapport à E .
7.0.2 Proposition. Notations de 7.0.1. Alors PE E 0 est un élément inversible de
M p (K) et l’on a :
−1
PE E 0
= PE 0 E
Démonstration. En effet :
I p = ME (IdE ) = ME E 0 (IdE )ME 0 E (IdE ) = PE E 0 PE 0 E
Pour mieux comprendre cette ligne, considérer le diagramme :
IdE
IdE
(E, E ) −→ (E, E 0 ) −→ (E, E )
7.0.3 Proposition. Notations de 7.0.1. Soit x un vecteur de E. Alors on a :
ME (x) = PE E 0 ME 0 (x)
Démonstration. Conséquence de la proposition 2 de 4.2.
7.0.4 Proposition. Soient E et F des espaces vectoriels de dimension finie sur K.
Soient E et E 0 des bases de E, et soient F et F 0 des bases de F. Soit u ∈ L (E, F).
Alors on a :
MF 0 E 0 (u) = PF 0 F MF E (u)PE E 0
M (u)PE E 0
= P−1
FF0 FE
Démonstration. Il suffit de considérer le diagramme :
IdE
u
IdF
→ (F, F ) −→ (F, F 0 )
(E, E 0 ) −→ (E, E ) −
et d’appliquer 4.0.3.
CHAPITRE II. MATRICES
36
7.0.5 Corollaire. Soit E un espace vectoriel de dimension finie sur K, et soient
E et E 0 des bases de E. Soit u ∈ L (E). Alors on a :
ME 0 (u) = PE 0 E ME (u)PE E 0
M (u)PE E 0
= P−1
EE0 E
7.0.6 Définitions.
1. Soient A, B ∈ Mnp (K). On dit que A et B sont équivalentes s’il existe
R ∈ M p (K) et S ∈ Mn (K) inversibles et telles que B = SAR.
2. Soient A, B ∈ Mn (K). On dit que A et B sont semblables s’il existe P ∈
Mn (K) inversible et telle que B = P−1 AP.
Chapitre III
Déterminants
III.1
Permutations d’un ensemble fini
Rappel. Soit E = {1, . . . , n}. On appelle permutation de E toute bijection de E
sur E. Une permutation ϕ de E peut se noter :
1
2 ... n
ϕ=
ϕ(1)ϕ(2) . . . ϕ(n)
Il y a n! permutations de E.
Pour la composition des applications, l’ensemble des permutations de E est
un groupe appelé le groupe symétrique d’ordre n, et noté Sn .
On appelle transposition de E toute permutation de E qui échange deux éléments distincts i et j de E en laissant tous les autres fixes. Une telle transposition est notée t i j . Notons que t i j = t ji = t i−1
.
j
1.0.1 Théorème. Soit ϕ une permutation de E = {1, . . . , n}. Alors il existe k
transpositions t 1 , . . . , t k de E telles que ϕ = t k ◦ t k−1 ◦ · · · ◦ t 1 .
Une telle décomposition de ϕ n’est pas unique. Toutefois, pour une permutation
donnée ϕ de E, k est toujours pair, ou k est toujours impair.
Démonstration. Admis ; par récurrence.
1.0.2 Définitions. Soit ϕ une permutation de {1, . . . , n}. Soient t 1 , . . . , t k des
transpositions de E telles que ϕ = t k ◦ · · · ◦ t 1 . Le nombre (−1)k , qui ne dépend
que de ϕ, est appelé la signature de ϕ et est noté "(ϕ).
Si "(ϕ) = 1, on dit que ϕ est paire, et si "(ϕ) = −1 on dit que ϕ est impaire.
Toute transposition de E est ainsi impaire.
1.0.3 Proposition. Soient ϕ1 et ϕ2 deux permutations de E. Alors on a :
" ϕ1 ◦ ϕ2 = "(ϕ1 )"(ϕ2 )
37
CHAPITRE III. DÉTERMINANTS
38
Démonstration. Soient t 1 , . . . , t k et τ1 , . . . , τ` des transpositions de E telles que
ϕ1 = t k ◦ · · · ◦ t 1 et ϕ2 = τ` ◦ · · · ◦ τ1 . On a :
ϕ1 ◦ ϕ2 = t k ◦ · · · ◦ t 1 ◦ τ` ◦ · · · ◦ τ1
D’où :
"(ϕ1 ◦ ϕ2 ) = (−1)k+`
= (−1)k (−1)`
= "(ϕ1 )"(ϕ2 )
Remarques.
1. Soient ϕ1 et ϕ2 des permutations de E. Si ϕ1 et ϕ2 sont toutes deux
paires ou impaires, ϕ1 ◦ ϕ2 est paire. Si l’une est paire et l’autre impaire,
ϕ1 ◦ ϕ2 est impaire.
2. Soit ϕ une permutation de E. On a ϕ ◦ ϕ −1 = IdE donc :
"(ϕ ◦ ϕ −1 ) = "(ϕ)"(ϕ −1 ) = "(IdE ) = 1
ϕ et ϕ −1 ont donc la même parité.
3. Il découle de 1 et 2 que l’ensemble des permutations paires de E est un
sous-groupe de Sn . On le note An et l’appelle le groupe alterné d’ordre
n.
4. Soit t une transposition de E. Soit In l’ensemble des permutations impaires de E. Alors f : An 7→ In définie par f (ϕ) = ϕ ◦ t est bijective.
D’autre part, si Ψ ∈ In alors Ψ ◦ t ∈ An et f (Ψ ◦ t) = Ψ ◦ t ◦ t = Ψ.
Il y a donc n!2 permutations paires de E et n!2 permutations impaires de E.
III.2
Formes multilinéaires
2.0.1 Définition. Soit E un espace vectoriel sur K et soit p ∈ N∗ . On appelle forme p-linéaire sur E toute application f de l’ensemble E p dans K et
linéaire par rapport
à chaque
variable ; c’est à dire que si ai est fixé dans E
pour tout
i
∈
1,
.
.
.
,
p
avec
i 6=Š j où j est fixé entre 1 et p, l’application
€
x → f a1 , . . . , a j−1 , x, a j+1 , . . . , a p : E → K est linéaire.
€
Š
Une forme p-linéaire f sur E est dite alternée si l’on a f x 1 , . . . , x p = 0 dès
qu’il existe i, j ∈ 1, . . . , p tels que i 6= j et x i = x j .
CHAPITRE III. DÉTERMINANTS
39
2.0.2 Proposition. Soit E un espace vectoriel sur K et soit f une forme p-linéaire
alternée sur E. Alors :
1. Pour toute permutation ϕ de 1, . . . , p , on a :
€
Š
f x ϕ(1) , . . . , x ϕ(p) = "(ϕ) f (x 1 , . . . , x p )
€
Š
pour tout x 1 , . . . , x p ∈ E p .
2. Si x 1 , . . . , x p est une suite liée de vecteurs de E, on a f (x 1 , . . . , x p ) = 0.
€
Š
3. Soit x 1 , . . . , x p une suite de vecteurs de E. Alors f x 1 , . . . , x p n’est pas
modifié quand on ajoute à l’un des x i une combinaison linéaire des x j
d’indices j distincts de i.
Démonstration.
1. Compte tenu de 1.0.1, on peut supposer que ϕ est une transposition t i j
avec i < j. On a alors :
€
Š
f x 1 , . . . , x i−1 , x i + x j , x i+1 , . . . , x j−1 , x i + x j , x j+1 , . . . , x p = 0
On a donc :
f
€
x 1 , . . . , x i−1 , x i , x i+1 , . . . , x j−1 , x i + x j , x j+1 , . . . , x p
Š
+f
€
Š
x 1 , . . . , x i−1 , x j , x i+1 , . . . , x j−1 , x i + x j , x j+1 , . . . , x p = 0
f
€
x 1 , . . . , x i−1 , x i , x i+1 , . . . , x j−1 , x i , x j+1 , . . . , x p
Š
+f
€
x 1 , . . . , x i−1 , x i , x i+1 , . . . , x j−1 , x j , x j+1 , . . . , x p
Š
+f
€
x 1 , . . . , x i−1 , x j , x i+1 , . . . , x j−1 , x i , x j+1 , . . . , x p
Š
+f
€
Š
x 1 , . . . , x i−1 , x j , x i+1 , . . . , x j−1 , x j , x j+1 , . . . , x p = 0
f
€
x 1 , . . . , x i−1 , x j , x i+1 , . . . , x j−1 , x i , x j+1 , . . . , x p
Š
= −f
€
x 1 , . . . , x i−1 , x i , x i+1 , . . . , x j−1 , x j , x j+1 , . . . , x p
Š
Et ainsi :
D’où :
Or "(t i j ) = −1.
CHAPITRE III. DÉTERMINANTS
40
2. Comme la suite x 1 , . . . , x p est liée, l’un des x i est combinaison linéaire
des x j d’indices j différents de i ; on peut supposer que i = 1. On a alors :
x 1 = α2 x 2 + · · · + α p x p
avec α j ∈ K et j = 2, . . . , p
D’où :
f
€
p
X
Š
x1, . . . , x p = f
!
α j x j , x2, . . . , x p
j=2
=
p
X
αj f
€
x j , . . . , x2, . . . , x p
Š
j=2
=
p
X
j=2
III.3
αj0 = 0
·· + 0
}
| + ·{z
p−1 fois
Formes n-linéaires alternées sur un espace
vectoriel de dimension finie n
3.0.1 Proposition.
Soit E un espace vectoriel sur K de dimension finie n et soit
E = e1 , . . . , en une base de E. Soit x 1 , . . . , x n une suite de n vecteurs de E. On
a:
n
X
ai j ei pour j = 1, . . . , n
xj =
i=1
Alors pour toute forme n-linéaire alternée f sur E, on a :
!
X
f x1, . . . , x n =
"(ϕ)aϕ(1)1 . . . aϕ(n)n f e1 , . . . , en
ϕ∈Sn
En particulier, deux formes
f et g sur E sont égales si et
n-linéaires alternées
seulement si f e1 , . . . , en = g e1 , . . . , en .
Démonstration. On a :
€
Š
X
f x1, . . . , x n =
aϕ(1)1 . . . aϕ(n)n f eϕ(1) , . . . , eϕ(n)
ϕ∈Sn
CHAPITRE III. DÉTERMINANTS
41
La somme étant étendue à l’ensemble de toutes les applications ϕ de {1, . . . , n}
dans {1, . . . , n}. Lorsque ϕ n’est€ pas bijective, Š
ou de manière équivalente quand
elle n’est pas injective, on a f eϕ(1) , . . . , eϕ(n) = 0. Par conséquent :
€
Š
X
f x1, . . . , x n =
aϕ(1)1 . . . aϕ(n)n f eϕ(1) , . . . , eϕ(n)
ϕ∈Sn
La proposition 2.0.2 permet de conclure.
3.0.2 Théorème.
Soit E un espace vectoriel sur K de dimension finie n et soit
E = e1 , . . . , en une base de E. Alors,il existe une et une seule forme n-linéaire
alternée P
f sur E telle que f e1 , . . . , en = 1.
n
Si x j = i=1 ai j ei pour j = 1, . . . , n sont n vecteurs de E, alors on a :
X
f x1, . . . , x n =
"(ϕ)aϕ(1)1 . . . aϕ(n)n
(1)
ϕ∈Sn
Démonstration. L’unicité résulte de 3.0.1. Un calcul élémentaire montre que
l’application f : En 7→ K définie par
la formule (1) est une forme n-linéaire
alternée sur E telle que f e1 , . . . , en = 1.
Remarque. Soit E un espace vectoriel sur K de dimension finie n et soit E =
e1 , . . . , en une base de E. Il résulte de 3.0.1 qu’une forme n-linéaire
alternée
f sur E est identiquement nulle si et seulement si f e1 , . . . , en = 0.
Notation. Soit E un espace vectoriel sur K de dimension finie n, et soit E =
e1 , . . . , en une base
de E. Soit f l’unique forme n-linéaire alternée sur E telle
que f e1 , . . ., en = 1. Alors pour toute
suite x 1 , . . . , x n de n vecteurs de E,
f x 1 , . . . , x n est noté détE x 1 , . . . , x n et appelé le déterminant de la suite
x 1 , . . . , x n par rapport à E .
3.0.3 Proposition. Reprenons les notations de 3.0.1. Alors :
Pn
1. Si x j = i=1 ai j ei pour j = 1, . . . , n sont n vecteurs de E, on a :
X
détE x 1 , . . . , x n =
"(ϕ)aϕ(1)1 . . . aϕ(n)n
ϕ∈Sn
2. On a détE e1 , . . . , en = 1.
3. détE x 1 , . . . , x n dépend linéairement de chaque x i .
4. détE x 1 , . . . , x n = 0 dès qu’il existe i, j ∈ {1, . . . , n} avec i 6= j et x i = x j .
€
Š
5. Si ϕ ∈ Sn , détE x ϕ(1) , . . . , x ϕ(n) = "(ϕ) détE x 1 , . . . , x n .
6. détE x 1 , . . . , x n n’est pas modifié quand on ajoute à l’un des x i une combinaison linéaire des x j d’indices j différents de i.
CHAPITRE III. DÉTERMINANTS
42
7. Pour que la suite x 1 , . . . , x n soit libre, il faut et il suffit que détE x 1 , . . . , x n
soit différent de 0.
Démonstration. Les 6 premières propriétés ont déjà été signalées. Vérifions le
7.
Si détE x 1 , . . . , x n 6= 0, la suite x 1 , . . . , x n est libre d’après le 2 de 2.0.2.
Inversement, si la suite
x 1 , . . . , x n est libre c’est une base de E, et d’après III.3
on a détE x 1 , . . . , x n 6= 0. En effet, la forme n-linéaire alternée qui à tout
x 1 , . . . , x n ∈ En associe détE x 1 , . . . , x n n’est pas identiquement nulle.
3.0.4 Proposition.
Soit E un espace vectoriel sur K de dimension finie n et soit
E = e1 , . . . , en une base de E. Soit f une forme n-linéaire alternée sur E. Alors
pour toute suite x 1 , . . . , x n de n vecteurs de E, on a :
f x 1 , . . . , x n = f e1 , . . . , en détE x 1 , . . . , x n
Démonstration. Soit g : En 7→ K définie par :
g x 1 , . . . , x n = f e1 , . . . , en détE x 1 , . . . , x n
g est une forme n-linéaire alternée sur E et elle coïncide avec f en e1 , . . . , en .
D’après 3.0.1, on a f = g.
Remarque. Soit E un espace vectoriel sur K de dimension finie n. Il est immédiat que l’ensemble des formes n-linéaires alternées sur E est un sous-espace
vectoriel de F (En , K). D’après 3.0.4, ce sous-espace vectoriel est de dimension 1.
III.4
4.1
Déterminant d’une matrice carrée
Notations et définition
Soit A ∈ Mn (K). On a :

a
...
 .11
.
A=
 .
an1 . . .

a1n
.. 
. 

ann
Les colonnes de A représentent des vecteurs x 1 , . . . , x n de K (voir III.1). Soit E
la base canonique de Kn . On appelle déterminant de A, noté dét A, le scalaire
détE (x 1 , . . . , x n ). Il résulte de 3.0.3 que l’on a :
X
dét A =
"(ϕ)aϕ(1)1 . . . aϕ(n)n
ϕ∈Sn
CHAPITRE III. DÉTERMINANTS
43
Ce déterminant se note aussi :
a
11 . . .
..
.
an1 . . .
a1n .. . ann Exemples.
1. On a dét In = 1 et dét 0n = 0.
2. Considérons :

a
...
 .11

A =  ..
an1 . . .

a1n
.. 
. 

ann
élément de Mn (K).
(a) Si n = 1, dét A = a11 .
(b) Si n = 2, les éléments de S2 sont :
1 2
S1 = et
1 2
"(ϕ1 ) = 1
1
S2 = 2
dét A = a11 a22 − a21 a12
2
1
"(ϕ2 ) = −1
(c) Si n = 3 :
1
S1 = 1
2
3
2
3
"(ϕ1 ) = 1
1
S4 = 2
2
3
3
2
"(ϕ2 ) = −1
2
3
1
3
"(ϕ4 ) = −1
1
S2 = 1
1
S5 = 2
2
3
2
1
"(ϕ3 ) = −1
2
3
3
1
"(ϕ5 ) = 1
1
S3 = 3
1
S6 = 3
2
3
1
2
"(ϕ6 ) = 1
On a donc :
dét A =a11 a22 a33 − a11 a32 a23 − a31 a22 a13
− a21 a12 a33 + a21 a32 a13 + a31 a12 a23
CHAPITRE III. DÉTERMINANTS
44
Remarque. Soit E un espace vectoriel sur K de dimension finie n,
Pnet soit E une
base de E. Soit x 1 , . . . , x n une suite de n vecteurs. On a x j = i=1 ai j ei pour
j = 1, . . . , n et où ai j ∈ K. Il est immédiat que :
€ Š
détE (x 1 , . . . , x n ) = dét ai j
a
.
.
.
a
1n 11
.
.. = ..
. an1 . . . ann X
=
"(ϕ)aϕ(1)1 . . . aϕ(n)n
ϕ∈Sn
4.1.1 Proposition. Soit A ∈ Mn (K). Alors :
1. dét A dépend linéairement de chaque colonne de A.
2. Si l’une des colonnes de A est multiple d’une autre colonne, en particulier si
l’une des colonnes est nulle, où s’il y a deux colonnes égales, on a dét A = 0.
3. Si l’on fait subir aux colonnes de A une permutation ϕ, dét A est multiplié
par "(ϕ). En particulier, si l’on permute deux colonnes de A, dét A change
de signe.
4. dét A ne change pas quand on ajoute à l’une des colonnes une combinaison
linéaire des autres (au sens strict) colonnes.
Démonstration. Conséquence de 3.0.3.
4.1.2 Proposition. Soit A ∈ Mn (K). Alors on a :
dét t A = dét A
€ Š
Démonstration. On a A = ai j .
X
dét A =
"(ϕ)aϕ(1)1 . . . aϕ(n)n
ϕ∈Sn
=
X
"(ϕ −1 )a1ϕ −1 (1) . . . anϕ −1 (n)
ϕ∈Sn
= dét
t
A
On a utilisé le fait que "(ϕ) = "(ϕ −1 ) et que ϕ → ϕ −1 : Sn → Sn est bijective.
4.1.3 Corollaire. La proposition 4.1.1 reste vraie si l’on remplace partout le mot
« colonne » par le mot « ligne ».
CHAPITRE III. DÉTERMINANTS
45
4.1.4 Proposition. Soit A ∈ Mn (K). Les conditions suivantes sont équivalentes :
1. A est inversible.
2. La suite x 1 , . . . , x n des vecteurs colonnes de A est de rang n. Autrement dit
rang A = n.
3. La suite x 1 , . . . , x n de vecteurs de Kn est libre.
4. détE (x 1 , . . . , x n ) 6= 0, où E est la base canonique de Kn .
5. dét A 6= 0.
4.1.5 Proposition. Soient A, B ∈ Mn (K). Alors :
dét(AB) = (dét A)(dét B)
Démonstration. Admis.
4.1.6 Corollaire. Soit A ∈ Mn (K). Si A est inversible, alors :
dét(A−1 ) = (dét A)−1
Démonstration. On a AA−1 = In donc :
dét(AA−1 ) = (dét A)(dét A−1 )
= dét In = 1
Remarque. Soient A ∈ Mn (K) et λ ∈ K.
1. Si on multiplie une colonne (ou une ligne) de A par λ, dét A est multiplié
par λ.
2. On a dét(λA) = λn dét(A).
Exemple. Considérons :
5
3
4 2
6 −5 = dét A
−8 13 6 où A ∈ Mn (R)
On a :
5
5
5 −1 4 3
4
4
4
2
= 2 −5 −5 + 2 11 −5
6
−5
−8 13 6 −8 7
6 −8 6
6
CHAPITRE III. DÉTERMINANTS
4.2
46
Notation et définition
Soit A ∈ Mn (K). La matrice déduite de A en supprimant la i e ligne et j e colonne est notée Ai j . Le scalaire (−1)i+ j , déterminant de Ai j , est appelé le cofacteur d’indices i, j dans A.
€ Š
4.2.1 Proposition. Soit A ∈ Mn (K). On a A = ai j . Pour tous i, j ∈ {1, . . . , n}
notons Di j le cofacteur d’indices i, j dans A. Alors :
1. Pour tout i ∈ {1, . . . , n}, on a :
dét A = ai1 Di1 + · · · + ain Din
Cette égalité s’appelle le développement de dét A suivant la i e ligne.
2. Pour tout j ∈ {1, . . . , n} on a :
dét A = a1 j D1 j + · · · + an j Dn j
Cette égalité s’appelle le développement de dét A suivant la j e colonne.
Démonstration. Démontrons le 2 (ce qui suffit d’après 4.1.2). On peut supposer que j = 1 (voir le 3 de 4.1.1). Soit E = e1 , . . . , en la base canonique de
Kn et soit x 1 , . . . , x n la suite des vecteurs colonnes de A. On a :
x1 =
n
X
ai1 ei
i=1
Donc :
dét A = détE (x 1 , . . . , x n )
= détE
n
X
!
ai1 ei , x 2 , . . . , x n
i=1
=
n
X
détE ai1 ei , x 2 , . . . , x n
i=1
0 a12 . . .
..
..
.
.
..
.
n 0
X
a
a
=
i2 . . .
i1
.
i=1
..
0
.
..
..
.
0 a
n2 . . .
a1n .. . .. . ain .. . .. . a nn
CHAPITRE III. DÉTERMINANTS
47
On voit aisément que le premier terme de cette somme est :
X
a11
"(ϕ)aϕ(2)2 . . . aϕ(n)n
ϕ∈Sn
c’est à dire a11 D11 ; on en déduit que le i e terme est égal à ai1 Di1 .
4.2.2 Définition. Soit A ∈ Mn (K). On appelle matrice extraite de A toute matrice obtenue à partir de A en enlevant certaines lignes et certaines colonnes.
4.2.3 Proposition. Soit A ∈ Mnp (K). Alors le rang r de A est égal au plus
grand entier s tel que l’on puisse extraire de A une matrice carrée d’ordre s de
déterminant non nul.
Démonstration. Admis.
III.5
Calcul de l’inverse d’une matrice carrée inversible
5.0.4 Définition. Soit A ∈ Mn (K). On appelle matrice des cofacteurs de A la
matrice de Mn (K) dont le coefficient situé sur la i e ligne et sur la j e colonne
est le cofacteur d’indices i, j dans A ; c’est à dire (−1)i+ j dét Ai j .
5.0.5 Proposition. Soit A ∈ Mn (K) et soit L la matrice des cofacteurs de A.
Alors on a :
A t L = t L A = (dét A) In
Démonstration. Pour tous i, j ∈ {1, . . . , n} soit Di j le cofacteur de i, j dans A.
Le coefficient de A ( t L) situé sur la i e ligne et sur la j e colonne est :
ai1 D j1 + · · · + ain D jn
(1)
où ai j est le coefficient de A situé sur la i e ligne et sur la j e colonne. Il résulte
de 4.2.1 que (1) est nul si i 6= j et égal à dét A si i = j. On a donc :
A t L = (dét A) In
On a de même :
t
L A = (dét A) In
5.0.6 Corollaire. Soit A ∈ Mn (K) inversible. Alors on a :
A−1 =
1
dét A
t
L
CHAPITRE III. DÉTERMINANTS
III.6
48
Systèmes d’équations linéaires
6.0.7 Définition. On appelle système de n équations linéaires à p inconnues
tout système de la forme :
a x + a x + ··· + a x = b
12 2
1p p
1
11 1
a21 x 1 + a22 x 2 + · · · + a2p x p = b2
S = ..
.
an1 x 1 + an2 x 2 + · · · + anp x p = bn
où les ai j et les bi sont des éléments donnés de K. Les inconnues x 1 , . . . , x p
sont à chercher dans K.
€
Š
On appelle solution du système (S ) toute suite x 1 , . . . , x p d’éléments de K
qui vérifie (S ). Résoudre (S ) consiste à trouver toutes ces solutions.
Deux systèmes à p inconnues et à coefficients dans K sont dits équivalents
s’ils ont les mêmes solutions.
Les bi sont appelés les seconds membres de (S ) 1 . Si l’on a b1 = · · · = bn = 0,
le système (S ) est dit homogène, ou sans second membre. Notons que (S )
admet alors la solution évidente x 1 = · · · = x p = 0, appelée solution nulle.
Si les bi sont quelconques, le système obtenu à partir de (S ) en remplaçant
les bi par 0 est appelé le système homogène, ou sans second membre, associé
à (S ).
6.1
Notation matricielle
Considérons à nouveau le système (S ) ci-dessus. Posons :


 
 
a11 . . . a1p
b1
x
 .

.
 .1 
.
.
..  , B =  ..  et X =  .. 
A=
 .

 
 
an1 . . . anp
bn
xp
Alors il est immédiat que le système (S ) équivaut à l’équation matricielle :
AX = B
dans laquelle A et B sont connues et la matrice X inconnue.
On dit que A est la matrice de (S ).
1
Ou encore : la suite b1 , . . . , bn est le second membre de (S ).
(S 0 )
CHAPITRE III. DÉTERMINANTS
49
6.1.1 Proposition.
1. Les solutions de l’équation homogène AX = 0 associée à (S 0 ) constituent
un sous-espace vectoriel N de M p1 (K). On connaît donc N dès lors qu’on
en connaît une base.
2. Supposons que l’on connaisse une solution
particulière X0 de (S 0 ). L’en
semble des solutions de (S 0 ) est alors X0 + X1 /X1 ∈ N
Démonstration. Le 1 est immédiat ; vérifions 2. Soit X ∈ M p1 (K). Alors :
AX = B ⇐⇒ AX = AX0
⇐⇒ A X − X0 = 0
⇐⇒ X − X0 ∈ N
⇐⇒ X ∈ X0 + N
6.2
= X0 + X1 /X1 ∈ N
Système de Cramer
Notations de 6.0.7 et 6.1. Supposons que n = p et que la matrice A du système
(S ) soit inversible. Le système (S ) est alors appelé un système de Cramer. Il
admet une et une seule solution qui est :
X = A−1 B
Pour déterminer cette unique solution, on peut utiliser cette égalité, ou s’appuyer sur les formules suivantes dites de Cramer :
b a
.
.
.
a
1n 1 12
..
.. .
. bn an2 . . . ann ,
x1 =
dét A
a
11 b1 . . . a1n ..
.. .
. an1 bn . . . ann x2 =
,
dét A
..
.
a
.
.
.
a
b
1,n−1
1
11
..
.. .
.
an1 . . . an,n−1 bn xn =
dét A
CHAPITRE III. DÉTERMINANTS
50
Établissons ces formules. On a :
 
x
t
 .1 
L
 ..  = A−1 B =
B
 
dét A
xn
où L est la matrice des cofacteurs de A. On a donc :
xi =
1
dét A
D1i b1 + · · · + Dni bn
où Di j est le cofacteur d’indices i, j de A. On conclut en remarquant que D1i b1 +
· · · + Dni bn est le développement suivant la i e colonne du déterminant de la
b1
.
matrice obtenue à partir de A en remplaçant la i e colonne par .. .
bn
6.3
Systèmes linéaires quelconques
On conserve les notations de 6.0.7 et 6.1. Le rang r de la matrice A du système
(S ) est appelé le rang de (S ).
Toutes les matrices carrées extraites de A dont l’ordre est strictement supérieur à r ont un déterminant nul. D’autre part il existe une matrice carrée
extraite de A dont l’ordre est égal à r et dont le déterminant n’est pas nul (voir
4.2.3).
Quitte à changer la numérotation des équations et des inconnues, on peut
supposer que cette matrice est :


a11 . . . a1r
 .
.. 
..
M=
. 


a r1 . . . a r r
On dit alors que les r premières équations sont les équations principales (choisies) et que x 1 , . . . , x r sont les inconnues principales (choisies 2 ).
6.3.1 Proposition. Les conditions suivantes sont équivalentes :
1. Le système (S ) est compatible, ce qui signifie qu’il admet au moins une
solution.
2
Ce choix n’est généralement pas unique.
CHAPITRE III. DÉTERMINANTS
2. Pour tout i ∈ {r + 1, . . . , n}, on a :
a11 . . . a1r
.
..
..
.
a
.
.
.
a
r1
rr
a
.
.
.
a
i1
ir
51
b1 .. . =0
b r b
i
Ces n − r déterminants sont appelés des déterminants caractéristiques de
(S ).
Démonstration. Admis.
6.3.2 Proposition. Supposons le système (S ) compatible. Alors les n − r dernières équations sont des conséquences automatiques des r premières. Pour résoudre (S ), il suffit donc de résoudre le système formé par les r premières équations. Pour résoudre ce système formé par les r premières équations, on résout le
système de Cramer :
a x + · · · + a x = −a
1r r
1,r+1 x r+1 − · · · − a1p x p + b1
11 1
..
.
a r1 x 1 + · · · + a r r x r = −a r,r+1 x r+1 − · · · − a r p x p + b r
Tout choix de valeurs pour x r+1 , . . . , x p dans K fournira une solution et une seule,
et on les obtient toutes ainsi.
Démonstration. Admis.
€ Š
Remarque. Soit A ∈ Mn (K). On a A = ai j . Supposons A inversible. Alors
d’après 6.1.1, pour toute suite y1 , . . . , yn dans K, le système :
a x + ··· + a x = y
1n n
1
11 1
..
.
an1 x 1 + · · · + ann x n = yn
a une et une seule solution. Sa résolution permet d’obtenir A−1 . On obtient en
effet :
x 1 = b11 y1 + · · · + b1n yn
..
.
x n = bn1 y1 + · · · + bnn yn
€ Š
et l’on a A−1 = bi j .
Chapitre IV
Réduction de matrices carrées
IV.1
Valeurs propres, vecteurs propres,
sous-espaces propres
Dans tout IV.1, on désigne par E un espace vectoriel sur K.
1.0.1 Proposition. Soient F1 , . . . , F p des sous-espaces vectoriels de E et soit :
¦
©
F = F1 + · · · + F p = x 1 + · · · + x p /x 1 ∈ F1 , . . . , x p ∈ F p
On suppose que le sous-espace vectoriel F de E est somme directe de F1 , . . . , F p , ce
que l’on écrit :
F = F1 ⊕ · · · ⊕ F p
et ce qui signifie que l’écriture de tout x de F sous la forme x = x 1 + · · · + x p avec
x 1 ∈ F1 , . . . , x p ∈ F p est unique.
Soient S1 = a1 , . . . , b1 une suite (finie) libre de vecteurs de F1 , . . ., S p =
€
Š
a p , . . . , b p une suite libre de vecteurs de F p . Alors :
€
Š
1. La suite S = a1 , . . . , b1 , . . . , a p , . . . , b p de vecteurs de F est libre.
2. Si S1 est une base de F1 , . . ., si S p est une base de F p , alors S est une
base de F. En particulier, si F1 , . . . , F p sont de dimensions finies, F est de
dimension finie, et on a :
€
Š
dim F1 ⊕ · · · ⊕ F p = dim F1 + · · · + dim F p
Démonstration.
1. Supposons que l’on ait :
α1 a1 + · · · + β1 b2 + · · · + α p a p + · · · + β p b p = 0
52
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
53
avec αi , βi ∈ K. On veut montrer que les αi et les βi sont nuls. On a :
0E + · · · + 0E = 0E
avec 0E ∈ F1 , . . . , 0E ∈ F p . Par conséquent, comme la somme de F1 , . . . , F p
est directe, on a :
α1 a1 + · · · + β1 b1 = 0
..
.
αp ap + · · · + βp bp = 0
Comme S1 , . . . , S p sont libres, les αi et les βi sont tous nuls.
2. D’après 1, S est libre. Soit x ∈ F. On a :
x = x1 + · · · + x p
avec x 1 ∈ F1 , . . . , x p ∈ F p . Et on a :
x 1 = α1 a1 + · · · + β1 b1 , . . . , x p = α p a p + · · · + β p b p
car Si engendre Fi pour i = 1, . . . , p. Par conséquent :
x = α1 a1 + · · · + β1 b1 + · · · + α p a p + · · · + β p b p
1.1
Notation et définition
Soit u ∈ L (E). Pour tout λ ∈ K on pose :
Eλ = Ker u − λ IdE = {x ∈ E/u(x) = λx}
Si le sous-espace vectoriel Eλ de E n’est pas réduit à 0E , on dit que λ est une
valeur propre de u, que Eλ est le sous-espace propre de u associé à λ, et que
les vecteurs de Eλ autres que 0 sont les vecteurs propres de u associés à λ.
1.1.1 Proposition. Soit u ∈ L (E). Soient λ1 , . . . , λ p des scalaires deux à deux
distincts, et soit F = Eλ1 + · · · + Eλp . Alors :
F = Eλ1 ⊕ · · · ⊕ Eλp
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
54
Démonstration. On raisonne par récurrence sur p. Si p = 1, c’est évident. Supposons la propriété vraie jusqu’à p−1 (p ¾ 2) ; montrons qu’elle est alors vraie
pour p.
Soit x ∈ F ; supposons que l’on ait :
x = x 1 + · · · + x p = x 10 + · · · + x p0
avec x i , x i0 ∈ Eλi pour i = 1, . . . , p ; montrons que x i = x i0 pour i = 1, . . . , p, ce
qui établira 1.1.1. On a :
u(x) =
p
X
u(x i ) =
p
X
u(x i0 )
i=1
i=1
et donc :
p
X
λi x i =
i=1
p
X
λi x i0
(1)
λ p x i0
(2)
i=1
On a d’autre part :
p
X
i=1
λp x i =
p
X
i=1
La soustraction membre à membre de (1) et (2) donne :
p−1
p−1
X
X
€
Š
€
Š
λi − λ p x i0
λi − λ p x i =
i=1
i=1
Par application de l’hypothèse de récurrence, on a :
€
Š
€
Š
λi − λ p x i = λi − λ p x i0
pour i = 1, . . . , p − 1 ; comme λi − λ p 6= 0, on obtient que :
0
x 1 = x 10 , . . . , x p−1 = x p−1
En utilisant l’égalité x 1 + · · · + x p = x 10 + · · · + x p0 , on obtient x p = x p0 .
IV.2
Endomorphismes diagonalisables
Dans tout IV.2 on désigne par E un espace vectoriel sur K de dimension finie n.
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
55
2.0.2 Proposition. Soit u ∈ L (E). Alors u admet au plus n valeurs propres
distinctes deux à deux.
Démonstration. Soient
λ1 , . .. , λ p des valeurs propres de u distinctes deux à
deux. Pour tout i ∈ 1, . . . , p , on a :
dim Eλi ¾ 1
car Eλi 6= {0}
Par conséquent, on a :
n = dim E ¾ dim Eλ1 ⊕ · · · ⊕ Eλp = dim Eλ1 + · · · + dim Eλp ¾ p
(voir 1.0.1 et 1.1.1).
2.0.3 Définition. Soit u ∈ L (E). Désignons par λ1 , . . . , λ p les valeurs propres
de u (sans répétition). On dit que u est diagonalisable si l’on a :
Eλ1 ⊕ · · · ⊕ Eλp = E
Supposons u diagonalisable ; diagonaliser u consiste alors en ceci :
1. On détermine une base Fi = ai , . . . , bi de Eλi ceci pour i = 1, . . . , p, et
l’on écrit la matrice D de u par rapport à la base :
€
Š
F = a1 , . . . , b1 , . . . , a p , . . . , b p
de E. On obtient :

λ1

0

 ..
 .

MF (u) = D = 




 ..
 .
0
0 ...
.. ..
.
.
..
. λ1
..
.
λp
..
.
...

0
.. 
. 






.. 
..
. . 


..
. 0
0 λp
...
...
C’est une matrice diagonale ; chaque λi est écrit un nombre de fois égal
à dim Eλi pour i = 1, . . . , p.
2. Si u est connue au moyen de sa matrice A par rapport à une base E
de E, on détermine la matrice de passage P de E à F , et l’on écrit que
D = P−1 AP.
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
2.1
56
Cas particulier important
Soit u ∈ L (E), supposons que u admette n valeurs propres distinctes λ1 , . . . ,
λn . Alors u est diagonalisable et dim Eλi = 1 pour i = 1, . . . , n.
En effet, on a :
€
Š
n = dim E ¾ dim Eλ1 ⊕ · · · ⊕ Eλn ¾ n
2.1.1 Proposition. Soit u ∈ L (E). Désignons par E une base de E, et par A
la matrice de u par rapport à E . Alors la dimension du sous-espace propre Eλ
associé à une valeur propre λ de u est égale à n − r, où r est le rang de la matrice
A − λIn .
Démonstration. Par définition, Eλ = Ker u − λ IdE . On a donc :
dim Eλ = n − rang u − λ IdE
= n − rang ME u − λ IdE
= n − rang ME (u) − λME (IdE )
= n − rang A − λIn
Remarque. Soit u ∈ L (E). On voit facilement que u est diagonalisable si et
seulement s’il existe une base F de E telle que MF (u) soit diagonale.
Supposons que MF (u) soit diagonale ; alors ses élément diagonaux sont les
valeurs propres λ1 , . . . , λ p de u, chaque λi apparaissant un nombre de fois égal
à la dimension de Eλi , et F est une concaténation de bases de Eλ1 , . . . , Eλp .
IV.3
Polynômes caractéristiques
Dans tout IV.3, on désigne par E un espace vectoriel sur K de dimension finie n,
et par u un élément de L (E).
3.0.1 Définition. Soit E une base de E, et soit A = ME (u). Soit X une indéterminée. Le polynôme :
Pu (X) = dét A − XIn
est appelé le polynôme caractéristique de u.
C’est un polynôme de degré n à coefficients dans K ; le coefficient de Xn est
(−1)n .
Cette définition ne dépend pas de la base de E choisie. En effet, si F est une
autre base de E et si B = MF (u), on a :
B = P−1 AP
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
57
avec P = PE F , donc :
B − XIn = P−1 AP − XIn
= P−1 A − XIn P
Donc :
€
Š
dét B − XIn = dét P−1 (A − XIn )P
€
Š
= dét P−1 dét(A − XIn ) (dét P)
€
Š
= dét P−1 (dét P) dét(A − XIn )
= dét(P−1 P) dét(A − XIn )
= dét(In ) dét(A − XIn )
= dét(A − XIn )
3.0.2 Proposition. Soit λ ∈ K. Pour que λ soit une valeur propre de u, il faut
et il suffit que λ soit une racine de Pu (x) ; c’est à dire que Pu (λ) = 0.
Démonstration. Notations de 3.0.1. Alors :
λ valeur propre de u ⇐⇒ Ker(u − λ IdE ) 6= {0}
⇐⇒ u − λ IdE n’est pas injective
⇐⇒ u − λ IdE n’est pas bijective
⇐⇒ A − λIn n’est pas inversible
⇐⇒ dét(A − λIn ) = 0
⇐⇒ Pu (λ) = 0
Remarque. On retrouve en corollaire de 3.0.2 que u possède au plus n racines
deux à deux distinctes.
3.0.3 Définition. Soient λ1 , . . . , λ p les valeurs propres de u (sans répétition).
Le polynôme Pu (x) s’écrit de façon unique :
€
Šn p
n
Pu (X) = X − λ1 1 . . . X − λ p
Q(X)
où Q(X) est un polynôme à coefficients dans K qui n’a pas de racine dans K.
Ondit que ni est l’ordre de multiplicité de λi . On peut montrer que pour tout
i ∈ 1, . . . , p , on a :
1 ¶ dim Eλi ¶ ni
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
58
3.0.4 Théorème. Notations de 3.0.3. Alors u est diagonalisable si et seulement
si les deux conditions suivantes sont vérifiées :
1. On a :
Q(x) = (−1)n ⇐⇒ n1 + · · · + n p = n
2. Pour tout i ∈ 1, . . . , p , on a :
dim Eλi = ni
Démonstration. Supposons ces deux conditions vérifiées. On a alors :
dim Eλ1 ⊕ · · · ⊕ Eλp = dim Eλ1 + · · · + dim Eλp = n1 + · · · + n p = n = dim E
On a donc :
Eλ1 ⊕ · · · ⊕ Eλp = E
Autrement dit, u est diagonalisable.
Inversement, supposons u diagonalisable. Il existe alors une base F de E telle
que :


λ1 0 . . .
... 0

.. 
 0 ... ...
. 


 .. . .

. λ1
 .



.


..
MF (u) = 



.
.
. . .. 

λ
p


 ..

.. ..
.
.
0
.


0 ...
. . . 0 λp
En répétant λi un nombre de fois égal à dim Eλi = ri pour tout i = 1, . . . , p. Il
en résulte que :
Pu (X) = dét MF (u) − XIn = (−1)n (X − λ1 ) r1 . . . (X − λ p ) rp
L’unicité de la décomposition de Pu (X) signalée en 3.0.3 implique Q(X) =
(−1)n et r1 = n1 , . . . , r p = n p .
Remarque. Lorsque K = C, la condition 1 de 3.0.4 est toujours vérifiée.
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
IV.4
59
Cas des matrices
Soit A ∈ Mn (K). Soit E la base canonique de Kn et soit u l’unique endomorphisme de Kn tel que ME (u) = A.
Les valeurs propres, les vecteurs propres et les sous-espaces propres de A
sont, par définition, les valeurs propres, les vecteurs propres et les sous-espaces
propres de u.
On appelle polynôme caractéristique de A, noté PA (X), le polynôme caractéristique Pu (X) de u ; on a donc :
PA (X) = dét(A − XIn )
On dit que A est diagonalisable si u est diagonalisable ; si A est diagonalisable,
la diagonaliser consiste, par définition, à diagonaliser u.
IV.5
5.1
Applications de la diagonalisation
Élévation à la puissance k d’une matrice carrée
Soit k ∈ N. Pour élever à la puissance k une matrice diagonale, il suffit, comme
on le vérifie aisément, d’élever tous ses coefficients à la puissance k. Ceci est
faux pour une matrice carrée quelconque.
Soit maintenant A ∈ Mn (K) une matrice diagonalisable. Pour élever A à la
puissance k, il suffit de considérer un élément inversible P de Mn (K) tel que
P−1 AP soit une matrice diagonale D, et de remarquer que l’on a :
€
Š €
Š
Ak = PDP−1 . . . PDP−1
{z
}
|
k fois
€
Š €
Š €
Š
= PD P−1 P D P−1 P . . . P−1 P DP−1
= PDIn DIn . . . In DP−1
= PDk P−1
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
5.2
60
Résolution de systèmes différentiels linéaires
Considérons le système différentiel réel linéaire à coefficients constants suivant :
y 0 = a y + · · · + a y + b (x)
11 1
1n n
1
1
0
y2 = a21 y1 + · · · + a2n yn + b2 (x)
(S ) = ..
.
0
y = an1 y1 + · · · + ann yn + bn (x)
n
Les ai j sont des réels connus, les bi (x) sont des fonctions réelles connues,
définies et continues dans un intervalle J de R. Les €yi sont
Š des fonctions réelles
inconnues, définies et dérivables dans J. Soit A = ai j la matrice du système
(S ). Posons :






y1 (x)
y10 (x)
b1 (x)
 . 
 . 
 . 
 . 
 . 
.  0
Y(x) = 
 .  , Y (x) =  .  et B(x) =  . 
yn (x)
yn0 (x)
bn (x)
pour x ∈ J.
Le système (S ) peut s’écrire sous la forme matricielle :
Y0 (x) = AY(x) + B(x)
(x ∈ J)
Supposons que A soit un élément diagonalisable de Mn (R). Pour résoudre
(S ), c’est à dire déterminer toutes les suites y1 , . . . , yn qui vérifient (S ), on
peut procéder ainsi :
On choisit une matrice inversible P dans Mn (R) telle que P−1 AP soit une
matrice diagonale D, avec D qui s’écrit :


d11
0


..

D=
.


0
dnn
Le système (S ) équivaut alors à :
Y0 = (PDP−1 )Y + B
P−1 Y0 = D(P−1 Y) + P−1 B
(P−1 Y)0 = D(P−1 Y) + P−1 B
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
Posons :
 
z
 .1 
−1

P Y = Z =  .. 

zn
et
61
P−1 B = C
Le système (S ) équivaut alors à :
Z0 = DZ + C
ou encore à :
z 0 (x) = d z (x) + c (x)
11 1
1
1
.
..
0
zn (x) = dnn zn (x) + cn (x)
On résout ces n équations différentielles d’ordre 1, ce qui fournit Z. On achève
la résolution de (S ) en utilisant l’égalité Y = PZ.
Notons que si B = 0, il est inutile de calculer P−1 .
Remarque. Ce qui a été dit en 5.2 reste vrai si on considère un système différentiel complexe au lieu d’un système différentiel réel ; c’est à dire si ai j ∈ C,
si les yi inconnues et les bi (x) sont à valeurs dans C, et si A est supposée
diagonalisable dans Mn (C).
IV.6
Endomorphismes trigonalisables
6.0.1 Proposition. Le déterminant d’une matrice triangulaire est égal au produit
de ses coefficients diagonaux.
Démonstration. On peut supposer que la matrice est triangulaire supérieure ;
elle s’écrit donc :


a11 . . . a1n

.. 
..
An = 
.
. 


0
ann
On raisonne alors par
sur n.
€ récurrence
Š
Ou bien : on a A = ai j et :
X
dét A =
"(ϕ)aϕ(1)1 . . . aϕ(n)n
ϕ∈Sn
Remarquer que si ϕ ∈ Sn n’est pas l’identité, alors il existe i, j ∈ {1, . . . , n} tels
que ϕ(i) > i et ϕ( j) < j. En effet, dans le cas contraire, on a ϕ(i) ¶ i pour
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
62
tout i ∈ {1, . . . , n} ; on a donc ϕ(1) ¶ 1 ce qui implique ϕ(1) = 1 ; et ϕ(2) ¶ 2,
qui implique ϕ(2) = 2 car ϕ est bijective ; etc. Par conséquent ϕ est l’identité
de {1, . . . , n} dans {1, . . . , n}, ce qui est contraire à l’hypothèse.
Si A est triangulaire et si ϕ ∈ Sn n’est pas l’identité, alors "(ϕ)aϕ(1)1 . . . aϕ(n)n
est nul, et par conséquent on a :
dét A = a11 . . . ann
6.1
Proposition et définition
Soit E un espace vectoriel sur K de dimension finie n, et soit u ∈ L (E). Les
conditions suivantes sont équivalentes :
1. Il existe une base E de E telle que ME (u) soit triangulaire supérieure.
2. Il existe une base F de E telle que MF (u) soit triangulaire inférieure.
Lorsque ces conditions sont vérifiées, on dit que u est trigonalisable.
Démonstration. Exercice.
6.1.1 Théorème. Soit E un espace vectoriel sur K de dimension finie n. Soit
u un endomorphisme de E et soient λ1 , . . . , λ p les valeurs propres de u (sans
répétition). Désignons par ni l’ordre de multiplicité de λi pour i = 1, . . . , p. Le
polynôme caractéristique Pu (X) de u s’écrit :
Pu (X) = (X − λ1 )n1 . . . (X − λ p )np Q(X)
où Q(X) est un polynôme à coefficients dans K qui n’a pas de racines dans K.
Les conditions suivantes sont équivalentes :
1. Q(X) = (−1)n ⇐⇒ n1 + · · · + n p = n.
2. u est trigonalisable.
Si ces conditions sont vérifiées, et si E est une base de E telle que ME (u) soit
triangulaire, la diagonale principale de ME (u) est ainsi constituée : on y trouve
ni fois λi pour i = 1, . . . , p.
Démonstration. Admis.
Remarque. Lorsque K = C, la condition 1 de 6.1.1 est toujours vérifiée, et donc
la condition 2 aussi.
CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES
IV.7
63
Théorème de Cayley-Hamilton
7.0.1 Théorème. Soit E un espace vectoriel sur K de dimension finie n et soit
u ∈ L (E). Posons :
n
X
Pu (X) =
ak Xk
k=0
le polynôme caractéristique de u. Alors on a :
n
X
ak uk = 0
k=0
ce qui s’écrit Pu (u) = 0.
uk désigne |
u ◦ u ◦{z· · · ◦ u
} si k ¾ 1 et IdE si k = 0.
k fois
Démonstration. Admis.
7.0.2 Corollaire. Soit A ∈ Mn (K). Posons :
PA (X) =
n
X
ak Xk
k=0
le polynôme caractéristique de A. Alors on a :
n
X
ak Ak = 0
k=0
ce qui s’écrit PA (A) = 0.
0
Ak = A
| ×A×
{z· · · × A
} si k ¾ 1, et A = In .
k fois
Remarque. Soit A ∈ Mn (K) inversible. On a donc dét A 6= 0, c’est à dire a0 6= 0.
D’après 7.0.2, on a :
an An + an−1 An−1 + · · · + a1 A + a0 In = 0
Donc :
In =
Ainsi :
A−1 =
Š
1 €
−an An − an−1 An−1 − · · · − a1 A
a0
Š
1 €
−an An−1 − an−1 An−2 − · · · − a2 A − a1 In
a0
Téléchargement