Volume n° Application linéaire - Mathématiques et Physiques

publicité
Volume n°
Application linéaire
Géraud Sarrebourse de la Guillonnière
21 mai 2013
Table des matières
1 Application linéaire
1.1 Définition . . . . . . . . . . . . . . . .
1.2 Image et noyau . . . . . . . . . . . . .
1.3 Rang et nullité . . . . . . . . . . . . .
1.4 Théorème du rang . . . . . . . . . . .
1.5 Continuité . . . . . . . . . . . . . . . .
1.6 Structure algébrique . . . . . . . . . .
1.6.1 Application linéaire nulle . . .
1.6.2 Application linéaire identité . .
1.6.3 Espace vectoriel (L(E, F ), +, •)
1.6.4 Anneau (L(E, F ), +, o) . . . . .
1.6.5 Norme sur L(E, F ) . . . . . . .
1.6.6 Espace de Banach L(E, F ) . .
1.7 Forme linéaire . . . . . . . . . . . . . .
1.7.1 Définition . . . . . . . . . . . .
1.7.2 Base duale . . . . . . . . . . .
1.7.3 Sous-espace orthogonal de A .
1.7.4 Bidual . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
3
4
4
5
5
5
5
5
6
6
6
6
7
8
8
2 Application linéaire remarquable
2.1 Endomorphisme nilpotent . . . . . . .
2.2 Homothétie de rapport α . . . . . . .
2.3 Projecteur . . . . . . . . . . . . . . . .
2.3.1 Définition . . . . . . . . . . . .
2.3.2 Projection . . . . . . . . . . . .
2.3.3 Caractérisation d’un projecteur
2.4 Involution . . . . . . . . . . . . . . . .
2.4.1 Définition . . . . . . . . . . . .
2.4.2 Symétrie . . . . . . . . . . . . .
2.4.3 Caractérisation des involutions
2.5 Dilatation . . . . . . . . . . . . . . . .
2.6 Transposée . . . . . . . . . . . . . . .
2.7 Rotation . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
9
9
10
10
13
15
15
16
17
19
19
20
3 Matrice d’un vecteur dans une base
4 Matrice d’AL de E sur F dans 2 bases
4.1 Définition . . . . . . . . . . . . . . . . . . . . . . .
4.2 Matrices remarquables . . . . . . . . . . . . . . . .
4.2.1 Matrice nulle . . . . . . . . . . . . . . . . .
4.2.2 Matrice unité . . . . . . . . . . . . . . . . .
4.2.3 Matrice colonne et ligne . . . . . . . . . . .
4.2.4 Matrice canonique . . . . . . . . . . . . . .
4.2.5 Matrice triangulaire supérieure et inférieure
4.2.6 Matrice diagonale . . . . . . . . . . . . . .
4.2.7 Matrice d’un projecteur . . . . . . . . . . .
4.2.8 Matrice d’une symétrie . . . . . . . . . . .
4.2.9 Matrice transposée . . . . . . . . . . . . . .
4.3 Opération sur les matrices . . . . . . . . . . . . . .
4.3.1 Addition . . . . . . . . . . . . . . . . . . . .
4.3.2 Produit par un scalaire . . . . . . . . . . .
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
26
26
27
28
28
29
29
29
30
30
30
30
30
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
33
34
34
34
35
35
35
35
35
35
36
36
36
37
37
37
37
37
5 Existence de matrice inversible : déterminant
5.1 Déterminant d’une matrice . . . . . . . . . . . . . . . . .
5.1.1 Permutation . . . . . . . . . . . . . . . . . . . . .
5.1.2 Inversion . . . . . . . . . . . . . . . . . . . . . . .
5.1.3 Signature . . . . . . . . . . . . . . . . . . . . . . .
5.1.4 Produit élémentaire de scalaire signé d’une matrice
5.1.5 Déterminant . . . . . . . . . . . . . . . . . . . . .
5.2 Calcul du déterminant en pratique . . . . . . . . . . . . .
5.2.1 Règle de Sarrus pour les matrices 2 × 2 et 3 × 3 . .
5.2.2 Sous-matrice . . . . . . . . . . . . . . . . . . . . .
5.2.3 Mineur et cofacteur . . . . . . . . . . . . . . . . .
5.3 Autre application du déterminant . . . . . . . . . . . . . .
5.3.1 Aire . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.2 Volume . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
39
39
39
39
40
41
42
42
42
42
44
44
44
du rang
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
46
46
46
cofacteur
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47
47
47
47
4.4
4.5
4.6
4.7
4.8
4.3.3 Produit de matrices . . . . . . . . . . . . .
4.3.4 Produit par bloc . . . . . . . . . . . . . . .
4.3.5 Produit de Kronecker . . . . . . . . . . . .
Calcul en terme de composante de y = f (x) . . . .
Structure algébrique . . . . . . . . . . . . . . . . .
4.5.1 Espace vectoriel (Mmn (K), +, •) . . . . . .
4.5.2 Anneau (Mn (K), +, ×) . . . . . . . . . . .
4.5.3 Algèbre (Mn (K), +, •, ×) . . . . . . . . . .
Matrice inversible dans (Mn (K), +, ×) . . . . . . .
4.6.1 Définition . . . . . . . . . . . . . . . . . . .
4.6.2 Structure algébrique : groupe (GLn (K), ×)
4.6.3 Unicité . . . . . . . . . . . . . . . . . . . .
4.6.4 Inversion d’un produit . . . . . . . . . . . .
4.6.5 Inversion par bloc . . . . . . . . . . . . . .
Puissance d’une matrice . . . . . . . . . . . . . . .
Formule . . . . . . . . . . . . . . . . . . . . . . . .
4.8.1 (A + B)n (binôme) . . . . . . . . . . . . . .
4.8.2 An − B n . . . . . . . . . . . . . . . . . . . .
4.8.3 An + B n , (n impaire) . . . . . . . . . . . .
6 Existence de matrice inversible : th
6.1 Rang d’une matrice . . . . . . . . .
6.2 noyau et nullité d’une matrice . . .
6.3 Théorème du rang . . . . . . . . .
7 Calcul de matrice inversible :
7.1 Co-matrice . . . . . . . . .
7.2 Matrice adjointe . . . . . .
7.3 Méthode des cofacteurs . .
8 Elimination de Gauss-Jordan :pivot de Gauss
8.1 Matrices et opérations élémentaires . . . . . . .
8.1.1 Définition . . . . . . . . . . . . . . . . .
8.1.2 Matrice équivalente par ligne . . . . . .
8.2 Matrice augmentée . . . . . . . . . . . . . . . .
8.3 Matrice échelonnée et échelonnée réduite . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
49
49
49
50
51
51
9 Application de l’élimination de Gauss-Jordan
9.1 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4 Bases de Ker f et Im f . . . . . . . . . . . . . . . . . . . . . . . . .
9.5 Résolution d’un système d’équation linéaire : pivot de Gauss . . . .
9.5.1 Équation linéaire complète et homogène . . . . . . . . . . . .
9.5.2 Espace vectoriel des solutions de l’équation linéaire homogène
9.5.3 Espace affine des solutions de l’équation linéaire complète . .
9.5.4 Système d’équation linéaire . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
53
53
53
54
54
54
55
56
56
56
Mail: [email protected]
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Tous droits réservés
.
.
.
.
.
.
.
.
.
.
Page no 2 sur 96
9.6
9.5.5 Espace vectoriel des solutions d’un système d’équation linéaire homogène
9.5.6 Espace affine des solutions d’un système d’équation linéaire complet . . .
9.5.7 Système d’équation linéaire et matrice . . . . . . . . . . . . . . . . . . . .
9.5.8 Résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Résolution d’un système d’équation linéaire : règle de Cramer . . . . . . . . . . .
10 Décomposition LU
10.1 Définition . . . . . . . . . . . .
10.2 Application . . . . . . . . . . .
10.2.1 Déterminant . . . . . .
10.2.2 Inversion matrice . . . .
10.2.3 Résolution d’un système
11 Changement de base
11.1 Matrice de passage . .
11.2 Application . . . . . .
11.2.1 Changement de
11.2.2 Changement de
11.3 Matrice équivalente . .
11.4 Matrice semblable . .
11.5 Invariant de similitude
11.5.1 Déterminant .
11.5.2 Trace . . . . .
11.5.3 Rang . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
57
58
58
59
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
60
60
60
60
60
60
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
coordonnées pour un vecteur . . . . .
matrice pour une application linéaire
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
62
62
63
64
64
65
65
65
66
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
67
67
68
68
70
70
71
71
71
72
74
74
74
75
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
d’équation linéaire
12 Diagonalisation
12.1 Vecteur propre, valeur propre et spectre
12.2 Polynôme d’un endomorphisme . . . . .
12.2.1 Caractéristique . . . . . . . . . .
12.2.2 Invariant de similitude . . . . . .
12.2.3 Annulateur . . . . . . . . . . . .
12.2.4 Minimal . . . . . . . . . . . . . .
12.3 Sous-espace stable . . . . . . . . . . . .
12.4 Espace propre . . . . . . . . . . . . . . .
12.5 Existence et unicité . . . . . . . . . . . .
12.6 Base de diagonalisation . . . . . . . . .
12.7 Application . . . . . . . . . . . . . . . .
12.7.1 Diagonalisation . . . . . . . . . .
12.7.2 Puissance d’une matrice . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13 Décomposition de Dunford
14 Trigonalisation
14.1 Définition . . . . . . . . . .
14.2 Existence . . . . . . . . . .
14.3 Sous-espace caractéristique
14.4 Vecteur propre généralisé .
76
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15 Décomposition de Cholesky
16 Réduction de Jordan
16.1 Bloc de Jordan . . . . . . .
16.2 Matrice de Jordan . . . . .
16.3 Existence et unicité . . . . .
16.4 Espace caractéristique . . .
16.5 Base de Jordan . . . . . . .
16.6 Application . . . . . . . . .
16.6.1 Proposition . . . . .
16.6.2 Réduction de Jordan
78
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
79
79
79
80
80
80
80
80
81
82
17 Bilan : existence de matrice inversible
Mail: [email protected]
77
77
77
77
77
Tous droits réservés
Page no 3 sur 96
18 Bilan : matrices remarquables
18.1 Matrice nulle . . . . . . . . . . . . . . . . .
18.2 Matrice unité . . . . . . . . . . . . . . . . .
18.3 Matrice colonne et ligne . . . . . . . . . . .
18.4 Matrice canonique . . . . . . . . . . . . . .
18.5 Matrice triangulaire supérieure et inférieure
18.5.1 Définition . . . . . . . . . . . . . . .
18.5.2 Déterminant . . . . . . . . . . . . .
18.5.3 Matrice inverse . . . . . . . . . . . .
18.6 Matrice diagonale . . . . . . . . . . . . . . .
18.6.1 Définition . . . . . . . . . . . . . . .
18.6.2 Déterminant . . . . . . . . . . . . .
18.6.3 Matrice inverse . . . . . . . . . . . .
18.6.4 Matrice puissance . . . . . . . . . .
18.7 Matrice scalaire . . . . . . . . . . . . . . . .
18.8 Matrice transposée . . . . . . . . . . . . . .
18.9 Matrice conjuguée . . . . . . . . . . . . . .
18.10Matrice nilpotente . . . . . . . . . . . . . .
18.11Matrice positive et strictement positive . . .
18.12Matrice définie positive . . . . . . . . . . .
18.13Matrice de rotation . . . . . . . . . . . . . .
18.13.1 Déterminant . . . . . . . . . . . . .
18.14Matrice d’un projecteur . . . . . . . . . . .
18.15Matrice d’une symétrie . . . . . . . . . . . .
18.16Matrice symétrique et antisymétrique . . .
18.17Matrice de permutation . . . . . . . . . . .
18.18Matrice de dilatation . . . . . . . . . . . . .
18.19Matrice de transvection . . . . . . . . . . .
18.20Matrice orthogonale . . . . . . . . . . . . .
18.21Matrice de Houscholder . . . . . . . . . . .
18.22Matrice de Hadamard . . . . . . . . . . . .
18.23Matrice de Hankel . . . . . . . . . . . . . .
18.24Matrice de Toeplitz . . . . . . . . . . . . . .
18.25Matrice circulante . . . . . . . . . . . . . .
18.26Matrice anticirculante . . . . . . . . . . . .
18.27Matrice de Vandermonde . . . . . . . . . .
18.27.1 Définition . . . . . . . . . . . . . . .
18.27.2 Déterminant . . . . . . . . . . . . .
18.27.3 Déterminant . . . . . . . . . . . . .
Mail: [email protected]
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Tous droits réservés
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
83
83
83
83
84
84
84
84
85
85
85
85
86
86
86
86
87
87
88
88
88
90
90
90
90
91
92
92
92
92
92
93
93
94
94
95
95
95
96
Page no 4 sur 96
Résumé
Lorsque l’on a voulu comparer la cardinalité de deux ensembles X et Y nous avons chercher à définir une certaine application
f : X −→ Y qui puisse y répondre : f devait être une bijection (injection et surjection). Dans le cadre de ce volume on
cherchera une application f : X −→ Y qui permette de comparer deux e.v E et E 0 c’est-à-dire qui conserve les structures
d’e.v ou dit autrement qui en transporte ses structures.
Ainsi il ne suffit pas de comparer deux e.v au moyen d’applications quelconques. Si E et E 0 sont des e.v, alors les application
f : E −→ E 0 que nous devrons étudier doivent tenir compte de la structure algébrique de ces espaces i.e de l’addition et la
multiplication par un scalaire.
Ces applications sont appelées applications linéaires ou homomorphisme d’e.v et nous verrons que nous pourrons les représenter par des tableaux de scalaires. A deux bases de E et E 0 ce tableau sera alors unique. Ceux-ci seront appelés également
matrices relativement aux bases de E et E 0 . Les matrices permettrons (avec des théorèmes d’existence et des procédés de
calcul) de donner l’ensemble des solutions d’un système d’équation (relativement à une base d’e.v) que l’on rencontre souvent
en physique.
Cependant la résolution de certain système d’équation (en général dans la base canonique de Cn ou Rn ) via les matrices
peuvent s’avérer long et donc gourmand en opération calculatoire. Dans ce cas on cherchera des bases de E et E 0 pour
lesquelles la matrice soit beaucoup plus simple : nous parlerons alors de réduction d’endomorphisme.
Dans ce volume nous travaillerons principalement sur des e.v et des corps. Les lois de composition, comme l’addition +
et la multiplication . sont souvent notées sans distinction, c’est-à-dire qu’on doit pouvoir retrouver seul, s’il s’agit de loi de
composition de E ou K. Afin de ne pas se tromper, et de bien fixer correctement les notations, nous avons choisis d’utiliser des
couleurs pour désigner les différentes lois de composition de E ou K (au lieu de noter +E , .E ... qui est une écriture plus lourde) :
(E, + , |{z}
• ),(F, + , |{z}
• ) et (K, + , |{z}
• )
|{z}
|{z}
|{z}
lci
lce
lci
lce
lci
lci
De plus nous préciserons par un indice les éléments neutres pour les lois additives et multiplicatives : 0E , 1E , 0K , 1K
Notons que les homomorphismes d’e.v ou application linéaire sont les mêmes définitions. La première étant orientée sur les
propriétés des e.v via cette fonction et la deuxième plus dirigée vers les propriétés de cette fonction. Certaines propriétés sur
les homomorphismes du volume des e.v seront "mise à jour", ici en temps qu’application linéaire. Dans ce cas on rappellera
la proposition correspondante du volume e.v par un encadré e.v proposition 23 p56 .
Pour terminer nous rappelons la remarque qui a été faite dans le volume sur les e.v à savoir qu’on ne confondra pas un vecteur
(un point) avec le vecteur composante associé. Par exemple si on prend le point (3, 2) ∈ R2 et B = {e1 (1, 0); e2 (0, 1)} alors
le vecteur composante de R2 est (3, 2). Le vecteur composante du point (3, 2) dans la base B = {e1 (2, 0); e2 (0, 1)} sera (3/2, 1)
Chapitre
1
Application linéaire
1.1
Définition
Définition 1.
K désignera un corps. Soient E et F deux K-espaces vectoriels. On appelle application linéaire de E dans
F ou morphisme (homomorphisme) d’e.v ou opérateur linéaire ou transformation linéaire toute application f
vérifiant :
1. ∀(x, y) ∈ E 2 , f (x+y) = f (x)+f (y) (additivité)
2. ∀(α, x) ∈ K × E, f (α•x) = α•f (x) (homogénéité)
On dira également que f est K-linéaire.
Vocabulaire : L’ensemble des applications linéaires de E dans F est noté LK (E, F ). Dans le cas où l’on a une application
linéaire avec E = F , l’on parlera d’endomorphisme et l’ensemble des endomorphismes sera LK (E, E) = LK (E) ou simplement
s’il ni a pas d’ambigüité L(E).
Si f : E −→ F est une application linéaire bijective on dira que f est un isomorphisme de E vers F . Si f : E −→ F
est une application linéaire injective on parlera de monomorphisme. Avec f une application linéaire surjective on parlera
d’épimorphisme. Enfin on dit que f est un automorphisme ssi E = F et f est linéaire bijective. On notera l’ensemble des
automorphismes GLK (E) ou GL(E).
L’ensemble des applications linéaires continues sera noté LK (E, F ), des automorphismes GLK (E)
Comme indiquer dans le liminaire de ce volume, un homomorphisme d’e.v est une application linéaire. Par acquis de conscience
nous allons remettre ici un certain nombre de propriété des homomorphismes mais adapté avec le vocabulaire d’application
linéaire. Un encadré indiquera le lien vers le volume sur les e.v
Proposition 2.
Si f ∈ L(E, F ) alors f (0E ) = 0F et ∀αi ∈ K, ∀xi ∈ E, f (α1 x1 + ... + αn xn ) = α1 f (x1 ) + ... + αn f (xn )
Preuve : application linéaire (5).pdf 1/10
Comme f ∈ L(E, F ) on a f (x + y) = f (x) + f (y) donc en particulier pour x = y = 0E , f (0E + 0E ) = f (0E ) + f (0E ) soit
f (0E ) = f (0E ) + f (0E ) ⇔ 2f (0E ) − f (0E ) = 0F ⇔ f (0E ) = 0F
a faire...
Voici une définition équivalente :
Définition 3.
f est linéaire de E dans F ssi ∀(x, y) ∈ E 2 , ∀α ∈ K :
f (α•x+y) = α•f (x)+f (y)
Preuve : Si f est une application linéaire de E dans F alors f (α.x + y) = f (αx) + f (y) = α.f (x) + f (y). Réciproquement
si on a f (α.x + y) = α.f (x) + f (y) alors en particulier pour y = 0E on aura f (α.x + 0) = α.f (x) + f (0). Or f (0) = 0 donc
1
CHAPITRE 1. APPLICATION LINÉAIRE
pour y = 0E on a f (α.x + 0) = α.f (x) soit f (α.x) = α.f (x)
De plus si α = 1K on aura f (α.x + y) = α.f (x) + f (y) c’est-à-dire f (x + y) = f (x) + f (y). Au final si f est une application linéaire de E sur F alors f (α.x + y) = α.f (x) + f (y) et si f (α.x + y) = α.f (x) + f (y) alors f (α.x) = α.f (x) et
f (x + y) = f (x) + f (y). Les deux définitions sont donc équivalentes.
Voici enfin une dernière définition équivalente :
Définition 4.
f est linéaire de E dans F ssi ∀(x, y) ∈ E 2 , ∀α, β ∈ K2 :
f (α•x+β•y) = α•f (x)+β•f (y)
Preuve : Si on a f (α.x + β.y) = α.f (x) + β.f (y) alors en particulier pour α = β = 1K on aura f (x + y) = f (x) + f (y).
De même si y = 0E alors f (α.x + β.0) = f (α.x) = α.f (x) + β.f (0) = α.f (x) + 0 = α.f (x). Ainsi f est linéaire.
Réciproquement si ∀(X, Y ) ∈ E 2 , f (X + Y ) = f (X) + f (Y ) alors pour X = α.x ∈ E et Y = β.y ∈ E on aura
f (α.x + β.y) = f (α.x) + f (β.y) = α.f (x) + β.f (y)
Remarque : On voit que f conserve le caractère de combinaison linéaire. Dit autrement l’image d’une combinaison linéaire
est encore une combinaison linéaire. C’est pourquoi f vérifiant cette propriété est dite linéaire.
Exemple 1.1.1 Soit
f : R3 −→ R2
(x, y, z) 7−→ (2x − 3y, z)
Soit u = (x, y, z) et v = (x0 , y 0 , z 0 ) et λ ∈ R, on aura alors f (λ.u + v) = f (λ(x, y, z) + (x0 , y 0 , z 0 )) = f ((λ.x + x0 , λ.y +
y 0 , λ.z + z 0 )) = (2(λ.x + x0 ) − 3(λ.y + y 0 ), λ.z + z 0 ) = (2λ.x − 3λ.y + 2x0 − 3y 0 , λ.z + z 0 ) = (2λ.x + 3λ.y, λ.z) + (2x0 − 3y 0 , z 0 ) =
λ(2x − 3y, z) + (2x0 − 3y 0 , z 0 ) = λ.f (u) + f (v) donc f est une application linéaire (f est R-linéaire).
Exemple 1.1.2 Soient E un K − ev et x0 6= 0E ∈ E, on définit l’application
fx0 : E −→ E
x 7−→ x + x0
On a fx0 (x+y) = x+y+x0 . De plus fx0 (x)+fx0 (y) = (x+x0 )+(y+x0 ) donc comme x0 6= 0 on en déduit que fx0 (x+y) 6=
fx0 (x)+fx0 (y). L’application fx0 n’est pas linéaire.
si E = R2 et par exemple pour x0 (1, 1) (vu comme un vecteur) et x(2, 0) (vu comme un point) on aura fx0 (x) = x+x0 = (3, 1)
(vu comme un point).
,
Exemple 1.1.3 Soient R2 l’espace vectoriel sur R et R l’espace vectoriel sur R. Ici + = + et • = •.
On pose
f : R2 −→ R
(x, y) 7−→ xy
∀α ∈ R, ∀(x, y) ∈ R2 on a f (α•(x, y)) = f (α•x, α•y) = α2 •x•y et α•f (x, y) = α•x•y donc la proposition "∀α ∈ R, ∀(x, y) ∈
R2 , f (α(x, y)) = αf (x, y)" est fausse. L’application f n’est pas linéaire.
Exemple 1.1.4 Prenons E = F = R et K = R. Soit a ∈ R∗ = K∗ . On définit l’application f (x) = a.x. On a pour
x, y ∈ R, f (x + y) = a(x + y) = ax + ay = f (x) + f (y) et pour α ∈ R = K, f (αx) = a.αx = αax = αf (x). De sorte que f est
une application linéaire. Comme E = F et que f est une bijection (y = ax ⇔ x = y/a si a 6= 0), f est donc un automorphisme
de E.
Mail: [email protected]
Tous droits réservés
Page no 2 sur 96
CHAPITRE 1. APPLICATION LINÉAIRE
Exemple 1.1.5 Si l’on note E = D(R, R) l’ensemble des applications dérivables de R dans R alors celui-ci muni de l’addition
(lci) et de la multiplication par un scalaire de K = R (lce) défini un K-espace vectoriel. On se donne l’application d qui à
f de E on associe d(f ) = f 0 de F. Soit f1 , f2 ∈ E alors d(f1 + f2 ) = (f1 + f2 )0 = (f1 )0 + (f2 )0 = d(f ) + d(f 0 ). De plus si
α ∈ R = K alors d(αf ) = (αf )0 = αf 0 = αd(f ). Ainsi d est une application linéaire ou un opérateur linéaire.
Exemple 1.1.6 Soit C l’espace vectoriel sur le corps K = C et
f : C −→ C
z 7−→ z̄
On a alors pour z, z 0 ∈ C, f (z + z 0 ) = z + z 0 = z + z 0 = f (z) + f (z 0 ) et pour α ∈ C, f (αz) = αz = α.z = αf (z) 6= αf (z) si
α ∈ C\{R} Donc f ainsi définie n’est pas linéaire. f n’est pas C-linéaire. Si on définit cette fois-ci C l’espace vectoriel sur le
corps K = R on aura f αz) = αf (z) et donc f sera R-linéaire. On retiendra qu’une application linéaire C-linéaire est aussi
R-linéaire par contre une application R-linéaire n’est pas forcement C-linéaire.
1.2
Image et noyau
Définition 5.
Si f est une application linéaire de E dans F , on définit le noyau de f , noté Ker(f ) (Kern signifie ’noyau’ en
allemand), et l’image de f , notée Im(f ), par :
Ker(f ) = {x ∈ E, f (x) = 0F } = f −1 (0F )
Im(f ) = {f (x) ∈ F, x ∈ E} = f (E)
Proposition 6.
Si f ∈ L(E, F ) alors Im(f ) et Ker(f ) sont des sous-espaces vectoriel respectivement de F et E.
Preuve :algèbre licence.pdf 16/144
Proposition 7.
Si f ∈ L(E, F ) et A un sous-espace vectoriel de E et B un sous-espace vectoriel de F alors f (A) et f −1 (B) sont
des sous-espaces vectoriel respectivement de F et de E.
Preuve :
Proposition 8.
Soit f ∈ L(E, F ).
1. f est surjective ssi Im(f ) = E
2. f est surjective ssi Ker(f ) = {0E }
Preuve :algèbre licence.pdf 16/144
Proposition 9.
Soit f ∈ L(E, F ) et f bijective alors f −1 ∈ L(F, E)
Preuve : Soient f (x) = X, f (y) = Y et α, β ∈ K. On a f −1 (α.X + β.Y ) = f −1 (α.f (x) + β.f (y)) = f −1 (f (α.x + β.y)) =
α.x + β.y = α.f −1 (X) + β.f −1 (Y ) d’où la conclusion.
1.3
Rang et nullité
Mail: [email protected]
Tous droits réservés
Page no 3 sur 96
CHAPITRE 1. APPLICATION LINÉAIRE
Définition 10.
On appelle rang d’une application linéaire f : E −→ F la dimension de f (E). Dit autrement rg(f ) = rang(f ) =
dim Im f (E)
Définition 11.
On appelle nullité d’une application linéaire f : E −→ F la dimension du noyau de f . Dit autrement null(f ) =
dim Ker(f )
1.4
Théorème du rang
Proposition 12.
Soient E et F deux e.v de dimension finie ou infinie sur un corps K et f ∈ L(E, F ) alors rg(f )+null(f ) = dim(E)
dit autrement dim Im(f ) + dim Ker(f ) = dim E
Preuve :
Remarque : Le théorème du rang permet de faire un lien entre le rang d’une application linéaire (dim Im(f )) et la dimension
de son noyau (dim Ker(f )).
Proposition 13.
Lorsque les e.v E et F sont de dimension finie n, le théorème du rang permet d’établir les propositions suivantes
équivalentes :
1. L’application f est un isomorphisme de E sur F
2. l’application f est surjective
3. l’application f est injective
4. rg(f ) = n
Preuve :
1.5
Continuité
Proposition 14.
Soit f ∈ L(E, F ) alors on a les équivalences suivantes :
1. f est continue sur E
2. f est continue en 0
3. ∃M > 0 : ∀x ∈ E, ||f (x)||F ≤ M ||x||E
4. f est lipschitzienne.
Preuve :
Proposition 15.
Si f ∈ L(E, F ) avec Dim(E) < +∞ et Dim(F ) < +∞ alors f est continue.
Mail: [email protected]
Tous droits réservés
Page no 4 sur 96
CHAPITRE 1. APPLICATION LINÉAIRE
Preuve :
1.6
Structure algébrique
1.6.1
Application linéaire nulle
f : E −→ F
. ∀x, y ∈ E on a f (x+y) = 0F = 0F +0F = f (x)+f (y). De plus
x 7−→ 0F
∀x ∈ E, ∀α ∈ K, f (α•x) = 0F = α•0F = α•f (x). f est une application linéaire appelée application linéaire nulle ou zéro et
sera souvent notée O. Nous voyons donc que L(E, F ) 6= ∅
Soient E, F des K-ev. On définit l’application
1.6.2
Application linéaire identité
f : E −→ E
. ∀x, y ∈ E on aura f (x+y) = x+y = f (x)+f (y) et ∀α ∈ K, ∀x ∈
x 7−→ x
E, f (α•x) = α•x = α•f (x). f ainsi définie est une application linéaire sur E. f s’appelle l’application identité est sera notée Id
Soit E un K-ev. On définit l’application
Espace vectoriel (L(E, F ), +, •)
1.6.3
Proposition 16.
=>e.v Home(E,F) est un sous ev de A(E,F)
Soient E, F des K-ev alors (L(E, F ), +, •) est un K-ev. Dit autrement (L(E, F ), +, •) est un sous-espace vectoriel
de (A(E, F ), +, •)
Preuve : Notons que cet ensemble est non vide puisque O ∈ L(E, F ). Nous avons démontré dans le volume sur les e.v que
(A(E, F ), +, •) était un K-ev. Nous allons utiliser une caractérisation pour définir un sous-espace vectoriel.
On rappelle que dans l’e.v (A(E, F ), +, •) on a :
∀f, g ∈ A(E, F ), (f +g)(x) := f (x)+g(x)
∀α ∈ K, ∀f ∈ A(E, F ), (α•f )(x) := α•f (x)
De là on va démontrer que ∀f, g ∈ L(E, F ), f +g ∈ L(E, F ) et ∀α ∈ K, ∀f ∈ L(E, F ) alors α•f ∈ L(E, F )
∀(x, y) ∈ E 2 , (f +g)(x+y) = f (x+y)+g(x+y) = f (x)+g(x)+f (y)+g(y) = (f +g)(x)+(f +g)(y). ∀α ∈ K, (f +g)(α•x) =
f (α•x)+g(α•x) = α•f (x)+α•g(x) = α•(f (x)+g(x)) = α•(f +g)(x) d’où ∀f, g ∈ L(E, F ), f +g ∈ L(E, F )
∀(x, y) ∈ E 2 , (αf )(x + y) = αf (x + y) = α(f (x) + f (y)) = αf (x) + αf (y) = (αf )(x) + (αf )(x). ∀β ∈ K, (αf )(βx) = αf (βx) =
α.βf (x) = β.αf (x) = β(αf )(x). Ainsi ∀α ∈ K, ∀f ∈ L(E, F ) alors α.f ∈ L(E, F ) d’où la conclusion.
Proposition 17.
Soit f ∈ L(E, F ) alors Dim(L(E, F )) = Dim(E).Dim(F )
Preuve :
1.6.4
Anneau (L(E, F ), +, o)
Proposition 18.
=>
Soient E, F, G des K-ev alors si f ∈ L(E, F ) et g ∈ L(F, G) alors gof ∈ L(E, G)
Mail: [email protected]
Tous droits réservés
Page no 5 sur 96
CHAPITRE 1. APPLICATION LINÉAIRE
Preuve : Si f ∈ L(E, F ) et g ∈ L(F, G) alors ∀(x, y) ∈ E 2 , (gof )(x + y) = g(f (x + y)) = g(f (x) + f (y)) = g(f (x)) + g(f (y)) =
(gof )(x) + (gof )(y). De plus ∀α ∈ K, (gof )(αx) = g(f (αx)) = g(αf (x)) = αg(f (x)) = α(gof )(x) donc gof ∈ L(E, G)
Proposition 19.
(L(E, F ), +, o) est un anneau commutatif non intègre dès que Dim(E) ≥ 2
Preuve :
Norme sur L(E, F )
1.6.5
Proposition 20.
f : L(E, F ) −→ R
g 7−→ ||g||L(E,F ) = Sup||x||=1 ||f (x)||F
continues de E dans F .
L’application
définie une norme sur L(E, F ) des applications linéaires
Preuve :
Espace de Banach L(E, F )
1.6.6
Proposition 21.
Si F est un espace de Banach alors L(E, F ) des applications linéaires continues de E dans F est un espace de
Banach.
Preuve :
1.7
Forme linéaire
1.7.1
Définition
Soient K = R ou C. Attention : ici K est considéré comme un K-ev sur lui-même et non pas simplement comme un corps. Ici
on a + = + et • = •
Définition 22.
Une application f de E dans K (e.v) est dite une forme linéaire sur E ou covecteur de E si elle vérifie :
1. ∀x, y ∈ E f (x+y) = f (x)+f (y) (additivité)
2. ∀α ∈ K, ∀x ∈ E f (α•x) = α•f (x) (homogénéité)
Dit autrement c’est une application linéaire particulière de E dans K (e.v)
L’ensemble des formes linéaires sur E est notée L(E, K) ou E ∗ et est appelée le dual de E. Un élément de E ∗ sera noté f ∗ .
f : E −→ K
. On a alors ∀x, y ∈ E f (x+y) = 0K = 0K +0K = f (x)+f (y) et ∀α ∈ K, ∀x ∈
x 7−→ 0K
E f (αx) = 0K = α•0K = α•f (x). Ainsi f ∈ E ∗
Exemple 1.7.1 Soit l’application
Exemple 1.7.2 Considérons le R-ev (C([−1, 1], R), +, •) des fonctions continues de [−1, 1] à valeur dans R. On définit alors
f : C([−1, 1], R) −→ K = R
R1
l’application
.
g 7−→ −1 g(x)dx
R1
R1
R1
R1
On a ∀g, h ∈ C([−1, 1], R), f (g+h) = −1 (g+h)(x)dx = −1 g(x)+h(x)dx = −1 g(x)dx+ −1 h(x)dx = f (g)+f (h). De plus
R1
R1
R1
∀α ∈ K, f (α•g) = −1 (α•g)(x)dx = −1 α•g(x)dx = α• −1 g(x)dx = α•f (g) donc f ∈ L(C([−1, 1], R))
Mail: [email protected]
Tous droits réservés
Page no 6 sur 96
CHAPITRE 1. APPLICATION LINÉAIRE
Remarque : Si x ∈ E et f ∈ L(E, K) on utilise parfois la notation < f, x > dite crochet de dualité pour désigner f (x). Ainsi
< f, x + y >=< f, x > + < f, y > et < f, αx >= α < f, x >
Proposition 23.
Si E un K-ev de dimension finie n. Si f est une forme linéaire non nulle sur E alors le noyau de f , Ker f est un
hyperplan de E. Réciproquement tout hyperplan de E est le noyau d’une forme linéaire.
Preuve : On rappelle qu’un hyperplan de E est un sous-espace vectoriel de dimension n − 1 (c’est-à-dire de codimension 1).
Algèbre licence.pdf 36/144
Proposition 24.
Si E un K-ev de dimension finie n. Si f est une forme linéaire sur E alors Im f = K
Preuve :
Proposition 25.
(Ici Kn et K sont vus comme des e.v). Les seules formes linéaires de Kn dans K sont de la forme f (x) =
a1 x1 + ... + an xn avec ai ∈ K et x = (x1 , ..., xn ) ∈ Kn
Preuve :
Exemple 1.7.3 D’après la proposition précédente f (x, y, z) = 17x − 3/5y + z est une forme linéaire de R3 .
Proposition 26.
f : E −→ Kn
alors f est une application linéaire ssi ses composantes f1 , f2 , ..., fn
x 7−→ f (x) = (f1 (x), f2 (x), ..., fn (x))
sont des formes linéaires.
Soit
Preuve :
1.7.2
Base duale
Proposition 27.
e∗i : E −→ K
n
Soit Dim(E) = n et B = {e1 , ..., en } une base de E. Alors ∀1 ≤ i ≤ n les applications x = Xx e 7−→ x est
j j
i
j=1
une application linéaire (c’est-à-dire de L(E, K)).
Preuve :
Proposition 28.
Dim E = Dim E ∗
Mail: [email protected]
Tous droits réservés
Page no 7 sur 96
CHAPITRE 1. APPLICATION LINÉAIRE
Preuve :
Proposition 29.
La famille (e∗i )1≤i≤n est une base de E ∗ appelée base duale de la base (ei )1≤i≤n
Preuve : Vérifions que cette famille est libre. On a ∀λi ∈ K, λ1 e∗1 + λ2 e∗2 + ... + λn e∗n = 0L(E,K) donc ∀x ∈ E, λ1 e∗1 (x) +
λ2 e∗2 (x) + ... + λn e∗n (x) = 0L(E,K) (x) en particulier pour x = ej (1 ≤ j ≤ n) et comme e∗i (ej ) = 0 pour j 6= i on aura
λj e∗j (ei ) = 0L(E,K) (ei ). Comme la fonction e∗j n’est pas l’application linéaire nulle on aura donc ∀1 ≤ j ≤ n, λj = 0. Comme
Dim E ∗ = n et en utilisant la propo ? ? (ev) on en déduit que (e∗i ) est une base de E ∗
Remarque : On a e∗i (ej ) = e∗i (0e1 + ... + ej + 0ej+1 + ... + 0en ) = 1 si i = j et e∗i (ej ) = 0 si i 6= j. En notant δij le symbole
0 si i 6= j
j
. On aura alors e∗i (ej ) = δij
de Kronecher avec δi =
1 si i = j
Exemple 1.7.4 Soit E = R3 et sa base canonique B = {e1 (1, 0, 0), e2 (0, 1, 0), e3 (0, 0, 1)}. On sait que e∗1 (e1 ) = 1, e∗1 (e2 ) = 0
et e∗1 (e3 ) = 0. Ainsi e∗1 (x, y, z) = e∗1 (x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)) = e∗1 (xe1 + ye2 + ze3 ) = xe∗1 (e1 ) + ye∗1 (e2 ) + ze∗1 (e3 ) = x.
De même e∗2 (x, y, z) = y et e∗3 (x, y, z) = z. Ainsi (e∗1 , e∗2 , e∗3 ) forme une base de E ∗ c’est-à-dire que ∀f ∈ L(R3 , R), f =
αe∗1 + βe∗2 + γe∗3 soit f (x, y, z) = αx + βy + γz=>est ce la demonstraion que toute application lineraire de R3 dans R s’écrit
de la forme f(x,y,z)=alpha xbet x+gamma z ?
Proposition 30.
Soit E un K-ev de dimension finie n. Si (fj )1≤j≤n est une base de E ∗ alors il existe une unique base (ei )1≤i≤n
dont (fj )1≤j≤n est la base duale. On parle de couples de bases duales.
Preuve :
Sous-espace orthogonal de A
1.7.3
Proposition 31.
Soit A une partie non vide de E. L’ensemble A⊥ = {f ∗ ∈ E ∗ |∀a ∈ A, f ∗ (a) = 0} est un sous-espace vectoriel de
E ∗ appelé sous-espace orthogonal de A.
Preuve :
1.7.4
Bidual
Définition 32.
Le bidual E ∗∗ de E est le dual de E ∗
Mail: [email protected]
Tous droits réservés
Page no 8 sur 96
Chapitre
2
Application linéaire remarquable
Remarque : Les notions de nilpotence, idempotence ou involution ne sont pas intrinsèques à celle d’endomorphisme. Nous
donnons simplement ici des endomorphismes particuliers.
2.1
Endomorphisme nilpotent
Définition 33.
Un endomorphisme f ∈ L(E) avec dim(E) < +∞ est dit nilpotent d’indice n si n > 0 et f n = f o...of = 0L(E)
| {z }
n f ois
2.2
Homothétie de rapport α
Soit E un K-ev et α ∈ K. On définit la fonction
fα : E −→ E
x 7−→ α•x
∀x, y ∈ E, fα (x+y) = α•(x+y) = α•x + α•y = fα (x)+fα (y). De plus ∀β ∈ K, ∀x ∈ E, fα (β•x) = α•(β•x) = (α•β)•x =
fα•β (x). Ainsi fα est une application linéaire sur E dite homothétie de rapport α et qui se note hα . L’ensemble des homothéties sur E est noté H(E)
Proposition 34.
1. h1 = IdE
2. ha = a.IdE
3. ha est une application bijective ssi a 6= 0 et alors (ha )−1 = h1/a
4. H(E) est un sous-groupe de (bij(E), o) isomorphe à (K∗ , ×) si E 6= ∅
Preuve :
1.
h1 = f1K : E −→ E
c’est-à-dire par définition h1 est l’identité.
x 7−→ 1K x = x
2. ha (x) = a.x = a.IdE (x) d’où ha = a.IdE
3.
4.
2.3
Projecteur
Nous allons chercher à généraliser la situation de projection déjà vue depuis le collège.
9
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
A minima un projecteur devra être donc un endomorphisme et vérifier p(x) = x0 et p(p(x)) = p(x0 ) = x0 c’est-à-dire pop = p
d’où la définition.
2.3.1
Définition
Définition 35.
Un endomorphisme f ∈ L(E) est dit un projecteur ou idempotent s’il vérifie f 2 = f of = f . Dit autrement
les endomorphismes idempotents sont ceux quand on réitère leurs actions ne font rien d’autre de plus que la
première fois.
p : E −→ E
On sait que p ∈ L(E). On a alors p(p(x)) = p(0) = 0 = p(x) donc p est un
x 7−→ p(x) = 0E
p : E −→ E
projecteur sur E. De même pour
on a p ∈ L(E) et p(p(x)) = p(x) donc p est un projecteur.
x 7−→ p(x) = IdE (x) = x
Exemple 2.3.1 Soit
Exemple 2.3.2 Soit p un projecteur. On sait que c’est un endomorphisme idempotent c’est-à-dire p2 = pop = p. Si Q(X) =
X 2 − X alors Q(p) = p2 − p = p − p = 0 donc Q est un polynôme annulateur de p.
Proposition 36.
Soient p et q deux projecteurs de E.
p + q projecteur ⇔ poq = qop = 0L(E) ⇔ poq + qop = 0L(E)
Preuve : Si p et q sont deux projecteurs alors par définition p et q sont linéaires. Comme (L(E), +, .) est un espace vectoriel
on aura p + q ∈ L(E). De là p + q est un projecteur ssi (p + q)2 = p + q. Or (p + q)2 = (p + q)o(p + q) = p(p + q) + q(p + q) =
pop + poq + qop + qoq = p2 + poq + qop + q 2 = p + poq + qop + p. De là p + q est un projecteur ssi poq + qop = 0
Démontrons que poq + qop = 0 ⇔ poq = qop = 0. Si poq = qop = 0 alors poq + qop = 0. Réciproquement démontrons que
poq = 0
poq + qop = 0 ⇒
qop = 0
On a donc poq + qop = 0 donc en composant à gauche par p on aura pop oq + poqop = p(0) c’est-à-dire poq + poqop = p(0) = 0
|{z}
p2 =p
car p ∈ L(E)
De plus poq + qop = 0 donne en composant à droite par p, poqop + qo pop = p(0) soit poqop + qop = 0. De là
|{z}
p2 =p
poq + poqop = 0
poqop + qop = 0
− − − − − − − − − − −−
poq − qop = 0 ⇔ poq = qop
poq = 0
Comme poq + qop = 0 ⇔ 2poq = 0 ⇔ poq = 0. De même 2qop = 0 ⇔ qop = 0. De là poq + qop = 0 ⇒
qop = 0
Dit autrement p + q projecteurs ⇔ poq + qop = 0L(E) ⇔ poq = qop = 0L(E)
2.3.2
Projection
On rappelle que si E = E1 ⊕ E2 alors ∀x ∈ E se décompose de façon unique x = x1 + x2 avec x1 ∈ E1 et x2 ∈ E2 . E1 et E2
sont deux sous-espaces vectoriel de E dit supplémentaires. E est dit la somme directe de E1 et E2 . Pour plus de détail voir
le volume espace vectoriel.
Mail: [email protected]
Tous droits réservés
Page no 10 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
Proposition 37.
On définit l’application
et l’application
p : E = E1 ⊕ E2 −→ E = E1 ⊕ E2
x 7−→ p(x) = p(x1 + x2 ) = x1
q : E = E1 ⊕ E2 −→ E = E1 ⊕ E2
x 7−→ q(x) = q(x1 + x2 ) = x2
Alors p et q sont des projecteurs.
Preuve : On a p(x + y) = p(x1 + y1 + x2 + y2 ) = p(x1 + x2 + y1 + y2 ) = x1 + x2 = p(x) + p(y) et p(αx) = p(α(x1 + x2 )) =
p(αx1 + αx2 ) = αx1 = αp(x). Ainsi p ∈ L(E). De plus pop(x) = p(p(x1 + x2 )) = p(x1 ) = p(x1 + 0) = x1 = p(x) donc q est
un endomorphisme idempotent (projecteur).
Enfin q(x + y) = q(x1 + x2 + y1 + y2 ) = y1 + y2 = q(x) + q(y) et q(αx) = q(αx1 + αx2 ) = αx2 = αq(x) d’où q ∈ L(E). On aura
q(q(x)) = q(q(x1 + x2 )) = q(x2 ) = q(0 + x2 ) = x2 = q(x) c’est-à-dire que q est un projecteur (endomorphisme idempotent).
Définition 38.
p ∈ L(E) est appelée la projection sur E1 parallèlement à E2 ou projection de base E1 de direction E2 .
q ∈ L(E) sera appelée la projection sur E2 parallèlement à E1 ou projection de base E2 de direction E1
Parfois p est noté p1 et q sera noté de sorte qu’en général si E = E1 ⊕...⊕En on définit pi (x) = pi (x1 +...+xn ) = xi
Exemple 2.3.3 Soit R2 munit de la base B = {e1 (1, 0), e2 (0, 1)}. E1 = {x(1, 1) = (x, x)|x ∈ R} et E2 = {x(1, −1) =
(x, −x)|x ∈ R} sont des sous-espaces vectoriel de R2 et on aura R2 = E1 ⊕ E2 . Cherchons dans B, p(3, 2) et q(3, 2). On a
1
5 5
5 5
5
1 1
5 5
1 1
1 1
p(3, 2) = p( (1, 1) + (1, −1) = p(( , ) + ( , − )) = ( , ) et q(3, 2) = q(( , ) + ( , − )) = ( , − )
2
2
2
2
2
2
2
2
2
2
2
2
2
2
| {z } | {z }
| {z } | {z }
∈E1
∈E2
∈E1
∈E2
Exemple 2.3.4 Soit E = R3 et F = {(x, y, z) ∈ R3 |x + y + z = 0} et G = V ect(1, 1, 1). Déterminons les projecteurs
p et q respectivement sur F parallèlement à G et sur G parallèlement à F . F est un plan de R3 passant par (0, 0, 0) donc
c’est un sous-espace vectoriel de R3 . G est une droite de R3 passant par (0, 0, 0) c’est donc aussi un sous-espace vectoriel de R3 .
Montrons que F et G sont bien supplémentaires. On a F ∩ G = {(0, 0, 0)} = OR3 . Montrons que enfin que R3 = F + G.
Soit X ∈ R3 , XF ∈ F et XG ∈ G tels que X = XF + XG . Le but est de chercher XF et XG en fonction de (x, y,
z) donné.

x
On a X = (x, y, z) et XF = (a, b, c) avec donc a + b + c = 0 et XG = (α, α, α) = α(1, 1, 1). De là X = XF + XG =  y  =
z


 


 

a
α
x
a+α
 a+α=x
 b + α ⇔ y = b+α ⇔
b+α=y

c
α
z
c+α
c+α=z
Mail: [email protected]
Tous droits réservés
Page no 11 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
En sommant les 3 égalités on aura a + b + c +3α = x+y+z soit α =
| {z }
x+y+z
x+y+z x+y+z x+y+z
. De là XG = (
;
;
)
3
3
3
3
=0
x+y+z
x+y+z
x+y+z
2x − y − z −x + 2y − z −x − y + 2z
ainsi XF = X − XF = (x −
;y −
;z −
)=(
;
;
)
3
3
3
3
3
3
x+y+z x+y+z x+y+z
On a pour X = (x, y, z) ∈ R3 donné X = XF + XG avec XG = (
;
;
) et
3
3
3
2x − y − z −x + 2y − z −x − y + 2z
2x − y − z
−x + 2y − z
−x − y + 2z
XF = (
;
;
). Notons que pour XF on a
+
+
=0
3
3
3
3
3
3
donc XF ∈ F .
p : F ⊕ G −→ F ⊕ G
En conclusion
(x, y, z) 7−→ p(x, y, z) = (
2x − y − z −x + 2y − z −x − y + 2z
et
;
;
)∈F
3
3
3
q : F ⊕ G −→ F ⊕ G
(x, y, z) 7−→ q(x, y, z) = (
x+y+z x+y+z x+y+z
;
;
)∈G
3
3
3
Si (x, y, z) = (−1; −1 − 1) on aura p((−1; −1 − 1)) = (
(−1; −1; −1) ==>placer sur le dessin à faire
−2 + 1 + 1 1 − 2 + 1 1 + 1 − 2
;
;
) = (0; 0; 0) et q((−1; −1 − 1)) =
3
3
3
1 1 −2
2 2 2
Si maintenant (x, y, z) = (1, 1, 0) on aura p(1, 1, 0) = ( , ,
) et q(1, 1, 0) = ( , , )==>placer sur le dessin à faire
3 3 3
3 3 3
Exemple 2.3.5 Déterminons le projecteur (projection) p de F(R, R) sur F = {f ∈ F(R, R)|f (0) = 0} parallèlement à
V ect(f (x) = 1). Démontrons tout d’abord que F est un sous-espace vectoriel de F(R, R).
La fonction 0 ∈ F donc F 6= ∅.
Soient α, β ∈ K et f, g ∈ G. On a alors (αf + βg)(0) = αf (0) + βg(0) = 0 donc αf + βg ∈ F . D’après la caractérisation
d’un sous-espace vectoriel on en déduit que F est un sous-espace vectoriel de F(R, R).
De plus V ect((f (x) = 1) = {g(x) = αf (x) = α avec α ∈ K} = G. La fonction 0 ∈ G et si f, g ∈ G alors (αf + βg)(x) =
αf (x) + βg(x) = α + β ∈ G donc G est un sous-espace vectoriel de F(R, R).
Montrons que F et G sont supplémentaires dans F(R, R). On a F ∈ F ∩ G donc f (0) = 0 et f (x) = αg(x) = α.1 = α donc
f (0) = α ainsi α = 0 de là f ≡ 0 c’est-à-dire F ∩ G = {0F (R,R) }
Montrons maintenant que F(R, R) = F +G. Soit f ∈ F(R, R) donné, on pose fF (x) = f (x)−f (0) ∈ F (fF (0) = f (0)−f (0) =
0) et fG (x) = f (0) ∈ G. On a f = fF + fG c’est-à-dire F(R, R) = F + G.
On en déduit ∀f ∈ F(R, R), p(f ) = fF : x 7−→ f (x) − f (0)
Si f (x) = x2 on aura p(f ) = x2 − 02 = x2 et si f (x) = (x + 1)2 on aura p(f ) = (x + 1)2 − (0 + 1)2 = (x + 1)2 − 1
Mail: [email protected]
Tous droits réservés
Page no 12 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
Proposition 39.
Soit E = E1 ⊕ E2
y ∈ E1
y − x ∈ E2
2. poq = h1 et p + q = h1 = IdE
1. ∀x, y ∈ E p(x) = y ⇔
3. Si E1 = E alors p = h1 = IdE et si E2 = E alors p = h0
4. H(E) est un sous-groupe de (bij(E), o) isomorphe à (K∗ , ×) si E 6= ∅
Preuve :
1.
2. poq(x) = p(q(x1 + x2 )) = p(x2 ) = p(0 + x2 ) = 0 c’est-à-dire poq = h0 . Enfin (p + q)(x) = p(x) + q(x) = p(x1 + x2 ) +
q(x1 + x2 ) = x1 + x2 = x = 1.x c’est-à-dire p + q = IdE
3. Soit E1 = E on aura E = E ⊕ {0} donc p(x) = p(x + 0) = 1.x c’est-à-dire p = h1 = IdE . De même si E2 = E on aura
E = {0} ⊕ E et p(x) = 0 = 0.x d’où p = h0
Proposition 40.
Soit E = F ⊕ G et p la 1ere projection alors Ker p = G et Im p = F c’est-à-dire E = Im p ⊕ Ker p===> et
pour q ?
Preuve : Soit x ∈ G alors x s’écrit comme décomposition en somme directe 0 + x avec 0 ∈ f et x ∈ G. Ainsi p(x) = 0 donc
x ∈ Ker p c’est-à-dire G ⊂ Ker p
Réciproquement soit x ∈ Ker p on aura donc p(x) = 0. Comme x = xF + xG on obtient xF = 0 c’est-à-dire x = xG ainsi
x ∈ G ou encore Ker p ⊂ G. En conclusion Ker p = G.
Démontrons maintenant que Im p = F . Soit x ∈ F alors p(x) = x ∈ Im p c’est-à-dire F ⊂ Im p. Réciproquement si x ∈ Im p
alors ∃y ∈ E tel que p(y) = x. Comme x est la projection de y sur F on a x ∈ F donc Im p ⊂ F . De là Im p = F
2.3.3
Caractérisation d’un projecteur
Les projections vectorielles définies précédemment sont des projecteurs, à priori on serait tenté de dire qu’un projecteur n’est
pas forcément une projection. Nous allons voir en faite que la réciproque est vraie.
Proposition 41.
Tout projecteur p de E est une projection de base Im p = Ker(p − IdE ) = Inv(p) et de direction Ker p =
Im(p − IdE ). Dit autrement p est un projecteur ssi p est la projection sur Im p parallèlement à Ker p
Preuve : Si p est une projection alors d’après la proposition ? ? ? E = F ⊕ G avec F = Im p et G = Ker p. D’après la
proposition ? ? ? on aura p un projecteur sur F . Montrons l’implication réciproque, à savoir si p est un projecteur (p2 = pop
et p ∈ L(E)) alors p est une projection sur Im p parallèlement à Ker p.
Commençons à démontrer que si p est un projecteur alors E = Im p ⊕ Ker p. Soit u ∈ Im p ∩ Ker p donc il existe u0 ∈ E
tel que u = p(u0 ) et p(u) = 0 donc p(p(u0 )) = p(u) = 0 c’est-à-dire p2 (u0 ) = 0 = p(u0 ) = 0 ⇔ u = 0. Ainsi Im p∩Ker p = {0E }.
Vérifions que E = Im p + Ker p c’est-à-dire trouvons uF ∈ Im p et uG ∈ Ker p tels que ∀u ∈ E on ait u = uF + uG .
Soit u ∈ E, uF ∈ Im p et uG ∈ Ker p tels que u = uF + uG , puisque uF ∈ Im p alors il existe u0 ∈ E tel que p(u0 ) = uF et
p(uG ) = 0E . Ainsi u = uF + uG avec p2 = p donnera p(u) = p(uF + uG ) = p(uF ) + p(uG ) ⇔ p(u) = p(p(u0 )) + 0E ⇔ p(u) =
Mail: [email protected]
Tous droits réservés
Page no 13 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
p2 (u0 ) ⇔ p(u) = p(u0 ) = uF . Par conséquent p(u) = uF et uG = u − uF = u − p(u). Ainsi si p est un projecteur alors on aura
u = uF + uG avec uF = p(u) et uG = u − p(u) dons au final E = Im p ⊕ Ker p et par construction on aura p(u) = uF donc
| {z } | {z }
F
G
par définition p est la projection sur Im p parallèlement à Ker p
Remarque : Les mots projecteurs et projection (vectorielle) peuvent donc être employé de manière équivalente.
Exemple 2.3.6 Soit
f : R3 −→ R3
(x, y, z) 7−→ (x, y, −x − y)
On conjecture donc que f est un projecteur sur P parallèlement à une droite D.
Montrons que f est un projecteur et caractérisons-le comme une projection. Tout d’abord montrons que f ∈ L(R3 )
f (αX + X 0 ) = f (α(x, y, z) + (x0 , y 0 , z 0 )) = f (αx + x0 , αy + y 0 , αz + z 0 ) = (αx + x0 , αy + y 0 , −αx − x0 − αy − y 0 ) =
α(x, y, −x − y) + (x0 , y 0 , −x0 − y 0 ) = αf (X) + f (X 0 ) donc f ∈ L(R3 )
Calculons f 2 = f of . ∀X = (x, y, z)R3 , f 2 (X) = f (f (X)) = f (x, y, −x − y)) = (x, y, −x − y) = f (X) donc f 2 = f of = f et f
3
est
 bien un projecteur. On aura d’après la proposition ? ? ? R = Im f ⊕ Ker f avec X = (x, y, z) ∈ Ker f ⇔ f (X) = 0R3 ⇔
 x=0
y=0
⇔ x = y = 0 donc Ker f = {(0, 0, z); z ∈ R} = {z(0, 0, 1); z ∈ R} donc Ker f = V ect((0, 0, 1))

−x − y = 0
De plus X = (x, y, z) ∈ Im f ⇔ f (X) = X ⇔ (x, y, −x − y) = (x, y, z) ⇔ z = −x − y d’où Im f = {(x, y, −x − y)} =
{x(1, 0, −1) + y(0, 1, −1); x, y ∈ R} = V ect((1, 0, −1); (0, 1, −1)). Par conséquent f est la projection de R3 sur V ect(0, 0, 1)
parallèlement à V ect((1, 0, −1); (0, 1, −1))
T : F(R, R) −→ F(R, R)
f (x) + f (−x)
f 7−→
2
Montrons que T est un projecteur et caractérisions-le.
Exemple 2.3.7 Soit
Montrons tout d’abord que T ∈ L(F(R, R)). Soit f, g ∈ F(R, R) et α, β ∈ R.
(α.f + β.g)(x) + (α.f + β.g)(−x)
f (x) + f (−x)
g(x) + g(−x)
= α.
+ β.
= α.T (f ) + β.T (g). Vérifions
2
2
2
2
maintenant que T = T
On a T (α.f + β.g) =
f (x) + f (−x)
∀f ∈ F(R, R), T 2 (f ) = T (T (f )) = T (
)=
2
T (f ) et ainsi T est un projecteur.
Mail: [email protected]
f (x) + f (−x) f (−x) + f (x)
2f (x) + 2f (−x)
+
f (x) + f (−x)
2
2
2
=
=
=
2
2
2
Tous droits réservés
Page no 14 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
Déterminons Im p = Inv p c’est-à-dire T (f ) = f ⇔ ∀x ∈ R,
f ∈ Ker(T ) ⇔ T (f ) = 0F (R,R) ⇔ ∀x ∈ R,
f (x) + f (−x)
= f (x) ⇔ ∀x ∈ R, f (−x) = f (x). De plus
2
f (x) + f (−x)
= 0 ⇔ f (−x) = −f (x)
2
D’après la proposition nous avons donc F(R, R) = Im(T ) ⊕ Ker(T ) où Im(T ) est le sous-espace vectoriel des fonctions
paires et Ker(T ) est le sous-espace vectoriel des fonctions impaires. De plus T est la projection sur le sous-espace vectoriel
de fonctions paires parallèlement au sous-espace vectoriel des fonctions impaires.
Proposition 42.
Soient p et q deux projecteurs de E. p et q ont même noyau ⇔ p = poq et q = qop
Preuve : Démontrons le sens p = poq et q = qop ⇒ p et q ont même noyau.
Soit x tel que q(x) = 0 alors p(x) = p(q(x)) = p(0) = 0 donc x ∈ Ker q ⇒ x ∈ Ker p c’est-à-dire Ker q ⊂ Ker p.
De même si x est tel que p(x) = 0 alors q(x) = q(p(x)) = q(0) = 0 donc x ∈ Ker p ⇒ x ∈ Ker q c’est-à-dire Ker p ⊂ Ker q.
Ainsi si p = poq et q = qop ⇒ Ker p = Ker q
Réciproquement on suppose Ker p = Ker q. Soit x ∈ E alors x se décompose en x = x1 + x2 avec x1 ∈ Im q = Inv q et
x2 ∈ Ker q = Ker p (par hypothèse). On a alors (poq)(x) = p(q(x1 + x2 )) = p(q(x1 )) + p(q(x2 )) = p(x1 ) = p(x1 ) + p(x2 ) =
| {z }
| {z }
| {z }
x1
=0
=0
p(x1 + x2 ) = p(x) donc poq = p.
De même qop(x) = q(p(x1 + x2 )) = q(p(x1 )) + q(p(x2 )) = q(x1 ) + 0 = q(x1 ) + q(x2 ) = q(x1 + x2 ) = q(x) donc qop = q. Ainsi
| {z }
x1
si Ker q = Ker p ⇒ qop = q et poq = p d’où le résultat.
2.4
Involution
Le but des involutions sera de généraliser les symétries axiales.
Ainsi à minima une involution devra donc être un endomorphisme (pourquoi ?) et vérifier s(x) = x0 et s(s(x)) = s(x0 ) = x
c’est-à-dire sos = Id d’où la définition :
2.4.1
Définition
Définition 43.
On dit qu’un endomorphisme f ∈ L(E) est une involution ou que f est involutif lorsque f 2 = f of = IdE . Dit
autrement f est une involution ssi f est bijective et f = f −1
Les involutions sont les endomorphismes qui "changent" les points 2 par 2, c’est-à-dire f (x) = y alors f (y) = x. De même
que nous avions caractérisé les endomorphismes idempotents ou projecteurs comme des projections, nous allons caractériser
les endomorphismes involutifs comme des symétries.
Exemple 2.4.1 Soit
f : E −→ E
x 7−→ −x
On a f (x + y) = −(x + y) = −x − y = f (x) + f (y) et f (α.x) = −α.x = α(−x) = αf (x) donc f est une application linéaire.
De plus f of (x) = f (f (x)) = f (−x) = x donc f of = f 2 = IdE c’est-à-dire que f est une involution.
Mail: [email protected]
Tous droits réservés
Page no 15 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
Exemple 2.4.2 Soit s une symétrie. On pose Q(X) = X 2 − 1 comme s2 = sos = IdE nous aurons Q(s) = s2 − 1.IdE = 0E
donc Q est un polynôme annulateur de s.
2.4.2
Symétrie
Proposition 44.
On définit l’application
et l’application
s = p − q : E = E1 ⊕ E2 −→ E = E1 ⊕ E2
x 7−→ s(x) = x1 − x2
t = q − p : E = E1 ⊕ E2 −→ E = E1 ⊕ E2
x 7−→ t(x) = x2 − x1
Alors s et t sont des endomorphismes involutifs.
Preuve : On a s(x+y) = (x1 +y1 )−(x2 +y2 ) = (x1 −x2 )+(y1 −y2 ) = s(x)+s(y). Enfin ∀α ∈ R, s(α.x) = α(x1 −x2 ) = αs(x).
Ainsi s ∈ L(E)
faire pour t....a faire
Nous aurions pu également dire que comme (L(E), +, .) est un espace vectoriel alors il y a stabilité par combinaison linéaire
donc comme, p et q ∈ L(E) on aura p + (−1).q = p − q = s ∈ L(E). On aura aussi t = q − p ∈ L(E).
Pour finir sos(x) = s(s(x)) = s(x1 − x2 ) = s(x1 + (−x2 )) = x1 − (−x2 ) = x1 + x2 = x c’est-à-dire sos = IdE . De même
tot(x) = t(t(x1 + x2 )) = t(x2 − x1 ) = t(−x1 + x2 ) = x2 − (−x1 ) = x1 + x2 = x c’est-à-dire tot = IdE . Ainsi s et t sont des
involutions.
Définition 45.
s ∈ L(E) est appelée la symétrie par rapport à E1 parallèlement à E2 ou symétrie de base E1 de direction E2 .
t ∈ L(E) sera appelée la symétrie par rapport à E2 parallèlement à E1 ou symétrie de base E2 de direction E1 .
Exemple 2.4.3 Soit
f : C −→ C
On considère C comme un R-ev.
z 7−→ z
On a C = R ⊕ iR où iR = {α.i, α ∈ R}
De plus f (αz + z 0 ) = αz + z 0 = α.z + z 0 = α.z + z 0 = α.f (z) + f (z 0 ) donc f ∈ LR (C). De là s(z) = s(a + ib ) = a − ib et s
| {z }
xF +xG
sera la symétrie de C par rapport à R parallèlement à iR
Exemple 2.4.4 Déterminons la symétrie de R3 par rapport à F = {(x, y, z) ∈ R3 |x+z = 0} parallèlement à G = V ect(1, 1, 0)
G par définition est un sous-espace vectoriel de R3 de dimension 1. Démontrons que F est un sous-espace vectoriel de R3 ,
on a déjà 0R3 ∈ F .
Soit (x, y, z) ∈ F et (x0 , y 0 , z 0 ) ∈ F alors α (x, y, z) + (x0 , y 0 , z 0 ) = (αx + x0 , αy + y 0 , αz + z 0 ) = αx + x0 + αz + z 0 =
| {z } | {z }
X
X0
α(x + z) + x0 + z 0 = α.0 + 0 = 0 donc αX + X 0 ∈ F et ainsi F est un sous-espace vectoriel de R3 .
Mail: [email protected]
Tous droits réservés
Page no 16 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
Montrons que F et G sont supplémentaires.


x+z =0






x+z =0
x=α
Tout d’abord (x, y, z) ∈ F ∩ G ⇔
⇔
⇔ x = y = z = α = 0 c’est-à-dire F ∩ G = {0R3 }
(x,
y,
z)
=
α(1,
1,
0)

 y=α




z=0
Enfin soit X = (x, y, z) ∈ R3 donné. On
et
 cherche
 XF ∈
F 
x
a
XG = (α, α, 0) de là X = XF + XG ⇔  y  =  b  + 
z
c
xG∈ G 
tels que X = XF + XG . On note XF = (a, b, c) et
α
 a+α=x
α ⇔
b+α=y

0
c=z
En additionnant la 1ere et la dernière ligne a + c +α = x + z de là XG = (x + z, x + z, 0) et ainsi XF = X − XG =
| {z }
0
(x, y, z)−(x+z, x+z, 0) = (−z, −x+y−z, z). En conclusion X = XF +XG avec XF (−z, −x+y−z, z) et XG = (x+z, x+z, 0)
ce qui démontre que E = F ⊕ G
La symétrie de R3 par rapport à F parallèlement à G sera donc s(x, y, z) = (−z, −x + y − z, z) − (x + z, x + z, 0) =
(−x − 2z, −2x + y − 2z, z). D’un point de vue géométrique on aura
Voici une proposition qui permet de faire le lien entre une projection p et une symétrie s.
Proposition 46.
Soit E = F ⊕ G et p la projection de E sur F parallèlement à G et s la symétrie de E par rapport à F
1
parallèlement à G alors s = 2p − IdE ⇔ p = (IdE + s)
2
Preuve : On a ∀x ∈ E, x = xF + xG donc p(x) = xF et s(x) = xF − xG = 2xF − (xF + xG ) = 2p(x) − x. De là
1
s = 2p − IdE ⇔ p = (s + IdE )
2
Proposition 47.
x + y ∈ E1
y − x ∈ E2
2. Si E1 = E alors s = h1 = IdE et si E2 = E alors s = h−1 = −IdE
1. ∀x, y ∈ E s(x) = y ⇔
3. H(E) est un sous-groupe de (bij(E), o) isomorphe à (K∗ , ×) si E 6= ∅
Preuve :
Proposition 48.
Si E = F ⊕ G et s la symétrie alors F = Ker(s − IdE ) = Inv s et G = Ker(s + IdE ) = opp(s) c’est-à-dire
E = Ker(s − IdE ) ⊕ Ker(s + IdE )
Preuve :
2.4.3
Caractérisation des involutions
Mail: [email protected]
Tous droits réservés
Page no 17 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
Proposition 49.
Toute involution s de E est une symétrie de E par rapport à Ker(s−IdE ) = Inv s parallèlement Ker(s+IdE ) =
opp(s). Dit autrement s est une involution de E ssi s est une symétrie de E par rapport à Inv(s) parallèlement
à opp(s)
Preuve : Si s est une symétrie alors d’après la proposition ? ? E = F ⊕ G avec F = Ker(s − IdE ) = Inv(s) et G =
Ker(s + IdE ) = opp(s). D’après la proposition ? ? ? on a s est une involution c’est-à-dire sos = Id
Réciproquement montrons que si s est une involution sur E (s2 = Id et s ∈ L(E)) alors s est une symétrie de E par rapport
à Inv(s) parallèlement à opp(s).
1
Soit s ∈ L(E) tel que s2 = IdE , d’après la proposition ? ? ? nous avons démontrer que p = (s + Id) était un projecteur.
2
1
D’après la proposition ? ? ? qui caractérise les projecteurs p = (s + Id) est le projecteur de E sur Im(p) parallèlement à
2
1
Ker(p). De plus (Id + s) = p ⇔ s = 2p − Id en outre u ∈ Im(p) ⇔ u ∈ Inv(p) ⇔ p(u) = u ⇔ 2p(u) − Id(u) = 2u − u =
2
u = s(u) ⇔ u ∈ Ker(s − Id) donc Im(p) = Ker(s − IdE )
Enfin u ∈ Ker(p) ⇔ p(u) = 0 ⇔ 2p(u) = 0 ⇔ 2p(u) − u = −u ⇔ s(u) = −u ⇔ u ∈ Ker(s + IdE ) = opp(s) donc
Ker(p) = Ker(s + Id) ainsi s involution ⇒ p projecteur ⇒ p projection de E sur Im p parallèlement à Ker p ⇒ s symétrie
sur Ker(s − IdE ) = Inv(s) parallèlement à Ker(s + Id) = opp(s) d’où le résultat.
Exemple 2.4.5 Soit
f : R3 −→ R3
(x, y, z) 7−→ (x, y + 2z, −z)
Démontrons que f est une symétrie et caractérisons-là.
f (αX + X 0 ) = f (αx + x0 , αy + y 0 , αz + z 0 ) = (αx + x0 , αy + y 0 + 2αz + z 0 , −αz − z 0 ) = α(x, y + 2z, −z) + (x0 , y 0 + 2z 0 , −z 0 ) =
αf (X) + f (X 0 ) donc f ∈ LR (R3 )
Montrons que f 2 = f of = IdR3
∀X = (x, y, z) ∈ R3 , f 2 (X) = f (f (X)) = f (x, y + 2z, −z) = (x, y + 2z − 2z, z) = (x, y, z) donc f 2 = IdR3 et ainsi f est une
involution avec R3 = Inv(f ) ⊕ opp(f )
Déterminons Inv(f ) et opp(f )

 x=x
y + 2z = y ⇔ z = 0 donc
X = (x, y, z) ∈ Ker(f − Id) ⇔ f (x, y, z) = (x, y, z) ⇔ (x, y + 2z, −z) = (x, y, z) ⇔

−z = z
X = (x, y, 0) = x(1, 0, 0) + y(0, 1, 0) et ainsi Ker(f − Id) = V ect((1, 0, 0), (0, 1, 0))

 x = −x
x=0
y + 2z = −y ⇔
Maintenant X = (x, y, z) ∈ opp(f ) ⇔ f (x, y, z) = −(x, y, z) ⇔ (x, y+2z, −z) = (−x, −y, −z) ⇔
z = −y

−z = −z
Ainsi X = (0, y, −y) = y(0, 1, −1) et Ker(f + Id) = opp(f ) = V ect(0, 1, −1). D’après la proposition f est la symétrie de R3
par rapport au plan vectoriel V ect((1, 0, 0); (0, 1, 0)) parallèlement à la droite V ect(0, 1, −1). De façon plus visuel :
Exemple 2.4.6 Soit
T : R2 [X] −→ R2 [X]
P 7−→ P (1 − X)
Démontrons que f est une symétrie puis caractérisons-là.
Mail: [email protected]
Tous droits réservés
Page no 18 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
Tout d’abord montrons que T ∈ L(E) = LR (R2 [X]). Soient P, Q ∈ R2 [X] et α, β ∈ R on a alors T (αP + βQ)(1 − X) =
αP (1 − X) + βQ(1 − X) = α(T (P ))(X) + β(T (Q))(X) = (αT (P ) + βT (Q))(X) donc T (αP βQ) = αT (P ) + βT (Q), ainsi
T ∈ LR (R2 [X])
Vérifions T 2 = T oT = IdR2 [X]
∀P ∈ R2 [X], T 2 (P ) = T (T (P )) = T (P (1 − X)) = P (1 − (1 − X)) = P (X) = P d’où ∀P ∈ R2 [X], T 2 (P ) = P c’est-à-dire
que T 2 = IdR2 [X] et T est une symétrie.
Déterminons Inv(T ) et opp(T )
Soit P (X) = aX 2 + bX + c ∈ R2 [X] on a P ∈ Ker(T − Id) ⇔ T (P ) = P ⇔ P (1 − X) = P (X) ⇔ a(1 − X)2 + b(1 − X) + c =
2
2
2
aX 2 + bX + c ⇔ a(1 − 2X +X 2 ) + b − bX + c =
aX + bX + x ⇔ aX − 2aX + a + b − bX + c = aX + bX + c ⇔
−2a − 2b = 0
a = −b
X(−2a − 2a) + (a + b) = 0 ⇔
⇔
⇔ a = −b d’où P (X) = aX 2 − aX + c = a(X 2 − X) + c et
a+b=0
a+b=0
donc Inv(T ) = {a(X 2 − X) + c.1} = V ect < X 2 − X, 1 >
Déterminons maintenant opp(T )
2
2
2
P ∈ opp(T
 ) ⇔ T (P ) = −P ⇔ P (1−X) = −P (X) ⇔ aX −2aX +a+b−bX +c = −aX −bX −c ⇔ 2aX −2aX +a+b+2c =
 2a = a
a=0
−2a = 0
0⇔
⇔
d’où P (X) = −2cX + c = c(−2X + 1) et ainsi opp(T ) = {c(−2X + 1), c ∈ R} =
b = −2c

a + b + 2c = 0
V ect < −2X + 1 >. D’après la proposition T est la symétrie de R2 [X] par rapport à V ect < X 2 − X, 1 > parallèlement à
V ect < −2X + 1 >
2.5
Dilatation
Proposition 50.
fa : E −→ E
est une
x = x1 + x2 7−→ p(x) + aq(x) = x1 + ax2
application linéaire appelée dilatation ou affinité par rapport à E1 parallèlement à E2 de rapport a ou
de base E1 de direction E2 et de rapport a.
Soit a
∈
K et E
=
E1 ⊕ E2 . L’application
Preuve :
2.6
Transposée
Proposition 51.
Soient E, F deux K-ev de dimension finie et T une application linéaire de E dans F . On définit l’application T ∗
du dual F ∗ (de F ) dans le dual E ∗ (de E) par :
T ∗ =t T : F ∗ −→ E ∗
f ∗ 7−→ T ∗ (f ∗ ) = f (T ) = f oT
T ∗ ou t T est alors une application linéaire de F ∗ dans E ∗ (t T ∈ L(F ∗ , E ∗ )) et s’appelle la transposée de f .
Preuve :dual.pdf 2/5
Mail: [email protected]
Tous droits réservés
Page no 19 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
Proposition 52.
Soient E, F deux K-ev.
1. ∀f ∈ L(E, F ), g ∈ L(F, G) alors t (gof ) =t f ot g
2. t IdE = IdE ∗ avec E = F
3. Si f ∈ L(E, F ) est bijective (isomorphisme) alors t f est bijective et t (f −1 ) = (t f )−1
4.
Preuve :dual.pdf 2/5
Proposition 53.
Soit f ∈ L(E, F ) alors Ker(t f ) = Im(f )⊥ .
Preuve :dual.pdf 1/5
2.7
Rotation
Dans le plan R2 on considère la rotation r d’angle θ et de centre O
Proposition 54.
L’application
r : R2 −→ R2
est une rotation d’angle θ et de centre O : r(O, θ)
(x, y) 7−→ (x cos θ − y sin θ, x sin θ + y cos θ)
0
0
Preuve : On a cos α = √ 2x 2 et sin α = √ 2y 2 . De plus cos(θ + α) = √ x2 2 et sin(θ + α) = √ y2 2 d’où x0 =
x +y
x +y
x +y
p x +y
p
p
x2 + y 2 cos(θ + α) = x2 + y 2 (cos θ cos α − sin θ sin α) = x2 + y 2 (cos θ √ 2x 2 − sin θ √ 2y 2 ) = x cos θ − y sin θ
x +y
p
p
p
De même y 0 = x2 + y 2 sin(θ + α) = x2 + y 2 (sin θ cos α + cos θ sin α) = x2 + y 2 (sin θ √
x +y
x
x2 +y 2
+ cos θ √
y
)
x2 +y 2
= x sin θ +
y cos θ
Proposition 55.
r est une application linéaire de R2 dans R2 .
Preuve : Soit (x1 , y1 ) et (x2 , y2 ) de R2 . r((x1 , y1 ) + (x2 , y2 )) = r(x1 + x2 , y1 + y2 ) = [(x1 + x2 ) cos θ − (y1 + y2 ) sin θ; (x1 +
x2 ) sin θ + (y1 + y2 ) cos θ] = [x1 cos θ − y1 sin θ + x2 cos θ − y2 sin θ; x1 sin θ + y1 cos θ + x2 sin θ + y2 cos θ] = (x1 cos θ −
y1 sin θ, x1 sin θ + y1 cos θ) + (x2 cos θ − y2 sin θ, x2 sin θ + y2 cos θ) = f (x1 , y1 ) + f (x2 , y2 ). Soit α ∈ R, f (α(x, y)) = f (αx, αy) =
(αx cos θ − αy sin θ, αx sin θ + αy cos θ) = α(x cos θ − y sin θ, x sin θ + y cos θ) = αf (x, y) d’où le résultat.
On considère maintenant l’espace R3
Mail: [email protected]
Tous droits réservés
Page no 20 sur 96
CHAPITRE 2. APPLICATION LINÉAIRE REMARQUABLE
L’oeil regarde toujours l’axe dans le sens positif.
Proposition 56.
rx : R3 −→ R3
est une rotation d’angle θ autour de l’axe x
(x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x, y cos θ − z sin θ, y sin θ + z cos θ)
ry : R3 −→ R3
est une rotation d’angle θ autour de l’axe y
(x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x cos θ + z sin θ, y, −x sin θ + z cos θ)
rz : R3 −→ R3
est une rotation d’angle θ autour de l’axe x
(x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x cos θ − y sin θ, x sin θ + y cos θ, z)
Preuve : Pour rx on a :
 0
 x =x
y 0 = y cos θ − z sin θ
On a déjà x0 = x d’où on est ramené à une rotation dans le plan P . Ainsi
 0
z = y sin θ + z cos θ
Pour ry on a :
Vu par l’autre côté
 0
 0
 x = x cos(−θ) − z sin(−θ)
 x = x cos θ + z sin θ
y0 = y
y0 = y
Ainsi
⇔
 0
 0
z = x sin(−θ) + z cos(−θ)
z = −x sin θ + z cos θ
Enfin pour rz on a :
 0
 x = x cos θ − y sin θ
y 0 = x sin θ + y cos θ
soit
 0
z =z
Proposition 57.
rx , ry r z sont des applications linéaires de R3 dans R3
Preuve :
Mail: [email protected]
Tous droits réservés
Page no 21 sur 96
Chapitre
3
Matrice d’un vecteur dans une base
Soit un espace vectoriel de dimension n et B = {e1 , ..., en } une base de E. ∀x ∈ E on peut décomposer de façon unique
n
X
comme combinaison linéaire des vecteurs de la base : x = α1 e1 + ... + αn en =
αk ek . Dit autrement à tout vecteur (point)
k=1
n
ϕ : (E, B) −→ K
de E on peut associer le vecteur composante dans Kn c’est-à-dire


x
−
7
→
X
=

|{z}

vecteur





x1
x2
..
.
x1
x2
..
.





xn



 est dite matrice colonne des composantes (ou coordonnée) de x ou vecteur colonne des composante de x ou

xn
matrice coodonnée de x. Cette matrice est notée X = MB (x) ou M atB (x) voire [x]B . On note parfois aussi cette matrice
B
x↔X
Proposition 58.
ϕ est un isomorphisme (application linéaire bijective).
Preuve :
Exemple 3.0.1 Soit l’espace vectoriel R3 [X] de base {1, X, X 2 , X 3 }. Soit p(X) = a0 + a1 X + a2 X 2 + a3 X 3 ∈ R3 [X] alors
4
ϕ : (R3 [X],
 B) −→
 K
a0
 a1 

p(x) 7−→ 
 a2 
a3
22
Chapitre
4
Matrice d’AL de E sur F dans 2 bases
Soient E et F deux K-ev de dimension finie respectivement m et n. Soient B = {e1 , e2 , ..., em } une base de E et B 0 =
{f1 , f2 , ..., fn } une base de F . Soit enfin f une application linéaire de E dans F . Comme tout éléments de x ∈ E s’écrit de
m
m
m
m
X
X
X
X
manière unique sur la base (ej )1≤j≤m on aura x =
xj ej avec xj ∈ K et donc f (x) = f ( xj ej ) =
f (xj ej ) =
xj f (ej ).
j=1
j=1
j=1
j=1
Par conséquent f (x) s’écrit de manière unique sur la famille (f (ej ))1≤j≤m (Attention, ce n’est pas forcement une base de F ).
En d’autres termes l’application f est connue dès que les images f (ej ) le sont sur la base (fi )1≤i≤n . Il suffit de décomposer x
sur la base (ej )1≤j≤m dont les composantes sont (xj ) puis connaissant les f (ej ) sur (fi ) faire une combinaison linéaire avec
les mêmes (xj )1≤j≤m et les (f (ej )1≤j≤m sur (fi )1≤i≤n .
Réciproquement supposons que l’on fixe les (f (ej ))1≤j≤m sur (fi )1≤i≤n de façon arbitraire (tous différent) et que l’on pose,
m
m
m
m
X
X
X
X
f (x) =
xj f (ej ) alors f (x + y) =
(xj + yj )f (ej ) =
xj f (ej ) +
yj f (ej ) = f (x) + f (y). De plus ∀α ∈ K, f (αx) =
j=1
m
X
j=1
j=1
j=1
m
X
αxj f (ej ) = α xj f (ej ) = αf (x) donc f ainsi définie sera une application linéaire de E dans F .
j=1
j=1
qu’est ce qui nous dit qu’on touche’ toute les AL de E dans F, parler de l’isomorphisme ?
En conclusion se donner une application linéaire est donc équivalent à se donner les images dans (fi )1≤i≤n des vecteurs
(ej )1≤j≤m de la base choisie de E. On stocke dans un tableau rectangulaire appelée matrice les composantes des vecteurs
f (ej ) dans la base B 0 = {f1 , f2 , ..., fn }
f : (R2 , B) −→ (R, B 0 )
. Nous avons vu dans l’exemple ? que f était une application linéaire. Soit
(x, y) 7−→ x + y
0
0
B = {e1 (1, 0); e2 (0, 1)} et B = {e (2)}. On a f (e1 ) = f (1, 0) = 1 + 0 = 1 = 1/2e0 et f (e2 ) = f (0, 1) = 0 + 1 = 1/2e0 .
Cherchons par exemple l’image de (3, 2) par f .
-Tout d’abord on écrit le point (3, 2) dans la base B : (3, 2) = 3e1 + 2e2 , puis
-On calcule f (3, 2) dans la base B 0 : f (3, 2) = f (3e1 + 2e2 ) = 3f (e1 ) + 2f (e2 ) = 3.1/2e0 + 2.1/2e0 = 5/2e0
-On conclut que l’image du point (3, 2) = 3e1 + 2e2 de R2 dans la base B est le point 5/2e0 de R dans la base B 0 .
Exemple 4.0.2 Soit
Réciproquement donnons nous f (e1 ) = 3e0 et f (e2 ) = 4e0 (on sait déjà que f est linéaire). Cherchons f (3, 2) dans la base
B 0 . f (3, 2) = f (3e1 + 2e2 ) = 3f (e1 ) + 2f (e2 ) = 3.3e0 + 2.4e0 = 17e0 . De façon plus générale f (x, y) = f (xe1 + ye2 ) =
f : (R2 , B) −→ (R, B 0 )
xf (e1 ) + yf (e2 ) = 3xe0 + 4ye0 = (3x + 4y)e0 donc
(x, y) 7−→ (3x + 4y) × 2
4.1
Définition
On met à la colonne j et à la ligne i la composante aij du vecteur f (ej ) sur la base fi . Ainsi la colonne j du tableau contient
bien les composantes du vecteur f (ej ) dans la base B 0 .
23
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
Définition 59.

f (e1 )
a1,1
f (e2 )
a1,2
...
...
..
.
f (en )
a1,m



 a2,1 a2,2
a2,m 

 0
La matrice A = (ai,j ) 1 ≤ i ≤ n = M at
(f ) = An,m = Mn,m (K) =  .
..
..  B
 ..
.
. 
1≤j≤m
an,1 an,2 . . . an,m
0
est la matrice de l’application linéaire f dans les bases B et B . Cette matrice à n lignes
 et m colonnes sera dite

a1,1 a1,2 . . . a1,m
 a2,1 a2,2 . . . a2,m 


de taille (n, m) ou n × m. On note parfois aussi la matrice entre crochet La matrice  .
..
..
.. 
 ..
.
.
. 
B,B0
an,1
an,2
...
an,m
Dans la notation An,m , par convention le premier indice est toujours celui des lignes et le second celui des colonnes.
Les scalaires a1,1 ; a1,2 ; ... sont parfois notés a11 , a12 , .... lorsqu’il n’y a pas d’ambiguité. On peut donc résumer la situation
par le schéma suivant :
On a démontré que ∀α ∈ K, f, g ∈ L(E, F ) alors αf, f + g et f og sont des applications linéaires (structure d’ev et d’anneau)
donc on se posera la question de savoir qu’elles opérations naturelles sur les matrices doit-on définir pour avoir l’équivalence
avec αf, f + g et f og.
Mail: [email protected]
Tous droits réservés
Page no 24 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
Deux matrices sont égales lorsqu’elles ont la même taille et que les composantes des f (ej ) dans B 0 sont égaux i.e (aij ) = (a0ij )
Si m = n nous parlerons de matrices carrées d’ordre n. Dans le cas d’une matrice carrée d’ordre n, les éléments a11 , a22 , ..., ann
sont appelées les éléments diagonaux
Exemple 4.1.1 Soit
f : E = R3 −→ F = R3
(x, y, z) 7−→ (3x, 3y, 3z)
On a f (X +Y ) = f ((x, y, z)+(x0 , y 0 , z 0 )) = f (x+x0 , y+y 0 , z+z 0 ) = (3x+3x0 , 3y+3y 0 , 3z+3z 0 ) = (3x, 3y, 3z)+(3x0 , 3y 0 , 3z 0 ) =
f (X) + f (Y ). Enfin f (αX) = f (α(x, y, z)) = f (αx, αy, αz) = (3αx, 3αy, 3αz) = α(3x, 3y, 3z) = αf (X) donc f est une application linéaire.
On munit R3 de sa base canonique B = B 0 = {e1 = e01 (1, 0, 0); e2 = e02 (0, 1, 0); e3 = e03 (0, 0, 1)} on a alors :
f (e1 ) = f (1, 0, 0) = (3, 0, 0) = 3e01 + 0e02 + 0e03
f (e2 ) = f (0, 1, 0) = (0, 3, 0) = 0e01 + 3e02 + 0e03
f (e3 ) = f (0, 0, 1) = (0, 0, 3) = 0e01 + 0e02 + 3e03 


D’où la matrice associée à f et aux bases, M = 
Mail: [email protected]
f (e1 )
f (e2 )
f (e3 )
3
0
0
0
3
0
0
0
3
 0
B .
Tous droits réservés
Page no 25 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
Définition 60.
Une matrice de taille 1 × n est dite matrice ligne. Une matrice de taille m × 1 est dite matrice colonne.
Remarque : On a noté la base B = {e1 , e2 , e3 }. Or dans une famille il n’y a pas d’ordre. On aura donc x = 2e1 + 3e2 + 4e3 ,
ce qui donne le même résultat que x = 3e2 + 2e1 + 4e3 . On remarque par contre que si on prend l’ ordre e1 , e2 , e3 dans B
alors la matrice de f est (B 0 = {e1 , e2 , e3 } dans cette ordre) :


f (e1 ) f (e2 ) f (e3 )
0
0  0
 3
M = 0
3
0 B .
0
0
3


f (e2 ) f (e1 ) f (e3 )
3
0  0
 0
alors que si l’ordre est dans B, e2 , e1 , e3 la matrice de f relativement aux bases B et B 0 sera M =  3
0
0 B
0
0
3
Maintenant si on ae1 (1, 0, 0), e2 (0, 1, 0),
e3 (0, 0, 1) on aurait tout aussi bien pu écrire e1 (0, 1,0), e2 (1, 0, 0), e3 (0, 0,
1). Dans le
f (e1 ) f (e2 ) f (e3 )
f (e1 ) f (e2 ) f (e3 )
0
0  0
3
0  0
 3
 0
premier cas M =  0
3
0  B alors que dans le deuxième cas on aura M =  3
0
0  B . Ainsi
0
0
3
0
0
3
une matrice dépend donc, outre de f et de sa base, mais aussi de l’ordre des éléments de la base et de leur notation. Certains
ouvrages utilisent donc la notation (ei ) pour indiquer l’ordre. Dans d’autres ouvrages on peut lire B = {e1 , e2 , e3 , ..., en }, les
éléments de la base sont ordonnés dans le sens de la lecture. Quoi qu’il en soit une base est toujours exprimée dans l’ordre
de ses indices.
Remarque : Si l’on utilise d’autres bases pour les espaces vectoriels E et F on change aussi la matrice de l’application linéaire
f . Dans ce volume nous évoquerons la recherche de base de E et F pour rendre la matrice associée f plus simple.
Exemple 4.1.2 Soit
f : K2 [X] −→ K2 [X]
p 7−→ 3p
On munit (P2 [X], +, •) de la base B = B 0 = {1, X, X 2 }. f (p+p0 ) = 3(p+p0 ) = 3p+3p0 = f (p)+f (p0 ) et f (αp) = α.3.p = αf (p)
et donc f est une application linéaire. On a
f (e1 ) = f (1) = 3 = 3e1 + 0e2 + 0e3
f (e2 ) = f (X) = 3X = 0e1 + 3e2 + 0e3


f (e1 )
f (e2 )
f (e3 )
3
0
0  0
0
3
0 B
0
0
3
On remarque donc que deux applications linéaires de même nature mais manipulant des objets différents peuvent donner la
même matrice.Pour A donnée, il ne
 nous est pas possible de remonter l’expression de E sans la donnée des bases. Ainsi

f (e3 ) = f (1) = 3Xr = 0e1 + 0e2 + 3e3 d’où la matrice relativement aux bases B = B 0 : M = 
f (e1 )
f (e2 )
1
1
1
c’est-à-dire avec ei et e0i .

dire soit B = 
4.2
0
0
1
Nous
f (e3 )
1 
0
2  nous donne la dimension de E et de F et les images f (ej ) sur B en terme général
1
ne pouvons rien dire sur la forme de E i.e est-ce E = R3 , E = K2 [X]?
Matrices remarquables
Notons dès à présent que nous ne ferons pas ici l’étude de matrice en profondeur mais que nous les définirons simplement
(parce que nommée dans la suite de ce cours). En fin de volume, l’étude complète des matrices remarquables sera reprise en
détail, comme une sorte de bilan.
4.2.1
Matrice nulle
Mail: [email protected]
Tous droits réservés
Page no 26 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
Définition 61.
On appelle matrice nulle une matrice ne contenant que des 0. On la note Mmn (K) = OL(E,F ) = OMmn (K) =


0K . . . 0K
 0K . . . 0K 


O= .
..
.. 
 ..
.
. 
0K . . . 0K
Exemple 4.2.1 M2,2 (K) =
0
0
0
0
ou M2,3 (K) =
0
0
0
0
0
0
et enfin M1,1 (K) =
0
Proposition 62.
L’application linéaire associée à la matrice nulle est l’unique application nulle.


Preuve : Soit la matrice 0m,n = 

f (e1 )
0
..
.
···
···
0
f (en )

0
..
.



0
0
On aura donc pour f : (E, B) → (F, B ) , f (x) = f (α1 e1 + ... + αn en ) = α1 f (e1 ) + ... + αn f (en ) = α1 (0e01 + ... + 0e0m ) +
... + αn (0e01 + ... + 0e0m ) = 0F donc ∀x ∈ E, f (x) = 0F c’est-à-dire que l’application linéaire associée à la matrice est la seule
application nulle.
4.2.2
Matrice unité
Définition 63.
On appelle matrice unité une matrice

1 0

 0 1
On la note Mn (K) = In = 
 .
..
 ..
.
0 ...
Exemple 4.2.2 I2 =
1
0
0
1

carrée avec des 1 sur la diagonale principale et des 0 partout ailleurs.

... 0
. 
. . . .. 


..
. 0 
... 1
1
et I3 =  0
0
0
1
0

0
0  et I1 = (1) sont des matrices unités.
1
Exemple 4.2.3 Soit E un e.v de dimension n. L’identité de E dans E munit des mêmes bases donne :
f (e1 ) = e1 = 1e1 + 0e2 + ... + 0en
f (e2 ) = e2 = 0e1 + 1e2 + ... + 0en
..
.
f (en ) = en = 0e1 + 0e2 + ... + 1en

f (e1 )
1



L’application linéaire Id (démonstration page 5) de (E, B) dans (E, B) aura pour matrice I = In = 


...
0
..
.
1
..
.
0
...
...
...
..
.
...
f (en )
0
..
.
0
1




 B.


I est bien une matrice unité.
Exemple 4.2.4 Soit
f : (R3 , B) −→ (R2 [X], B 0 )
(x, y, z) 7−→ x + yX + zX 2
Mail: [email protected]
Tous droits réservés
Page no 27 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
avec B = {(1, 0, 0); (0, 1, 0); (0, 0, 1)} et B 0 = {1, X, X 2 }. On a alors f ((x, y, z) + (x0 , y 0 , z 0 )) = f (x + x0 , y + y 0 , z + z 0 ) =
(x + x0 ) + (y + y 0 )X + (z + z 0 )X 2 = (x + yX + zX 2 ) + (x0 + y 0 X + z 0 X 2 ) = f (x, y, z) + f (x0 , y 0 , z 0 ). Enfin f (α(x, y, z)) =
f (αx, αy, αz) = αx + αyX + αzX 2 = α(x + yX + zX 2 ) = αf (x, y, z), f est donc une application linéaire. On a :
f (e1 ) = f (1, 0, 0) = 1 = 1e01 + 0e02 + 0e03
f (e2 ) = f (0, 1, 0) = X = 0e01 + 1e02 + 0e03

1
f (e3 ) = f (0, 0, 1) = X 2 = 0e01 + 0e02 + 1e03 donc la matrice de f relativement aux bases est I3 =  0
0
0
1
0

0
0 
1
Remarque : On retiendra qu’une matrice unité n’est pas forcément associée à l’application linéaire identité (dans deux
mêmes bases). Dans certains ouvrages les matrices unités sont dites aussi matrices identités, mais c’est un anglicisme. Parler
de matrice identité peut laisser supposer qu’elle est associée uniquement à l’application linéaire identité, ce que les exemples
contredisent. Dit autrement il suffit de poser f (e1 ) = e01 , f (e2 ) = e02 ... pour définir une application linéaire de E dans F dont
la matrice sera In .
4.2.3
Matrice colonne et ligne
Définition 64.
si m = 1 on parlera de matrice colonne et si n = 1 on parlera de matrice ligne.
f : E = R3 −→ F = R,
. Cette fonction est la 1ere projection et on aura f (X + Y ) = f (x + x0 , y +
(x, y, z) 7−→ x
y 0 , z + z 0 ) = x + x0 = f (X) + f (Y ) et si α ∈ R alors f (αX) = αX = αf (X) donc f est une application linéaire (R-linéaire).
Exemple 4.2.5 Soit
De là si R3 et R sont munis de leurs bases canoniques à savoir B = {e1 (1, 0, 0); e2 (0, 1, 0); e3 (0, 0, 1)} et B 0 = {e01 (1)} alors
f (e1 ) = 1 = 1e01
f (e2 ) = 0 = 0e01
f (e1 ) f (e2 ) f (e3 )
f (e3 ) = 0 = 0e01 d’où la matrice associée A =
1
0
0
Soit maintenant la fonction
f : E = R −→ F = R3 ,
. f est appelée injection canonique et est clairement linéaire. On aura
x 7−→ (x, x, x)
pour les bases canoniques :


f (e1 ) = f (1) = (1, 1, 1) = 1e01 + 1e02 + 1e03 d’où la matrice associée à cette application linéaire : A = 
4.2.4
f (e1 )

1
1
1


Matrice canonique
Définition 65.
Soit f ∈ L(Kp , Kn ) de matrice associée A relativement aux base canoniques de Kp et Kn . f est alors dite
application linéaire canoniquement associée. On notera souvent A ←→ f . Dit autrement A peut être au moins
la matrice associée de f , mais il peut y en avoir d’autres. Lorsque l’on veut associée A à f ainsi défini on parlera
de la matrice canonique associée à f .
Exemple 4.2.6 Si
f : (R3 , B) −→ (R2 , B 0 )
on a alors :
(x, y, z) 7−→ (x − 2z, 2x + y − 3z)
f (X + αX 0 ) = f (x + αx0 , y + αy 0 , z + αz 0 ) = (x + αx0 − 2(z + αz 0 ), 2(x + αx0 ) + (y + αy 0 ) − 3(z + αz 0 )) = (x − 2z, 2x + y − 3z) +
(αx0 − 2αz 0 , 2αx0 + αy 0 − 3αz 0 ) = (x − 2z, 2x + y − 3z) + α(x0 − 2z 0 , 2x0 + y 0 − 3z 0 ) = f (X) + αf (X 0 ) donc f ∈ L(R3 , R2 ). Si
on a la base canonique de R3 (B = {e1 (1, 0, 0); e2 (0, 1, 0); e3 (0, 0, 1)}) et de R2 (B = {e01 (1, 0); e02 (0, 1)}) la matrice associée
sera :
f (e1 ) = f (1, 0, 0) = (1, 2) = 1e01 + 2e02
f (e2 ) = f (0, 1, 0) = (0, 1) = 0e01 + 1e02
Mail: [email protected]
Tous droits réservés
Page no 28 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
1 0 −2
f (e3 ) = f (0, 0, 1) = (−2, −3) = −2e01 − 3e02 soit A =
dit autrement l’application linéaire canoniquement
2 1 −3
associée à A est f . A est la matrice canonique associée à f .
4.2.5
Matrice triangulaire supérieure et inférieure
Définition 66.
Une matrice A ∈ Mn (K) est dite triangulaire supérieure (resp.triangulaire inférieure) lorsque aij = 0, ∀(i, j)
pour i > j (resp. i < j). Dit autrement sous forme de matrice :


  a
0
··· ···
0
1,1
a1,1 a1,2 · · · · · · a1,n

.. 
..
 0
a2,2
a2,n 
.
a2,1 a2,2
. 

 


 ..
..   .
.
.
.. 
.
.
.
.
 .
 et  .
.
.
.
.
.
.
.
. 

  .

 .
  .
.
.
.

..
..
..   .
..
 ..
.
.
0 
0
··· ···
0 an,n
an,1 an,2 · · · · · · an,n

1 1
Exemple 4.2.7 La matrice  0 2
0 0
une matrice triangulaire inférieure.
4.2.6


0
0
0  est une matrice triangulaire supérieure. De même la matrice  1
3
2
0
1
3

0
0  est
0
Matrice diagonale
Définition 67.
Lorsque aij = 0 pour tout couple (i, j) tels que i 6= j on dira que la matrice est diagonale. Celle-ci s’appelle la


λ1
0


..
diagonale principale. Dit autrement une matrice diagonale est de la forme 

.
0
λn
On l’a note également diag(λ1 , ..., λn )
Exemple 4.2.8 Soit E = F = R3 et B = {e1 (1, 0, 0); e2 (0, 1, 0); e3 (0, 0, 1)} et B 0 = {e01 (2, 0, 0); e02 (0, 1, 0); e03 (0, 0, 3)}.
Soit
f : (R3 , B) −→ (R3 , B 0 )
. On a :
x 7−→ x
f (e1 ) = e1 = (1, 0, 0) = 1/2e01 + 0e02 + 0e03
f (e2 ) = e2 = (0, 1, 0) = 0e01 + 1e02 + 0e03
f (e3 ) = e3 = (0, 0, 1) = 0e01 + 0e02 + 1/3e03

1/2
Ainsi la matrice associée à l’application f (identité) relativement aux bases B et B 0 est  0
0
diagonale. La matrice unité en est une aussi.
4.2.7
0
1
0

0
0  C’est une matrice
1/3
Matrice d’un projecteur
On rappelle d’après le volume des ev, que si E = F ⊕ G alors une base B de E est le recollement d’une base de F et d’une
base de G.
Proposition 68.
Soit p ∈ L(E) un projecteur de E = Imp(p) ⊕ Ker(p). Soit B une
base de E qui est le recollement d’une base
Ir 0
de Imp(p) et Ker(p) alors la matrice de p dans B est
0 0
Mail: [email protected]
Tous droits réservés
Page no 29 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
Preuve :
4.2.8
Matrice d’une symétrie
Proposition 69.
Soit s ∈ L(E) la symétrie par rapport à F parallèlement à G où E = F ⊕ G. Soit B une
base de E qui
est
Im
0
le recollement d’une base de F et de G alors la matrice de s dans B est M athB (s) =
où
0 −In−m
dim F = m et dim G = n − m
Preuve :
4.2.9
Matrice transposée
Exemple 4.2.9 a faire avec un f ou f*
4.3
Opération sur les matrices
4.3.1
Addition
Soient E, F deux K-e.v munis des base B = (ei )1≤i≤m et B 0 = (fj )1≤j≤n
Proposition 70.
Si f et g sont des applications linéaires de E dans F de matrices respectives (aij )i,j et (bij )i,j de même taille
alors f +g est une application linéaire qui aura pour matrice (aij + bij )i,j
Preuve : Soient f : E −→ F et g : E −→ F deux applications linéaires. Comme (L(E, F ), +, •) est un e.v on a
f + g ∈ L(E, F ). De là (f +g)(ei ) = f (ei )+g(ei ). En termes matriciel cela se traduit par (f + g)(e1 ) = f (e1 ) + g(e1 ) =
(a11 e01 + a21 e02 + ... + an1 e0n ) + (b11 e01 + b21 e02 + ... + bn1 e0n ) = (a11 + b11 )e01 + (a21 + b21 )e02 + ... + (an1 + bn1 )e0n etc. d’où :

  g(e ) g(e )

 (f +g)(e )

g(em )
(f +g)(e2 )
(f +g)(en )
1
2
1
f (e1 ) f (e2 )
f (em )
a12 . . . a1m   b11
b12 . . . b1m 
 a11
 a11 + b11 a12 + b12 . . . a1m + b1m 
 a21
  b21



a
.
.
.
a
b
.
.
.
b
22
2m
22
2m
 
 :=  a21 + b21 a22 + b22 . . . a2m + b2m 
A∗B = A+B = 
 ..



..
..
.. + .
..
..
.. 
..
..
..
..
 .


.
.
.   ..
.
.
.
.
.
.
.
an1 an2 . . . anm
bn1 bn2 . . . bnm
an1 + bn1 an2 + bn2 . . . anm + bnm
Définition 71.
La somme ainsi définie sur deux matrices A = (aij ) et B = (bij ) de même taille est la matrice C = (cij ) de
même taille où cij = aij + bij . On notera alors C := A+B i.e M atBB0 (f + g) = M atBB0 (f ) + M atBB0 (g)
4.3.2
3
1
−2
7
5
−1

1
−2
B=
alors A + B n’est pas définie. Enfin  3
8
1
Exemple 4.3.1 A =
et B =
0
2
alors A + B =
 
2 3
3 2
2 1 + 1 2
3 2
3 1
3 3
4
. Si maintenant A =
3 6
−3
 

1
4 4 4
3 = 4 4 4 
2
4 4 4
1
2
et
Produit par un scalaire
Soient E, F deux K-e.v munis des bases B = (ei )1≤i≤m et B 0 = (fj )1≤j≤n
Mail: [email protected]
Tous droits réservés
Page no 30 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
Proposition 72.
Si f est une application linéaire de E dans F de matrice (aij )i,j et si α ∈ K alors α•f est une application linéaire
et aura pour matrice (αaij )
Preuve : Soient f ∈ L(E, F ) et α ∈ K. Comme (L(E, F ), +, •) est un e.v on a αf ∈ L(E, F ). Ainsi (α•f )(ei ) = α•f (ei ). Soit
(αf )(e1 ) = α(a11 e01 + a21 e02 + ... + an1 e0n ) = (αa11 e01 + αa21 e02 + ... + αan1 e0n ) d’où matriciellement :




(αf )(e1 ) (αf )(e2 )
(αf )(em )
f (e1 ) f (e2 )
f (em )
a
a
.
.
.
a
a
a
.
.
.
a
11
12
1m
12
1m 


 11
 αa21
 a21

αa
.
.
.
αa
a
.
.
.
a
22
2m 
22
2m
 d’où la définition :
 := 
α ∗ A = α•A = α• 
 ..


..
..
..
..
..
..
.. 


 .
.
.
.
.
.
.
. 
αan1
αan2 . . . αanm
an1 an2 . . . anm
Définition 73.
Le produit d’une matrice A = (aij )i,j par un scalaire α est la matrice C = (cij ) de même taille où cij = αaij .
On note alors C = α•A i.e M atBB0 (αf ) = αM atBB0 (f )
Exemple 4.3.2 Soient A =
4.3.3
3
0
−2
6
et α = −3 alors α•A = αA =
−9
0
6
−18
Produit de matrices
Proposition 74.
Soient E, F, G trois K-e.v munis de bases B = (ei )1≤i≤m , B 0 = (e0j )1≤j≤n et B 00 = (e00k )1≤k≤p . Soient f ∈ L(E, F )
et g ∈ L(F, G) et de matrices respectives |{z}
A = (aij ) de taille p × n et |{z}
B = (bij ) de taille n × m. La composée
g
f
g o f est une application linéaire de E dans G de matrice associée |{z}
C = (cij ) de taille p × m telle que
|{z} |{z}
B
gof
A
n
X
cij =
bik akj = bi1 a1j + bi2 a2j + ... + bin a1n = a1j bi1 + a2j bi2 + ... + a1n bin
k=1
Preuve : D’après le volume sur les espaces vectoriels nous savons déjà que gof ∈ L(E, f )

f (e1 )
a11

A=

..
.
...
..
.
an1
...
f (ej )
a1j
..
.
...
..
.
an2
...
f (em )
a1m
..
.
anm


g(e0j )
g(e01 )
 0
 b11
 B et B =  .

 ..
bp1
g(e0n )
...
..
.
b1j
..
.
...
..
.
...
bp2
...

b1n 
.. 
B 00
. 
bpn
n
X
∀1 ≤ j ≤ m( posé) (gof )(ej ) = g(f (ej )) = g(a1j e01 + a2j e02 + ... + anj e0n ) = g( akj e0k ) = a1j g(e01 ) + a2j g(e02 ) + ... + anj g(e0n ) =
n
X
k=1
akj g(e0k ) = a1j (b11 e001 + b21 e002 + ... + bp1 e00p ) + a2j (b12 e001 + b22 e002 + ... + bp2 e00p ) + ... + anj (b1n e001 + b2n e002 + ... + bpn e00p ) =
k=1
n
X
p
X
k=1
k0 =1
akj (
bk0 k e00k0 ) =
p
n X
X
(
akj bk0 k e00k0 ). Soit sur la base B 00 , (gof )(ej ) = (a1j b11 +a2j b12 ...+anj b1n )e001 +(a1j b21 +a2j b22 ...+
k=1 k0 =1
anj b2n )e002 + ... + (a1j bp1 + a2j bp2 ... + anj bpn )e00p
De là la matrice de gof relativement les bases B et B 00 vérifiera :
C1j = a1j b11 + a2j b12 + ... + anj b1n
C2j = a1j b21 + a2j b22 + ... + anj b2n
..
.
Mail: [email protected]
Tous droits réservés
Page no 31 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
Cpj = a1j bp1 + a2j bp2 + ... + anj bpn
Soit pour 1 ≤ i ≤ p, Ci,j = a1j bi1 + a2j bi2 + ... + anj bin , comme K est un corps commutatif on aura Ci,j = bi1 a1j + bi2 a2j +
n
X
... + bin anj d’où (cij ) 1 ≤ i ≤ p =
bik akj qui est une matrice de taille p × m.
k=1
1≤j≤m
n
X
Remarque : Dans la proposition si nous avions pris g de matrice A et f de matrice B nous aurions obtenu C = ( aik bakj )
k=1
Définition 75.
Le produit de deux matrices ainsi définit de |{z}
A = (aij ) de taille (p, n) et |{z}
B = (bij ) de taille (n, m) est la
g
f
n
X
matrice |{z}
C = (cij ) de taille (p, m) où cij =
aik bkj . On notera alors C = A×B = AB i.e M atBB00 (gof ) =
k=1
gof
M atBB0 (g) × M atB0 B00 (f )
Remarque : Le produit AB existe ssi le nombre de colonnes de A est égale au nombre de ligne de B.
Exemple 4.3.3 Si f ∈ L(E, F ) de matrice B et g ∈
G )
gof ∈ L( |{z}
E , |{z}
dim 1 dim m

a11 . . .

..
AB = M at(gof ) = M at(g) × M at(f ) =  ...
.
am1 . . .


a11 x1 + a12 x2 + ... + a1n xn


..


.
L(F, G) de matrice A avec dim E = 1, dim F = n, dim G = m alors
...
..
.
...
..
.
an2
...


a1n
x1(1)
m
..   ..  = (Xa x )
ik kj 1 ≤ i ≤ m =
.  . 
k=1
amn
xn(1)
j=1
am1 x1 + am2 x2 + ... + amn xn
 
1
3 4 2  
17
2
Ainsi
=
1 3 1
10
3
{z
}
|
| {z }
|
{z
}
(2,3)
(2,1)
(3,1)
Exemple 4.3.4 Si f ∈ L(E, F ) de matrice B et g ∈ L(F, G) de matrice A avec dim E = 1, dim F = n, dim G = 1 alors
gof ∈ L( |{z}
E , |{z}
G )
dim 1 dim 1


b1(1)
m
n
X
X


AB = M at(gof ) = M at(g) × M at(f ) = a(1)1 . . . a(1)n  ...  = ( aik xkj ) i = 1 = ( a(1)k bk(1) ) i = 1 =
k=1
k=1
bn(1)
j=1
j=1
(a1 b1 + a2 b2 + ... + an bn )


4
Ainsi 2 3 −1  −2  = 8 − 6 − 3 = −1
|{z}
|
{z
}
3
1
(1,3)
| {z }
(3,1)
Exemple 4.3.5 Si f ∈ L(E, F ) de matrice B et g ∈ L(F, G) de matrice A avec dim E = m, dim F = 1, dim G = n alors
gof ∈ L( |{z}
E , |{z}
G )
dim m dim n


a11
m
 a21 
X


donc AB = M at(gof ) = M at(g) × M at(f ) =  .  b11 b12 . . . b1m = ( aik bkj ) 1 ≤ i ≤ n
 .. 
k=1
1≤j≤m
a
n1
On a donc C11 = a11 b11 + a12 b21 + a13 b31 +... + a1n bn1 = a11 b11
| {z } | {z }
| {z }
0
Mail: [email protected]
0
0
Tous droits réservés
Page no 32 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES


a11 b11 a11 b12 . . . a11 b1m
 a21 b11 a21 b12 . . . a21 b1m 


C12 = a11 b12 +a12 b22 + a13 b32 +...+a1n bn2 = a11 b12 ... d’où AB = 
 = (ai1 b1j ) 1 ≤ i ≤ n
..
..
..
..
| {z }
| {z } | {z }


.
.
.
.
0
0
0
1≤j≤m
an1 b11 an1 b12 . . . an1 b1m




3
−3 6
9 0
Par exemple  −2  −1 2 3 0 =  2 −4 −6 0 
|
{z
}
1
−1 2
3 0
(1,4)
| {z }
|
{z
}
(3,1)
(3,4)
Attention : Pour des matrices de même taille A et B on a en général AB 6= BA (ce que l’on retrouve en terme d’application
linéaire c’est-à-dire en général f og 6= gof )
1 0
2 −1
2 −1
4 −5
Exemple 4.3.6 Soient A =
et B =
alors AB =
et BA =
−2 5
3 0
11 2
3 0
Le produit des matrices de même taille n’est pas nécessairement commutatif.
Attention : Il peut arriver que le produit de deux matrices non nulles soit nul. En d’autres termes, on peut avoir A, B 6= 0
et AB = 0
0 −1
2 −3
0 0
Exemple 4.3.7 Soient A =
et B =
alors AB =
0 5
0 0
0 0
4.3.4
Produit par bloc
Proposition 76.
0
A
B
A
B0
0
On définit deux matrices par blocs M =
et M =
dans Mn (K). Alors le produit
C
D
C0
D0
par bloc se calcule comme pour un produit normal de matrices, c’est-à-dire :
AA0 + BC 0
AB 0 + BD0
MM0 =
CA0 + DC 0
CB 0 + DD0
Preuve :
Remarque : On prendra garde tout de même à n’écrire que des matrices multipliables entre elles et on fera attention de
ne pas changer l’ordre des matrices puisqu’elles ne commutent
diagonale par bloc si
0 On appellera
matrice
pas en général.
A
0
0
0
A
A0 A0
A, D = 0 ou B, C = 0. Dans ce cas le produit par bloc sera
=
0
D
0
D0
0
D0 D0




1 1
2 3
1 3
1 1
 1 2

3 1 
0 0 
 et M 0 =  1 0

Exemple 4.3.8 Soient M = 


 1 1
1 1
0 0
0 1 
1 0
1 0
0 1
0 0
1
1
1
3
2
3
0
0
2 3
0 3
2 6
0
0
On a donc AA + BC =
+
=
+
=
1 2
1 0
3 1
0 1
3 3
0 1
3 4
1 1
1 1
2 3
0 1
1 1
0 2
1 3
De là AB 0 + BD0 =
+
=
+
=
1 2
0 0
3 1
0 0
1 1
0 3
1 4
1
1
1
3
1
1
0
0
2
3
0
1
2
4
0
0
=
+
=
Puis CA + DC =
+
1 0
1 0
1 0
0 1
1 3
0 0
1 3
1 1
1 1
1 1
0 1
1 1
0 1
1 2
0
0
Enfin CB + DD =
+
=
=
1 0
0 0
1 0
0 0
1 1
0 1
1 2


1 3
2 6
 3 4
1 4 
0


d’où M M = 
2 4
1 2 
1 3
1 2
Mail: [email protected]
Tous droits réservés
Page no 33 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
4.3.5
Produit de Kronecker
Le produit de Kronecker (Leopold) est une opération sur les matrices. Il s’agit d’un cas particulier du produit tensoriel (voir
volume calcul tensoriel).
Définition 77.

a11 B

..
Soient A ∈ Mm,n (K) et B ∈ Mm,n (K). Le produit tensoriel est la matrice A ⊗ B = 
.
am1 B


1
Exemple 4.3.9  1
1
3
0
2
 
2
0
0 ⊗ 5
2
1

 1. 


  

5



0
=
 1.

1
 


 1. 
0
5
1
0
5
1
0
5
1
5
0
1
5
0
1
5
0
1



3. 



0. 



2. 
0
5
1
0
5
1
0
5
1
5
0
1
5
0
1
5
0
1



2. 



0. 



2. 
0
5
1
0
5
1
0
5
1
5
0
1
5
0
1
5
0
1

a1n B

..

.
amn B
...
..
.
...
 

 
 
 
  
 
 
 =
 
 
  
 
 
 
0
5
1
0
5
1
0
1
5
0
1
5
0
1
5
1
0
15
3
0
0
0
0
2
15
0
3
0
0
0
10
2
0
10
2
0
0
0
0
2
Calcul en terme de composante de y = f (x)
4.4
Proposition 78.
Soient B et B 0 deux bases de E et F et f : E −→ F une application linéaire de E dans F . Soit MBB0 (f ) sa matrice
dans les bases B et B 0 alors ∀x ∈ E, MB0 (f (x)) = MBB0 (f )
MB (x)
au sens du produit de matrice. Ce
| {z }
| {z }
vect.comp.col de y
vect.comp.col de x
qu’on écrit Y = AX
Preuve :
f : E = R2 −→ F = R2 ,
. Le but est de calculer f (1, 2) en terme de point et en terme de composante,
(x, y) 7−→ (2x − y, x + y)
grâce au calcul matriciel. Vérifions tout d’abord que f est R-linéaire.
Exemple 4.4.1 Soit
∀(x, y), (x0 , y 0 ) ∈ R2 , α ∈ R, f (α(x, y)+(x0 , y 0 )) = f ((αx+x0 , αy+y 0 )) = (2(αx+x0 )−(αy+y 0 ), αx+x0 +αy+y 0 = (2αx−αy+
2x0 −y 0 , αx+αy +x0 +y 0 ) = (α(2x−y), α(x+y))+(2x0 −y 0 , x0 +y 0 ) = α(2x−y, x+y)+(2x0 −y 0 , x0 +y 0 ) = αf (x, y)+f (x0 , y 0 ).
Soit R2 munit de sa base canonique B = {e1 (1, 0); e2 (0, 1)}. On aura :
f (e1 ) = f (1, 0) = (2, 1) = 2e1 + 1e2
2 −1
f (e2 ) = f (0, 1) = (−1, 1) = −e1 + e2 . Ainsi la matrice M atBB0 (f ) =
1 1
Voici un tableau récapitulatif pour calculer f (1, 2)
f (1, 2)
| {z }
y = f (x) ⇔ Y = M atBB (f )M atB (x)
f (1e1 + 2e2 )
|
{z
}
point
Composante
2
1
−1
1
1
2
f (1, 2) = (0, 3)
| {z }
f (1e1 + 2e2 ) = f (e1 ) + 2f (e2 ) = 2e1 + 1e2 +
2(−e1 + e2 ) = 0e1 + 3e2
| {z }
(1, 2) = 1e1 + 2e2 ,
Ne tiens pas compte
de la base
Long : décomposer x puis calculer f (e1 ), f (e2 )
dans B et calculer/simplifier f (1e1 + 2e2 ). Besoin presque de tout refaire si x différent
Rapide : une fois trouver la matrice, on décompose
seulement le vecteur et on effectue le produit matriciel.
point
=
0
3
composante
4.5
Structure algébrique
Mail: [email protected]
Tous droits réservés
Page no 34 sur 96
10
0
2
0
0
0
10
2












CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
Espace vectoriel (Mmn (K), +, •)
4.5.1
Proposition 79.
Avec l’addition (lci) des matrices et la multiplication par un scalaire (lce), (Mmn (K), +, •) a une structure
d’espace vectoriel sur K.
Preuve :
Anneau (Mn (K), +, ×)
4.5.2
Proposition 80.
Avec l’addition (lci) des matrices et le produit de matrice (lci) (Mn (K), +, ×) a une structure d’anneau.
Preuve :
Algèbre (Mn (K), +, •, ×)
4.5.3
Proposition 81.
Avec l’addition (lci) des matrices, la multiplication par un scalaire (lce) et le produit de matrice (lci)
(Mn (K), +, •, ×) est une K-algèbre non commutative (sauf pour n = 1).
Preuve :
Matrice inversible dans (Mn (K), +, ×)
4.6
4.6.1
Définition
Définition 82.
Soit A une matrice carrée de taille n × n, s’il existe une matrice B carrée de taille n × n telle que AB = In et
BA = In alors on dit que A est inversible et on appelle B un inverse de A.
Si A est une matrice inversible, son inverse est souvent noté A−1 (ne pas confondre avec l’opposé de A que l’on note −A).
Une matrice inversible est aussi dite régulière ou non singulière.
3 0
Exemple 4.6.1 La matrice A =
est-elle inversible ? Supposons que oui nous aurons alors une matrice B =
5 0
b11 b12
b11 b12
3 0
∗ 0
telle que le produit BA =
=
. Cette dernière ne peut jamais être égale à la
b21 b22
b21 b22
5 0
∗ 0
matrice unité, nous en concluons que A n’est pas inversible
L’ensemble des matrices carrées inversibles se note GLn (K)
4.6.2
Structure algébrique : groupe (GLn (K), ×)
Proposition 83.
(GLn (K), ×) a une structure de groupe dit groupe linéaire des matrices carrées d’ordre n.
Mail: [email protected]
Tous droits réservés
Page no 35 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
Preuve :
4.6.3
Unicité
Proposition 84.
Si B et C sont des inverses de A alors B = C.
Preuve : On BA = AB = I et CA = AC = I donc B = BI = B(AC) = (BA)C = IC = C
a b
d −b
1
Exemple 4.6.2 Considérons les matrices carrées d’ordre 2. A =
et B = ad−bc
. On a alors AB =
c d
−c a
1 0
d −b
1
1
(ad − bc)
= I2 donc A est inversible ssi ad − bc 6= 0 et alors A−1 = B = ad−bc
BA = ad−bc
0 1
−c a
4.6.4
Inversion d’un produit
Proposition 85.
Dans (Mn (K), +, ×) où + est l’addition de matrice et × le produit de deux matrices alors si A1 , A2 , ..., An sont
−1
−1
des matrices inversibles pour × alors (A1 A2 ....An )−1 est inversible et A−1
n An−1 ....A1 . En particulier si A et B
−1
−1 −1
sont des matrices inversibles pour × alors AB est inversible et (AB) = B A
Preuve :
, comme 2.3 − 5.1 6= 0 A est inversible, on a alors
Exemple 4.6.3 Considérons la matrice carrée d’ordre 2. A =
3 −1
−9 −4
−1 −4
A−1 =
. De plus pour B =
alors −9.1 − 2(−4) = −9 + 8 = −1 6= 0 donc B −1 =
−5 2
2
1
2
9
2 1
−9 −4
−16 −7
De là AB =
.
=
5 3
2
1
−39 −17
−1 −4
3 −1
17 −7
−1
−1 −1
Enfin (AB) = B A =
.
=
2
9
−5 2
−39 16
−16 −7
17 −7
−272 + 273
0
1 0
−1
On a alors bien (AB)(AB) =
.
=
=
= I2
−39 −17
−39 16
0
273 − 272
0 1
4.6.5
2
5
1
3
Inversion par bloc
Proposition 86.
Soient A, D des matrices carrées.
−1
A
0
0
D−1
A
0
0
D
est inversible ssi A et D le sont. On a alors
A
0
0
D
−1
=
Preuve :


Exemple 4.6.4 Soit M = 

donc A
−1
= −1
1
−1
−3
2
2
1
0
0
Mail: [email protected]
=
3
1
0
0
0
0
2
1
−1
1

0
0 
2
 alors A =
1
3 
1
3
1
comme ad − bc = −1 on en déduit que A est inversible
3
−2
Tous droits réservés
Page no 36 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES

0
0
−1 3
 1 −2
0
0 

=
 0
0
−1 3 
1 −2
0
0

Ainsi M −1 =
4.7
A
0
0
A
−1
=
A−1
0
0
A−1
Puissance d’une matrice
Définition 87.
−1
−m
= |A−1 A−1
Soit A une matrice n × n. On définit Am = AA...A
| {z } . Si A est inversible, on définit A
{z ...A }. Par
m f acteurs
m f acteurs
convention A0 = In .
Proposition 88.
Soit A une matrice inversible alors :
1. A−1 est inversible et (A−1 )−1 = A
2. Am est inversible et (Am )−1 = A−1 A−1 ....A−1 = (A−1 )m = A−m
3. kA est inversible si k 6= 0 et (kA)−1 = k1 A−1
Preuve :
4.8
Formule
(A + B)n (binôme)
4.8.1
Proposition 89.
∀n ∈ N, A ∈ Mn (K) avec AB = BA alors (A + B)n =
n
X
Cnk An−k B k =
k=0
n
X
Cnk Ak B n−k
k=0
Preuve :
An − B n
4.8.2
Proposition 90.
∀n ∈ N, A ∈ Mn (K) avec AB = BA ? alors An − B n =
n−1
X
An−k−1 B k
k=0
Preuve :
ya t’il une relatrion equi a mettre dans le volume ens finiinfini
4.8.3
An + B n , (n impaire)
Proposition 91.
Si n est impaire et A ∈ Mn (K) avec AB = BA ? alors An + B n = (A + B)
n−1
X
(−1)k An−k−1 B k
k=0
Mail: [email protected]
Tous droits réservés
Page no 37 sur 96
CHAPITRE 4. MATRICE D’AL DE E SUR F DANS 2 BASES
Preuve :
ya t’il une relatrion equi a mettre dans le volume ens finiinfini
Mail: [email protected]
Tous droits réservés
Page no 38 sur 96
Chapitre
5
Existence de matrice inversible : déterminant
Nous allons ici traiter d’une possibilité pour trouver l’existence d’une matrice inversible, qui sera le déterminant. Il en existe
d’autre qui seront vu tout au long de ce volume. Un bilan sur les théorèmes d’existences sera donné en fin de volume (renvoyant au démonstration).
5.1
Déterminant d’une matrice
Le but sera donc de construire une fonction appelée déterminant qui associe à chaque matrice carrée d’ordre n un
nombre
a b
réel et qui permettra de caractériser facilement les matrices inversibles. Nous avons vu dans l’exemple ? que si A =
c d
d
−b
1
alors A−1 = ad−bc
et donc que A, matrice carrée d’ordre 2, est inversible ssi ad − bc 6= 0. Ainsi nous dirons que
−c a
det(A) = ad−bc et que A est inversible ssi det(A) 6= 0. Nous allons généraliser cette notion à des matrices carrées de taille n×n.
5.1.1
Permutation
Voici un rappel issu du volume sur les ensembles finis et infinis.
Définition 92.
Soit card(E) = n. On appelle permutation de E ou substitution de E une liste à n éléments pris dans n éléments
de E. Il y a ordre, pas de répétition et pas d’omission. C’est aussi une bijection de E dans E, d’après la
proposition ? . L’ensemble des permutations de E est noté σ(E) ou Sn si E = {1, ..., n}
Notation : Si E = {1, ..., n} on écrit un élément de Sn , σ =
1
2
3
σ(1) σ(2) σ(3)
···
···
n
σ(n)
Exemple 5.1.1 Soit σ6 définie par σ(1) = 2, σ(2) = 4, σ(3) = 5, σ(4) = 6, σ(5) = 3 et σ(6) = 1 alors σ se note
1 2 3 4 5 6
σ=
ou plus simplement σ = (2 4 5 6 3 1).
2 4 5 6 3 1
Il y a deux permutations dans l’ensemble {1, 2}. σ1 = (1, 2) et σ2 = (2, 1). σ1 est l’identité car σ1 (1) = 1 et σ1 (2) = 2.
Il y a 6 permutations dans l’ensemble {1, 2, 3} qui sont σ1 = (1, 2, 3), σ2 = (1, 3, 2), σ3 = (2, 1, 3), σ4 = (3, 2, 1), σ5 = (2, 3, 1)
et σ6 = (3, 1, 2). Nous avons vu dans le volume sur les ensembles finis et infinis que le nombre de permutation d’un ensemble
E ou le nombre de bijection sur E est n! = 1.2...n
5.1.2
Inversion
Définition 93.
Dans une permutation on a une inversion si un nombre plus grand précède un nombre plus petit. De manière
plus précise, le nombre d’inversion d’une permutation σ = (σ(1), σ(2), ..., σ(n)) = (j1 , j2 , ...,n ) est la somme du
nombre de successeur de j1 plus petit que j1 plus le nombre de successeur de j2 plus petit que j2 plus ... le
nombre de successeur de jn−1 plus petit que jn−1
Exemple 5.1.2 Soit la permutation σ = (4, 2, 5, 3, 1). 4 à 3 successeurs plus petits, 2 à 1 successeurs plus petit, 5 en à 2 et 3
en a 1 donc le nombre d’inversion de σ est 3 + 1 + 2 + 1 = 7. La permutation σ = (6, 1, 3, 4, 5, 2) contient 5 + 0 + 1 + 1 + 1 = 8
inversions.
5.1.3
Signature
39
CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT
Définition 94.
Une permutation σ ayant un nombre paire d’inversion est appelée permutation paire sinon elle est dite
permutation impaire. On définit la signature de la permutation σ comme suit :
1 si σ est paire
sign(σ) =
−1 si σ est impaire
Exemple 5.1.3 Soit les permutations de {1, 2, 3}
Permutation
(1, 2, 3)
(1, 3, 2)
(2, 1, 3)
(2, 3, 1)
(3, 1, 2)
(3, 2, 1)
nombre d’inversion
0
1
1
2
2
3
parité
paire
impaire
impaire
paire
paire
impaire
signature
1
−1
−1
1
1
−1
Proposition 95.
Soit n ≥ 1, i, j ∈ {1, ..., n} avec i < j et σ ∈ Sn . On pose σ 0 = (σ(1), ..., σ(i − 1), σ(j), σ(i + 1), ..., σ(j −
1), σ(i), σ(j + 1), ...σ(n)) alors sign(σ) = −sign(σ 0 )
Preuve :
5.1.4
Produit élémentaire de scalaire signé d’une matrice
Définition 96.

a11 . . . a1n

..
..  une matrice carrée de taille n × n, un produit élémentaire de scalaire
Soit la matrice A =  ...
.
. 
an1 . . . ann
de A est le produit de n éléments de A, choisis de façon qu’aucun n-uplet d’entre eux ne provienne de la même
ligne ou de la même colonne. Autrement dit, tous les éléments du produit sont dans les lignes et des colonnes
différentes.

Exemple 5.1.4 Les

a11 a12
de A =  a21 a22
a31 a32
a11
a21
produits élémentaires de la matrice A =

a13
a23  sont a11 a22 a33 ; a11 a32 a23 ; a21 a12 a33 ;
a33
a12
a22
sont a11 a22 et a12 a21 . Les produits élémentaires
a21 a32 a13 ;
a31 a12 a23 ;
a31 a22 a13
Comme le corps K est supposé commutatif, on peut ordonner les facteurs des produits élémentaires comme suit :
a11 aa;
a13 aa;
a11 aa;
aaa
;
a12 aa
a13 aa
On constate qu’un produit élémentaire de A est un produit a1j1 a2j2 a3j3 (donc le nombre de produit est 3! = 6). En généralisant, un produit élémentaire de A est un produit a1j1 a2j2 a3j3 ...anjn où (j1 , j2 , ..., jn ) ∈ Sn et le nombre de produit
élémentaire est alors n!.
Définition 97.
Un produit élémentaire de scalaire signé d’une matrice A est un produit sign(σ)a1j1 a2j2 a3j3 ...anjn ou σ =
(j1 , ..., jn ) est une permutation à n éléments.
Mail: [email protected]
Tous droits réservés
Page no 40 sur 96
CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT
a11 a12
Exemple 5.1.5 Les produits élémentaires de scalaires signés de A =
sont sign(σ)a1a2=sign(

a21 a22
a11 a12 a13
Les produits élémentaires de scalaires signés de A =  a21 a22 a23  sont :
a31 a32 a33
a11 a22 a33 ;
5.1.5
−a11 a23 a32 ;
−a12 a21 a33 ;
a12 a23 a31 ;
a13 a21 a32 ; −
a13 a22 a31
Déterminant
Définition 98.
Le déterminant d’une matrice carrée A d’ordre n est le nombre obtenu en effectuant la somme de tous les
produits élémentaires signés de A. Il est noté det(A).
det(A) =
X
sign(σ)a1j1 a2j2 ...anjn où σ = (j1 , ..., jn ). On note aussi det(A) = |A|.
σ∈Sn
a11 a12 = a11 a22 − a12 a21
Exemple 5.1.6 Si A =
alors det(A) = a21 a22 

a11 a12 a13 a11 a12 a13
Pour la matrice A =  a21 a22 a23  on aura det(A) = a21 a22 a23 = sign(1, 2, 3)a11 a22 a33 +sign(1, 3, 2)a11 a23 a32 +
a31 a32 a33 a31 a32 a33
sign(2, 1, 3)a12 a21 a33 + sign(2, 3, 1)a12 a23 a31 + sign(3, 1, 2)a13 a21 a32 + sign(3, 2, 1)a13 a22 a31 = a11 a22 a33 − a11 a23 a32 −
a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31
a11
a21
a12
a22
Proposition 99.
Soit A une matrice carrée alors A est inversible ssi det(A) 6= 0 et dans ce cas |A−1 | =
1
|A|
Preuve :algebre lineaire 3.pdf 41/160
Proposition 100.
Soient A et B deux matrices carrées de taille n × n alors det(AB) = det(A)det(B)
Preuve :algebre lineaire 3.pdf 41/160
Remarque : En général det(A + B) 6= det(A) + det(B)
Proposition 101.
Soient A une matrice carrée de taille n × n alors det(A) = det(AT ) et det(e1 , ..., en ) = 1
Preuve :pour 1)algebre lineaire 3.pdf 42/160 (pour 2) algebre licence.pdf 66/144)
Proposition 102.
Si M ∈ Mn (K) alors det(αM ) = αn det(M )
Preuve :
Mail: [email protected]
Tous droits réservés
Page no 41 sur 96
CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT
Proposition 103.
1. Si une matrice A contient deux colonnes (resp. deux lignes) identiques alors det(A) = 0
2. Une matrice A ayant une colonne (resp. une ligne) nulle est telle que det(A) = 0
Preuve :
5.2
Calcul du déterminant en pratique
5.2.1
Règle de Sarrus pour les matrices 2 × 2 et 3 × 3
La règle de Sarrus est une méthode pour calculer le déterminant de matrices 2 × 2 ou 3 × 3
matrice 2 × 2
Soit det(A) = a11 a22 − a12 a21
matrice 3 × 3
Soit det(A) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31
Attention : Cette méthode ne s’applique pas pour les matrices de dimension supérieures à 4.
2 1 0 Exemple 5.2.1 Calculons 1 0 1 on a d’après la règle de Sarrus :
0 0 1 d’où det(A) = −1
5.2.2
Sous-matrice
Définition 104.
soit A ∈ Mn,p (K). On appelle sous-matrice de A ou matrice extraite de A, toute matrice obtenue en supprimant
une ou plusieurs lignes et/ou colonnes de A

1
Exemple 5.2.2 Soit A =  4
1
5.2.3
3
2
8

5
1
7  alors
4
9
3
2

,
4
2
7
1
et  4
1

5
7  sont des sous-matrices de A.
9
Mineur et cofacteur
Mail: [email protected]
Tous droits réservés
Page no 42 sur 96
CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT
Définition 105.
Soit A = (aij ) une matrice de taille n × n. On appelle mineur de l’élément aij le déterminant de la sous-matrice
obtenue en éliminant la i-ème ligne et la j-ème colonne de la matrice A. On le note alors Mij . On appelle
cofacteur de aij la quantité Cij = (−1)i+j Mij avec :
a11
a21
..
.
et Mij = ai−1,1
ai+1,1
..
.
an1

1
Exemple 5.2.3 Soit A =  4
0
2
2
0
a12
a22
..
.
...
...
..
.
a1,j−1
a2,j−1
..
.
a1,j+1
a2,j+1
..
.
...
...
..
.
a1n
a2n
ai−1,2
ai+1,2
..
.
...
...
..
.
ai−1,j−1
ai+1,j−1
..
.
ai−1,j+1
ai+1,j+1
..
.
...
...
..
.
ai−1,n
ai+1,n
an2
...
an,j−1
an,j+1
...
ann

3
1 . Calculons M11 , C11 , M32 et C32
1
d’où C11 = (−1)1+1 M11 = 2
d’où C32 = (−1)3+2 (−11) = 11
Pour

+
 −

 +

..
.
déterminer si Cij = 
Mij ou Cij = −Mij on peut regarder si i + j est paire ou impaire ou utiliser le schéma suivant
− +
−
...

+ − +...

donc C11 = M11 , C12 = −M12 , C21 = −M21 etc.
− +
−
... 

.. ..
..
..
. .
.
.


a11 a12 a13
Soit une matrice de taille 3 × 3, A =  a21 a22 a23  Nous savons que |A| = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 +
a31 a32 a33
a12 a23 a31 + a13 a21 a32 − a13 a22 a31 . On peut alors le réecrire de la façon suivante |A| = a11 (a22 a33 − a23 a32 ) + a12 (a23 a31 −
a21 a33 ) + a13 (a21 a32 − a22 a31 ). Nous voyons que les termes entre parenthèses sont les cofacteurs des éléments a11 , a12 et a13
donc |A| = a11 C11 + a12 C12 + a13 C13 .


1 2 3
Exemple 5.2.4 Soit la matrice carrée de taille 3 × 3 avec A =  4 2 1  on aura alors det(A) = 1C11 + 2C12 + 3C13 =
0 1 1
2 1 4 1 4 2 + 2. 1. 0 1 + 3. 0 1 = 1 − 8 + 15 = 5
1 1 Nous aurions de manière analogue
|A| = a11 C11 + a12 C12 + a13 C13 (développement en cofacteur par rapport à la 1ere ligne)
|A| = a21 C21 + a22 C22 + a23 C23 (développement en cofacteur par rapport à la 2-ème ligne)
|A| = a31 C31 + a32 C32 + a33 C33 (développement en cofacteur par rapport à la 3-ème ligne) mais aussi
|A| = a11 C11 + a21 C21 + a31 C31 (développement en cofacteur par rapport à la 1ere colonne)
|A| = a12 C12 + a22 C22 + a32 C32 (développement en cofacteur par rapport à la 2-ième colonne)
|A| = a13 C13 + a23 C23 + a33 C33 (développement en cofacteur par rapport à la 3-ièmee colonne)
Mail: [email protected]
Tous droits réservés
Page no 43 sur 96
CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT
Proposition 106.
Le développement du déterminant en cofacteur par rapport à la i-ème ligne est det(A) = ai1 Ci1 + ai2 Ci2 + ... +
ain Cin . Le développement du déterminant en cofacteur par rapport à la j-ème colonee est det(A) = a1j C1j +
a2j C2j + ... + anj Cnj
Preuve :
Remarque : L’utilisation d’un développement en cofacteur se nomme aussi développement par rapport à une ligne ou à une colonne.
mettre qq part det d’une matrice trianguliare> et < et matrice diag=>besoin pour Gauss
Proposition 107.
Si k 6= i, ak1 Ci1 + ak2 Ci2 + ... + akn Cin = 0
Preuve :
5.3
Autre application du déterminant
5.3.1
Aire
On se place dans le plan usuel R2 rapporté à sa base canonique (e1 , e2 ). On se donne deux vecteurs ~u et ~v et l’on s’intéresse
au parallélogramme P~u,~v de côté ~u et ~u
Proposition 108.
Aire(P~u,~v ) = |det(~u, ~v )|
Preuve :
Proposition 109.
Soit f ∈ L(R2 ) et A une partie de R2 dont l’aire vaut a alors l’aire de f (A) vaut |det f | × a. En d’autres termes
un endomorphisme f multiplie les aires par |det f |
Preuve :
5.3.2
Volume
Soient ~u, ~v , w
~ trois vecteurs de R3 munit de sa base canonique (e1 , e2 , e3 )
Notons P le parallélépipède formé par ~u, ~v , w
~
Mail: [email protected]
Tous droits réservés
Page no 44 sur 96
CHAPITRE 5. EXISTENCE DE MATRICE INVERSIBLE : DÉTERMINANT
Proposition 110.
Le volume de P vaut |det(~u, ~v , w)|.
~ Un endomorphisme f de R3 multiplie les volumes par |det f |
Preuve :
Mail: [email protected]
Tous droits réservés
Page no 45 sur 96
Chapitre
6
Existence de matrice inversible : th du rang
On rappelle que si A = {x1 , ..., xp } est une partie (famille) de l’e.v E de dimension n de base B = {e1 , ..., en } alors la
dimension de l’e.v engendré par A (plus petit pour l’inclusion contenant A) est appelée le rang de A et sera notée rang(A) ou
rg(A) voire dim(V ect(A)). Si A est un e.v de dimension m alors rg(A) = m. Enfin comme f ∈ L(E, F ) est telle que f (E) est
un sous-espace vectoriel de F , on appellera rang de l’application linéaire f , le rang (c’est-à-dire sa dimension) de Im(f ) = f (E)
6.1
Rang d’une matrice
Définition 111.
Le rang d’une matrice est le rang de l’application linéaire de E dans F associée à la matrice.
Proposition 112.
Le rang d’une matrice est le rang de la famille des vecteurs colonne ou de la famille des vecteurs lignes.
Preuve : ? ? ?
6.2
noyau et nullité d’une matrice
Définition 113.
Soit f ∈ L(E, F ). L’ensemble des X ∈ Kn tel que AX = 0 est appelé noyau de A ou nilespace de A et sera noté
Ker A
Proposition 114.
Ker A := {X ∈ Mn1 (K)|AX = 0} est un sous-espace vectoriel de Kn .
Preuve : ? ? ?
Définition 115.
Soit A une matrice. La nullité de A est par définition la dimension du noyau de A et est notée null(A)
6.3
Théorème du rang
Le théorème du rang permet de lier le rang d’une application linéaire (dim f (E)) et la dimension de son noyau (dim Ker f )
ou en terme de matrice rg A et null A. Il permet aussi de caractériser l’existence de l’inversibilité d’une matrice par son rang.
Proposition 116.
Soit A une matrice à n colonnes. On a alors rg(A) + null(A) = n
Preuve : ? ? ?alpgebre lineaire 3.pdf 98/160
46
Chapitre
7
Calcul de matrice inversible : cofacteur
Après avoir donné deux manières de déterminer l’existence d’une matrice inverse (déterminant et rang) nous allons maintenant chercher à exprimer de façon explicite la matrice inverse. La méthode sera ici celle des cofacteurs mais il en existe
d’autre comme nous le verrons plus loin (pivot de Gauss).
7.1
Co-matrice
Définition 117.

C11
 C21
On appelle co-matrice la matrice des cofacteurs de la matrice A. com(A) = C = 
 ...
Cn1
C12
C22
...
Cn2
···
···
...
···

C1n
C2n 

... 
Cnn
Exemple 7.1.1
7.2
Matrice adjointe
Définition 118.
On appelle matrice adjointe de A la matrice C T (transposée de la co-matrice) et sera notée adj(A) soit adj(A) =


C11 C21 · · · Cn1
 C12 C22 · · · Cn2 

CT = 
 ... ... ... ... 
C1n C2n · · · Cnn
Exemple 7.2.1
7.3
Méthode des cofacteurs
Proposition 119.
Si det(A) 6= 0 alors A−1 =
1
det(A)
adj(C)
| {z }
CT


a11 a12 · · · a1n


 a21 a22 · · · a2n 
C11 C21 · · · Cn1


 . . . . . . . . . . . .   C12 C22 · · · Cn2 
T


Preuve : Calculons AC T = 
 ai1 ai2 · · · ain   . . . . . . . . . . . . . Dans le produit AC , l’élément de la


 ... ... ... ... 
C1n C2n · · · Cnn
an1 an2 · · · ann
T
i-ème
ligne et de la j-ième colonne

 est ai1 Cj1 + ai2 Cj2 + ... + ain Cjn donc d’après la proposition ? ? ? on aura AC =
det(A)
0
···
0


0
det(A)
·
·
·
0

 = det(A).In . On en déduit que si det(A) 6= 0 i.e que A est inversible alors AC T =
 ...
...
...
... 
0
0
· · · det(A)
1
adj(C)
det(A)I ⇔ A−1 AC T = A−1 det(A)I ⇔ A−1 det(A)I = C T ⇔ det(A)A−1 = C T ⇔ A−1 = det(A)
47

CHAPITRE 7.


0
1
1  on a  0
1
1
CALCUL DE MATRICE INVERSIBLE : COFACTEUR

1 0
1 1
1 1  0 1 donc d’après la règle de Sarrus det(A) =
0 1
1 0
1 1
Exemple 7.3.1 Soit la matrice A =  0 1
1 0
1+1+1−0−0−0=2



1 −1 −1
+ −
La matrice formée des Mij est M =  1 1 −1 . La matrice des signes est alors S =  − +
1 1
1
+ −


1
1 −1
1 −1 1
1 −1
1  d’où la matrice adjointe, adj(A) = C T =  1
des cofacteurs est C =  −1 1
1 −1 1
−1 1
1


1 −1 1
1 −1 
Nous obtenons alors A−1 = 1/2  1
−1 1
1
Mail: [email protected]
Tous droits réservés

+
−  donc la matrice
+


Page no 48 sur 96
Chapitre
8
Elimination de Gauss-Jordan :pivot de Gauss
L’élimination de Gauss-Jordan ou pivot de Gauss nommé en l’hommage à Carl Friedrich Gauss et Wilhelm Jordan est une
méthode pour déterminer les solutions d’un système d’équations linéaires ainsi que le rang d’un matrice ou pour calculer
l’inverse d’une matrice carrée inversible. Lorsque l’on applique l’élimination de Gauss sur une matrice on obtiendra sa forme
échelonnée réduite, beaucoup plus simple qui permettra d’obtenir rapidement des résultats.
Cette méthode est connue en fait des chinois depuis le 1er siècle. Elle y est référencée dans l’important livre chinois Jiuzhang
suanshu ou les 9 chapitres sur l’art mathématiques. La méthode est présentée au moyen de 18 exercices sous le titre "Fang
cheng" c’est-à-dire "la disposition rectangulaire". Dans son commentaire très détaillé daté de 263 Liu Hui en attribue la
paternité à Chang Ts’ang chancelier de l’empereur de Chine au 2ième siècle avant notre ère.
8.1
Matrices et opérations élémentaires
8.1.1
Définition
Définition 120.
On dit qu’une matrice E est élémentaire si elle peut être obtenue par une seule opération (manipulation) sur les
lignes (ou les colonnes) de la matrice unité. Il y a trois types de matrices élémentaires correspondant aux trois
opérations élémentaires (manipulation)
1. La matrice Ei (c) est la matrice élémentaire obtenue en multipliant par c la i-ème ligne de In où c ∈ C
2. La matrice Eij est la matrice élémentaire obtenue en permutant les i-ème et j-ième lignes de In
3. La matrice Eij (c) est la matrice élémentaire obtenue en ajoutant c fois la j-ème ligne de In à la i-ème ligne.

1 0 0 0
 0 5 0 0 

Exemple 8.1.1 E2 (5) = 
 0 0 1 0  est une matrice élémentaire dite de dilatation
0 0 0 1


1 0 0 0
 0 0 0 1 

E24 = E42 = 
 0 0 1 0  est une matrice élémentaire dite de de permutation
0 1 0 0


1 0 0 0
 −5 1 0 0 

E21 (−5) = 
 0 0 1 0  est une matrice élémentaire dite de transvection
0 0 0 1

Proposition 121.
Si la matrice élémentaire E est le résultat d’une opération élémentaire effectuée sur In , alors pour toute matrice
A de taille m × n, le produit EA est égal à la matrice obtenue en effectuant la même opération élémentaire sur
A. Ainsi multiplier une matrice sur la gauche par Eij revient à échanger les lignes i et j de A. Multiplier A sur
la gauche par Ei (c) revient à multiplier la ligne i de A par c. Enfin multiplier A sur la gauche par Eij (c) revient
à ajouter c fois la j-ième ligne à la i-ème ligne.
Preuve :
49
CHAPITRE 8. ELIMINATION DE GAUSS-JORDAN :PIVOT DE GAUSS
2 0
a11 a12 a13
2a11 2a12 2a13
Exemple 8.1.2 E1 (2).A =
=
0 1
a21 a22 a23
a21
a22
a23


 

1 0 0
a11 a12
a11 a12
E23 .A =  0 0 1   a21 a22  =  a31 a32 
0 1 0
a
a32
a21 a22

 31
 

1 0 0
a11
a11
E21 (9).A =  9 1 0   a21  =  9a11 + a21 
0 0 1
a31
a31
Proposition 122.
Toute matrice élémentaire est inversible. En particulier :
1. [Eij (c)]−1 = Eij (−c)
−1
2. Eij
= Eij
3. [Ei (c)]−1 = Ei (1/c)
Preuve :
1 0
1
Exemple 8.1.3 Soient E21 (−4) =
alors son inverse est E21 (4) =
−4
1
4
1 0
1 0
1 0
1 0
et
0 1
4 1
−4 1
0 1
0
1
1
. En effet
−4
0
1
1
4
0
1
=
Proposition 123.
Soit A une matrice de taille n × n et soit E une matrice élémentaire (Ei (k), Eij ou Eij (k)) alors
1. det(Ei (k)) = k
2. det(Eij ) = −1
3. det(Eij (k)) = 1
Preuve :algebre lineaire 3.pdf 37/160
8.1.2
Matrice équivalente par ligne
Définition 124.
Une matrice A est ligne-équivalente ou équivalente par ligne a une matrice B si B peut être obtenue à partir de
A par un nombre fini d’opération élémentaire de lignes. Dit autrement B = E1 E2 ...Ei A où Ei sont des matrices
| {z }
P
élémentaires.
Remarque : P est inversible et en général n’est pas unique.
Proposition 125.
l
La ligne-équivalence est une relation d’équivalence. On note alors A ∼ B
Preuve :
Mail: [email protected]
Tous droits réservés
Page no 50 sur 96
CHAPITRE 8. ELIMINATION DE GAUSS-JORDAN :PIVOT DE GAUSS
Proposition 126.
Soient A et B deux matrices ligne-équivalente alors
1. Les lignes de B sont des combinaisons linéaires de A
l
2. ∀C ∈ Mm,n (K) tel que AC et BC existent alors AC ∼ BC
Preuve :
Proposition 127.
Pour toute matrice A de taille n × n, les affirmations suivantes sont équivalentes :
1. A est inversible
2. A est équivalent par ligne à In
3. A est un produit de matrices élémentaires.
Preuve :
8.2
Matrice augmentée
Définition 128.
Soit A et B deux matrices ayant le même nombre de lignes, on appelle matrice augmentée la matrice (A|B)
formée des deux blocs A et B. De même
 si Aet B sont deux matrices ayant le même nombre de colonnes, on
A
appelle matrice augmentée la matrice  . . .  formée des deux blocs A et B.
B
Exemple 8.2.1 a faire
8.3
Matrice échelonnée et échelonnée réduite
On nommera une ligne/colonne non nulle dès lorsqu’au moins un de ses éléments n’est pas nul. Le 1er élément d’une ligne
le plus à gauche non nul est dit élément de tête.
Définition 129.
Une matrice Mm,n (K) est dite sous forme échelonnée ou sous forme échelonnée par rapport aux lignes si :
– Toutes ses lignes non nulles sont situées au-dessus de ses lignes nulles,
– Chaque élément de tête d’une ligne se trouve dans une colonne à droite de l’élément de tête de la ligne
précédente,
– Tous les éléments de la colonne sous un élément de tête sont nuls.
Définition 130.
Une forme échelonnée réduite ou forme échelonnée réduite par rapport aux lignes est une matrice échelonnée
satisfaisant aux conditions supplémentaires :
– L’élément de tête de chaque ligne non nulle vaut 1,
– Chaque 1 de tête de ligne est le seul élément non nul de sa colonne. Dit autrement en terme de colonne, s’il y
a un élément de tête égal à 1 le reste sont des éléments 0.
Mail: [email protected]
Tous droits réservés
Page no 51 sur 96
CHAPITRE 8. ELIMINATION DE GAUSS-JORDAN :PIVOT DE GAUSS
Remarque : Dans la plupart des ouvrages on abrège en parlant de matrice échelonnée et de matrice échelonnée réduite.

Exemple 8.3.1

1
et A =  0
0
0
1
0


2 −3 2
2
Les matrices triangulaires comme A =  0 1 0  sont échelonnées. De plus A =  0
0 0 3
0

0 29
0 16  sont échelonnées, la dernière étant échelonnée réduite.
1 3
−3 2
1 −4
0
0

1
8 
5
Remarque : Les éléments de tête de chaque ligne forment un échelon, comme une marche d’un escalier qui descend de gauche
à droite. L’échelon porte aussi le nom de pivot. On dit que l’on a triangulé la matrice.
Proposition 131.
(Existence et unicité) Une matrice A est équivalente par ligne à une et une seule matrice échelonnée réduite U .
Preuve :
Définition 132.
Si U est une matrice échelonnée équivalente par ligne à A on dit que U est une forme échelonnée de A.
Dans le cas où U serait une matrice échelonnée réduite équivalente par ligne à A on dira que U est une
forme échelonnée réduite de A

Exemple 8.3.2 Soit la matrice

0
 0
0
1/3
3
1





3
0 3 0 1
0 1 0 1/3
1  alors l1 → l2 :  0 0 1 3  soit l1 → 1/3l1 :  0 0 1 3 
2
0 3 1 2
 0 3 1 2 
0 1 0 1/3
 ou encore l3 → l3 − l2 :  0 0 1 3  A ce stade nous avons une matrice
0 0 0 −2
0
3
3
1
0
1
0 1 0
d’où l3 → l3 − 3l2 :  0 0 1
0 0 1
échelonnée non réduite.


0 1 0 1/3
3  Cette matrice n’est pas réduite à cause du 1/3 et 3 (1)
De là l3 ↔ −1/2l3 :  0 0 1
0 0 0
1





0 1 0 1/3
0 1 0 1/3
0
0  soit l2 → −1/2l2 :  0 0 1 0  ou encore l1 → l1 − 1/3l3 :  0
l2 ↔ l2 − 3l3 :  0 0 −2
0 0 0
1
0 0 0 1
0
C’est l’unique matrice échelonnée réduite.
1
0
0
0
1
0

0
0 
1
L’ensemble des étapes du début de l’exemple jusqu’à (1) porte le nom de phase descendante ou vers l’avant tandis que de
l’étape (1) jusqu’à la fin et qui conduit à l’unique forme échelonnée réduite est appelée phase de remontée ou vers l’arrière.
Remarque : Certains logiciel sélectionne comme pivot dans une colonne le plus grand élément en valeur absolu afin de réduire
les erreurs d’arrondi dans les calculs. Cette stratégie est appelée du pivot partiel. La phase de descente de la réduction par
rapport aux lignes est en général plus longue que la phase de remontée.
=>mettre dans calcul numérique et approximation, le nbre d’opération
Mail: [email protected]
Tous droits réservés
Page no 52 sur 96
Chapitre
9
Application de l’élimination de Gauss-Jordan
9.1
Inverse d’une matrice
Pour déterminer l’inverse d’une matrice A inversible, il suffit de faire des opérations élémentaires sur A pour trouver In i.e
Er Er−1 ...E1 A = In. En pratique on forme la matrice augmentée (A|In ) puis (E1 A|E1 In )... (Er Er−1 ...E1 A|Er Er−1 ...E1 In )
{z
}
|
A−1
soit (In |A−1 )



1 2 1
1
1 2 1
0
Exemple 9.1.1 Calculons l’inverse de A =  4 0 −1 . On a alors (A|In ) =  4 0 −1
−1
2
2
−1
2
2


 0

1 0 0
1 0 0
1
2
1
1 2
1
−4 1 0  ou encore l3 → l3 + l1 :  0 −8 −5
−4 1 0 
l2 → l2 − 4l1 :  0 −8 −5
0 0 1
1 0 1
−1 2
2
0 4
3




1
0
0
1 2 1
1
0
0
1 2
1
1/2 −1/8 0  ou l3 → l3 − 4l2 :  0 1 5/8
1/2 −1/8 0 
d’où l2 → −1/8l2 :  0 1 5/8
0 4
3
0 0 1/2
1
0
1
−1 1/2 1




1 2 1
1 2 1
1
0
0
1
0
0
1/2 −1/8 0  ou l2 → l2 − 5/8l3 :  0 1 0
7/4 −3/4 −5/4  d’où
l3 → 2l3 :  0 1 5/8
−2
1
2
−2
1
2
0 0 1
0 0 1




1 0 0
−1/2 1/2
1/2
−2 2
2
7/4 −3/4 −5/4  Ainsi A−1 = 14  7 −3 −5 
l1 → l1 − 2l2 − l3 :  0 1 0
0 0 1
−8 4
8
−2
1
2
9.2
0
1
0

0
0  soit
1
ce qui donne
Déterminant
Cette méthode consiste à remplacer la matrice par une matrice triangulaire en utilisant seulement des permutations de
lignes/colonnes et des ajouts à une ligne d’un multiple d’une autre ligne/colonne de manière à faire apparaitre un maximum
de 0.
Proposition 133.
Soit A une matrice carrée :
– Si on multiplie une colonne (resp. une ligne) par α alors le déterminant est multiplié par α. Si on multiplie
deux colonnes (resp. deux lignes)par α alors le déterminant est multiplié par α2 etc.
– Si on échange deux colonnes (resp. deux lignes) on change le déterminant en son opposé
– On ne change pas le déterminant en ajoutant à une colonne (resp. une ligne) une combinaison linéaire des
autres colonnes (resp. des autres lignes).
Preuve : ? ? ?
Principe :
– On choisit dans la matrice un terme non nul aij (en général le 1er en haut à gauche) que l’on appelle le pivot.
– Si le terme choisi n’est pas a11 on peut en permutant les lignes 1 et i et les colonnes 1 et j ce qui le met en bonne position.
On obtient alors une matrice A0 telle que det(A0 ) = (−1)i+j det(A)
k1
– On élimine tous les termes situés sous le pivot a11 en ajoutant à la ligne k la ligne 1 multipliée par −a
a11 . Cette opération
ne change pas le déterminant.
– On recommence ensuite le même processus dans la sous-matrice privée de sa 1ere ligne et de sa 1ere colonne.
– On obtient alors à la dernière étape une matrice triangulaire dont le déterminant est égal au déterminant de la matrice de
départ.
53
CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN
Si nous arrivons à écrire A = E1 ....Er D où D est une matrice triangulaire alors d’après la proposition on aura det(A) =
det(E1 )....det(Er )a11 .a22 ...ann




0 1 5
3 −6 9
Exemple 9.2.1 Soit A =  3 −6 9  On alors A = E12  0 1 5 
2 6 1
2 6 1
1 −2 3 1 −2 3 3 −6 9 3 −6 9 d’où det(A) = det(E12 ) 0 1 5 = (−1) 0 1 5 = (−1)det(E1 (3)) 0 1 5 = −1.3 0 1 5 2 6 1 2 6 1 2 6 1 2 6 1 1 −2
1 −2
1 −2 3 1 −
3 3 2 3 = −3.1 0 1
5 =
5 = −3.1 0 1
5 = −3det(E32 (−10)) 0 1
5
=(-3)det(E31 (−2)) 0 1
0 0 −55 0 0 −55 0 10 −5 0 10 −5
−3.1.1.(−55) = 165




1 3 −2 4
1 3 −2 4
 0 0 0 0 
 2 6 −4 8 



Exemple 9.2.2 Soit A = 
 3 9 1 5  On a A = E21 (−2)  3 9 1 5 
1 1 4 8
1 1 4 8
1 3 −2 4 0 0 0 0 =0
d’où det(A) = det(E21 (−2)) 3 9 1 5 1 1 4 8 

−2 2 −3
Exemple 9.2.3 Soit la matrice A =  −1 1 3 . Si on choisit −2 comme pivot alors si la 2ième ligne l2 on
2 0 −1 −2 2 −3 −2 2 −3 −2 2 −3 ajoute −1/2l1 on aura −1 1 3 = 0 0 9/2 . Puis si on remplace l3 par l3 + l1 on aura −1 1 3 =
2 0 −1 2 0 −1 2 0 −1 −2 2 −3 −2 2 −3 0 0 9/2 . en choisissant cette fois-ci 2 comme second pivot et en permutant les lignes 2 et 3 on aura −1 1 3 =
0 2 −4 2 0 −1 −2 2 −3 (−1) 0 2 −4 = (−1)(−2.2.9/2) = 18
0 0 9/2 9.3
Rang
Proposition 134.





Soit A une matrice, de matrice échelonnée U = 




p1
0
..
.
∗
p2
..
.
0
..
.
...
..
.
0
0
... ...
... ...
..
. ∗
. . . pr
..
..
.
.
0
0

∗ ∗
∗ ∗ 


∗ ∗ 
 alors rg(A) = r
∗ ∗ 

.. .. 
. . 
0
0
Preuve : ? ? ?
9.4
Bases de Ker f et Im f
Soit f une application linéaire entre deux e.v de dimension finie. Soit A une matrice représentant f . On effectue uniquement
des opérations élémentaires sur les colonnes de A pour obtenir une matrice échelonnée comme pour calculer le rang de A.
Les colonnes de cette matrice échelonnée sont des combinaisons linéaires des colonnes de A donc en remontant les calculs et
d’après le théorème du rang les colonnes nulles donnent une base de Ker f et les colonnes non nulles forment un base de Im f
9.5
Résolution d’un système d’équation linéaire : pivot de Gauss
Mail: [email protected]
Tous droits réservés
Page no 54 sur 96
CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN
9.5.1
Équation linéaire complète et homogène
Définition 135.
Soient E et F deux K-e.v. Soit f une application linéaire de E dans F . Soit b ∈ F on appelle
équation linéaire complète ou avec second membre une équation de la forme f (x) = b. L’équation f (x) = 0F est
dite équation linéaire homogène associée ou sans second membre.
Si l’équation linéaire admet au moins une solution alors elle sera dite compatible sinon s’il n’y a pas de solution on parlera
d’équation linéaire incompatible.
Si E = Rn et F = R ou E = Cn et F = C alors les applications linéaires de E dans F s’écrivent sous la forme
f (x) = f (x1 , ..., xn ) = a1 x1 + ... + an xn
Si l’on cherche à résoudre f (x) = b ⇔ a1 x1 + ... + an xn = b on parlera donc d’équation linéaire (algébrique) dans les (ou des)
variables (inconnues) x1 , ..., xn . Les éléments ai sont appelés les coefficients de la variable xi
Exemple 9.5.1 Soient E = C et F = C. Une équation linéaire à une inconnue est de la forme ax = b avec a, b ∈ C. Si
a 6= 0 alors cette équation admet une unique solution x = b/a. Si a = 0 et b 6= 0 il n’existe aucune valeur de x qui vérifie
ax = b. Si a = 0 et b = 0 alors ∀x ∈ C, 0x = 0. L’équation admet alors une infinité de solution.
Exemple 9.5.2 Soient E = R2 et F = R et l’équation linéaire f (w) = f (x, y) = a1 x + a2 y = b (équation d’une droite dans
le plan) où a1 , a2 , b sont des constantes (paramètres) réels. C’est une équation linéaire de variable x et y.
2x21 + x2 = 1 ou y = sin x ne sont pas des équations linéaires puisque
f : R2 −→ R
f : R −→ R
ou
ne sont
x = (x1 , x2 ) 7−→ 2x21 + x2
x 7−→ sin x
pas linéaire.
Soient E = R3 et F = R et l’équation linéaire f (w) = f (x, y, z) = a1 x + a2 y + a3 z = b (équation d’un plan dans l’espace).
2x + y 2 + z = 3 n’est pas une équation linéaire.
Ce type d’équations linéaires sont implicites et ne donnent pas directement les valeurs que peuvent prendre les variables. Une
solution d’équation linéaire est un n-uplet (s1 , ..., sn ) de valeurs des variables x1 , ..., xn qui satisfont à l’équation, autrement
dit a1 s1 + ... + an sn = b
Exemple 9.5.3 Soit f : R3 −→ R. Trouvons l’ensemble des solutions de l’équation linéaire f (x) = f (x1 , x2 , x3 ) = x1 −
4x2 + 13x3 = 5. Nous donnerons des valeurs arbitraires s et t à x2 et x3 de là x2 = s, x3 = t et x1 = 4s − 13t + 5. Ainsi
S = {x1 = 4s − 13t + 5, x2 = s, x3 = t|(s, t) ∈ R2 } (c’est un plan de R3 ).
Exemple 9.5.4 Si a1 = ... = an = b = 0 toute donnée (s1 , ..., sn ) de n éléments de Rn est solution donc l’équation linéaire
admet Rn comme solution. Si a1 = ... = an = 0 et b 6= 0 l’équation linéaire n’a pas de solution et S = ∅
Nous introduisons ici la notion d’équation différentielle linéaire, que nous reprendrons plus en détail dans le volume d’équation différentielle.
Ici nous prendrons deux e.v sur K, E = F(A, B) et F = F(A, B) avec A, B ⊆ C. Nous définissons l’application linéaire (a démontrer ? ? ? ou a mettre dans AL comme exemple ) de E dans F d’ordre n par F (f ) = a1 f +a2 f 0 +...+an f (n) où a1 , ..., an sont
des fonctions numériques et f (n) la dérivée d’ordre n de f . Cette application linéaire sera dite application différentielle linéaire.
Si a1 , ..., an sont des constantes (fonctions particulières) on parlera d’application différentielle linéaire à coefficients constants.
Définition 136.
Une équation différentielle linéaire (équation linéaire particulière) d’ordre n et d’inconnu y (au lieu de f ) est une
équation de la forme F (y) = a1 y + a2 y 0 + ... + an y (n) = b où b est une fonction. Si b = 0 on parlera d’équation
différentielle linéaire d’ordre n homogène associée.
Exemple 9.5.5 ay + by 0 = c est une équation différentielle linéaire du premier ordre d’inconnue y (c’est une fonction).
y” + y = 0 est une équation différentielle linéaire du second ordre à coefficient constant homogène.
Mail: [email protected]
Tous droits réservés
Page no 55 sur 96
CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN
9.5.2
Espace vectoriel des solutions de l’équation linéaire homogène
Proposition 137.
Si on a une équation linéaire homogène alors l’ensemble des solutions est un sous-espace vectoriel de E
Preuve : ? ? ?
Exemple 9.5.6 faire exemple aussi avec equ diff mais tres simple+preciser base
9.5.3
Espace affine des solutions de l’équation linéaire complète
Proposition 138.
Si une équation linéaire est compatible alors l’ensemble des solutions est un espace affine, dirigé par le noyau. En
notant x0 une solution particulière de l’équation complète, l’espace solution est de la forme S = x0 + Ker f =
{x0 + k, k ∈ Ker f }. De plus si dim E = n alors dim S = n − 1=> qu’appelle ton dim d’un espace affine ? et
sans parler de matrice
Preuve : ? ? ?
Exemple 9.5.7 faire exemple aussi avec equ diff mais tres simple
D’après la propo ? ? ? si on connait une solution particulière d’une équation différentielle linéaire, la solution générale (espace
affine) est formée de la somme de cette solution particulière avec la solution générale de l’équation différentielle linéaire
homogène associée.
9.5.4
Système d’équation linéaire
Définition 139.
Un système de m équations linéaire à n variables à coefficient dans K est une famille d’équations linéaires :

a11 x1 + ... + a1n xn = b1



a21 x1 + ... + a2n xn = b2
où x1 , ..., xn sont les variables (inconnues) et où aij ∈ K sont les coefficients.
...



am1 x1 + ... + amn xn = bm
Nous recherchons les solutions d’un système i.e en terme de vecteur (α1 , ..., αn ) ∈ Kn tels que ∀1 ≤ i ≤ m, ai1 α1 +...+aim αn =
bi . Plus généralement nous voulons caractériser l’ensemble des solutions du système i.e S = {(α1 , ..., αn ) ∈ K|ai1 α1 + ... +
aim αn = bi ∀1 ≤ i ≤ m}
Remarque : Le système est dit homogène lorsque ∀1 ≤ i ≤ m, bi = 0. Un système est dit carré quand le nombre d’équation
est égal aux nombres de variables i.e n équations et n inconnues.
x1 − 3x2 + x3 = 1
Exemple 9.5.8 Le système d’équation linéaire
admet comme solution x1 = −18, x2 = −6 et
−2x1 + 4x2 − 3x3 = 9
x3 = 1. Par contre x1 = 7, x2 = 2 et x3 = 0 ne satisfait que la première équation et pas la 2ième. Ce n’est donc pas un
solution (3-uplet) du système.
Définition 140.
Un système d’équation linéaire est dit incompatible s’il n’admet pas de solution et compatible s’il en admet au
moins une.
Mail: [email protected]
Tous droits réservés
Page no 56 sur 96
CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN
x1 + x2 = 1
Exemple 9.5.9 Le système d’équation linéaire
est clairement incompatible i.e S = ∅
2x1 + 2x2 = 1
9.5.5
Espace vectoriel des solutions d’un système d’équation linéaire homogène
Proposition 141.
Si on a un système (d’équation) linéaire homogène alors l’ensemble des solutions est un sous-espace vectoriel de
E de dimension ? sans avoir à parler de matrice !
Preuve :intersection fini d’ev ou algebre lineaire 3.pdf 84/160
Proposition 142.
Tout système homogène d’équations linéaires dont le nombre d’inconnue est plus grand que le nombre d’équation
a une infinité de solution.
Preuve :
Proposition 143.
Un système d’équation linéaire homogène admet zéro, une ou une infinité de solutions.
Preuve :e.v

 x − 2y + 3z = 0
2x − 4y + 6y = 0 sont x = 2s − 3t, y = s et z = t ce qui
Exemple 9.5.10 Les solutions du système d’équation linéaire

3x − 6y + 9z = 0
donne x = 2y − 3z c’est-à-dire x − 2y + 3z = 0. L’ensemble des solutions est donc un plan de R3 passant par l’origine, puisque
c’est un sous-espace vectoriel de R.
9.5.6
Espace affine des solutions d’un système d’équation linéaire complet
Proposition 144.
Si on a un système linéaire complet alors l’ensemble des solutions est un sous-espace affine de E. dim ?=qu’appelle
ton dim d’un espace affine ? et sans partler de matrice
Preuve : ? ? ?intersection fini d’esp affine
ax + by = c
avec b, b0 6= 0. Ces deux équations repréa0 x + b0 y = c0
sentent deux droites (d1 ) et (d2 ) du plan. Une solution de ce système (s1 , s2 ) est donc un point qui est sur ces deux droites.
Trois cas se présentent :
Exemple 9.5.11 Soit le système d’équations linéaires suivant
-Les droites (d1 ) et (d2 ) se coupent en un seul point.
Mail: [email protected]
Tous droits réservés
Page no 57 sur 96
CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN
Dans ce cas le système n’a qu’une solution.
-Les droites (d1 ) et (d2 ) sont parallèles strictement.
Le système est incompatible.
-Les droites (d1 ) et (d2 ) sont parallèles et confondues.
Nous voyons que le système a une infinité de solution qui sont des points de (d1 ) ou d2 ).
9.5.7
Le





Système d’équation linéaire et matrice




a11 x1 + ... + a1n xn = b1
a21 x1 + ... + a2n xn = b2
peut s’écrire sous forme d’opération matricielle :
système d’équation linéaire
...



am1 x1 + ... + amn xn = bm

 

a1,1 a1,2 . . . a1,n
x1
b1

 

a2,1 a2,2 . . . a2,n 
  x 2   b2 
=




..
..
..
..
.
. 
.
.
.
.   ..   .. 
am,1
|
am,2 . . .
{z
am,n
A
}|
xn
{z }
X
bn
| {z }
B
On appelle A la matrice des coefficients du système. Le vecteur X est une solution du système ssi AX = B (écriture compacte). En général l’ensemble des solutions du système linéaire {X ∈ Kn |AX = B} n’est pas un sous-espace vectoriel de Kn .
9.5.8
Résolution
on cherche le nombre de solution
par substitution
trouver inverse de A (cf méthode vu précedement=cofacteur, gauss...)

 2x1 + x2 + x3 = 1
x1 − x2 − x3 = 0
Exemple 9.5.12 Considérons le système linéaire

2x1 + 2x2 − x3 = 1


2 1
1
1
0 . En effectuant les opérations élémentaires sur cette
Cela donne en terme de matrice augmentée  1 −1 −1
1
2 2 −1




1 −1 −1 0
1 −1 −1 0
1
1  puis l2 → l2 − 2l1 :  0 0
3
3  soit l3 → l3 − 2l1 :
matrice nous obtenons l1 → l2 :  2 1
2 2 −1 −1
2 2 −1 −1






1 −1 −1 0
1 −1 −1 0
1 −1 −1 0
 0 3
3 1  ou encore l2 → 4l2 et l3 → 3l3 :  0 12 12 4  ou l3 → l3 − l1 :  0 12 12
4  et enfin
0 4
1 1
0 12
3 3
0 0 −9 −1


1 −1 −1
0
l2
1 1/3 
l2 → 12
et −l9 3 → l3 :  0 1
0 0
1 1/9
Mail: [email protected]
Tous droits réservés
Page no 58 sur 96
CHAPITRE 9. APPLICATION DE L’ÉLIMINATION DE GAUSS-JORDAN
Nous obtenons une matrice échelonnée mais pas réduite car les colonnes de tête de ligne valant 1 ne possèdent pas que des
0. Ainsi x3 = 91 et x2 + x3 = 31 soit x2 = 39 − 19 = 29 et x1 − x2 − x3 = 0 ⇔ x1 = 92 + 19 = 39 = 13 d’où S = {( 13 , 92 , 91 )}.
Vérification : 2. 13 + 29 + 19 = 6+2+1
= 1, puis 31 − 29 − 91 = 3−2−1
= 0 et enfin 2 13 + 2 29 − 19 = 6+4−1
=1
9
9
9
Remarque : Ce genre de résolution a été vue au lycée sans
 utilisation de matrice augmentée et restaitsous la forme originelle
 x + y + 7z = −1
 x + y + 7z = −1
2x − y + 5z = −5 d’où l2 → l2 − 2l1 :
−3y − 9z = −3
d’une système d’équation (linéaire) comme par exemple


−x
−
3y
−
9z
=
−5
−x
− 3y − 9z = −5


x + y + 7z = −1
 x + y + 7z = −1

l2
y + 3z = 1
−3y − 9z = −3 = −5 ensuite l2 → −3
et l3 → l23 :
soit l3 → l3 + l1 :


−y − z = −3
−2y − 2z = −6

 x + y + 7z = −1
y + 3z = 1
ou encore l3 → l3 + l2 :
Ainsi z = −1, y = 4 et x = 2

z = −1
9.6
Résolution d’un système d’équation linéaire : règle de Cramer
La règle de Cramer donne une formule explicite pour la solution de certains système d’équations linéaires. Soit
d’équations linéaires à n équations et n inconnues :


 x  
1
a11 x1 + ... + a1n xn = b1
a11 x1 + ... + a1n xn = b1




x2 
 a21 x1 + ... + a2n xn = b2  
a21 x1 + ... + a2n xn = b2


 . 
=
ce système peut s’écrire AX = B i.e 


 .  
.
.
.
.
.
.


.


an1 x1 + ... + ann xn = bn
an1 x1 + ... + ann xn = bn
x
n
{z
} | {z } |
|
A

a1,j+1
a2,j+1
..
.
...
...
..
.
an1 . . . an,j−1 bn an,j+1
j-ième colonne de A par le second membre B.
...


Définissons Aj = 

a11
a21
..
.
...
...
..
.
a1,j−1
a2,j−1
..
.
b1
b2
..
.
le système
b1
b2
..
.





bn
{z }
X
B

a1n
a2n 

 autrement dit Aj est la matrice obtenue en remplaçant la

ann
Proposition 145.
(Règle de Cramer) Soit AX = B un système de n équations à n inconnues. Supposons que det(A) 6= 0, alors
det(A2 )
det(An )
1)
l’unique solution du système est donnée par x1 = det(A
det(A) , x2 = det(A) , .., xn = det(A)
Preuve :algebre lineaire 3.pdf 47/160




1
0 2
x1 + +2x3 = 6
−3x1 + 4x2 + 6x3 = 30 On a A =  −3 4 6  d’après la règle
Exemple 9.6.1 Résolvons le système suivant

−x1 − 2x2 + 3x3 = 8
−1 −2 3


1
1
0
2
0
6
0 6
de Sarrus |A| = −3 4 6 −3 4 = 4.3 + 0 + 2.(−3)(−2) = 44 De plus on aura A1 =  30 4 6  soit
−1 −2 3 −1 −2
8 −2 3
6
0
6
6
0
|A1 | = 30 4 6 = 30 4 = 6.4.3 + 0 − 2.30.2 − 8.4.2 − (−2.6.4) − 0 = −40 Enfin det(A2 ) = 72 et det(A3 ) = 152.
8 −2 3 8 −2
La solution est alors :
x1 =
det(A1 )
det(A)
=
−40
44
=
−10
11 , x2
=
Mail: [email protected]
det(A2 )
det(A)
=
72
44
=
18
11 , x3
=
det(A3 )
det(A)
=
125
44
=
Tous droits réservés
38
11
Page no 59 sur 96
Chapitre
10
Décomposition LU
Cette décomposition de matrice permet de résoudre des systèmes d’équation linéaire mais aussi l’inverse d’une matrice ou
de calculer un déterminant facilement.
10.1
Définition
Définition 146.
On dit qu’une matrice A se décompose en LU si A peut s’écrire comme le produit d’une matrice triangulaire
inférieure (Lower) de termes diagonaux égales à 1 et d’une matrice triangulaire supérieure (Upper)
Proposition 147.
Soit A ∈ Mn (R) une matrice inversible. Il existe alors une matrice de permutation P telle qu’il existe un et un
seul couple (L, U ) où L est une matrice triangulaire inférieure de termes diagonaux égales à 1 et U une matrice
triangulaire supérieures vérifiant P A = LU
Preuve :

2
−
1 0
, cette matrice se factorise en un produit d’une matrice triangulaire
Exemple 10.1.1 Soit la matrice  −1 2 −1
0 −1 2
inférieure (que des 1 sur la diagonale principale) par une matrice triangulaire supérieure de la façon suivante :


 

2 −1
0
1
0
0
2
−
1 0
 =  −1/2
 −1 2 −1
1
0   0 3/2 −1 
0 0 4/3
0
−2/3 1
0 −1 2

10.2
Application
10.2.1
Déterminant
10.2.2
Inversion matrice
10.2.3
Résolution d’un système d’équation linéaire
60
Chapitre
11
Changement de base
Nous avons vu que changer de base B et/ou B 0 d’une application linéaire de E dans F changeait également sa matrice. Nous
allons donc chercher à exprimer la matrice d’une application linéaire lorsque l’on change les bases de E et F . On convient
que B = {e1 , e2 , ...., en } et B 0 = {e01 , e02 , ...., e0n }
11.1
Matrice de passage
Soit l’application linéaire
f : (E, B 0 ) −→ (E, B)
. On a alors
x 7−→ x
f (e01 ) = e01 = α11 e1 + α21 e2 + ... + αn1 en
..
.
f (e0n )
=
e0n

f (e01 )
a1,1

 α21
= α1n e1 + α2n e2 + ... + αnn en donc MB0 B (IdE ) = 
 ..
 .
αn1
f (e02 )
α12
α22
..
.
...
...
..
.
αn2
...
f (e0n )
α1,n

α2n
..
.


B


αnn
On remarque que
e01 = α11 e1 + α21 e2 + ... + αn1 en
..
.
e0n = α1n e1 + α2n e2 + ... + αnn en dit autrement on exprime e0i en fonction de ei , ce qu’on traduit aussi en disant que l’on
exprime une nouvelle base (e0i ) en fonction de l’ancienne base (ei )
Définition 148.
0
La matrice MB0 B (IdE ) est appelée la matrice de passage de la base B à la base B 0 . Elle se note PBB ou PBB0
voire PB→B0
Remarque : La matrice P est donc constituée des vecteurs colonnes formée par les composantes des vecteurs (e0i ) dans la
base (ei )


f (e01 )=e01
f (e02 )=e02
f (e0n )=e0n
α
.
.
.
α
a
1,1
12
1,n


 α21
α22
...
α2n 
B0

B
PB = 

..
..
..
..


.
.
.
.
αn1
αn2
...
αnn

Exemple 11.1.1 Si e01 = 2e1 + 3e2 − e3 , e02 = 5e1 + 2e2 − 4e3 , e03 = e1 + e2 + e3 alors PBB
0
2
= 3
−1
Proposition 149.
0
0
Soient B et B 0 deux bases de E alors PBB est inversible et (PBB )−1 = PBB0
Preuve : On rappelle que le produit de matrice s’identifie à la composée d’application linéaire.
0
PBB .PBB0 = MB0 B (IdE ).MBB0 (IdE ) = MBB (IdE ) = In
|
{z
}
gof =IdBB0 oIdB0 B
61
5
2
−4

1
1 
1
CHAPITRE 11. CHANGEMENT DE BASE
Proposition 150.
00
0
00
Soient B, B 0 et B 00 trois bases de E alors PBB = PBB .PBB0
Preuve :
11.2
Application
11.2.1
Changement de coordonnées pour un vecteur
Proposition 151.


a1



Soient B et B 0 deux bases de E. Soit x ∈ E et X =  ...  les composantes de x dans B et X 0 = 
an
composantes de x de B 0 alors X = P X 0 ou X 0 = P −1 X

Preuve : x ∈ E s’écrit dans B x = a1 e1 + ... + an en , dans la base B 0 ce même vecteur
 0s’écrit0 x
e1
e2
 a11 a12
 a21 a22
Soit P la matrice de passage de B = {e1 , e2 , ...., en } à B 0 = {e01 , e02 , ...., e0n } : P = 
 ..
..
 .
.

b1
..  les
. 
bn
= b1 e01 +... + bn e0n .
e0n
. . . a1n 
. . . a2n 

..  ei . On a
...
. 
a
a
. . . ann



 n1 n2


a11
a12
a1n
an








alors en terme de composante de x dans B, x = b1  ...  + b2  ...  + ... + bn  ...  c’est-à-dire  ...  =
an1
an2
ann
an1


  e0
e02
e0n
1
b1 a11 + b2 a12 + ... + bn a1n
a11 a12 . . . a1n   b1 
 b2 a21 + b2 a22 + ... + bn a2n  


  a21 a22 . . . a2n 
0
0
−1
 . 

= .
..
..
..   ..  donc X = P X ou encore X = P X


.
.
 .
.
...
. 
bn
b1 a1n + b2 an2 + ... + bn ann
an1 an2 . . . ann

Exemple 11.2.1 Soit R3 munit de la base canonique B = {e1 (1, 0, 0), e2 (0, 1, 0), e3 (0, 0, 1)}. On définit :
e01 = e1 + e2 + e3
e02 = e1 + 0e2 − e3
e03 = 2e1 − e2 − 3e3
Montrons que dans B 0 = {e01 (1, 1, 1), e02 (1, 0, −1), e03 (2, −1, 3)} est une base de R3
D’après le volume sur les espaces vectoriels on sait que (R3 , +, .) est un R-ev de dimension 3. Or B 0 contient 3 éléments donc
d’après la proposition ? ? ? du volume ev, B 0 est une base de R3 ssi B 0 est libre.

 α + β + 2γ = 0
α−γ =0
or α − γ = 0 ⇔ α = γ d’où
De là αe01 + βe02 + γe03 = 0 ⇔

α − β + 3γ = 0


 γ + β + 2γ = 0
 β = −3γ
α=γ
α=γ
⇔
⇔ α = β = γ = 0 donc B 0 est une base de R3


γ − β + 3γ = 0
−β + 4γ = 0
Soit x ∈ R3 , on cherche alors
les composantes
de x dans B 0 connaissant les composantes
 a exprimer par
 un calcul simple


1 1
2
1 −1 1
0
de x dans B. On a PBB =  1 0 −1  et P −1 =  −2 5 −3 . On prendra dans B x = 1e1 + 2e2 + 3e3 =
1 −1 −3
1 −2 1


1
1(1, 0, 0) + 2(0, 1, 0) + 3(0, 0, 1) donc a pour composante dans B, X =  2 . De là d’après la proposition X 0 = P −1 X =
3
Mail: [email protected]
Tous droits réservés
Page no 62 sur 96
CHAPITRE 11. CHANGEMENT DE BASE

−1
5
−2
1
 −2
1




1
1
2
−3   2  =  −1 
1
3
0
Ainsi dans la base B 0 , x = 2e01 − e02 . On peut le vérifier via B, x = 1e1 + 2e2 + 3e3 = (1, 2, 3) et via B 0 , x = 2e01 − e02 =
| {z }
point
2(1, 1, 1) − (1, 0, 1) = (1, 2, 3).
| {z }
point
Attention : P s’appelle la matrice de passage de B à B 0 mais la formule X = P X 0 donne les coordonnées dans B en fonction
des coordonnées dans B 0 et non l’inverse. Pour avoir les coordonnées dans B 0 en fonction des coordonnées dans B il faut
utiliser la formule X 0 = P −1 X.
11.2.2
Changement de matrice pour une application linéaire
Proposition 152.
Soient (E, B1 ) et (F, C1 ) deux espaces vectoriels de dimension finie.
Soit B2 une nouvelle base de E et C2 une nouvelle base de F
Soit A la matrice de f ∈ L(E, F ) relativement à B1 et C1
On note P la matrice de passage de B1 à B2 (IdE : (E, B2 ) −→ (E, B1 ))
On note Q la matrice de passage de C1 à C2 (IdF : (F, C2 ) −→ (F, C1 ))
La matrice de f ∈ L(E, F ) relativement aux bases B2 et C2 est alors donnée par B = Q−1 AP . Ce que l’on
résume par le diagramme :
Preuve :
Q−1 AP = MC2 C1 (IdF )−1 [MB1 C1 (f ).MB2 B1 (IdE )] = MC2 C1 (IdF )−1 .MB2 C1 (f ) = MC1 C2 (IdF ).MB2 C1 (f ) = MB2 C2 (f ) = B
{z
}
{z
}
|
|
f oId
Idof
Corollaire 153.
Si f : (E, B) → (E, B) alors si B 0 est une nouvelle base de E et si A = MBB (f ), P = PBB0 alors la matrice
carrée de f relativement à la base B 0 (f : (E, B 0 ) → (E, B 0 )) est MB0 B0 (f ) = P −1 AP c’est-à-dire en terme de
diagramme
Preuve :

f (e1 )
 −1
Exemple 11.2.2 Soit f : (R3 , B) → (R3 , B) dont la matrice est A =  1
2
Mail: [email protected]
Tous droits réservés
f (e2 )
2
2
1
f (e3 )

4 
−2  On a :
5
Page no 63 sur 96
CHAPITRE 11. CHANGEMENT DE BASE
f (e1 ) = −e1 + e2 + e3
f (e2 ) = 2e1 + 2e2 + e3
f (e3 ) = 4e1 − 2e2 + 5e3
Soit B 0 = {e01 , e02 , e03 } où :
e01 = e1 + e2 + e3
e02 = e1 + 0e2 − e3


2
−1 . On cherche la matrice de f : (R3 , B 0 ) → (R3 , B 0 ).
−3



  f (e01 )
1 −1 1
−1 2 4
1 1
2
 12
D’après le corolaire on a B = P −1 AP =  −2 5 −3   1 2 −2   1 0 −1  =  −29
1 −2 1
2 1 5
1 −1 −3
11
1
e03 = 2e1 − e2 − 3e3 donc P =  1
1
1
0
−1
f (e02 )
−11
34
−14
f (e03 )

−34  0
98  B
−40
Remarque : Nous avons vu que si l’on connait P et Q alors on peut trouver B. On va se poser la question : étant données
deux matrices A et B peut-on trouver deux matrices de passage P et Q (donc deux couples de bases) telles que B = Q−1 AP ?
Dit autrement les deux matrices représentent-t’elles la même application linéaire pour des bases différentes. Dans ce cas on
parlera de matrices équivalentes et pour le corolaire B = P −1 AP on parlera de matrices semblables.
11.3
Matrice équivalente
Deux matrices A et B sont équivalentes ssi elles peuvent représenter la même application linéaire f : E −→ F par rapport à
deux couples de bases, c’est-à-dire A pour f : (E, B1 ) −→ (F, C1 ) et pour B pour f : (E, B2 ) −→ (F, C2 )
Définition 154.
Deux matrices de même taille (m, n) A et B sont équivalentes ssi il existe deux matrices de passage inversibles
P (de taille n × n) et Q (de taille m × m) telles que A = QBP −1 ou Q−1 AP = B.
Proposition 155.
A ∼ B ⇔ A et B sont équivalent (A = QBP −1 ) est une relation d’équivalence.
Preuve :
Proposition 156.
Deux matrices sont équivalentes ssi elles ont le même rang.
Preuve :
11.4
Matrice semblable
Deux matrices sont semblables si elles constituent deux matrices représentatives du même endomorphisme dans deux bases
éventuellement différentes, c’est-à-dire A pour f : (E, B) −→ (E, B) et pour B, f : (E, B 0 ) −→ (E, B 0 ) d’où la définition :
Définition 157.
Deux matrices carrées A et B sont dites semblables s’il existe une matrice de passage P inversible telle que
A = P BP −1 ou P −1 AP = B
Il ne faut pas confondre la notion de matrice semblable avec celle de matrice équivalente. Si deux matrices sont semblables
alors elles sont équivalentes, la réciproque étant en généralement fausse.
Mail: [email protected]
Tous droits réservés
Page no 64 sur 96
CHAPITRE 11. CHANGEMENT DE BASE
2 1
2 2
1 1
Exemple 11.4.1 Soit A =
et B =
. Sont-elles semblables ? Si on pose P =
alors on obtient
2 0
1 0
1 0
0 1
0 1
2 1
1 1
2 2
P −1 =
et on vérifie que P −1 AP =
=
= B donc A et B sont
1 −1
1 −1
2 0
1 0
1 0
semblables.
Dit autrement f : (E, B) −→ (E, B) pour A donne pour B f : (E, B 0 ) −→ (E, B 0 ) avec B 0 donnée par la matrice de passage
0
PBB c’est-à-dire e01 = 1e1 + 1e2 et e02 = 1e1 + 0e2 .
11.5
Invariant de similitude
Se poser la question sur les réciproques trA=trB=>semblables ?
Soit F un espace vectoriel. Nous nous intéresserons aux applications f : Mn (K) −→ F dont le résultat est le même
pour deux matrices semblables. Des applications telles que si A et B sont semblables alors f (A) = f (B) seront appelées
invariants de similitude.
11.5.1
Déterminant
Proposition 158.
Si A et B sont deux matrices semblables alors det(A) = det(B).
Preuve : Soient A et B deux matrices semblables, ∃P ∈ GLn (K) telle que B = P −1 AP d’où det(B) = det(P −1 AP ) =
1
det(P −1 )det(A)det(P ) = det(P
) det(A)det(P ) = det(A).
Cela signifie que les matrices de f dans une base quelconque ont toute le même déterminant. On l’appelle le déterminant
de l’endomorphisme f
11.5.2
Trace
Définition 159.
Soit A ∈ Mn (K). On appelle trace de A, notée tr(A), le réel définit par tr(A) =
n
X
aii .
i=1

a11
 ..
A= .
an1

a1n
..  c’est-à-dire tr(A) = a + a + ... + a
11
21
nn
. 
. . . ann
...
..
.

1
Exemple 11.5.1 tr  1
1
3
−1
4

2
0  = 1 + (−1) + 7 = 7. De plus avec la matrice unité tr(In ) = n
7
Proposition 160.
Soient A et B deux matrices n × n alors
1. La trace est une forma linéaire i.e ∀A, B ∈ Mn (K) et λ ∈ K on a tr(A + B) = tr(A) + tr(B) et tr(λA) =
λtr(A).
2. tr(AT ) = tr(A)
3. tr(AB) = tr(BA)
Preuve : algebre lineaire 3.pdf 31/160
Mail: [email protected]
Tous droits réservés
Page no 65 sur 96
CHAPITRE 11. CHANGEMENT DE BASE

α11
..

Soient A = 


β11
..


 et A = 
.



.
βnn
αnn


α11 + β11

1. tr(A + B) = tr 
..

 = α11 + β11 + ... + αnn + βnn = (α11 + ... + αnn ) + (β11 + ... + βnn ) =
.
αnn + βnn

λα11

..
tr(A) + tr(B). De plus tr(λA) = tr 
.


 = λα11 + ... + λαnn = λ(α11 + ... + αnn ) = λtr(A). Enfin
λαnn
la trace d’une matrice carrée est une application de Mn (K) dans K donc c’est une forme linéaire (application linéaire
particulière).
2. transposée
3. Si on pose C = AB = (cij ) et D = BA = (dij ). Nous avons alors cij =
n
X
n
X
aik bkj et dij =
k=1
cii =
i=1
n
X
bik akj . Ainsi tr(AB) =
k=1
n X
n
n
n X
n
X
X
X
( aik bki ) et tr(BA) =
dii =
( bik aki ). Si dans la 1ère relation on interverti les rôles joués
i=1 k=1
i=1
i=1 k=1
n X
n
n X
n
X
X
par les indices muets i et k on aura tr(AB) =
( aik bki ) =
( aki bik ). Comme K est commutatif tr(AB) =
i=1 k=1
k=1 i=1
vol.ens.f inis n
n X
n
n
X
XX
z}|{
( bik aki )
=
( bik aki ) = tr(BA) d’où le résultat.
k=1 i=1
i=1 k=1
Remarque : En général nous n’aurons pas tr(AB) = tr(A)tr(B). En effet si A =
8 5
AB =
. On a dans ce cas tr(A) = 5, tr(B) = 3 et pourtant tr(AB) = 8.
10 10
1
2
5
4
et B =
3
1
5
0
alors
Proposition 161.
Si A et B sont semblables alors tr(A) = tr(B)
Preuve : tr(B) = tr(P −1 AP ) = tr(P −1 (AP )) = tr((AP )P −1 ) = tr(A)
Proposition 162.
Ker(tr) est un hyperplan de Mn (K) et Mn (K) = Ker(tr) ⊕ K.In dit autrement L(E) = Ker(tr) ⊕ K.IE
Preuve :
11.5.3
Rang
Mail: [email protected]
Tous droits réservés
Page no 66 sur 96
Chapitre
12
Diagonalisation
Soit f ∈ L(E) et A ∈ Mn (K). La diagonalisation en algèbre linéaire consiste à trouver, si cela est possible, une base de
E pour que la matrice carrée associée à l’endomorphisme soit diagonale. On recherche donc une matrice D semblable à A
c’est-à-dire D = P −1 AP .
Supposons que f soit diagonalisable on aura le diagramme :

λ1
0
..

avec D=
0



.
λn

f (e01 )
 λ1
Dit autrement on aurait une autre base B 0 = {e01 , ..., e0n } telle que la matrice associée à f serait D = 

f (e0n )
0
..

 0
B .

.
0
λn
Ainsi f (e01 ) = λ1 e1 et en général f (e0n ) = λn en . Nous devons donc dans un premier temps (condition nécessaire) chercher, les
λi ∈ K, s’ils existent et les vecteurs u ∈ E tels que f (u) = λi u. Même si u = 0 convient toujours, quelque soit λ on cherchera
de préférence des u 6= 0 de sorte que f (e01 ) 6= 0.
La diagonalisation d’une matrice carrée (associée à un endomorphisme) permet un calcul plus simple de ses puissances et de
son exponentielle.
12.1
Vecteur propre, valeur propre et spectre
Définition 163.
Soit E un K-e.v de dimension n et B = {e1 , ..., en } une base de E. Soit f ∈ L(E) et A ∈ Mn (K) sa représentation
matricielle relativement aux bases B et B 0 = B. On dit que u(x1 , ..., xn ) est un vecteur propre de f s’il existe un


x1


scalaire λ tel que f (u) = λu i.e AX = λX avec X =  ...  = uT = (x1 , ..., xn )T
xn
1 3
x
Exemple 12.1.1 Soit f ∈ L(E) de matrice A =
. On pose X =
et on résout l’équation AX = λX ⇔
y
2 2 x(1 − λ) + 3y = 0
1 3
x
x
x + 3y
λx
x + 3y − λx = 0
=λ
⇔
=
⇔
⇔
Si 2x + y(2 −
2 2
y
y
2x + 2y
λy
2x + 2y − λy = 0
2x + y(2 − λ) = 0
λ) = 0 alors x = −y(2−λ)
d’où x(1 − λ) + 3y = 0 ⇔ −y(2−λ)
(1 − λ) + 3y = 0 ⇔ y( −y(2−λ)
(1 − λ) + 3) = 0. En prenant
2
2
2
−y(2−λ)
−1(2−λ)
y = 1 alors y(
(1 − λ) + 3) = 0 ⇔ 1( 2 (1 − λ) + 3) = 0 ⇔ −(2 − λ)(1 − λ) + 6 = 0 ⇔ −(2 − 2λ − λ + λ2 ) + 6 =
2
2
= −1 ou λ2 = −3−5
0 ⇔ −λ + 3λ + 4 = 0. De là on a ∆ = 9 − 4(−1)(4) = 25 d’où λ1 = −3+5
−2 = 4. Ainsi pour λ = −1 et
−2
−3/2
y = 1, x = −y(2−λ)
= −1(2+1)
= −3/2. En conclusion X =
est un vecteur propre associé à λ = −1. Vérifions, si
2
2
1 1 3
−3/2
−3/2 + 3
3/2
3/2
λ = −1 on aura AX =
=
=
et λX =
d’où l’égalité.
2 2
1
−3/2.2 + 2
−1
−1
67
CHAPITRE 12. DIAGONALISATION
Définition 164.
Le nombre λ est appelé valeur propre associé au vecteur propre u. l’ensemble des valeurs propres éventuelles de
A est appelé le spectre de A et est noté Sp(A)
Remarque : Si u est un vecteur propre alors pour tout vecteur colinéaire u0 = αu on aura f (u0 ) = f (αu) = αf (u) = αλu =
λαu = λu0 . Ainsi tout vecteur colinéaire à u est aussi un vecteur propre associé à la même valeur propre λ. Pour une même
valeur propre λ, il peut exister plusieurs vecteurs propres non colinéaires.
1 3
on a au moins deux valeurs propres : λ = −1 est associée au vecteur
2 2
= −1(2−4)
= 1. Ainsi λ = 4 est une valeur
propre u = (−3/2, 1). Dans le cas λ = 4 on aura toujours pour y = 1, x = −y(2−λ)
2
2
propre associée au vecteur propre u = (1, 1). En utilisant la remarque, les vecteurs propres (mais il y en a peut être d’autres)
associés à λ = −1 sont aussi les vecteurs u = ( −3k
2 , k), k ∈ Z.
Exemple 12.1.2 En reprenant la matrice
De même les vecteurs propres (il y en a peut être d’autres) associés à λ = 4 sont aussi les vecteurs uT = (k, k), k ∈ Z.
Peut-on trouver trouver un vecteur u non colineaire à (1,1) et qui soit un vetc propre associée à lambda=-1 ou -4=>non a
preciser
12.2
Polynôme d’un endomorphisme
Une manière pour trouver les valeurs propres est donnée par le calcul du polynôme caractéristique. Avant de l’expliciter nous
allons rappeler certaines propriétés et définition sur les polynômes dans K[X].
Nous reprendrons ici, certaine notion déjà vu dans le volume sur les anneaux et en particulier les anneaux euclidiens de
polynôme à une indéterminée. Soit un polynôme P à coefficients dans K que l’on note aussi P ∈ K[X]
Exemple 12.2.1 Si K = R, P (X) = 3X 2 + 17 X 6 + X + 1 ∈ R[X], par contre P (X) =
1
X2
+2∈
/ R[X]
Définition 165.
Soit P ∈ K[X]. On dit que P est scindé dans K[X] si P est complètement factorisable dans K[X], c’est-à-dire
que P peut s’écrire P = (X − α1 )k1 (X − α2 )k2 ...(X − αn )kn où α1 , ..., αn ∈ K sont les racines de P . k1 , ..., kn ∈ N
n
X
ki = deg(P ). On appelle ki l’ordre de multiplicité de la racine αi et est notée m(αi ) ou mi .
avec
i=1


x1


Supposons que A soit diagonalisable alors on aura f (ei ) = λei ou f (u) = λu. En terme matricielle si X = uT =  ... 
xn
 
0
 
on aura AX = λX soit AX − λX = (A − λIn )X = 0. Or si O =  ...  alors si X est non nul et qu’on suppose (A − λIn )
0
inversible alors (A − λIn )−1 (A − λIn )X = (A − λIn )−1 0 c’est-à-dire X = 0 donc il y a contradiction. Ainsi si X 6= 0 alors
(A − λIn ) n’est pas inversible donc que det(A − λIn ) = 0.
a11 − λ
a12
···
a1n a21
X
a12 − λ · · ·
a2n De là det(A − λIn ) = sign(σ)aij1 ...anjn ∈ Kn [X]. y’a til une reciproque ?
=
..
..
..
..
.
.
.
.
σ∈S
n
an1
an2
· · · a2n − λ Dit autrement résoudre det(A − λIn ) = 0 revient à résoudre un polynôme dont l’inconnue est λ d’où la définition :
12.2.1
Caractéristique
Mail: [email protected]
Tous droits réservés
Page no 68 sur 96
CHAPITRE 12. DIAGONALISATION
Définition 166.
Soit A ∈ Mn (K) associée à l’endomorphisme f ∈ L(E). Le polynôme P (λ) = det(A − λIn ) est appelé
polynôme caractéristique. Ce polynôme est aussi noté χA (λ) ou Cf (λ)
Dans cet ouvrage on note ce polynôme formel P (X) = det(A − XIn ). Ainsi λ est valeur propre de A ssi det(A − λIn ) =
P (λ) = 0.
Proposition 167.
Une matrice et sa transposée ont le meme poly cara=>st elle semblable auquel cas enlever cette prop
Preuve :algebre(2).pdf 49/99
Proposition 168.
Le polynôme caractéristique de A vérifie
χA (λ) =
n
X
(−1)n−k σ(k)X n−k = (−1)n λn + (−1)n−1 tr(A)λn−1 +
|
{z
}
| {z }
k=0
dernier terme
avant dernier terme
...
|{z}
quelque chose
+ det(A)
| {z }
1er terme
Preuve :

1−λ
1−λ
1
2
1
2
1
2
−1 − λ
0
6
−1
−λ =
Exemple 12.2.2 Soit A =  6 −1 0 . On a alors det(A − λI3 ) = 6
−1
−1 −2 −1
−2
−1 − λ −1
−2
(1 − λ)(−1 − λ)(−1 − λ) + 0 + 6(−2) − (−1)(−1 − λ).1 − 0 − (−1 − λ).12 = (1 − λ)(−1 − λ)2 − 12 + (−1 − λ) − 12(−1 −
λ) = (1 − λ)(−1 − λ)2 − 1 − λ + 12λ = (1 − λ)(1 + 2λ + λ2 ) − 1 + 11λ = −λ3 − λ2 + 12λ = −λ(λ2 + λ − 12) d’où
det(A − λI3 ) = 0 ⇔ λ = 0 ou λ2 + λ + 12 = 0.

= 3 et λ2 = −1−7
= −4 ainsi det(A − λI3 ) = 0 ⇔ λ1 = 0 ou λ2 = −4 ou λ3 = 3
2


1−λ
1 2 0
2
0 1 − λ
3−λ
0 0
Exemple 12.2.3 Considérons la matrice A =  0 3 0 . On a alors det(A−λI3 ) = 0
2
2 −4 2
−4
2−λ 2
(1 − λ)(3 − λ)(2 − λ) d’où det(A − λI3 ) = 0 ⇔ λ1 = 3 ou λ2 = 2 ou λ3 = 1
∆ = 12 − 4(1)(−12) = 49 soit λ1 =
−1+7
2
2
3−λ
−4
Proposition 169.
Toute matrice à coefficients complexes admet au moins une valeur propre complexe.
Preuve :
Proposition 170.
Le nombre de valeurs propres d’une matrice carrée est au plus égal à son ordre.
Preuve :
Mail: [email protected]
Tous droits réservés
Page no 69 sur 96
CHAPITRE 12. DIAGONALISATION
Proposition 171.
Le polynôme caractéristique d’une matrice triangulaire par bloc M =
A
0
B
C
avec A ∈ Mp (K) et C ∈
Mq (K) et B ? alors χM = χA χC
Preuve :
12.2.2
Invariant de similitude
Nous allons voir un nouvel invariant de similitude c’est-à-dire que si A et B sont semblables alors f (A) = f (B)
Proposition 172.
Soit
f : Mn (K) −→ Kn [X]
alors deux matrices semblables ont le même polynôme caractéristique.
A 7−→ χA (X)
Preuve :algebre(2).pdf 49/99
12.2.3
Annulateur
Définition 173.
Soient P ∈ K[X] et f ∈ L(E) avec P (X) =
n
X
ai X i . On définit P (f ) =
i=1
n
X
ai f i = an f n + an−1 f n−1 + ... +
i=1
a1 f + a0 IdE où f n = f o...of . Un polynôme P est dit annulateur de f si P (f ) ≡ 0 (qu’on écrit P (f ) = 0)
| {z }
n f ois
Proposition 174.
Soit f ∈ L(E). f alors P (f ) est un endomorphisme de L(E)? dans L(E)?
Preuve :
Proposition 175.
Soient f ∈ L(E) et dim(E) = n
1. Si P ∈ K[X] et Q ∈ K[X] des polynômes quelconques alors P (f ) et Q(f ) commutent
2. Il existe des polynômes non nuls P tel que P (f ) = 0
Preuve :algebre licence 137/144
Exemple 12.2.4 Soit f un endomorphisme nilpotent d’indice p. Posons Q(X) = X p alors Q(f ) = f p = 0 donc Q est un
polynôme annulateur de f
Proposition 176.
Les polynômes annulateurs de f ∈ L(E) forment un idéal principal dans l’anneau des polynômes.
Mail: [email protected]
Tous droits réservés
Page no 70 sur 96
CHAPITRE 12. DIAGONALISATION
Preuve :
12.2.4
Minimal
Définition 177.
Soit dim(E) = n et f ∈ L(E). Le polynôme minimal de l’endomorphisme f est le polynôme de plus petit degré
qui annule f . On le note Qf .
Nous verrons plus loin que le polynôme minimal est l’outil théorique central pour la réduction des endomorphismes dans le
cas où Dim(E) = n
Proposition 178.
En dimension finie, le polynôme minimal existe toujours et d◦ (Qf ) ≤ n
Preuve :
Proposition 179.
Deux matrices semblables ont le même polynôme minimal=>a mettre ne corrol(prop ;ont meme poly caract) ou
sub’invariant de similitude’
Preuve :
12.3
Sous-espace stable
Définition 180.
Soit f ∈ L(E, F ). Un sous-espace vectoriel A de E est dite stable par f si f (A) ⊂ A
12.4
Espace propre
Nous allons maintenant après avoir déterminé les valeurs propres λ rechercher pour λi donnés, les vecteurs propres associés.
Définition 181.
On appelle sous-espace propre associé à la valeur propre λi , l’ensemble contenant tous les vecteurs propres à λi .
Proposition 182.
Le sous-espace propre associé à λi est un sous-espace vectoriel de E. Il est noté Eλi et vaut Eλi = Ker(A − λi In )
Preuve :algebre lineaire(3).pdf 25/27
Soit λi donné, on cherche donc les vecteurs de E c’est-à-dire de composantes X tels que f (u) = λi u i.e AX = λi X ⇔
AX − λi X = 0 ⇔ (A − λi In )X = 0. On cherche donc {X ∈ Kn |(A − λi In )X = 0} ce qui est par définition Ker(A − λi In ).
D’après la prop ? le noyau est un sous-espace vectoriel de E d’où le résultat.
Remarque : Puisque le sous-espace vectoriel Eλi est un sous-espace vectoriel de E il nous faut trouver une base de celui-ci.
Mail: [email protected]
Tous droits réservés
Page no 71 sur 96
CHAPITRE 12. DIAGONALISATION
Proposition 183.
Les sous-espaces propres Eλi d’un endomorphisme de f sont en somme directe i.e Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλp ⊆ E ou
= avec ordre de multip licite?
Preuve :


1 2 0
Exemple 12.4.1 Soit A =  0 3 0  On a alors les valeurs propres données par les solutions de det(A − λI3 ) = 0. On
2 −4 2
a vu dans l’exercice précédent
12.2.3
que λ1 = 3, λ2 =
= 1. De
− λ1 I3 ) = {X
∈ R3 , (A
I3 )X= 0}

 2et λ3 
 là E
λ1 = Ker(A


 − λ1
1−3
2
0
x1
0
−2 2
0
x1
0
3−3
0   x2  =  0  ⇔  0
0
0   x2  =  0  ⇔
or (A − λ1 I3 )X = 0 ⇔  0
2
−4 2− 3
x3
0
2 −4 −1
x3
0



 x3 ∈ R
 x1 = x2
−2x1 + 2x2 = 0
3
x1 = x2 ⇔
x2 = −x
.
⇔
2
 2x1 − 4x2 − x3 = 0


−2x2 = x3
x3 ∈ R
−1 −1
3 −x3
Ainsi Eλ1 = {( −x
2 , 2 , x3 ), x3 ∈ R} = {x3 ( 2 , 2 , 1), x3 ∈ R}. Eλ1 est un sous-espace vectoriel de E de dimension 1 et
peut avoir pour base (avec x3 = −2) v1 (1, 1, −2)



  

 −x1 + x2 = 0
1−2
2
0
x1
0

−x2 = 0
x1 = x2 = 0
3−2
0   x2  =  0  ⇔
Pour λ2 on aura (A−λ2 I3 )X = 0 ⇔  0
⇔
2x1 − 4x2 = 0
x3 ∈ R


2
−4 2 − 2
x3
0

x3 ∈ R
Ainsi Eλ2 = {(0, 0, x3 ), x3 ∈ R} = {x3 (0, 0, 1), x3 ∈ R} c’est-à-dire de dimension 1 et a pour base par exemple v2 (0, 0, 1).




  
x1
x2 = 0
0 2 0
0


2x
=
0
2
x3 ∈ R
⇔
⇔
Pour λ3 = 1 on a  0 2 0   x2  =  0  soit
 2x1 − 4x2 + x3 = 0

2x
+
x
=
0
2
−4
1
x
0
1
3
3

 x2 = 0
−1
3
x3 ∈ R
d’où Eλ3 = {( −x
2 , 0, x3 ), x3 ∈ R} = {x3 ( 2 , 0, 1), x3 ∈ R}. Eλ3 est un e.v de dimension 1 dont une base peut

−x3
x1 = 2
être (pour x3 = −2), v3 (1, 0, 2)
Proposition 184.
Soient λ une valeur propre de A, m(λ) sa multiplicité et q(λ) la dimension du sous-espace propre associé alors
1 ≤ q(λ) = dim Eλ (A) = n − rg(A − λIn ) ≤ m(λ)
Preuve :
12.5
Existence et unicité
Mail: [email protected]
Tous droits réservés
Page no 72 sur 96
CHAPITRE 12. DIAGONALISATION
Proposition 185.
Soit A ∈ Mn (K). On a les propositions suivantes équivalentes :
1. A est diagonalisable
2. A est semblable à une matrice diagonale
3. La somme des dimensions des sous-espaces propres de A est n (
p
X
dim Eλk = n)
k=1
4. E = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλp
5. χA est scindé sur K[X] et pour toute valeur propre, la multiplicité est égale à la dimension du sous-espace
propre associé (dim Eλi = m(λi ) = mi )
6. Il existe une matrice P ∈ GLn (K) telle que P −1 AP = diag(λ1 , ..., λn ). P étant la matrice de changement
de base, de la base canonique à la base constituée de vecteur propre de A, le j-ième étant relatif à la valeur
propre λj .
7. Il existe un polynôme annulateur de f scindé à racine simple
p
Y
8. Le polynôme
(X − λi ) où λi ∈ Sp(A) est un polynôme annulateur de f
i=1
9. Le polynôme annulateur de degré minimal est scindé à racine simple
Preuve :
Proposition 186.
Si A est diagonalisable alors D est unique.
Preuve :
Exemple 12.5.1 Nous allons donner ici un exemple pour chaque items.
1.
2.
3.
4.
5. Soit A =
2
1
−1
2
2−λ
On a det(A − λI2 ) = 0 ⇔ 1
−1 = 0 ⇔ (2 − λ)2 +1 = 0. Ainsi le polynôme caracté2−λ | {z }
≥0
ristique ne peut être scindé sur R[X] donc cette matrice n’est pas diagonalisable dans K = R.
cos θ − λ − sin θ cos θ − sin θ
= 0 ⇔ (cos θ − λ)2 + sin2 θ =
De même si M =
on a alors det(M −λI2 ) = 0 ⇔ sin θ
cos θ
sin θ
cos θ − λ |
{z
} |{z}
≥0
≥0
2
0. Si l’on considère θ 6= kπ on aura alors (cos θ − λ)2 + |sin
{z θ} = 0 et donc ne possède pas de racine sur R. Cette matrice
|
{z
}
≥0
>0
n’est pas diagonalisable dans K = R.
6.
7. Soit f un endomorphisme tel que f 3 − 7f + 6Id = 0 alors P (X) = X 3 − 7X + 6 est un polynôme annulateur de f . De
plus X 3 − 7X + 6 = (X − 2)(X − 1)(X + 3) c’est-à-dire est scindé sur K[X] à racine simple. d’après la proposition f
est diagonalisable et l’ensemble des valeurs propres est une partie de {−3, 1, 2}.

8
0
Si maintenant M =  −3 −1
−6 0
Mail: [email protected]

9
−3  alors M annule le polynôme (X − 2)(X + 1). En effet (M − 2In )(M + Id) =
−7
Tous droits réservés
Page no 73 sur 96
CHAPITRE 12. DIAGONALISATION

6
0
 −3 −3
−6 0
dans K[X] à

9
9
−3   −0
−9
−6
racine simple



0 9
0 0 0
0 −3  =  0 0 0  Dit autrement il existe un polynôme annulateur de M , scindé
0 −6
0 0 0
donc M est diagonalisable.
8.
9.
Proposition 187.
(Condition suffisante). Si A admet n valeurs propres distinctes alors A est diagonalisable.
Preuve :
Proposition 188.
Si A est diagonalisable alors :
1. Sp(A) = {λ1 , ..., λn }
n
X
2. tr(A) =
λi
i=1
n
Y
3. det(A) =
λi
i=1
Preuve :
12.6
Base de diagonalisation
Définition 189.
Un endomorphisme f ∈ L(E) est dit diagonalisable lorsqu’il existe une base de E dans laquelle la matrice de f
est diagonalisable. Une telle base est appelée base de diagonalisation de f . Dit autrement A est diagonalisable
ssi E possède une base formée de vecteurs propres.
Proposition 190.
Si f est diagonalisable la base de diagonalisation de f est la mise bout à bout des bases de Eλi .
Preuve :
12.7
12.7.1
Application
Diagonalisation
On cherche une matrice diagonale D qui soit semblable à A c’est-à-dire D = P −1 AP
Dans la pratique :
-Calcul du polynôme caractéristique et des valeurs λ
-Éventuellement condition d’existence
-Calcul des espaces propres Eλi et de leurs bases
-Éventuellement condition d’existence
-Construction de la base de diagonalisation
Mail: [email protected]
Tous droits réservés
Page no 74 sur 96
CHAPITRE 12. DIAGONALISATION
-Construction de P et P −1
-Calcul de D = P −1 AP
12.7.2
Puissance d’une matrice
Le but sera de pouvoir calculer facilement An .
Proposition 191.
Soit A ∈ Mn (K) une matrice diagonalisable dans K telle que D = P −1 AP ou A = P DP −1 (où P est inversible
et D est diagonale) alors ∀n ∈ N, An = P Dn P −1
Preuve : On va utiliser une démonstration par récurrence. Soit ∀n ∈ N, Pn la proposition "An = P Dn P −1 "
On a pour n = 0, A0 = I et P D0 P −1 = P IP −1 = P P −1 = I donc P0 est vraie.
On suppose Pn vraie pour n donné. Démontrons que Pn+1 vraie i.e An+1 = P Dn+1 P −1 .
On a An = P Dn P −1 soit An+1 = P Dn P −1 A or A = P DP −1 d’où An+1 = P Dn (P −1 P )DP −1 = P Dn DP −1 = P Dn+1 P −1 .
Ainsi Pn+1 vraie. On en déduit donc le résultat.


1 2 0
Exemple 12.7.1 On cherche An avec A =  0 3 0  On a vu que λ1 = 3, λ2 = 2, λ3 = 1 et Eλ1 =< v1 (1, 1, −2) >
2 −4 2
, Eλ2 =< v2 (0, 0, 1) > et Eλ3 =< v3 (1, 0, −2) >




0 1 0
1 0 1
On aura donc P =  1 0 0  de sorte que P −1 =  2 0 1  Ainsi dans la base de R3 , B = {v1 , v2 , v3 } l’en1 −1 
0
−2 1 −2 

 

1 2 0
1 0 1
3 0 0
0 1 0
domorphisme aura pour matrice D =  2 0 1   0 3 0   1 0 0  =  0 2 0  On remarque que
2 −1 2
−2 1 −2
0 0 1
1 −1 0
les valeurs propres λi apparaissentsur la diagonale
de
la
matrice
dans
le
même
ordre
que
nous
avons placé les colonnes

3n 0
0
propres pour former P d’où Dn =  0 2n 0 
0
0 1n

 n

 
1 0 1
3
0
0
0 1 0
1
−1 + 3n
n
n
n −1







1 0 0
0 2
0
2 0 1
0
3n
Ainsi d’après la proposition A = P D P =
=
n
n+1
−2 1 −2
0
0 1
1 −1 0
−2 + 2
2 − 2.3n
Mail: [email protected]
Tous droits réservés
Page no 75 sur 96
0
0
2n
Chapitre
13
Décomposition de Dunford
Proposition 192.
Soit f ∈ L(E) alors il existe un couple (g, h) ∈ L2 (E) tel que :
– g est diagonalisable et h nilpotent
– g et h commutent
– f =g+h
Preuve :
76
Chapitre
14
Trigonalisation
On pose f ∈ L(E) et A = M atBB (f ) de taille (n, n)
14.1
Définition
Définition 193.
Un endomorphisme est trigonalisable ssi il existe une base (e0i ) dans laquelle la matrice de f est triangulaire.
Théorème 194.
(Caley-Hamilton) Soit K = C et f ∈ L(E) de matrice A et soit son polynôme caractéristique χA (X) alors
χ(A) = 0
Preuve :trigonalisation des endo.pdf 2/11
14.2
Existence
Proposition 195.
Un endomorphsime est trigonalisable ssi son polynôme caractéristique est scindé sur K[X]
Preuve :
Remarque : Si K = C alors χA (X) est scindé donc trigonalisable. Dit autrement toutes matrice sur K = C est trigonalisable.
14.3
Sous-espace caractéristique
Définition 196.
On appelle sous-espace caractéristique, sous-espace spectral ou encore espace propre généralisé de f associé à la
valeur propre λi le sous-espace vectoriel Nλi (f ) = Ker(f − λi Id)mi = {X ∈ E, (f − λi Id)mi X = 0F où mi est
l’ordre de multiplicité de λi dans le polynôme caractéristique.
14.4
Vecteur propre généralisé
Définition 197.
v est un vecteur propre généralisé de f associé à la valeur propre λi s’il existe k ≥ 1 tel que v ∈ Ker(f −
λi Id)k \{0}. Dit autrement v est un vecteur propre généralisé de f associé à λi ou nul ssi v ∈ Nλi (f )
77
Chapitre
15
Décomposition de Cholesky
Proposition 198.
Soit A ∈ Mn (R) avec n ≥ 1. On suppose A symétrique définie positive (mettre def dans matrice remarquable
ds def matrice) alors il existe une unique matrice L ∈ Mn (R) telle que
– L est triangulaire inférieure (lij = 0 si j > i)
– lij > 0, ∀1 ≤ i ≤ n
– A = LLT
Preuve :
78
Chapitre
16
Réduction de Jordan
: (E, B) → (E, B).A défaut de pouvoir diagonaliser une matrice nous pourrons chercher une
1
0 ... 0

..
..
.
. ... 0 


..
..
c’est-à-dire une matrice triangulaire supérieure dont les termes au-dessus
.
. 0 


..
. 1 
0 ... ... ... λ
de la diagonale vaut 1 et les autres étant nuls. Cette réduction est appliquée en particulier en analyse pour la résolution
d’équation différentielle ou pour déterminer le terme général de suite récurrente. On parle également de ’Jordanisation’ des
endomorphismes. Trouver une réduction de Jordan de la matrice A est donc chercher une matrice de la forme ci-dessus
semblable à A c’est-à-dire J = P −1 AP
Soit A une matrice associée
 àf
λ

 0


forme simple de la forme  ...

 .
 ..
16.1
Bloc de Jordan
Définition 199.

λ




On appelle bloc de Jordan d’ordre n une matrice de la forme Jλ = Jλ = Jn = Jn,λ 



0
..
.
..
.
0
1
..
.
...
0
..
.
...
...
..
..
.
.
..
.
... ...
0


0 


0 


1 
λ
Dit autrement :
– Les coefficients de la diagonale sont égaux à λ
– Les coefficients en (i, i + 1) sont tous égaux à 1 (1 ≤ i ≤ n − 1)
– Tous les autres coefficients sont nuls
Dans le cas où λ = 0 on parlera de bloc de Jordan nilpotent
Exemple 16.1.1 J1,λ = (λ) ou J2,λ =
16.2
λ
0
1
λ

et J3,λ
λ
= 0
0
1
λ
0

0
1 
λ
Matrice de Jordan
Définition 200.
Une matrice de Jordan est une matrice carrée partagée en sous-matrices telles que :
– Les blocs diagonaux sont des blocs de Jordan (pas forcement de même paramètre λ)
– Les blocs extérieurs à la diagonale sont des matrices nulles.

λ
Exemple 16.2.1 Voici des matrices de Jordan :  0
0


λ 1
0 0
 0 λ
0 0 

.
 0 0
µ 1 
0 0
0 µ
0
λ
0
79

λ
0
 0
1  ou 
 0
λ
0

1
λ
0
0
0
0
λ
0


0
λ
0 
 voire  0
1 
0
λ

0 0
µ 1  ou
0 µ

Voici des

λ
 0

 0

 0
0
1
λ
0
0
0
λ
 0
exemples de matrices de Jordan avec 3 blocs diagonaux : 
 0
0

0 0
0
0 0
0 

µ 1
0 

0 µ
0 
0
γ
CHAPITRE 16.

0
0 0
λ
0 0 
 ou
0
λ 1 
0
0 λ
RÉDUCTION DE JORDAN


λ 1
0
0
 0 λ
0
0 

 voire
 0 0
µ
0 
0 0
0
λ
Remarque : Une matrice de Jordan est dons triangulaire supérieure. Un bloc de Jordan est une matrice de Jordan particulière.
Une matrice diagonale est aussi une matrice de Jordan, avec n blocs de Jordan de taille 1 × 1
16.3
Existence et unicité
Théorème 201.
(Jordan) Soit f ∈ L(E) dont le polynôme caractéristique est scindé sur K[X], alors il existe une base de E dans
laquelle la matrice de f est de Jordan, c’est-à-dire diagonalisable par bloc de Jordan.
Preuve :
Proposition 202.
Soit f ∈ L(E) nilpotent d’indice k dans un e.v E où dim E = n alors il existe des entiers n1 , ..., nk tels que
n1 + ... + nk = n et une base de E dans laquelle la matrice de f est la matrice diagonale par bloc de Jordan
dont les blocs sont Jn1 , ..., Jnk .
Preuve :
16.4
Espace caractéristique
16.5
Base de Jordan
16.6
Application
16.6.1
Proposition
Nous mettrons ici des propriétés qui se montrent grâce au théorème de Jordan et seraient difficiles à démontrer sans celui-ci.
Proposition 203.
Toute matrice de Mn (C) est semblable à sa transposée.
Preuve :
Proposition 204.
Toute matrice de Mn (C) est semblable à une matrice symétrique.
Preuve :
Mail: [email protected]
Tous droits réservés
Page no 80 sur 96
CHAPITRE 16. RÉDUCTION DE JORDAN
Proposition 205.
Soit A ∈ Mn (C). On pose com(A) = {B ∈ Mn (C), AB = BA}. Posons Com(Com(A)) = {C ∈ Mn (C), BC =
CB, ∀B ∈ Com(A)} alors Com(Com(A)) est l’ensemble des polynômes en A.
Preuve :
16.6.2
Réduction de Jordan
Dans la pratique :
–
Mail: [email protected]
Tous droits réservés
Page no 81 sur 96
Chapitre
17
Bilan : existence de matrice inversible
=>toutes ces propositions doivent apparaitre qq part dans ce volume avt ces pages
Nous regroupons ici toutes les propositions susceptibles de démontrer qu’une matrice est inversible. Un lien sera donné pour
chacune d’elles afin d’en retrouver la démonstration.
Soit A ∈ Mn (K), les propositions suivantes sont équivalentes :
– A est inversible
– A est équivalent à la matrice unité In
– A possède n pivots
– Le déterminant de A est non nul (det(A) 6= 0)
– 0 n’est pas valeur propre de A
– Le rang de A vaut n
– null(A) = 0 algebre3.pdf 98/160
– Le système homogène AX = 0 a pour unique solution X = 0
– ∀b ∈ Mn1 (K) le système linéaire AX = b a au plus une solution
– ∀b ∈ Mn1 (K) le système linéaire AX = b a exactement une solution
– Les colonnes de A considérées comme des vecteurs de Kn sont linéairement indépendants
– Les colonnes de A considérées comme des vecteurs de Kn engendrent Kn
– Les colonnes de A considérées comme des vecteurs de Kn est une base de Kn
– L’endomorphisme canoniquement associé à A est injectif
– L’endomorphisme canoniquement associé à A est surjectif
– L’endomorphisme canoniquement associé à A est bijectif
– La matrice A est inversible à gauche : ∃B ∈ Mn (K) telle que BA = In
– La matrice A est inversible à droite : ∃B ∈ Mn (K) telle que AB = In
– La transposée AT de A est inversible
– Il existe un polynôme annulateur de A dont 0 n’est pas racine
– 0 n’est pas racine du polynôme minimal de A
– f associée à A est un isomorphisme de E (automorphisme de E)
82
Chapitre
18
Bilan : matrices remarquables
Nous allons dans cette partie faire le bilan sur certaines matrices remarquables, à savoir leur définition, l’existence d’un
inverse, du déterminant etc. Tout ce qui n’aura pas été démontré le sera et si cela est déjà fait un renvoi sera donné vers la
page de la preuve.
=>ici toutes les propriétés (det/inversion/struct alg/relation d’ordre/diag/trig/jordan...avec renvoi vers les démonstrations
si deja faite et qui st vraiment nécessaire avt cette partie sinon mettre les dem/ex ici et pas avt (sauf nécessite)
18.1
Matrice nulle
Soit E un K-e.v de dimension n de base B = {e1 , ..., en } et F un K-e.v de dimension m de base B 0 = {e01 , ..., e0m }
L’application linéaire (démonstration page 5)
O : E −→ F
est telle que :
x 7−→ 0F
f (e1 ) = 0 = 0e01 + 0e02 + 0e03 + ... + 0e0m
f (e2 ) = 0 = 0e01 + 0e02 + 0e3 + ... + 0e00m
..
.
f (en ) = 0 = 0e01 + 0e02 + 0e03 + ... + 0e0m
L’application linéaire de (E, B) dans (F, B 0 ) aura pour matrice de taille (m, n)
Définition 206.
On appelle matrice nulle une matrice ne contenant que des 0.

0K . . .
 0K . . .

On la note Mmn (K) = OL(E,F ) = OMmn (K) = O =  .
..
 ..
.
0K
18.2
...
0K
0K
..
.





0K
Matrice unité
Définition 207.
On appelle matrice unité une matrice

1 0

 0 1
On la note Mn (K) = In = 
 .
..
 ..
.
0 ...
carrée avec des 1 sur la diagonale principale et des 0 partout ailleurs.

... 0
. 
. . . .. 


..
. 0 
... 1
Remarque : On rappelle qu’une matrice unité n’est pas forcement associée à l’application linéaire identité (dans deux mêmes
bases). Voir exemple 4.2.3 page 27 et exemple 4.2.4 page 27. Le terme de matrice identité est un anglicisme dont on évitera
dans les présents volume.
18.3
Matrice colonne et ligne
83
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
Définition 208.
si m = 1 on parlera de matrice colonne et si n = 1 on parlera de matrice ligne.
18.4
Matrice canonique
Définition 209.
Soit f ∈ L(Kp , Kn ) de matrice associée A relativement aux base canoniques de Kp et Kn . f est alors dite
application linéaire canoniquement associée. On notera souvent A ←→ f . Dit autrement A peut être au moins
la matrice associée de f , mais il peut y en avoir d’autres. Lorsque l’on veut associée A à f ainsi défini on parlera
de la matrice canonique associée à f .
18.5
Matrice triangulaire supérieure et inférieure
18.5.1
Définition
Définition 210.
Une matrice A ∈ Mn (K) est dite triangulaire supérieure (resp.triangulaire inférieure) lorsque aij = 0, ∀(i, j)
pour i > j (resp. i < j). Dit autrement sous forme de matrice :

  a

0
··· ···
0
1,1
a1,1 a1,2 · · · · · · a1,n

.. 
..
 0
a2,2
a2,n 
.
a2,1 a2,2
. 
 




 ..
.
.
.

.. 
.
..
..  et  .
..
..
..
 .
.
.
. 
  .


 .
..   .
..
..

..
 ..
.
.
.   ..
.
0 
0
··· ···
0 an,n
an,1 an,2 · · · · · · an,n

4 0 0
5


0 −1 0
est une matrice triangulaire inférieure. De même que
Exemple 18.5.1 A =
1
3 −2 0
1 −3
et
sont des matrices triangulaires supérieures.
0 6

0
−2

1
. Enfin  0
0
1
−1
0

−1
−1 
−1
Définition 211.
On appelle matrice triangulaire strictement positive
A ∈ Mn (K) où aii = 0

  0
0
···
0 a1,2 · · · · · · a1,n

..
 0

0
a2,n   a2,1
.
0


 .. . .

.
.

.
.
.
..
 .
.
.
..
. 
.

 et 
 .
 
.
.
.
..
..
..
..  
 ..
 .
0 ··· ···
0
0
an,1 an,2 · · ·
18.5.2
(resp. inférieure strictement) une matrice triangulaire
···
..
..
.
.
···
0
..
.
..
.








0 
0
Déterminant
Proposition 212.
Le déterminant d’une matrice triangulaire est égal au produit a11 a22 ...ann des éléments diagonaux. Dit autrement
une matrice de taille n × n triangulaire est inversible ssi ses éléments diagonaux sont tous non nuls.
Mail: [email protected]
Tous droits réservés
Page no 84 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
Preuve : algèbre lineaire 3.pdf




Preuve : Soit une matrice triangulaire supérieure, 



est a11 a22 ...ann . La permutation correspondante est
Ainsi det(A) = a11 a22 ...ann

a1,1 a1,2 · · · · · · a1,n
0
a2,2
a2,n 

..
.. 
..
..
.
.
.
. 
 le seul produit élémentaire signé non nul
..
.. 
..
..
.
.
.
. 
0
··· ···
0 an,n
σ(1, 2, ..., n) qui contient 0 inversion donc on a une permutation paire.
Proposition 213.
Une matrice triangulaire supérieure par bloc M =
A
0
B
D
a pour déterminant det M = det Adet C
Preuve : algèbre licence.pdf 70/144

1 2 3
1 2 3 4
 5 6 7 8 
. On a alors 5 6 7
Exemple 18.5.2 On veut calculer le déterminant de la matrice suivante 
0 0 9
 0 0 9 10 
0 0 11
0 0 11 12


1 2
3 4
 5 6
7 8 

 = 1 2 9 10 = (1.6 − 5.2).(9.12 − 11.10) = 8
 0 0

11 12 5 6
9 10
0 0
11 12
1
2 3
4 6 7
8 6 7
0
6 7
8 Si nous avions eu = 1. 0 9 10 0 9 = 1.[(6.9.12) + 0 + 0 − 0 − (11.10.6) − 0] = −12
0 9 10 0
0 11 12 0 11
0
0 11 12 
18.5.3
18.6
4
8
10
12
=
Matrice inverse
Matrice diagonale
18.6.1
Définition
Définition 214.
Lorsque aij = 0 pour tout couple (i, j) tels que i 6= j on dira que la matrice est diagonale. Celle-ci s’appelle la


λ1
0


..
diagonale principale. Dit autrement une matrice diagonale est de la forme 

.
λn
Dit autrement une matrice qui est triangulaire supérieure et inférieure est diagonale.
On l’a note également diag(λ1 , ..., λn )
Remarque : Les coefficients de la diagonale peuvent être ou ne pas être nulle.
Remarque : Les matrices diagonales apparaissent dans presque tous les domaines de l’algèbre linéaire. Les calculs sur une
matrice diagonale sont très rapide mais sont également plus facile à stocker en mémoire. Nous avons vu que le procédé qui
consiste à trouver des bases de E et F telles que la matrice soit diagonale s’appelait diagonalisation.
18.6.2
Déterminant
Mail: [email protected]
Tous droits réservés
Page no 85 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
Proposition 215.
Une matrice diagonale est inversible ssi ses éléments diagonaux sont tous non nuls c’est-à-dire det A = a11 ...ann 6=
0
Preuve : Une matrice diagonale étant une matrice triangulaire la proposition ? ? ? s’applique.
18.6.3
Matrice inverse
Proposition 216.

a1
0
..

Si det(A) 6= 0 et diag(a1 , ..., an ) = 
0

a1

Preuve : AA−1 = 
0
..
.

0
an
fie que A est inversible d’inverse A−1
18.6.4
1/a1
..

a1 /a1


 = In donc par définition cela signi-
.
0
1/an
1/an
0
..
 
=
.


.
0


0


 alors A−1 = 
.
0
..
0

an
1/a1



an /an
Matrice puissance
Proposition 217.
Si D = diag(a1 , ..., an ) alors Dn = diag(an1 , ..., ann )
Preuve :
18.7
Matrice scalaire
Définition 218.
Une matrice scalaire est une matrice diagonale dont tous les coefficients diagonaux sont égaux.

2
Exemple 18.7.1 Soit A =  0
0
n’est pas une matrice scalaire.
18.8
0
2
0


0
1
0  est une matrice scalaire. La matrice B =  0
2
0
0
2
0

0
0  si elle est bien diagonale
1
Matrice transposée
Définition 219.
La transposée de la matrice A = (aij ) de taille (n, m)



a11 a12 . . . a1m
a11
 a21 a22 . . . a2m 
 a12



Si A =  .
..
..
..  alors At =  ..
 ..

 .
.
.
.
an1 an2 . . . anm
a1m
est la matrice At = (aji ) de taille (m, n)

a21 . . . an1
a22 . . . an2 

..
..
.. 
.
.
. 
a2m
...
anm
D’autres notations sont t A ou AT et les statisticiens notent souvent la transposée A0 .
Mail: [email protected]
Tous droits réservés
Page no 86 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES

Exemple 18.8.1
t
1
−2
5


1
0
=  −2  ou encore  1
5
−1
T
3
0
−5  =
3
2
1
−5
−1
2
. Enfin
−1
0
0
2
t
=
−1
0
et (4)T = 4
Proposition 220.
1. (A + B)T = AT + B T
2. (kA)T = kAT
3. (AB)T = B T AT
4. (AT )T = A
5. Si A est inversible alors AT l’est aussi et on a (AT )−1 = (A−1 )T qui sera noté A−T
Preuve :algebre lineaire 3.pdf 30/160
trace a mettre tr(AT ) = tr(A) prop 160+page 65
18.9
Matrice conjuguée
Définition 221.
Soit K = C et A ∈ Mmn (K), on appelle matrice conjuguée de A la matrice A∗ de Mnm (K) définie par ∀ 1 ≤ k ≤ n
et 1 ≤ l ≤ m ; a∗kl = alk
Remarque : Si K = R l’opération de conjugaison coïncide avec l’opération de transposition.
i 0
−i −i
∗
Exemple 18.9.1 Soit A =
alors A =
i 1
0
1
Proposition 222.
Soient α, β ∈ C et A, B ∈ Mmn (C) alors (αA + βB)∗ = αA∗ + βB ∗ . Cela signifie que l’opération de conjugaison
est anti-linéaire.
Preuve :
Proposition 223.
Soient A ∈ Mmn (C) et B ∈ Mnp (C) alors (AB)∗ = B ∗ A∗ . Si de plus A est inversible alors A∗ aussi et l’on aura
(A∗ )−1 = (A−1 )∗
Preuve :
Proposition 224.
tr A∗ = tr A
Preuve :
18.10
Matrice nilpotente
Mail: [email protected]
Tous droits réservés
Page no 87 sur 96
0
2
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
Définition 225.
On dit que A ∈ Mn (K) est une matrice nilpotente s’il existe p ∈ N∗ tel que Ap = 0. Le plus petit p est appelé
indice de nilpotence de A.

0
 ..
Exemple 18.10.1 Soit On =  .
0
...
...

0
..  est nilpotente d’ordre ? ( a verifier p>0)
. 
0
Proposition 226.
Une matrice A est nilpotente ssi l’endomorphisme f ∈ End(E) (avec dim E = n) de matrice A par rapport à la
base B est nilpotent.
Preuve :
18.11
Matrice positive et strictement positive
Définition 227.
Une matrice A ∈ Mmn (R) est dite positive lorsque tous ses éléments scalaires sont des réels positifs. On écrira
alors A ≥ 0. Elle sera dite strictement positive si aij > 0 et on écrira A > 0
Exemple 18.11.1 Soit A =
1
2
2
1
0
2
est une matrice positive. A =
−1
0
2
1
ne l’est pas et enfin A =
1
3
2
4
>0
Proposition 228.
Soient A, B ∈ Mmn (R) alors A ≤ B ⇔ B − A ≥ 0 est une relation d’ordre partiel compatible avec l’addition et
la multiplication (à gauche ou à droite) par une matrice positive.
Preuve :
18.12
Matrice définie positive
Définition 229.
Une matrice définie positive est une matrice positive inversible.
18.13
Matrice de rotation
En dimension 2 :
Proposition 230.
La matrice de rotation
d’un repère orthonormé dans le sens anti de centre O etd’angle θ dans le plan munit
cos θ − sin θ
cos θ
sin θ
horaire est : R(θ) =
ou dans le sens horaire
sin θ
cos θ
− sin θ cos θ
Mail: [email protected]
Tous droits réservés
Page no 88 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
Preuve : Nous avons vu que l’application linéaire rotation de centre O et d’angle θ était
r : R2 −→ R2
(x, y) 7−→ (x cos θ − y sin θ, x sin θ + y cos θ)
(proposition 54 page no 20)
Si l’on prend les bases orthonormées canoniques, B = B 0 = {e1 (1, 0); e2 (0, 2)} on aura :
f (e1 ) = f (1, 0) = (cos θ, sin θ) = cos θe1 + sin θe2
f (e2 ) = f (0, 1) = (− sin θ, cos θ) = − sin θe1 + cos θe2 d’où la matrice de rotation.
0 −1
Exemple 18.13.1 Dans le cas où θ = π2 on aura R( π2 ) =
et ainsi si on cherche l’image du vecteur composante
1 0
0 −1
1
0
(1, 0) après rotation on obtient
=
1 0
0
1
−1 0
−1 0
1
0
De même si θ = π alors R(π) =
soit
=
0 −1
0 −1
0
−1
En dimension 3 :
Proposition 231.
La matrice de rotation autourde l’axe (Ox) et d’angle
θ dans l’espace munit d’un

1
0
0
sens anti-horaire est Rx (θ) =  0 cos θ − sin θ 
0 sin θ
cos θ

cos θ 0
0
1
La matrice de rotation autour de l’axe (Oy) et d’angle θ est Ry (θ) = 
− sin θ 0

cos θ
Enfin la matrice de rotation autour de l’axe (Oz) et d’angle θ est Ry (θ) =  sin θ
0
repère orthonormé dans le

− sin θ

0
cos θ

sin θ 0
cos θ 0 
0
1
rx : R3 −→ R3
. Si l’on se place
(x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x, y cos θ − z sin θ, y sin θ + z cos θ)
0
dans la base canonique orthonormée B = B = {e1 (1, 0, 0); e2 (0, 1, 0); e3 (0, 0, 1)} on a :
Preuve : pour Rx nous avons démontré que
f (e1 ) = f (1, 0, 0) = (1, 0, 0) = 1e1 + 0e2 + 0e3
f (e2 ) = f (0, 1, 0) = (0, cos θ, sin θ) = 0e1 + cos θe2 + sin θe3
f (e3 ) = f (0, 0, 1) = (0, − sin θ, cos θ) = 0e1 − sin θe2 + cos θe3 d’où le résultat.
Pour Ry nous avons démontré que
ry : R3 −→ R3
soit dans les bases cano(x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x cos θ + z sin θ, y, −x sin θ + z cos θ)
niques :
f (e1 ) = f (1, 0, 0) = (cos θ, 0, − sin θ) = cos1 +0e2 − sin θe3
f (e2 ) = f (0, 1, 0) = (0, 1, 0) = 0e1 + 1e2 + 0e3
f (e3 ) = f (0, 0, 1) = (sin θ, 0, cos θ) = sin θe1 + 0e2 + cos θe3 d’où le résultat.
Enfin pour Rz nous avons démontré que
rz : R3 −→ R3
soit dans les bases
(x, y, z) 7−→ (x0 , y 0 , z 0 ) = (x cos θ − y sin θ, x sin θ + y cos θ, z)
canoniques :
f (e1 ) = f (1, 0, 0) = (cos θ, − sin θ, 0) = cos1 + − sin θe2 + 0e3
f (e2 ) = f (0, 1, 0) = (− sin θ, cos θ, 0) = − sin1 + cos θe2 + 0e3
f (e3 ) = f (0, 0, 1) = (0, 0, 1) = 01 + 0e2 + 1e3 d’où le résultat.
Proposition 232.
L’ensemble des matrices de rotation de taille fixée (R, ?, ?) ou (Rx , ?, ?),(Ry , ?, ?) ou (Rz , ?, ?) est un groupe
appelé groupe des rotations ou groupe spécial orthogonal. C’est un sous-groupe du groupe orthogonal.
Mail: [email protected]
Tous droits réservés
Page no 89 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
Preuve :
=>faut-il mettre une subsection matrice rotation dans matrice remarquable+prop precendente ?
18.13.1
Déterminant
En dimension 2 :
Proposition 233.
det(R(θ)) = 1
Preuve :
18.14
Matrice d’un projecteur
Proposition 234.
Toute matrice d’un projecteur est diagonalisable===>la matrice d’une projection n’est elle pas déjà diagonale ?
Preuve :
Remarque : Les valeurs propres des projecteurs sont 0 et 1. Le sous-espace propre associé à la valeur propre 0 étant le noyau
du projecteur (la direction parallèlement à laquelle on projette). Le sous-espace propre associé à la valeur propre 1 est l’image
du projecteur (le sous-espace vectoriel sur lequel on projette).
18.15
Matrice d’une symétrie
Proposition 235.
Toute matrice d’une symétrie est diagonalisable===>la matrice d’une symétrie n’est elle pas déjà diagonale ?
Preuve :
Remarque : Les valeurs propres sont −1 et 1. Le sous-espace propre associé à la valeur propre −1 étant la direction parallèlement à laquelle on effectue la symétrie. Le sous-espace propre associé à la valeur propre 1 est le sous-espace vectoriel par
rapport auquel s’effectue la symétrie.
18.16
Matrice symétrique et antisymétrique
Les matrices symétriques et antisymétriques seront vues en algèbre bilinéaire avec les formes bilinéaires symétriques et
les formes bilinéaires antisymétriques. En effet nous verrons qu’une forme bilinéaire symétrique ou antisymétrique peut se
représenter pour une base donnée par une matrice symétrique ou antisymétrique.
Définition 236.
On dit que A est symétrique si A =t A ou encore aij = aji . On dit que A est antisymétrique si A = −t A c’est-àdire aij = −aji . On note l’ensemble des matrices symétriques Sn (K) et l’ensemble des matrices antisymétriques
An (K)

−1
Exemple 18.16.1 Les matrices A =  0
5
Mail: [email protected]
0
2
−1

5
0
−1  ,
2
0
2
4
,In et Onn sont symétriques.
Tous droits réservés
Page no 90 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES


0 4 2
0 −1
0 0
Exemple 18.16.2 Les matrices A =
,
et  −4 0 −5  sont antisymétriques. Si i = j alors on
1 0
0 0
−2 5 0
doit avoir aii = −aii donc aii = 0. Ainsi les éléments diagonaux d’une matrice antisymétrique sont toujours nuls.
Proposition 237.
Pour une matrice B ∈ Mmn (K), les matrices BB T et B T B sont symétriques.
Preuve : algebre lineaire 3.pdf 32/160
Proposition 238.
Toute matrice symétrique est diagonalisable.
Preuve :
Proposition 239.
Toute matrice A de taille n × n est la somme directe d’une matrice symétrique B =
T
. Dit autrement Mn (K) = Sn (K) ⊕ An (K)
antisymétrique C = A−A
2
A+AT
2
et d’une matrice
Preuve : algebre lineaire 3.pdf 32/160
Proposition 240.
dim Sn (K) =
n(n+1)
2
et dim An (K) =
n(n−1)
2
Preuve : algebre lineaire 3.pdf 32/160
2
8
10
−3
T
1
2[
2
8
10
−3
2
8
10 −3
1
2
4
18
+
Exemple 18.16.3 Soit A =
alors B = (A + A )/2 =
] =
2 9
.
9 −3
2 10
2
8
0 2
0 1
2 9
0 1
1
1
Enfin C = 2 [
−
]= 2
=
d’où A =
+
8 −3
10 −3
−2 0
−1 0
9 −3
−1 0
|
{z
} |
{z
}
symetrique
18.17
18
−6
=
antisymetrique
Matrice de permutation
Définition 241.
Une matrice de permutation est une matrice carréz qui vérifie les conditions suivantes :
-Les coefficients sont 0 ou 1
-Il y a un et un seul 1 par ligne
-Il y a un et un seul 1 par colonne.

1
 0
Exemple 18.17.1 
 0
0
0
0
0
1
Mail: [email protected]
0
1
0
0

0
0 
 est une matrice de permutation.
1 
0
Tous droits réservés
Page no 91 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
18.18
Matrice de dilatation
Définition 242.
Dans une base de E et pour λ ∈ R on appelle matrice de dilatation de rapport λ une matrice du type
diag(1, 1..., λ, 1, ..., 1) = In + (λ − 1)Eii
18.19
Matrice de transvection
Définition 243.


Une matrice de transvection est du type 

1
1
O
18.20

O
λ
.

 = In + λEij

1
Matrice orthogonale
Définition 244.
Une matrice A ∈ Mn (R) est dite orthogonale si elle vérifie At A = In où At est la matrice transposée de A et In
la matrice identité de taille n.
Proposition 245.
A est orthogonale ssi A est inversible et A−1 = At .
Preuve :
Proposition 246.
A est orthogonale ssi tous ses vecteurs colonnes sont orthogonaux entre eux et de norme 1.
Preuve :
18.21
Matrice de Houscholder
Définition 247.
T
xx
Soit x ∈ Rn , la matrice carrée de Houscholder associée à x est la matrice définie par Hx = In − 2 ||x||
2 où In est
la matrice identité de taille n.
Proposition 248.
Hx est symétrique et orthogonale.
Preuve :
18.22
Matrice de Hadamard
Mail: [email protected]
Tous droits réservés
Page no 92 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
Définition 249.
Une matrice de Hadamard est une matrice carrée dont les coefficients sont tous 1 ou −1 et dont les vecteurs
lignes sont tous orthogonaux entre eux.
Ces matrices portent le nom en hommage au mathématicien français Jacques Hadamard mais les premiers exemples sont dus
à James Joseph Sylvester. Ces matrices de Hadamard sont utilisées dans le codes correcteurs, les plans d’analyse sensoriel
ou les plans d’expériences factoriels.


1 1
1
1
 1 −1 1 −1 
1 1

et H4 
Exemple 18.22.1 Les matrices suivantes sont de Hadamard : H1 = (1), H2 =
 1 1 −1 −1 
1 −1
1 −1 −1 1
Proposition 250.
(Existence : conjecture de Hadamard) L’ordre d’une matrice de Hadamard si elle existe est nécessairement 1, 2
ou un multiple de 4.
Preuve :
Proposition 251.
(Existence : construction de Sylver) Il existe des matrices de Hadamard d’ordre 2k , ∀k ∈ N
Preuve :
18.23
Matrice de Hankel
Définition 252.
En algèbre linéaire, une matrice de Hankel, du nom du mathématicien Herman Hankel est une matrice carrée
dont les valeurs sont constantes le long des diagonales ascendantes, c’est-à-dire ai,j = ai−1,j+1 ∈ K


α1 α2 α3 α4 · · ·
 α2 α3 α4 α5 · · · 


 α3 α4 α5 α6 · · · 


..
..
..
..
..
.
.
.
.
.



Exemple 18.23.1 La matrice 


18.24
a b
b c
c d
d e
e f
c
d
e
f
g
d
e
f
g
h
e
f
g
h
i



 est une matrice de Hankel.


Matrice de Toeplitz
Mail: [email protected]
Tous droits réservés
Page no 93 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
Définition 253.
Une matrice de Toeplitz ou matrice à diagonales constantes est une matrice dont les coefficients sur les
diagonales descendantes sont les mêmes.


a0
a−1 a−2 . . . . . . a−n+1
..


.
 a1

a0 a−1 . .
.




.
.
.
.
.
.
.
.
 a2

.
.
.
a1
.

 On a avec ces notations de scalaires aij = ai−j


.
..
..
..
..


.
.
.
a
a
−1
−2




.
.
..
.. a

a0
a−1 
1
am−1 . . . . . . a2 a1
a0
Ces matrices rencontrées dans des systèmes linéaires dont la matrice est de Toeplitz peuvent être calculées très rapidement.
Ces matrices ont une certaine parenté avec les matrices de Hankel, ce sont des matrices de Hankel "renversées".


a b c d e
 f a b c d 



Exemple 18.24.1 La matrice suivante est Toeplitz 
 g f a b c 
 h g f a b 
j h g f a
18.25
Matrice circulante
Définition 254.
On appelle matrice circulante droit associée au n-uplet (x1 , .., xn ) la matrice


x1
x2 x3 · · ·
xn
 xn
x1 x2 · · · xn−1 


 xn−1 xn x1 · · · xn−2 
(aij ) = 

 ..
..
..
..
.. 
 .
.
.
.
. 
x2
18.26
x3
x4
···
x1
Matrice anticirculante
Les matrices anticirculantes sont des cas particulier de matrices de Hankel ou de Toeplitz. Il existe donc plusieurs définitions.
Définition 255.
Une matrice anticirculante standart de taille n à coefficients dans K = C est de la forme d’Hankel :


c0
c1
c2
...
. . . cn−1
 c1
...
...
cn−2 cn−1
c0 


 c2
.
.
.
c
c
c
c1 
n−2
n−1
0
C=
 et où la somme en ligne comme en colonne demeure constante.
 ..
..
..
..
..
.. 
 .
.
.
.
.
. 
cn−1 c0
c1
c2
...
cn−2
Mail: [email protected]
Tous droits réservés
Page no 94 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
Définition 256.
On appelle matrice anticirculante de Hankel la matrice de la forme :


c0
c1
c2
...
...
0
 c1
...
...
cn−2
0
−cn−2 



 c2
.
.
.
c
0
−c
n−2
n−2 −cn−3 

C= .
. On parle aussi de g-circulant ou H-skew-circulant.
.
.
.
.
.
..
..
..
..
..
 ..



 ...
...
...
...
...
−c1 
0 −cn−2 −cn−3 . . .
−c1
−c0
Proposition 257.
Toute matrice de Hankel est la somme d’une matrice circulante et d’une matrice anticirculante.
Preuve :
Définition 258.
On appelle matrice anticirculante de Toeplitz, les matrices de la forme :


c0
−c1 −c2 . . . −cn−1

 cn−1
c0
−c1 . . . −cn−2



 cn−2 cn−1 c0 . . . −cn−3
C=
. On parle aussi de matrice circulante gauche.

 ..
..
..
..
..

 .
.
.
.
.
c1
c2
c3
...
c0
18.27
Matrice de Vandermonde
18.27.1
Définition
Définition 259.
En algèbre linéaire, une matrice de Vandermonde est une matrice avec une progression géométrique dans chaque
ligne. Elle tient son nom du mathématicien français Alexandre-Théophile Vandermonde.


1 a1 a1 2 . . . a1 n−1
 1 a2 a2 2 . . . a2 n−1 


2

. . . a3 n−1 
V = V (a1 , ..., an ) =  1 a3 a3
.
 ..

..
..
..
 .

.
.
.
1
am
am 2
...
am n−1
Remarque : Certains ouvrages utilisent la transposée de la matrice ci-dessus.
18.27.2
Déterminant
Mail: [email protected]
Tous droits réservés
Page no 95 sur 96
CHAPITRE 18. BILAN : MATRICES REMARQUABLES
Proposition 260.
Soient a1 , ..., an ∈ K. Le
1
1
det(V (a1 , ..., an )) = 1
..
.
1
déterminant de Vandermonde est le suivant :
a1 a1 2 . . . a1 n−1 a2 a2 2 . . . a2 n−1 Y
a3 a3 2 . . . a3 n−1 =
(aj − ai )
..
..
..
1≤i<j≤n
.
.
.
am am 2 . . . am n−1 Preuve : algebre licence .pdf 78/144
1
1 4
. Calculons le déterminant par la formule de Vandermonde. Exemple 18.27.1 Soit la matrice V (4, 3) =
1
1 3
Y
(aj − ai ). Si i = 1 alors j = 2 d’où det(V (4, 3)) = (a2 − a1 ) = 3 − 4 = −1.
4 =
3 1≤i<j≤2


1 2 4
Y
Maintenant prenons V (2, 3, 4) =  1 3 9 . On va calculer |A| =
(aj − ai ). Si i = 1 alors j = 2 ou j = 3. Si
1 4 16
1≤i<j≤3
i = 2 alors j = 3. D’où det(V (2, 3, 4)) = (a2 − a1 )(a3 − a1 )(a3 − a2 ) = (3 − 2)(4 − 2)(4 − 3) = 2
18.27.3
Déterminant
Proposition 261.
La matrice de Vandermonde est inversible ssi tous les nombres ai sont distincts deux à deux.
Preuve : algebre licence .pdf 78/144
Mail: [email protected]
Tous droits réservés
Page no 96 sur 96
Téléchargement