Algèbre linéaire et bilinéaire – Notes de cours Cycle préparatoire 2 année

publicité
Cycle préparatoire 2ème année
Algèbre linéaire et bilinéaire – Notes de cours
Romain Dujol
2013 – 2014
Table des matières
0 Révisions d’algèbre linéaire
0.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . .
0.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . .
0.2.1 Somme de deux sous-espaces vectoriels
0.2.2 Famille de vecteurs . . . . . . . . . . . . . . . .
0.2.3 Espace vectoriel de dimension finie . . .
0.3 Applications linéaires . . . . . . . . . . . . . . . . . . .
0.3.1 Application linéaire . . . . . . . . . . . . . . .
0.3.2 Sous-espaces particuliers . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Réduction des endomorphismes
1.1 Élements propres . . . . . . . . . . . . . .
1.1.1 Valeur propre. Vecteur propre
1.1.2 Sous-espace propre . . . . . . .
1.2 Polynôme caractéristique . . . . . . . .
1.2.1 Définition . . . . . . . . . . . . . .
1.2.2 Propriétés . . . . . . . . . . . . . .
1.3 Réduction des endomorphismes . . .
1.3.1 Diagonalisation . . . . . . . . . .
1.3.2 Trigonalisation . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
. 4
. 5
. 5
. 6
. 7
. 9
. 9
. 9
. 10
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12
12
12
13
14
14
15
16
16
18
20
2 Réduction des endomorphismes, techniques avancées
2.1 Polynôme annulateur . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Polynôme d’endomorphisme . . . . . . . . . . .
2.1.2 Polynôme annulateur. Polynôme minimal . .
2.2 Sous-espaces caractéristiques. Forme de JORDAN . .
2.2.1 Sous-espace caractéristique . . . . . . . . . . . .
2.2.2 Forme de JORDAN . . . . . . . . . . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
22
22
25
28
28
29
31
Romain Dujol
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
3 Réduction des endomorphismes, applications
3.1 Puissances entières d’une matrice . . . . . . . . . . . . . .
3.1.1 Méthode par réduction d’endomorphisme . .
3.1.2 Méthode par division euclidienne . . . . . . . . .
3.2 Suites récurrentes linéaires . . . . . . . . . . . . . . . . . . .
3.2.1 Suites vectorielles récurrentes d’ordre un . . .
3.2.2 Suites récurrentes linéaires d’ordre supérieur
3.3 Systèmes différentiels linéaires . . . . . . . . . . . . . . . .
3.3.1 Méthode par réduction directe . . . . . . . . . . .
3.3.2 Méthode par exponentielle . . . . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
32
32
32
33
34
34
35
36
36
36
39
4 Formes bilinéaires. Formes quadratiques
4.1 Forme bilinéaire . . . . . . . . . . . . . . . . . . . .
4.1.1 Définitions . . . . . . . . . . . . . . . . . . .
4.1.2 Orthogonalité . . . . . . . . . . . . . . . .
4.1.3 Matrice d’une forme bilinéaire . . . .
4.2 Forme quadratique . . . . . . . . . . . . . . . . . .
4.2.1 Définitions . . . . . . . . . . . . . . . . . . .
4.2.2 Orthogonalité . . . . . . . . . . . . . . . .
4.2.3 Matrice d’une forme quadratique . .
4.2.4 Réduction d’une forme quadratique
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
40
40
40
42
43
46
46
47
49
50
54
5 Espaces euclidiens
5.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . .
5.1.2 Exemples fondamentaux . . . . . . . . . . . . .
5.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . .
5.2.2 Familles orthogonales . . . . . . . . . . . . . . .
5.2.3 Procédé d’orthonormalisation de SCHMIDT
5.3 Théorème de projection . . . . . . . . . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
58
58
58
59
60
60
60
63
65
68
6 Endomorphismes remarquables d’un espace euclidien
6.1 Endomorphismes orthogonaux. Matrices orthogonales
6.1.1 Endomorphismes orthogonaux . . . . . . . . . . . .
6.1.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . .
6.2 Endomorphismes autoadjoints . . . . . . . . . . . . . . . . . .
6.2.1 Adjoint d’un endomorphisme . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
70
70
70
72
73
73
Romain Dujol
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
6.2.2 Endomorphisme autoadjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.2.3 Endomorphisme anti-autoadjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
7 Espaces préhilbertiens complexes
7.1 Forme sesquilinéaire. Produit scalaire . . . . . . . . . . . . .
7.1.1 Forme sesquilinéaire . . . . . . . . . . . . . . . . . . . .
7.1.2 Forme sesquilinéaire hermitienne . . . . . . . . . . .
7.1.3 Forme quadratique hermitienne . . . . . . . . . . . .
7.1.4 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Endomorphismes remarquables d’un espace hermitien
7.2.1 Endomorphismes unitaires . . . . . . . . . . . . . . . .
7.2.2 Endomorphismes hermitiens et anti-hermitiens
7.3 Matrices remarquables . . . . . . . . . . . . . . . . . . . . . . . .
7.3.1 Matrice d’une forme sesquilinéaire . . . . . . . . . .
7.3.2 Matrices unitaires . . . . . . . . . . . . . . . . . . . . . .
7.3.3 Matrices hermitiennes et anti-hermitiennes . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Romain Dujol
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
78
78
78
79
79
80
81
81
81
82
82
82
82
84
Chapitre 0
Révisions d’algèbre linéaire
0.1
Espaces vectoriels
Définition 0.1 (Espace vectoriel). Soit K un corps commutatif. Un espace vectoriel sur K ou
K-espace vectoriel est un ensemble E muni :
– d’une loi de composition interne + telle que (E , +) est un groupe abélien ;
– d’une loi de composition externe · : K × E → E
telle que :
(λ, x ) 7→ λ · x
1. ∀x ∈ E , 1K · x = x
2. ∀λ ∈ K, ∀µ ∈ K, ∀x ∈ E , λ · (µ · x ) = (λµ) · x
3. ∀λ ∈ K, ∀µ ∈ K, ∀x ∈ E , (λ + µ) · x = λ · x + µ · x
4. ∀λ ∈ K, ∀x ∈ E , ∀y ∈ E , λ · (x + y ) = λ · x + λ · y
Les éléments de E sont appelés des vecteurs. Les éléments de K sont appelés des scalaires.
Remarque. Les propriétés 1 et 2 indiquent que · est une action à gauche du groupe K sur E .
Proposition 0.1. Soit K un corps commutatif et E un K-espace vectoriel. Alors :
1. ∀λ ∈ K, λ · 0E = 0E
2. ∀x ∈ E , 0K · x = 0E
3. ∀x ∈ E , (−1K ) · x = −x
Proposition 0.2 (Exemples fondamentaux). Soit n un entier naturel non nul.
1. L’ensemble Kn = K × · · · × K (n fois) des n -uplets à valeurs dans K est un K-espace vectoriel.
2. L’ensemble K[X ] des polynômes à coefficients dans K est un K-espace vectoriel
Romain Dujol
4
Démonstration.
1. Kn est un K-espace vectoriel pour les opérations
+:
Kn × Kn
(x 1 , . . . , x n ), (y 1 , . . . , y n )
Kn
et + :
(x 1 + y 1 , . . . , x n + y n )
→
7
→
K × Kn
λ, (x 1 , . . . , x n )
→
7→
Kn
(λx 1 , . . . , λx n )
2. K[X ] est un K-espace vectoriel pour les opérations
+:
p
X
K[X ] × K[X ]
!
q
X
bk X k
akXk,
k =0
k =0
→
et + :
K[X ]
max(p,q
X )
7→
(a k + b k )X k
K × K[X ] !
p
X
akXk
λ,
→
7→
k =0
k =0
K[X ]
p
X
(λa k )X k
k =0
Remarque. R et C sont des corps commutatifs et sont les corps les plus fréquemment utilisés.
0.2
Sous-espace vectoriel
Définition 0.2 (Sous-espace vectoriel). Soit E un K-espace vectoriel.
F est un sous-espace vectoriel de E si et seulement si :
(F est inclus dans E )
et
(F est un K-espace vectoriel)
Proposition 0.3 (Caractérisation d’un sous-espace vectoriel). Soit E un K-espace vectoriel.
Une partie non vide F de E est un sous-espace vectoriel de E si et seulement si
∀x ∈ F, ∀y ∈ F, x + y ∈ F
et
∀λ ∈ K, ∀x ∈ F, λ · x ∈ F
ou si et seulement si
∀λ ∈ K, ∀x ∈ F, ∀y ∈ F, x + λ · y ∈ F
Proposition 0.4. Soit n un entier naturel. Alors l’ensemble Kn [X ] des polynômes à coefficients
dans K de degré au plus n est un sous-espace vectoriel de K[X ].
0.2.1
Somme de deux sous-espaces vectoriels
Définition 0.3 (Somme. Somme directe). Soit E un K-espace vectoriel et F et G deux sousespaces vectoriels de E . On définit la somme de F et G , notée F + G par
F + G = {x + y , x ∈ F, y ∈ G }
La somme F + G est dite directe si et seulement si tout élément de F + G admet une et une
seule décomposition comme somme d’un élément de F et d’un élément de G . La somme est alors
noté F ⊕ G .
Romain Dujol
5
Proposition 0.5. Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E . Alors
F + G est un sous-espace vectoriel de E .
Remarque. On peut étendre cette définition à plus de deux sous-espaces vectoriels.
Proposition 0.6 (Caractérisation).
Soit F et G deux sous-espaces vectoriels du K-espace vectoriel E .
Alors F et G sont en somme directe si et seulement si F ∩ G = {0E }.
Définition 0.4. Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E .
F et G sont dits supplémentaires dans E si et seulement si E = F ⊕ G .
0.2.2
Famille de vecteurs
Définition 0.5 (Combinaison linéaire). Soit E un K-espace vectoriel.
Un vecteur x de E est une combinaison linéaire des vecteurs x 1 , . . . , x n si et seulement si il
existe des scalaires λ1 , . . . , λn tels que x = λ1 x 1 + λ2 x 2 + · + λn x n .
Définition 0.6 (Sous-espace vectoriel engendré). Soit E un K-espace vectoriel.
Le sous-espace engendré par x 1 , . . . , x n est l’ensemble des combinaisons linéaires des vecteurs
x 1 , . . . , x n , noté Vect(x 1 , . . . , x n ).
Définition 0.7 (Famille génératrice). Soit E un K-espace vectoriel.
Une famille (x 1 , . . . , x n ) de vecteurs de E est dite génératrice si et seulement si tout élément de E
est une combinaison linéaire des vecteurs x 1 , . . . , x n , i.e. E ⊂ Vect(x 1 , . . . , x n ).
Romain Dujol
6
Définition 0.8 (Famille liée. Famille libre). Soit E un K-espace vectoriel.
Une famille (x 1 , . . . , x n ) de vecteurs de E est dite liée si et seulement si il existe des scalaires
λ1 , . . . , λn non tous nuls tels que
λ1 x 1 + λ2 x 2 + · · · + λn x n = 0 E
Une famille libre est une famille non liée.
Proposition 0.7 (Caractérisation). Soit E un K-espace vectoriel.
Une famille (x 1 , . . . , x n ) de vecteurs de E est liée si et seulement si
∀(λ1 , . . . , λn ) ∈ Kn , λ1 x 1 + λ2 x 2 + · · · + λn x n = 0E =⇒ λ1 = · · · = λn = 0
Définition 0.9 (Base). Une base est une famille libre et génératrice.
0.2.3
Espace vectoriel de dimension finie
Définition 0.10 (Espace vectoriel de dimension finie). Un espace vectoriel est dit de dimension finie si et seulement il admet une famille génératrice finie.
Théorème (Dimension). Tout espace vectoriel E de dimension finie admet au moins une base.
Toutes les bases de E ont le même nombre de vecteurs : cet entier commun est appelé dimension
de E , notée dim E .
On convient que dim{0E } = 0.
Proposition 0.8.
1. Kn est un K-espace vectoriel de dimension n .
2. Kn [X ] est un K-espace vectoriel de dimension n + 1.
3. K[X ] n’est pas de dimension finie.
4. F (K, K) n’est pas de dimension finie.
Romain Dujol
7
Démonstration.
(
1. Une base B = (e i )1≤i ≤n de Kn est définie par e i = (δi j )1≤j ≤n où δi j =
base canonique de Kn .
1 si i = j
0 si i 6= j
. Elle est appelée
2. Une base de Kn [X ] est (X i )0≤i ≤n . Elle est appelée base canonique de K[X ].
3. Supposons par l’absurde que K[X ] est de dimension finie n : soit alors B une base de n polynômes.
On note d = max deg P le plus haut degré des polynômes de B : alors K[X ] = Vect(B ) ⊂ Kd [X ]. Or
P∈B
X d +1 ∈ K[X ]\Kd [X ], ce qui est impossible.
On conclut que K[X ] n’est pas dimension finie.
4. F (K, K) contient l’ensemble des fonctions polynômiales sur K. Comme cet ensemble n’est pas de
dimension finie, F (K, K) non plus.
Remarque. La notation δi j est communément appelée symbole de KRONECKER.
Proposition 0.9 (Dimension d’un sous-espace vectoriel).
Soit E un K-espace vectoriel et F un sous-espace vectoriel de E . Alors dim F ≤ dim E .
De plus F = E si et seulement si dim F = dim E .
Proposition 0.10 (Dimension d’une somme).
Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E . Alors
dim(F + G ) = dim F + dimG − dim(F ∩ G )
En particulier dim(F ⊕ G ) = dim F + dimG .
Définition 0.11 (Rang). On appelle rang d’une famille finie de vecteurs la dimension du sousespace engendré par cette famille de vecteurs.
Proposition 0.11. Une famille (finie) de vecteurs est libre si et seulement si son rang est égal au
nombre de vecteurs qui composent cette famille.
Romain Dujol
8
0.3
Applications linéaires
0.3.1
Application linéaire
Définition 0.12. Soient E et F deux K-espaces vectoriels. Une application f de E dans F est dite
linéaire si et seulement si :
– elle est un morphisme du groupe (E , +) dans (F, +) ;
– ∀λ ∈ K, ∀x ∈ E , f (λ · x ) = λ · f (x )
L’ensemble des applications linéaires de E dans F est noté L (E , F ).
Un endomorphisme de E est une application linéaire de E dans E .
Un isomorphisme de E dans F est une application linéaire bijective de E dans F .
Un automorphisme de E est un endomorphisme bijectif de E .
Une forme linéaire sur E est une application linéaire de E dans K.
0.3.2
Sous-espaces particuliers
Définition 0.13 (Noyau. Image). Soit E et F deux K-espaces vectoriels et f une application linéaire de E dans F .
On appelle noyau de f , noté Ker f , le sous-espace vectoriel de E défini par
Ker f = f −1 (0F ) = {x ∈ E , f (x ) = 0F }
On appelle image de f , noté Im f , le sous-espace vectoriel de F défini par
Im f = f (E ) = { f (x ), x ∈ E }
Si F est de dimension finie, alors Im f aussi et on définit le rang de f comme étant égal à la
dimension de Im f .
Proposition 0.12 (Caractérisation rapide de l’injectivité). Soit E et F deux K-espaces vectoriels
et f une application linéaire de E dans F . Alors :
f est injective si et seulement si Ker f = {0E }.
Théorème (Formule du rang). Soit E et F deux K-espaces vectoriels et f une application linéaire de E dans F . Alors
dim E = dim(Im f ) + dim(Ker f )
Corollaire (Corollaire fondamental). Soit E et F deux K-espaces vectoriels de même dimension
(finie) et f une application linéaire de E dans F . Alors
f injective ⇐⇒ f surjective ⇐⇒ f bijective
Remarque. Ce corollaire est donc valable en particulier si E = F .
Romain Dujol
9
Révisions d’algèbre linéaire : Exercices
Exercice 0.1.
1. La famille de vecteurs {(1, 2, 3), (1, −2, −3), (1, 4, 3)} est-elle libre dans R3 ?
2. La famille de vecteurs {(2, i , 4, −i ), (i , −1, −i , 1), (0, 3, −i , 1)} est-elle libre dans C4 ?
Exercice 0.2. Soit n un entier naturel non nul et (a i )1≤i ≤n un n -uplet de nombres réels distincts
deux à deux rangés dans l’ordre croissant :
2
∀(i , j ) ∈ J1, n K , (i < j ) ⇒ a i < a j
1. Montrer que la famille {x 7→ e a i x }i ≤n est libre dans F (R, R) :
(a) lorsque tous les coefficients a i sont des entiers naturels ;
(b) lorsque tous les coefficients a i sont des nombres réels quelconques.
2. En déduire que F (R, R) est de dimension infinie.
4
3
Exercice 0.3. Soit f une application
linéaire
de R dans R dont la matrice dans les deux bases

−11 7 0 3


1 11 2.
canoniques respectives est  0
1
0 7 1
1. Déterminer le rang de f .
2. Déterminer une base de Ker f .
3. Déterminer une base de Im f .
Exercice 0.4. On considère l’application U : R3 [X ] → R3 [X ] .
P
7→ P ′ + P
1. Vérifier que l’application U est bien définie et qu’il s’agit d’un automorphisme de R3 [X ].
2. Écrire la matrice de U dans la base canonique de R3 [X ].
Romain Dujol
10
Exercice 0.5. Soit m

1
1

1. 1 + m −1
2
−m

1
1 1

1 m
1
2. 
1
m
1

m 1 1
un nombre réel. Déterminer le rang des matrices suivantes :

1−m

2 
3

m

1

1
1
Exercice 0.6. Calculer les déterminants suivants :
1
cos(t ) cos(2t )
1. cos(t ) cos(2t ) cos(3t )
cos(2t ) cos(3t ) cos(4t )
a a a a a b b b où a , b , c et d sont des réels quelconques
2. a b c c a b c d Exercice 0.7. Soit E un espace vectoriel de dimension trois et B = (e 1 , e 2 , e 3 ) une base de E .
Soit θ un nombre réel et f l’endomorphisme de E tel que sa matrice dans la base B soit

0

A =  −1
− sin θ
1
0
cos θ

− sin θ

cos θ 
0
1. Montrer que f 3 = f ◦ f ◦ f = 0.
2. On note e 1′ = (cos θ ) · e 1 + (sin θ ) · e 2 , e 2′ = f (e 1 ) et e 3′ = f (e 2 ).
(a) Montrer que B ′ = (e 1′ , e 2′ , e 3′ ) est une base de E et déterminer la matrice de passage de
B dans B ′ .
(b) En déduire la matrice de f dans B ′ .
Romain Dujol
11
Chapitre 1
Réduction des endomorphismes
Dans ce chapitre, K désigne un corps commutatif (dans la pratique, on prendra K = R ou C).
1.1
Élements propres
1.1.1
Valeur propre. Vecteur propre
Définition 1.1 (Valeur propre, vecteur propre d’un endomorphisme). Soit E un K-espace
vectoriel et f un endomorphisme de E .
Un scalaire λ ∈ K est une valeur propre de f si et seulement il existe un vecteur non nul x
de E tel que
f (x ) = λ · x
Auquel cas, x est un vecteur propre de f associé à la valeur propre λ.
L’ensemble des valeurs propres de f est appelé spectre de f et noté Sp f .
ATTENTION. Le vecteur nul n’est JAMAIS un vecteur propre.
Remarque. L’équation f (x ) = λ · x est parfois appelé équation aux valeurs propres.
Définition 1.2 (Valeur propre, vecteur propre d’une matrice carrée). Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K.
Un scalaire λ ∈ K est une valeur propre de A si et seulement il existe une matrice-colonne
non nulle X telle que
AX = λX
Auquel cas, X est un vecteur propre de A associé à la valeur propre λ.
L’ensemble des valeurs propres de A est appelé spectre de A et noté Sp A.
Romain Dujol
12
Théorème 1.1 (Équivalence des formulations).
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Soit B une base de E et A la matrice de f dans B . Alors :
1. λ est une valeur propre de f si et seulement si λ est valeur propre de A ;
2. x est un vecteur propre de f associé à la valeur propre λ si et seulement si X = matB x
est un vecteur propre de A associé à la valeur propre λ.
DONC
TOUS LES RÉSULTATS ÉNONCÉS DANS CE CHAPITRE PEUVENT ÊTRE TRANSPOSÉS DANS UNE
FORMULATION MATRICIELLE AVEC LES SUBSTITUTIONS SUIVANTES
f ↔A
,
x ↔X
,
:
idE ↔ I n (matrice identité)
Proposition 1.1 (Caractérisation de la valeur propre). Soit E un K-espace vectoriel et f un endomorphisme de E . Alors :
λ ∈ Sp f ⇐⇒ Ker( f − λ idE ) 6= {0E } ⇐⇒ ( f − λ idE ) n’est pas injectif
Démonstration. On part de la définition de la valeur propre :
λ ∈ Sp f ⇐⇒ ∃x ∈ E \{0E }, f (x ) = λ · x
⇐⇒ ∃x ∈ E \{0E }, f (x ) − λ · x = 0E
⇐⇒ ∃x ∈ E \{0E }, ( f − λ idE )(x ) = 0E
⇐⇒ Ker( f − λ idE ) 6= {0E } ⇐⇒ ( f − λ idE ) n’est pas injectif
Corollaire (Valeur propre d’un automorphisme). Soit E un K-espace vectoriel et f un endomorphisme de E . Alors f est bijective si et seulement si 0 n’est pas valeur propre de f .
Démonstration. C’est l’application de la proposition précédente avec λ = 0 et le fait que f est injective si
et seulement si elle est bijective.
1.1.2
Sous-espace propre
Définition 1.3 (Sous-espace propre). Soit E un K-espace vectoriel.
Soit f un endomorphisme de E et λ une valeur propre de f . On appelle sous-espace propre
de f associé à la valeur propre λ, noté E λ ( f ) ou SEP( f , λ) par
E λ ( f ) = Ker( f − λ idE ) = {x ∈ E , f (x ) = λ · x }
Lorsqu’il n’y a pas d’ambigüité, on notera E λ au lieu de E λ ( f ).
Romain Dujol
13
Proposition 1.2. Soit E un K-espace vectoriel.
Soit f un endomorphisme de E et λ une valeur propre de f .
1. E λ ( f ) est un sous-espace vectoriel de E .
2. E λ ( f ) est composé de l’ensemble de tous les vecteurs propres de f associés à λ et de 0E .
Proposition 1.3. Soit E un K-espace vectoriel et f un endomorphisme de E .
Soit λ1 et λ2 deux valeurs propres distinctes de f . Alors E λ1 ( f ) et E λ2 ( f ) sont en somme directe.
Démonstration. Soit x ∈ E λ1 ( f ) ∩ E λ2 ( f ), alors :
– x ∈ E λ1 ( f ), donc f (x ) = λ1 x
– x ∈ E λ2 ( f ), donc f (x ) = λ2 x
Donc λ1 x = λ2 x et (λ1 − λ2 )x = 0. Comme λ1 et λ2 sont distincts, il vient que λ1 − λ2 6= 0, puis que x = 0.
On en déduit que E λ1 ( f ) ∩ E λ2 ( f ) = {0E } et que E λ1 ( f ) et E λ2 ( f ) sont en somme directe.
1.2
1.2.1
Polynôme caractéristique
Définition
Proposition 1.4 (Introduction du polynôme caractéristique). Soit E un K-espace vectoriel de
dimension finie et f un endomorphisme de E . Alors
λ ∈ Sp f ⇐⇒ det( f − λ idE ) = 0
Démonstration.
λ ∈ Sp f ⇐⇒ ( f − λ idE ) n’est pas injectif ⇐⇒ ( f − λ idE ) n’est pas bijectif ⇐⇒ det( f − λ idE ) = 0
Définition 1.4 (Polynôme caractéristique d’un endomorphisme). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
L’expression det( f − X idE ) [où X est ici l’indéterminée des polynômes] est un polynôme à
coefficients dans K appelé polynôme caractéristique de f , noté χ f .
Définition 1.5 (Polynôme caractéristique d’une matrice carrée). Soit n un entier naturel
non nul et A une matrice carrée d’ordre n à coefficients dans K.
L’expression det(A − X I n ) [où X est ici l’indéterminée des polynômes] est un polynôme à
coefficients dans K appelé polynôme caractéristique de A, noté χA .
Romain Dujol
14
1.2.2
Propriétés
Corollaire (Caractérisation rapide d’une valeur propre). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Alors Sp f est l’ensemble des racines de χ f .
Proposition 1.5 (Coefficients du polynôme caractéristique). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors χ f est un polynôme de degré n et :
1. le coefficient dominant, i.e. de degré n , de χ f est (−1)n ;
2. le coefficient de degré n − 1 de χ f est (−1)n−1 tr f ;
3. le coefficient constant, i.e. de degré 0, de χ f est det f .
(On rappelle que tr f est la trace de l’endomorphisme f .)
Corollaire. Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors f
admet au plus n valeurs propres.
Démonstration. D’après le théorème de D’ALEMBERT-GAUSS, χ f admet au plus n racines distinctes (certaines pouvant être répétées). Comme les racines de χ f sont exactement les valeurs propres de f , on
conclut immédiatement.

8
12
10


Exemple. Déterminer les éléments propres de A = −9 −22 −22.
9
18
17

Définition 1.6 (Ordre de multiplicité géométrique. Ordre de multiplicité algébrique). Soit
E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit λ une valeur
propre de f .
L’ordre de multiplicité géométrique de λ est la dimension de son sous-espace propre, i.e.
dim E λ ( f ).
L’ordre de multiplicité algébrique de λ est l’ordre de multiplicité de λ en tant que racine du
polynôme caractéristique χ f .
Une valeur propre λ est dite simple si et seulement si son ordre de multiplicité algébrique
est égal à un. Une valeur propre λ est dite double si et seulement si son ordre de multiplicité
algébrique est égal à deux, et ainsi de suite.
Exemple. Reprendre l’exemple précédent et déterminer les ordres de multiplicités géométriques
et algébriques des valeurs propres de A.
Romain Dujol
15
Proposition 1.6 (Comparaison des ordres de multiplicité). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit λ une valeur propre de f dont on note γ l’ordre
de multiplicité géométrique et α l’ordre de multiplicité algébrique. Alors
1≤γ≤α
Corollaire. Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit λ
une valeur propre simple de f : alors dim E λ ( f ) = 1.
Démonstration. On note respectivement γ et α les ordres de multiplicité géométrique et algébrique de λ.
Comme λ est une valeur propre simple, α = 1 et 1 ≤ γ ≤ 1 : on en déduit que dim E λ ( f ) = γ = 1.
1.3
1.3.1
Réduction des endomorphismes
Diagonalisation
Définition 1.7 (Endomorphisme diagonalisable).
Soit E un K-espace vectoriel de dimension finie.
Un endomorphisme f de E est dit diagonalisable sur K si et seulement si il existe une base
B de E telle que la matrice de f dans B soit diagonale.
Auquel cas, B est appelée la base de diagonalisation de f .
Définition 1.8 (Matrice carrée diagonalisable). Soit n un entier naturel non nul.
Une matrice A carrée d’ordre n à coefficients dans K est dite diagonalisable sur K si et
seulement si elle est semblable à une matrice diagonale, i.e.
∃P ∈ GLn (K), ∃D ∈ Dn (K), A = PDP −1
Auquel cas, la donnée du couple (P, D) constitue la diagonalisation de A.
Remarque.
1. On trouve parfois réduction à la forme diagonale au lieu de diagonalisation.
2. Une diagonalisation n’est pas unique : pour une matrice diagonalisable A donnée, il existe
plusieurs (une infinité) couples (P, D) possibles.
3. Diagonaliser A, c’est trouver une diagonalisation de A.
Romain Dujol
16
Proposition 1.7. Toute matrice diagonale à coefficients dans K est diagonalisable sur K.
Démonstration. Une matrice diagonale est semblable à elle-même, donc elle est diagonalisable. Donc
(I , D) est une diagonalisation de la matrice diagonale D.
Proposition 1.8 (Équivalence des formulations).
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Soit B une base de E et A la matrice de f dans B . Alors f est diagonalisable sur K si et seulement
si A est diagonalisable sur K.
Proposition 1.9 (Caractérisation de la diagonalisabilité). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors les propositions suivantes sont équivalentes.
1. f est diagonalisable sur K
2. Il existe une base B de E constituée exclusivement de vecteurs propres de f .
3. La somme (directe) de tous les sous-espaces propres de f est égale à E .
4. La somme des dimensions de tous les sous-espaces propres de E est égale à n .
Proposition 1.10 (Caractérisation rapide de la diagonalisabilité). Soit E un K-espace vectoriel
de dimension n et f un endomorphisme de E .
Alors f est diagonalisable sur K si et seulement si les deux propositions suivantes sont vérifiées :
1. le polynôme caractéristique χ f de f est scindé sur K ;
2. pour chaque valeur propre de f , les ordres de multiplicité géométrique et algébrique sont
égaux, i.e. la dimension du sous-espace propre est égale à son ordre de multiplicité dans χ f .
Corollaire (Condition suffisante de diagonalisabilité). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E .
Si f admet n valeurs propres distinctes deux à deux, alors f est diagonalisable sur K.
Démonstration. Donc f admet n valeurs propres simples :
– le polynôme caractéristique admet donc n racines simples : il est donc scindé sur K ;
– la dimension de chaque sous-espace propre est égale à un : comme il y a n sous-espaces propres,
la somme des dimensions de ces sous-espaces propres est égale à n.
On en conclut que f est diagonalisable sur K.

2 0 1


Exemple. Diagonaliser A =  1 1 1 .
−2 0 −1

Proposition 1.11. Toute matrice à coefficients réels diagonalisable sur R est diagonalisable sur C.
Romain Dujol
17
1.3.2
Trigonalisation
Définition 1.9 (Endomorphisme trigonalisable).
Soit E un K-espace vectoriel de dimension finie.
Un endomorphisme f de E est dit trigonalisable sur K si et seulement si il existe une base
B de E telle que la matrice de f dans B soit triangulaire.
Auquel cas, B est appelée la base de trigonalisation de f .
Proposition 1.12. Tout endomorphisme diagonalisable sur K est trigonalisable sur K.
Définition 1.10 (Matrice carrée trigonalisable). Soit n un entier naturel non nul.
Une matrice A carrée d’ordre n à coefficients dans K est dite trigonalisable sur K si et seulement si elle est semblable à une matrice triangulaire, i.e.
∃P ∈ GLn (K), ∃D ∈ Tn (K), A = PT P −1
Auquel cas, la donnée du couple (P, T ) constitue la trigonalisation de A.
Proposition 1.13. Toute matrice carrée diagonalisable sur K est trigonalisable sur K.
Remarque.
1. On trouve parfois réduction à la forme triangulaire au lieu de trigonalisation.
2. Une trigonalisation n’est pas unique : pour une matrice trigonalisable A donnée, il existe
plusieurs (une infinité) couples (P, T ) possibles.
3. Trigonaliser A, c’est trouver une trigonalisation de A.
Proposition 1.14. Toute matrice triangulaire à coefficients dans K est trigonalisable sur K.
Démonstration. Une matrice triangulaire est semblable à elle-même, donc elle est trigonalisable. Donc
(I , T ) est une trigonalisation de la matrice triangulaire T .
Proposition 1.15 (Équivalence des formulations).
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Soit B une base de E et A la matrice de f dans B . Alors f est trigonalisable sur K si et seulement
si A est trigonalisable sur K.
Romain Dujol
18
Proposition 1.16 (Caractérisation rapide de la diagonalisabilité). Soit E un K-espace vectoriel
de dimension n et f un endomorphisme de E .
Alors f est diagonalisable sur K si et seulement si le polynôme caractéristique χ f de f est
scindé sur K.
Corollaire (Cas des C-espaces vectoriels).
1. Soit E un C-espace vectoriel de dimension finie. Alors tout endomorphisme de E est trigonalisable sur C.
2. Toute matrice carrée à coefficients complexes est trigonalisable sur C.
Démonstration. D’après le théorème de D’ALEMBERT-GAUSS, tout polynôme à coefficients complexes est
scindé sur C. Donc le polynôme caractéristique de tout endomorphisme est scindé sur C, ce qui permet
de conclure.
Proposition 1.17. Toute matrice à coefficients réels trigonalisable sur R est trigonalisable sur C.
Exemple.

−4

1. Trigonaliser A =  0
5

−2

2. Trigonaliser A = −15
−14

0 −2

1 0 .
1 3

−1 2

−6 11.
−6 11
ATTENTION.
1. Il existe des endomorphismes/matrices carrées non diagonalisables/trigonalisables.
2. Changer le corps K peut modifier le caractère diagonalisable/trigonalisable d’un endomorphisme/d’une matrice carrée.
Exemple.
‚
A = ···
A
A
A
A
Romain Dujol
est-elle diagonalisable sur R ?
est-elle diagonalisable sur C ?
est-elle trigonalisable sur R ?
est-elle trigonalisable sur C ?
Œ
1 1
1 1
‚
Œ
1 1
0 1
‚
Œ
0 1
−1 0
OUI
NON
NON
OUI
NON
OUI
OUI
OUI
NON
OUI
OUI
OUI
19
Réduction des endomorphismes : Exercices
Élements propres
Exercice 1.1. Soit n un entier naturel non nul et A et B deux matrices carrées d’ordre n à coefficients dans K.
1. Montrer que les polynômes caractéristiques de A et t A sont égaux.
Ces deux matrices ont-elles les mêmes sous-espaces propres et les mêmes valeurs propres ?
2. Montrer que A B et B A ont les mêmes valeurs propres.
Exercice 1.2. Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients
dans K telle que la somme des coefficients de chaque ligne vaut α ∈ K.
Montrer que α est valeur propre de A.
Exercice 1.3. Soit n un entier naturel non nul et f : M n (K) → M n (K) .
M
7→ t A
1. Vérifier que f est un endomorphisme de M n (K).
2. Déterminer les valeurs propres de f .
Exercice 1.4. On considère l’application f : R[X ] → R[X ]
.
′
P
7→ (X + 1)(X − 3)P − X P
1. Vérifier que f est un endomorphisme de R[X ].
2. Déterminer les éléments propres de f .
Romain Dujol
20
Diagonalisation
Exercice 1.5. Diagonaliser les matrices suviantes :


0 1 0


1. A 1 = 1 0 1
0 1 0


11 −5 5


2. A 2 = −5 3 −3
5 −3 3


−1 a a 2


3. A 3 =  0 0 −a , a ∈ R
0 0
1


0
−1
1


4. A 4 = −(a + 1) a a + 1, a ∈ R
−a
a a +1


−1 2 −2 4


−3 4 2 1
5. A 5 = 

 0 0 −2 3
0 0 −4 5


1 3 0 0


4 2 0 0 
6. A 6 = 

1 −1 5 −3
2 0 4 −2
Trigonalisation
Exercice 1.6. Diagonaliser les matrices suviantes :


5 −17 25


1. A 1 = 2 −9 16
1 −5
9


2 0 1


2. A 2 =  1 1 0
−1 1 3
Romain Dujol
21
Chapitre 2
Réduction des endomorphismes,
techniques avancées
Dans ce chapitre, K désigne un corps commutatif (dans la pratique, on prendra K = R ou C).
2.1
Polynôme annulateur
2.1.1
2.1.1.1
Polynôme d’endomorphisme
Définition et propriétés
Définition 2.1 (Polynôme d’endomorphisme).
Soit E un K-espace vectoriel et f un endomorphisme de E . Pour tout polynôme P =
p
X
aiXi
i =0
à coefficients dans K, on définit l’endomorphisme P( f ) de E par
P( f ) =
p
X
ai f i
i =0
Définition 2.2 (Polynôme de matrice carrée).
Soit n un entier naturel non nul et A une matrice carrée d’ordre n . Pour tout polynôme
p
X
P=
a i X i à coefficients dans K, on définit la matrice carrée d’ordre n P(A) par
i =0
P(A) =
p
X
a i Ai
i =0
Romain Dujol
22
Proposition 2.1 (Équivalence des formulations).
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Soit B une base de E et A la matrice de f dans B .
Alors la matrice de l’endomorphisme P( f ) dans la base B est P(A).
Proposition 2.2 (Règles opératoires). Soit E un K-espace vectoriel et f un endomorphisme de E .
Alors Φ : K[X ] → L (E ) est un morphisme d’algèbres unitaire, c’est-à-dire :
P
7→ P( f )
1. ∀λ ∈ K, ∀µ ∈ K, ∀P ∈ K[X ], ∀Q ∈ K[X ], (λP + µQ)( f ) = λP( f ) + µQ( f )
2. ∀P ∈ K[X ], ∀Q ∈ K[X ], (PQ)( f ) = P( f ) ◦Q( f )
3. 1( f ) = idE
Proposition 2.3 (Opération sur les vecteurs propres).
Soit E un K-espace vectoriel et f un endomorphisme de E .
Soit λ une valeur propre de f et x un élément de E λ ( f ). Alors
∀P ∈ K[X ], P( f )(x ) = P(λ) · x
Démonstration. Montrons d’abord par récurrence sur i que le résultat demandé est vérifié pour P = X i
pour tout entier naturel i .
– Si i = 0, alors (X 0 )( f )(x ) = idE (x ) = x = 1 · x = λ0 x . Donc la propriété est vérifiée au rang 0.
– Soit i un entier naturel tel que f i (x ) = λi · x . Alors
f i +1 (x ) = f i ( f (x )) = f i (λx ) = λ f i (x ) = λ(λi x ) = λi +1 x
Donc la propriété est vraie au rang i + 1.
p
X
a i X i un polynôme quelconque à coefficients dans K. Alors
Soit alors P =
i =0
P( f )(x ) =
p
X
i =0
2.1.1.2
p
X
!
ai fi
(x ) =
a i f i (x ) =
i =0
p
X
i =0
i
a i (λ · x ) =
p
X
i =0
!
aiλ
i
· x = P(λ) · x
Noyau de polynômes d’endomorphismes
Proposition 2.4 (Stabilité). Soit E un K-espace vectoriel de f un endomorphisme de E .
Pour tout polynôme P à coefficients dans K, Ker P( f ) est stable par f .
Démonstration. Soit x ∈ Ker P( f ). Alors P( f )[ f (x )] = P( f )[X ( f )(x )] = [P( f ) ◦ X ( f )](x ) = [P X ]( f )(x )
= [X P( f )](x ) = [X ( f ) ◦ P( f )](x ) = X ( f )[P( f )(x )]
= f (0E ) = 0E
Donc f (x ) ∈ Ker P( f ) et Ker P( f ) est stable par f .
Romain Dujol
23
Théorème 2.1 (Théorème des noyaux). Soit E un K-espace vectoriel de f un endomorphisme de E .
Soit P1 , . . . , Pm des polynômes à coefficients dans K deux à deux premiers entre eux. Alors :

! 
m
m
Y
M
Ker[Pi ( f )] = Ker 
Pi ( f )
i =1
i =1
Démonstration. On effectuera la démonstration pour m = 2. Soit alors P et Q deux polynômes premiers
entre eux. Montrons que Ker P( f ) ⊕ KerQ( f ) = Ker[(PQ)( f )] en deux étapes :
1. on vérifie que Ker P( f ) et KerQ( f ) sont en somme directe ;
2. on montre que la somme de ces deux sous-espaces vectoriels est égale à Ker[(PQ)( f )].
D’après le théorème de BEZOUT, il existe deux polynômes A et B à coefficients dans K tels que AP + BQ = 1.
1. Soit x ∈ Ker P( f ) ∩ KerQ( f ). Alors :
x = idE (x ) = 1( f )(x ) = (AP + BQ)( f )(x ) = [A( f ) ◦ P( f )](x ) + [B ( f ) ◦Q( f )](x )
= A( f )[P( f )(x )] + B ( f )[Q( f )(x )] = A( f )(0E ) + B ( f )(0E ) = 0E
On en déduit que Ker P( f ) ∩ KerQ( f ) = 0E et que Ker P( f ) et KerQ( f ) sont en somme directe.
2. Montrons que Ker P( f ) + KerQ( f ) = Ker[(PQ)( f )] à l’aide d’une double inclusion.
– Soit x ∈ Ker P( f ) + KerQ( f ) : alors il existe x 1 ∈ Ker P( f ) et x 2 ∈ KerQ( f ) tel que x = x 1 + x 2 et :
(PQ)( f )(x ) = (PQ)( f )(x 1 + x 2 ) = (PQ)( f )(x 1 ) + (PQ)( f )(x 2 ) = (QP)( f )(x 1 ) + (PQ)( f )(x 2 )
= [Q( f ) ◦ P( f )](x 1 ) + [P( f ) ◦Q( f )](x 2 ) = Q( f )[P( f )(x 1 )] + P( f )[Q( f )(x 2 )]
= Q( f )(0E ) + P( f )(0E ) = 0E
Donc x ∈ Ker[(PQ)( f )].
– Soit x ∈ Ker[(PQ)( f )]. On note x 1 = (BQ)( f )(x ) et x 2 = (AP)( f )(x ). Alors :
· x 1 + x 2 = (BQ)( f )(x ) + (AP)( f )(x ) = (BQ + AP)( f )(x ) = 1( f )(x ) = idE (x ) = x
· P( f )(x 1 ) = P( f )[(BQ)( f )(x )] = [P( f ) ◦ (BQ)( f )](x ) = (P BQ)( f )(x )
= (B PQ)( f )(x ) = [B ( f ) ◦ (PQ)( f )](x ) = B ( f )[(PQ)( f )(x )] = B ( f )(0E ) = 0E
· Q( f )(x 2 ) = Q( f )[(AP)( f )(x )] = [Q( f ) ◦ (AP)( f )](x ) = (QAP)( f )(x )
= (APQ)( f )(x ) = [A( f ) ◦ (PQ)( f )](x ) = A( f )[(PQ)( f )(x )] = A( f )(0E ) = 0E
Donc x 1 ∈ Ker P( f ), x 2 ∈ KerQ( f ) et x = x 1 + x 2 ∈ Ker P( f ) + KerQ( f ).
Remarque. La relation Ker P( f )+KerQ( f ) ⊂ Ker[(PQ)( f )] est valable pour tous polynômes P et Q
(qu’ils soient premiers entre eux ou non).
Romain Dujol
24
2.1.2
2.1.2.1
Polynôme annulateur. Polynôme minimal
Cas général
Définition 2.3 (Polynôme annulateur).
Soit E un K-espace vectoriel et f un endomorphisme de E .
Un polynôme P à coefficients dans K est dit polynôme annulateur de f si et seulement si
P( f ) est l’endomorphisme nul.
Proposition 2.5. Soit E un K-espace vectoriel et f un endomorphisme de E .
Soit λ une valeur propre de f et P est un polynôme annulateur de f . Alors λ est une racine de P.
Démonstration. Soit x un vecteur propre de f associé à λ. Alors P(λ) · x = P( f )(x ) = 0(x ) = 0.
Comme x est un vecteur propre, c’est un vecteur non nul : donc P(λ) = 0.
Théorème 2.2 (Théorème de CAYLEY-HAMILTON). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Alors le polynôme caractéristique de f est un polynôme annulateur de f : χ f ( f ) = 0.
Théorème 2.3 (Polynôme minimal).
Soit E un K-espace vectoriel et f un endomorphisme de E .
Si f admet un polynôme annulateur non nul, alors il existe un unique polynôme à coefficients dans K dont le coefficient de plus haut degré est égal à un, noté π f , tel que
P( f ) = 0 ⇐⇒ P divise π f
Le polynôme π f est appelé polynôme minimal de f .
Démonstration.
ADMIS
Remarque. Donc, à une constante multiplicative près, π f est le polynôme annulateur de plus
faible degré.
Romain Dujol
25
Proposition 2.6 (Caractérisation rapide d’une valeur propre). Soit E un K-espace vectoriel de
dimension finie et f un endomorphisme de E .
Alors Sp f est l’ensemble des racines de π f .
Corollaire (Forme générale du polynôme minimal). Soit E un K-espace vectoriel de dimension
finie et f un endomorphisme de E .
p
Y
Si le polynôme caractéristique de f s’écrit χ f = (−1)n
(X −λi )αi , alors le polynôme minimal
de f est de la forme π f =
p
Y
i =1
i =1
(X − λi )βi avec βi ∈ J1, αi K pour i ∈ J1, p K.
Exemple. Déterminer le polynôme minimal des matrices suivantes :


0 1 2


1. A = 1 0 2
1 2 0


−1 1
1


2. B =  1 −1 1 
1
1 −1
Théorème 2.4.
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
1. f est trigonalisable sur K si et seulement si π f est scindé sur K.
2. f est diagonalisable sur K si et seulement si π f est scindé sur K et que toutes ses racines
sont simples (i.e. de multiplicité un).
Corollaire. Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Alors f est diagonalisable sur K si et seulement si il existe un polynôme annulateur scindé sur
K dont toutes les racines sont simples.
Remarque. On dit parfois d’un polynôme qu’il est scindé simple sur K lorsqu’il est scindé et
que toutes ses racines sont simples.
Romain Dujol
26
2.1.2.2
Réduction des projecteurs linéaires
Théorème (Rappels des propriétés d’un projecteur linéaire). Soit E un espace vectoriel et F et
G deux sous-espaces supplémentaires de E . On note p le projecteur sur F parallèlement à G .
Alors :
1. p ◦ p = p ;
2. F = {x ∈ E , p (x ) = x } = Ker(p − idE ) ;
3. G = {x ∈ E , p (x ) = 0} = Ker p .
Corollaire (Réduction d’un projecteur linéaire). Soit E un espace vectoriel de dimension finie.
On note n = dim E et r = dim F = rg p .
1. Sp p = {0, 1} donc p n’est pas bijective (sauf si r = n , c’est-à-dire si F = E ) ;
2. E 1 (p ) = F et E 0 (p ) = G ;
3. πp = X (X − 1), donc p est diagonalisable ;
4. χp = X n−r (X − 1)r .
5. Si BF et BG ‚
sont des
Œbases de F et G respectivement, alors B = BF ∪ BG est une base de E
Ir 0
.
et matB p =
0 0
2.1.2.3
Réduction des symétries linéaires
Théorème (Rappels des propriétés d’une symétrie linéaire). Soit E un espace vectoriel et F et
G deux sous-espaces supplémentaires de E . Soit σ la symétrie par rapport à F parallèlement à G .
Alors :
1. σ ◦ σ = idE ;
2. F = {x ∈ E , σ(x ) = x } = Ker(σ − idE ) ;
3. G = {x ∈ E , σ(x ) = −x } = Ker(σ + idE ).
Remarque. Si p est le projecteur sur F parallèlement à G , alors σ = 2p − idE .
Corollaire (Réduction d’une symétrie linéaire). Soit E un espace vectoriel de dimension finie.
On note r = dim F .
1. Sp σ = {−1, 1} donc σ est bijective ;
2. E 1 (σ) = F et E −1 (σ) = G ;
3. πσ = (X + 1)(X − 1), donc σ est diagonalisable ;
4. χσ = (X + 1)n−r (X − 1)r .
5. Si BF et BG ‚
sont des bases
Œ de F et G respectivement, alors B = BF ∪ BG est une base de E
Ir
0
.
et matB p =
0 −I n−r
Romain Dujol
27
2.2
2.2.1
Sous-espaces caractéristiques. Forme de JORDAN
Sous-espace caractéristique
Définition 2.4 (Sous-espace caractéristique). Soit E un K-espace vectoriel de dimension finie
et f un endomorphisme de E .
Soit f un endomorphisme de E et λ une valeur propre de f d’ordre de multiplicité
algébrique α. On appelle sous-espace caractéristique de f associé à la valeur propre λ, noté
N λ ( f ) ou SEC( f , λ) par
N λ ( f ) = Ker( f − λ idE )α
Lorsqu’il n’y a pas d’ambigüité, on notera N λ au lieu de N λ ( f ).
Théorème 2.5 (Décomposition selon les sous-espaces caractéristiques). Soit E un Kespace vectoriel de dimension finie et f un endomorphisme de E .
Si χ f est scindé sur K, alors E est la somme directe de tous les sous-espaces caractéristiques
de f .
Démonstration. Alors on peut écrire χ f = (−1)n
m
Y
i =1
(X − λi )αi .
Comme les polynômes (X −λi )αi sont deux à deux premiers entre eux, on peut appliquer le théorème
p
L
des noyaux pour en déduire que Ker χ f ( f ) =
Ker( f − λi )αi . Or :
i =1
– d’après le théorème de CAYLEY-HAMILTON, Ker χ f ( f ) = Ker 0L (E ) = E ;
– par définition, Ker( f − λi )αi = N λi ( f ).
p
L
On en conclut donc que E =
N λi ( f ).
i =1
Romain Dujol
28
Corollaire (Diagonlisation par blocs). Soit E un K-espace vectoriel de dimension finie et f un
endomorphisme de E .
m
Y
n
On suppose que χ f est scindé sur K et qu’il s’écrit χ f = (−1)
(X − λi )αi .
i =1
Pour tout entier i de J1, m K, il existe une base Bi de N λi ( f ) et une matrice A i triangulaire
supérieure telle que la matrice de f dans la base B = (B1 , . . . , Bm ) s’écrive :


A1 0 · · ·
0

.. 
.


. 
 0 A2 ..
matB f =  .

.. ..

 .
.
.
0
.


0 · · · 0 Am
Démonstration. Soit i ∈ J1, m K. Alors N λi ( f ) est stable par f : donc on peut définir l’application
fi :
N λi ( f )
x
→
7→
N λi ( f )
f (x )
qui est un endomorphisme de N λi ( f ). Son polynôme caractéristique χ f i = (−1)αi (X − λi )αi est scindé sur
K, donc f i est trigonalisable sur K : on note alors Bi une base de trigonalisation de f i .
Soit B = (B1 , . . . , Bm ) : alors B est une base de E et on obtient la décomposition demandée avec
A i = matBi f i .
2.2.2
Forme de JORDAN
Il s’agit alors de réaliser une réduction de chaque bloc qui a un polynôme caractéristique de
la forme (−1)α (X − λ)α .
Définition 2.5 (Bloc de JORDAN). Soit p un entier
et λ ∈ K. On définit un bloc
 naturel non nul 
λ 1 0 ··· 0


.. 
..

.
.
0 λ 1
.

.
.
.

.
.
.
.
de JORDAN de taille p , noté J p (λ), par J p (λ) =  .
.
.
. 0
 où λ est un élément de K.
.

.
.
 ..
. . . . 1


0 ··· ··· 0 λ
Proposition 2.7. Soit p un entier naturel non nul et λ ∈ K.
Alors λ est l’unique valeur propre de J p (λ) et :
1. son ordre de multiplicité géométrique est égal à un, i.e. dim E λ ( J ) = 1 ;
2. son ordre de multiplicité algébrique est égal à p , i.e. χ J = (−1)p (X − λ)p .
Romain Dujol
29
Proposition 2.8. Soit E un K-espace vectoriel de dimension α et f un endomorphisme de E qui
n’admet qu’une seule propre λ. On note γ = dim E λ ( f ) et on écrit :
– le polynôme caractéristique χ f = (−1)n (X − λ)α ;
– le polynôme minimal π f = (X − λ)β .
Alors il existe une base B de E telle que la matrice de f dans B soit une diagonale de γ blocs de
JORDAN de taille inférieure ou égale à β .
Théorème 2.6 (Décomposition sous forme de JORDAN). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
m
Y
On suppose que χ f est scindé sur K et qu’il s’écrit χ f = (−1)n
(X − λi )αi . On suppose
également que π f s’écrit : π f = (−1)n
m
Y
i =1
i =1
(X − λi )βi .
Pour tout entier i de J1, m K, on note γ = dim E λi ( f ) l’ordre de multiplicité géométrique de
la valeur propre λi . Alors il existe une matrice A i , diagonale de γi blocs de JORDAN de taille
inférieure ou égale à βi , et une base B de E telle que la matrice de f dans la base B s’écrive :


A1 0 · · ·
0

.. 
..


.
. 
 0 A2
matB f =  .

.. ..

 .
.
.
0 
 .
0 · · · 0 Am


1 −1 2 −2


0 0 1 −1
Exemple. Trigonaliser A = 
 sous forme de JORDAN.
1 −1 1 0 
1 −1 1 0
Romain Dujol
30
Réduction des endomorphismes, techniques avancées : Exercices
Exercice 2.1. Soit E un espace vectoriel de dimension trois et B = (e 1 , e 2 , e 3 ) une base de E .
Soit θ un nombre réel et f l’endomorphisme de E tel que sa matrice dans la base B soit

0

A =  −1
− sin θ
1
0
cos θ

− sin θ

cos θ 
0
1. L’endomorphisme f est-il diagonalisable ?
2. Montrer que B ′ = f 2 (e 3 ), f (e 3 ), e 3 est une base de E et déterminer la matrice de f dans B ′ .
3. En déduire une trigonalisation de A.

1 a

Exercice 2.2. Soit a , b et c trois nombres réels quelconques et A = 0 1
0 0

1

b .
c
1. Donner une condition nécessaire et suffisante sur a , b et c pour que A soit diagonalisable
sur R.
2. Diagonaliser ou trigonaliser A lorsque :
(a) a = 0, b = 1 et c = 2 ;
(b) a = b = c = 1.
Exercice 2.3. Diagonaliser ou trigonaliser les matrices suivantes :


1 1
1
1


1 1 −1 −1
1. A 1 = 

1 −1 1 −1
1 −1 −1 1


0 1 0


2. A 2 = 0 0 1
1 −3 3


0
3 2


3. A 3 = −2 5 2
2 −3 0
Romain Dujol
31
Chapitre 3
Réduction des endomorphismes,
applications
3.1
3.1.1
Puissances entières d’une matrice
Méthode par réduction d’endomorphisme
Proposition 3.1 (Puissances d’une matrice carrée trigonalisable). Soit A une matrice carrée à
coefficients dans K et trigonalisable sur K et (P, T ) sa trigonalisation. Alors :
∀k ∈ N, A k = PT k P −1
De plus, si A est inversible, alors
∀k ∈ Z, A k = PT k P −1
Démonstration. Montrons par récurrence que A k = PT k P −1 pour tout entier naturel k .
– Si k = 0, alors PT 0 P −1 = PP −1 = I = A 0 . Donc la propriété est vraie au rang 0.
– Soit k un entier naturel tel que A k = PT k P −1 . Alors :
A k +1 = A k A = (PT k P −1 )(PT P −1 ) = PT k (P −1 P)T P −1 = PT k +1 P −1
Donc la propriété est vraie au rang k + 1.
Si A est inversible, alors A −1 est également trigonalisable et (P, T −1 ) est une trigonalisation de A −1 .
Donc en appliquant le résultat précédent à cette trigonalisation, il vient que
∀k ∈ N, A −k = (A −1 )k = P(T −1 )k P −1 = PT −k P −1
ce qui permet d’obtenir la relation pour les entiers naturels négatifs.
Romain Dujol
32
Pour calculer A k pour tout entier naturel k , on procède de la manière suivante.
Étape no 1 Déterminer une trigonalisation (P, T ) de A.
Étape no 2 Calculer T k pour tout entier naturel n .
Étape no 3 Former et calculer le produit PT k P −1 .
Remarque. Cette méthode est particulièrement adaptée lorsque T est diagonale, c’est-à-dire
lorsque A est diagonalisable car le calcul des puissances de D est immédiat :

 k


λ1 0 · · · 0
λ1 0 · · · 0


.. 
.. 
.. ..
.. ..




.
.
.
.
. 
0
0
.



⇒
∀k ∈ N, D k =  . .
D = .



 ..
 . ... ...
.. ... 0 
0
.




0 · · · 0 λkp
0 · · · 0 λp

0
−8
6


7 .
Exemple. Calculer les puissances de A = −1 −8
1 −14 11

3.1.2
Méthode par division euclidienne
Proposition 3.2. Soit A une matrice carrée d’ordre n à coefficients dans K et P un polynôme annulateur de A.
Pour tout entier naturel n , on note R n le reste de la division euclidienne du polynôme X n par
P. Alors A n = R n (A).
Démonstration. Soit n un entier naturel. Il existe un unique couple (Q n , R n ) de polynômes à coefficients
dans K tels que deg R n < deg P et X n = PQ n + R n .
Alors A n = (X n )(A) = (PQ n + R n )(A) = (Q n P)(A) + R n (A) = Q n (A) × P(A) + R n (A) = R n (A).
Pour calculer A k pour tout entier naturel k , on procède de la manière suivante.
Étape no 1 Déterminer un polynôme annulateur P de A.
Étape no 2 Calculer le reste R n de la division euclidenne de X n par P pour tout entier naturel n .
Étape no 3 Former et calculer R n (A).
Remarque.
1. On utilisera souvent cette propriété avec P = χ f ou π f .
2. Toute puissance de A est donc une combinaison linéaire des deg P − 1 premières puissances de A. La méthode est alors d’autant plus efficace que deg P est petit : on en déduit
que le choix optimal sera P = π f .


0
−8
6


7 .
Exemple. Calculer les puissances de A = −1 −8
1 −14 11
Romain Dujol
33
3.2
3.2.1
Suites récurrentes linéaires
Suites vectorielles récurrentes d’ordre un
Proposition 3.3 (Suites vectorielles récurrentes d’ordre un). Soit n un entier naturel non nul
et A une matrice carrée d’ordre n à coefficients dans K.
Soit (X k )k ∈N la suite de vecteurs-colonne définie par
(
X 0 ∈ Mn,1 (K)
∀k ∈ N, X k +1 = AX k
Alors
∀k ∈ N, X k = A k X 0
Démonstration. Montrons par récurrence sur k que X k = A k X 0 pour tout entier naturel k .
– Si n = 0, alors A 0 X 0 = I X 0 = X 0 . Donc la propriété est vraie au rang 0.
– Soit k un entier naturel tel que X k = A k X 0 . Alors : X k +1 = AX k = A(A k X 0 ) = A k +1 X 0 .
Donc la propriété est vraie au rang k + 1.
Pour déterminer l’expression de X k en fonction de k , on procède de la manière suivante.
Étape no 1 Calculer A k en fonction de k .
Étape no 2 Former et calculer le produit matrice-vecteur A k X 0 .
Exemple. Soit (u k )k ∈N , (v k )k ∈N et (w k )k ∈N trois suites réelles définies par :

v 0 = 22
w 0 = 22
2u k + v k + w k
u k +1 =


4


u k + vk + w k

∀k ∈ N,
v k +1 =



3






u k + v k + 2w k
w k +1 =
4






u 0 = 22

1. Calculer u k , v k et w k en fonction de k ∈ N.
2. En déduire l’étude de la convergence des suites (u k )k ∈N , (v k )k ∈N et (w k )k ∈N .
Romain Dujol
34
3.2.2
Suites récurrentes linéaires d’ordre supérieur
Proposition 3.4 (Suites récurrentes linéaires d’ordre supérieur). Soit p un entier naturel non
nul et (a i )0≤i ≤p −1 ∈ Kp . On considère la suite numérique (u k )k ∈N définie par

(u i )0≤i ≤p −1 ∈ Kp
p
−1
X
∀k ∈ N, u k +p =
a i u n+i

i =0
Soit (X k )k ∈N la suite de vecteurs-colonne définie par


uk


 u k +1 


∀k ∈ N, X k = (u k +i )0≤i ≤p −1 = 
..

.


u k +p −1

0
 .
 .
 .

Alors pour tout entier naturel k , X k +1 = AX k avec A =  ..
 .

0
a0
1
..
.
···
a1
0
..
.
..
.
···
···
···
..
.
..
.
0
a p −2

0
.. 

. 


0 

1 
a p −1
Pour déterminer l’expression de u k en fonction de k , on procède de la manière suivante.
Étape no 1 Construire la matrice A.
Étape no 2 Calculer A k en fonction de k .

u0


 u1 
k
o

Étape n 3 Former et calculer le produit A X 0 avec X 0 = (u i )0≤i ≤p −1 =  . 
. 
 . 
u p −1

Étape no 4 Le terme u k est la première composante du produit ainsi obtenu.
Exemple. Soit (u k )k ∈N la suite réelle définie par :
(
u0 = 1
u1 = 5
u2 = 1
∀k ∈ N, u k +3 = u k +2 + 4u k +1 − 4u k
Calculer u k en fonction de k .
Romain Dujol
35
3.3
Systèmes différentiels linéaires
3.3.1
Méthode par réduction directe
Proposition 3.5 (Systèmes différentiels linéaires).
Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K.
Soit X une application de R dans M p 1 (R) de classe C 1 sur R et (P, T ) une trigonalisation de A.
Alors X est solution du système différentiel X ′ = AX si et seulement si Y : t 7→ P −1 X (t ) est
solution du système différentiel Y ′ = T Y .
Pour résoudre le système X ′ = AX , on procède de la manière suivante.
Étape no 1 Déterminer une trigonalisation (P, T ) de A.
Étape no 2 Poser et résoudre le système Y ′ = T Y en fonction de Y (0) = P −1 X (0).
Étape no 3 Former et calculer PY (t ) pour tout t ∈ R.

x′ = x +y +z

Exemple. Résoudre le système différentiel y ′ = 2y + 2z .

z ′ = x − y + 3z
3.3.2
Méthode par exponentielle
Proposition 3.6.
Soit n un entier naturel non nul‚et A une Œ
matrice carrée d’ordre n à coefficients dans K.
P
Ak
A 7→
Alors la série d’applications
converge normalement localement sur M n (K).
k!
k ∈N
Définition 3.1 (Exponentielle de matrice).
Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K.
+∞ k
X
A
.
On définit l’exponentielle de A, notée e A , par e A par e A =
k!
k =0
On note exp l’application définie par exp : M n (K) → M n (K) .
A
7→ e A
Romain Dujol
36
Proposition 3.7. Soit n ∈ N et A et B deux matrices carrées d’ordre n à coefficients dans K.
1. L’application exp est continue sur M n (K).
2. Si A et B commutent, alors e A+B = e A e B .
3. e 0n = I n
4. e A est une matrice inversible et e A
−1
= e −A .
Démonstration.
1. La convergence normale locale de la série d’applications qui définit la fonction exponentielle assure la continuité de cette dernière.
P Bk
P Ak
et
sont absolument conver2. Comme A et B commutent et que les séries matricielles
k ∈N k !
k ∈N k !
gentes, il vient que leur série-produit l’est également et que la somme de cette dernière est égale
au produit des sommes des deux séries, c’est-à-dire e A e B .
Or le terme général de la série produit est :
k
k
k
k
X
X
X
Cik i k −i
A i B k −i
A i B k −i
1 X i i k −i (A + B )k
=
=
A B
=
C A B
=
i ! (k − i )! i =0 i ! (k − i )! i =0 k !
k ! i =0 k
k!
i =0
Par définition, cette série converge e A+B , ce qui permet de conclure.
(
+∞
X
0kn
I n si k = 0
. On en déduit alors que e 0n = I n +
0n = I n .
=
3. Soit k un entier naturel. Alors
k!
0n si k > 0
k =1
4. Comme A et −A commutent, il vient que I n = e 0n = e A+(−A) = e A e −A .
On en déduit que e A est inversible et que e −A est son inverse.
Proposition 3.8 (Changement de base).
Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K.
−1
Pour toute matrice P carrée d’ordre n à coefficients dans K inversible, on a e P AP = P −1 e A P.
Démonstration. e
P −1 AP
=
+∞
X
(P −1 AP)k
k =0
k!
=
+∞ −1 k
X
P A P
k =0
k!
=P
−1
+∞ k
X
A
k =0
k!
!
P = P −1 e A P
Proposition 3.9.
Soit n un entier non nul et A une matrice carrée d’ordre n à coefficients dans K.
Alors la solution du système différentielle X ′ = AX est X : t 7→ e t A X (0).
Pour résoudre le système X ′ = AX , on procède de la manière suivante.
Étape no 1 Calculer l’exponentielle de A :
(a) Déterminer une trigonalisation (P, T ) de A.
(b) Calculer e t T en fonction de t .
(c) Former et calculer le produit P −1 e t T P.
Étape no 2 Former et calculer le produit e t A X (0)
Romain Dujol
37
Remarque. Cette méthode est particulièrement adaptée lorsque T est diagonale, c’est-à-dire
lorsque A est diagonalisable car le calcul de l’exponentielle de D est immédiat :




e λ1 0 · · ·
0
λ1 0 · · · 0


.. 
.. 
.. ..
.. ..




.
.
.
.
0
. 
. 

0
⇒
eD =  .
D = .


.. ..
 .
 . ... ...


.
.
0
.
0
.




0 · · · 0 e λp
0 · · · 0 λp
Exemple. Résoudre le système différentiel

x′ = x +y +z

y ′ = 2y + 2z

Romain Dujol
.
′
z = x − y + 3z
38
Réduction des endomorphismes, applications : Exercices
Calcul des puissances d’une matrice

0

Exercice 3.1. Soit m un réel non nul et A =  1/m
1/m 2
1. A est-elle diagonalisable ?
m
0
1/m

m2

m .
0
2. Calculer A n pour tout entier naturel n .
Suites récurrentes linéaires
Exercice 3.2. Soit a et b deux nombres réels tels que a 6= 1.
Soit (u k )k ∈N et (v k )k ∈N deux suites réelles définies par
u 0 fixé

∀k ∈ N,
v 0 fixé
(
u k +1 = a u k + b v k
v k +1 = v k
1. Calculer u k et v k en fonction de k ∈ N.
2. En déduire l’étude de la convergence des suites (u k )k ∈N et (v k )k ∈N .
Exercice 3.3. Soit (u k )k ∈N une suite réelle définie telle que :
∀k ∈ N, u k +3 = u k +2 + 4u k +1 − 4u k


uk


Pour tout entier naturel k , on note X k = u k +1 .
u k +2
1. Montrer qu’il existe une matrice A (que l’on explicitera) telle que X k +1 = AX k pour tout
entier naturel k 
. 
1
 
2. (a) Calculer A 1
1
(b) En déduire l’expression de u k en fonction de k lorsque u 0 = u 1 = u 2 .
 
1
 
(c) Que dire de 1 pour A ?
1
3. (a) Diagonaliser A.
 
1
 
(b) Décomposer le vecteur 1 dans la base de diagonalisation de A.
1
(c) En déduire l’expression de u k en fonction de k lorsque u 0 = 1, u 1 = 5 et u 2 = 1.
4. Est-il possible de trouver des valeurs de u 0 , u 1 et u 2 telle que u 100 = u 101 = 0 et u 102 = 1012 ?
Si oui, les déterminer.
Romain Dujol
39
Chapitre 4
Formes bilinéaires. Formes
quadratiques
4.1
4.1.1
Forme bilinéaire
Définitions
Définition 4.1 (Forme bilinéaire). Soit E un R-espace vectoriel.
Une forme bilinéaire sur E est une application f de E × E dans R telle que :
1. pour tout vecteur x de E , y 7→ f (x , y ) est une forme linéaire sur E , c’est-à-dire :
∀λ ∈ R, ∀x ∈ E , ∀y ∈ E , ∀y ′ ∈ E , f (x , y + λy ′ ) = f (x , y ) + λ f (x , y ′ )
2. pour tout vecteur y de E , x 7→ f (x , y ) est une forme linéaire sur E , c’est-à-dire :
∀λ ∈ R, ∀x ∈ E , ∀x ′ ∈ E , ∀y ∈ E , f (x + λx ′ , y ) = f (x , y ) + λ f (x ′ , y )
Exemple.
1. E = R et f 1 : R × R → R
(x , y ) 7→ x y
2. E = R2 et f 2 :
R2 × R2
→ R
(x 1 , x 2 ), (y 1 , y 2 ) 7→ x 1 y 2 − x 2 y 1
3. E = C ([0, 1], R) et f 3 : C ([0, 1], R) × C ([0, 1], R) → R
Z1
(φ, ψ)
Romain Dujol
7→
φ(t )ψ(t ) dt
0
40
Proposition 4.1. Soit E un R-espace vectoriel et f une forme bilinéaire sur E .
1. ∀x ∈ E , f (x , 0E ) = 0
2. ∀y ∈ E , f (0E , y ) = 0
Définition 4.2 (Forme bilinéaire symétrique. Forme bilinéaire anti-symétrique).
Soit E un R-espace vectoriel et f une forme bilinéaire sur E .
f est dite symétrique si et seulement si
∀x ∈ E , ∀y ∈ E , f (y , x ) = f (x , y )
f est dite antisymétrique si et seulement si
∀x ∈ E , ∀y ∈ E , f (y , x ) = − f (x , y )
Exemple. En reprenant les exemples vus plus haut, les formes f 1 et f 3 sont symétriques et la
forme f 2 est antisymétrique.
Proposition 4.2 (Caractérisation rapide).
Soit E un R-espace vectoriel et f une application de E × E dans R.
Alors f est une forme bilinéaire symétrique si et seulement si les propositions suivantes sont
vérifiées :
1. pour tout vecteur x de E , y 7→ f (x , y ) est une forme linéaire sur E , c’est-à-dire :
∀λ ∈ R, ∀x ∈ E , ∀y ∈ E , ∀y ′ ∈ E , f (x , y + λy ′ ) = f (x , y ) + λ f (x , y ′ )
2. ∀x ∈ E , ∀y ∈ E , f (y , x ) = f (x , y )
Démonstration. Soit alors un vecteur y de E : montrons que x 7→ f (x , y ) est une forme linéaire sur E .
Soit x et x ′ deux vecteurs de E et λ un nombre réel. Alors f (x + λx ′ , y ) = f (y , x + λx ′ ) = f (y , x ) +
λ f (y , x ′ ) = f (x , y ) + λ f (x ′ , y ).
Remarque. La proposition est toujours valable si on remplace l’hypothèse de linéarité f selon y
par l’hypothèse de linéarité de f selon x .
Romain Dujol
41
4.1.2
Orthogonalité
Définition 4.3 (Vecteurs orthogonaux).
Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E .
Deux vecteurs x et y de E sont dits orthogonaux pour f si et seulement si f (x , y ) = 0.
Remarque. Si f n’est pas symétrique, alors on peut avoir f (x , y ) = 0 et f (y , x ) 6= 0, ce qui complique la définition.
Définition 4.4 (Orthogonal d’une partie).
Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E .
Pour toute partie A de E , on appelle orthogonal de A (pour f ), noté A ⊥ , le sous-espace
vectoriel de E des vecteurs orthogonaux pour f à tous les vecteurs de A :
A ⊥ = {x ∈ E , ∀y ∈ A, f (x , y ) = 0}
Démonstration. Montrons que A ⊥ est bien un sous-espace vectoriel de E .
Soit x 1 et x 2 deux éléments de A ⊥ et λ un nombre réel. Pour tout y de A, on a f (x 1 +λx 2 , y ) = f (x 1 , y )+
λ f (x 2 , y ) = 0. Donc x 1 + λx 2 est un élément de A ⊥ .
Proposition 4.3. Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E .
Soit A et B deux parties de E .
1. Si A ⊂ B , alors B ⊥ ⊂ A ⊥ .
2. A ⊥ = (Vect A)⊥
3. (A ∪ B )⊥ = A ⊥ ∩ B ⊥
Démonstration.
1. Soit x ∈ B ⊥ et y ∈ A. Alors y ∈ B et f (x , y ) = 0. Donc pour tout élément y de A, f (x , y ) = 0 : x ∈ A ⊥ .
2. Montrons la double inclusion.
· Soit x ∈ A ⊥ et y ∈ Vect(A). Alors
∃p ∈ N\{0}, ∃(λi )1≤i ≤p ∈ Rp , ∃(y i )1≤i ≤p ∈ A p , y =
On en déduit que f (x , y ) = f
x,
p
X
i =1
p
X
!
λi y i
=
p
X
λi y i
i =1
f (x , y i ) = 0.
i =1
Donc pour tout élément y de Vect A, f (x , y ) = 0 : x ∈ (Vect A)⊥ .
· Comme A ⊂ Vect A, il vient que (Vect A)⊥ ⊂ A ⊥ .
3. Soit x un vecteur de E . Alors
⊥
x ∈ (A ∪ B ) ⇐⇒ ∀y ∈ A ∪ B, f (x , y ) = 0 ⇐⇒
Romain Dujol
(
∀y ∈ A, f (x , y ) = 0
∀y ∈ B, f (x , y ) = 0
⇐⇒ x ∈ A ⊥ ∩ B ⊥
42
Définition 4.5 (Noyau).
Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E .
On appelle noyau de f, noté N ( f ), le sous-espace vectoriel de E défini par
N ( f ) = E ⊥ = {x ∈ E , ∀y ∈ E , f (x , y ) = 0}
Définition 4.6 (Forme non dégénérée).
Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E .
On dit que f est non dégénérée si et seulement si N ( f ) = {0E }.
Définition 4.7 (Rang).
Soit E un R-espace vectoriel de dimension finie et f une forme bilinéaire symétrique sur E .
On définit le rang de f , noté rg f , par rg f = dim E − dim N ( f ).
4.1.3
Matrice d’une forme bilinéaire
Proposition 4.4. Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
2
La donnée des valeurs f (e i , e j ) pour tout (i , j ) ∈ J1, n K définit de manière unique la forme
bilinéaire f .
Démonstration. Soit x et y deux vecteurs de E que l’on décompose dans la base B = (e 1 , . . . , e n ) :
x=
n
X
xi ei
et
n
X
yj e j
j =1
i =1
Alors
y=



n
n
n
n
n
n
X
X
X
X

 XX


x i y j f (e i , e j )
xi ei ,
yj e j  =
yj e j  =
x i f e i ,
f (x , y ) = f 

i =1
j =1
i =1
i =1 j =1
j =1
2
Donc si les valeurs f (e i , e j ) sont connues pour tout (i , j ) ∈ J1, n K , alors f (x , y ) est calculable de manière
unique pour tous vecteurs x et y de E .
Romain Dujol
43
Définition 4.8 (Matrice d’une forme bilinéaire).
Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
Pour toute forme bilinéaire f sur E , on définit la matrice de f dans B , notée matB f par
matB f = f (e i , e j )
(i ,j )∈J1,n K
2
Corollaire. Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
Si il existe des réels (a i j )(i ,j )∈J1,n K2 tels que pour :
n
X
∀x =
i =1
x i e i , ∀y =
n
X
y j e j , f (x , y ) =
j =1
n X
n
X
a i j xi yj
i =1 j =1
alors matB f = (a i j )(i ,j )∈J1,n K2 .
Exemple. Déterminer la matrice de f :
R3 × R3
→ R
.
(x 1 , x 2 , x 3 ), (y 1 , y 2 , y 3 ) 7→ x 1 y 2 + 7x 3 y 1 − 4x 3 y 3
Proposition 4.5 (Écriture matricielle).
Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
Soit f une forme bilinéaire sur E et A la matrice de f dans B . Alors pour tous x et y vecteurs
de E , on a :
f (x , y ) = t X AY
avec
X = matB x
et
Y = matB y
Démonstration. Soit x et y deux vecteurs de E que l’on décompose dans la base B = (e 1 , . . . , e n ) :
x=
n
X
xi ei
et
y=
i =1
n
X
yj e j
j =1


 
!
x1
y1
n
X
 . 
 .
 .
a i j yj
. 
Alors X = matB x = 
, puis
 .  et Y = matB y =  . . Donc AY =
j =1
1≤i ≤n
xn
yn
t
X (AY ) =
n
X
xi
i =1
n
X
j =1
a i j yj =
n
n X
X
i =1 j =1
a i j xi yj =
n
n X
X
x i y j f (e i , e j ) = f (x , y )
i =1 j =1
d’après les calculs précédents.
Romain Dujol
44
Corollaire. Soit E un R-espace vectoriel de dimension finie et f une forme bilinéaire sur E .
1. f est symétrique si et seulement si il existe une base B de E telle que matB soit une matrice
symétrique.
2. f est antisymétrique si et seulement si il existe une base B de E telle que matB soit une
matrice antisymétrique.
Proposition 4.6 (Caractérisation matricielle du noyau).
Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
Soit f une forme bilinéaire symétrique sur E et A la matrice de f dans B . Alors
x ∈ N ( f ) ⇐⇒ X = matB x ∈ Ker A
Démonstration.
Lemme.
φ:
M n 1 (R)2
(X , Y )
→
7→
R
est une forme bilinéaire symétrique non dégénérée.
tX Y
Démonstration. En exercice
Soit x un vecteur de E et X = matB x . Alors x ∈ N ( f ) ⇐⇒ ∀y ∈ E , f (x , y ) = 0
⇐⇒ ∀Y ∈ M n 1 (R), t X AY = 0
⇐⇒ ∀Y ∈ M n 1 (R), t ( t X AY ) = 0
⇐⇒ ∀Y ∈ M n 1 (R), t Y t AX = 0
⇐⇒ ∀Y ∈ M n 1 (R), t Y AX = 0
⇐⇒ ∀Y ∈ M n 1 (R), φ(Y, AX ) = 0
D’où le résultat demandé.
⇐⇒ AX ∈ Ker φ = {0} ⇐⇒ X ∈ Ker A
Corollaire.
Soit E un R-espace vectoriel de dimension finie et f une forme bilinéaire symétrique sur E .
Alors f est non dégénérée si et seulement si il existe une base B de E telle que matB f soit
inversible.
Démonstration. On a alors Ker A = {0n 1 }. D’après ce qui précède, on en déduit que N ( f ) = {0E }.
Proposition 4.7 (Formule de changement de bases pour les formes bilinéaires).
Soit E un R-espace vectoriel de dimension finie et B et B ′ deux base de E . On note P = PB ,B ′
la matrice de passage de B dans B ′ .
Soit f une forme bilinéaire sur E . On note A la matrice de f dans B et A ′ la matrice de f
dans B ′ . Alors
A ′ = t PAP
Romain Dujol
45
Démonstration. Soit x un vecteur de E . On note X = matB x et X ′ = matB ′ x : alors X = PX ′ . Soit y un
vecteur de E . On note Y = matB y et Y ′ = matB ′ y : alors Y = PY ′ .
On a alors f (x , y ) = t X AY = t (PX ′ )A(PY ′ ) = t X ′ t PAPY ′ . En identifiant avec l’expression
f (x , y ) = t X ′ AY ′ pour toutes matrices-colonne X ′ et Y ′ , on en conclut que A ′ = t PAP.
ATTENTION. Ce n’est donc pas la même formule que pour le changement de bases pour les applications linéaires (A ′ = P −1 AP).
4.2
Forme quadratique
4.2.1
Définitions
Définition 4.9 (Forme quadratique). Soit E un R-espace vectoriel.
Une application q de E dans R est une forme quadratique sur E si et seulement si il existe
une forme bilinéaire f telle que
∀x ∈ E , q (x ) = f (x , x )
Auquel cas, q est appelée forme quadratique associé à f .
Proposition 4.8. Soit E un R-espace vectoriel, f une forme bilinéaire sur E et q la forme quadratique associé à f .
1. q (0E ) = 0
2. ∀λ ∈ K, ∀x ∈ E , ∀y ∈ E , q (x + λy ) = q (x ) + λ f (x , y ) + λ f (y , x ) + λ2q (y )
3. ∀λ ∈ R, ∀x ∈ E , q (λx ) = λ2q (x )
Corollaire. Soit E un R-espace vectoriel, f une forme bilinéaire symétrique sur E et q la forme
quadratique associé à f . Alors
∀x ∈ E , ∀y ∈ E , q (x + y ) = q (x ) + 2 f (x , y ) + q (y )
Proposition 4.9 (Forme polaire).
Soit E un R-espace vectoriel et q une forme quadratique sur E .
Alors il existe une unique forme bilinéaire symétrique f s , appelée forme polaire de q , telle
que q est la forme bilinéaire associée à f . De plus
∀x ∈ E , ∀y ∈ E , f s (x , y ) =
q (x + y ) − q (x ) − q (y )
2
ou encore
q (x + y ) − q (x − y )
4
Ces deux relations sont appelées identités de polarisation.
∀x ∈ E , ∀y ∈ E , f s (x , y ) =
ATTENTION. Si on enlève le terme « symétrique », l’unicité n’est plus vérifiée.
Romain Dujol
46
Démonstration. Comme q est une forme quadratique, il existe une forme bilinéaire f sur E telle que
q (x ) = f (x , x ) pour tout vecteur x de E .
Montrons que f s : E × E → R
est une forme bilinéaire symétrique sur E .
q (x + y ) − q (x ) − q (y )
(x , y ) 7→
2
Soit x et y deux vecteurs de E . Alors q (x + y ) = q (x ) + f (x , y ) + f (y , x ) + q (y ), donc
f s (x , y ) =
q (y + x ) − q (y ) − q (x ) f (x , y ) + f (y , x )
=
2
2
· Soit x et y deux vecteurs de E . Alors f s (y , x ) =
f (y , x ) + f (x , y ) f (x , y ) + f (y , x )
=
= f s (x , y ).
2
2
· Soit x , y et y ′ des vecteurs de E et λ un nombre réel. Alors
f (x , y + λy ′ ) + f (y , x + λy ′ ) f (x , y ) + λ f (x , y ′ ) + f (y , x ) + λ f (y ′ , x ))
=
2
2
′
f (x , y ) + f (y , x )
f (x , y ) + f (y ′ , x )
=
+λ
= f s (x , y ) + λ f s (x , y ′ )
2
2
f s (x , y + λy ′ ) =
Soit x un vecteur de E , alors f s (x , x ) =
quadratique associée à f s .
4.2.2
f (x , x ) + f (x , x )
= f (x , x ) = q (x ) : donc q est bien la forme
2
Orthogonalité
Proposition 4.10 (Théorème de PYTHAGORE). Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E . On note q la forme quadratique associée à f .
Alors x et y sont deux vecteurs orthogonaux de E si et seulement si q (x + y ) = q (x ) + q (y ).
Démonstration. On rappelle que q (x + y ) = q (x ) + 2 f (x , y ) + q (y ). Alors
x et y sont orthogonaux ⇐⇒ 2 f (x , y ) = 0 ⇐⇒ q (x + y ) − q (x ) − q (y ) = 0 ⇐⇒ q (x + y ) = q (x ) + q (y )
Définition 4.10 (Noyau. Rang). Soit E un R-espace vectoriel et q une forme quadratique sur E .
On définit le noyau de q , noté N (q ), comme le noyau de la forme polaire de q .
On définit le rang de q , noté rgq , comme le rang de la forme polaire de q .
Définition 4.11 (Vecteur isotrope. Cône isotrope).
Soit E un R-espace vectoriel et q une forme quadratique sur E .
On dit qu’un vecteur x de E est isotrope pour q si et seulement si q (x ) = 0.
On appelle cône isotrope de q , noté I (q ), l’ensemble des vecteurs isotropes de q .
Romain Dujol
47
ATTENTION. La partie I (q ) n’est pas en général un espace vectoriel : ce n’est donc pas la même
chose que N (q ).
Exemple. Étudier N (q ) et I (q ) lorsque q est définie par q :
R2
→ R
.
(x 1 , x 2 ) 7→ x 12 − x 22
Proposition 4.11. Soit E un R-espace vectoriel et q une forme quadratique sur E .
Alors N (q ) ⊂ I (q ).
Démonstration. On note f s la forme polaire de q .
Soit x ∈ N (q ) = N ( f s ). Alors pour tout vecteur y de E , on a f s (x , y ) = 0. En particulier, si y = x , alors
q (x , x ) = f s (x , x ) = 0 et x ∈ I (q ).
Définition 4.12 (Forme quadratique positive, définie positive).
Soit E un R-espace vectoriel et q une forme quadratique sur E .
On dit que q est une forme quadratique positive si et seulement si q (E ) ⊂ R+ , c’est-à-dire
que q (x ) est un réel positif pour tout vecteur x de E , i.e. :
q est positive ⇐⇒ ∀x ∈ E , q (x ) ≥ 0
On dit que q est une forme quadratique définie positive si et seulement si q est positive et
que I (q ) = 0, i.e. :
(
∀x ∈ E , q (x ) ≥ 0
q est définie positive ⇐⇒
q (x ) = 0 ⇐⇒ x = 0
Remarque. On définit de manière analogue une forme quadratique négative ou définie négative.
Théorème 4.1 (Inégalité de CAUCHY-SCHWARTZ). Soit E un R-espace vectoriel et f une forme
bilinéaire symétrique dont la forme quadratique associée est positive. Alors :
∀x ∈ E , ∀y ∈ E , | f (x , y )| ≤
p
q (x )q (y )
Démonstration. On a :
∀x ∈ E , ∀y ∈ E , ∀λ ∈ R, 0 ≤ q (x + λy ) = q (x ) + 2λ f (x , y ) + λ2 q (y )
Soit x et y deux vecteurs de E . Alors le trinôme du second degré λ 7→ q (x ) + 2λ f (x , y ) + λ2q (y ) est positif :
donc il ne peut avoir deux racines réelles distinctes, ce qui implique que son discrimant ∆ = 4 f (x , y )2 −
4q (x )q (y ) est négatif ou nul.
Donc pour tous vecteurs x et y de E , f (x , y )2 ≤ q (x )q (y ). On conclut en passant à la racine carrée
(car q est positive).
Romain Dujol
48
Corollaire (Inégalité de MINKOWSKI). Soit E un R-espace vectoriel et f une forme bilinéaire
symétrique dont la forme quadratique associée est positive. Alors :
∀x ∈ E , ∀y ∈ E ,
p
p
p
q (x + y ) ≤ q (x ) + q (y )
Démonstration. Soit x et y deux vecteurs de E . Alors d’après l’inégalité de CAUCHY-SCHWARTZ :
hp
i2
p
p
q (x + y ) = q (x ) + 2 f (x , y ) + q (y ) ≤ q (x ) + 2 q (x )q (y ) + q (y ) =
q (x ) + q (y )
On conclut en passant à la racine carrée (car q est positive).
4.2.3
Matrice d’une forme quadratique
Définition 4.13 (Matrice d’une forme quadratique). Soit E un R-espace vectoriel de dimension finie et B une base de E .
Pour toute forme quadratique q sur E , on définit la matrice de q dans B , noté matB q par
matB q = matB f s
où f s désigne la forme polaire de q .
Remarque. Comme f s est symétrique, il vient que la matrice d’une forme quadratique est toujours symétrique.
Proposition 4.12. Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
Si il existe des réels (a i j )(i ,j )∈J1,n K2 tels que pour :
n
X
∀x =

a 11

 a 12

alors matB q =  2.
 .
 .
a 1n
2
a 12
2
a 22
..
.
···
Démonstration. Soit f s :
i =1
X
a i j xi x j
1≤i ≤j ≤n
a 1n
2
···
..
.
..
.

..
.
a n −1,n
2
E ×E
x i e i , f (x , y ) =



.
a n −1,n 
2 
a nn
R
la forme polaire de q .
q (x + y ) − q (x ) − q (y )
(x , y ) 7→
2
Soit k et l deux entiers de J1, n K. Alors, d’après la définition de la matrice de q , le coefficient en
q (e k + e l ) − q (e k ) − q (e l )
.
position (k , l ) de matB q est f s (e k , e l ) =
2
Romain Dujol
→
49
(
1 si i = k
· Si x = e k , alors pour tout i ∈ J1, n K, x i =
. Donc pour tous entiers i et j de J1, n K,
0 si i 6= k
(
1 si i = k et j = k
xi x j =
et q (e k ) = a k k .
0 si i 6= k ou j 6= k
· De même, q (e l ) = a l l .
(
1 si i = k ou i = l
· Si x = e k + e l , alors pour tout i ∈ J1, n K, x i =
. On distingue alors trois cas :
0 si i 6= k et i 6= l
– si k = l , alors x = 2e k et q (x ) = 4q (e k ) = 4qk k ;
(
1 si (i , j ) ∈ {(k , k ), (k , l ), (l , l )}
et q (e k +
– si k < l , alors pour tous entiers i et j de J1, n K, x i x j =
0 sinon
el ) = a kk + a kl + a l l
– de même, si l < k , q (e k + e l ) = a l l + a l k + a k k .
Finalement :
· Si k = l , alors f s (e k , e k ) = q (e k ) = a k k .
akl
akk + akl + al l − akk − al l
=
.
· Si k < l , alors f s (e k , e l ) =
2
2
alk
· De même, si k > l , f s (e k , e l ) =
.
2
4.2.4
Réduction d’une forme quadratique
Théorème. Soit E un R-espace vectoriel de dimension finie.
Toute forme quadratique sur E peut se décomposer en une combinaison linéaire de carrés de
formes linéaires indépendantes.
Démonstration. Soit n un entier naturel non nul. On démontrera le résultat pour E = Rn , le résultat
pouvant être étendu par isomorphisme à tout R-espace vectoriel de dimension n.
Montrons par récurrence que pour tout entier naturel non nul n et pour toute forme quadratique
sur Rn , il existe une famille (Φi )1≤i ≤n de vecteurs indépéndants de L (Rn , R) et un n-uplet (λi )1≤i ≤n de
nombres réels tels que
n
X
∀x ∈ Rn , q (x ) =
λi Φ(x )2
i =1
· Si n = 1, alors il existe un nombre réel λ tel que q : x 7→ λx 2 . La décomposition demandée est alors
évidente et la propriété est vraie au rang 1.
· Supposons que la décomposition demandée soit possible pour toute forme quadratique de Rn .
Soit q une forme quadratique sur Rn +1 : alors il existe une famille (a i j )1≤i ≤j ≤n +1 de nombres réels
tels que :
X
∀x = (x 1 , . . . , x n +1 ) ∈ Rn +1 , q (x ) =
a i j xi x j
1≤i ≤j ≤n
Romain Dujol
50
On distingue deux cas.
– Si il existe i 0 ∈ J1, n + 1K tel que a i 0 i 0 soit non nul. Quitte à réordonner les variables, on peut
supposer sans perte de généralité que i 0 = 1. Alors on écrit pour tout x = (x 1 , . . . , x n +1 ) de Rn +1 :
q (x ) = a 11 x 12 +
n
X
i =2

= a 11 x 12 +
X
a 1i x 1 x i +
n
X
a
i =2


1i
a 11
= a 11
a i j xi x j
2≤i ≤j ≤n
n
!2
n
X
a 1i
xi
x1 +
2a
11
i =2
!2
n
X
a 1i
xi
x1 +
2a
11
i =2
!2
a 1i
−
2
xi
2a 11
2≤i ≤j ≤n
X
a 1i a i j
X
−
aij
+
2≤i ≤j ≤n
→
(x 2 , . . . , x n +1 )
2a 11
2≤i ≤j ≤n
X
Rn
Soit l’application q1 :
X
x 1x i  +
X a

1i
= a 11  x 1 +
xi
2a 11
i =2
= a 11
a i j xi x j
2≤i ≤j ≤n
7→

X
a 1j

xj  +
a i j xi x j
·
2a 11
2≤i ≤j ≤n
xi x j +
X
a i j xi x j
2≤i ≤j ≤n
a 1i
1−
xi x j
2a 11
R
X
aij
2≤i ≤j ≤n
.
a 1i
1−
xi x j
2a 11
Alors q1 est une forme quadratique sur Rn et, d’après l’hypothèse de récurrence, il existe un
n-uplet (λi )2≤i ≤n +1 de nombres réels et une famille (Φ̃i )2≤i ≤n +1 de vecteurs indépendants de
L (Rn , R) tels que :
∀(x 2 , . . . , x n +1 ) ∈ Rn , q1 (x 2 , . . . , x n +1 ) =
n +1
X
λi Φ̃i (x 2 , . . . , x n +1 )2
i =2
Rn +1
x = (x 1 , . . . , x n +1 )
Alors la famille (Φi )2≤i ≤n +1 est indépendante dans L (Rn +1 , R).
Pour tout entier i de J2, n + 1K, on note Φi :
Rn +1
→
7→
R
.
Φ̃i (x 2 , . . . , x n +1 )
.
n
X
a 1i
xi
x = (x 1 , . . . , x n +1 ) 7→ x 1 +
2a 11
i =2
Alors Φ1 est une forme linéaire sur Rn +1 et elle est indépendante des formes linéaires Φ2 , . . . Φn +1
car elle seule dépend explicitement de x 1 .
On déduit de tous ces éléments que :
On note λ1 = a 11 et Φ1 :
→
R
∀x = (x 1 , . . . , x n +1 ) ∈ Rn +1 , q (x ) = λ1 Φ1 (x )2 + q1 (x ) = λ1 Φ1 (x )2 +
= λ1 Φ1 (x )2 +
n +1
X
λi Φ̃i (x 2 , . . . , x n +1 )2
i =2
n +1
X
λi Φi (x )2 =
i =1
i =2
On obtient ainsi la décomposition demandée.
Romain Dujol
n +1
X
51
λi Φi (x )2
– Si pour tout entier i de J1, n K, le coefficient a i i est nul, soit i 0 et j 0 deux entiers de J1, n K tels que
i 0 6= j 0 et que le coefficient a i 0 j 0 soit non nul 1 .
Quitte à réordonner les variables, on peut supposer sans perte de généralité que i 0 = 1 et j 0 = 2.
Alors on écrit pour tout vecteur x = (x 1 , . . . , x n +1 ) de Rn +1 :
q (x ) = a 12 x 1 x 2 +
n
X
a 1i x 1 x j +
= a 12 x 1 x 2 +
n
X
a
i =3

= a 12  x 1 +
a 12
n
X
a
i =3
1i
x 1x j +
n
X
a
i =3
a 12

2i
a 12
· x2 +
xj
a i j xi x j
3≤i ≤j ≤n
!
2i
X
a 2i x 2 x j +
i =3
i =3

n
X
X
x 2x j  +
n
X
a
i =3
a i j xi x j
3≤i ≤j ≤n
n
X
a
!
1i
a 12
xj
−
i =3
n
X
a
!
2i
a 12
xj
·
!
1i
a 12
i =3
X
xj  +
a i j xi x j
3≤i ≤j ≤n

!2
!2 
n
n
n
n
X
X
X
X
a 12 
a 2i
a 1i
a 1i
a 2i

=
− x1 +
x j + x2 +
xj
x j − x2 −
xj 
 x1 +
4
a
a
a
a
12
12
12
12
i =3
i =3
i =3
i =3
!
!
n
n
Xa
X
Xa
2i
1i
a i j xi x j
− a 12
xj ·
xj +
a
a
i =3 12
3≤i ≤j ≤n
i =3 12
On procède comme dans le cas précédent en appliquant l’hypothèse de récurrence sur
Rn −1
q1 :
→
(x 3 , . . . , x n +1 )
R
7→
n
X
a
−a 12
i =3
!
2i
a 12
xj
·
n
X
a
i =3
!
1i
a 12
X
xj
a i j xi x j
+
3≤i ≤j ≤n
pour obtenir une décomposition de q1 de la forme :
∀x = (x 1 , . . . , x n +1 ) ∈ Rn +1 , q1 (x ) =
Par
construction,
Rn +1
Φ1 :
x = (x 1 , . . . , x n +1 )
Rn +1
Φ2 :
→
2i
R
7→
x1 +
n
X
a
λi Φi (x )2
i =3
→
n
X
a
i =3
2i
a 12
x j + x2 +
n
X
a
i =3
et
1i
a 12
xj
sont deux formes linéaires indé-
R
n
X
a
n
X
1i
x j − x2 −
xj
a 12
a
i =3 12
pendantes entre elles et elles sont également indépendantes des formes linéaires Φ3 , . . . , Φn +1
car seules Φ1 et Φ2 dépendent explicitement de x 1 et x 2 .
On conclut comme précédemment à l’existence de la décomposition demandée et la propriété
est vraie au rang n + 1.
x = (x 1 , . . . , x n +1 )
7→
x1 +
i =3
Remarque. La méthode de décomposition présentée est appelée décomposition de GAUSS de q .
1. Si deux tels entiers n’existe pas, alors q est la forme quadratique nulle. . . et la décomposition est évidente !
Romain Dujol
52
Proposition 4.13 (Loi d’inertie de SYLVESTER. Signature).
Soit E un R-espace vectoriel de dimension n et q une forme quadratique sur E .
Pour toute décomposition de q en combinaison linéaire de carrées de formes linéaires
n
X
q=
λi Φ2 , on note :
i =1
– σ+ le nombre de coefficients λi strictement positifs ;
– σ− le nombre de coefficients λi strictement négatifs.
Les nombres σ+ et σ− ne dépendent de la décomposition choisie.
Le couple (σ+ , σ− ) est appelé la signature de q .
Proposition 4.14. Soit E un R-espace vectoriel de dimension finie et q une forme quadratique
sur E de signature (σ+ , σ− ). Alors rgq = σ+ + σ− .
Proposition 4.15 (Caractérisation rapide de la signature). Soit E un R-espace vectoriel de dimension finie et q une forme quadratique sur E de signature (σ+ , σ− ).
Soit B une base de E et A la matrice de q dans B . Alors :
1. σ+ est égal au nombre de valeurs propres strictement positives de A ;
2. σ+ est égal au nombre de valeurs propres strictement négatives de A.
Romain Dujol
53
Formes bilinéaires. Formes quadratiques : Exercices
Formes bilinéaires
Exercice 4.1. Soit f la forme bilinéaire sur R3 définie par
f :
R3 × R3
→ R
(x 1 , x 2 , x 3 ), (y 1 , y 2 , y 3 ) 7→ x 1 y 1 + 6x 2 y 2 + 56x 3 y 3 − 2(x 1 y 2 + x 2 y 1 ) + 7(x 1 y 3 + x 3 y 1 ) + 18(x 2 y 3 + x 3 y 2 )
1. Écrire la matrice de f dans la base canonique de R3 .
2. (a) Montrer que B = (1, 0, 0), (2, 1, 0), (−3, 2, 1) est une base de R3 .
(b) Écrire la matrice de f dans la base B .
3. Soit q la forme quadratique q associée à f .
(a) Donner l’expression de q dans la base canonique de R3 .
(b) Donner l’expression de q dans la base B .
Exercice 4.2. Soit E un R-espace vectoriel et f une forme bilinéaire sur E telle que
∀x ∈ E , f (x , x ) = 0 ⇒ x = 0
Soit U une application de E dans E telle que
∀x ∈ E , ∀y ∈ E , f U (x ),U (y ) = f (x , y )
Montrer que U est un endomorphisme injectif de E .
Formes quadratiques
Exercice 4.3. Soit E un R-espace vectoriel, f une forme bilinéaire sur E et q la forme quadratique
associée à f .
1. Soit x et y deux vecteurs isotropes de q . Montrer que :
x + y est un vecteur isotrope de q ⇐⇒ x et y sont orthogonaux pour q
2. (a) Montrer que :
(b) Montrer que :
(c) Montrer que :
∀x ∈ E , ∀y ∈ E , q (x + y ) + q (x − y ) = 2q (x ) + 2q (y )
∀x ∈ E , ∀y ∈ E , q (x + y ) − q (x − y ) = 2 f (x , y ) + f (y , x )
∀x ∈ E , ∀y ∈ E , ∀z ∈ E , q (x + y ) +q (x + z ) +q (y + z ) = q (x ) +q (y ) +q (z ) +q (x + y + z )
3. Montrer que q est identiquement nulle si et seulement si f est antisymétrique.
Romain Dujol
54
Exercice 4.4.
1. Les applications suivantes sont-elles des formes quadratiques sur R[X ] ?
(a) Φ1 : P 7→ P(0)P(1)
(b) Φ2 : P 7→ P(0)P(1) + P(0)
(c) Φ3 : P 7→ P(0)P(1)P(2)
2. Soit q : R2 [X ] → R
.
P
7→ P(0)P(1)
(a) Déterminer la forme polaire de q .
(b) Déterminer la matrice de q dans la base canonique de R2 [X ].
Exercice 4.5. Soit q la forme quadratique sur R4 définie par
q:
R4
→ R
(x 1 , x 2 , x 3 , x 4 ) 7→ 4x 1 x 2 + 6x 32 + 6x 3 x 4 + 2x 42
1. (a) Déterminer la matrice de q dans la base canonique de R4 .
(b) Déterminer l’expression de la forme polaire f de q .
(c) La forme bilinéaire symétrique f est-elle dégénérée ?
2. Déterminer les vecteurs de P = Vect{(1, 0, 0, 0), (0, 1, 0, 0)} isotropes pour q
Exercice 4.6.
Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients réels.
On définit l’application f par f : M n1 (R) × M n1 (R) → R
.
t
(X , Y )
7→ X AY
On note q la forme quadratique associé à f .
1. Montrer que f est une forme bilinéaire sur M n1 (R).
2. (a) Quelle est la matrice de f dans la base canonique de M n1 (R) ?
(b) Calculer la matrice de q dans la base canonique de M n1 (R).
Œ
‚
0 2
.
3. Soit A =
0 0
(a) Calculer les valers propres de A.
(b) Calculer les valeurs propres de la matrice de q dans la base canonique de M n1 (R) et
en déduire la signature de q .
(c) Que dire de l’assertion « Si A a toutes ses valeurs propres positives, alors X 7→ t X AX est
une forme bilinéaire symétrique positive sur M n1 (R). » ?
Comparer par rapport à la proposition 4.15 page 53.
Romain Dujol
55
Œ
2 4
.
4. Soit A =
0 1
‚
(a) Calculer les valers propres de A.
(b) Calculer les valeurs propres de la matrice de q dans la base canonique de M n1 (R) et
en déduire la signature de q .
(c) Que dire de l’assertion « Si A a toutes ses valeurs propres strictement positives, alors
X 7→ t X AX est une forme bilinéaire symétrique définie positive sur M n1 (R). » ?
Comparer par rapport à la proposition 4.15 page 53.
5. Montrer que une forme bilinéaire est antisymétrique et seulement si sa forme quadratique
associée est nulle.
Réduction de formes quadratiques
Exercice 4.7. Pour chacune des formes quadratiques qi suivantes, déterminer :
– sa matrice A i dans la base canonique ;
– sa signature et son rang ;
– son noyau N (qi ).
1. q1 : M 2 (R) → R
A
7→ det A
2. q2 :
3. q3 :
4. q4 :
5. q5 :
6. q6 :
R3
→ R
(x 1 , x 2 , x 3 ) 7→ x 12 + 2x 22 + 2x 32 + 2x 1 x 2 − 4x 1 x 3 − 6x 2 x 3
R3
→ R
où a est un réel de ]0, 1[
2
2
(x 1 , x 2 , x 3 ) 7→ x 1 + x 2 − 2a (x 1 x 2 + x 1 x 3 + x 2 x 3 )
R3
→ R
(x 1 , x 2 , x 3 ) 7→ x 1 x 2 + x 1 x 3
R4
→ R
(x 1 , x 2 , x 3 , x 4 ) 7→ x 12 + x 22 + 2x 1 x 2 + 2x 1 x 3 + 2x 1 x 4 + 2x 2 x 3 + 2x 2 x 4 + 4x 3 x 4
R6
→ R
(x 1 , x 2 , x 3 , x 4 , x 5 , x 6 ) 7→ x 1 x 2 + x 2 x 3 + x 3 x 4 + x 4 x 5 + x 5 x 1
7. q7 : R2 [X ] → R
P
7→ P(0)P(1)
Pour P = 1 + X + X 2 , déterminer {P}⊥ puis {P}⊥⊥ .
Romain Dujol
56
Exercice 4.8. Pour chacune des formes quadratiques suivantes, déterminer sa signature.
1. q1 :
2. q2 :
3. q3 :
R3
→ R
(x 1 , x 2 , x 3 ) 7→ x 12 + x 22 − x 32 + 2x 1 x 3
R4
→ R
où λ est un nombre réel quelconque
(x 1 , x 2 , x 3 , x 4 ) 7→ 2(x 1 x 2 + x 3 ) − λ(x 1 x 3 + x 3 x 4 )
Rn
→ R
n
X
(x 1 , . . . , x n ) →
7
x i2 + a
i =1
Rn
4. q4 :
→ RX
(x 1 , . . . , x n ) 7→
1≤i <j ≤n
où a est un nombre réel quelconque
n
X
!2
xi
i =1
(x i − x j )2
Orthogonalité
Exercice 4.9. Soit α un nombre réel et qα la forme quadratique sur R3 définie par
qα :
R3
→ R
(x 1 , x 2 , x 3 ) 7→ 4x 12 + 4x 22 + αx 32 + 2x 1 x 2 + 4x 1 x 3 − 4x 2 x 3
1. Déterminer une décomposition de GAUSS de qα .
2. (a) Étudier le rang et la signature de qα selon la valeur de α.
(b) À quelle condition sur α, la forme quadratique α est-elle positive ? définie positive ?
négative ? définie négative ?
3. (a) Déterminer une base B8/3 q8/3 -orthogonale, i.e. une base de vecteurs de R3 deux à deux
orthogonaux pour q8/3 .
(b) Déterminer la matrice de q8/3 dans B8/3 .
Exercice 4.10. Soit l’application q : M n (R) → R
.
A
7→ tr(A 2 )
1. Montrer que q est une forme quadratique sur M n (R) et déterminer sa forme polaire f .
2. Montrer que Sn (R) et An (R) sont des sous-espaces supplémentaires dans M n (R) et orthogonaux pour f .
3. Déterminer une base q -orthogonale de M 2 (R).
Romain Dujol
57
Chapitre 5
Espaces euclidiens
5.1
5.1.1
Produit scalaire
Définition
Définition 5.1 (Produit scalaire). Soit E un R-espace vectoriel.
Un produit scalaire sur E est une forme bilinéaire sur E symétrique dont la forme quadratique est définie positive.
Proposition 5.1 (Norme euclidienne). Soit E un R-espace vectoriel.
Soit f un produit scalaire sur E et q la forme quadratique associée à f .
est une norme sur E et est appelée norme euclidienne associée à f .
Alors N : E → R
p
q (x )
x 7→
Démonstration. Montrons les trois propriétés de la norme.
1. Soit x un vecteur de E . Comme q est définie positive, il vient que I (q ) = {0E } puis que
N (x ) = 0 ⇐⇒ N (x )2 = 0 ⇐⇒ q (x ) = 0 ⇐⇒ x = 0E
2. Soit x un vecteur de E et λ un nombre
p
p réel. Alors
p
N (λx ) = q (λx ) = λ2q (x ) = |λ| q (x ) = |λ|N (x )
3. Comme f est symétrique etp
que q est une
positive, on peut appliquer l’inégalité
pforme quadratique
p
de MINKOWSKI : N (x + y ) = q (x + y ) ≤ q (x ) + q (y ) = N (x ) + N (y ).
Définition 5.2 (Espace préhilbertien réel. Espace euclidien). Soit E un R-espace vectoriel.
E est un espace préhilbertien réel si et seulement si il existe un produit scalaire sur E .
E est un espace euclidien si et seulement si E est un espace préhilbertien réel de dimension
finie.
Romain Dujol
58
Corollaire. Tout espace préhilbertien réel (et donc tout espace euclidien) est un espace vectoriel
normé.
Remarque. Sauf indication contraire, pour un espace préhilbertien réel, on notera (·|·) le produit
scalaire et k · k la norme euclidienne associée.
Proposition 5.2 (Identités de polarisation). Soit E un espace préhilbertien réel dont on note (·|·)
le produit scalaire et k · k la norme euclidienne associée. Alors
∀x ∈ E , ∀y ∈ E , (x |y ) =
kx + y k2 − kx k2 − ky k2 kx + y k2 − kx − y k2
=
2
4
Démonstration. C’est la transposition directe des identités de polarisation associées à (·|·) et à sa forme
quadratique associée k · k2 .
Proposition 5.3 (Inégalité de CAUCHY-SCHWARTZ). Soit E un espace préhilbertien réel dont on
note (·|·) le produit scalaire et k · k la norme euclidienne associée. Alors
∀x ∈ E , ∀y ∈ E , |(x |y )| ≤ kx k · ky k
Démonstration. C’est l’application directe de l’inégalité de CAUCHY-SCHWARTZ à la forme bilinéaire symétrique (·|·) dont la forme quadratique associée est définie positive.
5.1.2
Exemples fondamentaux
Proposition 5.4 (Produit scalaire canonique sur Rn ). Soit n un entier naturel non nul.
L’application (·|·) :
Rn × Rn
→ R
est un produit scalaire sur Rn
n
X
(x 1 , . . . , x n ), (y 1 , . . . , y n ) 7→
x i yi
appelé produit scalaire canonique sur Rn .
i =1
Démonstration. En exercice.
Proposition 5.5. Soit a et b deux nombres réels tels que a < b .
est un produit scalaire sur C ([a ,b ], R).
L’application (·|·) : C ([a ,b ], R)2 → R
Zb
(f , g )
7→
f (t )g (t ) d t
a
Démonstration. En exercice.
Romain Dujol
59
5.2
5.2.1
Orthogonalité
Définitions
Dans un espace préhilbertien réel (et donc dans un espace euclidien), l’orthogonalité est
toujours définie par rapport au produit scalaire : il est donc inutile de préciser la forme bilinéaire
symétrique dans un tel cadre.
Définition 5.3 (Orthogonalité).
Soit E un espace préhilbertien réel dont le produit scalaire se note (·|·).
Deux vecteurs x et y de E sont dits orthogonaux si et seulement si ils sont orthogonaux pour
(·|·) en tant que forme bilinéaire symétrique, i.e. (x |y ) = 0.
Définition 5.4 (Sous-espace orthogonal).
Soit E un espace préhilbertien réel et F un sous-espace vectoriel de E .
On appelle (sous-espace) orthogonal de F , noté F ⊥ , le sous-espace vectoriel de E des vecteurs orthogonaux à tous les éléments de F :
F ⊥ = {x ∈ E , ∀y ∈ F, (x |y ) = 0}
5.2.2
Familles orthogonales
Définition 5.5 (Famille orthogonale. Famille orthonormale).
Soit E un espace préhilbertien réel.
Une famille de vecteurs de E est dite orthogonale si et seulement si les vecteurs de cette
famille sont orthogonaux deux à deux.
Une famille de vecteurs de E est dite orthognormale ou orthonormée si et seulement si elle
est orthogonale et que tous les vecteurs ont une norme euclidienne égale à un.
Exemple. La base canonique de Rn est une famille orthonormale pour le produit scalaire canonique sur Rn .
Romain Dujol
60
Proposition 5.6 (Théorème de PYTHAGORE). Soit E un espace préhilbertien réel et F = (x 1 , . . . , x p )
une famille orthogonale de E .
2
p
p
X
X
Alors kx i k2 .
xi =
i =1
i =1
Démonstration. Montrons le résultat par récurrence pour tout entier p ≥ 2.
– Si p = 2, alors x 7→ kx k2 est la forme quadratique associée à (·|·) et :
kx 1 + x 2 k2 = kx 1 k2 + 2(x 1 |x 2 ) + kx 2 k2 = kx 1 k2 + kx 2 k2
Donc la propriété est vraie au rang 2.
– Soit p un entier naturel supérieur ou égal à deux tel que pour toute famille (x 1 , . . . , x p ) orthogonale
2
p
p
X
X
kx i k2 .
xi =
de p vecteurs E , on a i =1 i =1
Soit alors une famille (x 1 , . . . , x p +1 ) orthogonale de p + 1 vecteurs de E .
p
p
X
X
x i et
x i ∈ Vect{x 1 , . . . , x p }, il vient que
Alors x p +1 ∈ {x 1 , . . . , x p }⊥ = (Vect{x 1 , . . . , x p })⊥ . Comme
i =1
i =1
2
2 p
p +1
X
X
x i + kx p +1 k2 .
xi = x p +1 sont orthogonaux et que i =1 i =1 Or (x 1 , . . . , x p ) est une famille orthogonale de p vecteurs de E : donc on peut appliquer l’hypothèse
2
p
p
X
X
kx i k2 . Finalement :
xi =
de récurrence pour obtenir que i =1 i =1
2
2 p +1
p
p
p +1
X
X
X
X
kx i k2
kx i k2 + kx p +1 k2 =
x i + kx p +1 k2 =
xi = i =1 i =1 i =1
i =1
Donc la propriété est vraie au rang p + 1.
Remarque. Le théorème de PYTHAGORE vu au collège est une application de ce résultat pour
p = 2 sur l’espace euclidien R2 muni du produit scalaire canonique sur R2 .
Proposition 5.7. Soit E un espace euclidien.
Toute famille orthogonale de vecteurs non nuls de E est libre.
Démonstration. Soit F = (x 1 , . . . , x p ) une famille orthogonale de vecteurs non nuls de E . Alors
∀i ∈ J1, p K , ∀j ∈ J1, p K , (i 6= j ) ⇒ (x i |x j ) = 0
Soit (λi )1≤i ≤p un p -uplet de nombres réels tel que
p
X
λi x i = 0.
!
p
p
X
X
λi (x i |x j ) = λ j (x j |x j ) = λ j kx j k2 .
λi x i x j =
i =1
i =1
i =1
Soit j un entier de J1, p K. Alors 0 = (0E |x j ) =
Comme x j est un vecteur non nul, il vient que kx j k2 est non nul : on en déduit que λ j , et ce pour tout
entier j de J1, n K. On en conclut que F est libre.
Romain Dujol
61
Proposition 5.8 (Décomposition dans une base orthonormale). Soit E un espace euclidien de
dimension n et B = (e 1 , . . . , e n ) une base orthonormale de E . Alors
∀x ∈ E , x =
n
X
i =1
(x |e i ) · e i
et
kx k2 =
n
X
i =1
(x |e i )2
Remarque. Autrement dit, « la composante de x selon e i est (x |e i ) ».
Démonstration. Soit x un vecteur de E . Comme B est une base de E , il existe un n-uplet (λ1 )1≤i ≤n de
n
X
λi e i . Soit j un entier de J1, n K. Comme B est une famille orthogonale,
nombres réels tels que x =
i =1
!
p
X
λi (e i |e j ) = λ j (e j |e j ) = λ j ke j k2 = λ j (car ke j k = 1)
λi e i e j =
i =1
i =1
p
X
(x |e j ) =
Comme {(x |e i ) · e i }1≤i ≤p est une famille orthogonale, on peut appliquer le théorème de PYTHAGORE :
kx k2 =
Romain Dujol
p
X
i =1
k(x |e i )e i k2 =
p
X
i =1
|(x |e i )|2 ke i k2 =
p
X
i =1
(x |e i )2
62
5.2.3
Procédé d’orthonormalisation de SCHMIDT
5.2.3.1
Formulation théorique
Théorème 5.1 (Procédé d’orthonormalisation de SCHMIDT).
Soit E un espace préhilbertien réel et F = (e 1 , . . . , e p ) une famille libre de E .
Alors il existe une famille orthonormale (u 1 , . . . , u p ) telle que pour tout entier k de J1, p K :
1. la famille (u 1 , . . . , u k ) soit orthonormale ;
2. Vect{e 1 , . . . , e k } = Vect{u 1 , . . . , u k }.
Démonstration. Montrons le résultat par récurrence finie sur k ∈ J1, p K.
e1
– Si k = 1, alors on choisit u 1 =
.
ke 1 k
– Soit k un entier de J1, p − 1K tel qu’il existe une famille orthonormale (u 1 , . . . , u k ) telle que
Vect{e 1 , . . . , e k } = Vect{u 1 , . . . , u k }.
k
X
û k +1
.
Soit û k +1 = e k +1 −
(e k +1 |u i ) · u i et u k +1 =
kû k +1 k
i =1
· Comme u i ∈ Vect{e 1 , . . . , e k } ⊂ Vect{e 1 , . . . , e k +1 } pour tout entier i de J1, k K, û k +1 ∈ Vect{e 1 , . . . , e k +1 }.
Donc Vect{u 1 , . . . , u k +1 } ⊂ Vect{e 1 , . . . , e k +1 }.
k
X
· Comme e k +1 =
(e k +1 |u i ) · u i + kû k +1 ku k +1 , e k +1 ∈ Vect{u 1 , . . . , u k +1 }.
i =1
Donc Vect{e 1 , . . . , e k +1 } ⊂ Vect{u 1 , . . . , u k +1 }.
· Soit j un entier de J1, k K. Alors
!
k
X
(e k +1 |u i )(u i |u j )
(e k +1 |u i ) · u i u j = (e k +1 |u j ) −
(û k +1 |u j ) = e k +1 −
i =1
i =1
k
X
= (e k +1 |u j ) − (e k +1 |u j )(u j |u j ) = (e k +1 |u j ) − (e k +1 |u j )ku j k2 = 0
Donc û k +1 est orthogonal à u j pour tout entier j de J1, k K : la famille (u 1 , . . . , u k +1 ) est donc
orthonormale.
Donc la propriété est vraie au rang k + 1.
Corollaire. Tout espace euclidien admet une base orthonormale.
Démonstration.
Soit E un espace euclidien. Alors E est de dimension finie et admet une base B = (e 1 , . . . , e n ).
Comme B est une famille libre de E , d’après le théorème précédent, il existe une famille orthonormale (u 1 , . . . , u n ) telle que Vect{u 1 , . . . , u n } = Vect{e 1 , . . . , e n } = E .
Donc (u 1 , . . . , u n ) est une famille génératrice de n vecteurs de E et on conclut que c’est une base
(orthonormale) de E .
Romain Dujol
63
5.2.3.2
Algorithmes
Soit E un espace préhilberien réel et F un sous-espace vectoriel de dimension p . On cherche
à calculer une base orthonormale de F .
Procédé d’orthonormalisation Si l’on connaît une base de F , alors le procédé d’orthonormalisation de SCHMIDT permet de définir un algorithme pour déterminer une base orthonormale
de F .
Entrée : Base (e 1 , . . . , e p ) de F
Sortie : Base orthonormale (u 1 , . . . , u p ) de F
e1
u 1←
ke 1 k
pour k ←2 à p faire
k
−1
X
û k ←e k −
(e k |u i ) · u i
i =1
û k
uk ←
kû k k
fin pour
Remarque. Cet algorithme normalise (i.e. ramène la norme à un) chaque vecteur u k avant de
passer au suivant.
Procédé d’orthogonalisation La normalisation à chaque étape pouvant rendre les calculs plus
difficiles, il peut être intéressant de retarder cette opération et de l’effectuer une fois une base
orthogonale trouvée.
On peut modifier l’algorithme précédent afin qu’il calcule une base orthogonale de F , puis
normer chacun des vecteurs de cette base.
Entrée : Base (e 1 , . . . , e p ) de F
Sortie : Base orthonormale (u 1 , . . . , u p ) de F
û 1 ←e 1
pour k ←2 à p faire
k
−1
X
(e k |û i )
û k ←e k −
· û i
(û i |û i )
i =1
fin pour
pour k ←1 à p faire
û k
uk ←
kû k k
fin pour
Remarque. La famille (û 1 , . . . , û p ) est alors une base orthogonale de F .
Romain Dujol
64
5.3
Théorème de projection
Théorème 5.2 (Théorème de projection). Soit E un espace préhilbertien réel et F un sousespace vectoriel de E de dimension p .
Pour tout vecteur x de E , il existe un unique vecteur de F appelé projeté orthogonal de x
sur F , noté prF (x ) tel que x − prF (x ) soit un élément de F :
(
y = prF (x ) ⇐⇒
y ∈F
x −y ∈ F⊥
Si (e 1 , . . . , e p ) est une base orthonormée de F , alors p r F (x ) =
p
X
i =1
(x |e i ) · e i .
Démonstration. F étant de dimension finie, c’est un espace euclidien : donc il admet une base orthop
X
(x |e i ) · e i vérifie les conditions
normée B = (e 1 , . . . , e p ). Soit x un vecteur de E . Montrons que y =
i =1
demandées.
– Par construction, y ∈ Vect B = F .
– Soit i un entier de J1, p K. Alors, par construction (y |e i ) = (x |e i ) : donc 0 = (x |e i )−(y |e i ) = (x −y |e i ).
Donc x − y est orthogonal à e i .
On en déduit que x − y ∈ B ⊥ = (Vect B )⊥ = F ⊥ .
Supposons qu’il existe deux vecteurs y et y ′ de F tels que x − y et x − y ′ soit un élément de F ⊥ :
– comme F ⊥ est un sous-espace vectoriel, (x − y ) − (x − y ′ ) est un élement de F ⊥ ;
– on a (x − y ) − (x − y ′ ) = y ′ − y : donc (x − y ) − (x − y ′ ) est un élement de F .
Donc y ′ − y est orthogonal à tout élément de F , notamment à lui-même : donc 0 = (y ′ − y |y ′ − y ) =
ky ′ − y k2 . On en déduit que y ′ − y = 0, puis que y ′ = y : le projeté orthogonal est unique.
Méthode (Calcul du projeté orthogonal de x sur F ).
Pour calculer le projeté de x sur F , il y a donc deux
( approches :
y ∈F
– à partir de la définition : y = prF (x ) ⇐⇒
x −y ∈ F⊥
(voir en fin de chapitre pour la détermination de F ⊥ )
– à partir d’une base BF de F :
1. appliquer un procédé d’orthonormalisation sur BF pour obtenir une base orthonormale (e 1 , . . . , e p ) de F
2. calculer p r F (x ) =
p
X
i =1
Romain Dujol
(x |e i ) · e i .
65
Proposition 5.9.
Soit E un espace préhilbertien réel et F un sous-espace vectoriel de E de dimension finie.
1. prF est un endomorphisme de E .
2. Pour tout vecteur x de F , prF (x ) = x .
3. Pour tout vecteur x de F ⊥ , prF (x ) = 0E .
Démonstration.
1. Soit x 1 et x 2 deux vecteurs de E et λ un nombre réel. On note y = prF (x 1 ) + λ prF (x 2 ).
– Comme F est un sous-espace vectoriel, y est un élément de F .
– On a x 1 + λx 2 − y = x 1 + λx 2 − [prF (x 1 ) + λ prF (x 2 )] = [x 1 − prF (x 1 )] + λ[x 2 − prF (x 2 )].
Comme x 1 − prF (x 1 ) et x 2 − prF (x 2 ) sont deux éléments de F ⊥ , il vient que x 1 + λx 2 − y est un
élément de F ⊥ .
Donc y vérifie les propriétés du projeté orthogonal de x 1 + λx 2 sur F . Par unicité de ce projeté
orthogonal, on en déduit que prF (x 1 ) + λ prF (x 2 ) = y = pr(x 1 + λx 2 ).
2. On a x ∈ F et x − x = 0 ∈ F ⊥ . Par unicité du projeté orthogonal de x sur F , il vient que prF (x ) = x .
3. On a 0 ∈ F et x − 0 = x ∈ F ⊥ . Par unicité du projeté orthogonal de x sur F , il vient que prF (x ) = 0E .
Proposition 5.10 (Caractérisation par la distance).
Soit E un espace préhilbertien réel et F un sous-espace vectoriel de E de dimension finie.
Soit x un vecteur de E . Alors p r F (x ) est l’unique minimum global de la fonction δ : F → R
.
y 7→ kx − y k
On appelle distance de x à F , notée d (x , F ) le nombre réel défini par
d (x , F ) = kx − prF (x )k = min kx − y k
y ∈F
Démonstration.
Soit y ∈ F . Alors on a x − y = x − prF (x ) + prF (x ) − y . Or :
– par définition du projeté orthogonal, x − prF (x ) ∈ F ⊥ ;
– comme prF (x ) est un élément de F , il vient que prF (x ) − y ∈ F .
Donc x − prF (x ) et prF (x ) − y sont orthogonaux : d’après le théorème de PYTHAGORE, on a
kx − y k2 = kx − prF (x )k2 + k prF (x ) − y k2
· Pour tout vecteur y de F , kx −y k2 ≥ kx −prF (x )k2 : donc kx −y k ≥ kx −prF (x )k, i.e. δ(y ) ≥ δ(prF (x )).
On en déduit que prF (x ) est un minimum global de δ.
· Soit y ∈ F , alors δ(y ) = δ(prF (x )) ⇐⇒ kx − y k = kx − prF (x )k ⇐⇒ kx − y k2 = kx − prF (x )k2
⇐⇒ kx − prF (x )k2 + k prF (x ) − y k2 = kx − prF (x )k2
⇐⇒ k prF (x ) − y k2 = 0 ⇐⇒ k prF (x ) − y k = 0 ⇐⇒ y = prF (x )
Donc prF (x ) est le seul minimum global de δ.
Romain Dujol
66
Corollaire (Existence d’un supplémentaire orthogonal). Soit E un espace euclidien et F un sousespace vectoriel de E . Alors F ⊥ est l’unique supplémentaire de F qui soit orthogonal à F .
Démonstration. Montrons que F et F ⊥ sont supplémentaires dans E .
– Soit x ∈ F ∩ F ⊥ . Alors x est orthogonal à tout élement de F , en particulier lui-même : donc 0 =
(x |x ) = kx k2 puis x = 0E . Donc F ∩ F ⊥ = {0E }.
– Soit x un élément de E et prF (x ) son projeté orthogonal sur F .
Alors x = prF (x ) + [x − prF (x )] ∈ F + F ⊥ . On en déduit que E = F + F ⊥ .
Soit G un sous-espace supplémentaire de F tel que F et G sont orthogonaux :
– comme tout élément de G est orthogonal à tout élément de F , il vient que G ⊂ F ⊥ ;
– de plus dimG = dim E − dim F = dim F ⊥ car F ⊥ est lui aussi supplémentaire de F .
On en déduit alors que G = F ⊥ .
Méthode. Pour caractériser F ⊥ , il y a deux approches possibles qui nécessitent la connaissance
d’une base (pas nécessairement orthogonale) BF = (e 1 , . . . , e p ) de F :
– par procédé d’orthonormalisation :
1. on complète BF en une base B = (e 1 , . . . , e n ) de E (où n = dim E )
2. on applique un procédé d’orthonormalisation à B pour obtenir une base orthonormale (u 1 , . . . , u n ) de E
⇒ (u 1 , . . . , u p ) est une base orthonormale de F
⇒ (u p +1 , . . . , u n ) est une base orthonormale de F ⊥

– en partant de la relation F ⊥ = BF⊥ :
(x |e 1 ) = 0


..
x ∈ F ⊥ ⇐⇒ x ∈ {e 1 , . . . , e p }⊥ ⇐⇒
.


(x |e p ) = 0
on obtient alors un système linéaire
Proposition 5.11. Soit E un espace euclidien et F un sous-espace vectoriel de E . Alors (F ⊥ )⊥ = F .
Démonstration. Comme F est supplémentaire orthogonal à F ⊥ , on en conclut par unicité du supplémentaire orthogonal que le sous-espace orthogonal à F ⊥ est F .
Projecteur orthogonal. Symétrie orthogonale
Corollaire (Projecteur orthogonal).
Soit E un espace euclidien et F un sous-espace vectoriel de E .
Alors prF est le projecteur linéaire sur F parallèlement à F ⊥ et est appelé projecteur orthogonal sur F .
Définition 5.6 (Symétrie orthogonale).
Soit E un espace euclidien et F un sous-espace vectoriel de E .
On définit la symétrie orthogonale sur F , notée σF , comme la symétrie linéaire sur F par
rapport à F ⊥ .
Romain Dujol
67
Espaces euclidiens : Exercices
Produit scalaire
Exercice 5.1. Montrer que
φ:
R3 × R3
→ R
(x 1 , x 2 , x 3 ), (y 1 , y 2 , y 3 ) 7→ (x 1 − 2x 2 )(y 1 − 2y 2 ) + x 2 y 2 + (x 2 + x 3 )(y 2 + y 3 )
est un produit scalaire sur R3 .
R3
→ R
(x 1 , x 2 , x 3 ) 7→ x 12 + 4x 1 x 2 + 5x 22 + 2x 1 x 3 + 2x 2 x 3 + 5x 32
et q2 :
R3
→ R
.
(x 1 , x 2 , x 3 ) 7→ −x 12 + 2x 1 x 2 + 2x 22 − 8x 1 x 3 − 4x 2 x 3 + 2x 32
Pour chacune de ces deux applications qi (i = 1, 2) :
p
1. déterminer si qi est une norme euclidienne, i.e. associée à un produit scalaire ;
Exercice 5.2. Soit q1 :
2. déterminer, le cas échéant une base qi -orthogonale.
Exercice 5.3. Montrer que φ : R[X ]2
P,Q
est un produit scalaire sur R[X ].
→ R
Z1
7→
P(t )Q(t ) dt
0
Exercice 5.4. Soit n un entier naturel non nul.
1. Montrer que
n
∀(x 1 , . . . , x n ) ∈ R ,
n
X
i =1
!2
xi
≤n
n
X
x i2
i =1
2. Pour quelles valeurs de (x 1 , . . . , x n ) l’inégalité précédente est-elle une égalité ?
Exercice 5.5.
Soit E un espace préhilbertien réel non réduit à {0E } dont on note (·|·) le produit scalaire.
Pour a , b et c réels, on définit l’application φ : E × E → R
.
(x , y ) 7→ a (x |x ) + b (x |y ) + c (y |y )
À quelles conditions sur a , b et c , l’application φ est-elle un produit scalaire sur E ?
Exercice 5.6.
Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients réels.
1. (a) Montrer que t AA est la matrice d’une forme quadratique q sur Rn positive.
(b) À quelle condition sur A la matrice t AA est-elle la matrice d’un produit scalaire sur Rn ?
2. Soit B la matrice d’un produit scalaire sur Rn . Montrer qu’il existe une matrice carrée A
d’ordre n telle que B = t AA.
La matrice A est-elle unique ?
Romain Dujol
68
Théorème de la projection
Exercice 5.7.
1. Montrer que φ : R3 [X ]2
P,Q
est un produit scalaire sur R3 [X ].
→ R
Z +∞
P(t )Q(t ) dt
7→
0
2. Déterminer la projection orthogonale de X 3 sur R2 [X ].
Z +∞
3. Calculer λ =
(t 3 + a t 2 + b t + c )2 e −t dt .
inf
(a ,b,c )∈R3
0
Exercice 5.8. Soit F = {(x 1 , x 2 , x 3 , x 4 ) ∈ R4 , x 1 + x 2 + x 3 + x 4 = 0 et x 1 + 2x 2 + 3x 3 + 4x 4 = 0}.
Calculer la matrice de prF dans la base canonique de R4 .
Exercice 5.9.
1. (a) Montrer que (·|·) :
3
X
k =0
R3 [X ]2
est un produit scalaire sur R3 [X ].
! → R
3
3
X
X
akXk,
bk X k
7→
a k bk
k =0
k =0
(b) Vérifier que la base canonique de R3 [X ] est une base orthonormale de E .
2. (a) Montrer que F = {P ∈ R3 [X ], P(3) = 0} est un sous-espace vectoriel de E .
(b) Déterminer une base orthonormale de F .
3. (a) Par deux méthodes différentes, déterminer prF (P) pour tout polynôme P de R3 [X ].
(b) Calculer prF (X ) et d (X , F ).
Romain Dujol
69
Chapitre 6
Endomorphismes remarquables d’un
espace euclidien
6.1
Endomorphismes orthogonaux. Matrices orthogonales
6.1.1
Endomorphismes orthogonaux
Définition 6.1. Soit E un espace préhilbertien réel dont le produit scalaire est noté (·|·).
Un endomorphisme orthogonal de E est un endomorphisme qui conserve le produit scalaire :
f est un endomorphisme orthogonal de E ⇐⇒ ∀(x , y ) ∈ E 2 , f (x ) f (y ) = (x |y )
On note O (E ) l’ensemble des endomorphismes orthogonaux de E .
Remarque. Toute application qui conserve le produit scalaire est un endomorphisme.
Proposition 6.1. Soit E un espace euclidien.
1. Un endomorphisme orthogonal conserve la norme euclidienne.
2. Un endomorphisme orthogonal de E est un automorphisme de E .
3. idE est un endomorphisme orthogonal.
4. L’inverse d’un endomorphisme orthogonal est un endomorphisme orthogonal.
5. La composée de deux endomorphismes orthogonaux est un endomorphisme orthogonal.
6. L’image d’une base orthogonale par un endomorphisme orthogonal est une base orthogonale.
7. L’image d’une base orthonormale par un endomorphisme orthogonal est une base orthonormale.
8. Toutes les valeurs propres d’un endomorphisme orthogonal sont de module 1.
( La réciproque n’est pas vraie.)
Romain Dujol
70
Démonstration.
1. Soit f un endomorphisme orthogonal de E et x un vecteur de E . Alors
Æ
p
f (x ) f (x ) = (x |x ) = kx k
k f (x )k =
Donc f conserve la norme euclidienne.
2. Soit x un vecteur de Ker f . Alors f (x ) = 0E : donc 0 = k f (x )k = kx k. On en déduit que x = 0.
Donc f est un endomorphisme injectif. Comme E est de dimension finie, on en déduit que f est
un automorphisme de E .
3. Soit x et y deux vecteurs de E . Alors idE (x )idE (y ) = (x |y ). Donc idE est un endomorphisme
orthogonal.
4. Soit f un endomorphisme orthogonal et x et y deux vecteurs de E . Alors f est un automorphisme et :
Š €
Š
€
(x |y ) = idE (x )idE (y ) = f ( f −1 (x )) f ( f −1 (y )) = f −1 (x ) f −1 (y )
Donc f −1 est un endomorphisme orthogonal de E .
5. Soit f et g deux endomorphismes orthogonaux de E . Soit x et y deux vecteurs de E . Alors :
( f ◦ g )(x )( f ◦ g )(y ) = f (g (x )) f (g (y )) = g (x ) g (y ) = x y
Donc f ◦ g est un endomorphisme orthogonal de E .
6. Soit f un endomorphisme orthogonal de E et B = (e 1 , . . . , e n ) une base orthogonale de E .
Comme f est un automorphisme,
€
Šf (B ) est une base de E . De plus, si i et j sont deux entiers
distincts de J1, n K, alors f (e i ) f (e j ) = (e i |e j ) = 0. Donc f (B ) est orthogonale.
7. Soit f un endomorphisme orthogonal de E et B = (e 1 , . . . , e n ) une base orthonormale de E .
Comme B est orthogonale, f (B ) est orthogonale. De plus, pour tout i de J1, n K, k f (e i )k = ke i k = 1.
Donc f (B ) est orthonormale.
ATTENTION. Contrairement à ce que pourrait laisser penser son nom, un projecteur orthogonal
n’est donc pas un endomorphisme orthogonal (car un projecteur n’est pas un automorphisme) !
Remarque. Les propriétés (ii) à (v) impliquent que (O (E ), ◦) est un sous-groupe de (GL(E ), ◦).
À ce titre, O (E ) est appelé groupe orthgonal de E .
Théorème 6.1. Soit E un espace euclidien et f un endomorphisme de E .
Alors f est un endomorphisme orthogonal de E si et seulement si il existe une base orthonormale B de E telle que f (B ) soit orthonormale.
Remarque. Donc un endomorphisme orthogonal transforme toute base orthonormale en base
orthonormale.
Romain Dujol
71
Proposition 6.2. Soit E un espace euclidien et f un endomorphisme orthogonal de E .
Si F est un sous-espace vectoriel de E stable par f , alors F ⊥ est également stable par f .
Démonstration. Soit y ∈ f (F ⊥ ) : alors il existe x ∈ F ⊥ tel que y = f (x ).
Soit z ∈ F . Comme f est orthogonal, f −1 l’est également et
€
Š € Š
(y |z ) = f (x )z = f −1 ( f (x )) f −1 (z ) = x f −1 (z )
Comme f est un automorphisme, il vient en fait que F est invariant par f , i.e. f (F ) = F . Donc
f −1 (F ) = F et f −1 (z ) ∈ F . Donc (y |z ) = 0 pour tout vecteur z de F : y est un élément de F ⊥ .
6.1.2
Matrices orthogonales
Définition 6.2. Une matrice carrée A est dite orthogonale si et seulement si A −1 = t A.
On note On (R) l’ensemble des matrices orthogonales d’ordre n à coefficients réels.
Proposition 6.3.
1. La matrice identité est une matrice orthogonale.
2. L’inverse d’une matrice orthogonale est une matrice orthogonale.
3. Le produit de deux matrices orthogonales est une matrice orthogonale.
Démonstration.
1. I n−1 = I n = t I n
2. Soit A une matrice orthogonale d’ordre n. Alors (A −1 )−1 = A = t ( t A) = t A −1 .
3. Soit A et B deux matrices orthogonales d’ordre n. Alors (A B )−1 = B −1 A −1 = t B t A = t (A B ).
Corollaire. On (R) est un sous-groupe de l’ensemble GLn (R) des matrices inversibles d’ordre n et
est appelé le groupe orthogonal d’ordre n .
Proposition 6.4 (Caractérisation d’une matrice orthogonale). Une matrice carrée d’ordre n est
orthogonale si et seulement si ses colonnes constituent une base orthonormale de M n1 (R).
Une matrice carrée d’ordre n est orthogonale si et seulement si ses lignes constituent une base
orthonormale de M 1n (R).
Théorème 6.2. Soit E un espace euclidien et f un endomorphisme de E .
Alors f est un endomorphisme orthogonal si et seulement si il existe une base orthonormale dans laquelle la matrice de f est orthogonale.
Corollaire. Si A est une matrice orthogonale, alors det A ∈ {−1, 1}.
ATTENTION. La réciproque n’est pas vraie.
Romain Dujol
72
6.2
Endomorphismes autoadjoints
6.2.1
Adjoint d’un endomorphisme
Définition 6.3. Soit E un espace préhilbertien réel et f un endomorphisme de E . Alors il existe
un unique endomorphisme f ∗ de E tel que
∀(x , y ) ∈ E 2 , f (x )y = x f ∗ (y )
L’endomorphisme f ∗ est appelé l’endomorphisme adjoint de f .
Proposition 6.5. Soit E un espace euclidien et f et g deux endomorphismes de E .
(i) ( f ∗ )∗ = f
(ii) ∀λ ∈ R, ( f + λg )∗ = f ∗ + λg ∗
(iii) ( f ◦ g )∗ = g ∗ ◦ f ∗
(iv) Ker f ∗ = (Im f )⊥ et Im f ∗ = (Ker f )⊥ .
(v) Si B est une base orthonormale de E , alors matB f ∗ = t (matB f ).
Démonstration.
(i) Pour tous vecteurs x et y de E , on a f ∗ (y )x = y f (x ) . Par identification, il vient que f est l’endomorphisme autoadjoint de f ∗ .
(ii) Soit x et y deux vecteurs de E . Alors ( f + λg )(x )y = f (x ) + λg (x )y = f (x )y + λ g (x )y
= x f ∗ (y ) + λ x g ∗ (y ) = x f ∗ (y ) + λg ∗ (y )
= x ( f ∗ + λg ∗ )(y )
On conclut alors par identification.
(iii) Soit x et y deux vecteurs de E . Alors
( f ◦ g )(x )y = f (g (x ))y = g (x ) f ∗ (y ) = x g ∗ ( f ∗ (y )) = x (g ∗ ◦ f ∗ )(y )
On conclut alors par identification.
(iv) Montrons la première égalité par une double inclusion.
· Soit z ∈ Ker f ∗ : alors f ∗ (z ) = 0E. Soit y ∈
Im f : alors il existe x ∈ E tel que y = f (x ).
On en déduit que (y |z ) = f (x )z = x f ∗ (z ) = (x |0E ) = 0.
Donc z est orthogonal à tout élément de Im f et z ∈ (Im f )⊥ .
· Soit z ∈ (Im f )⊥ . Pour tout vecteur x de E , on a x f ∗ (z ) = f (x )z .
Comme f (x ) ∈ Im f et z ∈ (Im f )⊥ , il vient que x f ∗ (z ) = 0.
Donc f ∗ (z ) dans le noyau du produit scalaire : on en déduit alors que f ∗ (z ) = 0, i.e. z ∈ Ker f ∗ .
La deuxième égalité se déduit de la première. En effet, en utilisant la propriété (i), il vient que
(Ker f ∗ )⊥ = [(Im f ∗∗ )⊥ ]⊥ = (Im f )⊥⊥ = Im f .
Romain Dujol
73
(v) Soit B = (e 1 , . . . , e n ) une base orthonormale de E . Comme la j e colonne de A = matB f est le vecteur
des composantes de f (e j ) dans la base B , il vient que A€i j est la Ši e composante de f (e j ) dans B .
La base B étant orthonormale, on peut écrire que A i j = f (e j )e i .
Appliquons la définition de l’endomorphisme autoadjoint avec x = e i et y = e j :
€
Š
Š € Š €
f (e i )e j = e i f ∗ (e j ) = f ∗ (e j )e i
Autrement dit, si on note A ∗ = matB f ∗ , on a A j i = A ∗i j pour tous entiers i et j de J1, n K.
On conclut alors que A ∗ = t A.
Corollaire. Soit E un espace euclidien et f un endomorphisme de E .
Alors f est un endomorphisme orthogonal si et seulement si f −1 = f ∗ .
Démonstration. Il suffit de passer par les matrices (orthogonales) des endomorphismes considérés.
6.2.2
Endomorphisme autoadjoint
Définition 6.4. Soit E un espace préhilbertien réel. Un endomorphisme f de E est dit autoadjoint ou symétrique si et seulement si f ∗ = f .
Corollaire. Soit E un espace euclidien. Alors f est un endomorphisme autoadjoint si et seulement si sa matrice dans une base orthonormale est symétrique.
Proposition 6.6. Soit E un espace euclidien et f un endomorphisme autoadjoint.
(i) Ker f et Im f sont des sous-espaces supplémentaires orthogonaux de E .
(ii) Si F est un sous-espace vectoriel de E stable par f , alors F ⊥ est également stable par f .
Démonstration.
(i) On a Ker f = Ker f ∗ = (Im f )⊥ , d’où le résultat.
(ii) Soit y ∈ f (F ⊥ ) : alors il existe x ∈ F ⊥ tel que y = f (x ). Soit z ∈ F , alors (y |z ) = f (x )z = x f (z ) .
Comme z est un élément de F , il vient que f (z ) également. Donc (y |z ) = 0 pour tout vecteur z de F :
y est un élément de F ⊥ .
Proposition 6.7. Soit E un espace euclidien et f un endomorphisme orthogonal de E .
Alors f est une symétrie orthogonale si et seulement f est autoadjoint.
Démonstration. Montrons les deux implications.
· Si f est une symétrie, alors f 2 = idE , puis f −1 = f . Comme f est orthogonal, il vient que f −1 = f ∗ :
on en conclut que f ∗ = f puis que f est autoadjoint.
Romain Dujol
74
· Si f est autoadjoint, alors f ∗ = f . Comme f est orthogonal, il vient que f −1 = f ∗ : on en déduit que
f −1 = f puis que f est une symétrie.
Si on note p = ( f + idE )/2 le projecteur associé, alors p ∗ = ( f ∗ + id∗E )/2 = ( f + idE )/2 = p et p est
autoadjoint. Donc Ker p et Im p sont supplémentaires orthogonaux et p est un projecteur orthogonal : on conclut que f est une symétrie orthogonale.
Corollaire. Les sous-espaces propres d’un endomorphisme autoadjoint sont orthogonaux deux à
deux.
Démonstration. Soit f un endomorphisme autoadjoint de E et λ1 et λ2 deux valeurs propres distinctes.
Soit x 1 ∈ E λ1 ( f ) et x 2 ∈ E λ1 ( f ). Alors
λ1 (x 1 |x 2 ) = (λ1 x 1 |x 2 ) = f (x 1 )x 2 = x 1 f (x 2 ) = (x 1 |λ2 x 2 ) = λ2 (x 1 |x 2 )
Donc (λ1 − λ2 )(x 1 |x 2 ). Comme λ1 et λ2 sont distincts, il vient que λ1 − λ2 6= 0, puis que (x 1 |x 2 ) = 0. D’où le
résultat demandé.
Remarque. Deux vecteurs propres associés à deux valeurs propres distinctes sont donc orthogonaux.
Théorème 6.3. Tout endomorphisme autoadjoint est diagonalisable sur R dans une base orthonormale.
Démonstration. ADMIS
Corollaire. Soit A une matrice symétrique d’ordre n . Alors il existe une matrice orthogonale P
d’ordre n et une matrice diagonale D telle que A = P −1 AP = t PAP.
6.2.3
Endomorphisme anti-autoadjoint
Définition 6.5. Soit E un espace préhilbertien réel. Un endomorphisme f de E est dit antiautoadjoint ou antisymétrique si et seulement si f ∗ = − f .
Corollaire. Soit E un espace euclidien. Alors f est un endomorphisme anti-autoadjoint si et
seulement si sa matrice dans une base orthonormale est antisymétrique.
Proposition 6.8. Soit E un espace euclidien et f un endomorphisme anti-autoadjoint.
(i) Ker f et Im f sont des sous-espaces supplémentaires orthogonaux de E .
(ii) Si F est un sous-espace vectoriel de E stable par f , alors F ⊥ est également stable par f .
(iii) 0 est valeur propre de f .
Romain Dujol
75
Endomorphismes remarquables d’un espace euclidien : Exercices
Endomorphismes orthogonaux
Exercice 6.1. Soit E un espace euclidien et f un endomorphisme orthogonal de E .
1. Montrer que les seules valeurs propres réelles de f sont −1 et/ou 1.
2. Montrer que si toutes les valeurs propres de f sont réelles, alors
il existe
Œ une base orthonor‚
Ip
0
où p et q sont deux
male de E dans laquelle la matrice de f est de la forme
0 −I q
entiers tels que p + q = n .
Exercice 6.2. Soit E un espace euclidien.
Soit f une application de E dans E telle que f (0) = 0 et qui conserve la distance euclidienne,
c’est-à-dire :
∀u ∈ Rn , ∀v ∈ Rn , k f (u ) − f (v )k = ku − v k
1. Montrer que f conserve la norme euclidienne.
2. Montrer que f conserve le produit scalaire.
3. Montrer que f est un endomorphisme orthogonal.
Exercice 6.3. Soit E un espace euclidien et f un endomorphisme de E .
1. Montrer que tout endomorphisme qui conserve la norme euclidienne est un endomorphisme
orthogonal de E .
2. On considère les trois propositions suivantes.
(P1) f est une isométrie
(P2) f 2 = − idE
(P3) ∀x ∈ E , : f (x )x = 0
Montrer que n’importe quelle combinaison de deux propriétés implique la troisième.
[ Indication
: Pour montrer « (P1) et (P3) ⇒ (P2) », on pourra commencer par montrer que
f 2 (x )x + kx k2 = 0.]
Exercice 6.4. Soit n un entier naturel et A une matrice orthogonale d’ordre n . Pour tout entier j
de J1, n K, on note C j la j ecolonne de A.
n n
n
n
X
X X
X 1. On note (e 1 , . . . , e n ) la base canonique de Rn . Montrer que A i j ≤ ei · Cj i =1 j =1
i =1 j =1 n n
X X
A i j ≤ n .
2. En conclure que i =1 j =1
Romain Dujol
76
Endomorphismes autoadjoints
Exercice 6.5. Soit E un espace euclidien de dimension
 quatre et Bune base orthonormale de E .
2 3 0 1


3 0 0 3
Soit f l’endomorphisme de E telle que matB f = 
.
0 0 1 0
1 3 0 2
1. Montrer que f est autoadjoint.
2. Montrer que Sp f = {−3, 1, 6}.
3. Pour chaque valeur propre λ de f , on note p λ le projecteur orthogonal sur E λ ( f ).
(a) Montrer que idE = p −3 + p 1 + p 6 .
(b) Montrer que f = −3 · p −3 + 1 · p 1 + 6 · p 6 .
(c) Montrer que si λ et µ sont deux valeurs propres distinctes de f , alors p λ ◦ p µ = 0.
Romain Dujol
77
Chapitre 7
Espaces préhilbertiens complexes
Introduction
Soit E = K2 et φ :
E2
→ K
et q :
(x , y ) 7→ x 1 y 1 + x 2 y 2
E
x
→ K
.
7→ f (x , x ) = x 12 + x 22
Que K soit le corps R des réels ou C des complexes, f est une forme bilinéaire symétrique sur E .
• Si K = R, φ est le produit scalaire canonique sur E = R2 : il s’agit donc d’une forme bilinéaire symétrique positive non dégénérée.
• Si K = C, alors :
– q (0, i ) = 02 + i 2 = −1 : donc q (ou φ) n’est pas positive ;
– q (1, i ) = 12 + i 2 = 0 : donc q (ou φ) n’est pas définie positive ;
– q (0, 1 + i ) = 02 + (1 + i )2 = 2i : donc q n’est même pas à valeurs réelles.
Donc la notion de produit scalaire et de norme euclidienne n’a aucun sens ici.
Comment étendre la notion de produit scalaire et de norme dans un C-espace vectoriel ?
7.1
7.1.1
Forme sesquilinéaire. Produit scalaire
Forme sesquilinéaire
Définition 7.1 (Application semi-linéaire). Soit E et F deux C-espaces vectoriels. Une application f de E dans F est dite semi-linéaire si et seulement si :
(i) ∀x ∈ E , ∀y ∈ E , f (x + y ) = f (x ) + f (y ) ;
(ii) ∀x ∈ E , ∀λ ∈ C, f (λx ) = λ f (x ).
Romain Dujol
78
Définition 7.2 (Forme sesquilinéaire). Soit E un C-espace vectoriel. Une application φ de E 2
dans C est une forme sesquilinéaire (à gauche) si et seulement si elle est :
– semi-linéaire par rapport à la première variable ;
– linéaire par rapport à la seconde variable.
Remarque.
1. Le préfixe latin « sesqui- » signifie « une fois et demi ».
2. Il est possible de considérer les formes sesquilinéaires à droite, ce que nous ne ferons pas
dans ce cours.
Exemple. L’application φ :
7.1.2
C2
→ C
est une forme sesquilinéaire sur C2 .
(x , y ) 7→ x 1 y 1 + x 2 y 2
Forme sesquilinéaire hermitienne
Définition 7.3 (Forme sesquilinéaire hermitienne). Soit E un C-espace vectoriel. Une forme
φ sesquilinéaire sur E est dite hermitienne si et seulement si
∀x ∈ E , ∀y ∈ E , φ(y , x ) = φ(x , y )
Exemple. φ :
7.1.3
C2
→ C
est une forme sesquilinéaire hermitienne sur C2 .
(x , y ) 7→ x 1 y 1 + x 2 y 2
Forme quadratique hermitienne
Corollaire. Soit E un C-espace vectoriel et φ une forme sesquilinéaire hermitienne sur E . Alors :
∀x ∈ E , φ(x , x ) ∈ R
Démonstration. Comme φ est hermitienne, si on prend y = x , il vient que φ(x , x ) = φ(x , x ), autrement
dit que φ(x , x ) est réel.
Définition 7.4 (Forme quadratique hermitienne). Soit E un C-espace vectoriel et f une forme
sesquilinéaire hermitienne sur E . On définit la forme quadratique hermitienne associée à φ
comme l’application q : E → R
.
x 7→ φ(x , x )
L’application φ est appelée la forme polaire de q .
Romain Dujol
79
Exemple. La forme quadratique hermitienne associée à φ :
q : C2
x
C2
→ C
est
(x , y ) 7→ x 1 y 1 + x 2 y 2
→ R
7→ x 1 x 1 + x 2 x 2 = |x 1 |2 + |x 2 |2
Proposition 7.1. Soit q une forme quadratique hermitienne sur un C-espace vectoriel E . Alors :
∀λ ∈ C, ∀x ∈ E , q (λx ) = |λ|2q (x )
Démonstration. Soit x ∈ E et λ ∈ C. Alors q (λx ) = f (λx , λx ) = λ f (x , λx ) = λλ f (x , x ) = |λ|2 q (x ).
Proposition 7.2 (Identités de polarisation). Soit φ une forme sesquilinéaire hermitienne sur un
C-espace vectoriel et q sa forme quadratique associée. Alors :
1
1
∀x ∈ E , ∀y ∈ E , ℜe φ(x , y ) = [q (x + y ) − q (x ) − q (y )] = [q (x + y ) − q (x − y )]
2
4
1
1
∀x ∈ E , ∀y ∈ E , ℑm φ(x , y ) = [q (x + i y ) − q (x ) − q (y )] = [q (x + i y ) − q (x − i y )]
2
4
1
q (x + y ) + i q (x + i y ) − (1 + i ){q (x ) + q (y )}
D’où ∀x ∈ E , ∀y ∈ E , φ(x , y ) =
2
1
q (x + y ) + i q (x + i y ) − q (x − y ) − i q (x − i y )
=
4
Définition 7.5. Comme dans le cas réel, on définit pour une forme sesquilinéaire hermitienne φ
et sa forme quadratique hermitienne q associée :
– l’orthogonalité : x et y sont orthogonaux si et seulement si φ(x , y ) = 0 ;
– son noyau : N (q ) = N (φ) = {x ∈ E , ∀y ∈ E , φ(x , y ) = 0} ;
– cône isotrope : I (q ) = I (φ) = {x ∈ E , φ(x , x ) = 0} ;
– dégénerescence : φ est non dégénérée si et seulement N (φ) = {0E } ;
– positivité : φ (ou q ) est positive si et seulement si ∀x ∈ E , φ(x , x ) ∈ R+ .
Proposition 7.3. Les inégalités de CAUCHY-SCHWARZ et de MINKOWSKI restent valables.
7.1.4
Produit scalaire
Définition 7.6 (Produit scalaire). Soit E un C-espace vectoriel. Un produit scalaire sur E est
une forme sesquilinéaire hermitienne positive non dégénérée sur E .
Un espace préhilbertien complexe est un C-espace vectoriel muni d’un produit scalaire.
Un espace hermitien est un espace préhilbertien complexe de dimension finie.
Exemple. φ :
Romain Dujol
C2
→ C
est un produit scalaire sur C2 .
(x , y ) 7→ x 1 y 1 + x 2 y 2
80
7.2
7.2.1
Endomorphismes remarquables d’un espace hermitien
Endomorphismes unitaires
Définition 7.7. Soit E un espace préhilbertien complexe dont le produit scalaire est noté (·|·).
Un endomorphisme unitaire de E est un endomorphisme qui conserve le produit scalaire :
f est un endomorphisme unitaire de E ⇐⇒ ∀(x , y ) ∈ E 2 , f (x ) f (y ) = (x |y )
Corollaire. Soit E un espace préhilbertien complexe et f un endomorphisme de E .
Alors f est unitaire si et seulement si f ∗ = f −1 .
7.2.2
Endomorphismes hermitiens et anti-hermitiens
Définition 7.8. Soit E un espace préhilbertien complexe et f un endomorphisme de E . Alors il
existe un unique endomorphisme f ∗ de E tel que
∀(x , y ) ∈ E 2 , f (x )y = x f ∗ (y )
L’endomorphisme f ∗ est appelé l’endomorphisme adjoint de f .
Définition 7.9. Soit E un espace préhilbertien réel.
Un endomorphisme f de E est dit autoadjoint ou hermitien si et seulement si f ∗ = f .
Un endomorphisme f de E est dit anti-autoadjoint ou anti-hermitien si et seulement si
f ∗ = −f .
Romain Dujol
81
7.3
7.3.1
Matrices remarquables
Matrice d’une forme sesquilinéaire
Définition 7.10. Soit E un C-espace vectoriel et B = (e 1 , . . . , e n ) une base de E .
Pour toute
formeŠ sesquilinéaire φ, on définit la matrice de φ dans B , notée matB φ, par
€
matB φ = φ(e i , e j ) 1≤i ,j ≤n .
Proposition 7.4. Soit E un C-espace vectoriel et B une base de E . Soit φ une forme sesquilinéaire
sur E et A = matB φ.
Alors, pour tous vecteurs x et y de E , on a f (x , y ) = t X AY avec X = matB x et Y = matB y .
Proposition 7.5. Soit E un C-espace vectoriel et B et B ′ deux bases de E . On note P la matrice
de passage de B dans B ′ et A = matB φ. Alors matB ′ φ = t PAP.
7.3.2
Matrices unitaires
Proposition 7.6. Une matrice carrée A d’ordre n à coefficients complexes est dite unitaire si et
seulement si t A = A −1 .
Corollaire. Soit E un espace hermitien et f un endomorphisme de E .
f est un endomorphisme unitaire si et seulement si la matrice de f dans une base orthonormale
de E est unitaire.
7.3.3
Matrices hermitiennes et anti-hermitiennes
Proposition 7.7. Soit E un espace hermitien et f un endomorphisme de E .
Si B est une base orthonormale de E , alors matB f ∗ = t matB f .
Définition 7.11. Une matrice carrée A d’ordre n à coefficients complexes est dite hermitienne
si et seulement si t A = A.
Une matrice carrée A d’ordre n à coefficients complexes est dite anti-hermitienne si et seulement si t A = −A.
Corollaire. Soit E un espace hermitien et f un endomorphisme de E .
f est un endomorphisme hermitien (respectivement anti-hermitien) si et seulement si la matrice de f dans une base orthonormale de E est hermitienne (respectivement anti-hermitienne).
Romain Dujol
82
Correspondances des terminologies
R-espace vectoriel
C-espace vectoriel
forme bilinéaire
forme bilinéaire symétrique
f (x , y ) = t X A Y
forme quadratique associée
∀λ ∈ R, q (λ) = λ2q (x )
espace préhilbertien réel
espace euclidien
norme euclidienne
matrice transposée t A
passage A ′ = t PAP
endomorphisme/matrice symétrique ( t A = A)
endomorphisme/matrice anti-symétrique ( t A = −A)
endomorphisme/matrice orthogonal(e) t A = A −1
forme sesquilinéaire
forme sesquilinéaire hermitienne
f (x , y ) = t X A Y
forme quadratique hermitienne associée
∀λ ∈ C, q (λ) = |λ|2 q (x )
espace préhilbertien complexe
espace hermitien
norme hermitienne
matrice transconjuguée t A
passage A ′ = t PAP
€
Š
endomorphisme/matrice hermitien(ne) t A =€ A
Š
t A = −A
endomorphisme/matrice anti-hermitien(ne)
€
Š
endomorphisme/matrice unitaire t A = A −1
Romain Dujol
83
Espaces préhilbertiens complexes : Exercices
Espaces hermitiens
Exercice 7.1. Soit E un espace préhilbertien complexe.
1. Soit N un entier naturel supérieur ou égal à trois. Montrer que
∀x ∈ E , ∀y ∈ E , (x |y ) =
N −1
2i k π
1 X 2i k π
e N · ke N x + y k2
N
k =0
2. Montrer que
1
∀x ∈ E , ∀y ∈ E , (x |y ) =
2π
2π
Z
0
e i t · ke i t x + y k2 dt
Exercice 7.2. Soit E un espace hermitien et u un endomorphisme de E .
1. On note v = u ∗ ◦ u .
(a) Montrer que (v (x )|x ) ≥ 0 pour tout vecteur x de E .
En déduire que toutes les valeurs propres de v sont réelles positives.
(b) Montrer que si u est injectif, alors 0 n’est pas valeur propre de v .
2. Montrer que v = i · (u ◦ u ∗ + u ∗ ◦ u ) est antihermitien.
Exercice 7.3. Soit E un espace hermitien.
1. Montrer que les valeurs propres d’un endomorphisme de E antihermitien sont imaginaires
pures ou nulles.
2. Montrer que un endomorphisme est antihermitien si et seulement si sa forme quadratique
hermitienne associée est nulle.
Matrices remarquables

1−i

 −2
Exercice 7.4. Montrer, sans en calculer le déterminant, que la matrice 
 −3
4
est inversible.
−2
2−i
18
2
Exercice 7.5. Soit A une matrice antisymétrique à coefficients réels d’ordre n .
1. Montrer que les valeurs propres de A sont imaginaires pures ou nulles.
2. (a) Montrer que A − I n et A + I n sont inversibles.
(b) Montrer que (A + I n )(A − I n )−1 est orthogonale.
Romain Dujol
84
−3
18
3−i
1

4

2 

1 
6−i
3
Exercice 7.6. Soit
f la forme sesquilinéaire
 hermitienne sur R dont la matrice dans la base ca1
1 + i 1 + 2i


3
3
5 .
nonique de R est  1 − i
1 − 2i
5
10
1. Donner la signature de f .
2. En déduire que f n’est pas définie positive.
Romain Dujol
85
Téléchargement