Telechargé par ali ali

cours al 2018

publicité
Université d’Angers
L3 Mathématiques
Algèbre linéaire et bilinéaire
François Ducrot
Année 2018-2019
Le programme de l’UE
— Sous-espaces stables par un endomorphisme linéaire, valeurs propres, vecteurs propres. Diagonalisation, trigonalisation.
— Polynômes d’un endomorphisme. Polynôme caractéristique. Polynôme minimal. Théorème de
Cayley-Hamilton. Théorème de décomposition des noyaux.
— Formes bilinéaires. Formes bilinéaires symétriques et formes quadratiques.
— Diagonalisation des matrices symétriques réelles.
— Produit scalaire et espace euclidien. Groupe orthogonal.
— Décomposition d’une forme quadratique en somme de carrés. Méthode de Gauss. Théorème
d’inertie de Sylvester.
— Coniques. Classification affine et euclidienne.
Table des matières
1 Algèbre linéaire. Pourquoi ?
2
2 Quelques rappels d’algèbre linéaire
2.1 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Familles libres, familles génératrices, bases . . . . . . . . . . . . .
2.3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . .
2.5 Déterminant d’une matrice, déterminant d’un endomorphisme
2.6 Quelques exercices pour se mettre en jambes . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
5
5
6
7
3 Sous-espaces stables par un endomorphisme.
8
3.1 Sommes directes de sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4 Polynôme caractéristique
4.1 Quelques rappels succincts sur les polynômes . . . .
4.2 Le polynôme caractéristique . . . . . . . . . . . . . .
4.3 Calcul du polynôme caractéristique . . . . . . . . . .
4.4 Un critère nécessaire et suffisant de diagonalisabilité
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
13
13
14
14
5 Trigonalisation
15
5.1 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6 Polynômes d’endomorphismes
6.1 Idéal annulateur, théorème de Cayley-Hamilton . . . .
6.2 Polynôme minimal . . . . . . . . . . . . . . . . . . . . .
6.3 Lemme de décomposition des noyaux et applications
6.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
18
18
19
20
22
7 Mise sous forme de Jordan
24
8 Applications de la réduction des endomorphismes
8.1 Calcul de puissances de matrices . . . . . . . . .
8.2 Suites récurrentes . . . . . . . . . . . . . . . . . .
8.3 Systèmes d’équations différentielles linéaires .
8.4 Exercices . . . . . . . . . . . . . . . . . . . . . . .
25
25
26
26
27
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9 Généralités sur les formes bilinéaires
29
10 Formes bilinéaires symétriques et formes quadratiques
10.1 Formes bilinéaires symétriques non dégénérées et définies . . . . . . . . . . .
10.2 Réduction d’une forme quadratique en somme de carrés, méthode de Gauss
10.3 Invariants d’une forme quadratique . . . . . . . . . . . . . . . . . . . . . . . . .
10.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
30
31
32
33
34
11 Espaces euclidiens
11.1 Exemple du produit scalaire dans R2 . . .
11.2 Produit scalaire . . . . . . . . . . . . . . .
11.3 Orthogonalité dans un espace euclidien
11.4 Procédé d’orthogonalisation de Schmidt
11.5 Exercices . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
36
36
36
37
38
39
12 Endomorphismes orthogonaux d’un espace euclidien
12.1 Le groupe orthogonal d’un espace euclidien . . . .
12.2 Le groupe O 2 (R) . . . . . . . . . . . . . . . . . . . . .
12.3 Le groupe O 3 (R) . . . . . . . . . . . . . . . . . . . . .
12.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
41
41
43
44
45
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13 Endomorphismes symétriques d’un espace euclidien
45
13.1 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
14 Coniques
14.1 Classification affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.2 Classification euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47
48
49
51
1 Algèbre linéaire. Pourquoi ?
La notion de dépendance linéaire entre deux quantités est la plus simple qu’on puisse imaginer, à
tel point que, dans la vie courante, beaucoup de gens n’imaginent pas d’autres types de dépendance.
Imaginons que j’aille chez le boulanger. Le premier jour, j’achète 3 brioches et 5 gâteaux et j’en ai pour
100 e. Le deuxième, j’achète 7 brioches et 4 gâteaux et j’en ai pour 150 e. Le troisième, j’achète 13
2
brioches et 37 gâteaux ; combien cela me coutera ? La réponse est simple :
On observe que (13, 37) = 9(3, 5) − 2(7, 4). On en déduit que cela me coutera 9 × 100 − 2 × 150, soit 600 e.
Ce raisonnement élémentaire est basé sur le fait, implicitement supposé ici, que le prix d’un panier
dépend linéairement du contenu du panier. Autrement dit que si P 1 et P 2 sont deux paniers, le prix du
panier αP 1 + βP 2 sera αp(P 1 ) + βp(P 2 ).
Dans la vie mathématique, les phénomènes linéaires sont les plus élémentaires à étudier, et on
cherche souvent à s’y ramener, au moins en première analyse (c’est par exemple ce qu’on fait quand
on calcule la différentielle d’une application).
Pour pouvoir parler d’applications linéaires, c’est à dire vérifiant
f (αu + βv) = α f (u) + β f (v)
il nous faut d’abord pouvoir disposer d’ensembles dans lesquels la formule αu + βv a un sens. On voit
apparaître la notion d’espace vectoriel.
L’introduction d’espaces vectoriels et de sous-espaces vectoriels (droites, plans, ...) permet d’utiliser
l’intuition géométique pour guider les calculs algébriques.
2 Quelques rappels d’algèbre linéaire
Cette partie n’est pas un cours auto-suffisant. Il s’agit juste d’un rappel de quelques notions qui seront
indispensables dans la suite. Vous êtes invités à vous reporter à votre livre préféré pour approfondir les
notions qui vous manqueraient.
Dans tout ce qui suit, k désigne R ou C, et E , F , G seront des k-espaces vectoriels .
2.1 Sous-espaces vectoriels
Un sous-espace vectoriel de E est un sous-ensemble X de E tel que
— X est non vide.
— X est stable par combinaisons linéaires : ∀α, β ∈ X , ∀u, v ∈ k, αu + βv ∈ X .
Un sous-espace vectoriel de E , muni de l’addition et de la multiplication par un scalaire est un espace
vectoriel .
Notons que si X et Y sont deux sous-espaces vectoriels de E , alors X ∩ Y est un sous-espace vectoriel de E .
Si X et Y sont deux sous-espaces vectoriels de E , on appelle somme de X et Y l’ensemble
X + Y = {u + v | u ∈ X , v ∈ Y }
C’est un sous-espace vectoriel de E .
Si x 1 , . . . , x r sont des éléments de E , l’ensemble de toutes les combinaisons linéaires α1 x 1 + . . . +
αr x r de x 1 , . . . , x r est un sous-espace vectoriel de E . On l’appelle le sous-espace vectoriel engendré par
x 1 , . . . , x r , et on le note V ec t (x 1 , . . . , x r ).
Deux sous-espaces vectoriels de E sont dits en somme directe si X ∩ Y = {0}. Dans ce cas un élément
de X + Y s’écrit de manière unique comme u + v avec u ∈ X et v ∈ Y . La somme X + Y est alors notée
X ⊕Y .
2.2 Familles libres, familles génératrices, bases
On dit qu’une famille (x 1 , . . . , x r ) d’éléments de E est une famille libre, ou encore que les éléments
x 1 , . . . , x r sont linéairements indépendants, si
∀α1 , . . . , αr ∈ k, α1 x 1 + . . . + αr x r = 0 =⇒ α1 = . . . = αr = 0
3
Cela veut dire que tout élément de V ec t (x 1 , . . . , x r ) s’écrit de manière unique sous la forme α1 x 1 + . . . +
αr x r .
On dit qu’une famille (x 1 , . . . , x r ) d’éléments de E est une famille génératrice de E , ou encore que les
éléments x 1 , . . . , x r engendrent linéairement E si
∀x ∈ E ,
∃α1 , . . . , αr ∈ k,
x = α1 x 1 + . . . + αr x r
On dit qu’un espace vectoriel est de dimension finie s’il possède une famille génératrice finie. On notera
qu’à ce stade de l’exposé, le terme « dimension »n’a pas de sens en soi, mais cela sera précisé un peu plus
loin.
Si X est un sous-espace vectoriel de E , une famille x 1 , . . . , x r d’éléments de X est appelée une base de
X si
— X = V ect (x 1 , . . . , x r )
— x 1 , . . . , x r est une famille libre.
Autrement dit, x 1 , . . . , x r est une base de X si tout élément de X s’écrit de manière unique sous la forme
α1 x 1 + . . . + αr x r .
Il résulte de ces définition qu’une base de E est une famille d’éléments de E qui est à la fois libre
et génératrice. C’est souvent une bonne stratégie pour montrer qu’une famille est une base de montrer
séparément qu’elle est libre et génératrice.
Théorème 1 (Base incomplète). Si x 1 , . . . , x r est une famille libre d’un espace vectoriel de dimension finie
E , alors il existe des éléments x r +1 , . . . , x n tels que (x 1 , . . . , x n ) soit une base de E .
Ce théorème entraîne en particulier que tout espace vectoriel de dimension finie possède au moins
une base. Pour préciser le nombre d’éléments d’une telle base, on va énoncer d’abord un lemme :
Lemme 2. Soient r éléments x 1 , . . . , x r de E et soient r + 1 éléments y 1 , . . . , y r +1 de E qui s’écrivent chacun
comme combinaison linéaire des x i . Alors la famille (y 1 , . . . , y r +1 ) n’est pas libre.
Ce lemme technique permet de prouver théorème fondamental suivant :
Théorème 3. Si x 1 , . . . , x r et y 1 , . . . , y s sont deux bases d’un espace vectoriel E , alors elles ont le même
nombre d’éléments r = s.
Le nombre d’éléments d’une base de E , qui est donc maintenant bien défini, est appelé la dimension
de E .
Mentionnons également la proposition suivante, souvent utile pour montrer qu’une famille est une
base :
Proposition 4. Soit E un espace vectoriel de dimension n, et soit E = (e 1 , . . . , e n ) une famille de n vecteurs
de E . Alors les trois assertions suivantes sont équivalentes :
— E est une base de E .
— E est une famille génératrice de E .
— E est une famille libre.
Le théorème de la base incomplète entraîne en particulier que si X ⊂ Y sont deux sous-espaces
vectoriels de E , alors dim X ≤ dim Y , et qu’on a dim X = dim Y si, et seulement si, X = Y .
Théorème 5. Soient X et Y deux sous-espaces vectoriels de E , alors
dim X + dim Y = dim(X + Y ) + dim(X ∩ Y )
4
Soit E = (e 1 , . . . , e n ) une base de E , pour tout vecteur x ∈ E , on notera [x]E le vecteur colonne dont les
coefficients sont les coordonnées de x dans la base E .
£
¤
Soit F = ( f 1 , . . . , f n ) une autre base de E , on notera P EF = [ f 1 ]E , . . . , [ f n ]E la matrice de passage de la
base E à la base F .
Alors les coordonnées d’un vecteur x dans les bases E et F sont reliées par :
[x]E = P EF [x]F
Par ailleurs, cette égalité entraîne que :
´−1
³
E
PF
= P EF
2.3 Applications linéaires
Une application u : E → F est dite linéaire si elle vérifie :
∀x, y ∈ E , ∀α, β ∈ k, u(αx + βy) = αu(x) + βu(y)
Dans le cas où E = F , une application linéaire E → E est appelée un endomorphismede E .
On définit alors le noyau d’une application linéaire u : E → F
Ker u = {x ∈ E | u(x) = 0}
et l’imagede u
Im u = {y ∈ F | ∃y ∈ E , y = u(x)}
On déduit immédiatement de la linéarité de u que Ker u est un sous-espace vectoriel de E et Im u est un
sous-espace vectoriel de F . La dimension de Im u est appelée le rang de u et est notée r g (u).
Théorème 6 (Théorème du rang). Soit u : E → F une application linéaire. Alors
dim Ker u + dim Im u = dim E
On se rappellera bien ici que c’est la dimension de l’espace de départ de u qui compte.
Conséquence. Soit u : E → F une application linéaire, avec dim E = dim F . Alors les trois assertions
suivantes sont équivalentes :
— u est injective,
— u est surjective,
— u est bijective.
En effet, dire que u est injective est équivalent à dire que dim K er (u) = 0, et donc que dim I m(u) =
dim E = dim F , ce qui se traduit en disant que u est surjective.
2.4 Matrice d’une application linéaire
Soit u : E → F une application linéaire , et soient E une base de E et F une base de F . La matrice de
u relativement aux bases E et F est la matrice
£
¤
M E ,F (u) = [u(e 1 )]F , . . . , [u(e n )]F ,
dont la colonne d’indice j est le vecteur colonne des coordonnées dans F de l’image par u du j -ième
vecteur de E .
Proposition 7. Les coordonnées de l’image par u d’un vecteur x sont exprimées par :
[u(x)]F = M E ,F (u) [x]E
5
Remarque 8. Inversement, si M = (a i , j ) est une matrice n × p, il lui correspond une application linéaire
f : Rn → Rp , définie par :

 
 
 

x1
a 1,1 · · · a 1,n
a 1,1 x 1 + · · · + a 1,n x n
x1
  ..
 .  
..   .. 
..
f  ..  = 
= .
. . . 
.
a p,1 x 1 + · · · + a p,n x n
xn
a p,1 · · ·
a p,n
xn
Proposition 9. Soient E , F , G des espaces vectoriels de dimensions p, q, r , munis de bases E , F , G , et
soient des applications linéaires f : E → F et g : F → G. On a alors :
M E ,G (g ◦ f ) = M F ,G (g ) . M E ,F ( f )
Proposition 10 (Effet d’un changement de bases). Soient E et E 0 des bases de E et F et F 0 des bases de F .
Alors
F
E0
M E 0 ,F 0 (u) = P F
0 M E ,F (u) P E
Démonstration. La preuve de cette proposition est plus facile à retenir que le résultat lui même.
Partons d’un vecteur x ∈ E et calculons les coordonnées de u(x) dans la base F 0 de deux façons :
D’abord :
[u(x)]F 0 = M E 0 ,F 0 (u) [x]E 0
(1)
D’autre part, on a :
F
[x]F 0 = P F
0 [x]F
Donc
,
[u(x)]F = M E ,F (u) [x]E
³
´
F
E0
[u(x)]F 0 = P F
M
(u)
P
[x]E 0
0
E ,F
E
[x]E = P EE [x]E 0
0
,
(2)
En comparant (1) et (2), on obtient la formule attendue.
2.5 Déterminant d’une matrice, déterminant d’un endomorphisme
On ne reviendra pas ici sur la définition et les procédés de calcul du déterminant d’une matrice
carrée. On rappellera seulement quelques propriétés.
Proposition 11 (Déterminant d’un produit). Soient A et B deux matrices de taille n × n. Alors
det(AB ) = (det A) (det B )
Il résulte de cette propriété que, si P est une matrice carrée inversible, on a
det(P −1 ) = (det P )−1
et que, si A et P sont deux matrices de taille n × n, avec P inversible, on a
det(P −1 AP ) = det A
Une conséquence importante est la suivante : soit u : E → E un endomorphisme. Si on considère deux
bases E et F de E , il résulte de la formule précédente et de la formule de changement de bases que
det M E ,E (u) = det M F ,F (u)
En d’autres termes, cette valeur est indépendante de la base qu’on utilise pour la calculer, et ne dépend
que de u. On l’appelle donc le déterminant de u, et on le note det u. L’expression du déterminant d’un
produit entraîne que si u et v sont deux endomorphismes de E , alors
det(u ◦ v) = (det u) (det v)
6
Proposition 12. Un endomorphisme est inversible si, et seulement si, son déterminant est non nul.
Démonstration. Le sens direct est évident, car dire que u est inversible se traduit par l’existence d’un
endomorphisme v tel que u ◦ v = i d E , et donc det u det v = 1 et det u 6= 0. Le sens réciproque provient de
la formule explicite donnant l’inverse d’une matrice :
M . tC om(M ) = det(M ) I
Proposition 13 (Déterminant d’une matrice triangulaire par blocs). Soit A une matrice qui s’écrit
¸
·
B D
0 C
où B et C sont des matrices p × p et q × q. Alors
det A = det B detC
2.6 Quelques exercices pour se mettre en jambes
Exercice 1. Soit
f : R3 → R3 , (x, y, z) 7→ (−7x − 12y − 6z, 7x + 11y + 5z, −5x − 6y − 2z)
— Montrer que f est une application linéaire.
— Écrire la matrice M de f dans la base canonique de R3 .
— Vérifier que les vecteurs suivants forment une base de R3 , et écrire la matrice N de f dans cette
base






0
−2
1
u =  1  , v =  1  , w =  −1 
1
−2
1
— Trouver une relation de la forme M = P N P −1 pour une matrice inversible P que l’on précisera.
— Donner une expression de M n pour tout n ∈ N.
Exercice 2. On considère la matrice M



M =

1
4
3
2
2
1
4
3
3
2
1
4
4
3
2
1





et l’endomorphisme u de R4 dont M est la matrice dans la base canonique E de R4 .
— Quel est le rang de M ?
— Soient
E 1 = {(x, y, z, t ) ∈ R 4 | x + 2y + 3z + 4t = 0 et 4x + y + 2z + 3t = 0}
E 2 = {(x, y, z, t ) ∈ R 4 | 3x + 4y + z + 2t = 0 et 2x + 3y + 4z + t = 0}
Déterminer les dimensions et trouver des bases de E 1 et E 2 .
— Montrer que R4 = E 1 ⊕ E 2 .
— Trouver une base F de R4 constituée de vecteurs de E 1 et de E 2 .
7
Exercice 3. Soit A une matrice n × n à coefficients réels, vérifiant
X
∀i = 1, . . . , n , |a i ,i | >
|a i , j |
j 6=i
Montrer que A est inversible. On raisonnera par l’absurde en supposant que K er (A) contient un élément
x 6= 0, et on regardera un indice i tel |x i | = max{|x j |; j = 1, . . . , n}.
Exercice 4. Soit E = {P ∈ R[X ]| deg P ≤ 2n}. Soit ψ : E → R[X ] l’application définie par :
(Ψ(P ))(X ) = X (X + 1)P 0 (X ) − 2nX P (X ).
— Monter que Ψ est une application linéaire.
— Montrer que, pour tout P ∈ E , on a Ψ(P ) ∈ E . Donc ψ définit un endomorphisme de E .
— Écrire la matrice de Ψ dans la base de E constituée de 1, X , X 2 , . . . , X 2n .
3 Sous-espaces stables par un endomorphisme.
Pour étudier un endomorphisme d’un espace vectoriel, on cherche à le découper en briques plus
petites, qu’on pourra ensuite étudier séparément.
Définition 14. Soit u : E → E un endomorphisme. Un sous-espace vectoriel F de E est dit stable par u si
u(F ) ⊂ F .
Imaginons qu’on ait trouvé deux sous-espaces F et G stables par u, tels que E = F ⊕ G. Alors, en
prenant une base e 1 , . . . , e r de F et une base e r +1 , . . . , e n de G, on obtient en les réunissant une base E de
E . Dans cette base, la matrice de u s’écrira sous la forme :
·
¸
B 0
M E ,E (u) =
0 C
On voit donc qu’on a avancé vers l’objectif de découper u en briques plus petites.
Un cas particulier de sous-espace stable est celui où F = V ec t (x), avec x un vecteur non nul de E .
Dans ce cas, dire que F est stable par u revient à dire qu’il existe λ ∈ k tel que u(x) = λx.
Définition 15 (Valeur propre et vecteur propre). Soit u : E → E . Un élément λ de k est appelé valeur
propre de u s’il existe un vecteur x ∈ E non nul tel que u(x) = λx ; le vecteur x est appelé un vecteur propre
associé à la valeur propre λ.
Définition 16. Soient u : E → E et λ ∈ k. On appelle espace propre associé à λ l’ensemble
E λ = {x ∈ E | u(x) = λx}
L’ensemble E λ est un sous-espace vectoriel de E , stable par u.
Dire que λ est une valeur propre de u revient à dire que E λ 6= {0}.
8
3.1 Sommes directes de sous-espaces propres
Théorème 17. Soient λ1 , . . . , λr des valeurs propres distinctes d’un endomorphisme u de E , et soient
x 1 , . . . , x r des vecteurs propres correspondants. Alors la famille x 1 , . . . , x r est libre.
Démonstration. On va raisonner par récurrence sur l’entier r .
Pour r = 1, c’est évident, car un vecteur non nul constitue une famille libre.
Supposons l’assertion vraie pour un r donné, et considérons maintenant r +1 valeurs propres λ1 , . . . , λr +1
et des vecteurs propres x 1 , . . . , x r +1 associés. Montrons qu’ils forment une famille libre. Soient donc des
coefficients α1 , . . . , αr +1 tels que
α1 x 1 + · · · + αr +1 x r +1 = 0
(a)
Appliquons u à cette égalité :
α1 λ1 x 1 + · · · + αr +1 λr +1 x r +1 = 0
(b)
Retranchons λr +1 fois (a) à (b) :
α1 (λ1 − λr +1 )x 1 + · · · + αr (λr − λr +1 )x r = 0
Par l’hypothèse de récurrence, x 1 , . . . , x r sont linéairement indépendants, et il en résulte que
α1 (λ1 − λr +1 ) = · · · = αr (λr − λr +1 ) = 0
Comme les valeurs propres λ1 sont distinctes, cela entraîne que α1 = · · · = αr = 0. En reportant ceci dans
(a), on trouve que αr +1 est également nul.
On a donc prouvé que x 1 , . . . , x r +1 sont linéairement indépendants.
Le théorème est donc prouvé par récurrence sur r .
Comme une famille libre d’un espace vectoriel de dimension n est de cardinal au plus n, on déduit
immédiatement du théorème 17 le théorème suivant :
Théorème 18. Un endomorphisme d’un espace vectoriel de dimension n a au plus n valeurs propres
distinctes.
Une deuxième conséquence du théorème 17 est le théorème suivant :
Théorème 19. Soient λ1 , . . . , λr des valeurs propres d’un endomorphisme u de E . Alors les espaces propres
E λ1 , . . . , E λr sont en somme directe.
Définition 20 (Endomorphisme diagonalisable). Un endomorphisme u est dit diagonalisable si E est la
somme des espaces propres de u.
Une formulation équivalente est de dire qu’il existe une base de E constituée de vecteurs propres.
Supposons notre endomorphisme u défini par une matrice M dans une base E . Si u est diagonalisable,
il existe une base F de vecteurs propres pour u. La matrice de u dans la base F est donc diagonale. On
obtient alors, en utilisant la formule de changement de bases :


λ1 0
···
0


 0 λ1 . . . · · ·

0


E
F
−1 
P
M E ,E (u) = P F M F ,F (u) P E = P  0 0 . . .

0
0


 0 · · · 0 λn−1 0 
0 ··· 0
0
λn
où P est la matrice de changement de base P EF .
Modulo la conjugaison par une matrice inversible, on a ramené l’étude d’une matrice diagonalisable à
celle d’une matrice aussi simple que possible, à savoir une matrice diagonale.
9
Théorème 21. Soit E un espace vectoriel de dimension n. Un endomorphisme de E qui possède n valeurs
propres distinctes est diagonalisable.
Démonstration. C’est encore une conséquence immédiate du théorème 17. En effet, en prenant un vecteur propre pour chaque valeur propre, on obtient une fammile libre, constituée de n vecteurs dans un
espace vectoriel de dimension n. Cette famille est donc une base.
Remarque 22. Cette condition n’est que suffisante. Ainsi la matrice


1 0 0
 0 1 0 
0 0 2
est diagonalisable (puisque diagonale), et elle n’a que deux valeurs propres distinctes.
Remarque 23. Il existe des matrices carrées non diagonalisables. Ainsi la matrice
µ
M=
1 1
0 1
¶
n’est pas diagonalisable ; en effet, on voit facilement que la seule valeur propre de M est 1, mais que
l’espace propre associé est de dimension 1.
3.2 Exercices
Exercice 5. On prend ici k = C. Soit M la matrice n × n dont les coefficients m i , j sont définis par
mi , j =
(
1 si i − j = 1 ou i − j = 1 − n
0 sinon
— Écrire explicitement la matrice M .
— Calculer M k pour tout k ≥ 0.
— Soit u : Rn → Rn l’endomorphisme dont M est la matrice dans la base canonique {e 1 , . . . , e n } de Rn .
En calculant u(e i ) pour tout i , donner une deuxième preuve de la formule trouvée à la question
précédente.
— Montrer que toute valeur propre λ de M vérifie nécessairement λn = 1.
— Soit λ ∈ C tel que λn = 1 ; chercher le sous-espace propre E λ ⊂ Cn . En déduire que λ est une valeur
propre de M .
— On considère un polynôme P (X ) = a 0 + a 1 X + . . . + a n−1 X n−1 de degré n − 1. Écrire explicitement
la matrice
N = a 0 I + a 1 M + a 2 M 2 + . . . + a n−1 M n−1
— Soit λ ∈ C tel que λn = 1 ; montrer que P (λ) est alors une valeur propre de N .
Exercice 6. On considère, comme déjà vu, l’espace vectoriel E = {P ∈ R[X ]| deg P ≤ 2n} et l’application
linéaire ψ : E → E définie par
(Ψ(P ))(X ) = X (X + 1)P 0 (X ) − 2nX P (X ).
Chercher les valeurs propres et vecteurs propres de Ψ.
Exercice 7. Soit E un espace vectoriel de dimension finie, et soit f un endomorphisme de E .
10
1. On suppose ici que f ◦ f = f et que f n’est ni l’identité, ni l’application nulle.
(a) Quelles sont a priori les valeurs propres de f ?
(b) Montrer E = Im(E ) ⊕ Ker(E ).
(c) Montrer que f est diagonalisable.
2. On suppose maintenant que f ◦ f = i d E et que f 6= i d E .
(a) Quelles sont a priori les valeurs propres λ1 et λ2 de f ?
(b) Soit x ∈ E . Décomposer x en somme d’un élément de E λ1 et d’un élément de E λ2
(c) Montrer que f est diagonalisable.
3. Peut-on interpréter géométriquement ces résultats ?
Exercice 8. Soit n ≥ 1, et soit f : M n,n (R) → M n,n (R) , A 7→ tA.
1. Montrer que f est une application linéaire.
2. Justifier que f est diagonalisable.
3. Déterminer les espaces propres de f .
µ
Exercice 9. Soit A =
¶
2 −1
.
3 −1
1. Vérifier par le calcul que A 3 = −I 3 . En déduire la valeur de A n pour tout n ∈ Z.
2. En déduire les valeurs propres (complexes) de A.
3. Diagonaliser A (sur C), et retrouver ainsi les valeurs de A n pour tout n ∈ Z.
4 Polynôme caractéristique
4.1 Quelques rappels succincts sur les polynômes
Un polynôme à coefficients dans k est une expression P = a 0 + a 1 X + · · · + a n X n , où les a i sont des
éléments de k. Si P est non nul, on appelle degré de P le plus grand entier r tel que a r 6= 0.
— L’ensemble des polynômes à coefficients dans k est noté k[X ]. C’est un k-espace vectoriel de
dimension infinie.
— On note k[X ]n l’ensemble des polynômes à coefficients dans k et de degré inférieur ou égal à n.
C’est un sous-espace vectoriel de k[X ], de dimension n + 1. On peut prendre pour base de k[X ]n
la famille 1, X , . . . , X n .
— Soit P ∈ k[X ] ; on dit qu’un élément a ∈ k est une racine de P si P (a) = 0.
— Soient A, B ∈ k[X ], on dit que A divise B , ou que B est un multiple de A, et on note A|B , si il existe
un polynôme B tel que B = C A.
— Soit P = a 0 + a 1 X + · · · + a n X in nk[X ] ; on définit le polynôme dérivéde P par
P 0 = a 1 + 2a 2 X + · · · + na n X n−1
On notera qu’il s’agit d’une définition purement algébrique, qui ne fait pas appel à l’analyse.
On vérifie facilement les formules suivantes :
(P +Q)0 = P 0 +Q 0
,
(αP )0 = αP 0
,
(PQ)0 = P 0Q + PQ 0
De même on parlera de k-ème polynôme dérivé de P , noté P (k) le polynôme obtenu en appliquant
k fois l’opération de dérivation à P . On vérifie que
(X n )(k) =
11
n!
X n−k
(n − k)!
Proposition 24 (Division euclidienne). Soient A, B ∈ k[X ], avec B 6= 0, alors il existe des polynômes Q et
R uniques tels que
A = BQ + R
et
deg R < deg B
Proposition 25. Soit P ∈ k[X ] ; un nombre a ∈ k est racine de P si, et seulement si, (X − a) divise P .
Démonstration. Si P = (X − a)Q, il est évident que P (a) = 0.
Inversement, si P (a) = 0, effectuons la division euclidienne de P par X − a. On a P = (X − a)Q + r , avec
r ∈ k. En remplaçant X par a dans cette égalité, on obtient r = 0 et donc P = (X − a)Q.
On peut généraliser ce résultat en
Proposition 26. Soit P ∈ k[X ] et a ∈ k. Le polynôme (X − a)r divise P si, et seulement si, P (a) = P 0 (a) =
· · · = P (r −1) (a) = 0 .
Démonstration. Dans le sens direct, on suppose que P (X ) = Q(X )(X −a)r . Pour tout k < r , on développe
par la formule de Leibnitz l’expression P (k) (X ). On voit alors que chacun des termes du développement
contient en facteur le polynôme X − a ; donc P (k) (a) = 0 pour tout k < r .
La réciproque se prouve par récurrence sur r , en utilisant la proposition précédente.
Définition 27 (Racine multiple). Soit P ∈ k[X ]. Un élément a ∈ k est dit racine de P de multiplicité r si
(X − a)r | P et (X − a)r +1 6 | P
Il résulte de la proposition précédente une caractérisation des racines multiples :
Un élément a ∈ k est racine de multiplicité r d’un polynôme P ∈ k[X ] si, et seulement si, P (a) = P 0 (a) =
· · · = P (r −1) (a) = 0 et P (r ) (a) 6= 0.
Théorème 28. Soient A, B ∈ k[X ] non tous les deux nuls. Alors il existe un unique polynôme D unitaire,
tel que
{U A + V B | U ,V ∈ k[X ]} = Dk[X ]
Ce polynôme est le plus grand diviseur commun à A et B , c’est-à-dire que D divise A et B , et que si E est
un autre diviseur commun à A et B , alors E divise D.
Pour calculer explicitement le PGCD de deux polynômes, on peut utiliser l’algorithme d’Euclide,
basé sur une suite de divisions euclidiennes :
A = P 1 B + R1
B
= P 2 R1 + R2
R1 = P 3 R2 + R3
..
.
R n−2 = P n R n−1 + R n
Le PGCD est alors le dernier reste non nul. Par ailleurs, cette méthode permet de déterminer les polynômes U et V .
Définition 29. Deux polynômes A et B sont dits premiers entre eux si les seuls diviseurs communs à A et
B sont les constantes non nulles.
Cela revient à dire que le PGCD de A et B est 1. Il résulte de ce qui précède :
Théorème 30 (de Bézout). Deux polynômes A et B sont premiers entre eux si, et seulement si, il existe des
polynômes U et V tels que U A + V B = 1.
12
4.2 Le polynôme caractéristique
Dire que λ est une valeur propre d’un endomorphisme u d’un k-espace vectoriel E de dimension n
revient à dire que
K er (λi d E − u) 6= {0}
C’est pourquoi on introduit, pour toute matrice M de taille n × n, l’expression :
χM (X ) = det(X I n − M )
χM (X ) est un polynôme en la variable X , de degré n.
On remarque que si M et N sont des matrices d’un endomorphisme u d’un espace vectoriel de dimension n, alors il existe une matrice inversible P telle que M = P N P −1 . On a donc :
χM (X ) = det(X I n − M ) = det(X P I n P −1 − P N P −1 ) = det P (X I n − N )P −1 = det(X I n − N ) = χN (X )
On en déduit que cette expression ne dépend que de l’endomorphisme u et pas du choix d’une base
particulière ; on la note donc χu (X ).
Le théorème suivant résume les remarques précédentes.
Théorème 31. Soit u un endomorphisme d’un k-espace vectoriel de dimension n. Le polynôme caractéristique de u est un polynôme de degré n. Un élément λ de k est une valeur propre d’un endomorphisme
u si, et seulement si, c’est une racine de χu (X ).
On retrouve ainsi le fait que u a au plus n valeurs propres distinctes.
4.3 Calcul du polynôme caractéristique
Des calculs très simples permettent d’identifier quelques coefficients du polynôme caractéristique
d’une matrice :
Théorème 32. Soit M une matrice n × n et P = χM . Alors
— Le coefficient de degré n de P est 1 (autrement dit P est un polynôme unitaire).
— Le coefficient de degré n − 1 de P est − Tr M .
— Le coefficient de degré 0 de P est (−1)n det M .
Donnons ensuite un petit résultat de calcul qui sera utile par la suite :
Théorème 33 (Polynôme caractéristique d’une matrice compagnon). Soit P = X n + a n−1 X n−1 + · · · +
a 1 X + a 0 . Alors le polynôme caractéristique de la matrice suivante, de taille n × n




CP = 


0 0 ···
1 0 ···
0 1 ···
.. .. ..
. . .
0 0 ···
0
0
0
..
.
−a 0
−a 1
−a 2
..
.







1 −a n−1
est égal à P (X ).
La matrice C P est appelée la matrice compagnon du polynôme unitaire P .
13
4.4 Un critère nécessaire et suffisant de diagonalisabilité
Théorème 34. Un endomorphisme u d’un espace vectoriel de dimension n est diagonalisable si, et seulement si, χu est scindé et la multiplicité de chaque valeur propre de u est égale à la dimension de l’espace
propre correspondant, c’est-à-dire
r
Y
χu (X ) = (X − λi )ni
i =1
et
∀i = 1, . . . , r, dim E λi = n i
Démonstration. Si u est diagonalisable, alors E est la somme directe des espaces propres E λi . Si on note
P
n i = dim E λi , on a alors dim E = ri=1 n i . De plus, en concaténant des bases de chacun des E λi , on obtient
une base de E dans laquelle u a une matrice diagonale, contenant n i exemplaires de λi pour chaque i .
Q
Le polynôme caractéristique de cette matrice est donc ri=1 (X − λi )ni .
Réciproquement, si χu est scindé et la multiplicité de chaque λi dans χu est égale à dim E λi , alors on a
dim E =
r
X
dim E λi .
i =1
Comme les E λi sont en somme directe, il en résulte que E =
Lr
i =1 E λi .
4.5 Exercices
Exercice 10. Les matrices A i , pour i = 1, 2, 3, suivantes sont-elles diagonalisables ? Si c’est le cas, on
donnera une matrice P j telle que P −1
A j P j soit diagonale.
j






2 0 1
0 1 0
0 1 0
A 1 =  1 1 1  , A 2 =  −4 4 0  , A 3 =  1 0 1 
−2 0 −1
−2 1 2
0 1 0
Exercice 11.
1. Calculer le déterminant de la matrice M de taille n × n telle que
(
α si i = j
mi , j =
β si i 6= j
2. Calculer le polynôme caractéristique de la matrice M ∈ M n,n (R), dont tous les coefficients valent
1, et trouver une base de Rn constituée de vecteurs propres de M .
3. Soit A = (a 1 , . . . , a n ) une matrice de taille 1 × n.
(a) Écrire la matrice N = tA A.
(b) Déterminer le rang de N et donner une base de Ker N .
(c) Calculer N tA.
(d) Donner une base de vecteurs propres de N .
Exercice 12.
1. Calculer le polynôme caractéristique de la matrice


1 0 −1
A= 0 1 0 
−1 2 1
2. Montrer que les valeurs propres de A vérifient pour tout n ≥ 2 :
λn+1 = (2n+1 − 1)λ2 − (2n+1 − 2)λ
3. En déduire une expression de A n pour tout n.
14
5 Trigonalisation
Définition 35. Une matrice M = (a i , j ) de taille n ×n est dite triangulaire supérieure si tous les coefficients
en dessous de la diagonale sont nuls. Autrement dit si
∀1 ≤ j < i ≤ n,
ai , j = 0
Elle est dite strictement triangulaire supérieure si tous les coefficients en dessous de la diagonale ou sur la
diagonale sont nuls. Autrement dit si
∀1 ≤ j ≤ i ≤ n,
ai , j = 0
Remarque 36 (Interprétation vectorielle). Soit u un endomorphisme d’un k-espace vectoriel E de dimension n. Soit E = (e 1 , . . . , e n ) une base de E . Notons M = M E ,E (u) et considérons les sous-espaces
vectoriels E k = V ec t (e 1 , . . . , e k ), en notant E 0 = {0}. On a {0} = E 0 ⊂ E 1 ⊂ · · · ⊂ E n = E .
Dire que M est triangulaire supérieure se traduit en :
∀k ≥ 1,
u(E k ) ⊂ E k
Dire que M est strictement triangulaire supérieure se traduit en :
∀k ≥ 1,
u(E k ) ⊂ E k−1
Remarque 37. En utilsant la remarque précédente, on déduit immédiatement
— Le produit de deux matrices triangulaires supérieures est triangulaire supérieure,
— Si M est strictement triangulaire supérieure de taille n × n, alors M n = 0.
Remarque 38. Le déterminant d’une matrice triangulaire supérieure est le produit de ses termes diagoQ
naux. Donc le polynôme caractéristique d’une matrice triangulaire supérieure (a i , j ) est ni=1 (X − a i ,i ).
Définition 39. Une matrice est dite trigonalisable si elle est semblable à une matrice triangulaire supérieure.
Trigonaliser une matrice carrée M consiste à trouver une matrice inversible P telle que P M P −1 soit
triangulaire supérieure.
La notion de trigonalisation se ramène à une propriété de l’endomorphisme associé :
Remarque 40. Un endomorphisme f de E est trigonalisable s’il existe une suite de sous-espaces vectoriels {0} = E 0 ⊂ E 1 ⊂ E 2 ⊂ · · · ⊂ E n = E avec dim E k = k et f (E k ) ⊂ E k .
Théorème 41. Un endomorphisme est trigonalisable si, et seulement si, son polynôme caractéristique est
scindé.
Démonstration. On raisonne par récurrence sur la dimension n de l’espace vectoriel sous-jacent E .
Si n = 1, il n’y a rien à démontrer (une matrice 1 × 1 est triangulaire supérieure).
Supposons le résultat démontré pour tout endomorphisme d’un espace vectoriel de dimension strictement inférieure à n. Soient E un espace vectoriel de dimension n et un endomorphisme u : E → E dont
le polynôme caractéristique est scindé. Montrons que u est trigonalisable.
Soient λ1 , . . . , λn les racines, éventuellement confondues, de χu . Prenons l’une de ces racines, par
exemple λ1 . C’est une valeur propre ; il existe donc un vecteur propre v 1 qui lui est associé. Complétons
de manière arbitraire ce vecteur en une base v 1 , . . . , v n de E . Dans cette base, la matrice de u est de la
forme


λ1 ∗ · · · ∗

 0



 .

 ..
M
0
15
On a χu (X ) = (X −λ1 )χM (X ). On en déduit que que χM (X ) est scindé, de racines λ2 , . . . , λn Soit v l’endomorphisme de V ec t (v 2 , . . . , v n ) dont la matrice dans la base (v 2 , . . . , v n ) est M . En appliquant l’hypothèse
de récurrence à v, on peut trouver une base w 2 , . . . , w n de V ec t (v 2 , . . . , v n ) dans laquelle la matrice de v
est une matrice triangulaire supérieure T . Formons alors la base F = (v 1 , w 2 , . . . , w n ) de E . On alors :


λ1 ∗ · · · ∗

 0


M F ,F (u) =  .
,

 ..
T
0
qui est triangulaire supérieure, avec λ1 , . . . , λn pour coefficients diagonaux.
Méthode pratique. La preuve de ce théorème donne un algorithme effectif de trigonalisation d’un endomorphisme u :
— Chercher les valeurs propres distinctes λ1 , . . . , λr de u.
— Pour chaque valeur propre λk , déterminer le sous-espace propre associé E k , et une base de E k .
— En réunissant toutes ces bases, on obtient une base v 1 , . . . , v s de E 1 ⊕ · · · ⊕ E r .
— Compléter cette base avec des vecteurs v s+1 , . . . , v n de manière à obtenir une base de E .
— Dans la base ainsi formée, la matrice de u est de la forme :


∗ ··· ∗

..
.. 

.
. 
D



∗ ··· ∗ 


M F ,F (u) = 
,

 0 ··· 0


..

 ..
M
.

 .
0 ··· 0
où D est une matrice diagonale.
— Réitérer les opérations en travaillant maintenant sur l’endomorphisme de V ec t (v s+1 , . . . , v n ), de
matrice M .
Un exemple. On regarde la matrice


−3 −3 2
1 −2 
M = 1
2
4 −4
Le polynôme caractéristique est χM (X ) = (X + 2)3 (faire le calcul !). Donc la seule valeur propre de M est
−2. La matrice M ne peut donc pas être diagonalisable, car sinon elle serait semblable à la matrice −2I ,
et serait donc égale à cette matrice, ce qui n’est pas le cas.
Cherchons l’espace propre associé à la valeur propre −2. Après calcul, on trouve


−1
E −2 = V ec t (v 1 )
avec
v1 =  1 
1
Complétons v 1 en une base (v 1 , v 2 , v 3 ) de R3 avec


 
−1
1



1
v1 =
v2 = 0 
1
0


0
v3 =  1 
0
On notera bien que ce choix est tout à fait arbitraire. Vous auriez pu en faire un autre ; les calculs seraient
différents, et le résultat ne serait pas le même, car il n’y a pas unicité de la solution.
16
On calcule maintenant : M v 1 = −2v 1 , M v 2 = v 1 − v 2 − v 3 M v 3 = 4v 1 + v 2 − 3v 3 . Donc la matrice de l’endomorphisme f associé à M a pour matrice dans la base (v 1 , v 2 , v 3 ) :


−2 2
4
 0 −1 1 
0 −1 −3
On regarde maintenant l’endomorphisme de V ec t (v 2 , v 3 ) dont la matrice est le bloc
µ
−1 1
−1 −3
¶
On sait sans calcul (mais on peut toujours le vérifier), que son polynôme caractéristique est (X + 2)2 . On
en cherche donc les vecteurs propres pour la valeur propre −2. L’espace propre est de dimension 1 est
est engendré par w 2 = v 2 − v 3 . On complète alors arbitrairement la famille v 1 , w 2 en une base de R3 :


−1
w1 = v1 =  1 
1


1
w 2 = v2 − v3 =  −1 
0


0
w3 =  1 
0
On sait déjà que M w 1 = −2w 1 , et on obtient par le calcul que :


0
M w 2 =  0  = −2w 1 − 2w 2 ,
−2


−3
M w 3 =  1  = 4w 1 + 3w 2 − 2w 3
4
Il résulte de ces calculs :

 


−1 1 0
−1 1 0
−2 −2 4
M  1 −1 1  =  1 −1 1   0 −2 3 
1
0 0
1
0 0
0
0 −2
5.1 Exercices
Exercice 13. Trigonaliser la matrice


2 −1 2
 2
2
1 
−1 1 −1
Exercice 14. On considère la matrice

0 1 0
A =  −4 4 0  .
−2 1 2

1. Calculer le polynôme caractéristique de A et montrer que A est trigonalisable sur R.
2. Trouver explicitement une matrice inversible P et une matrice triangulaire supérieure T telles
que A = P T P −1 .
3. Écrire T sous la forme T = λI +N , où N est une matrice triangulaire supérieure stricte (c.à.d. avec
des zéros sur la diagonale). Calculer les puissances successives de N .
4. En déduire les valeurs de T n pour tout n ≥ 0.
5. En déduire les valeurs de A n pour tout n ≥ 0.
17
6 Polynômes d’endomorphismes
Définition 42. Si u est un endomorphisme de E , on note u k = u ◦ u ◦ · · · ◦ u (k fois). Pour tout polynôme
P = a 0 + a 1 X + · · · + a p X p de degré p, on pose :
P (u) = a 0 i d E + a 1 u + · · · + a p u p
Proposition 43 (Opérations sur les polynômes). Si u est un endomorphisme de E , et si P et Q sont deux
polynômes à coefficients dans k, on a
(P +Q)(u) = P (u) +Q(u)
et
(PQ)(u) = P (u) ◦ Q(u) = Q(u) ◦ P (u)
Remarque 44. Soient M , N ,Q des matrices n × n, avec Q inversible, telles que M = QNQ −1 . Alors pour
tout entier r ,
¡
¢ ¡
¢
M r = QNQ −1 . . . QNQ −1 = QN r Q −1
Plus généralement, si P ∈ k[X ], on a
P (M ) = QP (N )Q −1
6.1 Idéal annulateur, théorème de Cayley-Hamilton
Définition 45. Si u est un endomorphisme de E , on note I u l’ensemble des polynômes P tels que P (u) = 0.
Proposition 46. Si u est un endomorphisme de E , le sous-ensemble I u de k[X ] vérifie les propriétés suivantes :
— 0 ∈ Iu
— Si P,Q ∈ I u , alors P +Q ∈ I u .
— Si P ∈ I u et Q ∈ k[X ], alors PQ ∈ I u .
Les propriétés indiquées ci-dessus se traduisent en disant que I u est un idéal de k[X ]. On l’appelle
l’idéal annulateur de u.
Remarque 47. L’idéal annulateur d’un endomorphisme u d’un espace vectoriel de dimension n contient
nécessairement un polynôme non nul de degré au plus n 2 . En effet, si M est une matrice n ×n, les n 2 +1
2
matrices I , M , M 2 , . . . , M n forment une famille liée de l’espace M n,n (k), qui est de dimension n 2 .
En réalité, on a un résultat bien meilleur :
Théorème 48 (Cayley-Hamilton). Soit u un endomorphisme d’un espace vectoriel E de dimension finie.
On a
χu (u) = 0
¡
¢
Démonstration. Il s’agit de montrer que, pour tout élément x de E , on a χu (u) (x) = 0. Fixons donc
x ∈ E non nul, et considérons le plus grand entier r tel que x, u(x), u 2 (x), . . . , u r −1 (x) soient linéairement
indépendants (un tel entier existe puisque qu’une famille libre de E a au plus dim(E ) éléments). Il existe
alors des coefficients a 0 , . . . , a r −1 ∈ k tels que
u r (x) + a r −1 u r −1 (x) + · · · + a 1 u(x) + a 0 x = 0
Introduisons donc le polynôme P = X r + a r −1 X r −1 + · · · + a 1 X + a 0 . On a P (u)(x) = 0. Le sous-espace
vectoriel F = V ec t (x, u(x), u 2 (x), . . . , u r −1 (x)) est stable par u, et x, u(x), u 2 (x), . . . , u r −1 (x) forment une
base F de F . Dans cette base, la matrice de u|F est la matrice compagnon


0 0 · · · 0 −a 0
 1 0 · · · 0 −a 1 




C P =  0 1 · · · 0 −a 2 
 . . . .

..

 .. .. .. ..
.
0 0 · · · 1 −a r −1
18
et on déjà vu que le polynôme caractéristique de C P est P .
Complétons F en une base E de E . La matrice de u dans cette base s’écrit alors :


∗ ··· ∗

..
.. 

CP
.
. 



∗ ··· ∗ 


M E ,E (u) = 
,

 0 ··· 0


.
.

 .
..
D

 .
0 ··· 0
On en déduit que
χu (X ) = P (X ) χD (X )
Et alors
¡
¢¡
¢ ¡
¢
χu (u)(x) = χD (u) P (u)(x) = χD (u) (0) = 0
ce qui est le résultat attendu.
6.2 Polynôme minimal
Théorème 49. Soit u un endomorphisme d’un espace vectoriel E de dimension finie, et soit P un élément
non nul de I u de degré minimal. Alors P divise tout élément de I u .
Démonstration. On sait déjà que I u contient au moins un élément non nul. Soit P ∈ I u de degré minimal.
Soit un élément quelconque Q de I i . Effectuons la divion euclidienne de Q par P :
Q = AP + R
avec
R = 0 ou deg R < deg P
Mais R(u) = Q(u) − A(P (u)) = 0, donc R ∈ I u . Comme P est de degré minimal, cela entraîne que R = 0.
Donc P divise Q.
Remarque 50. Si P et Q sont deux tels polynômes, alors P |Q et Q|P , et ils diffèrent donc l’un de l’autre
juste d’une multiplication par un élément de k ∗ .
Définition 51. Un élément non nul de I u de degré minimal est appelé un polynôme minimal de u. Parmi
ceux-ci, l’unique polynôme minimal unitaire est appelé le polynôme minimal de u ; on le notera P u .
Il résulte immédiatement du théorème 49 et du théorème de Cayley-Hamilton que le polynôme minimal de u divise χu . On peut légèrement préciser ceci avec le
Théorème 52. Les valeurs propres d’un endomorphisme u sont exactement les racines de son polynôme
minimal P u .
Démonstration. Soit u un endomorphisme d’un espace vectoriel E de dimension finie.
La remarque précédente entraîne que toute racine du polynôme minimal est racine du polynôme
caractéristique et est donc une valeur propre de u.
Inversement, soit λ une valeur propre de u. Fixons un vecteur propre v de valeur propre λ. Pour tout
polynôme P , on a P (u)(v) = P (λ)v. Appliquons ceci à P = P u . On a donc 0 = P u (u)(v) = P u (λ)v, et donc
P u (λ) = 0.
19
6.3 Lemme de décomposition des noyaux et applications
La connaissance d’un polynôme annulateur pour un endomorphisme u va nous donner des informations sur u.
Théorème 53 (de décomposition des noyaux). Soit u ∈ End (E ) et soient P 1 , P 2 ∈ k[X ] premiers entre eux
tels que Ker P 1 (u) 6= {0} et Ker P 2 (u) 6= {0} et soit P = P 1 P 2 . Alors Ker P (u) = Ker P 1 (u) ⊕ Ker P 2 (u).
Démonstration. D’abord, la relation P (u) = P 2 (u)◦P 1 (u) = P 1 (u)◦P 2 (u) entraîne que Ker P 1 (u) et Ker P 2 (u)
sont inclus dans Ker P (u).
Utilisons maintenant le fait que P 1 et P 2 sont premiers entre eux en écrivant une relation de Bézout :
1 = A(X )P 1 (X ) + B (X )P 2 (X )
et donc
i d E = A(u) ◦ P 1 (u) + B (u) ◦ P 2 (u) = P 1 (u) ◦ A(u) + P 2 (u) ◦ B (u)
Montrons que Ker P (u) = Ker P 1 (u) + Ker P 2 (u). Prenons donc x ∈ Ker P (u). On a alors
¡
¢
¡
¢
x = i d E (x) = P 1 (u) ◦ A(u) (x) + P 2 (u) ◦ B (u) (x)
Notons y et z les deux termes de cette somme. On a
¡
¢
¡
¢
P 2 (u)(y) = A(u) (P 2 (u) ◦ P 1 (u))(x) = A(u) (P (u)(x) = A(u)(0) = 0.
et de même P 1 (u)(z) = 0. Donc x = z + y ∈ Ker P 1 (u) + Ker P 2 (u).
Pour finir, montrons
que
¡
¢ Ker P¡1 (u) ∩ Ker¢ P 2 (u) = {0}. Prenons donc x ∈ Ker P 1 (u) ∩ Ker P 2 (u). On a
x = i d E (x) = A(u) P 1 (u)(x) + B (u) P 2 (u)(x) = A(u)(0) + B (u)(0) = 0.
Conséquence. Supposons que le polynôme minimal P u d’un endomorphisme u de E soit scindé sur k.
Q
Il s’écrit P u (X ) = ri=1 (X − λi )ni , et on a
E = Ker P u (u) =
r
M
Ei .
i =1
Définition 54. Les sous-espaces E i = K er (u −λi i d E )ni sont appelés les sous-espaces caractéristiques de u.
Les sous-espaces vectoriels E i sont stables par u. Donc, si on choisit des bases E i de chacun des E i
et si on les réunit en une base E de E . En notant
M i = M E i ,E i (u|E i )
et la matrice de u dans E est alors une matrice diagonale par blocs :

M1

 0

 ..
 .

 ..
 .
0
0
M2
..
.
···
···
..
.
..
.
..
.
···
···
..
.
M r −1
0
0
..
.
..
.








0 
Mr
Théorème 55. Un endomorphisme est diagonalisable sur k si, et seulement si, son polynôme minimal est
scindé sur k, et à racines simples.
20
Démonstration. Soit M une matrice diagonalisable. On écrit donc M = QDQ −1 , avec Q inversible, et
D = d i ag (λ1 , . . . , λn ). Parmi les λi , il y en a r distinctes deux à deux ; supposons donc que ce soient
λ1 , . . . , λr . Considérons le polynôme
r
Y
P = (X − λi )
i =1
Alors P (D) = d i ag (P (λ1 ), . . . , P (λn )) = 0. D’après la remarque 44, on a donc P (M ) = QP (D)Q −1 = 0. On a
donc trouvé un polynôme scindé à racines simples tel que P (M ) = 0. Donc le polynôme minimal de M ,
puisqu’il divise P , est également scindé à racines simples.
Q
Réciproquement, supposons que P M soit scindé à racines simples. Il s’écrit P M = ri=1 (X − λi ). On a
donc par le théorème de décomposition des noyaux :
E = Ker P M (M ) =
r
M
Ker (λi I − M )
i =1
Autrement dit, E est somme directe d’espaces propres pour M , ce qui veut dire que M est diagonalisable.
Théorème 56 (Décomposition de Dunford). Si une matrice carrée M a un polynôme caractéristique
scindé, alors elle est semblable à une matrice de la forme D + N , où D est diagonale, N est nilpotente,
et D N = N D.
Démonstration. Soit u un endomorphisme de E , et M sa matrice dans une base donnée. On suppose
que le polynôme caractéristique de M est scindé :
χM =
r
Y
(X − λi )ni .
i =1
Comme expliqué après la définition 54, M est semblable à une matrice diagonale par blocs Di ag (M 1 , . . . , M r ),
où chaque M i est la matrice de la restriction u|E i au sous-espace vectoriel E i = K er (u − λi i d E )ni , dans
une base E i de E i . On peut ensuite trigonaliser indépendamment chaque u|E i . Comme le polynôme
minimal de M i divise (X − λi )ni . On pourra écrire M i = Q i M i0 Q i−1 avec


λi ∗ · · · ∗

. 
 0 λi . . . .. 
0


Mi =  . .

.
.
.
.
 .
.
. ∗ 
0 · · · 0 λi
Il résulte de toutes ces transformations que M est semblable à la matrice M 0 = Di ag (M 10 , . . . , M r0 ). Prenons alors pour D la matrice diagonale formée des diagonales des M i0 , et pour N la partie strictement
au dessus de la diagonale de M 0 . Alors M est semblable à D + N ; la matrice D est diagonale, la matrice
N est nilpotente et les matrices D et N commutent.
Remarque 57. La démarche utilisée dans cette démonstration peut sembler compliquée, mais elle est
nécessaire. Ainsi, si on part d’une matrice triangulaire comme


1 1 0
M = 0 1 1 
0 0 2
on pourrait penser qu’il suffit de prendre pour D et N les parties diagonale et triangulaire supérieure
stricte de M , à savoir :




0 1 0
1 0 0
D = 0 1 0 
et
N =  0 0 1 .
0 0 2
0 0 0
21
Ces deux matrices sont bien respectivement diagonale et nilpotente, mais elles ne commutent pas entre
elles.
En revanche, on peut montrer que M est semblable à


1 1 0
M0 =  0 1 0 
0 0 2
On prend alors


1 0 0
D = 0 1 0 
0 0 2


0 1 0
N =  0 0 0 ,
0 0 0
et
qui, cette fois-ci, commutent entre elles.
6.4 Exercices
Exercice 15. Soit M ∈ M 9,9 (R) telle que M 3 = 7M − 6I . Montrer que M est diagonalisable.
Exercice 16. On considère la matrice


0 1 0
A =  −4 4 0  .
−2 1 2
1. Calculer le polynôme caractéristique de A et montrer que A est trigonalisable sur R.
2. Trouver explicitement une matrice inversible P et une matrice triangumaire supérieure T telles
que A = P T P −1 .
3. Écrire T sous la forme T = λI +N , où N est une matrice triangulaire supérieure stricte (c.à.d. avec
des zéros sur la diagonale). Calculer les puissances successives de N .
4. En déduire les valeurs de T n pour tout n ≥ 0.
5. En déduire les valeurs de A n pour tout n ≥ 0.
Exercice 17. Soient n, k deux entiers tels que 0 < k < n et λ ∈ C. Calculer le polynôme caractéristique et
le poynôme minimal M = (m i , j ) la matrice de taille n × n définie par :



λ si i = j
Mi , j =
1


0
si j = i + k
sinon
Exercice 18. Soit P ∈ C[X ] unitaire de degré n et Q ∈ C[X ], également unitaire et qui divise P . Donner
une condition nécessaire et suffisante portant sur P et Q pour qu’il existe une matrice M ∈ M n,n (C) dont
les polynôme caractéristique et minimal soient respectivement P et Q, et en construire explicitement
une, lorsque c’est possible. On pourra penser à l’exercice précédent.
Exercice 19. Déterminer le polynôme minimal de la matrice


0 1 1
A= 1 0 1 
0 0 1
En déduire les valeurs de A −1 , A 3 ,A −3 .
22
Exercice 20. Paires de matrices commutantes.
1. Soit A ∈ M n,n (k), et P ∈ k[X ]. Montrer que A et P (A) commutent.
2. Soient A, B ∈ M n,n (k), telles que AB = B A, et soit P ∈ k[X ]. Montrer que B laisse stables le noyau
et l’image de P (A).
3. Soit f un endomorphisme diagonalisable d’un espace vectoriel E de dimension n ; montrer que
les endomorphismes de E qui commutent avec f sont ceux qui laissent stable chaque sousespace propre de f .
4. Soit A ∈ M n,n (k) une matrice possédant n valeurs propres distinctes. Montrer que les matrices
qui commutent avec A sont les matrices qui peuvent s’écrire B = P (A), avec P ∈ k[X ].
5. Soit


0 1 0
A= 0 0 1 
0 0 0
Chercher toutes les matrices qui commutent avec A et montrer qu’elles peuvent s’écrire sous la
forme P (A), où P est un polynôme de degré au plus 2.
6. Soient



A=

0
0
0
0
1
0
0
0
0
0
0
0
0
0
1
0






 et B = 


1
0
0
0
0
1
1
0
0
0
2
0
1
0
0
2





(a) Vérifier que A et B commutent.
(b) B peut elle s’écrire sous la forme P (A) ?
(c) Déterminer les valeurs propres de B et les espaces K er (B − I ) et K er (B − 2I ).
Exercice 21. Soit E un k-espace vectoriel de dimension finie, et soit f un endomorphisme de E tel que
f 2 = f . On note G = I m( f ) et H = K er ( f ). Soit t ∈ k, et soit g = i d E + t f .
1. Déterminer les valeurs propres et les espaces propres de g .
2. À quelle condition sur t l’endomorphisme g est-il inversible ?
3. Dans ce cas, donner une expression simple de g −1 .
Exercice 22. Une matrice carrée M est dite nilpotente s’il existe un entier p > 0 tel que M p = 0.
1. Soit M une matrice nilpotente de taille n × n ; montrer qu’il existe alors un entier p ≤ n tel que
M p = 0.
2. Montrer que, si M est nilpotente, alors I − M est inversible. On donnera une formule explicite
pour (I + M )−1 .
3. Montrer que toute matrice strictement triangulaire est nilpotente.
4. Montrer que, si M est nilpotente, alors I − M ne peut pas être diagonalisable.
5. Donner un exemple d’une matrice diagonalisable A et d’une matrice nilpotente M , telles que
A + M soit diagonalisable.
23
7 Mise sous forme de Jordan
Matrices de Jordan
Définition 58. On appelle matrice nilpotente de Jordan d’ordre l la matrice J l de taille l × l dont les coefficients vérifient a i , j = δ j ,i +1 .
Ainsi, on a :

µ
J 1 = (0)
0 1
0 0
J2 =
¶


0 1 0
J3 =  0 0 1 
0 0 0


J4 = 

0
0
0
0
1
0
0
0
0
1
0
0
0
0
1
0





On remarque immédiatement que toutes ces matrices sont nilpotentes. Plus précisément J lr est la matrice dont les coefficients sont δ j ,i +r . Il en résulte que J ll = 0, et J ll −1 6= 0.
Précisons un peu la structure de l’endomorphisme u de k l associé à la matrice J l . On a une suite
d’inclusions
Ker u = V ec t (e 1 ) ⊂ Ker u 2 = V ec t (e 1 , e 2 )) ⊂ · · · ⊂ Ker u l −1 = V ec t (e 1 , . . . , e l −1 )) ⊂ Ker u l = k l
Dans la suite, on va s’intéresser à des matrices diagonales par blocs, dont les blocs sont des blocs de
Jordan. Par exemple, regardons :





M = Di ag (J 1 , J 2 , J 3 ) = 



0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0









et l’endomorphisme u de k 6 qui est associé à M . On a :
Ker u = V ec t (e 1 , e 2 , e 4 )
Ker u 2 = Ker u ⊕ V ec t (e 3 , e 5 )
Ker u 3 = k 6 = Ker u 2 ⊕ V ec t (e 6 )
Si on pose F 1 = Ker u, F 2 = Ker u 2 , F 3 = Ker u 3 , G 1 = V ec t (e 3 , e 5 ), G 2 = V ec t (e 6 ), on a :
F1 ⊂ F2 ⊂ F3
F 2 = F 1 ⊕G 1
F 3 = F 2 ⊕G 2
et
u(F 2 ) ⊂ F 1
u(F 3 ) ⊂ F 2
u(G 3 ) ⊂ G 2
u(G 2 ) ⊂ G 1
En utilisant les idées développées dans cet exemple, on obtient le théorème suivant :
Théorème 59. Soit M une matrice nilpotente de taille n × n. Alors il existe des nombres l 1 ≤ · · · ≤ l r vérifiant l 1 + · · · + l r = n et tels que M soit semblable à la matrice diagonale par blocs Di ag (J l 1 , . . . , J l r ).
Les nombres l 1 ≤ · · · ≤ l r sont entièrement déterminés par M .
Deux matrices nilpotentes sont semblables si, et seulement si, elles ont la même suite de nombres (l 1 ≤
· · · ≤ l r ).
Les résultats démontrés d’abord pour des matrices nilpotentes s’étendent à peu de frais à des matrices quelconques.
24
Définition 60. On appelle bloc de Jordan de valeur propre λ et de taille l la matrice l × l :

J λ,l
λ
1
0 ··· 0

.
. . . . . ...
 0 λ

 .
=  .. . . . . . . . . . 0

 ..
..
 .
. λ 1
0 ··· ··· 0 λ









Théorème 61. Soit M une matrice de taille n ×n. Alors il existe une suite de blocs de Jordan J λ1 ,l 1 , . . . , J λr ,l r
telle que M soit semblable à la matrice diagonale par blocs Di ag (J λ1 ,l 1 , . . . , J λr ,l r ).
Les blocs de Jordan qui interviennent dans cette écriture sont entièrement déterminés par M .
Deux matrices nilpotentes sont semblables si, et seulement si, elles ont les mêmes blocs de Jordan.
Démonstration. (Principe de la preuve) Soit u un endomorphisme d’un espace vectoriel E . On a vu que
E se décompose comme somme directe d’espaces caractéristiques E = E λ1 ⊕ · · · ⊕ E λr . La restriction u i
de u à un espace caractéristique E λi vérifie :
(u i − λi idE λ )r i = 0
i
Donc v i = u i − λi idE λ est nilpotente et on peut appliquer à v i le théorème de réduction d’un endomori
phisme nilpotent en blocs de Jordan.
8 Applications de la réduction des endomorphismes
8.1 Calcul de puissances de matrices
On sait calculer facilement les puissances d’une matrice diagonale
Di ag (λ1 , . . . , λn )r = Di ag (λr1 , . . . , λrn )
Si M est diagonalisable, ce n’est pas beaucoup plus dur : on écrit M = P DP −1 , avec D diagonale, et on a
M r = P D r P −1
Pour une matrice non diagonalisable, on peut utiliser la décomposition de Dunford : M = P (D + N )P −1 ,
avec D diagonale et N nilpotente, et N D = D N . On utilise le fait que D et N commutent entre elles, ce
qui permet d’utiliser la formule du binôme de Newton.
à !
r
X
r
r
(D + N ) =
D r −k N k
k=0 k
Par ailleurs, N étant nilpotente, il existe un entier s tel que N s+1 = 0. En conséquences
à !
s
X
r
(D + N )r =
D r −k N k
k
k=0
Cette formule le semble pas très différente de la précédente, mais le gros changement est que son
nombre de termes est fixé (s + 1), et ne dépend pas de l’exposant r .
25
8.2 Suites récurrentes
Soient (x n ) et (y n ) deux suites réelles ou complexes telles que
(
x n+1 = ax n + b y n
y n+1 = c x n + d y n
On peut facilement calculer les termes généraux de ces suites, en introduisant
µ
Xn =
xn
yn
¶
µ
M=
et
a b
c d
¶
On a alors pour tout entier n :
Xn = M n X0
et le problème se ramène au calcul des puissances de la matrice M .
On peut aussi étudier une suite scalaire réelle ou complexe, vérifiant une équation de récurrence
x n+2 = ax n + bx n+1
dans ce cas, on introduit le vecteur
µ
xn
x n+1
¶
µ
0 1
a b
¶
Xn =
et on remarque que
X n+1 =
Xn
Donnons un exemple classique : on regarde la suite de Fibonacci (F n ) définie par F 0 = 0, F 1 = 1 et
F n+2 = F n + F n+1 . On écrit
µ
¶ µ
¶ µ
¶
F n+1
0 1
Fn
=
F n+2
1 1
F n+1
et donc
µ
Fn
F n+1
¶
µ
0 1
1 1
=
¶n
µ
0
1
¶
p
p
Les valeurs propres de la matrice vérifient λ2 − λ − 1 et valent donc λ1 = 1+2 5 et λ2 = 1−2 5 . On en déduit
que la suite (F n ) s’écrira F n = αλn1 + βλn2 . En identifiant, on a α + β = 0 et αλ1 + βλ2 = 1, ce qui donne
α = p1 et β = − p1 , et on a
5
5
Ã
Ã
p !n
p !n
1 1+ 5
1 1− 5
Fn = p
−p
2
2
5
5
8.3 Systèmes d’équations différentielles linéaires
Regardons ici des systèmes d’équations différentielles linéaires de la forme :
(
x 0 (t ) = ax(t ) + b y(t )
y 0 (t ) = c x(t ) + d y(t )
avec des conditions initiales x(0) = x 0 , y(0) = y 0 . On regarde la matrice du système
µ
M=
a b
c d
26
¶
1. Supposons d’abord que M est diagonalisable. Soient α et β ses valeurs propres et u et v des
vecteurs propres associés. Comme (u, v) est une base de R2 , on peut faire un changement de
variables :
µ
¶
µ
¶
x(t )
x0
= X (t )u + Y (t )v
et
= X 0 u + Y0 v
y(t )
y0
Le système d’équations différentielles devient
(
X 0 (t ) = αX (t )
Y 0 (t ) = βY (t )
avec X (0) = X 0 et Y (0) = Y0 , ce qui nous donne X (t ) = X 0 e αt et Y (t ) = Y0 e βt .
2. Si maintenant M est seulement trigonalisable. Il existe des vecteurs u et v tels que l’endomorphisme associé à M ait pour matrice dans la base (u, v) une matrice triangulaire. En faisant les
mêmes changements de variables que dans le cas précédent, on se ramène donc à un système
(
X 0 (t ) = αX (t ) + βY (t )
Y 0 (t ) = αY (t )
avec X (0) = X 0 et Y (0) = Y0 . On obtient alors Y (t ) = Y0 e αt , et en injectant dans l’autre équation
X 0 (t ) = αX (t ) + βY0 e αt
et
X (0) = X 0
ce qui nous donne, par exemple par la méthode de variation de la constante :
X (t ) = X 0 e αt + βY0 t e βt
Les méthodes présentées dans ces exemples s’étendent à des cas plus généraux, comme on le verra
lors des exercices.
8.4 Exercices
Exercice 23. Chaque année, 5/100 de la population résidant en ville déménage vers la banlieue et 2/100
de la population de la banlieue vient s’installer en ville. On suppose ces données constantes, ainsi que
la population totale.
— Exprimer ces relations en utilisant une matrice.
— Quelle est l’évolution au bout de n années ?
— Que se passe-t-il si la proportion de citadins est de 2/7 ?
Exercice 24. On cherche des suites (u n ) et (v n ) telles que u 0 = 2, v 0 = 5 et
∀n ≥ 0 ,
(
u n+1
= au n + bv n
v n+1
= bu n + av n
1. Écrire l’équation de récurrence sous la forme X n+1 = M X n , où (X n ) est une suite de vecteurs de
R2 et M ∈ M at 2,2 (R).
2. Trouver une base {u, v} de vecteurs propres de M .
µ ¶
2
3. Décomposer le vecteur
dans la base {u, v}.
5
4. Que valent M n u et M n v ?
27
5. En déduire la valeur de (u n ) et (v n ) en fonction de n.
Exercice 25. On veut étudier la suite de Fibonacci, définie par x 0 = x 1 = 1 et x n+2 = x n+1 + x n .
µ
¶
xn
1. Traduire l’équation de récurrence sous la forme X n+1 = M X n , où X n =
et M ∈ M at 2,2 (R).
x n+1
2. Utiliser une méthode anlogue à celle de l’exercice précédent pour exprimer X n , et sonc x n , en
fonction de n.
Exercice 26. Trois enfants A, B et C jouent avec une balle. Lorsque A a la balle, la probabilité qu’il
l’envoie à B est de 0,75 et la probabilité qu’il l’envoie à C est 0,25. Lorsque B a la balle, la probabilité qu’il
l’envoie à A est de 0,75 et la probabilité qu’il l’envoie à C est 0,25. Enfin, C envoie toujours la balle à B .
On désigne respectivement par a n , b n et c n les probabilités qu’à l’issue du n-ième lancer, ce soit A
ou B ou C qui ait la balle.
1. Montrer qu’il existe une matrice M carrée d’ordre 3 telle que, pour tout n ∈ N, on ait :




a n+1
an
 b n+1  = M  b n 
c n+1
cn
2. Montrer que M est diagonalisable et la diagonaliser.
3. Déterminer M n pour n ∈ N.
4. Exprimer a n , b n et c n en fonction de n.
5. Montrer que les suites (a n )n∈N , (b n )n∈N et (c n )n∈N convergent vers 3 réels indépendants du possesseur initial de la balle.
Exercice 27. On regarde le système d’équations différentielles :
(
(E )
µ
1. Diagonaliser la matrice
x 0 (t ) = 26x(t ) − 36y(t )
y 0 (t ) = 18x(t ) − 25y(t )
¶
26 −36
.
18 −25
2. Trouver un changement de variables de la forme X (t ) = ax(t )+b y(t ), Y (t ) = c x(t )+d y(t ) de telle
sorte que le système se réduise à des équation de la forme
(
X 0 (t ) = αX (t )
Y 0 (t ) = βY (t )
3. Trouver la solution de (E) vérifiant x(0) = y(0) = 1.
Exercice 28. On veut appliquer la même stratégie au système d’équations différentielles :
(
(E )
x 0 (t ) = −5x(t ) + 4y(t )
y 0 (t ) = −9x(t ) + 7y(t )
28
1. Trouver un changement de variables de la forme X (t ) = ax(t )+b y(t ), Y (t ) = c x(t )+d y(t ) de telle
sorte que le système se réduise à des équation de la forme
(
X 0 (t ) = αX (t ) + βY (t )
0
(E )
Y 0 (t ) = αY (t )
2. Trouver les solutions de (E’), en résolvant d’abord la deuxième équation, puis en injectant la solution trouvée dans la première équation.
3. En déduire les solutions de (E).
9 Généralités sur les formes bilinéaires
Définition 62. Soit E un k-espace vectoriel . Une forme bilinéaire sur E est une application Φ : E × E → k
qui vérifie :
— ∀x, y, z ∈ E , ∀λ, µ ∈ k , Φ(λx + µy, z) = λΦ(x, z) + µΦ(y, z).
— ∀x, y, z ∈ E , ∀λ, µ ∈ k , Φ(x, λy + µz) = λΦ(x, y) + µΦ(x, z).
Autrement dit, pour x ∈ E fixé, les applications partielles à gauche et à droite :
g
Φx : E → k, t 7→ Φ(t , x)
,
Φdx : E → k, t 7→ Φ(x, t )
sont linéaires.
Écriture en coordonnées
Soit Φ : E × E → k une forme bilinéaire. Soit E = (e 1 , . . . , e n ) une base de E . En utilisant les propriétés de
bilinéarité, on a
n X
n
X
Φ(x 1 e 1 + . . . + x n e n , y 1 e 1 + . . . + y n e n ) =
x i y j Φ(e i , e j )
i =1 j =1
Considérons la matrice M = (Φ(e i , e j ))i , j , soient x, y ∈ E et soient X = [x]E et Y = [y]E . La formule précédent s’écrit :
Φ(x, y) = tX M Y
Effet d’un changement de base
Soit Φ une forme bilinéaire sur l’espace vectoriel E . On considère deux bases E et E 0 de E . On note M et
0
M 0 les matrices de Φ relativement aux bases E et E 0 , et P la matrice de passage P EE .
Soient x, y ∈ E et soient X , Y (resp. X 0 , Y 0 ) les vecteurs coordonnées de x et y dans les bases E et E 0 . On
a alors
t
X M Y = Φ(x, y) = tX 0 M 0 Y 0
Par ailleurs,
t
X M Y = t(P X 0 )M (P Y 0 ) = tX 0 ( tP M P ) Y 0
En comparant, on a donc :
M 0 = tP M P
Dualité
Rappelons que si E est un k-espace vectoriel de dimension n, l’ensemble E ∗ des formes linéaires sur E
29
(applications linéaires E → k) est un k-espace vectoriel de dimension n. Si E = (e 1 , . . . , e n ) est une base
de E , on définit une base E ∗ = (e 1∗ , . . . , e n∗ ) de E ∗ , en posant
e i∗ (x 1 e 1 + · · · + x n e n ) = x i
Soit Φ une forme bilinéaire sur E , on lui associe une application linéaire u Φ : E → E ∗ en posant
¡
¢
u Φ (x) (y) = Φ(x, y)
Soit M = (a i , j la matrice de φ relativement à la base E . On a :
Φ(x 1 e 1 + . . . + x n e n , y 1 e 1 + . . . + y n e n ) =
n
n X
X
ai , j xi y j =
i =1 j =1
Donc
u Φ (x) =
n X
n
X
i =1 j =1
En particulier
u Φ (e i ) =
n X
n
X
i =1 j =1
a i , j x i e ∗j (y)
a i , j x i e ∗j x 0 , y 0
n
X
j =1
a i , j e ∗j
Autrement dit, la matrice de l’application linéaire u Φ relativement aux bases E et E ∗ est égale à la matrice
de la forme bilinéaire Φ dans la base E .
10 Formes bilinéaires symétriques et formes quadratiques
Définition 63. On dit qu’une forme bilinéaire Φ sur E est symétrique si
∀x, y ∈ E , Φ(x, y) = Φ(y, x)
Définition 64. Une application Q : E → k est appelée une forme quadratique si il existe une forme bilinéaire symétrique Φ sur E , telle que
∀x ∈ E , Q(x) = Φ(x, x)
Q est appelée la forme quadratique associée à la forme bilinéaire Φ.
Proposition 65 (Formules de polarisation). Soit Φ une forme bilinéaire symétrique, et Q la forme quadratique associée à Φ. Alors
1
∀x, y ∈ E , Φ(x, y) = (Q(x + y) −Q(x) −Q(y))
2
et
1
∀x, y ∈ E , Φ(x, y) = (Q(x + y) −Q(x − y))
4
Démonstration. Développer les termes de droite, en utilisant la bilinéarité et la symétrie de Φ.
Cette proposition veut donc dire que la forme quadratique Q détermine la forme bilinéaire symétrique Φ.
Écriture en coordonnées
Soit Φ la forme bilinéaire symétrique sur k n , associée à une matrice symétrique A = (a i , j ) ; essayons
d’expliciter la forme quadratique Q associée à Φ.
30
On a Φ(x, y) =
Pn Pn
i =1
j =1 a i , j x i y j . Donc
Q(x) = φ(x, x) =
n
X
i =1
a i ,i x i2 +
X
ai , j xi x j
i 6= j
Soit, en utilisant la symétrie de A :
Q(x) =
n
X
i =1
a i ,i x i2 + 2
X
ai , j xi x j
i<j
Cette formule permet inversement d’écire la matrice de A, à partir de la forme quadratique. Par exemple,
considérons la forme quadratique sur k 3 définie par
Q(x) = x 12 + 2x 22 + 3x 32 + 4x 1 x 2 + 5x 2 x 3 + 6x 3 x 1
La matrice de la forme bilinéaire associée est alors :


1 2 3
 2 2 5 
2
3 52 3
10.1 Formes bilinéaires symétriques non dégénérées et définies
Définition 66. Une forme bilinéaire symétrique φ sur E est dite non dégénérée si, pour tout x ∈ E ,
(∀y ∈ E , Φ(x, y) = 0) =⇒ (x = 0)
Remarque 67. Dire que φ est non dégénérée se traduit en disant que l’application linéaire induite u Φ :
E → E ∗ est injective (et donc bijective). Cela se traduit encore en disant que la matrice de Φ dans une
base quelconque est inversible, ou encore que son déterminant est non nul.
Définition 68. Une forme bilinéaire symétrique φ sur E est dite définie si
∀x ∈ E , (Φ(x, x) = 0 =⇒ x = 0)
Proposition 69. Si une forme bilinéaire symétrique φ sur E est définie, alors elle est non dégénérée.
Démonstration. Soit Φ une forme bilinéaire symétrique définie, et soit x ∈ E tel que ∀y ∈ E , Φ(x, y) = 0).
En prenant y = x, on a Φ(x, x) = 0 et donc x = 0.
Remarque 70. La réciproque est fausse. Ainsi la forme bilinéaire symétrique Φ sur R2 définie par :
Φ((x, y), (x 0 , y 0 )) = x y 0 + y x 0
est non dégénérée, mais elle n’est pas définie, puisque Φ((1, 0), (1, 0)) = 0.
Proposition 71. Soit Q une forme quadratique définie sur un R-espace vectoriel . Alors :
— soit (∀x 6= 0,Q(x) > 0),
— soit (∀x 6= 0,Q(x) < 0).
Démonstration. Considérons une forme quadratique définie Q, et raisonnons par l’absurde en supposant qu’il existe x et y tels que Q(x) > 0 et Q(y) < 0.
Remarquons d’abord que x et y ne peuvent pas être colinéaires ; en effet, si on avait y = λx, alors
Q(y) = λ2Q(x), et Q(y) et Q(x) seraient de même signe.
Posons, pour t ∈ [0, 1], f (t ) = Q(t x + (1 − t )y). La fonction f est continue et Q(0)Q(1) < 0. Par le
théorème des valeurs intermédiaires, il existe alors t 0 ∈]0, 1[ tel que Q(t 0 x +(1− t 0 )y) = 0. Par la remaque
précédente, t 0 x + (1 − t 0 )y est non nul. Cela contredit donc le caractère défini de Q.
31
10.2 Réduction d’une forme quadratique en somme de carrés, méthode de Gauss
Traitons d’abord des exemples.
Exemple 72. Considérons la forme quadratique sur R3
Q(x 1 , x 2 , x 3 ) = x 12 + x 22 + x 32 + x 1 x 2 + x 2 x 3 + x 3 x 1
On va essayer de l’écrire sous une forme plus maniable. Pour cela, on commence à voir l’expression
x 12 + x 1 (x 2 + x 3 ) comme le début d’un carré.
µ
1
Q(x) = x 1 + (x 2 + x 3 )
2
Intéressons-nous à la partie −
¡1
2
¶2
µ
1
− (x 2 + x 3 )
2
¶2
+ x3 x2
¢2
(x 2 + x 3 ) + x 3 x 2 . Elle vaut
1
1
1
1
− x 22 − x 32 + x 3 x 2 = − (x 2 − x 3 )2
4
4
2
4
Donc finalement
¶2
1
1
Q(x) = x 1 + (x 2 + x 3 ) − (x 2 − x 3 )2
2
4
µ
Essayons de faire le même genre de chose dans le cas suivant
Exemple 73. On considère la forme quadratique
L(x 1 , x 2 , x 3 ) = x 1 x 2 + x 2 x 3 + x 3 x 1
Ici, on ne peut pas faire apparaître le début d’un carré ; on va procéder autrement en faisant apparaître
un produit :
L(x) = (x 1 + x 3 )(x 2 + x 3 ) − x 32 =
¢2 1 ¡
¢2
1¡
(x 1 + x 3 ) + (x 2 + x 3 ) − (x 1 + x 3 ) − (x 2 + x 3 ) − x 32
4
4
Dans chacun des deux exemples, on a transformé la forme quadratique en combinaisons linéaires
de carrés de formes linéaires. Le théorème suivant formalise ceci :
Théorème 74. Soit Q une forme quadratique sur un k-espace vectoriel de dimension n. Alors il existe des
formes linéaires f 1 , . . . , f r sur E , qui sont linéairement indépendantes, et des éléments non nuls a 1 , . . . , a r ∈
k tels que
∀x ∈ E , Q(x) = a 1 f 1 (x)2 + · · · + a r f r (x)2
Remarque 75. Remarquons tout de suite que, puisque les formes linéaires f i sont linéairement indépendantes, on a r ≤ n.
Remarque 76. Il faut aussi noter que les formes linéaires qui interviennent ne sont pas unique, comme
le montrent les deux écritures suivantes d’une forme quadratique sur R2 :
2x 12 + 2x 22 = (x 1 + x 2 )2 + (x 1 − x 2 )2
Démonstration. La preuve se fait par récurrence forte sur la dimension n.
Pour n = 1, c’est évident puisque une forme quadratique sur k s’écrit Q(x) = ax 2 .
Supposons que le résultat soit vrai pour toute dimension k < n. Considérons une forme quadratique
P
P
non nulle Q(x) = ni=1 a i ,i x i2 + 2 i < j a i , j x i x j . On distingue deux cas :
32
a) Soit au moins l’un des coefficients a i ,i est non nul. Supposons donc a 1,1 6= 0, et écrivons :
Q(x) = a 1,1 x 12 + 2x 1
n
X
a 1, j x j + R(x 2 , . . . , x n )
j =2
On voit dans les deux premiers termes le début d’un carré, que l’on fait donc apparaître, en regroupant tous les termes restants dans un terme S(x 2 , . . . , x n ) :
Ã
Q(x) = a 1,1 x 1 +
n a
X
1, j
j =2
a 1,1
!2
xj
+ S(x 2 , . . . , x n )
S(x 2 , . . . , x n ) est une forme quadratique en n − 1 variables, qu’on peut donc décomposer en
S(x 2 , . . . , x n ) = α2 f 2 (x 2 , . . . , x n )2 + · · · + αr f r (x 2 , . . . , x n )2
où f 2 , . . . , f r sont linéairement indépendantes. En posant
f 1 (x) = x 1 +
n a
X
1, j
j =2
a 1,1
xj,
les formes f 1 , . . . , f r sont linéairement indépendantes (pourquoi ?) et on a
Q(x) = a 1,1 f 1 (x) + α2 f 2 (x)2 + · · · + αr f r (x)2 .
b) Soit tous les coefficients a i ,i sont nuls. Alors au moins un coefficient a i , j est non nul. Supposons
donc que a 1,2 6= 0, et écrivons :
!Ã
!
Ã
n a
n a
X
X
j ,2
1, j
x j x2 +
x j + R(x 3 , . . . , x n )
Q(x) = a 1,2 x 1 +
j =3 a 1,2
j =3 a 1,2
Le produit qui intervient dans cette expression peut se transformer par la formule en utilisant
l’identité
1
1
ab = (a + b)2 − (a − b)2
4
4
en combinaison linéaire des carrés de deux formes linéaires. En appliquant l’hypothèse de récurrence à R(x 3 , . . . , x n ), on obtient, comme dans le cas a), le résultat recherché.
10.3 Invariants d’une forme quadratique
On a vu que l’écriture
Q(x) = α1 f 1 (x)2 + · · · + αr f r (x)2
où les αi sont non nuls, et les f i sont des formes linéaires linéairement indépendantes, n’est pas unique.
Cependant certaines données numériques de cette décomposition ne dépendent que de Q, et pas de la
décomposition choisie.
Théorème 77 (Théorème d’inertie de Sylvester sur un corps k). Soit Q une forme quadratique sur un
k-espace vectoriel . Le nombre r de formes linéaires qui interviennent dans une décomposition de Q est
égal au rang de la matrice de la forme bilinéaire symétrique associée à Q.
33
Démonstration. Soit Q une forme quadratique sur un k-espace vectoriel de dimension n, et considérons des formes linéaires, linéairement indépendantes, f 1 , . . . , f r telles que Q = α1 f 12 + · · · + αr f r2 , avec
les αi non nuls. Complétons f 1 , . . . , f r en une base f 1 , . . . , f n de E ∗ . On peut alors trouver une base
E = (e 1 , . . . , e n ) de E telle que ∀i , j f i (e j ) = δi , j (base duale). La matrice de Q dans la base E est alors :











α1
..
0
0 ···
..
.
0 ···
0 ···
..
.
0 ···
.
0
0
..
.
···
αr
0
..
.
0
···
0

0
.. 
. 

0 


0 

.. 
. 
0
On voit donc que r est le rang de cette matrice. Il ne dépend donc que de Q, et pas de la décomposition
choisie.
Théorème 78 (Théorème d’inertie de Sylvester sur R). Soit Q une forme quadratique Q sur un R-espace
vectoriel . Soit
Q(x) = α1 f 1 (x)2 + · · · + αs f s (x)2 − αs+1 f s+1 (x)2 − · · · − αs+t f s+t (x)2
une décomposition de Q en combinaison linéaire de carrés de formes quadratiques linéairement indépendantes, avec ∀i , αi > 0.
Alors les nombres s et t ne dépendent que de Q et pas de la décomposition choisie.
Définition 79. Le couple (s, t ) est appelé la signature de Q.
Démonstration. Partons d’une forme quadratique Q sur un espace vectoriel E de dimension n, qui s’écrit :
Q(x) = α1 f 1 (x)2 + · · · + αs f s (x)2 − αs+1 f s+1 (x)2 − · · · − αs+t f s+t (x)2
et cherchons à exprimer s et t comme des invariants dépendant uniquement de Q.
Complétons la famille libre f 1 , . . . , f s+t en une base f 1 , . . . , f n de E ∗ . Soit E = (e 1 , . . . , e n ) la base de E
définie par ∀i , j f i (e j ) = δi , j (base duale). Introduisons les sous-espace vectoriel F = V ec t (e 1 , . . . , e s ) et
G = V ect (e s+1 , . . . , e n ).
D’abord, la restriction Q F est définie positive, et on a dim F = r .
D’autre part, si F 0 est un sous-espace vectoriel de E tel que ΦF 0 soit définie positive. Alors dim F 0 ≤ r .
En effet, dans le cas contraire, on aurait dim F 0 + dimG > n, et donc F 0 ∩ G 6= {0}. Soit donc x un élément
non nul de F 0 ∩ G. Comme x ∈ F 0 , on a Q(x) > 0, et comme x ∈ G, on a Q(x) ≤ 0, ce qui conduit à une
contradiction.
Il résulte du raisonnement précédent que s est la dimension maximale d’un sous-espace vectoriel F 0
de E tel que Q|F 0 soit définie positive. Un argument analogue montre que t est la dimension maximale
d’un sous-espace vectoriel F 0 de E tel que Q|F 0 soit définie négative. Les entiers s et t sont donc définis
intrinsèquement à partir de Q.
10.4 Exercices
Exercice 29. On considère le R-espace vectoriel E des fonctions continues [−1, 1] → R, et l’application
φ : E × E → R : ( f , g ) 7→
1. Montrer que φ est une forme bilinéaire.
2. Montrer que φ est non dégénérée.
34
Z
1
f (t )g (t ) d t
−1
3. Soit F le sous-ensemble de E , constitué des applications paires. Montrer que F est un sousespace vectoriel de E .
4. Déterminer l’orthogonal F ⊥ de F pour la forme φ.
Exercice 30. Pour chacune des matrices symétriques suivantes, exprimer la forme bilinéaire et la forme
quadratique associées, et effectuer la réduction de Gauss de ces formes quadratiques :
µ
M1 =
0 2
2 0
¶




0 2 2
1 1 1
, M2 =  2 0 2  , M3 =  1 1 2 
2 2 0
1 2 2
Exercice 31. Effectuer une réduction de Gauss des formes quadratiques réelles suivantes. Écrire les matrices associées à la forme quadratique et au changement de base trouvé. Discuter le signe de Q i suivant
les valeurs de x, y, z, t et des paramètres.
Q 0 (x, y, z) = x y + y z + zx
Q 1 (x, y, z) = x 2 + y 2 + z 2 − 2y z cos(α) − 2zx cos(β) − 2x y cos(γ)
Q 2 (x, y, z) = 4x 2 + 4y 2 + z 2 − 12y z − 4zx + 2x y
Q 3 (x, y, z, t ) = x 2 + 2y 2 − z 2 + 2t 2 + 2x y + 2xt + 2y t + 2y z − 2zt
Q 4 (x, y, z, t ) = y z + zx + x y + µ(x + y + z)t + λt 2
Exercice 32. Effectuer une réduction de Gauss de la forme quadratique réelle suivante
q(x, y) = ax 2 + b y 2 + 2c x y.
On note A la matrice de q. Démontrer que si a > 0 et det(A) > 0, alors q est définie positive. La réciproque
est-elle vraie ?
Exercice 33.
1. Soit A ∈ M n,n (R) une matrice inversible. Montrer que B =t A A est une matrice symétrique, et que la forme bilinéaire symétrique qui lui est associée est définie positive.
2. Réciproquement, montrer qu’une matrice symétrique définie positive peut toujours s’écrire B =t
A A, où A ∈ M n,n (R) une matrice inversible.
Exercice 34. On considère l’espace vectoriel E = M n,n (R). Pour i , j = 1, . . . , n, on note E i , j la matrice
ayant un 1 à l’intersection de la i -ème ligne et de la j -ème colonne et des 0 partout ailleurs.
1. Montrer que les E i , j forment une base de E .
2. Montrer que l’application φ : E × E → R , (A, B ) 7→ Tr (AB ) est une forme bilinéaire symétrique.
3. Soient F et G les sous-espaces de E formés respectivement des matrices symétriques et antisymétriques. Montrer que F et G sont deux espaces orthogonaux pour φ.
4. Pour i ≤ j , on pose F i , j = E i , j + E j ,i , et pour i < j , on pose G i , j = E i , j − E j ,i . Montrer que les F i , j
forment une base orthogonale de F et que les G i , j forment une base orthogonale de G.
5. Déterminer la signature de φ.
6. Soit ψ : E × E → R , (A, B ) 7→ Tr (tAB ). Montrer que ψ est une forme bilinéaire définie positive.
35
11 Espaces euclidiens
Dans tout ce chapitre, k sera le corps R.
11.1 Exemple du produit scalaire dans R2
On est habitué à travailler avec le produit scalaire usuel de R2 . C’est l’application
R2 × R2 → R, (x, y) 7→< x, y >
où, pour x = (x 1 , x 2 ) et y = (y 1 , y 2 ) :
< x, y >= x 1 y 1 + x 2 y 2 = tx y.
On définit aussi la norme d’un vecteur x = (x 1 , x 2 ) par
kxk2 =< x, x >= x 12 + x 22
On sait que le produit scalaire vérifie l’inégalité de Cauchy-Schwarz :
| < x, y > | ≤ kxk kyk
qu’on peut aussi écrire lorsque x et y sont non nuls :
−1 ≤
< x, y >
≤ 1.
kxk kyk
Ceci autorise à poser

cos((x,
y)) =
< x, y >
kxk kyk
ce qui est la définition utilisée actuellement dans le secondaire pour le produit scalaire de deux vecteurs
du plan.
11.2 Produit scalaire
Définition 80. Soit E un R-espace vectoriel . Un produit scalaire sur E est une forme bilinéaire symétrique
définie positive.
Un R-espace vectoriel de dimension finie, muni d’un produit scalaire est appelé un espace euclidien.
En général, on utilisera la notation < x, y > pour désigner le produit scalaire de x, y ∈ E .
Théorème 81 (Inégalité de Cauchy-Schwarz). Soit E un espace euclidien.
Pour x, y ∈ E , on a
< x, y >2 ≤< x, x >< y, y >
avec égalité si, et seulement si, x et y sont colinéaires.
Démonstration. Soient x, y ∈ E . Si x = y = 0, le résultat est évident. Supposons donc que l’un des deux
au moins (par exemple y) soit non nul.
Pour tout t ∈ R, on a
< x + t y, x + t y >=< x, x > +2 < x, y > t + < y, y >2 t 2
Pour tout t ∈ R, comme le produit scalaire est défini positif, ce polynôme du second degré ne prend que
des valeurs positives. Son discriminant est donc négatif, ce qui nous donne l’inégalité recherchée.
Si on a l’égalité < x, y >2 =< x, x >< y, y >, alors le discrminant du polynôme du second degré est nul.
Donc, il existe un réel t tel que < x + t y, x + t y >= 0. Cela entraine x + t y = 0, et les vecteurs x et y sont
donc colinéaires.
36
1
Définition 82. Si E est muni d’un produit scalaire, pour tout x ∈ E , on pose kxk =< x, x > 2 .
Proposition 83. Si E est muni d’un produit scalaire, l’application E → R, x 7→ kxk est une norme sur E ,
c’est-à-dire qu’elle vérifie :
— ∀x ∈ E , kxk ≥ 0.
— ∀x ∈ E , kxk = 0 ⇐⇒ x = 0.
— ∀x ∈ E , ∀λ ∈ R, kλxk = |λ| kxk.
— Inégalité triangulaire : ∀x, y ∈ E , kx + yk ≤ kxk + kyk.
Démonstration. La seule partie non triviale est l’inégalité triangulaire. Soient x, y ∈ E .
kx + yk2 =< x + y, x + y >=< x, x > +2 < x, y > + < y, y >= kxk2 + 2 < x, y > +kyk2
En majorant < x, y > grâce à l’inégalité de Cauchy-Schwarz, on obtient :
kx + yk2 ≤ kxk2 + 2kxkkyk + kyk2 = (kxk + kyk)2
ce qui donne l’inégalité recherchée.
Proposition 84. La norme définie par un produit scalaire < −, − > vérifie l’égalité du parallélogramme :
∀x, y ∈ E ,
¡
¢
kx + yk2 + kx − yk2 = 2 kxk2 + kyk2
Démonstration. Simple calcul en développant en termes de produit scalaire.
Cette égalité permet par exemple de montrer que certaines normes ne proviennent pas d’un produit
scalaire. Ainsi, on vérifie facilement que la norme k(x 1 , x 2 )k = sup(|x 1 |, |x 2 |) ne provient pas d’un produit
scalaire.
Les normes provenant d’un produit scalaire sont appelée des normes euclidiennes.
11.3 Orthogonalité dans un espace euclidien
Définition 85. Soit E un espace euclidien.
On dit que deux éléments de E sont orthogonaux, et on note x ⊥ y, si < x, y >= 0.
Si F est un sous-ensemble de E , on pose
F ⊥ = {x ∈ E | ∀y ∈ F, < x, y >= 0
On remarque tout de suite que F ⊥ est un sous-espace vectoriel de E .
Lemme 86. Pour tout x ∈ E \{0}, l’application ev al : E → E ∗ , x 7→ (y 7→< x, y >) est un isomorphisme entre
les espace vectoriel E et E ∗ .
Démonstration. La bilinéarité du produit scalaire entraîne que ev al est bien définie, et est une application linéaire.
Par ailleurs, si ev al (x) = 0, pour tout y ∈ E , on a < x, y >= 0. En particulier < x, x >= 0 et donc x = 0.
Ceci montre que K er (ev al ) = {0}. Donc l’application linéaire ev al est injective, et donc bijective.
37
Proposition 87. Pour tout sous-espace vectoriel F de E , on a E = F ⊕ F ⊥ .
Démonstration. On a d’abord F ∩ F ⊥ = {0}. En effet, si x ∈ F ∩ F ⊥ , on a en particulier < x, x >= 0, et donc
x = 0, puisque < −, − > est définie.
Soit r = dim F et soit (x 1 , . . . , x r ) une base de F . Alors F ⊥ est le noyau de l’application linéaire
E → Rr , x 7→ (< x 1 , x >, . . . , < x r , x >)
On en déduit, en utilisant le théorème du rang, que dim F ⊥ ≥ dim E − dim F .
Puisque F ∩ F ⊥ = {0}, on a dim F + dim F ⊥ ≤ dim E . Ces deux inégalités entraînent l’égalité :
dim F + dim F ⊥ = dim E
On déduit de cette égalité et de F ∩ F ⊥ = {0} que E = F ⊕ F ⊥ .
Définition 88. Soit F un sous-espace vectoriel de l’espace euclidien E . On appelle projection orthogonale
sur F la projection vectorielle πF sur F parallèlement à F ⊥ .
Si x ∈ E , on peut écrire de manière unique x = y + z, avec x ∈ F et z ∈ F ⊥ , on a πF (x) = y.
Proposition 89. Soit (x 1 , . . . , x r ) une famille de vecteurs non nuls d’un espace euclidien E tels que pour
i 6= j , on ait < x i , x j >= 0. Alors (x 1 , . . . , x r ) est une famille libre.
Démonstration. Soit (x 1 , . . . , x r ) une telle famille. Soient α1 , . . . , αr des réels tels que
α1 x 1 + . . . + αr x r = 0
Pour tout k, on a :
0 =< α1 x 1 + . . . + αr x r , x k >= αk < x k , x k >
Comme x k 6= 0, on a < x k , x k >6= 0, et donc αk = 0.
Ceci montre que la famille (x 1 , . . . , x r ) est libre.
Définition 90. On appelle base orthonormée de l’espace euclidien E de dimension n une famille de n
vecteurs x 1 , . . . , x n telle que
— ∀i = 1, . . . n, kx i k = 1,
— ∀i , j , i 6= j =⇒ < x i , x j >= 0.
La proposition 89 montre qu’il s’agit bien d’une base de E .
11.4
Procédé d’orthogonalisation de Schmidt
Théorème 91. Soit (x 1 , . . . , x n ) une base d’un espace euclidien E . Alors il existe une base orthonormée
(y 1 , . . . , y n ) de E telle que
∀k = 1, . . . , n, V ec t (y 1 , . . . , y k ) = V ec t (x 1 , . . . , x k )
Démonstration. On va construire les y k de proche en proche.
On veut un vecteur y 1 de norme 1, tel que V ec t (x 1 ) = V ec t (y 1 ). Il suffit de prendre y 1 = kx11 k x 1 .
Supposons maintenant construits les vecteurs y 1 , . . . , y k et cherchons à construire y k+1 . On comP
0
0
mence d’abord par chercher un vecteur y k+1
= x k+1 + ki=1 αi y i et tel que < y k+1
, x i >= 0 pour tout i < k.
En identifiant, on trouve
αi = − < x k+1 , x i >
38
Le vecteur
0
y k+1
= x k+1 −
k
X
< x k+1 , x i > y i
i =1
0
est orthogonal à y 1 , . . . , y k et vérifie V ec t (y 1 , . . . , y k , y k+1
) = V ec t (x 1 , . . . , x k+1 ). Il ne reste plus qu’à avoir
0
.
un vecteur de norme 1 en posant y k = ky 01 k y k+1
k+1
Plus que le résultat du théorème, c’est la méthode de calcul utilisée dans la preuve, connue comme
le procédé d’orthogonalisation de Schmidt, qu’il importe de retenir.
11.5 Exercices
Exercice 35. On considère l’espace vectoriel E = Rn [x]. Parmi les applications suivantes N : E → R,
déterminer lesquelles sont des normes, et parmi celle ci, lesquelles sont des normes euclidiennes (c.à.d.
associées à un produit scalaire.
p
1. N (P ) = P (0)2 + P (1)2 + . . . + P (n)2
p
2. N (P ) = P (1)2 + . . . + P (n)2
p
3. N (P ) = P 0 (0)2 + P 0 (1)2 + . . . + P 0 (n)2
p
4. N (P ) = P (0)2 + P 0 (1)2 + . . . + P 0 (n)2
Z +1
5. N (p) =
|P (t )|d t
−1
s
Z +1
6. N (p) =
P 2 (t )d t
−1
s
Z
7. N (p) =
Exercice 36.
+1
P 4 (t )d t
−1
— Montrer que φ : R3 × R3 → R définie par
φ(x, y) = 2x 1 y 2 + x 2 y 2 − x 2 y 3 − 2x 3 y 1 + x 3 y 2 − x 3 y 3
est une forme bilinéaire.
— Montrer que Φ : R3 → R, x 7→ φ(x, x) est une forme quadratique et déterminer sa forme polaire ψ.
— Ecrire les matrices des formes bilinéaire φ et ψ dans la base canonique de R3 . Comment peut-on
relier ces deux matrices ?
— Montrer que les vecteurs (1, 0, 2) , (0, 1, 1) , (−1, 0, 1) forment une base de R3 , et exprimer la matrice
de φ dans cette base.
Exercice 37. Pour chacune des formes quadratiques suivantes sur R3 , déterminer sa signature, son rang,
son noyau et son cône isotrope :
a) x y + y z + zx
b) y 2 + 2x y + 2y z
Exercice 38. Quelle est la signature de la forme quadratique x 2 + y 2 + z 2 +(x + y + z)2 sur R3 ? Écrire cette
forme comme somme de carrés de formes linéaires indépendantes.
Exercice 39. On considère la forme quadratique sur R3 , muni de sa base canonique (e 1 , e 2 , e 3 )
Φ(xe 1 + ye 2 + ze 3 ) = 3x 2 + 2y 2 + 3z 2 − 2xz
39
— Déterminer une base orthogonale pour Φ par la méthode de Gauss.
— Déterminer une base orthogonale pour Φ par la méthode de Gram-Schmidt.
— Déterminer une base orthogonale pour Φ, et orthonormale pour le produit scalaire canonique
de R3 .
Exercice 40.
— Montrer que la fonction f : R3 → R, (x, y, z) 7→ x 2 + y 2 +z 2 +x y + y z +zx est une forme
définie positive.
— En déduire que l’ensemble S = {(x, y, z) ∈ R3 | f (x, y, z) = 1} est compact.
— Déterminer les points de S de norme maximale.
Exercice 41. Soit N une norme sur Rn . Montrer qu’il existe une forme quadratique définie positive Φ
vérifiant
p
∀x, y ∈ Rn , N (x) = Φ(x)
si, et seulement si, N vérifie l’égalité de la médiane :
(N (x + y))2 + (N (x − y))2 = 2((N (x))2 + (N (y))2 )
Exercice 42. On considère l’espace vectoriel E = M n,n (R). Pour i , j = 1, . . . , n, on note E i , j la matrice
ayant un 1 à l’intersection de la i -ème ligne et de la j -ème colonne et des 0 partout ailleurs.
1. Montrer que l’application φ : E × E → R , (A, B ) 7→ Tr (tAB ) est un produit scalaire.
2. Montrer que les E i , j forment une base orthonormée de E .
3. Soit F le sous-ensemble des matrices triangulaires supérieures.
(a) Montrer que F est un sous-espace vectoriel de E . De quelle dimension ?
(b) Déterminer F ⊥ .
4. Soit G le sous-espace vectoriel de E , formé des matrices symétriques.
(a) Donner une base de G.
(b) Déterminer G ⊥ .
5. L’application ψ : E × E → R , (A, B ) 7→ Tr (AB ) est-elle un produit scalaire sur E ?
Exercice 43. Soit E un espace vectoriel euclidien, et soit F un sous-espace vectoriel de E . Pour x ∈ E , on
définit la distance de x à F par :
d (x, F ) = inf{kx − yk | y ∈ F }
1. Justifier que la quantité d (x, F ) est bien définie.
2. Montrer que si πF (x) désigne la projection orthogonale de x sur F , on a
d (x, F ) = kx − πF (x)k
3. Montrer que, si { f 1 , . . . , f p } est base orthonormale de F , on a
d (x, F )2 = kxk2 − ⟨x| f 1 ⟩2 − . . . − ⟨x| f p ⟩2
4. Application : Calculer
Z
inf
a,b∈R 0
π
(sin x − ax − bx 2 )2 d x
Pour cela, on introduira un espace vectoriel euclidien adéquat, et on interprétera cette quantité
comme la distance d’un élément à un sous-espace vectoriel.
40
Exercice 44. Appliquer le procédé d’orthogonalisation de Schmidt à l’espace R3 , muni de son produit
scalaire usuel, et de la base constituée des vecteurs u 1 = (1, 2, −2), u 2 = (0, −1, 2), u 3 = (−1, 3, −1).
Exercice 45. R 1. Déterminer une base orthonormée de l’espace E = R2 [X ], muni du produit scalaire
1
⟨P,Q⟩ = 0 P (x)Q(x)d x.
R1
2. Même question si on munit E du produit scalaire ⟨P,Q⟩ = 0 xP (x)Q(x)d x.
Exercice 46. Soient a, b ∈ R, avec a < b. Montrer que pour toute fonction continue f : [a, b] → R, on a
µZ
¶2
b
a
| f (t )|d t
Z
≤ (b − a)
b
f (t )2 d t
a
Pour cela, on introduira un espace euclidien adéquat, et utilisera l’inégalité de Cauchy-Schwarz.
12 Endomorphismes orthogonaux d’un espace euclidien
Définition 92. Soit E un espace euclidien. Une application f : E → E est dite orthogonale si ∀x ∈ E , k f (x)k =
kxk.
C’est équivalent à dire que f préserve le produit scalaire, ou encore qu’elle envoie une base orthonormée sur une base orthonormée.
Proposition 93 (Représentation dans une base orthonormée). Une application linéaire E → E est orthogonale si, et seulement si, sa matrice dans une base orthogonale vérifie
t
M M = In
Démonstration. Soit E = (e 1 , . . . , e n ) une base orthonormée de l’espace euclidien E . Dire qu’une application linéaire f : E → E est un endomorphisme euclidien veut dire que ( f (e 1 ), . . . , f (e n )) est une base
orthonormée.
Traduisons ceci en terme de M = M E ,E ( f ). Notons C 1 , . . . ,C n les colonnes de M . On doit donc avoir
< C i ,C i >= 1 et < C i ,C j >= 0 pour i 6= j (pour le produit scalaire usuel de Rn ). Ces égalités se regroupent
dans la formule tM M = I n .
Définition 94. On appelle matrice orthogonale une matrice carrée à coefficients réels, telle que tM M = I n .
12.1 Le groupe orthogonal d’un espace euclidien
Définition 95. L’ensemble O(E ) des endomorphismes orthogonaux de E est appelé le groupe orthogonal
de E .
L’ensemble des matrices orthogonales de taille n × n est noté O n (R).
La proposition évidente suivante justifie la terminologie « groupe ortogonal » :
Proposition 96 (O(E ) est un groupe). Soit E un espace euclidien.
— Si f et g sont des éléments de O(E ), alors f ◦ g ∈ O(E ).
— Si f ∈ O(E ), alors f est bijectif, et f −1 ∈ O(E )
41
Liens entre O(E ) et O n (R)
Soit E un espace euclidien de dimension n. Choisissons une base orthonormée E de E . Alors, en associant à tout endomorphisme orthogonal u de E , sa matrice dans la base E , on définit ainsi une application
f E : O(E ) → O n (R)
qui vérifie les propriétés suivantes :
— f E est bijective.
— f E (i d |E ) = I n .
— Pour u, v ∈ O(E ), on a f E (u ◦ v) = f E (u) ◦ f E (v).
— Pour u, i nO(E ), on a f E (u −1 ) = f E (u)−1 .
Dans le langage de la théorie des groupes, on dit que les groupes O(E ) et O n (R) sont isomorphes, ou
encore que f E est un isomorphisme de groupes.
On peut aussi voir cette correspondance en sens inverse en notant que O n (R) est le groupe orthogonal de l’espace euclidien Rn , muni de son produit scalaire usuel.
Ces remarques nous permettront donc, suivant les cas, de travailler indifféramment avec des endomorphismes orthogonaux quand on veut un raisonnement vectoriel, ou bien avec des matrices orthogonales, pour faire des calculs effectifs.
Proposition 97. Pour toute matrice orthogonale M , on det(M ) = ±1.
Démonstration. Il suffit de prendre le déterminant de chaque membre de l’égalité tM M = I n . On obtient
1 = det(I n ) = det( tM M ) = det( tM ) det(M ) = det(M )2
Donc det(M ) = ±1.
Remarquons que cette proposition établit une implication, mais pas une équivalence. Ainsi le déterminant de la matrice diagonale M = Di ag (2, 12 ) est bien égal à 1, mais M n’est pas orthogonale.
Théorème 98. Soit f un endomorphisme orthogonal d’un espace euclidien E . Alors les valeurs propres de
f sont des nombres complexes de module 1.
Démonstration. On va raisonner en termes de matrices. Soit M ∈ O n (R) et soit λ une valeur propre complexe de M . Prenons X ∈ Cn \ {0} tel que
M X = λX
En prenant le conjugué de cette égalité, on a M X = λ X . Écrivons enfin la conjuguée de cette égalité :
t
X tM = λ tX
En multipliant les deux égalité, on a
t
X tM M X = λλ tX X
En utilisant tM M = I n , on obtient (1 − |λ|2 ) tX X = 0. Or tX X =
Pn
i =1 |x i |
2
6= 0. Donc |λ| = 1.
Lemme 99. Tout endomorphisme orthogonal possède un sous-espace stable de dimension 1 ou 2.
Démonstration. Soit M ∈ O n (R).
Si M possède une valeur propre réelle, considérons un vecteur propre X . Alors V ec t (X ) est un sousespace stable de Rn , de dimension 1.
Sinon, prenons une valeur propre complexe λ. On sait que |λ| = 1, on écrit donc λ = e i θ . Prenons
X ∈ Cn \ {0} tel que M X = e i θ X . On a alors M X = e −i θ X . Construisons des vecteurs réels en posant
U=
1
(X − X )
2i
et
42
1
V = (X + X )
2
Alors
MU =
´
´ 1 ³
´ 1 ³
1 ³
MX −MX =
e i θ X − e −i θ X =
e i θ (V + iU ) − e −i θ (V − iU ) = cos(θ)U + sin(θ)V
2i
2i
2i
De même
MV = − sin(θ)U + cos(θ)V
Donc V ect (U ,V ) est stable par M , et la matrice dans la base (U ,V ) de l’endomorphisme associé à M est
µ
Rθ =
cos θ − sin θ
sin θ cos θ
¶
Remarquons qu’on vient de montrer que la restriction à V ec t (U ,V ) de l’endomorphisme associé à
M est une rotation d’angle θ.
Lemme 100. Soit u un endomorphisme orthogonal d’un espace euclidien E , et soit F un sous-espace
vectoriel de E stable par u. Alors
a) F est stable par u −1 .
b) u(F ⊥ ) ⊂ F ⊥
Démonstration. L’assertion a) provient uniquement de la bijectivité de u. En effet on a F ⊂ u −1 (u(F )) ⊂
u −1 (F ), et dim F = dim u −1 (F ), ce qui montre qu’on a u −1 (F ) = F .
Pour b), prenons un élément x de F ⊥ , et montrons que u(x) ∈ F ⊥ . Soit donc y ∈ F , on a :
< u(x), y >=< x, u −1 (y) >= 0,
puisque u −1 (y) ∈ F .
Théorème 101. Pour tout élément u de O(E ), il existe une base orthonormée de E dans laquelle la matrice
de u est une matrice diagonale par blocs, de la forme
¡
¢
Di ag I r , −I s , R θ1 , . . . , R θt
avec
r + s + 2t = dim E
Démonstration. Il suffit de raisonner par récurrence forte sur n = dim E , en utilisant les deux lemmes
précédents.
12.2 Le groupe O 2 (R)
Traduisons à quelle condition une matrice
µ
M=
a c
b d
¶
est une matrice orthogonale. Cela se traduit par le système d’équations
a2 + b2 = 1
c2 + d2 = 1
ac + bd
=0
La première équation entraîne qu’il existe un nombre θ tel que a = cos θ et b = cos θ. En utilisant la
troisième équation, on voit que le vecteur (c, d ) doit être proportionnel à (−b, a). En utilisant alors la
deuxième équation, on a (c, d ) = ²(− sin θ, cos θ), avec ²2 = 1.
43
Il résulte des ces calculs que
½µ
O 2 (R) =
cos θ − sin θ
sin θ cos θ
¶
¾ ½µ
¶
¾
cos θ sin θ
, θ∈R ∪
, θ∈R
sin θ − cos θ
Ces deux composantes de l’ensemble O 2 (R) sont respectivement les matrices orthogonales de déterminant 1 ou -1.
Une matrice de la forme
µ
¶
cos θ − sin θ
Rθ =
sin θ cos θ
est la matrice de la rotation d’angle θ. Notons que les valeurs de R θ sont e ±i θ .
Étudions maintenant les matrices
µ
¶
cos θ sin θ
Sθ =
sin θ − cos θ
Des calculs élémentaires montrent que
— S θ a pour valeurs propres 1 et -1.
— Un vecteur propre associé à 1 est u θ = (cos θ2 , sin θ2 ).
— Un vecteur propre associé à -1 est v θ = (− sin θ2 , cos θ2 ).
S θ est la matrice de la symétrie orthogonale par rapport au vecteur u θ .
On peut résumer cette étude dans le
Théorème 102. Les éléments de O 2 (R) sont
— les rotations (endomorphismes de déterminant 1)
— les symétries orthogonales (endomorphismes de déterminant -1)
12.3 Le groupe O 3 (R)
Un élément de O 3 (R) a nécessairement au moins une racine réelle, puisque son polynôme caractéristique est de degré 3. Il résulte de cette observation et de l’étude générale de O n (R), que pour tout
élément de O 3 (R), il existe une base orthogonale (u, v, w) de R3 dans laquelle l’endomorphisme s’écrit
sous l’une des formes suivantes.








1 0 0
−1 0 0
−1 0 0
−1 0
0
M 1 =  0 1 0  , M 2 =  0 1 0  , M 3 =  0 −1 0  , M 4 =  0 −1 0 
0 0 1
0
0 1

1
0
0
M 5 =  0 cos θ − sin θ 
0 sin θ cos θ
0

0
1
0
−1

,

−1
0
0
M 6 =  0 cos θ − sin θ 
0 sin θ cos θ
0
(θ 6= kπ)
Ces différentes matrices correspondent à différents endomorphismes :
— l’identité,
— la symétrie orthogonale par rapport au plan V ec t (v, w),
— la rotation d’angle π par rapport au vecteur w,
— la symétrie centrale,
— la rotation d’angle θ rapport au vecteur u,
— la composée de la rotation d’angle θ rapport au vecteur u et de la symétrie orthogonale par rapport au plan V ec t (v, w).
44
12.4 Exercices
Exercice 47. On se place dans R3 , muni du produit scalaire usuel, et on note B = {e 1 , e 2 , e 3 } la base
canonique de R3 . Soit P le plan vectoriel d’équation x + y + z = 0.
1. Déterminer une base de P et une base de P ⊥ .
2. Appliquer une le procédé d’orthogonalisation de Schmidt à la base de R3 , obtenue par réunion
des deux précédentes. On note C la base orthonormale de R3 ainsi obtenue.
3. Soit σ la symétrie orthogonale par rapport à P . Écrire la matrice de σ par rapport à C .
4. Écrire la matrice de σ dans la base B.
13 Endomorphismes symétriques d’un espace euclidien
On se place dans un espace euclidien, de dimension n, dont le produit scalaire est noté < −, − >.
Définition 103. Un endomorphisme u : E → E est dit symétrique si :
∀x, y ∈ E , < u(x), y >=< x, u(y) >
Proposition 104. Un endomorphisme de E est symétrique si, et seulement si, sa matrice dans une base
orthonormée est symétrique.
Démonstration. Soit u un endomorphisme d’un espace euclidien E et soit E = (e 1 , . . . , e n ) une base orthonormée de E . Notons M = (a i , j ) la matrice de u dans la base E . Par définition de la matrice d’un
P
P
endomorphisme, on a u(e i ) = nk=1 a i ,k e k . Donc < u(e i ), e j >= nk=1 a i ,k < e k , e j >= a i , j .
Si u est un endomorphisme symétrique, alors ∀i , j , < u(e i ), e j >=< e i , u(e j ) >, et donc a i , j = a j ,i .
Réciproquement, si ∀i , j , a i , j = a j ,i , alors
Ã
<u
n
X
!
xi e i ,
i =1
n
X
j =1
y j e j >=
n X
n
X
x i y j < u(e i ), e j >=
i =1 j =1
n X
n
X
x i y j < e i , u(e j ) >=<
i =1 j =1
n
X
Ã
xi e i , u
i =1
n
X
!
yjej >
j =1
et u est donc un endomorphisme symétrique de E .
Proposition 105. Toutes les valeurs propres d’une matrice symétrique réelle sont réelles.
Démonstration. Soit λ une valeur propre (à priori complexe) d’une matrice symétrique réelle M . Montrons qu’en réalité λ est réelle.
Il existe un vecteur X ∈ Cn tel que M X = λX . Prenons le conjugué de cette égalité, en utilisant le fait
que M est réelle : M X = λ X , et prenons ensuite la transposée de cette expression, en utilisant le fait que
M est symétrique) :
t
X M = λ tX
On en déduit :
λ tX X = tX M X = λ tX X
Or, comme X 6= 0, on a tX X = |x 1 |2 + · · · + |x n |2 6= 0. On obtient donc λ = λ, ce qui montre que λ est
réelle.
Théorème 106. Un endomorphisme symétrique est diagonalisable dans une base orthogonale.
45
Démonstration. On raisonne par récurrence sur la dimension n de l’espace euclidien E .
Si n = 1, il n’y a rien à montrer.
Supposons que tout endomorphisme symétrique d’un espace euclidien de dimension n − 1 soit diagonalisable dans une base orthonormée. Soit u un endomorphisme symétrique d’un espace euclidien
de dimension n.
D’après la proposition 105, u possède une valeur propré réelle λ1 . On choisit un vecteur propre x 1
correspondant à la valeur propre λ1 , et de norme 1. Soit F = {x 1 }⊥ . C’est un sous-espace vectoriel de E
de dimension n − 1. Il est stable par u. En effet, si y ∈ F , on a alors
< x 1 , u(y) >=< u(x 1 ), y >=< λ1 x 1 , y >= λ1 < x 1 , y >= 0
et donc u(y) ∈ F .
Donc la restriction v de u à F est un endomorphisme de F , et il est symétrique. L’hypothèse de récurrence entraîne donc qu’il existe une base orthonormée x 2 , . . . , x n de F , constituée de vecteurs propres
de v (et donc de u). La famille x 1 , . . . , x n est donc une base orthonormée de E , constituée de vecteurs
propres de u. Ce qui montre le résultat par récurrence sur n.
Ce théorème se reformule en termes matriciels
Théorème 107 (Reformulation). Pour toute matrice symétrique réelle M , il existe une matrice orthogonale P telle que tP M P soit diagonale.
Lien avec la réduction des formes quadratiques
On se place dans E = Rn , muni de son produit scalaire usuel et sa base canonique E , et on considère une
matrice symétrique A de taille n × n, définissant une forme bilinéaire Φ(X , Y ) = tX AY =< AX , Y > et la
forme quadratique associée Q(X ) = tX AX =< AX , X >.
La théorie de la diagonalisation des matrices symétriques réelles nous apprend qu’on peut diagonaliser A dans une base orthonormée F = ( f 1 , . . . , f n ) de Rn . Dans cette base, A est représentée par une
matrice diagonale D = Di ag (α1 , . . . , αn ). Alors, pour tout X , Y ∈ Rn , on a :
Φ(X , Y ) = t[X ]F D[Y ]F
et Q(X ) = t[X ]F D[X ]F
Mais le vecteur des cooordonnées de X dans la base F s’écrit :


< X , f1 >


..
[X ]F = 

.
< X , fn >
On obtient donc des expressions pour les formes bilinéaire et quadratique :
Φ(X , Y >=
n
X
αi < X , f i >< Y , f i >
et Q(X ) =
n
X
αi < X , f i >2
i =1
i =1
On déduit donc de l’étude de la diagonalisation des matrices symétriques réelles une façon de réduire
une forme quadratique en combinaison linéaire de carrés de formes linéaires.
Qu’obtient-on de plus par cette méthode, qui est techniquement plus compliquée que la méthode
de Gauss ? Les formes linéaires obtenues ne sont pas prises n’importe comment. Elles forment la base
duale d’une base orthonormée de de Rn , et les valeurs des αi ont un sens, alors que dans la réduction
par la méthode de Gauss, seuls les signes des αi pouvaient être interprétés.
On verra dans le chapitre suivant comment la diagonalisation donne des résultats inaccessibles par
la simple méthode de Gauss. Cette théorie de la diagonalisation des matrices sumétriques réelles est
fondamentale en mathématiques appliquées, que ce soit en mécanique du solide, en statistiques (méthode des moindres carrés), en analyse numérique,...
46
13.1 Exercices
Exercice 48. Soit n ∈ N∗ . On note E le R-espace vectoriel Rn [X ], muni du produit scalaire
Z
⟨P,Q⟩ =
1
P (x)Q(x)d x
0
Pour tout P ∈ E , on pose T (P ) = (X 2 − X )P 00 + (2X − 1)P 0 .
1. Montrer que T définit un endomorphisme de E .
2. Montrer que cet endomorphisme est symétrique.
Exercice 49. Diagonaliser dans une base orthonormée de R 3 les matrices suivantes :

1
0 −1
p
2 
B =  0 p1
−1
2 −1


2 −4 2
A =  −4 2 2  ,
2
2 5

14 Coniques
Dans tout ce chapitre, on travaille dans le plan R2 .
Définition 108. On appelle conique une expression polynomiale de degré 2 en deux variables
F (x, y) = ax 2 + bx y + c x 2 + d x + e y + f
(a, b, c) 6= (0, 0, 0)
et par exetension l’ensemble
©
ª
C = (x, y) ∈ R2 | ax 2 + bx y + c x 2 + d x + e y + f = 0
Un tel polynôme de degré 2 peut se voir comme la somme de trois morceaux
F (x, y) = Q(x, y) + L(x, y) + K
où Q(x, y) = ax 2 + bx y + c x 2 est une forme quadratique non nulle et L(x, y) = ax + b y est une forme
linéaire et K est une constante. On va voir comment la connaissance que nous avons acquise au sujet
des formes quadratiques va permettre d’étudier en détail les coniques.
Remarque 109. La terminologie « conique »nous vient de l’antiquité grècque. Les mathématiciens de
cette époque étudiaient les objets géométriques obtenus par intersection d’un plan de l’espace et d’un
cône de révolution (une surface de l’espace obtenue en faisant tourner une droite autour d’une droite
fixe, que maintenant on décrit par une équation x 2 + y 2 − z 2 = 0).
Définition 110. On dit qu’une conique C est une conique à centre, s’il existe un unique point A 0 = (x 0 , y 0 ) ∈
R2 qui soit centre de symétrie de C .
47
On peut traduire cette définition géométrique algébriquement en disant qu’un point X A0 ∈ R2 est
centre de symétrie de C si
∀u ∈ R2 , F (A 0 + u) = F (A 0 − u)
et la conique est à centre si il existe un seul tel point.
En utilisant la décomposition de F en parties quadratique, linéaire et constante, dire que A 0 est
centre de symétrie s’écrit :
∀u ∈ R2 ,
Q(A 0 + u) + L(A 0 + u) + K = Q(A 0 − u) + L(A 0 − u) + K
En notant Φ la forme bilinéaire symétrique associée à Q, cela s’écrit après simplification
∀u ∈ R2 ,
2Φ(A 0 , u) + L(u) = 0
Il existe un unique A 0 vérifiant cette propriété si, et seulement si, Φ est une forme bilinéaire symétrique
non dégénérée. On peut résumer l’étude qu’on vient de faire dans la proposition :
Proposition 111. Une conique d’équation Q(X , Y ) + L(X , Y ) + k = 0 est une conique à centre si, et seulement si, la forme bilinéaire symétrique Φ associée à Q est non dégénérée. Dans ce cas, si le point fixe est
(X 0 , Y0 ), en faisant le changement de variables X = X 0 + x, Y = Y0 + y, l’équation de la conique se met sous
la forme Q(x, y) + c = 0.
Le problème de classification.
Étant données deux coniques d’équations F (X , Y ) = 0 et G(X , Y ) = 0 on se demande si il existe un changement de variables
(
X = ax + b y + e
Y = cx + d y + f
tel que F (X , Y ) = G(g , y). La question ainsi posée est trop vague. Il faut préciser en regardant la matrice
du changement de variables
µ
¶
a b
M=
c d
Le problème de classification affine des coniques est déterminer à quelle condition il existe un tel changement de variables avec une matrice M inversible.
Le problème de classification euclidienne des coniques est déterminer à quelle condition il existe un tel
changement de variables avec avec une matrice M orthogonale.
14.1 Classification affine
Soit C une conique d’équation Q(X , Y ) + L(X , Y ) + k = 0.
1. Si Q est non dégénérée, C est une conique à centre, et après une translation, on se ramène à
une équation Q(x, y) + c = 0. Après une réduction de Q en somme ou différence de carrés par la
méthode de Gauss, on se ramène à une équation d’une des formes suivantes :
(a) x 2 + y 2 + c = 0 avec c > 0 : C est l’ensemble vide.
(b) x 2 + y 2 = 0 : C est un point
(c) x 2 + y 2 + c = 0 avec c < 0 : C est une ellipse
(d) x 2 − y 2 = 0 : C est la réunion de deux droites x + y = 0 et x − y = 0.
(e) x 2 − y 2 + c = 0 avec c 6= 0 : C est une hyperbole.
2. Si Q est dégénérée, alors elle est de rang 1, et on peut ramener par un changement de coordonnées affines l’équation de C à x 2 + a y + b = 0. Suivant les valeurs de a et b, on obtient :
48
(a) une parabole,
(b) deux droites parallèles, éventuellement confondues,
(c) l’ensemble vide.
La classification affine permet de distinguer les différents types géométriques de coniques, mais ne permet pas de distinguer finement la forme des coniques. Ainsi, par le changement de coordonnées affines
X = x, Y = 10y, on passe de la conique x 2 + y 2 = 1 à la conique X 2 + Y 2 /100 = 1, qui n’ont pas vraiment
la même forme. Pour vraiment distinguer les formes, il faut passer à la classification euclidienne.
14.2 Classification euclidienne
a) Cas où la forme quadratique associée est non dégénérée
Dans ce cas, on a vu que l’on a alors une conique à centre. On prenant comme origine du repère
le centre O de la conique C , on obtient alors une équation Q(x, y) = c, sans terme linéaire. On sait
maintenant qu’on peut trouver une base orthonormée (u, v) dans laquelle la forme quadratique s’écrit
Q(x, y) = αX 2 + βY 2 , avec α et β non nuls. Finalement l’équation de la conique dans le repère orthonormé (O, u, v) prend l’une des deux formes suivantes :
X2 Y 2
+
=1
a2 b2
ou
X2 Y 2
−
=1
a2 b2
La première équation correspond à une ellipse, la seconde à une hyperbole. Les droites (O, u) et (O, v)
sont appelées les axes de la conique C . À l’exception du cas où C est un cercle, ces deux axes sont
uniquement déterminés.
2
2
Étude géométrique succincte de l’ellipse. Étudions l’ellipse E d’équation Xa 2 + Yb 2 = 1, avec a > b. On
introduit les points A = (a, 0), A 0 = (−a, 0), B = (0, b) et B 0 = (0, −b). Les droites (A A 0 ) et (B B 0 ) sont respectivement le grand axe et le petit axe de E . On a la représentation graphique suivante :
p
Par ailleurs on introduit c = a 2 − b 2 et les points F = (c, 0) et F 0 = (c 0 , 0), qui sont appelés les foyers de E .
On peut vérifier par le calcul que E est alors l’ensemble des points M = (x, y) du plan tels que
F M + F 0 M = 2a.
Ceci est la définition bifocale de l’ellipse.
Si enfin on introduit enfin le nombre e = ac (inférieur à 1), qui est appelé l’exentricité de E , ainsi
que la droite D d’équation y = a/e, appelée directrice associée au foyer F , on peut enfin voir E comme
l’ensemble des points M du plan tels que
F M = e . distance(M , D)
49
C’est la définition monofocale de l’ellipse.
Étude géométrique succincte de l’hyperbole.
2
2
Étudions l’hyperbole H d’équation Xa 2 − Yb 2 = 1. On introduit les droites D et D 0 d’équations Xa − Yb = 0
et Xa + Yb = 0. Ces deux droites sont les asymptotes de H . On a la représentation graphique suivante.
p
Par ailleurs on introduit c = a 2 + b 2 et les points F = (c, 0) et F 0 = (c 0 , 0), qui sont appelés les foyers
de E .
On peut vérifier par le calcul que H est alors l’ensemble des points M = (x, y) du plan tels que
|F M − F 0 M | = 2a.
Ceci est la définition bifocale de l’hyperbole.
Si enfin on introduit enfin le nombre e = ac (supérieur à 1), qui est appelé l’exentricité de H , ainsi
que la droite D d’équation y = a/e, appelée directrice associée au foyer F , on peut enfin voir H comme
l’ensemble des points M du plan tels que
F M = e . distance(M , D)
C’est la définition monofocale de l’hyperbole.
Cas où la forme quadratique est de rang 1.
En dehors des cas triviaux, qu’on ne détaillera pas ici, on peut trouver un repère orthonormé dans
lequel l’équation de la conique P s’écrit
Y 2 = 2p X
(p > 0)
La représentation graphique est la suivante :
On voit que cette équation peut s’écrire également
³
p ´2 ³
p ´2
Y2+ X −
= X+
2
2
p
p
Donc si on introduit le point F = ( 2 , 0) et la doite D d’équation Y = − 2 (foyer et directrice de P ), la
parabole apparait comme l’ensemble des points M tels que
F M = distance(M , D)
50
14.3 Exercices
Exercice 50. Interprétation géométrique de la notion de conique
On se place dans R3 et on regarde le sous-ensemble C de R3 d’équation x 2 + y 2 − z 2 = 0.
— En regardant l’intersection de C avec un plan affine contenant l’axe vertical quelconque, imaginer la nature géométrique de C et faire un dessin.
— On introduit un plan affine P α d’équation z − α(y − 1) = 0. Déterminer la nature de l’intersection
C ∩ P α suivant les valeurs de α. Pourcela, il pourra être intéressant de se placer dans un repère
orthonormé du (O 0 , i , j ) du plan P α en posant O 0 = (0, 1, 0), i = (1, 0, 0), j = (0, 1, α).
Exercice 51. Déterminer la nature, les éléments caractéristiques et une équation réduite des coniques
associées aux équations suivantes :
1.
2.
3.
x 2 − x y + y 2 − 3x + 3y + 2 = 0
p
x 2 + 3x y + x = 2
p
2x y − 2 2x = 1
Exercice 52. Pour a ∈ R, on définit la conique C a d’équation :
x 2 + 2ax y + y 2 + 4x − a 2 = 0
1. Déterminer, suivant les valeurs de a, le type de C a .
2. Déterminer pour quelles valeurs de a, la conique C a est un cercle, dont on déterminera le centre
et le rayon.
3. Déterminer pour quelles valeurs de a, la conique C a est la réunion de deux droites.
4. Dans le cas où C a est une parabole, déterminer ses éléments caractéristiques.
Exercice 53. Pour a ∈ R, on définit la conique C a d’équation :
x 2 + 2ax y + y 2 + 4x − a 2 = 0
1. Déterminer, suivant les valeurs de a, le type de C a .
2. Déterminer pour quelles valeurs de a, la conique C a est un cercle, dont on déterminera le centre
et le rayon.
3. Déterminer pour quelles valeurs de a, la conique C a est la réunion de deux droites.
4. Dans le cas où C a est une parabole, déterminer ses éléments caractéristiques.
Exercice 54. Déterminer l’ensemble I des réels α tels que l’équation
αx 2 + y 2 − 2x = 0
définisse une ellipse.
Déterminer alors l’ensemble des centres, des sommets, des foyers de ces ellipses, lorsque α décrit I .
51
Téléchargement