Cours d`algèbre, ECS deuxième année

publicité
Cours d’algèbre, ECS deuxième année
Alain TROESCH
26 septembre 2012
Table des matières
1 Rappels et compléments d’algèbre linéaire
1.1 Espace vectoriel . . . . . . . . . . . . . . . .
1.1.1 Définitions et propriétés élémentaires
1.1.2 Somme, somme directe . . . . . . . .
1.1.3 Familles de vecteurs . . . . . . . . .
1.2 Espaces vectoriels de dimension finie . . . .
1.2.1 Notion de dimension . . . . . . . . .
1.2.2 Dimension, liberté et rang . . . . . .
1.2.3 Dimension de sommes . . . . . . . .
1.3 Applications linéaires . . . . . . . . . . . . .
1.3.1 Généralités . . . . . . . . . . . . . .
1.3.2 Image et noyau . . . . . . . . . . . .
1.3.3 Isomorphismes . . . . . . . . . . . .
1.3.4 Projecteurs et symétries . . . . . . .
1.4 Applications linéaires en dimension finie . .
1.4.1 Rang d’une application linéaire . . .
1.4.2 Formes linéaires . . . . . . . . . . .
1.5 Écriture d’une AL dans une base . . . . . .
1.5.1 Définitions et notations . . . . . . .
1.5.2 Changements de base . . . . . . . .
1.5.3 Cas des endomorphismes . . . . . .
1.5.4 Sous-espaces stables . . . . . . . . .
1.6 Rang d’une matrice . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
4
5
6
6
7
7
8
8
8
8
9
10
10
10
11
11
12
12
13
13
2 Réduction des endomorphismes : rappels et compléments
2.1 Diagonalisation des endomorphismes . . . . . . . . . . . . . .
2.1.1 Objectif . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Valeurs propres, vecteurs propres . . . . . . . . . . . .
2.1.3 Etude des sous-espaces propres . . . . . . . . . . . . .
2.1.4 Critères de diagonalisation . . . . . . . . . . . . . . .
2.1.5 Polynômes annulateurs . . . . . . . . . . . . . . . . . .
2.1.6 Méthode de diagonalisation (Bilan) . . . . . . . . . . .
2.2 Diagonalisation des matrices carrées . . . . . . . . . . . . . .
2.2.1 Matrices semblables . . . . . . . . . . . . . . . . . . .
2.2.2 Principes et critères de diagonalisation . . . . . . . . .
2.2.3 Cas des matrices 2 × 2 . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
15
16
17
18
18
18
19
19
19
20
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
Table des matières
2.2.4
Une application : suites définies par une récurrence linéaire . . . . . . . . .
3 Produits scalaires
3.1 Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Définitions générales . . . . . . . . . . . . . . . .
3.1.2 Représentation matricielle d’une forme bilinéaire
3.1.3 Formule de changement de base . . . . . . . . . .
3.1.4 Formes bilinéaires symétriques, définies, positives
3.2 Produits scalaires . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Définitions . . . . . . . . . . . . . . . . . . . . .
3.2.2 Normes euclidiennes . . . . . . . . . . . . . . . .
4 Orthogonalité
4.1 Vecteurs orthogonaux . . . . .
4.2 Sous-espaces orthogonaux . . .
4.3 Projetés orthogonaux . . . . . .
4.4 Orthonormalisation de Schmidt
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
20
.
.
.
.
.
.
.
.
21
21
21
22
23
23
24
24
24
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
27
28
29
30
5 Espaces euclidiens
5.1 Familles orthogonales dans un espace euclidien . . . .
5.1.1 Bases orthonormales . . . . . . . . . . . . . . .
5.1.2 Coordonnées dans une base orthonormale . . .
5.1.3 Matrices orthogonales . . . . . . . . . . . . . .
5.2 Projecteurs orthogonaux . . . . . . . . . . . . . . . . .
5.2.1 Rappels sur les projections orthogonales . . . .
5.2.2 Distance d’un point à un sous-espace vectoriel
5.2.3 Problème des moindres carrés . . . . . . . . . .
5.3 Endomorphismes symétriques . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
33
33
34
34
35
35
36
36
37
6 Formes quadratiques
6.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Forme bilinéaire symétrique associée à une forme quadratique . . . . . . . . . . . .
6.3 CNS pour les caractères définis et positifs . . . . . . . . . . . . . . . . . . . . . . .
39
39
40
41
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Algèbre – Chapitre 1
Rappels et compléments d’algèbre
linéaire
L’algèbre linéaire doit son essor aux travaux de Grassmann, développés initialement dans le but
d’étudier les marées vers 1840. Ces travaux, dans lesquels il introduit les premières ébauches de la
notion d’espace vectoriel, et des outils calculatoires associés (produit scalaire, produit vectoriel...)
ne seront reconnus par les mathématiciens que très tardivement. Ce n’est que vers 1870 qu’on se
rend compte de l’importance de ces notions.
1.1
1.1.1
Espace vectoriel
Définitions et propriétés élémentaires
Dans tout ce qui suit, K = R ou C.
Définition 1.1.1 (Espace vectoriel)
Soit E un ensemble. On dit que E est un espace vectoriel sur K si E est muni de deux lois :
• une loi interne + : E × E −→ E qui à (x, y) associe x + y ;
• une loi externe · : K × E −→ E qui à (λ, y) associe λ · y ;
telles que pour tous α1 , α2 , λ, µ dans K, tous x, x1 , x2 , x3 dans E :
(i) (x1 + x2 ) + x3 = x1 + (x2 + x3 ) (associativité de +) ;
(ii) il existe un élément neutre 0 = 0E pour +, vérifiant : ∀y ∈ E, 0 + y = y + 0 = y ;
(iii) il existe un opposé −x de x, vérifiant : x + (−x) = (−x) + x = 0 ;
(iv) x1 + x2 = x2 + x1 (commutativité de +) ;
(v) (λµ)x = λ(µx) (associativité de ·) ;
(vi) 1 · x = x (compatibilité du neutre multiplicatif de K) ;
(vii) λ(x1 + x2 ) = λx1 + λx2 (distributivité de · sur la loi interne) ;
(viii) (λ + µ)x = λx + µx (distributivité de · sur la somme de K).
Propriétés 1.1.2 Soit E un K-ev. Pour tout x ∈ E :
1. 0 · x = 0, c’est-à-dire 0K · x = 0E ;
4
Algèbre – Chapitre 1. Rappels et compléments d’algèbre linéaire
2. λ · 0E = 0E
3. (−1) · x = −x.
Terminologie 1.1.3 • Les éléments de E sont appelés vecteurs
• Les éléments de K sont appelés scalaires
• Deux éléments x et y de E sont colinéaires s’il existe (λ, µ) ∈ K2 tels que (λ, µ) 6= (0, 0) et
λx + µy = 0.
Proposition 1.1.4 Soit E un espace vectoriel sur K et F un ensemble quelconque. Alors l’ensemble de fonctions E F est un espace vectoriel sur K.
Exemples 1.1.5
1. K∅ = {0} ;
2. K[[1,n]] = Kn ;
3. KN l’ensemble des suites à valeurs dans K ;
4. C = R2 est un R-ev ;
Définition 1.1.6 (Sous-espace vectoriel)
Soit E un espace vectoriel sur K. Un sous-ensemble F ⊂ E de E est un sous-espace vectoriel de
E si les lois + et · de E laissent F stables, et induisent une structure d’espace vectoriel sur F .
Théorème 1.1.7 Un sous-ensemble F ⊂ E de E est un sev de E si et seulement si F est non
vide et :
∀x, y ∈ F 2 , ∀λ ∈ K, λx + y ∈ F
(F stable par combinaison linéaire).
Exemples 1.1.8
1. R[X] espace des polynômes
2. C(R, R) ensemble des fonctions continues ;
3. C n (R, R) ensemble des fonctions de classe C n .
Proposition 1.1.9 (Intersection de sev)
Soit E et F deux sev d’un K-ev G. Alors E ∩ F est un sev de G.
En revanche, l’union de deux sev n’est en général pas un sev.
Proposition 1.1.10 (produit cartésien de sev)
Soit E1 , . . . , En des espaces vectoriels sur le corps K. Alors le produit cartésien E1 × · · · × En est
un espace vectoriel sur K, muni des lois définies par :
• ∀λ ∈ K, ∀(x1 , . . . , xn ) ∈ E1 × · · · × En , λ · (x1 , . . . , xn ) = (λx1 , · · · , λxn ) ;
• ∀(x1 , . . . , xn ), (y1 , . . . , yn ) ∈ E1 × · · · × En , (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ).
1.1.2
Somme, somme directe
Définition 1.1.11 Soit G un K-ev, et E et F deux sev de G. Alors la somme de E + F est le
plus petit sous-espace vectoriel de G (au sens de l’inclusion), contenant à la fois F et G
1.1
Espace vectoriel
5
Proposition 1.1.12 (Peut être pris comme définition) Soit G un K-ev, et E et F deux sev de
G. Alors :
E + F = {z ∈ G | ∃(x, y) ∈ E × F, z = x + y}.
Plus généralement, la somme de n sev E1 , . . . , En est :
n
X
Ei = E1 + · · · + En = {x1 + · · · + xn | x1 ∈ E1 , . . . , xn ∈ En }.
i=1
Définition 1.1.13 Soit E et F deux sev de G. On dit que la somme E + F est directe, et on
note E ⊕ F , si E ∩ F = {0}.
n
L
Ei .
Plus généralement, E1 + · · · + En est directe si E1 ⊕ E2 , puis (E1 + E2 ) ⊕ E3 , etc. On note
i=1
Proposition 1.1.14 La somme E1 + · · · + En est directe si et seulement si pour tout k ∈ [[2, n]],
Fk ∩
X
Fi = {0}.
i<k
P
Proposition 1.1.15 La somme
Ei de sous-espaces vectoriels de E est directe si et seulement
si l’application ci-dessous est injective :
ϕ : E1 × · · · × En −→ E
(x1 , . . . , xn ) 7−→ x1 + · · · + xn .
Définition 1.1.16 Soit E un espace vectoriel, et F et G deux sev de E. On dit que F et G sont
supplémentaires dans E si F ⊕ G = E.
Théorème 1.1.17 (admis) Soit E un espace vectoriel quelconque, et F un sev de E. Alors F
admet au moins un supplémentaire G.
1.1.3
Familles de vecteurs
Soit I un ensemble fini.
Définition 1.1.18 Soit E un espace vectoriel, et (xi )i∈I une famille de vecteurs de E. L’espace
vectoriel engendré par la famille (xi )i∈I est l’ensemble des combinaisons linéaires des xi , i ∈ I. Il
s’agit de manière évidente d’un sev de E. Il est noté Vect((xi )i∈I )
Remarque 1.1.19 Si I = [[1, n]], Vect(x1 , . . . , xn ) = Rx1 + · · · + Rxn .
Proposition 1.1.20 Soit (xi )i∈I et (xj )j∈J deux familles (pas nécessairement disjointes). Alors :
Vect((xi )i∈I∪J ) = Vect((xi )i∈I ) + Vect((xj )i∈J ).
Définition 1.1.21 Soit (xi )i∈I une famille de vecteurs de E. La famille (xi )i∈I est dite :
1. libre ssi une des propriétés équivalentes suivantes est vérifiée :
P
λi xi = 0 =⇒ ∀i ∈ I, λi = 0;
(i) Pour toute famille (λi )i∈I de scalaires presque tous nuls :
i∈I
6
Algèbre – Chapitre 1. Rappels et compléments d’algèbre linéaire
(ii) Pour tout x ∈ Vect((xi )i∈I ), il existe une unique famille (λi )i∈I de scalaires presque
P
λi xi ;
tous nuls tels que x =
i∈I
(iii) (cas où I = [[1, n]]) la somme Rx1 ⊕ · · · ⊕ Rxn est directe.
2. génératrice de E ssi une des propriétés équivalentes suivantes est vérifiée :
(i) tout x ∈ E est une combinaison linéaire des xi , i ∈ I ;
(ii) Vect((xi )i∈I ) = E ;
(iii) (cas où I = [[1, n]]) E =
n
P
Rxi = E.
i=1
3. une base de E si et seulement si elle est libre et génératrice.
Proposition 1.1.22 Soit E1 , . . . , En des sev de E, non réduits à {0}. Alors la somme E1 ⊕· · ·⊕En
est directe si et seulement si tout n-uplet (x1 , . . . , xn ) d’éléments tous non nuls de E1 × · · · × En
est une famille libre dans E.
Proposition 1.1.23 Les propriétés suivantes sont équivalentes :
1. La famille (xi )i∈I est une base de E ;
2. La famille (xi )i∈I est une famille génératrice minimale de E ;
3. La famille (xi )i∈I est une famille libre maximale de E.
1.2
Espaces vectoriels de dimension finie
Dans tout ce paragraphe K désigne le corps R ou C.
1.2.1
Notion de dimension
Définition 1.2.1 Un espace vectoriel E sur K est dit de dimension finie s’il existe une famille
génératrice de cardinal fini (xi )i∈I de E. Une famille génératrice finie est souvent appelé système
de générateurs.
Proposition 1.2.2 Soit E un espace vectoriel de dimension finie. Alors de toute famille génératrice de E, on peut extraire une famille génératrice finie.
Théorème 1.2.3 (Complétion d’une famille libre en une base par ajout de vecteurs
d’une famille génératrice donnée)
Soit E un espace vectoriel de dimension finie. Soit L ⊂ E une famille libre de E, et G ⊂ E une
famille génératrice de E. Alors on peut compléter L en une base de E par ajout de vecteurs de G.
Corollaire 1.2.4 Soit E un espace vectoriel de dimension finie. Toute famille libre de E est de
cardinal fini. En particulier, toute base est de cardinal fini.
Corollaire 1.2.5 Soit E un espace vectoriel de dimension finie.
1. De toute partie génératrice de E on peut extraire une base de E.
2. E admet au moins une base.
1.2
Espaces vectoriels de dimension finie
7
Corollaire 1.2.6 (Théorème de la base incomplète)
Toute famille libre d’un espace de dimension fini E peut être complétée en une base de E.
Théorème 1.2.7 (Théorème de la dimension)
Soit E un espace vectoriel de dimension finie. Alors toutes les bases de E sont finies et de même
cardinal.
Définition 1.2.8 Le cardinal commun de toutes les bases de E est appelé dimension de E, et
est noté dim E. Si E n’est pas de dimension finie, on dira que dim E = +∞.
1.2.2
Dimension, liberté et rang
Définition 1.2.9 Soit E un espace vectoriel, k ∈ N∗ , et (x1 , . . . , xk ) une famille de vecteurs de E.
Le rang de la famille (x1 , . . . , xk ) est la dimension de Vect(x1 , . . . , xk ) (cet espace est de dimension
finie, puisque engendré par une famille finie). On note :
rg(x1 , . . . , xk ) = dim Vect(x1 , . . . , xk ).
Proposition 1.2.10 rg(x1 , . . . , xk ) 6 k, avec égalité si et seulement si la famille (x1 , . . . , xk ) est
libre.
Proposition 1.2.11 Soit E un espace vectoriel de dimension n. Alors :
1. toute famille libre de E est de cardinal au plus n ;
2. toute famille génératrice de E est de cardinal au moins n.
Corollaire 1.2.12 Soit E un espace vectoriel de dimension n. Alors :
1. toute famille libre de E de cardinal n est une base de E ;
2. toute famille génératrice de E de cardinal n est une base de E.
Corollaire 1.2.13 Soit E un espace vectoriel de dimension finie n. Soit F ⊂ E un sous-espace
vectoriel de E. Alors F est de dimension finie, et dim F 6 dim E. On a égalité si et seulement si
F = E.
1.2.3
Dimension de sommes
Théorème 1.2.14 Soit E un espace vectoriel, et F et G des sous-espaces vectoriels de dimension
finie de E, en somme directe. Alors F ⊕ G est de dimension finie, et :
dim F ⊕ G = dim F + dim G.
Corollaire 1.2.15 Soit E un espace vectoriel, et (E1 , . . . , En ) une famille de sous-espaces vecn
L
Ei est de dimension finie, et :
toriels de dimension finie de E, en somme directe. Alors
i=1
dim
n
M
i=1
Ei =
n
X
i=1
dim Ei .
8
Algèbre – Chapitre 1. Rappels et compléments d’algèbre linéaire
Proposition 1.2.16 (Formule de Grassmann) Soit E un espace vectoriel, et F et G deux
sous-espaces de dimension finie de E. Alors :
dim(F + G) = dim F + dim G − dim F ∩ G.
1.3
1.3.1
Applications linéaires
Généralités
Définition 1.3.1 Une application f : E → F entre deux K-ev est appelée application K-linéaire,
ou plus simplement application linéaire (en abrégé : AL), ssi :
∀λ ∈ K, ∀x ∈ E, f (λx) = λf (x)
et
∀(x, y) ∈ E 2 , f (x + y) = f (x) + f (y),
ou, de manière équivalente, ssi :
∀λ ∈ K, ∀(x, y) ∈ E 2 , f (λx + y) = λf (x) + f (y).
Définition 1.3.2 On note L(E, F ) l’ensemble des applications linéaires de E vers F . Si E = F ,
on note L(E) l’ensemble des applications linéaires de E dans lui-même. Une telle application
linéaire de E dans lui-même est appelée endomorphisme de E.
Proposition 1.3.3 L(E, F ) est un espace vectoriel sur K.
Proposition 1.3.4 Soit f ∈ L(E, F ) et g ∈ L(F, G). Alors g ◦ f est une application linaire de E
vers G.
Définition 1.3.5 Une forme linéaire sur un espace vectoriel E est une application linéaire de E
dans K. L’ensemble L(E, K) des formes linéaires sur K est souvent noté E ∗ , et appelé dual de E.
1.3.2
Image et noyau
Dans ce paragraphe, E et F sont deux espaces vectoriels, et f ∈ L(E, F ).
Définition 1.3.6
1. L’image de f est Im(f ) = {y ∈ F | ∃x ∈ E, f (x) = y} = f (E) ;
2. Le noyau de f est Ker(f ) = {x ∈ E | f (x) = 0} = f −1 ({0})
Lemme 1.3.7
1. Soit E ′ un sev de E. Alors f (E ′ ) est un sev de F .
2. Soit F ′ un sev de F . Alors f −1 (F ′ ) est un sev de E.
Proposition 1.3.8 Im(f ) est un sev de F . Ker(f ) est un sev de E.
Théorème 1.3.9 Soit f ∈ L(E, F ). Alors f est injective ssi Ker(f ) = {0}.
1.3.3
Isomorphismes
Définition 1.3.10
phisme.
1. Une application linéaire bijective de E vers F est appelée un isomor-
1.3
Applications linéaires
9
2. On dit que deux espaces vectoriels E et F sont isomorphes s’il existe un isomorphisme
f : E → F.
3. Un isomorphisme de E dans lui-même est appelé automorphisme de E. L’ensemble des
automorphismes de E est noté Aut(E).
Théorème 1.3.11 Soit f un isomorphisme entre E et F . Alors f −1 est une application linéaire,
et donc un isomorphisme de F vers E.
Proposition 1.3.12
une famille libre
1. L’image d’une famille libre par une application linéaire injective est
2. L’image d’une famille génératrice par une application linéaire surjective est une famille génératrice
3. L’image d’une base par un isomorphisme est une base
Proposition 1.3.13 Soit f une application linéaire de E dans F . Alors, les propositions suivantes
sont équivalentes :
(i) f est un isomorphisme ;
(ii) L’image par f de toute base de E est une base de F ;
(iii) Il existe une base de E dont l’image par f est une base de F .
En particulier, si E et F sont deux espaces isomorphes, et si l’un des deux est de dimension finie,
alors ils sont tous deux de dimension finie, et dim E = dim F .
1.3.4
Projecteurs et symétries
Définition 1.3.14
1. Soit p ∈ L(E). On dit que p est un projecteur de E ssi p ◦ p = p.
2. Soit s ∈ L(E). On dit que s est une symétrie ssi s ◦ s = id.
Lemme 1.3.15 Soit p un projecteur de E. Alors : x ∈ Im p ⇐⇒ p(x) = x.
Théorème 1.3.16
1. Soit p ∈ L(E). Alors p est un projecteur si et seulement s’il existe deux
sev F et G de E tels que F ⊕ G = E (ils sont supplémentaires), et :
∀u ∈ F, ∀v ∈ G, p(u + v) = u.
De plus, on a alors :
F = Im p = Ker p − id
et
G = Ker p.
Ainsi, p est la projection sur F = Im p parallèlement à G = Ker p)
2. Soit s ∈ L(E). Alors s est un projecteur si et seulement s’il existe deux sev F et G de E tels
que F ⊕ G = E, et :
∀u ∈ F, ∀v ∈ G, s(u + v) = u − v.
De plus, on a alors :
F = Ker(s − id)
et
G = Ker(s + id)
Ainsi s est la symétrie par rapport à F = Ker(s − id) parallèlement à G = Ker(s + id))
10
Algèbre – Chapitre 1. Rappels et compléments d’algèbre linéaire
1.4
1.4.1
Applications linéaires en dimension finie
Rang d’une application linéaire
Remarque 1.4.1 Soit E et F deux espaces vectoriels, et f ∈ L(E, F ). Si (gi )i∈I est une famille
génératrice de E, alors (f (gi ))i∈I est une famille génératrice de Im f . En particulier, si E est de
dimension finie, alors Im f est de dimension finie.
Définition 1.4.2 Soit E et F deux espaces vectoriels, E étant de dimension finie. Soit f ∈
L(E, F ). Le rang de f , noté rg f , est la dimension de Im f :
rg f = dim Im f.
Lemme 1.4.3 Soit E et F deux espaces vectoriels quelconques, et f ∈ L(E, F ). Les propositions
suivantes sont équivalentes :
(i) f est injective ;
(ii) f envoie toute famille libre sur une famille libre ;
(iii) il existe une base de E envoyée par f sur une famille libre de F .
Proposition 1.4.4 Soit E et F deux espaces vectoriels, E étant de dimension finie. Soit f ∈
L(E, F ).
1. rg f 6 dim E, avec égalité si et seulement si f est injective.
2. Si F est de dimension finie, rg f 6 dim F , avec égalité si et seulement si f est surjective.
Théorème 1.4.5 (Caractérisation des isomorphismes entre espaces de même dimension) Soit E et F deux espaces vectoriels de même dimension finie n, et soit f ∈ L(E, F ). Alors
les propositions suivantes sont équivalentes :
(i) f est un isomorphisme ;
(ii) rg(f ) = n ;
(iii) f est injective ;
(iv) f est surjective.
En particulier, si E est de dimension finie, un endomorphisme f ∈ L(E) est un automorphisme si
et seulement si f est injective si et seulement si f est surjective.
Théorème 1.4.6 (Théorème du rang) Soit E un espace vectoriel de dimension finie, et F un
espace vectoriel quelconque. Soit f ∈ L(E, F ). Alors :
dim Ker f + rg f = dim E.
1.4.2
Formes linéaires
Définition 1.4.7 Une forme linéaire sur un K-espace vectoriel E est une application linéaire de
E vers K.
Proposition 1.4.8 Soit E un espace vectoriel de dimension finie. Soit f ∈ L(E, K) une forme
linéaire. Alors Ker f est soit égal à E (dans l’unique cas où f = 0), soit égal à un hyperplan de E.
1.5
Écriture d’une AL dans une base
11
Proposition 1.4.9 Réciproquement, tout hyperplan d’un espace vectoriel de dimension finie E
est le noyau d’une forme linéaire non nulle.
Proposition 1.4.10 Plus généralement, soit E un espace vectoriel de dimension finie n, et F un
sous-espace vectoriel de E de dimension k. Alors il existe une application linéaire f ∈ L(E, Kn−k )
telle que F = Ker f .
1.5
1.5.1
Écriture d’une AL dans une base
Définitions et notations
Soit E et F deux espaces vectoriels de dimensions finies
Définition 1.5.1 Soit C = (c1 , . . . , cn ) une base de F , et X ∈ F . Alors il existe d’uniques scalaires
x1 , . . . , xn tels que X = x1 c1 + · · · + xn cn . La matrice colonne de X dans la base C est alors la
matrice colonne constituée de ces scalaires :
 
x1
 . 

[X]C =  .. 
 (notation personnelle).
xn
Définition 1.5.2 Sous les mêmes hypothèses, soit (X1 , . . . , Xm ) une famille de vecteurs de F .
Alors la matrice de cette famille dans la base C est :
[X1 , . . . , Xm ]C = ( [X1 ]C | · | [Xm ]C ).
Ainsi, il s’agit de la matrice dont la i-ème colonne comporte les coordonnées dans la base C du
vecteur Xi .
Définition 1.5.3 Soit f ∈ L(E, F ), et soit B = (b1 , . . . , bm ) une base de de E et C = (c1 , . . . , cn )
une base de F . Alors la matrice de f relativement aux bases B et C est la matrice [f ]B,C de la
famille (f (b1 ), . . . , f (bm )) dans la base C :
[f ]B,C = [f (b1 ), . . . , f (bm )]C = ( [f (b1 )]C | · | [f (bm )]C ).
Ainsi, il s’agit de la matrice de type (n, m) dont la i-ème colonne donne les coordonnées du vecteur
f (bi ) dans la base C. On trouve souvent la notation MatB,C (f ).
Remarque 1.5.4 Si on prend E = Rm , F = Rn , et pour B et C les bases canoniques de ces
espaces, on note simplement [f ]b.c. , et on dit qu’il s’agit de la matrice canoniquement associée à
f . Inversement, A étant une matrice de Mn,m (R), il existe une unique application linéaire f de
Rm dans Rn dont A est la matrice canoniquement associée. On dit que f est l’endomorphisme
canoniquement associé à la matrice A.
Proposition 1.5.5 Sous les hypothèses de la définition :
∀X ∈ E, [f (X)]C = [f ]B,C · [X]B .
12
Algèbre – Chapitre 1. Rappels et compléments d’algèbre linéaire
Proposition 1.5.6 (Matrice d’une composition : la formule magique) Soit E, F et G trois
espaces vectoriels de dimension finie, munis respectivement des bases B, C et D. Soit f ∈ L(E, F )
et g ∈ L(F, G). Alors :
[g ◦ f ]B,D = [g]C,D · [f ]B,C .
1.5.2
Changements de base
Définition 1.5.7 Soit E un espace vectoriel, et B1 et B2 deux bases de E. Alors la matrice de
passage de la base B1 à la base B2 est la matrice :
[B1 → B2 ] = Mat(B1 , B2 ) = [id]B2 ,B1 .
Ainsi, la i-ème colonne de cette matrice est constituée des coordonnées du i-ème vecteur de la base
B2 dans la base B1 .
Proposition 1.5.8 Toute matrice de passage [B1 → B2 ] est inversible. Son inverse est la matrice
de passage [B2 → B1 ]
Puisque [X]B1 = [id]B2 ,B1 [X]B2 , on obtient l’expression de l’effet d’un changement de base sur les
coordonnées d’un vecteur :
Proposition 1.5.9 Soit X ∈ E. Alors [X]B1 = [B1 → B2 ] · [X]B2 .
Théorème 1.5.10 (Formule de changement de base)
Soit E un espace vectoriel de dimension finie, muni de deux bases B1 et B2 , et F un espace vectoriel
de dimension finie, muni de deux bases C1 et C2 . Soit f ∈ L(E, F ). Alors :
[f ]B2 ,C2 = [C2 → C1 ] · [f ]B1 ,C1 · [B1 → B2 ]
1.5.3
Cas des endomorphismes
Dans le cas d’un endomorphisme f , on exprime souvent sa matrice dans la même base au départ
et à l’arrivée. On note alors [f ]B au lieu de [f ]B,B . On obtient alors la formule de changement de
base suivante :
Théorème 1.5.11 Soit f ∈ L(E), E étant un espace vectoriel de dimension finie, muni de deux
bases B1 et B2 . Soit P = [B1 → B2 ] la matrice de passage de la base B1 à la base B2 . Alors :
[f ]B2 = P −1 [f ]B1 P.
Définition 1.5.12 On dit que deux matrices A, B ∈ Mn (K) sont semblables s’il existe une
matrice inversible P ∈ GLn (K) telle que B = P −1 AP .
Ainsi, les matrices d’un endormorphisme dans différentes bases de E sont semblables.
1.6
Rang d’une matrice
1.5.4
13
Sous-espaces stables
Définition 1.5.13 Soit f un endomorphisme de E, et F un sous-espace vectoriel de E. On dit
que F est un sous-espace stable de E si f (F ) ⊂ F , c’est-à-dire si pour tout x de F , f (x) est dans
F.
Remarquez que les droites stables par f sont exactement les droites engendrées par des vecteurs
propres. Ainsi, l’étude des sous-espaces stables d’un endomorphisme est indissociable de l’étude
des éléments propres de f .
Proposition 1.5.14 Si F est un sous-espace stable par f , alors f se restreint en un endomorphisme de F .
Proposition 1.5.15 (Caractérisation matricielle de la stabilité) Soit f un endomorphisme
d’un espace E de dimension finie n, et soit F un sous-espace de E. Alors les propriétés suivantes
sont équivalentes :
(i) F est stable par f ;
(ii) il existe une base (b1 , . . . , bn ) de E, obtenue par complétion d’une base (b1 , . . . , bk ) de F , telle
que la matrice de f dans cette base soit de la forme suivante (écrite par blocs) :
!
N
P
M=
0n−k,k Q
(ainsi, le bloc situé sous le carré k × k en haut à gauche est entièrement nul)
(iii) la propriété (ii) est vraie pour toute base de E obtenue par complétion d’une base quelconque
de F .
De plus, si ces conditions sont réunies, en notant fF l’endomorphisme de F obtenu par restriction
de f à F , on a : N = Mat(b1 ,...,bk ) (fF ).
Proposition 1.5.16 (Caractérisation matricielle de la décomposition en somme de
sous-espaces stables) Soit f un endomorphisme d’un espace E de dimension finie n, et F1 , . . . , Fℓ
ℓ
L
Fi . Alors les propriétés suivantes sont équivalents :
tels que E =
i=1
(i) F1 , . . . , Fℓ sont stables par f ;
(ii) Il existe des bases B1 , . . . , Bℓ de F1 , . . . , Fℓ telles que, si B désigne la base de E obtenue par
juxtaposition deces bases, la matrice de f dans B est diagonale par blocs, donc de la forme

N1 0
0


..

. 0
0
, où chaque bloc carré Ni a une taille égale à la dimension de Fi
0
0 N3
(iii) La description de (ii) est vraie dans toute base de E obtenue par juxtaposition de bases des Fi .
Si ces conditions sont réunies, avec les notations du (ii), et en notant pour tout i ∈ [[1, ℓ]], fi
l’endomorphisme de Fi obtenu par restriction de f , on a alors : Ni = MatBi (fi ).
1.6
Rang d’une matrice
Définition 1.6.1 Soit M ∈ Mn,m (K), et M1 , . . . , Mm ∈ Mn,1 (K) ses colonnes. Alors le rang de
la matrice M est le rang de la famille (M1 , . . . , Mk ) de vecteurs de Kn . Il est noté rg M
14
Algèbre – Chapitre 1. Rappels et compléments d’algèbre linéaire
Proposition 1.6.2 Soit M ∈ Mn,m (K). Alors rg M 6 min(n, m).
Proposition 1.6.3 Soit M ∈ Mn (K), et X1 , . . . , Xn les colonnes de M . Alors les propositions
suivantes sont équivalentes :
(i) M est inversible
(ii) rg M = n
(iii) (X1 , . . . , Xn ) est une base de Kn .
Théorème 1.6.4 Soit E et F des espaces vectoriels de dimension finie, B et C des bases de E et
F . Alors le rang de f est égal au rang de la matrice de f relativement aux bases B et C :
rg f = rg[f ]B,C .
En particulier toutes les matrices représentant la même application linéaire dans des choix de bases
différents ont le même rang.
Corollaire 1.6.5 Soit M ∈ Mn,m (K), et P ∈ GLn (K), Q ∈ GLm (K) des matrices inversibles.
Alors :
rg(P M ) = rg M = rg(M Q).
Algèbre – Chapitre 2
Réduction des endomorphismes :
rappels et compléments
Dans tout le chapitre, K désigne le corps R ou C.
2.1
2.1.1
Diagonalisation des endomorphismes
Objectif
Soit E un espace vectoriel sur K, et soit f un endomorphisme de E. Le but de la diagonalisation
est de trouver, si cela est possible, une base B de E dans laquelle la matrice de E est diagonale :

λ1

0

[f ]B =  .
.
.
0

··· 0
. 
.
. . . .. 

.
..
..

.
. 0
· · · 0 λn
0
..
On notera Diag(λ1 , . . . , λn ) la matrice diagonale dont les coefficients diagonaux sont λ1 , . . . , λn .
Diagonaliser f consiste à donner une telle base ainsi que la matrice de f dans cette base.
Les intérêts de la diagonalisation sont multiples. Par exemple :
• Étudier f n , et donc calculer des puissances de matrices An
• Trouver des racines de matrices ou d’endomorphismes : si la matrice de f dans une base B est
Diag(λ1 , . . . , λn ), alors l’endomorphisme g dont la matrice dans B est Diag(µ1 , . . . , µn ) telle que
pour tout i ∈ [[1, n]], µni = λi , vérifie g n = f . On parvient ainsi à calculer des racines de matrices
à coefficients complexes, ou réels sous des conditions plus fortes. On prendra garde au fait qu’on
!2
!
0 1
1 0
n’obtient pas ainsi toutes les racines d’une matrice. Par exemple,
=
.
1 0
0 1
• Application à l’étude des suites récurrentes linéaires, des récurrences simultanées d’ordre 1, etc.
Dans tout le reste de cette partie, E désigne un espace vectoriel de dimension n, et f un endomorphisme de E.
16Algèbre – Chapitre 2. Réduction des endomorphismes : rappels et compléments
2.1.2
Valeurs propres, vecteurs propres
Soit B = (b1 , · · · , bn ) une base de E. Dire que [f ]B = Diag(λ1 , . . . , λn ) signifie que pour tout
i ∈ [[1, n]], f (bi ) = λi bi . Ainsi :
(f − λi id)(bi ) = 0
soit:
bi ∈ Ker(f − λi id).
En particulier, Ker(f − λi id) 6= {0}
Réciproquement, si l 6∈ {λ1 , . . . , λn }, alors la matrice de f − λid dans la base B est :
[f − λid]B = Diag(λ1 − λ, λ2 − λ, . . . , λn − λ).
Il s’agit d’une matrice diagonale (dont triangulaire supérieure) à coefficients diagonaux non nuls.
Elle est donc inversible, et Ker(f − λid) = {0}.
Cela nous amène à la propostion et à la définition suivantes :
Proposition 2.1.1 S’il existe une base B dans laquelle f = Diag(λ1 , . . . , λn ), alors l’ensemble
{λi , i ∈ [[1, n]]} est l’ensemble des λ ∈ K tels que Ker(f − λid) 6= 0.
Définition 2.1.2
1. On appelle valeur propre de f un scalaire λ tel que Ker(f − λid) 6= {0}.
2. Le spectre de f est l’ensemble de ses valeurs propres :
Spec(f ) = {λ ∈ K | Ker(f − λid) 6= {0}}.
3. Un vecteur propre associé à la valeur propre λ est un vecteur non nul de Ker(f − λid). C’est
donc un vecteur non nul x vérifiant : f (x) = λx.
4. Le sous-espace propre associé à la valeur propre λ, généralement noté Eλ , est Eλ = Ker(f −
λid). C’est donc l’ensemble des vecteurs propres associés à λ, ajoutés de 0.
Ainsi, si f est diagonale dans une base B, les coefficients diagonaux sont (toutes) les valeurs
propres, éventuellement répétées, de f , et les vecteurs de la base B sont des vecteurs propres
associées à ces valeurs propres. Par conséquent, pour diagonaliser un endomorphisme, la première
chose à faire est de trouver les valeurs propres, puis une base du sous-espace propre associé.
Méthode générale pour trouver les valeurs propres
On résout l’équation à paramètre f (x) − λx = 0. Si on dispose de la matrice A de f dans une
certaine base, cela revient à résoudre un système (A − λIn )X = 0, donc un système linéaire de n
équations à n inconnues, avec un paramètre λ
On cherche les paramètres λ pour lesquels ce système n’admet pas que 0 comme solution, c’est-àdire pour lesquels la solution n’est pas unique, donc pour lesquels le système n’est pas de Cramer.
Ainsi, on recherche les paramètres λ pour lesquels A − λIn n’est pas inversible.
• Si n = 2, on a un critère d’inversiblité donné par le déterminant, et est très efficace dans le cas
présent.
• Si n > 2, on étudie l’inversibilité en effectuant un pivot de Gauss sur la matrice A − λIn . Le
principe sera le suivant : on recherche les valeurs de λ pour lesquels cette matrice est inversible,
ce qui impose qu’il y ait un pivot (non nul) sur chaque colonne. L’existence de ce pivot nous
amène, au cours du pivot, à supposer la non nullité de certaines expression, et donc d’exclure
certaines valeurs de λ, en nombre fini. Ces valeurs λ sont les seules valeurs propres possibles de
f , ce qui ne signifie pas qu’elles sont effectivement des valeurs propres. Il faut ensuite résoudre
2.1
Diagonalisation des endomorphismes
17
le système associé à chacune de ces valeurs, pour s’assurer que 0 n’est pas la seule solution.
Remarquez qu’on sait trouver une base de l’ensemble des solutions d’un tel système, donc une
base de l’espace propre associé à chacune des valeurs propres.
Exemple 2.1.3 Trouver les valeurs propres de f canoniquement associée à
une base des espaces propres correspondant.

3

Exemple 2.1.4 Même question avec f de matrice 1
0
2
1
!
3
, et donner
1

−4 4

−1 8.
0 2
Exemple 2.1.5 Un endomorphisme sur un espace vectoriel réel
! peut ne pas admettre de valeur
0 −1
propre (réelle). Exemple : f canoniquement associé à
.
1 0
Cas des matrices triangulaires (inférieures ou supérieures)
Théorème 2.1.6 Soit M une matrice triangulaire, alors les valeurs propres de f canoniquement
associée à M sont exactement les coefficients diagonaux de M

1

Exemple 2.1.7 Spec 0
0

1 0

1 2 = {1, 2}.
0 2
Proposition 2.1.8 Un endomorphisme diagonalisable n’ayant qu’une valeur propre est une homothétie
Corollaire 2.1.9 Il existe des endomorphismes non diagonalisables.
!
1 1
Exemple 2.1.10 Soit f de matrice
. Alors la seule valeur propre de f est 1, mais f n’est
0 1
pas une homothétie. Donc f n’est pas diagonalisable, d’après la propriété précédente.
2.1.3
Etude des sous-espaces propres
Théorème 2.1.11 Les sous-espaces propres sont en somme directe :
X
λ∈Spec(f )
Eλ =
M
Eλ .
λ∈Spec(f )
Théorème 2.1.12 Soit λ ∈ Spec(f ). Alors Eλ est stable par f .
Corollaire 2.1.13 Soit λ ∈ Spec(f ). Alors f définit par restriction un endomorphisme de
L(Eλ ). Cette restriction est égale à λidEλ .
Corollaire 2.1.14 Soit F =
L
. Alors F est stable par f . Soit g la restriction de f en un
λ∈Spec(f )
endomorphisme de F . Soit Spec(f ) = {l1 , . . . , λk }, et soit pour tout i ∈ [[1, k]], ni la dimension de
Eλ , et Bi une base de Eλ . Enfin, on note B la base de F , B = (B1 , . . . , Bk ), obtenue en juxtaposant
18Algèbre – Chapitre 2. Réduction des endomorphismes : rappels et compléments
les bases Bi . Alors, en adoptant la notation par blocs :

λ1 In1 0 . . .

..
..
 0
.
.

[g]B =  .
..
..
 .
.
.
 .
0
··· 0

0
.. 
. 



0 
λk Ink
Il s’agit d’une matrice diagonale dont les coefficients diagonaux sont les λi , répétés chacun ni fois.
2.1.4
Critères de diagonalisation
Théorème 2.1.15 Les propositions suivantes sont équivalentes :
P
1.
dim Eλ = dim E ;
λ∈Spec(f )
2. f est diagonalisable ;
3. f est diagonalisable dans une base de vecteurs propres ;
Corollaire 2.1.16 (E de dimension n)
1. f admet au plus n valeurs propres distinctes.
2. Si f admet n valeurs propres distinctes, alors f est diagonalisable.
2.1.5
Polynômes annulateurs
Définition 2.1.17 Un polynôme annulateur de f est un polynôme P ∈ K[X] tel que P (f ) = 0,
les puissances de f étant les puissances de composition.
Théorème 2.1.18 Soit P un polynôme annulateur de f . Alors toute valeur propre de f est racine
de P . La réciproque est fausse.
Cela fournit une autre méthode de recherche des valeurs propres : on trouve un polynôme annulateur, cela nous permet de nous restreindre à un nombre fini de valeurs propres possibles pour f , à
savoir les racines de ce polynôme. Il faut ensuite étudier chacune de ces racines pour savoir si oui
ou non elles sont valeurs propres.
Exemple 2.1.19 Valeurs propres des projecteurs et des symétries, et diagonalisation.
2.1.6
Méthode de diagonalisation (Bilan)
Je résume la méthode pour diagonaliser un endomorphisme (dim E = n)
1. Rechercher les valeurs propres
• A-t-on facilement une base dans laquelle la matrice de f est triangulaire ?
• A-t-on de manière évidente un polynôme annulateur ?
• Sinon, à quelle condition sur λ le système (f − λid)(x) = 0 est-il de Cramer ? (déterminant
si dim E = 2, pivot si dim E > 2)
2. Diagonalisabilité
• A-t-on n valeurs propres distinctes ? Si oui, f est diagonalisable. Cela ne donne que la
diagonalisabilité ; si on veut une base de diagonalisation, il faut aussi faire les étapes
suivantes.
2.2
Diagonalisation des matrices carrées
19
• Pour toute valeur propre, trouver une base de Eλ , et donc sa dimension, par la récolution
d’un système linéaire.
P
dim Eλ < n, alors f n’est pas diagonalisable.
• Si
λ∈Spec(f )
P
• Si
dim Eλ = n, alors f est diagonalisable.
λ∈Spec(f )
3. Diagonalisation (le cas échéant)
• Décrire la base de diagonalisation, obtenue en juxtaposant les bases des espaces propres.
• Donner la matrice (diagonale) de f dans cette base.
2.2
2.2.1
Diagonalisation des matrices carrées
Matrices semblables
Définition 2.2.1 Deux matrices A et B de Mn (K) sont semblables s’il existe P ∈ GLn (K) tel
que A = P −1 BP .
Proposition 2.2.2 Il s’agit d’une relation d’équivalence.
Remarque 2.2.3 Lien avec les changements de base.
Définition 2.2.4 On dit que A ∈ Mn (K) est diagonalisable si A est semblable à une matrice
diagonale, donc s’il existe P ∈ GLn (K) telle que D = P −1 AP soit diagonale.
Diagonaliser A consiste à :
1. donner la matrice diagonale D ;
2. donner la matrice de passage P ;
3. rappeler l’égalité D = P −1 AP .
Dans ce qui suit, A est une matrice de Mn (K) et f est l’endomorphisme de L(Kn ) canoniquement
associé à A.
2.2.2
Principes et critères de diagonalisation
La diagonalisation de A est équivalente à la diagonalisation de f . En effet :
• S’il existe P telle que D = P −1 AP soit diagonale : P est une matrice inversible, donc une
matrice de passage, plus exactement la matrice de passage de la base canonique à la base B
formée des colonnes de P . Ainsi :
D = P −1 AP = [b.c. → B]−1 [f ]b.c. [b.c. → B] = [f ]B .
Par conséquent, on a trouvé une base B dans laquelle la matrice de f est diagonale.
• Réciproquement, si on a diagonalisé f , donc trouvé une base B dans laquelle la matrice D de
f est diagonale, alors il suffit de poser P = [b.c. → B] pour avoir la relation de changement de
base : D = P −1 AP . Cela fournit la diagonalisation de A.
On définit donc de même que pour les endomorphismes :
Définition 2.2.5
1. Une valeur propre de A est λ ∈ K tel que A − λIn est non inversible.
2. Spec(A) est l’ensemble des valeurs propres de A.
20Algèbre – Chapitre 2. Réduction des endomorphismes : rappels et compléments
3. Un vecteur propre X ∈ Kn associé à la valeur propre λ est un vecteur non nul tel que
AX = λX.
4. Le sous-espace propre Eλ associé à la valeur propre λ est l’ensemble des vecteurs propres,
plus 0 : Eλ = {X ∈ Kn | AX = λX}.
Les critères de diagonalisation, ainsi que les méthodes sont les mêmes. Notamment :
1. Si A est triangulaire, les valeurs propres de A sont les coefficients diagonaux.
2. Si A admet n valeurs propres distinctes, alors A est diagonalisable.
L
P
3. A diagonalisable ⇐⇒
Eλ = Kn ⇐⇒
dim Eλ = n.
λ∈Spec(A)
λ∈Spec(A)
4. Soit P ∈ K[X]. Si P (A) = 0, alors toute valeur propre de A est racine de P .
2.2.3
Cas des matrices 2 × 2
Théorème 2.2.6 Toute matrice M de M2 (C) est :
1. soit égale à λI2 , pour une certaine valeur λ ∈ C ;
!
λ1 0
, où λ1 6= λ2 sont deux complexes ;
2. soit semblable à une matrice
0 λ2
!
λ 1
3. soit semblable à une matrice
, λ ∈ C;
0 λ
ces trois possibilités étant exclusives l’une de l’autre.
Les cas 1 et 2 correspondent aux cas où M est diagonalisable. Les cas 1 et 3 correspondent aux
cas où M admet une unique valeur propre. Le cas 2 correspond au cas où M admet deux valeurs
propres distinctes λ1 et λ2 .
2.2.4
Une application : suites définies par une récurrence linéaire
Soit (un )n∈N une suite définie par une récurrence d’ordre p : ∀n > 0, un+p
a0 un . Cette relation peut s’écrire matriciellement. Soit :

ap−1 ap−2 · · ·


 1
un+p−1
0
···




un+p−2 
.
..

.

.
.
∀n ∈ N, Un = 
et
M = 0
 .. 

 . 
.
..
 .
.
 .
0
un
0
···
0
= ap−1 un+p−1 + · · · +

· · · a0
0
0

..
.. 

.
.

..


.
1
0
Alors, pour tout n > 0, Un+1 = M Un , donc Un = M n U0
Pour expliciter la suite Un , on peut donc diagonaliser M , si elle est diagonalisable, pour calculer
ses puissances (remarquez que la dernière ligne de M n suffit, économisez-vous les calculs)
Proposition 2.2.7 Les valeurs propres de M sont les racines du polynôme caractéristique.
Corollaire 2.2.8 Si les racines du polynôme caractéristique sont simples, M est diagonalisable,
et (un ) est une combinaison linéaire de suites géométriques de raisons ces racines.
Exemple 2.2.9 Cas d’une récurrence d’ordre 2 : cas de deux racines simples ; d’une racine double.
Algèbre – Chapitre 3
Produits scalaires
3.1
Formes bilinéaires
Dans ce paragraphe, K désigne R ou C.
3.1.1
Définitions générales
Définition 3.1.1 Soit E un espace vectoriel Une forme bilinéaire B sur E est une application
B : E × E → K, linéaire par rapport à chaque facteur, l’autre étant fixé, c’est-à-dire :
(i) ∀(x, y, z) ∈ E 3 , ∀λ ∈ K, B(λx + y, z) = λB(x, z) + B(y, z)
(ii) ∀(x, y, z) ∈ E 3 , ∀λ ∈ K, B(x, λy + z) = λB(x, y) + B(x, z).
Lemme 3.1.2 Soit B une forme bilinéaire sur E. Alors pour tout x ∈ E, B(x, 0) = B(0, x) = 0.
Lemme 3.1.3 Soit B une forme bilinéaire sur E. Soit (k, ℓ) ∈ (N∗ )2 , et soit (x1 , . . . , xk , y1 , . . . , yℓ ) ∈
E k+ℓ , et (λ1 , . . . , λk , µ1 , . . . , µℓ ) ∈ Kk+ℓ . Alors


k X
ℓ
ℓ
k
X
X
X
λi µj B(xi , yj ).
µj y j  =
λi xi ,
B
i=1
j=1
i=1 j=1
Définition 3.1.4 On note B(E) l’ensemble des formes bilinéaires de E
Proposition 3.1.5 L’ensemble B(E) est un espace vectoriel sur K.
Exemples 3.1.6
1. B : (x, y) 7→ xy sur R.
2. cov : (X, Y ) 7→ cov(X, Y ) sur le R-espace vectoriel V des variables aléatoires discrètes
admettant une variance.
Z b
3. B : (P, Q) 7→
P (x)Q(x) dx sur R[X], ou sur C 0 ([a, b]).
  a 
y1
x1
n
X
 .   . 
 .  ,  .  7→
xi yi sur Rn
4. B : 
 .   . 
i=1
yn
xn
5. p1 : (x, y) 7→ x sur R
22
Algèbre – Chapitre 3. Produits scalaires
6. ϕ : (X, Y ) 7→ tXAY , sur Rn , A ∈ Mn (R).
Ce dernier exemple est très important, car si E est de dimension finie, toute forme bilinéaire
peut être représenté de cette forme après choix d’une base de E, ainsi qu’on le montre dans le
paragraphe suivant.
3.1.2
Représentation matricielle d’une forme bilinéaire
Dans ce paragraphe, on suppose que E est de dimension finie n.
Définition 3.1.7 Soit ϕ une forme bilinéaire sur E, et B = (e1 , . . . , en ) une base de E. Alors on
définit la matrice de B relativement à la base B par :
MatB (ϕ) = (ϕ(ei , ej ))16i,j6n .
Exemples 3.1.8
1. Matrice dans la base (1) de R de (x, y) 7→ xy
2. Matrice des variances-covariances
3. Matrice dans la base canonique de ϕ : (P, Q) 7→
Z
1
P (x)Q(x) dx sur Rn [X].
0
4. Matrice du produit scalaire canonique de Rn dans la base canonique ; dans la base B =
(b1 , . . . , bn ), où bi est constitué de 1 sur les coordonnées 1 à i, et de 0 ailleurs.
Théorème 3.1.9 (Expression matricielle de ϕ(x, y))
Soit ϕ une forme bilinéaire sur E, et B une base de E. Alors, pour tout (x, y) ∈ E 2 ,
ϕ(x, y) = t[x]B MatB (ϕ)[y]B = tXM Y,
où X et Y sont les vecteurs colonnes représentant les coordonnées de x et y dans la base B, et M
est la matrice de ϕ relativement à cette même base B.
(dans l’expression de ce théorème, on identifie l’ensemble M1 (R) des matrices 1×1 avec l’ensemble
R des réels)
Théorème 3.1.10 Soit M ∈ Mn (K). La relation ϕ(x, y) = tXM Y caractérise la matrice de ϕ
relativement à la base B : si
∀(x, y) ∈ E 2 , ϕ(x, y) = t[x]B M [y]B ,
alors M = MatB (ϕ).
Exemple 3.1.11 L’égalité Mbc (ϕ) = In se traduit par ϕ(X, Y ) =
produit scalaire usuel.
t
XIn Y =
XY ; c’est le
t
Corollaire 3.1.12 L’application
Φ : B(E) −→ Mn (R)
ϕ
7−→ MatB (ϕ)
est un isomorphisme.
Corollaire 3.1.13 Si E est de dimension finie n, alors B(E) est de dimension finie, et
dim(B(E)) = n2 .
3.1
Formes bilinéaires
3.1.3
23
Formule de changement de base
Proposition 3.1.14 (Rappels sur les transposées)
1. La transposition t(−) : Mn (K) → Mn (K) est une application linéaire.
2. ∀(A, B) ∈ (Mn (K))2 ,
t
(AB) = tB tA
3. Pour tout P ∈ GLn (R), on a aussi tP ∈ GLn (R), et ( tP )−1 = t(P −1 ).
Théorème 3.1.15 (Formule de changement de base)
Soit E un espace vectoriel sur K de dimension finie. Soit ϕ une forme bilinéaire sur E, et soit C
et D deux bases de E. Soit P la matrice de passage de C à D. Alors
MatD (ϕ) = tP MatC (ϕ)P.
Exemple 3.1.16 Explicitation du changement de la base canonique à la base B dans l’exemple
3.1.8, pour le produit scalaire canonique.
3.1.4
Formes bilinéaires symétriques, définies, positives
Définition 3.1.17 Soit ϕ une forme bilinéaire sur un espace vectoriel E.
1. On dit que ϕ est symétrique si : ∀(x, y) ∈ E 2 , ϕ(x, y) = ϕ(y, x).
2. On dit que ϕ est positive si : ∀x ∈ E, ϕ(x, x) > 0.
3. On dit que ϕ est définie si : ∀x ∈ E, ϕ(x, x) = 0 ⇐⇒ x = 0.
Proposition 3.1.18 Soit ϕ une forme bilinéaire sur un espace vectoriel E de dimension finie.
Les propriétés suivantes sont équivalentes :
(i) ϕ est symétrique ;
(ii) Il existe une base de E telle que MatB (ϕ) est une matrice symétrique
(iii) Pour tout base B de E, MatB (ϕ) est une matrice symétrique.
1. ϕ : (x, y) 7→ xy sur R est symétrique, définie, positive.
Exemples 3.1.19
2. cov est symétrique positive, mais pas définie.
3. Le produit scalaire canonique sur Rn est symétrique, défini, positif.
Z b
4. ϕ : (f, g) 7→
f (t)g(t) dt sur C 0 ([a, b]) est symétrique, définie et positive.
a
Proposition 3.1.20 (Inégalité de Cauchy-Schwarz pour les formes bilinéaires symétriques positives)
Soit ϕ une forme bilinéaire symétrique positive sur un espace E. Alors, pour tout (x, y) ∈ E2 , on a
ϕ(x, y)2 6 ϕ(x, x) · ϕ(y, y),
et on a égalité si et seulement si il existe λ tel que ϕ(x + λy, x + λy) = 0.
Exemple 3.1.21 Pour toutes variables aléatoires X et Y admettant une variance, on a :
|cov(X, Y )| 6 σ(X)σ(Y ).
24
Algèbre – Chapitre 3. Produits scalaires
3.2
Produits scalaires
Dans cette section, E désigne un espace vectoriel sur R.
3.2.1
Définitions
Définition 3.2.1 Un produit scalaire sur E est une forme bilinéaire symétrique, définie et positive. Ainsi, une application ϕ : E × E → R est un produit scalaire sur E si et seulement si :
(i) ∀(x, y, z) ∈ E 3 , ∀λ ∈ K, ϕ(λx + y, z) = λϕ(x, z) + ϕ(y, z)
(ii) ∀(x, y, z) ∈ E 3 , ∀λ ∈ K, ϕ(x, λy + z) = λϕ(x, y) + ϕ(x, z).
(iii) ∀(x, y) ∈ E2 , ϕ(x, y) = ϕ(y, x)
(iv) ∀x ∈ E, ϕ(x, x) > 0
(v) ∀x ∈ E, ϕ(x, x) = 0 ⇐⇒ x = 0.
Remarque 3.2.2 Le point (ii) de la définition ci-dessus est redondant : la linéarité par rapport
à le seconde variable découle en effet de la linéarité par rapport à la première variable (i) et de la
symétrie (iii).
Exemples 3.2.3
1. (f, g) 7→
Z
b
f (t)g(t) dt est un produit scalaire sur C 0 (R) (ou sur R[X])
a
2. Le produit scalaire canonique de Rn est un produit scalaire au sens de cette définition.
3. Un autre produit scalaire sur Rn : (X, Y ) 7→ tXM Y , où M = (min(i, j))16i,j6n .
Ainsi, on n’a pas unicité d’un produit scalaire sur un espace vectoriel E.
Notation 3.2.4 Soit ϕ un produit scalaire sur E on note souvent :
ϕ(x, y) = hx, yi
ou
ϕ(x, y) = (x|y).
Soit ϕ un produit scalaire, noté ϕ(x, y) = hx, yi. Alors en particulier, ϕ est une forme bilinéaire,
et si B = (e1 , . . . , en ) est une base de E :
MatB (ϕ) = (hei , ej i)16i,j6n
Proposition 3.2.5 La matrice d’un produit scalaire dans une base quelconque est symétrique. La
réciproque est fausse.
3.2.2
Normes euclidiennes
Définition 3.2.6 Une norme sur un espace vectoriel E est une application N : E → R telle que :
(i) ∀x ∈ E, N (x) = 0 ⇐⇒ x = 0
(ii) ∀λ ∈ R, ∀x ∈ E, N (λx) = |λ|N (x)
(iii) ∀(x, y) ∈ E 2 , N (x + y) 6 N (x) + N (y).
Proposition 3.2.7 Si N est une norme sur E, alors pour tout x ∈ E, N (x) > 0.
Notation 3.2.8 Soit h−, −i un produit scalaire sur E. Pour tout x ∈ E, on note kxk =
p
hx, xi.
3.2
Produits scalaires
25
Lemme 3.2.9 Soit h−, −i un produit scalaire sur E. Alors, pour tout (x, y) ∈ E 2 ,
kx + yk2 = kxk2 + 2 hx, yi + kyk2 ,
soit:
hx, yi =
1
kx + yk2 − kxk2 − kyk2 .
2
Ce lemme dit en particulier comment retrouver l’expression du produit scalaire h−, −i par la seule
connaissance de la norme k − k.
Proposition 3.2.10 Plus généralement, étant donné (x1 , . . . , xn ) ∈ En ,
kx1 + · · · + xn k2 =
n
X
kxi k2 + 2
i=1
X
hxi , xj i .
16i<j6n
Lemme 3.2.11 (Inégalité de Cauchy-Schwarz pour les produits scalaires)
Soit h−, −i un produit scalaire. Alors, pour tout (x, y) ∈ E2 , on a
hx, yi 6 kxk · kyk.
L’égalité est obtenue si et seulement si x et y sont colinéaires (de même sens pour un signe positif,
de sens opposé pour un signe négatif ).
Théorème 3.2.12 Soit h−, −i un produit scalaire sur E. Alors l’application k − k qui à x associe
kxk est une norme sur E. Cette norme est appelée norme euclidienne associée au produit scalaire
h−, −i.
Remarques 3.2.13
1. D’après ce qui précède, si k − k est une norme euclidienne associée à
un certain produit scalaire, ce produit scalaire est nécessairement défini par
∀(x, y) ∈ E 2 , hx, yi =
1
kx + yk2 − kxk2 − kyk2
2
Ainsi, une même norme euclidienne ne peut pas être associée à deux produits scalaires
différents
2. Toutes les normes ne sont pas des normes euclidiennes. Pour vérifier si une norme est euclidienne ou non, il suffit de vérifier si le seul candidat à être le produit scalaire associé, à
savoir :
1
∀(x, y) ∈ E 2 , ϕ(x, y) =
kx + yk2 − kxk2 − kyk2 ,
2
est effectivement un produit scalaire
Exemples 3.2.14
1. N : (x1 , . . . , xn ) 7→ max(|x1 |, . . . , |xn |) est une norme sur Rn , mais n’est
pas une norme euclidienne.
2. Norme euclidienne usuelle sur Rn , et l’inégalité de Cauchy-Schwarz numérique.
3. Norme euclidienne canonique sur C 0 ([a, b]), et inégalité de Cauchy-Schwarz associée.
26
Algèbre – Chapitre 3. Produits scalaires
Algèbre – Chapitre 4
Orthogonalité
Dans tout ce chapitre, E désigne un espace vectoriel de dimension quelconque (finie ou infinie),
sauf mention explicite du contraire. On suppose que E est muni d’un produit scalaire, que l’on
note h−, −i.
4.1
Vecteurs orthogonaux
Définition 4.1.1 Soit (x, y) ∈ E deux vecteurs de E. On dit que x et y sont orthogonaux, et on
note x⊥y, si hx, yi = 0.
Exemples 4.1.2
1. ∀x ∈ E, x⊥0.
2. Soit (e1 , . . . , en ) la base canonique de Rn . Alors pour tout i 6= j, ei ⊥ej .
   
1
−4
2 −3
   
3.   ⊥  , pour le produit scalaire usuel.
3  2 
4
1
4. x 7→ sin πx et x 7→ cos πx sont orthogonaux pour le produit scalaire hf, gi =
Z
1
f (t)g(t) dt
−1
sur C 0 ([−1, 1]).
Définition 4.1.3
1. Soit F = (x1 , . . . , xn ) une famille (finie) d’éléments de E. On dit que la
famille F est orthogonale si et seulement si les xi sont deux à deux orthogonaux, c’est-à-dire
si et seulement si pour tout (i, j) ∈ [[1, n]] tel que i 6= j, xi ⊥xj .
2. On dit que la famille F est orthonormale (ou orthonormée) si et seulement si elle est orthogonale, et que pour tout i ∈ [[1, n]], kxi k = 1.
Théorème 4.1.4 Soit F une famille orthogonale ne contenant pas le vecteur nul. Alors F est
une famille libre.
En particulier, toute famille orthonormale est libre.
Corollaire 4.1.5 On suppose E de dimension finie n. Soit (e1 , . . . , en ) une famille orthonormale
de E. Alors (e1 , . . . , en ) est une base de E. On dit qu’il s’agit d’une base orthonormale, et on abrège
en b.o.n..
28
Algèbre – Chapitre 4. Orthogonalité
Proposition 4.1.6 (Expression des coordonnées d’un vecteur dans une b.o.n.)
Soit B = (b1 , . . . , bn ) une base orthonormale de E. Alors :
∀X ∈ E, X =
n
X
hX, bi i bi .
i=1
Exemple 4.1.7 Dans R2 , il s’agit des projections orthogonales sur chaque axe.
On ne suppose plus ici que E est de dimension finie
Théorème 4.1.8 (Théorème de Pythagore)
1. Soit (x, y) ∈ E 2 tel que x⊥y. Alors kx + yk2 = kxk2 + kyk2 .
2. Plus généralement, soit (x1 , . . . , xn ) une famille orthogonale de E. Alors
n
n
X 2 X
kxi k2 .
xi =
i=1
i=1
4.2
Sous-espaces orthogonaux
Définition 4.2.1
1. Soit x ∈ E, et F un sous-espace vectoriel de E. On dit que x est orthogonal à F si pour tout y ∈ F , x⊥y. On note x⊥F , ou x ∈ F ⊥ comme on le verra plus
tard.
2. Soit F et G deux sous-espaces vectoriels de E. On dit que F et G sont orthogonaux si et
seulement si :
∀x ∈ F, ∀y ∈ G, x⊥y.
Exemples 4.2.2
1. Dans R3 , le plan (Oxy) et la droite (Oz)
 
1
 
2. Dans R3 , le plan d’équation x + y + z = 0, et la droite engendrée par 1.
1
3. Dans C 0 ([−1, 1]) muni du ps usuel, le sous espace P des fonctions paires, et le sous-espace I
des fonctions impaires.
Proposition 4.2.3 Soit F et G des sous-espaces vectoriels de E. Si F ⊥G, alors la somme F + G
est directe.
Proposition 4.2.4 (Stabilité par CL de l’orthogonalité)
1. Soit (x, y, z) ∈ E 3 tel que x⊥y et x⊥z, et soit λ ∈ R. Alors x⊥λy + z.
2. Soit x ∈ E, et (y1 , . . . , yn ) une famille quelconque telle que pour tout i ∈ [[1, n]], x⊥yi . Soit
n
X
λi xi .
(λ1 , . . . , λn ) ∈ Rn . Alors : x⊥
i=1
3. Soit (x1 , . . . , xm ) ∈ E m et (y1 , . . . , yn ) ∈ E n deux familles de E telles que pour tout (i, j) ∈
[[1, m]] × [[1, n]], xi ⊥yj . Alors pour tout (λ1 , . . . , λm ) ∈ Rm et pour tout (µ1 , . . . , µn ) ∈ Rn :
m
X
i=1
λi xi ⊥
m
X
j=1
µj y j .
4.3
Projetés orthogonaux
29
Proposition 4.2.5 Soit (x1 , . . . , xm ) et (y1 , . . . yn ) deux familles de E. Alors
Vect(x1 , . . . , xm )⊥ Vect(y1 , . . . , yn ) si et seulement si ∀i ∈ [[1, m]], ∀j ∈ [[1, n]], xi ⊥yj .
Corollaire 4.2.6 Soit F et G deux sous-espaces vectoriels de E, et soit B = (b1 , . . . , bn ) et
C = (c1 , . . . , cn ) des bases de F et G respectivement. Alors F ⊥G si et seulement si
∀(i, j) ∈ [[1, m]] × [[1, n]], bi ⊥cj .
Définition 4.2.7 Soit F un sev de E. On note F ⊥ = {x ∈ E | x⊥F }, l’ensemble des vecteurs
orthogonaux à F . L’ensemble F ⊥ est appelé l’orthogonal de F .
Proposition 4.2.8 L’ensemble F ⊥ est un sous-espace vectoriel de E, et F ⊥F ⊥ , donc en particulier, la somme F + F ⊥ est directe.
Remarque 4.2.9 Attention, contrairement à l’idée intuitive qu’on se fait en considérant l’orthogonalité dans R3 , F ⊥ n’est pas forcément un supplémentaire de F dans E. On montrera que c’est
le cas si E est de dimension finie, mais que cette propriété entre en défaut si E est de dimension
infinie.
Exemple 4.2.10 Déterminer l’orthogonal dans R4 muni de la base canonique de
   
1
1
0 1
   
F = Vect   ,   .
1 0
0
1
Proposition 4.2.11 Soit F un sous-espace vectoriel de dimension fini de E, et B = (b1 , . . . , bn )
une base de F . Alors x ∈ F ⊥ si et seulement si pour tout i ∈ [[1, n]], x⊥bi .
4.3
Projetés orthogonaux
Définition 4.3.1 Soit x et y deux éléments de E. On dit qu’un vecteur z ∈ E est le projeté
orthogonal de y sur la droite Vect(x) si et seuement si y − z⊥x et z ∈ Vect(x).
Proposition 4.3.2 Soit x et y deux éléments de E. Alors, le projeté orthogonal de y sur Vect(x)
existe, est unique, et vaut :
x
x
x
·
=
y,
.
z = hy, xi ·
kxk2
kxk
kxk
Définition 4.3.3 Soit F un sous-espace vectoriel de E, et y ∈ E. On dit que z ∈ E est le projeté
orthogonal de y sur F si et seulement si :
(i) z ∈ F
(ii) (y − z)⊥F .
Théorème 4.3.4 Soit y ∈ E, et F un sous-espace vectoriel de dimension finie de E, tel qu’il
existe une base orthonormale (b1 , . . . , bm ) de F . Alors le projeté orthogonal de y sur F existe, est
30
Algèbre – Chapitre 4. Orthogonalité
unique, et vaut :
z=
m
X
hy, bi i bi .
i=1
Remarques 4.3.5
1. On verra dans la suite du cours qu’un espace vectoriel de dimension
finie et muni d’un produit scalaire admet toujours au moins une base orthonormale pour ce
produit scalaire : l’hypothèses d’existence de cette base est donc superflue dans le théorème
ci-dessus.
2. Si (b1 , . . . , bn ) est une base orthogonale, mais non orthonormale, on obtient la formule suivante pour le projeté orthogonale de y sur F :
z=
m X
i=1
bi
y,
kbi k
·
bi
.
kbi k
3. Si y ∈ F , son projeté est bien entendu lui-même, et on obtient, pour une b.o.n. (b1 , . . . , bm )
de F :
m
X
hy, bi i bi .
y=
i=1
Ainsi, on retrouve l’expression des coordonnées d’un vecteur y dans une base orthonormale.
4.4
Orthonormalisation de Schmidt
Motivation : Étant donné une famille libre (e1 , . . . , en ) de E, trouver un moyen concret de construire
une famille libre orthonormée (f1 , . . . fn ) engendrant le même espace que (e1 , . . . , en ), c’est-à-dire
tel que (f1 , . . . , fn ) est une b.o.n. de Vect(e1 , . . . , en ).
En particulier, si (e1 , . . . , en ) est initialement une base de E, on décrit une façon canonique de
construire une b.o.n. de E à partir de cette base.
On fait cette construction étape par étape, de manière à avoir, pour tout k ∈ [[1, n]],
Vect(e1 , . . . , ek ) = Vect(f1 , . . . , fk ).
Théorème 4.4.1 (Procédé d’orthonormalisation de Schmidt) Soit (e1 , . . . , en ) une famille
libre de E, et (f1 , . . . , fn ) la famille définie par récurrence de la manière suivante :
f1 =
e1
ke1 k
et
k−1
P
hek , fi i fi
ek −
i=1
.
∀k ∈ [[2, n]], fk = k−1
P
ek −
hek , fi i fi i=1
Alors, la famille (f1 , . . . , fn ) est orthonormale (donc en particulier libre), et
Vect(f1 , . . . , fn ) = Vect(e1 , . . . , en ).
Plus précisément, pour tout k ∈ [[1, n]], on a
Vect(f1 , . . . , fk ) = Vect(e1 , . . . , ek ).
Ainsi, pour tout k ∈ [[1, n]], (f1 , . . . , fk ) est une b.o.n. de Vect(e1 , . . . , ek ).
4.4
Orthonormalisation de Schmidt
31
Notons F L(E) l’ensemble des familles libres de E et F O(E) l’ensemble des familles orthonormées
de E (notations non canoniques). Ainsi, le procédé d’orthonormalisation de Schmidt définit une
application :
O : F L(E) −→ F O(E).
Cette notation O n’est pas canonique mais sera utilisée dans la suite du polycopié.
Proposition 4.4.2 Soit (e1 , . . . , en ) une famille libre. Alors O(e1 , . . . , en ) = (e1 , . . . , en ) si et
seulement si (e1 , . . . , en ) est une famille orthonormale. Ainsi, le procédé d’orthonormalisation de
Schmidt laisse invariant les familles qui étaient déjà orthonormales.
Faire l’étude des cas n = 2 et n = 3 avant la démonstration générale.
Proposition 4.4.3 Soit (e1 , . . . , en ) une famille libre, et (λ1 , . . . , λn ) ∈ (R∗+ )n . Alors
O(e1 , . . . , en ) = O(λ1 e1 , . . . , λn en ).
Proposition 4.4.4 Soit (e1 , . . . , en ) une famille libre, et (λ1 , . . . , λn ) ∈ (R∗ )n . Soit, pour tout
i ∈ [[1, n]], εi le signe de λi , c’est-à-dire :
εi =
(
1
si λi > 0
−1
si λi < 0
Alors, si on note (f1 , . . . , fn ) = O(e1 , . . . , en ), on obtient :
O(λ1 e1 , . . . , λn en ) = (ε1 f1 , . . . , εn fn ).
Exemples 4.4.5
   
0
1
   
1. Base orthonormale de F = Vect 1 , 1
1
0
2. Orthonormalisée de Schmidt de (1, X) dans Rn [X] muni de :
hP, Qi =
Z
0
1
P (t)Q(t) dt.
32
Algèbre – Chapitre 4. Orthogonalité
Algèbre – Chapitre 5
Espaces euclidiens
Définition 5.0.6 On appelle espace euclidien un espace vectoriel E de dimension finie, muni
d’un produit scalaire.
La donnée d’un espace euclidien est donc la donnée d’un espace vectoriel de dimension finie, et d’un
produit scalaire fixé sur cet espace. Toutes les propriétés de normes et d’orthogonalités étudiées
sur un espace euclidien le sont donc relativement à ce produit scalaire.
5.1
Familles orthogonales dans un espace euclidien
Cette section est constituée d’un certain nombre de rappels et de compléments sur les familles
orthogonales, et regroupe les spécificités de ces familles lorsque l’espace est de dimension finie,
donc lorsqu’on se place sur un espace euclidien.
Dans toute cette section, on considère E un espace euclidien, donc un espace de dimension finie,
muni d’un produit scalaire, que l’on notera h−, −i. On notera également k − k la norme euclidienne
associée.
5.1.1
Bases orthonormales
Théorème 5.1.1 Tout espace euclidien E admet au moins une base orthonormale.
Théorème 5.1.2 Soit E un espace euclidien.
1. Toute famille libre orthogonale de E peut être complétée en une base orthogonale de E
2. Toute famille orthonormale de E peut être complétée en une base orthonormale de E.
Corollaire 5.1.3 Soit E un espace euclidien. Tout sous-espace F de E admet un unique supplémentaire G tel que F ⊥G. De plus, on a G = F ⊥ . On dit que F ⊥ est le supplémentaire orthogonal
de F .
Proposition 5.1.4 Soit E un espace euclidien, et F et G deux sous-espaces vectoriels de E tels
que F ⊥G. Soit (b1 , . . . , bp ) une base orthonormale de F , et (c1 , . . . , cq ) une base orthonormale
de G. Alors (b1 , . . . , bp , c1 , . . . , cq ) est une base orthonormale de F ⊕ G ; en particulier, c’est une
famille orthonormale de E.
34
Algèbre – Chapitre 5. Espaces euclidiens
Corollaire 5.1.5 Soit E un espace euclidien, et F1 , . . . , Fp des sous-espaces vectoriels de E, deux
à deux orthogonaux. Alors la somme F1 + · · · + Fp est directe, et on obtient une base orthonormale
de F1 ⊕ · · · ⊕ Fp en juxtaposant des bases orthonormales des espaces F1 , . . . , Fp .
Corollaire 5.1.6 Soit E un espace euclidien, F un sous-espace vectoriel de E, et F ⊥ son supplémentaire orthogonal. Soit (b1 , . . . , bp ) une base orthonormale de F et (c1 , . . . , cq ) une base orthonormale de F ⊥ . Alors (b1 , . . . , bp , c1 , . . . , cq ) est une base orthonormale de E.
5.1.2
Coordonnées dans une base orthonormale
Théorème 5.1.7 (Coordonnées d’un vecteur dans une b.o.n.)
Soit E un espace euclidien, et B = (b1 , . . . , bn ) une b.o.n. de E. Soit x ∈ E. Alors :


hx, b1 i
n
 . 
P

hx, bi i bi , c’est-à-dire [x]B = 
(i) x =
 .. .
i=1
hx, bn i
n
P
2
hx, bi i
(ii) kxk2 =
i=1
Ainsi, la norme de x est la racine de la somme des carrés des coordonnées de x dans la b.o.n.
considérée. Cela correspond bien à la situation connue dans Rn muni de son produit scalaire
canonique.
Théorème 5.1.8 (Matrice d’un endomorphisme relativement à une b.o.n.)
Soit E un espace euclidien muni d’une b.o.n. B = (b1 , . . . , bn ). Soit u ∈ L(E). Alors :


hb1 , u(b1 )i · · · hb1 , u(bn )i


..
..
.
MB (u) = (hbi , u(bj )i)16i,j6n = 
.
.


hbn , u(b1 )i · · · hbn , u(bn )i
Théorème 5.1.9 (Matrice du produit scalaire relativement à une b.o.n.)
Soit E un espace euclidien, et B une b.o.n. de E.
1. La matrice du produit scalaire dans la base B est In . Autrement dit, pour tout (x, y) dans
E 2 , on a :
hx, yi = tXY,
où X = [x]B et Y = [y]B sont les vecteurs des coordonnées de x et y dans la base B.
2. Réciproquement, si B est une base de E relativement à laquelle la matrice du produit scalaire
est In , alors B est une base orthonormale de E.
5.1.3
Matrices orthogonales
Théorème 5.1.10 Soit B et C deux b.o.n. de E. Soit P = [B → C] la matrice de passage de la
base B à la base C. Alors :
t
P P = In = P tP,
donc:
P −1 = tP.
Définition 5.1.11 Soit P ∈ Mn (R) une matrice carrée d’ordre n. On dit que P est une matrice
orthogonale si et seulement si tP P = In .
5.2
Projecteurs orthogonaux
35
Proposition 5.1.12 Soit P une matrice orthogonale. Alors P est inversible, et P −1 = tP .
Théorème 5.1.13 Une matrice P est orthogonale si et seulement si ses colonnes forment une
base orthonormale de Rn = Mn,1 (R), muni du produit scalaire canonique.
Théorème 5.1.14 Soit E un espace euclidien.
1. Toute matrice de passage d’une b.o.n. de E à une autre b.o.n. de E est une matrice orthogonale.
2. Réciproquement, soit B une b.o.n. de E, et P une matrice orthogonale. Alors il existe une
unique base C telle que P soit la matrice de passage de B à C, et cette base C est une b.o.n.
de E.
5.2
5.2.1
Projecteurs orthogonaux
Rappels sur les projections orthogonales
On rappelle la définition du projeté orthogonal :
Définition 5.2.1 Soit E un espace euclidien, et F un sous-espace vectoriel de E. Soit x ∈ E. On
dit qu’un vecteur y de E est un projeté orthogonal de x sur F si et seulement si :
(i) y ∈ F
(ii) x − y ∈ F ⊥ .
Proposition 5.2.2 Soit E un espace euclidien, et F un sous-espace vectoriel de E. Alors tout
vecteur x de E admet un et un seul projeté orthogonal sur F . De plus, étant donné une base
orthonormale (b1 , . . . , bp ) de F , ce projeté orthogonal pF (x) s’exprime de la manière suivante :
pF (x) =
p
X
hx, bi i bi .
i=1
Définition 5.2.3 Le projeté orthogonal d’un vecteur sur F définit une application pF : E → E,
qui a x associe son projeté orthogonal sur F . Cette application est appelée « projection orthogonale
sur F »
Proposition 5.2.4 Évidemment, pF est un projecteur.
Définition 5.2.5 Rappel : soit p un projecteur quelconque de E. Alors idE − p est un projecteur
de E, appelé projecteur associé de p.
Proposition 5.2.6 Soit E un espace euclidien, et F un sous-espace vectoriel de E. Alors le
projecteur associé de la projection orthogonale pF sur F est la projection orthogonale pF ⊥ sur
l’orthogonal de F .
Exemple 5.2.7 Comment déterminer la matrice d’un projecteur othogonal de Rn dans
la base canonique ?
36
Algèbre – Chapitre 5. Espaces euclidiens
Soit dans R3 le plan F d’équation x + 2y − z = 0. Déterminer la matrice de pF , le projecteur
orthogonal sur
le plan F . 
5 −2 1


(Réponse : 61 −2 2 2)
1
2 5
• Première méthode : trouver une b.o.n. de F , et utiliser la formule donnant le projeté à l’aide
d’une b.o.n.
• Deuxième méthode (à réserver aux hyperplans, mais plutôt plus rapide dans ce cas) : Déterminer
une base F ⊥ (c’est une droite, si F est un hyperplan). Exprimer le projeté orthogonal à l’aide
d’une appartenance à F ⊥ (ce qui s’exprime par une colinéarité, si F est un hyperplan) et d’une
appartenance à F (ce qui s’exprime par une équation).
5.2.2
Distance d’un point à un sous-espace vectoriel
Théorème 5.2.8 Soit E un espace euclidien, F un sous-espace de E, et x ∈ E. Alors :
∀y ∈ F, kx − pF (x)k 6 kx − yk,
l’égalité étant réalisée si et seulement si y = pF (x).
Autrement dit, pF (x) est l’unique vecteur de F minimisant la distance de x à un point de F .
Définition 5.2.9 On dit que pF (x) est la meilleure approximation de x dans F . On appelle
distance de x à F le réel suivant :
d(x, F ) = kx − pF (x)k = min kx − yk.
y∈F
5.2.3
Problème des moindres carrés
Théorème 5.2.10 (Minimisation de kAX − Bk, ou problème des moindres carrés)
Soit n > p deux entiers strictement positifs. Soit A ∈ Mn,p (R), de rang p, et B ∈ Mn,1 (R).
Il existe un et un seul vecteur X ∈ Mp,1 (R) minimisant la norme kAX − Bk. Ce vecteur X est
l’unique solution du système de Cramer tAAX = tAB.
Ce théorème est notamment utilisé pour déterminer la droite des moindres carrés de y en x (ou
droite de régression de y en x) d’un nuage de points, c’est à dire la droite approchant « au mieux »
(suivant un certain critère) un ensemble de points (donc passant « au plus près » de ces points)
Définition 5.2.11 Soit {(xi , yi ), i ∈ [[1, n]]} un ensemble de n points de R2 (c’est-à-dire un
« nuage » de points de R2 ). On appelle droite des moindres carrés de y en x (ou droite de régression de y en x) la droite d’équation y = mx x + p, telle que les coefficients (mx , p) minimisent
la fonction :
n
X
F (mx , p) =
(yk − mx xk − p)2
k=1
Ainsi, c’est la droite qui minimise la somme des carrés des distances verticales des points du nuage
à la droite.
On définit de même la droite des moindres carrés de x en y :
5.3
Endomorphismes symétriques
37
Définition 5.2.12 Soit {(xi , yi ), i ∈ [[1, n]]} un ensemble de n points de R2 . On appelle droite des
moindres carrés de x en y (ou droite de régression de y en x) la droite d’équation x = my y + p,
telle que les coefficients mx et p minimisent la fonction :
F (mx , p) =
n
X
(xk − my yk − p)2
k=1
Ainsi, c’est la droite qui minimise la somme des carrés des distances horizontales des points du
nuage à la droite.
Exemples 5.2.13 Déterminer les droites de régression de y en x des nuages de points suivants :
!
!
!
1
3
3
1. A1 =
, A2 =
, A3 =
. Réponse : y = x
1
2
4
!
!
!
1
4
5
6
32
2. A1 =
, A2 =
, A3 =
. Réponse : y = 13
x + 13
.
3
4
5
Le fait que ce théorème permette de déterminer le minimum de fonctions s’écrivant sous forme de
sommes de carrés justifie la terminologie de « théorème des moindres carrés ».
5.3
Endomorphismes symétriques
Définition 5.3.1 Soit E un espace euclidien, et u ∈ L(E). On dit que u est un endomorphisme
symétrique si :
∀(x, y) ∈ E 2 , hu(x), yi = hx, u(y)i .
(Attention à la position de x et y, c’est plus que la simple propriété de symétrie du produit
scalaire !)
Proposition 5.3.2 Soit E un espace euclidien, et u ∈ L(E). Les propriétés suivantes sont équivalentes :
(i) u est un endomorphisme symétrique ;
(ii) pour toute base B = (e1 , . . . , en ) de E, et pour tout (i, j) ∈ [[1, n]]2 ,
hu(ei ), ej i = hei , u(ej )i
(iii) il existe une base B = (e1 , . . . , en ) de E, telle que pour tout (i, j) ∈ [[1, n]]2 ,
hu(ei ), ej i = hei , u(ej )i
(iv) pour toute base orthonormale B de E, MatB (u) est une matrice symétrique
(v) il existe une base orthonormale B de E telle que MatB (u) soit une matrice symétrique.
Ainsi, pour montrer qu’un endomorphisme est symétrique, il suffit de montrer la propriété de
symétrie sur les vecteurs d’une base quelconque de E, ou alors de trouver une base orthonormale
relativement à laquelle la matrice de u soit symétrique.
Corollaire 5.3.3 Soit Rn muni de son produit scalaire canonique, et u un endomorphisme de
Rn . Alors u est un endomorphisme symétrique si et seulement si la matrice canoniquement associée
est symétrique.
38
Algèbre – Chapitre 5. Espaces euclidiens
Théorème 5.3.4 (Important, admis provisoirement)
Tout endomorphisme symétrique d’un espace euclidien E admet au moins une valeur propre réelle.
Théorème 5.3.5 (Tout aussi important)
Les espaces propres (sur R) d’un endomorphisme symétrique sont 2 à 2 orthogonaux.
Théorème 5.3.6 (Diagonalisation des endomorphismes symétriques)
Soit E un espace euclidien, et u ∈ L(E). Les propriétés suivantes sont équivalentes :
(i) u est un endomorphisme symétrique
(ii) u est diagonalisable dans une base orthonormale de vecteurs propres.
Corollaire 5.3.7 Toute matrice symétrique réelle A est diagonalisable. De plus on peut
choisir une base de diagonalisation orthonormale (dans Rn muni du produit scalaire canonique),
donc il existe une matrice orthogonale P telle que P −1 AP (c’est-à-dire tP AP ) soit diagonale.
Théorème 5.3.8 (Expression de la matrice symétrique A à l’aide de ses vecteurs
propres et de ses valeurs propres)
Soit A une matrice symétrique réelle, et (X1 , . . . , Xn ) une base orthonormale de Rn constituée de
vecteurs propres de A, associés respectivement aux valeurs propres λ1 , . . . , λn . Alors :
A=
n
X
λi Xi tXi .
i=1

5
1 −3


Exemple 5.3.9 Trouver une b.o.n. de diagonalisation de A =  1
5 −3.
−3 −3 9

Algèbre – Chapitre 6
Formes quadratiques
Dans tout ce chapitre, on considère un entier n ∈ N, et l’espace vectoriel Rn , muni de sa structure
euclidienne canonique.
6.1
Définition
Nous avons déjà vu que tout produit scalaire définit une norme N par la formule N (x)2 = ϕ(x, x).
La notion de forme quadratique est une généralisation de cette notion de norme (ou plutôt du
carré de la norme), obtenu plus généralement à partir d’une forme bilinéaire quelconque, au lieu
de se restreindre à un produit scalaire :
Définition 6.1.1 Une application q : Rn → R est appelée forme quadratique s’il existe une forme
bilinéaire ϕ sur Rn telle que :
∀x ∈ Rn , q(x) = ϕ(x, x).
Proposition 6.1.2 Soit q une forme quadratique sur Rn . Alors pour tout x ∈ Rn et pour tout
λ ∈ R, q(λx) = λ2 q(x).
Définition 6.1.3 Une fonction polynomiale en les variables x1 , . . . , xn est une fonction de Rn
dans R, obtenue comme combinaison linéaire de monômes de la forme (x1 , . . . , xn ) 7→ xi11 · · · xinn ,
pour (i1 , . . . , in ) ∈ Nn . L’entier i1 + · · · + in est appelé degré de ce monôme.
Définition 6.1.4 Une fonction polynomiale homogène de degré d en les variables x1 , . . . , xn est
une fonction polynomiale obtenue comme combinaison de monômes ayant tous le même degré d.
Exemple 6.1.5 Une fonction polynomiale f homogène de degré 2 sur Rn est une fonction sur Rn
telle qu’il existe des coefficients λi,j , pour tout (i, j) ∈ [[1, n]]2 tels que i 6 j, tels que :
∀(x1 , . . . , xn ) ∈ R
n
f (x1 , . . . , xn ) =
X
16j6i6n
λi,j xi xj =
n X
i
X
xi xj .
i=1 j=1
Proposition 6.1.6 Soit q : Rn → R une application. Les propriétés suivantes sont équivalentes :
(i) q est une forme quadratique
40
Algèbre – Chapitre 6. Formes quadratiques
(ii) Pour tout base B de Rn , q est une application polynomiale homogène de degré 2 en les
coordonnées (x1 , . . . , xn ) de X dans la base B
(iii) Il existe une base B de Rn telle que q est une application polynomiale homogène de degré 2
en les coordonnées (x1 , . . . , xn ) de X dans la base B
En particulier, q est une forme quadratique si et seulement si q est une fonction polynomiale
homogène de degré 2 en les coordonnées de X dans la base canonique de Rn .
Exemple 6.1.7 Soit q définie sur R2 par :
∀(x, y) ∈ R2 , q(x, y) = x2 − 2y 2 + 4xy.
2
Soient ϕ!
1 et ϕ2 les deux
! formes bilinéaires sur R canoniquement associées respectivement à
1 1
1 2
et à
. Alors ϕ1 et ϕ2 sont deux formes bilinéaires telles que :
3 −2
2 −2
∀X = (x, y) ∈ R2 , q(X) = ϕ1 (X, X) = ϕ2 (X, X).
Cet exemple montre qu’on n’a pas unicité de la forme bilinéaire ϕ telle que Q(x) = ϕ(x, x).
6.2
Forme bilinéaire symétrique associée à une forme quadratique
On peut obtenir l’unicité si on rajoute la condition de symétrie :
Proposition 6.2.1 Soit q une forme quadratique sur Rn . Il existe une unique forme bilinéaire
symétrique ϕ telle que :
∀x ∈ R2 , q(x) = ϕ(x, x).
Pour montrer cette proposition, on utilise le lemme :
Lemme 6.2.2 Soit ψ une forme bilinéaire quelconque sur E. Alors
∀(x, y) ∈ E 2 , ψ(x + y, x + y) − ψ(x, x) − ψ(y, y) = ψ(x, y) + ψ(y, x).
Proposition 6.2.3 (Expression de q en fonction de la matrice de ϕ, et vice-versa)
Soit q une forme quadratique sur Rn . Alors :
• Soit ψ une forme bilinéaire quelconque associée à q, de matrice A = (ai,j )16i,j6n dans la base
canonique. Alors
∀X = (x1 , . . . , xn ) ∈ Rn , q(X) =
n X
n
X
ai,j xi xj =
i=1 j=1
X
ai,j xi xj .
16i,j6n
En particulier, si ψ est la forme bilinéaire symétrique associée à q, alors :
∀X = (x1 , . . . , xn ) ∈ Rn , q(X) =
n
X
i=1
ai,i x2i + 2
X
16i<j6n
ai,j xi xj .
6.3
CNS pour les caractères définis et positifs
41
• Soit (bi,j )16i6j6n des coefficients tels que :
∀X = (x1 , . . . , xn ) ∈ Rn , q(X) =
X
bi,j xi xj =
16i6j6n
n
X
bi,i x2i +
i=1
X
bi,j xi xj .
16i<j6n
Alors la matrice dans la base canonique de l’unique forme bilinéaire symétrique associée à q est
la matrice A = (ai,j )16i,j6n , où :
∀i ∈ [[1, n]], ai,i = bi,i
∀(i < j) ∈ [[1, n]]2 , ai,j = aj,i =
et
1
bi,j .
2
• De plus, dans la situation précédente, une matrice M = (mi,j )16i,j6n est la matrice dans la base
canonique d’une forme bilinéaire (quelconque) associée à q si et seulement si :
∀i ∈ [[1, n]], mi,i = bi,i
Exemples 6.2.4
sur R3 par :
∀(i < j) ∈ [[1, n]]2 , mi,j + mj,i = bi,j .
et
1. Trouver la matrice de la forme bilinéaire symétrique associée à q définie
∀(x, y, z) ∈ R3 q(x, y, z) = 2x2 − 2xy + 5xz − y 2 + z 2 .

1 2

2. Déterminer la forme quadratique canoniquement associée à la matrice A = 2 2
3 1

3

1.
3
Théorème 6.2.5 Soit q une application de Rn dans R. Pour tout x de Rn , on note X le vecteur
de ses coordonnées dans la base canonique. Les propriétés suivantes sont équivalentes :
(i) q est une forme quadratique
(ii) Il existe une matrice symétrique A telle que :
∀x ∈ Rn , q(x) = tXAX
(iii) Il existe un endomorphisme symétrique u de Rn tel que :
∀x ∈ Rn , q(x) = hu(x), xi = hx, u(x)i .
De plus, dans ce cas, u et A sont uniques, et la matrice dans la base canonique de u, ainsi que
la matrice dans la base canonique de l’unique application bilinéaire symétrique associée à q sont
toutes deux égales à A.
6.3
CNS pour les caractères définis et positifs
Proposition 6.3.1 Soit q une forme quadratique sur Rn , et u l’endomorphisme symétrique de
Rn associé à q. Soit (b1 , . . . , bn ) une b.o.n. constituée de vecteurs propres de u, et soit λ1 , . . . , λn
les valeurs propres (pas nécessairement distinctes) associées respectivement aux vecteurs propres
b1 , . . . , bn . Soit x un vecteur de Rn , et (x1 , . . . , xn ) ses coordonnées dans la base (b1 , . . . , bn ),
c’est-à-dire :
n
X
xi bi .
x=
i=1
Alors :
q(x) =
n
X
i=1
λk x2k .
42
Algèbre – Chapitre 6. Formes quadratiques
Proposition 6.3.2 Soit q une forme quadratique sur Rn , et u l’endomorphisme symétrique de
Rn canoniquement associé. Soit également ϕ la forme bilinéaire symétrique associée à q. Alors :
(i) Si les valeurs propres de u sont toutes positives ou nulles, alors ϕ est une forme positive,
donc :
∀x ∈ Rn , q(x) > 0.
(ii) Si les valeurs propres de u sont toutes strictement positives, alors ϕ est une forme définie
positive, donc :
∀x ∈ Rn \ {0}, q(x) > 0.
(iii) Si les valeurs propres de u sont toutes négatives ou nulles, alors ϕ est une forme négative,
donc :
∀x ∈ Rn , q(x) 6 0.
(iv) Si les valeurs propres de u sont toutes strictement négative, alors ϕ est une forme définie
négative, donc :
∀x ∈ Rn \ {0}, q(x) < 0.
(v) Si u admet 0 pour valeur propre, ϕ n’est pas une forme définie.
(vi) Si u admet deux valeurs propres de signe contraire (strictement), alors ϕ n’est ni définie, ni
positive, ni négative.
Évidemment ces conditions peuvent aussi être prises avec les valeurs propres de la matrice A
canoniquement associée à la forme bilinéaire symétrique associée à q, puisque dans ce cas, A est
aussi la matrice de u relativement à la base canonique.
Corollaire 6.3.3 (i) Soit q une forme quadratique sur Rn . Alors q est le carré d’une norme
euclidienne si et seulement si l’endomorphisme symétrique u associé à q n’admet que des
valeurs propres strictement positives.
(ii) Soit ϕ une forme bilinéaire symétrique sur Rn , et A sa matrice dans la base canonique.
Alors :
• ϕ est positive si et seulement si les valeurs propres de A sont positives ou nulles
• ϕ est un produit scalaire si et seulement si les valeurs propres de A sont strictement
positives.
Exemple 6.3.4 Les formes bilinéaires sur R2 canoniquement associées à
sont-elles positives ? sont-elles des produits scalaires ?
1 1
1 2
!
et à
1
2
!
2
1
Téléchargement