Formes bilinéaires symétriques

publicité
Formes bilinéaires symétriques
Licence-L2
Mathématiques
H. Lombardi(∗)
18 septembre 2008
Livres de référence
– Jacqueline Lelong-Ferrand, Jean-Marie Arnaudiès.
Cours de mathématiques 1 Algèbre. Dunod. Réédition 2003.
– Joseph Griffone. Algèbre linéaire. Cépaduès-Éditions. 1990.
– Jean-Pierre Escofier. Toute l’algèbre du 1er cycle. Dunod. 2002.
NB : ces notes de cours correspondent au programme 2007-2008.
Table des matières
C’est ici ! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Formes bilinéaires symétriques. Premiers pas.
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Rappels sur les applications linéaires, les formes linéaires . . . . .
Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . .
Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . .
Indépendance linéaire de vecteurs . . . . . . . . . . . . . . . . .
Indépendance linéaire de formes linéaires . . . . . . . . . . . . .
1.3 Forme bilinéaire sur le produit de deux espaces vectoriels . . . .
Expression matricielle d’une forme bilinéaire . . . . . . . . . . .
Formule de changement de base . . . . . . . . . . . . . . . . . .
Forme bilinéaire non dégénérée . . . . . . . . . . . . . . . . . .
1.4 Forme bilinéaire symétrique sur un espace vectoriel . . . . . . .
Expression matricielle sur une base . . . . . . . . . . . . . . . .
Orthogonalité, diagonalisation d’une forme bilinéaire symétrique
i
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
2
3
4
4
4
6
6
7
7
7
8
2 Espaces vectoriels euclidiens
2.1 Produit scalaire et norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Inégalité de Cauchy-Schwarz, norme, distance . . . . . . . . . . . . . . . . . . .
9
9
9
9
∗
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Equipe de Mathématiques, UMR CNRS 6623, UFR des Sciences et Techniques, Université de FrancheComté, 25030 BESANCON cedex, FRANCE, email: [email protected]
i
ii
Mathématiques. L2.
2.2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10
10
11
11
11
12
13
13
3 Applications linéaires/orthogonalité
3.1 Opérateur adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Endomorphismes symétriques d’un espace vectoriel euclidien . . .
Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . .
Diagonalisation sur une base orthonormée . . . . . . . . . . . . .
3.3 Formes bilinéaires symétriques sur un espace euclidien . . . . . .
Géométrie d’une application linéaire entre deux espaces euclidiens
3.4 Isométries d’un espace vectoriel euclidien . . . . . . . . . . . . .
Le groupe orthogonal . . . . . . . . . . . . . . . . . . . . . . . . .
Isométries en dimension 2 . . . . . . . . . . . . . . . . . . . . . .
Isométries en dimension 3 . . . . . . . . . . . . . . . . . . . . . .
Isométries en dimension finie arbitraire . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
15
15
16
17
17
18
18
18
20
21
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
23
24
24
25
25
25
26
27
27
27
28
28
28
29
29
.
.
.
.
.
.
.
.
31
31
32
32
33
33
34
34
36
2.3
Orthogonalité . . . . . . . . . . . . . . . . . .
Procédé d’orthogonalisation de Gram-Schmidt
Bases orthonormées et matrices orthogonales .
Dualité . . . . . . . . . . . . . . . . . . . . . .
Sous-espaces orthogonaux . . . . . . . . . . .
Orientation et volume . . . . . . . . . . . . .
Produit mixte et volume . . . . . . . . . . . .
Produit vectoriel (en dimension n > 3) . . . .
TABLE DES MATIÈRES
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Espaces hermitiens (complexes)
4.1 Produit scalaire hermitien . . . . . . . . . . . . . . . .
Définitions . . . . . . . . . . . . . . . . . . . . . . . . .
Procédé d’othogonalisation de Gram-Schmidt . . . . .
Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . .
Bases orthonormées et matrices unitaires . . . . . . . .
Dualité . . . . . . . . . . . . . . . . . . . . . . . . . . .
Orthogonalité . . . . . . . . . . . . . . . . . . . . . . .
4.2 Endomorphismes hermitiens . . . . . . . . . . . . . . .
Diagonalisation sur une base orthonormée . . . . . . .
4.3 Isométries linéaires (applications unitaires) . . . . . . .
Le groupe unitaire . . . . . . . . . . . . . . . . . . . .
Diagonalisation sur une base orthonormée . . . . . . .
4.4 Compléments . . . . . . . . . . . . . . . . . . . . . . .
Diagonalisation d’une forme hermitienne . . . . . . . .
Géométrie d’une application linéaire entre deux espaces
Diagonalisation des endomorphismes normaux . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
hermitiens
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Formes bilinéaires symétriques. Théorie générale.
5.1 Matrice de Gram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Orthogonalité, isotropie . . . . . . . . . . . . . . . . . . . . . . . . . .
Vecteurs et sous-espaces orthogonaux . . . . . . . . . . . . . . . . . . .
Noyau et rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Restriction d’une forme bilinéaire symétrique à un sous-espace vectoriel
Vecteurs et sous-espaces isotropes . . . . . . . . . . . . . . . . . . . . .
5.3 Base orthogonale, (( diagonalisation )) . . . . . . . . . . . . . . . . . . .
Base orthonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
TABLE DES MATIÈRES
iii
Cas des espaces complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Cas des espaces réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6 Formes quadratiques
6.1 Définitions, propriété caractéristique . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Réduction d’une forme quadratique . . . . . . . . . . . . . . . . . . . . . . . . .
La méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
39
40
40
7 Coniques et quadriques affines
7.1 Espaces réels affines . . . . . . . . . . . . . . . . . . . . . . .
Introduction au plan réel affine . . . . . . . . . . . . . . . .
Définition moderne d’un espace affine réel . . . . . . . . . .
Remarques diverses . . . . . . . . . . . . . . . . . . . . . . .
Changement de repère affine . . . . . . . . . . . . . . . . . .
Fonctions polynomiales sur un espace affine . . . . . . . . .
Polynômes de degré 6 2 sur une droite affine . . . . . . . . .
7.2 Les coniques . . . . . . . . . . . . . . . . . . . . . . . . . . .
Classification complète des polynômes de degré 6 2 . . . . .
Dans quelle mesure une courbe de degré 2 est-elle déterminée
Coniques dégénérées . . . . . . . . . . . . . . . . . . . . . .
7.3 Les quadriques . . . . . . . . . . . . . . . . . . . . . . . . .
L’herbier des quadriques non dégénérées . . . . . . . . . . .
Classification complète en degré 2 . . . . . . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
par son équation ?
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
43
43
43
44
45
45
46
46
47
47
48
48
50
50
52
8 Compléments de géométrie
8.1 La méthode des moindres carrés . . . . . . . . . . . . . .
8.2 Les isométries affines . . . . . . . . . . . . . . . . . . . .
8.3 Coniques . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ellipses, hyperboles et paraboles . . . . . . . . . . . . . .
Intersection avec une droite . . . . . . . . . . . . . . . .
Symétries d’une conique . . . . . . . . . . . . . . . . . .
Sections coniques . . . . . . . . . . . . . . . . . . . . . .
Points conjugés par rapport à une conique . . . . . . . .
Les deux formes quadratiques associées à une conique . .
8.4 Quadriques . . . . . . . . . . . . . . . . . . . . . . . . .
Les droites qui coupent trois droites de l’espace . . . . .
Intersection avec un plan . . . . . . . . . . . . . . . . . .
Points conjugués par rapport à une quadrique . . . . . .
Les deux formes quadratiques associées à une quadrique .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
53
53
53
54
54
56
57
57
58
59
60
60
60
60
60
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
Formes bilinéaires symétriques. Premiers pas.
Contexte
Nous étudions certains objets qui se présentent naturellement dans le cadre des espaces
vectoriels.
√
Ces espaces vectoriels seront des espaces vectoriels sur un corps K tel que Q, R, Q[ −1]
ou C.
Il seront presque toujours de dimension finie, mais quelques définitions et résultats n’utilisent
pas cette hypothèse.
L’histoire commence avec la géométrie euclidienne et le théorème de Pythagore, elle se
poursuit avec les géométries non euclidiennes, les séries de Fourier, la méthode des moindres
carrés en analyse numérique, et les espaces de Hilbert en analyse abstraite (étude des espaces de
fonctions, où chaque fonction est vue comme un simple point d’un espace de Hilbert, à définir
avec soin).
1.1
Introduction
Introduisons notre sujet avec un peu de géométrie et le théorème de Pythagore.
Rappelons tout d’abord un énoncé de ce théorème.
Théorème 1.1 Si ABC est un triangle rectangle en B alors le carré construit sur l’hypothénuse AC est la somme des carrés construits sur les cotés BA et BC.
Une preuve du théorème de Pythagore repose toujours sur un minimum de théorie des
parallèles. Cette théorie permet par exemple d’affirmer que si un quadrilatère a 3 angles droits,
alors le quatrième angle est droit aussi. Un autre présupposé est qu’une figure peut être déplacée
d’un endroit à un autre dans le plan.
La figure ci-dessous peut servir à prouver le théorème de Pythagore (( par puzzle )). Les
présupposés concernant la théorie des parallèles sont visualisés sur la figure par le papier quadrillé, qui n’existe que parce que la somme des angles d’un quadrilatère est égale à 4 angles
droits. L’aire mesurée en carreaux des deux petits carrés est respectivement de 16 et 121, donc
l’aire du grand est de 137. Sous forme algébrique : a2 + b2 + 2ab = (a + b)2 = c2 + 2ab.
Figure 1 – Pythagore par puzzle soustractif
2
Mathématiques. L2.
1 FORMES BILINÉAIRES SYMÉTRIQUES. PREMIERS PAS.
En fait il n’est pas besoin que les longueurs des petits cotés s’expriment par un nombre
entier d’unités pour que la démonstration fonctionne : on supprime le quarillage et on fait subir
aux morceaux 4, 5, 6, 7 les translations convenables.
Si maintenant on représente un plan euclidien par la méthode des coordonnées de Descartes,
laquelle est légitimée par la théorie des parallèles, on se place de fait dans un espace vectoriel
réel de dimension 2, on choisit un repère où les vecteurs de base sont orthogonaux et de même
longueur (prise comme unité de longueur), et la longueur du segment AB s’exprime au moyen
−→
des coordonnées (u, v) du vecteur AB sous la forme : AB 2 = u2 + v 2 .
−→
−−→
Maintenant l’orthogonalité des vecteurs AB et BC de coordonnées respectives (u, v) et
(x, y) s’exprime à l’aide de la réciproque du théorème de Pythagore :
(u + x)2 + (v + y)2 = (u2 + v 2 ) + (x2 + y 2 ),
i.e., ux + vy = 0.
−→ −−→
Ainsi apparaı̂t le produit scalaire de deux vecteurs AB et BC non nécessairement orthogonaux :
AC 2 − (AB 2 + AC 2 ) −→ −−→
= AB · BC = ux + vy.
2
C’est un polynôme du second degré en u, v, x, y, séparément linéaire en (u, v) et en (x, y), qui
permet de contrôler à la fois la longueur des segments :
−→ −→ −→
AB 2 = AB · AB = AB 2 ,
et l’orthogonalité des droites :
−→ −−→
(AB) ⊥ (BC) ⇐⇒ AB · BC = 0.
Naturellement l’histoire se mord la queue, et en prenant ce qui vient d’être démontré pour
des définitions, on peut (( démontrer le théorème de Pythagore par un simple calcul algébrique )) :
−→ −−→
AB · BC = 0 ⇐⇒ AB 2 + BC 2 = AC 2
−→ −→ −−→
puisque AC = AB + BC donne, par simple calcul algébrique,
−→2 −→2 −−→2
−→ −−→
AC = AB + BC + 2AB · BC.
Mais ne nous y trompons pas, le vrai théorème de Pythagore est ce qui fonde la définition
du produit scalaire.
1.2
Rappels sur les applications linéaires, les formes linéaires et le
calcul matriciel
Applications linéaires
Si E et F sont des K-espaces vectoriels, les applications K-linéaires de E dans F forment
un espace vectoriel que l’on note LK (E, F ), ou plus simplement L(E, F ) si le contexte est clair.
Si E et F sont de dimensions finies avec des bases E = (e1 , . . . , en ) et F = (f1 , . . . , fm ), une
application linéaire ϕ : E → F est caractérisée par sa matrice (aij )i∈J1..mK,j∈J1..nK = Mϕ ∈ Mm,n
définie par
X
(1)
ϕ(ej ) =
aij fi
i∈J1..mK
1.2 Rappels sur les applications linéaires, les formes linéaires . . .
3
(la i-ème colonne de la matrice représente l’image du i-ème vecteur de base dans l’espace de
départ, exprimée sur la base de l’espace d’arrivée).
Par ailleurs, l’ensemble Mm,n est un K-espace vectoriel dont une base est formée par les mn
matrices dont tous les coefficients sont nuls, sauf un, égal à 1.
Le corps K peut être vu comme un K-espace vectoriel de dimension 1, avec 1 = 1K comme
base canonique.
Du point de vue matriciel, les éléments de E et F , écrits sur les bases E et F, sont vus
comme des vecteurs colonnes (comme si c’était des éléments de L(K, E) et L(K, F )), et l’égalité
ϕ(x) = y admet la traduction matricielle suivante
ϕ(x) = y ⇐⇒ M X = Y
(X =E,E x, Y =F,F y, M =L(E,F ),E,F )ϕ
(2)
Supposons maintenant que E 0 soit une autre base de E et que la matrice de passage de E à E 0
soit la matrice inversible P ∈ Mn (K). Ses colonnes sont les vecteurs de E 0 exprimés sur la base
E. En d’autres termes P est la matrice de l’identité de E, avec la base E 0 au départ, et la base
E à l’arrivée :
P =L(E,E),E 0 ,E IdE
de sorte que pour x ∈ E, si X =E,E x et X 0 =E,E 0 x, on obtient X = P X 0 .
De même supposons que F 0 soit une autre base de F et que la matrice de passage de F à
0
F soit la matrice inversible Q ∈ Mn (K), de sorte que pour y ∈ F , si Y =F,F y et Y 0 =F,F 0 y,
on a Y = Q Y 0 .
Alors on obtient P X 0 = M Q Y 0 , ce qui donne avec M 0 = Q−1 M P :
M 0X 0 = Y 0
(X 0 =E,E 0 x, Y 0 =F,F 0 y, M 0 =L(E,F ),E 0 ,F 0 ϕ).
Formes linéaires
Un cas particulier important est l’espace des formes linéaires sur E, L(E, K), noté souvent
E , et appelé espace dual de E. Une base de E ? est la base duale de E, notée E ? = (e?1 , . . . , e?n ),
où e?i est la i-ème forme coordonnée par rapport à la base E :
X
e?i
xj ej = xi .
?
j
De sorte que la forme linéaire α : x 7→
ai xi s’écrit sur la base E ?
X
α=
ai e?i .
P
i
i
La notation (e?1 , . . . , e?n ) est tout à fait trompeuse dans la mesure où elle peut laisser croire que
e?i ne dépend que de ei . Or si par exemple on remplace e1 par e1 + e2 et si on garde e2 , . . . , en ,
c’est e?2 qui change et non pas e?1 . Par ailleurs si e1 est multiplié par a et si on garde e2 , . . . , en ,
e?1 est divisé par a (ceci s’appelle la contravariance).
Du point de vue matriciel, les éléments de E, écrits sur la base E, sont vus comme des
vecteurs colonnes, les formes linéaires éléments de E ? sont vues comme des vecteurs lignes, en
tant qu’éléments de L(E, K), où E est muni de la base E et K de la base 1.
Quant à α(x) pour α ∈ E ? et x ∈ E, il est obtenu au moyen du produit matriciel d’une
ligne et d’une colonne
LX = α(x) (X =E,E x, L =E ? ,E ? α, α(x) ∈ M1,1 ' K),
à condition d’identifier une matrice à une ligne et une colonne à son coefficient.
4
Mathématiques. L2.
1 FORMES BILINÉAIRES SYMÉTRIQUES. PREMIERS PAS.
Remarque. Une manière savante de réécrire les équations (1) qui définissent la matrice de ϕ sur
les bases E et F est la suivante :
aij = fi? (ϕ(ej )) (i ∈ J1..mK, j ∈ J1..nK).
Indépendance linéaire de vecteurs
Dans un espace vectoriel de dimension finie, si des vecteurs sont donnés par leurs coordonnées sur une base fixée, les questions de dépendance linéaire peuvent se traiter en pratique par
la méthode du pivot.
Le rang d’une matrice est la dimension de l’espace vectoriel engendré par ses colonnes.
C’est aussi le nombre maximum de vecteurs colonnes linéairement independants. C’est aussi la
dimension de l’espace vectoriel engendré par les lignes de la matrice. Cette égalité des dimensions
résulte par exemple de la métode du pivot qui ramène la matrice à une forme simple au moyen
de transformations élémentaires qui ne changent ni la dimension de l’espace engendré par les
colonnes, ni la dimension de l’espace engendré par les lignes.
Les questions de dépendance linéaire ont aussi une traduction de nature plus théorique en
termes de déterminants de matrices extraites (les mineurs de la matrice) : le rang d’une matrice
est égal à la taille du plus grand mineur non nul. En outre les relations de dépendance linéaire
entre colonnes (ou entre lignes) peuvent être fournies par des identités de Cramer convenables.
Lorsque l’espace vectoriel n’est pas de dimension finie, ou lorsque l’on a du mal à exprimer
les vecteurs sur une base fixée, les questions de dépendance linéaire sont beaucoup plus délicates.
Indépendance linéaire de formes linéaires
En ce qui concerne les forme linéaires, l’indépendance linéaire d’un système (α1 , . . . , αk ) a
deux significations intuitivement distinctes, dont on démontre l’équivalence.
La première est l’indépendance linéaire en tant qu’éléments de l’espace vectoriel dual E ? .
La deuxième correspond au point de vue des systèmes linéaires. Il s’agit de l’indépendance
logique des contraintes introduites sur un élément arbitraire x de E auquel on impose
α1 (x) = · · · = αk (x) = 0.
Aucune des contraintes n’est impliquée par les autres, autrement dit pour chaque j on peut
trouver un xj tel que αi (xj ) = 0 si i 6= j (i ∈ J1..kK), mais αj (xj ) 6= 0.
La formulation géométrique de ce deuxième point de vue est que l’intersection de k − 1 des
hyperplans αi (x) = 0 n’est jamais contenue dans le k-ème hyperplan.
1.3
Forme bilinéaire sur le produit de deux espaces vectoriels
Définition 1.2 E, F , G trois K-espaces vectoriels.
1. Une application β : E × F → G est dite bilinéaire lorsque
(a) pour tout x ∈ E l’application β(x, −) : F → G, y 7→ β(x, y) est linéaire, et
(b) pour tout y ∈ F l’application β(−, y) : E → G, x 7→ β(x, y) est linéaire.
On note BilK (E, F ; G) l’ensemble des applications bilinéaires de E × F dans G. Si le
contexte est suffisamment clair on note Bil(E, F ; G)
2. Une application bilinéaire β : E × F → K est appelée une forme bilinéaire sur E × F . On
note BilK (E, F ) (ou Bil(E, F )) l’ensemble des formes bilinéaires sur E × F .
1.3 Forme bilinéaire sur le produit de deux espaces vectoriels
5
Remarque. On dit aussi (( β(x, y) est séparément linéaire en x et y )) ou encore pour 1a) (( β est
linéaire à droite )) et pour 1b) (( β est linéaire à gauche )).
Exemples.
1. Exemple fondamental.
Comment voir qu’une application β : E × F → K, exprimée au moyen des coordonnées
sur des bases E et F de E et F est une forme bilinéaire ?
e 1 , . . . , xn ; y1 , . . . , ym ) doit être une expression polynomiale du type
Réponse : β(x, y) = β(x
X
e 1 , . . . , x n ; y1 , . . . , y m ) =
(3)
β(x, y) = β(x
bij xi yj
i∈J1..nK,j∈J1..mK
où les bij sont les éléments de K définis par bij = β(ei , fj ).
Par contre lorsque E et/ou F ne sont pas des K-espaces vectoriels de dimension finie, la
chose est plus délicate.
2. Un autre exemple fondamental.
La dualité naturelle entre E et E ? : pour x ∈ E et α ∈ E ? , β(x, α) = α(x).
On note parfois hx | αi cette forme bilinéaire canonique.
3. Le produit scalaire usuel sur Rn .
Avec x = (x1 , . . . , xn ) et y = (y1 , . . . , yn ), β(x, y) = x1 y1 + · · · + xn yn .
4. Le produit scalaire de la relativité restreinte sur R4 .
Avec e = (x, y, z, t) et e0 = (x0 , y 0 , z 0 , t0 ), β(e, e0 ) = xx0 + yy 0 + zz 0 − tt0 .
5. Notons C[0,1] = C([0, 1], R) l’espace des fonctions continues [0, 1] → R. Plusieurs formes
bilinéaires C[0,1] × C[0,1] → R sont couramment utilisées :
Z
1
λ : (f, g) 7→
f (t)g(t)dt
0
Z
1
λh : (f, g) 7→
h(t)f (t)g(t)dt
0
(f, g) 7→
Xn
i=1
wi f (xi )g(xi )
(h est une fonction continue par morceaux, les wi sont des réels et les xi des points de
l’intervalle [0, 1]).
c
Le point 2. dans le fait suivant est une variation sur le thème ab×c = ab .
Proposition 1.3
1. L’ensemble Bil(E, F ) est un sous K-espace vectoriel de l’espace de toutes les applications
E × F → K.
2. On a deux isomorphismes naturels
β 7→ βg
Bil(E, F ; G) → L(E, L(F, G))
et
β 7→ βd
Bil(E, F ; G) → L(F, L(E, G))
définis respectivement par βg (x)(y) = β(x, y) et βd (y)(x) = β(x, y), ou si l’on préfère
βg (x)(−) = β(x, −) et βd (y)(−) = β(−, y)
6
Mathématiques. L2.
1 FORMES BILINÉAIRES SYMÉTRIQUES. PREMIERS PAS.
3. Dans le cas des formes bilinéaires on obtient des isomorphismes linéaires naturels
L(E, F ? ) ' Bil(E, F ) ' L(F, E ? ).
Remarque. La notation Bil(E, F ; G) individualise bien E et F , tandis que l’expression
(( application bilinéaire de E × F dans G )) peut laisser croire que seule la structure d’espace
vectoriel de E × F intervient dans la définition, ce qui n’est pas le cas.
Expression matricielle d’une forme bilinéaire
Théorème 1.4 Considérons des K-espaces vectoriels E et F de dimension finie admettant des
bases E = (e1 , . . . , en ) et F = (f1 , . . . , fm ), et x ∈ E, y ∈ F :
1. Une forme bilinéaire
β : E × F → K est caractérisée par sa matrice sur les bases E et F
(bij )i∈J1..nK,j∈J1..mK = B ∈ Mn,m (K) définie par
β(ei , fj ) = bij .
2. Si X =E,E x et Y =F,F y sont les vecteurs colonnes représentant x et y sur E et F, on
obtient
β(x, y) = tXBY
(4)
3. L’application β 7→ B de Bil(E, F ) vers Mn,m (K) définie au point 1. est un isomorphisme
linéaire.
4. Le K-espace vectoriel Bil(E, F ) est de dimension mn. Une base est donnée par les formes
bilinéaires qui correspondent aux matrices ayant un seul coefficient non nul, égal à 1.
Nous noterons
B =Bil(E,F ),E,F β
pour dire que B est la matrice de la forme bilinéaire β sur les bases E et F.
Remarque. On peut vérifier que la matrice de β : E × F → K sur E et F est la même que la
matrice de βd : F → E ? sur F et E ? .
Quant à la matrice de βg : E → F ? sur E et F ? , c’est la transposée de la précédente, puisque
cela revient à inverser l’ordre des facteurs E et F .
Exemples. On donne les matrices des formes bilinéaires décrites précédemment.
Formule de changement de base
Supposons maintenant que E 0 soit une autre base de E avec la matrice de passage P ∈ Mn (K)
de E à E 0 . De même supposons que F 0 soit une autre base de F avec la matrice de passage
Q ∈ Mm (K) de F à F 0 .
Alors si X et Y (resp. X 0 et Y 0 ) représentent x et y sur les bases E et F (resp. sur les bases
0
E et F 0 ) on obtient
0
β(x, y) = tXB Y = t(P X 0 )B(QY 0 ) = tX ( tP B Q) Y 0 .
Cette égalité, vraie pour tous x, y caractérise la matrice de β sur les bases E 0 et F 0 .
Résumons.
Théorème 1.5 Si P est la matrice de passage de E à E 0 et Q est la matrice de passage de
F à F 0 , si β ∈ Bil(E, F ) admet la matrice B sur les bases E et F, alors ϕ admet la matrice
t
P B Q sur les bases E 0 et F 0 .
Remarque. À comparer à la formule de changement de base pour la matrice d’une application
K-linéaire.
1.4 Forme bilinéaire symétrique sur un espace vectoriel
7
Forme bilinéaire non dégénérée
Une forme bilinéaire β ∈ Bil(E, F ) est dite non dégénérée si sa matrice sur des bases de E
et F est inversible (ceci sous-entend que les deux espaces aient la même dimension finie). Vue
la formule de changement de bases, cela ne dépend pas des bases choisies.
Il revient au même de dire βd ou βg est un isomorphisme de K-espaces vectoriels.
Nous ferons une étude de cette notion dans le cas des formes bilinéaires symétriques.
1.4
Forme bilinéaire symétrique sur un espace vectoriel
Une forme bilinéaire β : E × E → K est dite symétrique si l’on a pour tous x, y ∈ E :
β(x, y) = β(y, x). Il revient au même de dire βg = βd .
On note BilsymK (E) (ou Bilsym(E) si le contexte est clair) le sous-ensemble de BilK (E, E)
formé par les formes bilinéaires symétriques.
Fait 1.6 BilsymK (E) est un sous-K-espace vectoriel de BilK (E).
Expression matricielle sur une base
Lemme 1.7 Considérons un K-espace vectoriel E de dimension finie admettant une base E =
(e1 , . . . , en ). Soit β ∈ Bil(E, E) une forme bilinéaire, de matrice B sur la base E. Alors β est
symétrique si et seulement si la matrice B est symétrique, ce qui signifie B = tB.
On note Sn (K) le sous-espace de Mn (K) formé par les matrices symétriques (i.e., B ∈ Sn (K)
. Une base de Sn (K)
si et seulement si B = tB). C’est un K-espace vectoriel de dimension n(n+1)
2
est formée par :
– les matrices nulles sauf un coefficient diagonal égal à 1,
– les matrices nulles sauf deux coefficients en positions symétriques ((i, j) et (j, i) avec
i 6= j) égaux à 1.
Les théorèmes 1.4 et 1.5 donnent donc dans le cas des formes bilinéaires symétriques les
résultats suivant.
Théorème 1.8 Considérons un K-espace vectoriel E de dimension finie admettant une base
E = (e1 , . . . , en ), et x, y ∈ E :
1. Une forme bilinéaire symétrique β : E × E → K est caractérisée par sa matrice sur la
base E
(bij )i,j∈J1..nK = B ∈ Sn (K)
définie par
β(ei , fj ) = bij .
2. Si X =E,E x et Y =E,E y sont les vecteurs colonnes représentant x et y sur E, on obtient
β(x, y) = tXB Y.
3. L’application β 7→ B de Bilsym(E) vers Sn (K) définie au point 1. est un isomorphisme
linéaire.
4. Le K-espace vectoriel Bilsym(E) est de dimension
n(n+1)
.
2
8
Mathématiques. L2.
1 FORMES BILINÉAIRES SYMÉTRIQUES. PREMIERS PAS.
5. Si E 0 est une autre base de E et si P est la matrice de passage de E à E 0 , la matrice B 0
de β sur E 0 est égale à
B 0 = tP BP.
En particulier det(B 0 ) = det(P )2 det(B).
Remarque. Comparer la dernière formule avec celle obtenue pour les changements de base
concernant la matrice d’une application K-linéaire de E dans E.
Orthogonalité, diagonalisation d’une forme bilinéaire symétrique
Ce paragraphe ne contient que des définitions.
Deux vecteurs x, y de l’espace vectoriel E sont dits orthogonaux pour la forme bilinéaire
symétrique β si β(x, y) = 0. On note aussi x ⊥β y, ou, si le contexte est clair, x ⊥ y.
Si E est de dimension finie, une base E de E est dite orthogonale pour β si elle est formée
de vecteurs deux à deux orthogonaux.
Il revient au même de dire que la matrice de β sur E est diagonale.
On dit encore diagonaliser la forme β pour (( déterminer une base orthogonale pour β )).
Du point de vue du calcul matriciel, si on connaı̂t la matrice B de β sur une première base,
diagonaliser β revient à déterminer une matrice inversible P telle que tP B P soit diagonale.
2
Produit scalaire (sur un espace réel), espaces euclidiens
2.1
Produit scalaire et norme
Produit scalaire
Définition 2.1 Une forme bilinéaire symétrique β sur un espace vectoriel réel E est dite positive (resp. négative) si pour tout x ∈ E, on a β(x, x) > 0 (resp. β(x, x) 6 0).
Elle est dite définie si β(x, x) = 0 implique x = 0.
Exemples. Une forme bilinéaire symétrique définie positive.
Une positive mais pas définie.
Une ni positive ni négative.
Fait 2.2 Soit β une forme bilinéaire symétrique sur un espace réel.
1. Si β(x, x) > 0 et β(y, y) < 0 alors x et y sont linéairement indépendants et le plan
Vect(x, y) contient un vecteur z 6= 0 tel que β(z, z) = 0 (on dit alors que z est isotrope
pour β).
2. Si β est définie elle est nécessairement définie positive ou définie négative.
Définition 2.3
1. On appelle produit scalaire sur un espace vectoriel réel E une forme bilinéaire symétrique
définie positive.
2. On appelle espace préhilbertien réel un couple (E, h•, •i) où E est espace vectoriel réel et
h•, •i : E × E → R, (x, y) 7→ hx, yi est un produit scalaire.
3. On appelle espace vectoriel euclidien un espace préhilbertien réel (E, h•, •i) lorsque E est
espace vectoriel réel de dimension finie.
4. On appelle espace affine euclidien un triplet (E , E, h•, •i) où (E , E) est un espace affine
réel de dimension finie et (E, h•, •i) est un espace vectoriel.
Dans la suite nous parlerons d’espace euclidien en sous-entendant en général espace vectoriel
euclidien.
Exemples.
Inégalité de Cauchy-Schwarz, norme, distance
Soit E espace vectoriel préhilbertien
Pour u ∈ E, on note kuk =
p
hu, ui.
Théorème 2.4 Pour x, y ∈ E, on a
|hx, yi| 6 kxk kyk
Il y a égalité si et seulement si x et y sont colinéaires.
(5)
10
Mathématiques. L2.
2 ESPACES VECTORIELS EUCLIDIENS
p
Théorème 2.5 L’application u 7→ kuk =
hu, ui est une norme sur E, c’est-à-dire une
+
application E → R satisfaisant les 3 conditions suivantes :
1. kuk = 0 ⇐⇒ u = 0 (u ∈ E).
2. ka uk = |a| kuk (a ∈ R, u ∈ E).
3. ku + vk 6 kuk + kvk (u, v ∈ E).
Si (E , E) est un espace affine euclidien, l’application
−−→
d : E × E → R+ , (M, N ) 7→ d(M, N ) = M N est une distance.
Remarque. Expressions sur une base orthonormée, pour l’inégalité de Cauchy-Schwarz, pour
l’inégalité triangulaire. Le résultat obtenu n’est pas si évident à priori. Cela semble encore
moins évident avec des produits scalaires sur des espaces de fonctions.
En sens contraire, on peut noter que les deux inégalités ne concernent finalement que deux
vecteurs, donc que tout se passe dans un simple plan euclidien. En outre, si x 6= 0 et si l’on
écrit y = ax + z avec hx, zi = 0, l’inégalité de Cauchy-Schwarz devient évidente par simple
calcul.
Remarque. Quelques relations
kx + yk2 = kxk2 + kyk2 + 2 hx, yi
kx + yk2 + kx − yk2 = 2 kxk2 + kyk2
kx + yk2 − kx − yk2 = 4 hx, yi
On reconnaı̂t le théorème de Pythagore : x ⊥ y ⇐⇒ kx + yk2 = kxk2 + kyk2 .
2.2
Orthogonalité
Fait 2.6 (systèmes libres et orthogonalité)
Soit E un espace préhilbertien réel.
1. Un système de vecteurs non nuls deux à deux orthogonaux dans E est libre.
2. Un système de vecteurs u1 , . . . , ur dans E est libre si et seulement si sa matrice de Gram
G = (hui , uj i)i,j∈J1..rK est inversible.
Procédé d’orthogonalisation de Gram-Schmidt
Un exemple géométrique dans un espace euclidien de dimension 3. Petits dessins.
L’algorithme général.
On obtient comme conséquence le théorème suivant.
Théorème 2.7 (Gram-Schmidt)
1. Si E = (e1 , . . . , en ) est une base d’un espace euclidien il existe une base orthogonale
F = (f1 , . . . , fn ) telle que pour chaque i ∈ J1..nK on ait
Vect(e1 , . . . , ei ) = Vect(f1 , . . . , fi ).
2.2 Orthogonalité
11
2. Formulation matricielle (un peu plus précise). Si B est une matrice symétrique réelle
pour une forme définie positive, il existe une unique matrice unitriangulaire supérieure T
telle que t T B T soit diagonale.
3. Soit B une matrice symétrique réelle. Les propriétés suivantes sont équivalentes :
(a) B est la matrice d’une forme définie positive.
(b) Il existe une matrice triangulaire inversible T telle que B = t T T .
(c) Il existe une matrice inversible P telle que B = tP P .
Bases orthonormées et matrices orthogonales
Théorème 2.8 Dans un espace euclidien de dimension n il existe des bases orthonormées.
L’expression du produit scalaire pour X =E,E u et Y =E,E v sur une base orthonormée E est
hu, vi = tX Y . La matrice de passage d’une base orthonormée à une autre est une matrice P
vérifiant tP P = In . Une telle matrice est dite orthogonale. Les matrices orthogonales forment
un sous-groupe de GLn (R). On le note On (R).
Remarque. Formulations équivalentes pour les marices orthogonales : si Ci et Cj sont deux
colonnes, alors tC i Cj = δij (symbole de Kronecker). Même caractérisation avec les vecteurs
lignes, ce qui peut a priori être un sujet d’étonnement. En fait cela correspond à une propriété
fondamentale et non triviale du calcul matriciel : AB = In ⇒ BA = In .
Dualité
Proposition 2.9 Sur un espace euclidien E toute forme linéaire α : E → R s’écrit de manière
unique sous forme x 7→ ha, xi. La bijection a 7→ α, E → E ? est un isomorphisme canonique en
présence du produit scalaire.
Remarque. En analyse on démontre le (( théorème de représentation de Riesz )) qui est une
extension remarquable de ce résultat au cas des espaces de Hilbert de dimension infinie, lesquels
constituent la généralisation la plus intéressante de la notion d’espace euclidien (notion naturelle
et élémentaire en dimension finie).
Sous-espaces orthogonaux
Théorème et définition 2.10 Soit E un espace euclidien de dimension n, avec une base
orthonormée E.
1. Pour tout sous-espace vectoriel F de E, on a E = F ⊕ F ⊥ .
La projection de E sur F parallèlement à F ⊥ s’appelle la projection orthogonale sur F .
On la notera πF .
2. Si u1 , . . . , ur est une base orthonormée de F , on a pour x ∈ E,
Xr
πF (x) =
hx, ui i ui .
i=1
3. Si M est une matrice ayant pour colonnes les ui exprimés sur E, la matrice de πF sur
cette base est M tM .
4. Une matrice P ∈ Mn (R) représente une projection orthogonale (sur la base E) si et
seulement si P = tP et P 2 = P .
12
Mathématiques. L2.
2 ESPACES VECTORIELS EUCLIDIENS
Démonstration. 4. La condition P 2 = P caractérise les matrices de projection.
La condition tP = P est nécessaire pour les projections orthogonales d’après le point 3.
Voyons qu’elle est suffisante. Les vecteurs du noyau de P sont ceux de l’image de In − P . Dire
que tout vecteur du noyau est orthogonal à tout vecteur de l’image revient donc à dire que
t
(In − P ) P = 0, ou encore P = tP P . Ceci résulte de P = tP et P 2 = P .
2
On va voir que ce théorème se généralise pour une bonne part à un sous espace de dimension
finie d’un espace préhilbertien complexe quelconque.
Théorème 2.11 Soit E un espace préhilbertien réel, F un sous-espace de dimension finie et
u1 , . . . , urPune base orthonormée de F . Notons πF : E → F l’application linéaire définie par
πF (x) = ri=1 hx, ui iui . Alors :
1. La restriction de πF à F est IdF .
2. F = Im πF , F ⊥ = Ker πF et E = F ⊕ F ⊥ .
3. Pour tout y ∈ F et tout x ∈ E, kx − yk > kx − πF (x)k, et en cas d’égalité y = πF (x).
4. πF ne dépend que de F (pas de la base orthonormée choisie), on l’appelle la projection
orthogonale de E sur F .
Exemple. Sommes trigonométriques et séries de Fourier.
Exercice 2.1 Si E est de dimension finie muni d’une base orthonormée E et si M est une matrice ayant pour colonnes des générateurs indépendants de F exprimés sur E, alors l’expression
de la projection πF , vue comme endomorphisme linéaire de E, sur E est donnée par :
M
2.3
t
MM
−1
t
M.
Orientation et volume
Le déterminant est une application de Mn (R) dans R qui vérifie notamment les deux propriétés fondamentales suivantes
e = AA
e = det(A) In .
det(AB) = det(A) det(B) et AA
Une matrice de changement de base étant inversible son déterminant a un signe + ou −.
La matrice du changement de base inverse est la matrice inverse et son déterminant a le même
signe.
Deux bases sont dites de même orientation si la matrice de passage de l’une à l’autre a un
déterminant > 0. Dans le cas contraire elles sont dites d’orientation opposée.
Il s’ensuit que dans une espace vectoriel réel de dimension n, les bases peuvent être rangées
en deux classes distinctes, toutes les bases d’une même classe ayant la même orientation, opposée
à l’orientation de toutes les bases de l’autre classe.
A priori, tant que l’on n’a pas fixé de base de référence, cela n’a pas de sens de dire que
l’une des deux orientations est positive et l’autre négative.
Orienter un espace vectoriel réel (de dimension finie) c’est préciser laquelle des deux classes
est considérée comme étant d’orientation positive.
2.3 Orientation et volume
13
Produit mixte et volume
On se situe dans un espace euclidien orienté E de dimension n.
Pour u1 , . . . , un ∈ E, le réel detE (u1 , . . . , un ), i.e. le déterminant de ce système par rapport à
une base orthonormée directe E, ne dépend pas de la base choisie. On l’appelle le produit mixte
des vecteurs u1 , . . . , un . On le note [u1 , . . . , un ].
Il s’agit de la généralisation en dimension n de la notion d’aire orientée d’un parallélogramme
en dimension 2, et de celle de volume orienté d’un parallèlépipède en dimension 3. En dimension
n on parle du parallélotope construit sur les vecteurs u1 , . . . , un .
Remarque. En dimension 2, le fait d’orienter les aires pour obtenir des formules additives uniformes est une idée de génie, à rapprocher de la formule de Chasles, qui supprime les cas de
figures par la simple vertu d’avoir remplacé la longueur des segments sur une droite (munie
d’une orientation) par une longueur algébrique (une longueur avec un signe) : AC = AB + BC,
quelle que soit la position respective des points A, B, C sur la droite.
Produit vectoriel (en dimension n > 3)
Fixons maintenant u1 , . . . , un−1 et considérons le produit mixte [u1 , . . . , un−1 , x] comme une
forme linéaire en x. Il existe un unique vecteur w qui représente cette forme linéaire au sens
que [u1 , . . . , un−1 , x] = hw, xi pour tout x.
On le note u1 ∧ · · · ∧ un−1 . On l’appelle le produit vectoriel de u1 , . . . , un−1 .
On a donc la propriété caractéristique
hu1 ∧ · · · ∧ un−1 , xi = [u1 , . . . , un−1 , x].
On a alors :
1. u1 ∧ · · · ∧ un−1 est orthogonal à chacun des ui ,
2. si les ui sont deux à deux orthogonaux et s’ils sont de norme 1, (u1 , . . . , un−1 , u1 ∧· · ·∧un−1 )
est une base orthonormée directe,
3. si les ui sont linéairement indépendants (u1 , . . . , un−1 , u1 ∧ · · · ∧ un−1 ) est une base directe,
4. l’application (u1 , . . . , un−1 ) 7→ u1 ∧ · · · ∧ un−1 est multilinéaire (i.e. séparément linéaire en
chacun des ui si on fixe les autres vecteurs) et alternée (elle s’annule si deux des vecteurs
sont égaux),
5. ku1 ∧ · · · ∧ un−1 k est le volume du parallèlotope construit sur u1 , . . . , un−1 ,
6. u1 ∧ · · · ∧ un−1 = 0 si et seulement si les vecteurs sont linéairement dépendants.
Par exemple en dimension 3, lorsque u1 et u2 sont non colinélaires, u1 ∧ u2 est le vecteur w
orthogonal au plan Vect(u1 , u2 ), de norme kwk égale à l’aire du parallélogramme construit sur
les vecteurs u1 et u2 , et orienté de façon à ce que la base u1 , u2 , w soit directe.
Expression du produit vectoriel sur une base orthonormée
Exemple en dimension 3 :
    

x1
x2
y1 z2 − z1 y2
 y1  ∧  y2  =  z1 x2 − x1 z2 
z1
z2
x1 y2 − y1 x2
En fait : on développe le déterminant
x1
y1
z1
x2
y2
z2
x y z
14
Mathématiques. L2.
selon la dernière colonne.
2 ESPACES VECTORIELS EUCLIDIENS
3
Applications linéaires et orthogonalité
Dans cette section (E, h•, •i) est un espace vectoriel euclidien de dimension n.
3.1
Opérateur adjoint
Proposition et définition 3.1 Pour tout endomorphisme (linéaire) ϕ : E → E il existe un
unique endomorphisme ϕ? qui vérifie
∀x, y ∈ E
hx, ϕ(y)i = hϕ? (x), yi
On l’appelle l’endomorphisme adjoint de ϕ.
Si F est la matrice de ϕ sur une base orthonormée E, tF est la matrice de ϕ? sur cette même
base.
Quelques propriétés immédiates :
1. (ϕ + ψ)? = ϕ? + ψ ? .
2. (ϕ? )? = ϕ.
3. (aϕ? ) = aϕ? .
4. (ϕ ◦ ψ)? = ψ ? ◦ ϕ? .
3.2
Endomorphismes symétriques d’un espace vectoriel euclidien
Dans cette section . . .
Premières propriétés
Définition 3.2
1. Un endomorphisme ϕ de E est dit symétrique si pour tous x, y ∈ E on a hϕ(x), yi =
hx, ϕ(y)i, autrement dit si ϕ = ϕ? . Si F est la matrice de ϕ sur une base orthonormée de
E, cela signifie que F = tF .
2. On note S (E) l’ensemble des endomorphismes symétriques de E : c’est un espace vectoriel réel de dimension n(n+1)
.
2
Une propriété cruciale
Lemme 3.3 Soient u et v des vecteurs propres d’un endomorphisme symétrique pour des valeurs propres réelles distinctes. Alors u ⊥ v.
Démonstration. λu hu, vi = hϕ(u), vi = hu, ϕ(v)i = λv hu, vi.
2
Les projections orthogonales
On a déjà vu (théorème 2.10 page 11) qu’une matrice de projection P est la matrice d’une
projection orthogonale si et seulement si P = tP . Autrement dit, en terme d’application linéaire,
une projection E → E est symétrique si et seulement si c’est une projection orthogonale.
On peut donner une nouvelle démonstration du fait qu’une projection symétrique est orthogonale en utilisant le lemme 3.3.
16
Mathématiques. L2.
3 APPLICATIONS LINÉAIRES/ORTHOGONALITÉ
Les symétries orthogonales
Si E = F ⊕ G la symétrie par rapport à F dans la direction G est l’application linéaire
définie par σ(x + y) = x − y si x ∈ F et y ∈ G.
On sait qu’une application linéaire σ : E → E est une symétrie si et seulement si σ 2 = IdE :
c’est la symétrie par rapport à K1 = Ker(σ − IdE ) dans la direction de I1 = Ker(σ + IdE ), qui
sont deux sous-espaces supplémentaires. En outre Ker(σ−IdE ) = Im(σ+IdE ) et Ker(σ+IdE ) =
Im(σ − IdE ).
Une symétrie est dite orthogonale lorsque les deux sous-espaces supplémentaires K1 et I1
sont orthogonaux.
Fait 3.4
1. Une symétrie est orthogonale si et seulement si c’est un endomorphisme symétrique.
2. Soit S la matrice d’une application linéaire σ par rapport à une base orthonormée. Alors
les propriétés suivantes sont équivalentes :
(a) σ est une symétrie orthogonale.
(b) S 2 = IdE et tS = S.
(c) La matrice S est symétrique et orthogonale, i.e. tS = S et S tS = IdE .
Démonstration. 1. La condition est nécessaire : par calcul direct en décomposant les vecteurs
sur la somme directe orthogonale. La condition est suffisante d’après le lemme 3.3.
2
Diagonalisation sur une base orthonormée
Lemme 3.5 Soit ϕ un endomorphisme symétrique et F un sous-espace de E stable par ϕ (i.e.
ϕ(F ) ⊆ F ), alors F = ϕ(F ) et F ⊥ est stable par ϕ.
Lemme 3.6 Soit M une matrice représentant un endomorphisme symétrique ϕ. Alors toute
valeur propre de M est réelle.
Démonstration. On calcule avec une base orthonormée. Si M X = λX avec λ ∈ C et X ∈
Mn,1 (C), on écrit
t
X M X = λ tX X
et puisque tM = M , on obtient tX M = tX tM = t(M X) = λ tX, d’où
t
X M X = λ tX X
P
En comparant les deux, puisque tX X = i xi xi est un réel > 0, on obtient λ = λ.
2
Théorème 3.7
1. Un endomorphisme de E est symétrique si et seulement si il est diagonalisable sur une
base orthonormée.
2. Une matrice M ∈ Mn (R) est symétrique si et seulement si il existe une matrice P ∈ On (R)
et une matrice diagonale réelle D ∈ Mn (R) telles que M = P −1 DP .
Démonstration. Résulte par récurrence des deux lemmes précédents.
2
Remarque. Pour faire fonctionner la preuve par récurrence, il suffit de savoir qu’au moins une
valeur propre est réelle. Ce résultat partiel peut être obtenu sans passer par les complexes en
considérant une valeur extrémale de la fonction x 7→ hϕ(x), xi restreinte à la sphère kxk = 1 (une
valeur extrémale existe parce que la sphère est compacte). Si la valeur extrémale est obtenue en
a alors l’hyperplan tangent à la sphère doit être confondu, au point a, avec l’hyperplan tangent
à la surface hϕ(x), xi = hϕ(a), ai. Un peu de calcul différentiel montre que ceci signifie que les
vecteurs a et ϕ(a) sont proportionnels.
3.3 Formes bilinéaires symétriques sur un espace euclidien
3.3
17
Formes bilinéaires symétriques sur un espace euclidien
Diagonalisation sur une base orthonomée
Théorème 3.8 Toute forme bilinéaire symétrique β sur E peut être diagonalisée sur une base
orthonormée, autrement dit il existe une base orthonormée E = (e1 , . . . , en ) telle que β(ei , ej ) =
0 si i 6= j.
Sous forme un peu plus abstraite : sur un espace réel de dimension finie, étant donnée deux
formes bilinéaires symétriques dont l’une est définie positive, il existe une base qui est orthogonale pour chacune des deux formes.
Démonstration. On considère la matrice de la forme dans une base orthonormée et on applique
2
le théorème 3.7 page ci-contre.
Exemples.
1) Les axes d’une ellipse qui n’est pas un cercle. Les axes d’une hyperbole.
2) Classification des ellipsoı̈des et hyperboloı̈des dans l’espace euclidien. Cas où il y a un axe de
révolution. Les axes d’un ellipsoı̈de. Les axes d’un hyperboloı̈de à une nappe ou à deux nappes.
Géométrie d’une application linéaire entre deux espaces euclidiens
On considère un isomorphisme linéaire ϕ : E → F entre deux espaces euclidiens. La structure métrique donnée par le produit scalaire n’est généralement pas conservée par ϕ. Cela
signifie que l’application linéaire ϕ déforme les objets.
Pour comprendre cette déformation, on considère l’image de la sphère unité S de E. C’est
un ellipsoı̈de S 0 de F , d’équation β 0 (x, x) = 1, où β 0 (x, y) = hϕ−1 (x), ϕ−1 (y)i (il s’agit bien
d’une forme définie positive sur F ).
On
une base orthonormée F 0 = (f10 , . . . , fn0 ) de F pour laquelle l’équation de S 0
P considère
0
2
0
est
i ai xi = 1 (ai > 0). Cela signifie que les fi sont orthogonaux pour β , donc que les
0 2
0
−1
0
ei = ϕ (fi ) sont orthogonaux pour
produit scalaire dans E, avec kei kE = ai . En prenant
P xle
√
0
i 2
bi = 1/ ai l’équation de S est i ( bi ) = 1 : les bi représentent donc les demi-longueurs des
axes de l’ellipsoı̈de, et si ei = e0i /ke0i k , on obtient bi = kϕ(ei )k. Les bi sont appelés les valeurs
singulières de ϕ.
On obtient ainsi la (( forme )) de toutes des (( déformations )) linéaires.
Théorème 3.9
1. Tout isomorphisme linéaire entre deux espaces euclidiens admet une matrice diagonale
positive pour deux bases orthonormées convenables de E et F . Les éléments diagonaux
rangés par ordre croissant, 0 < λ1 6 . . . 6 λn sont appelés les valeurs singulières de
l’application linéaire ϕ.
2. Si ϕ s’exprime par une matrice M sur des bases orthonormées E et F de E et F , les λ2i
sont les valeurs propres de tM M .
3. Toute matrice M ∈ GLn (R) s’écrit sous forme P DQ avec P, Q ∈ On (R) et D diagonale
positive. Les éléments diagonaux rangés par ordre croissant, 0 < λ1 6 . . . 6 λn sont
appelés les valeurs singulières de la matrice M .
18
Mathématiques. L2.
3 APPLICATIONS LINÉAIRES/ORTHOGONALITÉ
On peut aussi donner une preuve matricielle du résultat précédent. On note que tM M est
une matrice symétrique définie positive, qui peut donc s’écrire tQ D2 Q avec Q ∈ On (R) et D
diagonale positive. On pose alors P = M (DQ)−1 = M tQ D−1 et on calcule tP P :
P P = D−1 Q tM M tQ D−1 = D−1 Q tQ D2 Q tQ D−1 = D−1 D2 D−1 = In .
t
Remarque. Lorsque toutes les valeurs singulières sont égales, la déformation consiste en un
simple changement d’échelle (une homothétie composée avec une isométrie). Le coefficient de
déformation, au sens intuitif de la chose, est donc λn /λ1 . Ce coefficient joue un grand rôle en
analyse numérique matricielle.
3.4
Isométries d’un espace vectoriel euclidien
Le groupe orthogonal
Pour un espace euclidien E on est intéressé par les isomorphismes linéaires de E qui
conservent la distance euclidienne d(x, y) = kx − yk.
Théorème et définition 3.10 Soit E un espace euclidien de dimension n.
1. Pour une application linéaire ψ : E → E les propriétés suivantes sont équivalentes :
(a) ψ conserve la distance euclidienne.
(b) ψ conserve la norme.
(c) ψ conserve le produit scalaire.
(d) L’image d’une base orthonormée est une base orthonormée.
(e) L’image de toute base orthonormée est une base orthonormée.
(f ) La matrice de ψ sur une base orthonormée est orthogonale.
Une telle application linéaire est appelée une isométrie linéaire, ou encore un endomorphisme orthogonal.
2. Les isométries linéaires de E forment un sous-groupe du groupe linéaire, appelé le groupe
orthogonal de E, et noté O(E). Après choix d’une base orthonormée on peut identifier
O(E) et On (R).
3. Le déterminant d’une isométrie est égal à ±1. Les isométries de déterminant 1 sont
dites directes, les autres indirectes. Les isométries directes forment un sous-groupe noté
SO(E). Le groupe des matrices orthogonales directes est noté SOn (R). Après choix d’une
base orthonormée on peut identifier SO(E) et SOn (R).
Remarque. Isométries en dimension 1. Il y a seulement Id et −Id.
Isométries en dimension 2
Petits dessins.
Proposition et définition 3.11 (Rotations)
On considère un plan euclidien (vectoriel) orienté.
1. Une rotation est une isométrie qui admet une matrice Ma,b =
orthonormée directe, avec a2 + b2 = 1.
a
b
−b
a
sur une base
3.4 Isométries d’un espace vectoriel euclidien
19
2. La matrice reste la même par rapport à n’importe quelle base orthonormée
directe. Par
a b
rapport à une base orthonormée indirecte, la matrice devient
.
−b a
cos θ − sin θ
3. Il existe un réel θ, unique modulo 2π pour lequel Ma,b = Rθ =
. On dit
sin θ cos θ
que θ est l’angle de la rotation.
Changer l’orientation du plan, c’est-à-dire celle d’une base de référence, revient à remplacer θ par −θ.
4. Les rotations forment un groupe commutatif :
Ma,b Ma0 ,b0 = Maa0 −bb0 ,ab0 +a0 b = Ma0 ,b0 Ma,b ,
Ma,b Ma,−b = I2 .
L’application
θ 7→ la rotation dont la matrice est Rθ
est un homomorphisme du groupe (R, +) sur le groupe des rotations : Rθ Rθ0 = Rθ+θ0 .
5. La symétrie par rapport à 0, ou demi-tour, de matrice −I2 est l’unique rotation qui soit
une symétrie.
Fait 3.12 Sur un espace euclidien E orienté de dimension 2 on a les deux types d’isométries
linéaires suivants :
1. Les isométries directes, ce sont les rotations,
qui admettent sur une base orthonormée
cos θ − sin θ
directe une matrice Rθ =
.
sin θ cos θ
Le groupe SO(E) des isométries directes est isomorphe au groupe SO2 (R) des matrices
orthogonales directes.
2. Les isométries indirectes. Toute isométrie indirecte est une symétrie orthogonale (par
rapport
à une droite).
Sur une base orthonormée arbitraire elle admet une matrice du
cos θ
sin θ
type
: l’axe de la symétrie porte le vecteur (cos α, sin α), où 2α = θ.
sin θ − cos θ
Remarque. Toute matrice S ∈ M2 (R) de trace nulle et de déterminant −1 est la matrice de la
symétrie par rapport à Ker(S − I2 ) dans la direction de Ker(S + I2 ). Pour que la symétrie soit
orthogonale il faut qu’en plus la matrice soit symétrique.
Angles et angles orientés
Dans un espace préhilbertien réel arbitraire on peut attribuer un angle θ à deux vecteurs
non nuls u, v en posant cos θ = hu, vi / kuk kvk. Ceci définit un angle sur [0, π] en radians, ou
sur [0, 1/2], en tour. Il ne change pas si on change l’ordre des vecteurs. C’est ce qui ressemble
le plus aux angles des Grecs : les trois angles d’un triangle sont comptés en degrés, entre 0 et
180, ou en fraction de tour.
Dans un plan euclidien orienté, on peut définir l’angle d’une rotation, ou d’un couple de
vecteurs non nuls, ou d’un couple de demi-droites, comme un élément de R mod 2π. Nous
noterons ici A(u, v) l’angle des deux vecteurs non nuls (u, v), pris dans cet ordre.
Le gros avantage est la formule de Chasles : A(u, v) + A(v, w) = A(u, w), quelle que soit la
situation relative des trois vecteurs !
−→ −→
−→ −−→
S’il s’agit d’un plan affine euclidien, pour tout triangle ABC on a A(AB, AC)+A(CA, CB)+
−−→ −→
−→ −→
A(BC, BA) = A(AB, BA) = π.
20
Mathématiques. L2.
3 APPLICATIONS LINÉAIRES/ORTHOGONALITÉ
Dans un plan euclidien orienté on peut aussi définir l’angle d’un couple de droites comme
un nombre réel défini modulo π, à partir de l’angle de deux vecteurs dirigeant ces deux droites.
Ici aussi le grand avantage est la formule de Chasles.
On a alors dans un plan affine euclidien la jolie formule A((AB), (AC)) + A((CA), (CB)) +
A((BC), (BA)) = A((AB), (BA)) = 0, qui aurait beaucoup étonné les Grecs, qui pensaient
que la somme des angles d’un triangle faisait deux droits.
Petite note historique. En fait la nature d’un angle n’est pas un nombre, et les Grecs auraient
trouvé aberrante l’idée qu’un angle puisse être un nombre. Le nombre ne constitue que la mesure
de l’angle. D’ailleurs c’est un nombre un peu bizarre car il n’est défini que modulo 2π.
Les mathématiques abstraites reprennent un point de vue plus proche des Grecs et définissent un
angle comme une rotation vectorielle. Dans ce cadre l’angle d’une rotation c’est (( elle-même )) !
et il n’y a pas besoin d’orienter le plan. Quant à l’angle d’un couple (u, v) de vecteurs non
nuls, ce n’est pas (( lui-même )), mais la rotation qui transforme u/ kuk en v/ kvk. On a même
enseigné ceci à des lycéens dans des années étranges.
Il y avait alors deux fonctions cosinus. La fonction cosinus usuelle cos : R → [−1, +1], et la
fonction (( cosinus d’un angle dans un plan orienté )), que l’on notait Cos.
a −b
Ainsi on avait Cos(ρ) = a si la matrice de ρ est
, ou encore, puisque l’on identifiait
b
a
cos θ − sin θ
une rotation et une matrice de rotation, Cos
= cos θ.
sin θ cos θ
Il paraı̂t même que cela plaisait à certains élèves.
Isométries en dimension 3
Proposition et définition 3.13 (Rotations et antirotations)
On considère un espace euclidien orienté de dimension 3.
1. Une rotation ρ est une isométrie qui admet la valeur propre 1 avec multiplicité 1. Si u
est un vecteur propre correspondant de norme 1 (il définit l’unique droite propre ∆ = Ru
pour la valeur propre 1), le plan P = u⊥ est stable et la restriction de ρ à P est une
rotation.
2. Si l’espace est orienté, si on oriente la droite ∆ par u et si (u, v, w) est une base orthonormée directe la matrice de ρ est déterminée de manière unique, de la forme


1
0
0
 0 cos θ − sin θ 
0 sin θ cos θ
et on dit que ρ est une rotation d’axe ∆ (orienté) et d’angle θ.
3. Une antirotation ρ0 est une isométrie qui admet la valeur propre −1 avec multiplicité
1. Si u est un vecteur propre correspondant de norme 1 (il définit l’unique droite propre
∆ = Ru pour la valeur propre −1), le plan P = u⊥ est stable et la restriction de ρ à P
est une rotation.
Si l’espace est orienté, si on oriente la droite ∆ par u et si (u, v, w) est une base orthonormée directe la matrice de ρ est déterminée de manière unique, de la forme


−1
0
0
 0 cos θ − sin θ  θ 6≡ π mod 2π
0 sin θ cos θ
et on dit que ρ est une antirotation d’axe ∆ (orienté) et d’angle θ, ou encore une antirotation de plan Π (si Π = ∆⊥ ).
3.4 Isométries d’un espace vectoriel euclidien
21
Fait 3.14 Sur un espace euclidien E orienté de dimension 3 on a les types d’isométries linéaires suivants :
1. L’identité.
2. Les isométries directes distinctes de Id. Ce sont les rotations. Parmi celles-ci les symétries
orthogonales par rapport à une droite sont les rotations d’un demi tour.
Le groupe SO(E) des isométries directes est isomorphe au groupe SO3 (R) des matrices
orthogonales directes.
3. La symétrie par rapport à 0 de matrice −I3 .
4. Les isométries indirectes distinctes de la précédente. Ce sont les antirotations. Les antirotations d’angle nul sont les symétries orthogonales par rapport à des plans.
NB : On peut voir la symétrie par rapport à 0 comme une antirotation d’un demi-tour dans
n’importe quel plan.
Isométries en dimension finie arbitraire
Proposition 3.15 Soit ψ un endomorphisme orthogonal d’un espace euclidien E.
1. Si F est un sous-espace stable par ψ, alors F ⊥ également.
2. Les seules valeurs propres réelles sont ±1.
3. Considérons la matrice P de ψ sur une base orthonormée.
(a) Les valeurs propres complexes de P sont de module 1.
(b) Si X est un vecteur propre complexe de P pour la valeur propre non réelle λ =
cos θ + i sin θ (θ 6≡ 0 mod π), le vecteur W est vecteur propre pour la valeur propre λ.
(c) Le plan réel H engendré par les vecteurs X + X et i(X − X) est fixe par P .
(d) La restriction de ψ à H est une rotation d’angle ±θ.
Théorème 3.16 Soit ψ une isométrie d’un espace euclidien E.
L’espace E peut être décomposé en une somme directe orthogonale
M
E+1 ⊕ E−1 ⊕
Hi
i
où E+1 = Ker(ψ − IdE ), E−1 = Ker(ψ + IdE ) et chaque Hi est un plan vectoriel fixe par ψ, la
restriction de ψ à Hi étant une rotation d’angle θi 6≡ π mod 2π.
Corollaire 3.17
propre ±1.
1. En dimension impaire, il y a au moins un vecteur propre de valeur
2. L’isométrie est directe si et seulement si la dimension du sous-espace propre pour la valeur
propre −1 est paire.
4
Espaces hermitiens (complexes)
4.1
Produit scalaire hermitien
Sur l’espace vectoriel complexe V = Cn on peut définir une norme en posant
qP
2
kzk =
j |zj | pour z = (z1 , . . . , zn ).
En effet si zj = xj + iyj avec xj , yj ∈ R on trouve la norme euclidienne usuelle sur l’espace R2n .
P
P
Notons que j |zj |2 = j zj zj .
Nous allons donner un traitement général de ce type de norme sur un espace vectoriel
complexe, basé sur les propriétés algébriques de l’application (( produit scalaire ))
P
V × V → C définie par ((z1 , . . . , zn ), (t1 , . . . , tn )) 7→ j zj tj
Nous allons voir qu’en fait pour les espaces de dimension finie, il n’y a rien de plus que ce
que nous venons de dire, car tout espace hermitien admet une base orthonormée.
Définitions
Définition 4.1 Soit E un espace vectoriel complexe. Une application ϕ : E × E → C est
appelée un produit scalaire hermitien si les égalités suivantes sont vérifiées (pour z, z 0 , t, t0 ∈ E
et a ∈ C)
1. linéarité à droite :
– ϕ(z, t + t0 ) = ϕ(z, t) + ϕ(z, t0 )
– ϕ(z, at) = aϕ(z, t)
2. antilinéarité à gauche :
– ϕ(z + z 0 , t) = ϕ(z, t) + ϕ(z 0 , t)
– ϕ(az, t) = aϕ(z, t)
3. (( symétrie )) ϕ(z, t) = ϕ(t, z)
4. positivité : ϕ(z, z) ∈ R+
5. non dégénérescence : ϕ(z, z) = 0 ⇒ z = 0
On dit aussi forme hermitienne définie positive, conformément aux précisions suivantes.
Définition 4.2 Avec les notations de la définition précédente
6. On parle des forme sesquilinéaire quand les items 1. et 2. sont satisfaits.
7. Deux éléments z1 , z2 de E sont dit orthogonaux (pour la forme ϕ) si ϕ(z1 , z2 ) = 0. Un
élément orthogonal à lui même est dit isotrope.
8. On parle de forme hermitienne quand les items 1., 2. et 3. sont satisfaits.
9. Une forme hermitienne est dite positive lorsque ϕ(x, x) > 0 pour tout x
10. Une forme hermitienne est dite définie lorsque 0 est le seul vecteur isotrope.
La théorie des formes hermitiennes est l’équivalent complexe de la théorie des formes bilinéaires symétriques réelles.
Définition 4.3
1. On appelle espace préhilbertien complexe un couple (E, h•, •i) où E est espace vectoriel
complexe et h•, •i : E × E → R, (x, y) 7→ hx, yi est un produit scalaire hermitien.
2. On appelle espace hermitien un espace préhilbertien complexe (E, h•, •i) lorsque E est
espace vectoriel complexe de dimension finie.
24
Mathématiques. L2.
4 ESPACES HERMITIENS (COMPLEXES)
Dans la suite (E, h•, •i) est un espace vectoriel préhilbertien complexe
Procédé d’othogonalisation de Gram-Schmidt
Lemme 4.4 Un système de vecteurs non nuls deux à deux orthogonaux est libre.
On montre ensuite le procédé d’orthogonalisation de Gram-Schmidt. On reprend le calcul
qui avait été fait pour un espace euclidien.
On part de z1 , . . . , zn linéairement indépendants. On construit de proche en proche en système t1 , . . . , tn de vecteurs deux à deux orthogonaux qui engendrent le même espace. Plus
précisément
Vect(z1 , . . . , zk ) = Vect(t1 , . . . , tk ) pour chaque k ∈ J1..nK.
Comme corollaire, tout espace hermitien admet une base orthonormée.
Inégalité de Cauchy-Schwarz
p
Pour u ∈ E, on note kuk = hu, ui.
Théorème 4.5 Pour u, v ∈ E, on a
|hu, vi| 6 kuk kvk
(6)
Il y a égalité si et seulement si u et v sont colinéaires.
Démonstration. Si u et v sont colinéaires le résultat est immédiat.
Sinon, par le procédé d’orthogonalisation on peut supposer que u = ae et v = be + cf avec
kek = kf k = 1, he, f i = 0 et ac 6= 0.
Donc kuk2 kvk2 = |a|2 (|b|2 + |c|2 ) et |hu, vi|2 = |ab|2 = |a|2 |b|2 .
D’où l’inégalité (kuk kvk)2 > |hu, vi|2 , et l’inégalité est stricte car |a|2 |c|2 > 0.
2
p
Théorème 4.6 L’application u 7→ kuk =
hu, ui est une norme sur E, c’est-à-dire une
application E → R+ satisfaisant les 3 conditions suivantes :
1. kuk = 0 ⇐⇒ u = 0 (u ∈ E).
2. ka uk = |a| kuk (a ∈ C, u ∈ E).
3. ku + vk 6 kuk + kvk (u, v ∈ E).
L’application
d : E × E → R+ , (u, v) 7→ d(u, v) = ku − vk
est une distance.
Remarque. Expressions sur une base orthonormée, pour l’inégalité de Cauchy-Schwarz, pour
l’inégalité triangulaire. Le résultat obtenu n’est pas si évident à priori. Cela semble encore
moins évident avec des produits scalaires sur des espaces de fonctions.
Remarque. Quelques relations
kx + yk2 = kxk2 + kyk2 + 2Re(hx, yi)
kx + iyk2 = kxk2 + kyk2 + 2I(hx, yi)
kx + yk2 + kx − yk2 = 2 kxk2 + kyk2
kx + yk2 − kx − iyk2 = 2 hx, yi
4.1 Produit scalaire hermitien
25
On ne reconnaı̂t plus vraiment le théorème de Pythagore, ou plus exactement, l’implication ne
fonctionne plus que dans un sens :
kx + yk2 = kxk2 + kyk2 ⇐⇒ hx, yi . . . est un nombre imaginaire pur !.
Si x ⊥ y on a bien kx + yk2 = kxk2 + kyk2 , mais la réciproque est en défaut.
Bases orthonormées et matrices unitaires
Théorème 4.7 Dans un espace hermitien de dimension n il existe des bases orthonormées.
L’expression du produit scalaire pour X =E,E u et Y =E,E v sur une base orthonormée E est
hu, vi = tX Y . La matrice de passage d’une base orthonormée à une autre est une matrice
P vérifiant tP P = In . Une telle matrice est dite unitaire. Les matrices unitaires forment un
sous-groupe de GLn (C). On le note Un (C).
Remarque. Formulations équivalentes pour les marices orthogonales : si Ci et Cj sont deux
colonnes, alors t Ci Cj = δij (symbole de Kronecker). Même caractérisation avec les vecteurs
lignes.
Corollaire 4.8 (matrice et déterminant de Gram)
On considère un système de vecteurs u1 , . . . , ur dans E.
Sa matrice de Gram est G = (hui , uj i)i,j∈J1..rK et son déterminant de Gram est det G.
1. Le déterminant de Gram est toujours > 0.
2. Il est > 0 si et seulement si le système est libre.
Démonstration. Si u1 est une combinaison linéaire des autres ui la première ligne de G est (la
même) combinaison linéaire des autres lignes.
Si les ui sont linéairement indépendants, on les exprime au moyen d’une matrice P sur une
base orthonormée de l’espace qu’ils engendrent.
2
Alors le calcul donne G = tP P donc det G = |det P |2 . D’où le résultat.
Dualité
Proposition 4.9 Sur un espace hermitien E toute forme linéaire α : E → C s’écrit de manière
unique sous forme x 7→ ha, xi. La bijection a 7→ α, E → E ? est une application antilinéaire
canonique en présence du produit scalaire.
Remarque. En analyse on démontre le (( théorème de représentation de Riesz )) qui est une
extension remarquable de ce résultat au cas des espaces de Hilbert de dimension infinie, lesquels constituent la généralisation la plus intéressante de la notion d’espace hermitien (notion
naturelle et élémentaire en dimension finie).
Orthogonalité
Théorème et définition 4.10
On suppose E de dimension finie n, avec une base orthonormée E.
1. Pour tout sous-espace vectoriel F de E, on a E = F ⊕ F ⊥ .
La projection de E sur F parallèlement à F ⊥ s’appelle la projection orthogonale sur F .
On la notera πF .
26
Mathématiques. L2.
4 ESPACES HERMITIENS (COMPLEXES)
2. Si u1 , . . . , ur est une base orthonormée de F , on a pour x ∈ E,
Xr
πF (x) =
hx, ui iui .
i=1
3. Si M est une matrice ayant pour colonnes les ui exprimés sur E, la matrice de πF sur
cette base est M tM .
4. Une matrice P ∈ Mn (R) représente une projection orthogonale (sur la base E) si et
seulement si P = tP et P 2 = P .
Démonstration. 1. et 2. Grâce au procédé d’orthogonalisation, on complète la base orthonormée
de F en une base orthonormée de l’espace tout entier, et on fait le calcul.
3. est la traduction matricielle du point 2.
4. La condition P 2 = P caractérise les matrices de projection.
La condition tP = P est nécessaire pour les projections orthogonales d’après le point 3.
Voyons qu’elle est suffisante. Les vecteurs du noyau de P sont ceux de l’image de In − P . Dire
que tout vecteur du noyau est orthogonal à tout vecteur de l’image revient donc à dire que
t
(In − P ) P = 0, ou encore P = tP P . Ceci résulte de P = tP et P 2 = P .
2
On va voir que ce théorème se généralise pour une bonne part à un sous espace de dimension
finie d’un espace préhilbertien complexe quelconque.
Théorème 4.11 Soit F un sous-espace de dimension finie de E et u1 , . . . , ur une
Pr base orthonormée de F . Notons πF : E → F l’application linéaire définie par πF (x) = i=1 hx, ui iui .
Alors :
1. La restriction de πF à F est IdF .
2. F = Im πF , F ⊥ = Ker πF et E = F ⊕ F ⊥ .
3. Pour tout y ∈ F et tout x ∈ E, kx − yk > kx − πF (x)k, et en cas d’égalité y = πF (x).
4. πF ne dépend que de F (pas de la base orthonormée choisie), on l’appelle la projection
orthogonale de E sur F .
4.2
Endomorphismes hermitiens
(E, h•, •i) est un espace hermitien
Le premier item dans la définition suivante ne suppose pas que l’espace préhilbertien complexe est de dimension finie. Mais ensuite nous passons à la dimension finie.
Définition 4.12
1. Un endomorphisme ϕ de E est dit hermitien si pour tous x, y ∈ E on a hϕ(x), yi =
hx, ϕ(y)i. On dit aussi : ϕ est un opérateur hermitien.
2. Si H est la matrice de ϕ sur une base orthonormée de E, cela signifie que H = tH. On
dit alors que la matrice F est hermitienne.
3. On note H (E) l’ensemble des endomorphismes hermitiens de E : c’est un espace vectoriel réel de dimension n + n(n − 1) = n2 et Hn (C) ⊆ Mn (C) l’ensmble des matrices
hermitiennes.
4.3 Isométries linéaires (applications unitaires)
27
Diagonalisation sur une base orthonormée
Lemme 4.13 Soit ϕ un endomorphisme hermitien et F un sous-espace de E stable par ϕ (i.e.
ϕ(F ) ⊆ F ), alors F ⊥ est stable par ϕ.
Lemme 4.14 Toute valeur propre d’un endomorphisme hermitien ϕ est réelle.
Démonstration. Supposons ϕ(x) = ax et x 6= 0. Le calcul donne
a hx, xi = hax, xi = hϕ(x), xi = hx, ϕ(x)i = hx, axi = a hx, xi .
D’où le résultat puisque kxk > 0.
2
Théorème 4.15
1. Un endomorphisme de E est hermitien si et seulement si il est diagonalisable sur une base orthonormée avec toutes ses valeurs propres réelles.
2. Une matrice M ∈ Mn (C) est hermitienne si et seulement si il existe une matrice P ∈
Un (C) et une matrice diagonale réelle D ∈ Mn (R) telles que M = P −1 DP .
Démonstration. Résulte par récurrence des deux lemmes précédents.
4.3
2
Isométries linéaires (applications unitaires)
(E, h•, •i) est un espace hermitien de dimension n
Le groupe unitaire
Pour un espace hermitien E on est intéressé par les isomorphismes linéaires de E qui
conservent la distance hermitienne d(x, y) = kx − yk.
Théorème et définition 4.16
1. Pour une application linéaire ψ : E → E les propriétés suivantes sont équivalentes :
(a) ψ conserve la distance hermitienne.
(b) ψ conserve le produit scalaire hermitien.
(c) ψ conserve la norme.
(d) L’image d’une base orthonormée est une base orthonormée.
(e) L’image de toute base orthonormée est une base orthonormée.
(f ) La matrice de ψ sur une base orthonormée est unitaire.
Une telle application linéaire est appelée une isométrie linéaire, ou un opérateur unitaire
ou encore un endomorphisme unitaire.
2. Les isométries linéaires de E forment un sous-groupe du groupe linéaire, appelé le groupe
unitaire de E, et noté U(E). Après choix d’une base orthonormée on peut identifier U(E)
et Un (C).
3. Le déterminant δ d’une isométrie a pour module 1. Les isométries de déterminant 1
forment un sous-groupe noté SU(E). Le groupe des matrices unitaires de déterminant 1
est noté SUn (C). Après choix d’une base orthonormée on peut identifier SU(E) et SUn (C).
28
Mathématiques. L2.
4 ESPACES HERMITIENS (COMPLEXES)
Diagonalisation sur une base orthonormée
Lemme 4.17 Soit ϕ un endomorphisme unitaire et F un sous-espace de E stable par ϕ (i.e.
ϕ(F ) ⊆ F ), alors ϕ(F ) = F et F ⊥ est stable par ϕ.
Lemme 4.18 Toute valeur propre d’un endomorphisme unitaire ϕ est de module 1.
Démonstration. Supposons ϕ(x) = ax et x 6= 0. Le calcul donne
aa hx, xi = hax, axi = hϕ(x), ϕ(x)i = hx, xi .
D’où le résultat puisque kxk > 0.
2
Théorème 4.19 Notons U = U1 (C) ⊆ C le groupe multiplicatif des complexes de module 1.
1. Un endomorphisme de E est unitaire si et seulement si il est diagonalisable sur une base
orthonormée avec ses valeurs propres toutes de module 1.
2. Une matrice M ∈ Mn (C) est unitaire si et seulement si il existe une matrice P ∈ Un (C)
et une matrice diagonale D ∈ Mn (U ) telles que M = P −1 DP .
Démonstration. Résulte par récurrence des deux lemmes précédents.
4.4
2
Compléments
Diagonalisation d’une forme hermitienne
On se rappelle la définition d’une forme hermitienne donnée au paragraphe 4.1.
On rappelle que l’on note Hn (C) l’ensemble des matrices hermitiennes de Mn (C), i.e. les
matrices vérifiant tB = B.
Sur un espace vectoriel complexe de dimension finie, une forme hermitienne β s’exprime
comme suit.
Lemme 4.20 Soit F une base arbitraire d’un espace vectoriel complexe F de dimension finie.
1. Une forme hermitienne β : F × F → C est caractérisée par sa matrice sur la base F
(bij )i,j∈J1..nK = B ∈ Hn (C)
définie par
β(ei , fj ) = bij ,
2. Si X =F,F x et Y =F,F y sont les vecteurs colonnes représentant x et y sur F, on obtient
β(x, y) = tXB Y.
3. Inversement toute matrice hermitienne définit une forme hermitienne sur F via la formule
précédente.
4. Si F 0 est une autre base de F et si P est la matrice de passage de F à F 0 , la matrice B 0
de β sur F 0 est égale à
B 0 = tP BP.
Fn particulier det(B 0 ) = |det(P )|2 det(B).
Théorème 4.21 Toute forme hermitienne β sur l’espace hermitien E peut être diagonalisée
sur une base orthonormée, autrement dit il existe une base orthonormée E = (e1 , . . . , en ) telle
que β(ei , ej ) = 0 si i 6= j.
Démonstration. On considère la matrice de la forme dans une base orthonormée et on applique
le théorème 3.7 page 16.
2
4.4 Compléments
29
Géométrie d’une application linéaire entre deux espaces hermitiens
On considère un isomorphisme linéaire ϕ : E → F entre deux espaces hermitiens. La
structure métrique donnée par le produit scalaire n’est généralement pas conservée par ϕ. Cela
signifie que l’application linéaire ϕ déforme les objets.
Pour comprendre cette déformation, on considère l’image de la sphère unité S de E. C’est
un ellipsoı̈de S 0 de F , d’équation β 0 (x, x) = 1, où β 0 (x, y) = hϕ−1 (x), ϕ−1 (y)i (il s’agit bien
d’une forme hermitienne définie positive sur F ).
considère une base orthogonale F 0 = (f10 , . . . , fn0 ) de F pour laquelle l’équation de S 0 est
P On
−1
0
0
0
0
2
i xi = 1. Cela signifie que les fi sont orthogonaux pour β , donc que les ei = ϕ (fi ) sont
orthogonaux pour le produit scalaire dans E.
On obtient ainsi la (( forme )) de toutes des (( déformations )) linéaires.
Théorème 4.22
1. Tout isomorphisme linéaire entre deux espaces hermitiens admet une matrice diagonale
positive pour deux bases orthonormées convenables de E et F . Les éléments diagonaux
rangés par ordre croissant, 0 < λ1 6 . . . 6 λn sont appelés les valeurs singulières de
l’application linéaire ϕ.
2. Si ϕ s’exprime par une matrice M sur des bases orthonormées E et F de E et F , les λ2i
sont les valeurs propres de tM M .
3. Toute matrice M ∈ GLn (C) s’écrit sous forme P DQ avec P, Q ∈ Un (C) et D diagonale
réelle positive. Les éléments diagonaux rangés par ordre croissant, 0 < λ1 6 . . . 6 λn
sont appelés les valeurs singulières de la matrice M .
Diagonalisation des endomorphismes normaux
La diagonalisation sur une base orthonormée d’un opérateur hermitien ou unitaire ϕ a été
démontrée au moyen de la propriété suivante : le sous-espace orthogonal d’un sous-espace stable
par ϕ est lui-même stable par ϕ.
En effet, on considère un vecteur propre v, le sous-espace orthogonal v ⊥ est un hyperplan
stable par ϕ, et on termine par récurrence.
On est ainsi amené à étudier les opérateurs linéaires qui vérifient cette propriété. On les
appelle les endomorphisme normaux.
Si M est la matrice d’un tel opérateur sur une base orthonormée, elle doit vérifier l’égalité
t
M M = M tM . En effet, on doit pouvoir écrire M = U −1 DU avec D diagonale et U ∈ Un (C)
(i.e. tU U = In ), et tM M = U −1 DDU = U −1 DDU = M tM .
Inversement si tM M = M tM . . .
5
5.1
Formes bilinéaires symétriques. Théorie générale.
Matrice de Gram
Contrairement à ce qui se passe avec les applications linéaires, on peut définir une matrice
pour une forme bilinéaire relativement à un système de vecteurs A = (a1 , . . . , ak ) qui n’est pas
nécessairement une base de E : c’est la matrice de Gram donnée par
GRAMβ (A) = β(ai , aj )i,j∈J1..kK ∈ Sk (K).
Remarque. Comme cas particulier, si E est de dimension finie, la matrice de β sur une base E
n’est autre que GRAMβ (E).
L’intérêt des matrices de Gram est particulièrement évident dans le cas des espaces qui sont
de dimension infinie, ou plus généralement des espaces qui n’ont pas de base finie connue. Si
la forme β est suffisamment explicite, on a alors accès à des informations sur le système de
vecteurs A qui seraient difficiles à atteindre autrement. Par exemple :
Proposition 5.1 Si la matrice de Gram G d’un système (a1 , . . . , ak ) par rapport à une forme
bilinéaire symétrique β est régulière (i.e. inversible), les vecteurs ai sont linéairement indépendants.
Démonstration. Supposons que
Pk
i=1
xi ai = 0, le calcul montre que

  
x1
0
.
.
G  ..  =  ..  .
0
xk
Puisque G est régulière, les xi sont tous nuls.
2
Remarque. Nous verrons que la proposition précédente admet une réciproque dans le cas d’un
produit scalaire dans un espace réel.
Dans le cas d’un espace de dimension finie, le fait suivant généralise la formule de changement
de base.
Fait 5.2 Si le système de vecteurs A = (a1 , . . . , ak ) s’exprime sur la base E = (e1 , . . . , en ) sous
la forme d’une matrice Q ∈ Mn,k (le j-ème vecteur colonne de Q représente le vecteur aj sur
la base E), et si B est la matrice de β sur E, alors :
GRAMβ (a1 , . . . , ak ) = tQB Q.
Remarque. Le calcul qui établit le fait précédent n’a pas eu besoin de supposer que E était une
base de E. Il suffit que l’on puisse exprimer le système A linéairement en fonction du système
E pour que les deux matrices de Gram, GRAMβ (a1 , . . . , ak ) et B = GRAMβ (e1 , . . . , en ), soient
reliées par la formule précédente.
Le déterminant de la matrice de Gram est appelé le déterminant de Gram du système
(a1 , . . . , ak ) par rapport à β. On le note
Gramβ (a1 , . . . , ak ) = det(GRAMβ (a1 , . . . , ak )).
Mathématiques. L2.
5 FORMES BILINÉAIRES SYMÉTRIQUES. THÉORIE
GÉNÉRALE.
32
5.2
Orthogonalité, isotropie
Vecteurs et sous-espaces orthogonaux
Étant donnés un K-espace vectoriel E et une forme bilinéaire symétrique β : E × E → K,
deux éléments x et y de E sont dit orthogonaux (par rapport à β) si β(x, y) = 0.
On note ceci x ⊥β y, ou, plus simplement si le contexte est clair x ⊥ y. Puisque la forme
bilinéaire est symétrique, la relation d’orthogonalité est elle-même une relation symétrique.
Un vecteur x est dit isotrope (pour β) s’il est orthogonal à lui même, c’est-à-dire si β(x, x) =
0. Un corollaire de la proposition 5.1 est la propriété suivante.
Proposition 5.3 Une forme bilinéaire symétrique étant fixée, une famille finie de vecteurs non
isotropes deux à deux orthogonaux est libre.
Démonstration. En effet la matrice de Gram de ce système est une matrice diagonale, avec des
éléments non nuls sur la diagonale, donc elle est inversible.
2
Exemples.
Si A est une partie arbitraire de E on note
A⊥ = { x ∈ E | ∀y ∈ A, x ⊥ y }
(éventuellement on utilisera la notation A⊥β ).
Proposition 5.4 Pour toute partie A de E la partie A⊥ orthogonale de A est un sous-K-espace
vectoriel de E. En outre pour deux sous-espaces F et G de E on a :
1. F ⊆ G ⇒ G⊥ ⊆ F ⊥ .
2. (F + G)⊥ = F ⊥ ∩ G⊥ .
3. F ⊥ + G⊥ ⊆ (F ∩ G)⊥ .
⊥
⊥ ⊥
4. F ⊆ F ⊥ et F ⊥ = F ⊥
.
En dimension finie, on apporte des précisions importantes.
Proposition 5.5 Si F est un sous-espace d’un espace de dimension finie E et β une forme
bilinéaire symétrique sur E, on a :
1. dim F + dim F ⊥ > dim E.
2. E = F ⊕ F ⊥ ⇐⇒ F ∩ F ⊥ = {0}.
Démonstration. 1. Posons m = dim F et soit P ∈ Mm,n (K) une matrice ayant pour vecteurs
lignes une base de F (écrits sur E). Si X =E x alors x ∈ F ⊥ si et seulement si F B X = 0.
Puisque F B est une matrice de Mm,n (K), son noyau est de dimension > n − m.
2. Résulte de 1.
2
5.2 Orthogonalité, isotropie
33
Noyau et rang
On appelle noyau d’une forme bilinéaire symétrique β sur un espace E le sous-espace vectoriel E ⊥ , on le note Ker β. C’est donc l’ensemble des vecteurs orthogonaux à tous les vecteurs
de E.
Proposition 5.6 On suppose que E est de dimension finie n avec une base E. Si B est la
matrice de β sur E, un vecteur x représenté par le vecteur colonne X sur E est dans Ker β si
et seulement si BX = 0.
Démonstration. Le vecteur colonne X représente un vecteur de Ker β si et seulement si tY BX =
0 pour tout Y . Ceci équivaut à BX = 0.
2
Remarque. La vraie raison de la proposition 5.6 est que Ker β = Ker βd où βd : E → E ? est
l’application K-linéaire associée à β.
La forme β est dite non dégénérée si son noyau est nul, elle est dite dégénérée dans le cas
contraire.
On appelle rang de la forme β le rang d’une matrice B qui représente β sur une base E.
Ce rang est bien défini (indépendant du choix de la base E) : c’est ce qui découle de la formule de changement de base. Cela découle également de la formule suivante, justifiée par la
proposition 5.6 :
rang de β + dim Ker(β) = dim E.
Théorème 5.7 Soit β une forme bilinéaire symétrique non dégénérée sur un espace de dimension finie E. Alors pour tous sous-espaces F et G de E on a :
1. dim F + dim F ⊥ = dim E.
⊥
2. F ⊥ = F
3. (F + G)⊥ = F ⊥ ∩ G⊥ .
4. F ⊥ + G⊥ = (F ∩ G)⊥ .
En particulier l’application F 7→ F ⊥ établit une bijection décroissante de l’ensemble des sousespaces vectoriels de E dans lui-même.
Démonstration. 1. On reprend la démonstration de la proposition 5.5. Posons m = dim F et
soit P ∈ Mm,n (K) une matrice ayant pour vecteurs lignes une base de F (écrits sur E). Si
X =E x alors x ∈ F ⊥ si et seulement si F B X = 0. Puisque B est régulière, la matrice F B a
même rang m que P , son noyau est de dimension n − m.
2. Résulte de 1. et de l’inclusion F ⊆ (F ⊥ )⊥ .
3. Déjà vu pour une forme bilinéaire symétrique arbitraire.
4. Résulte de 2. et 3.
2
Restriction d’une forme bilinéaire symétrique à un sous-espace vectoriel
Dans le cas d’un endomorphisme ϕ d’un espace vectoriel, on ne peut pas en général restreindre ϕ en un endomorphisme d’un sous-espace F , parce que ϕ(F ) n’est pas en général inclus
dans F .
La situation est différente pour les formes bilinéaires symétriques : on peut toujours restreindre une forme β définie sur E à un sous-espace F . On note β|F la restriction de β à F :
β|F (x, y) = β(x, y) pour x, y ∈ F .
Si F est de dimension finie la matrice de β sur une base F de F est simplement la matrice
de Gram de la forme β pour le système F.
Mathématiques. L2.
34
5 FORMES BILINÉAIRES SYMÉTRIQUES. THÉORIE
GÉNÉRALE.
Vecteurs et sous-espaces isotropes
Soit β une forme bilinéaire symétrique sur un K-espace vectoriel E.
Un sous-espace vectoriel F de E est dit isotrope (pour β) si la restriction de β à F est
dégénérée.
Le sous-espace est dit totalement isotrope si la restriction de β à F est nulle.
Pour un sous-espace de dimension 1 les deux notions coı̈ncident et on retrouve la notion de
vecteur isotrope.
Exemples. Vecteurs isotropes pour la forme bilinéaire symétrique x1 y1 − 2x2 y2 sur E = R2 .
Vecteurs isotropes pour la forme bilinéaire symétrique x1 y1 + x2 y2 − x3 y3 sur E = R3 .
Vecteurs isotropes pour la forme bilinéaire symétrique x1 y1 − 2x2 y2 sur E = Q2 .
Vecteurs isotropes pour la forme bilinéaire symétrique x1 y1 + x2 y2 sur E = C2 .
Sous-espaces isotropes et totalement isotropes pour la forme bilinéaire symétrique x1 y1 +x2 y2 −
x3 y3 − x4 y4 sur E = R4 .
Théorème 5.8 Soit E un K-espace vectoriel de dimension finie et β une forme bilinéaire
symétrique sur E. Soit F un sous-espace vectoriel de E. Alors E = F ⊕ F ⊥ si et seulement si
F est non isotrope.
Remarque. Dans un tel cas, si on dispose de bases de F et F ⊥ et que les matrices de β restreinte
à F et F ⊥ sur ces bases sont B1et B2 , la matrice de β sur la base correspondante de E est la
B1 0
matrice (( diagonale par blocs ))
.
0 B2
5.3
Base orthogonale, (( diagonalisation ))
Le contexte est toujours le même : un K-espace vectoriel E de dimension n avec une base
E, une forme bilinéaire symétrique β sur E, avec B la matrice de β sur E.
Une base E 0 de E est dite β-orthogonale si ses éléments sont deux à deux orthogonaux.
Fait 5.9 Il revient au même de dire que la matrice de β sur E 0 est diagonale. Du point de vue
matriciel, trouver une base orthogonale E 0 c’est déterminer une matrice de passage P ∈ GLn (K)
telle que la matrice tP B P soit diagonale.
Cette diagonalisation d’une forme bilinéaire symétrique est beaucoup plus facile que la
diagonalisation d’un endomorphisme ϕ (qui se fait avec la formule de changement de base
P −1 M P ). Cette dernière n’est d’ailleurs pas toujours possible. Par contre :
Théorème 5.10 Toute forme bilinéaire symétrique sur un espace de dimension finie possède
une base orthogonale. Plus précisément une forme bilinéaire symétrique arbitraire β admet une
matrice du type
D
0
0
0
où D ∈ Sr (K) est une matrice diagonale inversible (i.e., ses coefficients diagonaux sont non
nuls) et r est le rang de β.
Notons que la deuxième affirmation du théorème est une conséquence immédiate de la première.
Nous commençons par un lemme.
5.3 Base orthogonale, (( diagonalisation ))
35
Lemme 5.11 (plan hyperbolique)
Soit E un espace vectoriel
de dimension 2 et β une forme bilinéaire symétrique qui admet une
0 b
matrice du type
avec b 6= 0. Autrement dit le premier vecteur de base est isotrope et la
b c
forme est non dégénérée.
0 1
Alors il existe une base de E pour laquelle la matrice de β est
et une autre base pour
1 0
1 0
laquelle la matrice de β est
.
0 −1
Dans un tel cas on dit que (E, β) est un plan hyperbolique.
Démonstration du théorème 5.10. Faisons une démonstration par récurrence sur la dimension
de l’espace. En cas de dimension 0 ou 1 il n’y a rien à faire.
Supposons la dimension n > 2. La forme β admet la matrice B = (bij ) sur une base E =
(e1 , . . . , en ).
a) Si la première colonne de B, hormis peut-être b11 , est nulle, on considère le sous-espace
F = he2 , . . . , en i et la restriction β|F de β à F . Par hypothèse de récurrence, β|F admet une
base orthogonale F = (f2 , . . . , fn ). Alors le système (e1 , f2 , . . . , fn ) est une base orthogonale de
E pour β.
b) Si b11 6= 0. Puisque pour i > 2 on a β(e1 , ei − λe1 ) = b1i − λb11 , pour λi = b1i /b11 le vecteur
est orthogonal à e1 . Ainsi la matrice de β pour la base (e1 , e2 − λ2 e1 , . . . , en − λn e1 ) est du type
envisagé en a).
c) Il reste à examiner le cas où b11 = 0 avec un coefficient de la première colonne non nul.
Par exemple b21 6= 0. Alors le plan H = he1 , e2 i est hyperbolique pour β|H. Comme β|H est
non dégénérée, on a E = H ⊕ H ⊥ (théorème 5.8). Ainsi H admet une base orthogonale par le
lemme 5.11, et H ⊥ également par hypothèse de récurrence.
2
Une autre démonstration, matricielle, du théorème 5.10. Considérons une matrice symétrique
que nous décomposons en 4 blocs :
B1
C
t
B2
B=
C
avec B1 = tB 1 ∈ Mk (K) et B2 = tB 2 ∈ Mn−k (K).
Si B1 est inversible, on peut utiliser la matrice de passage
Ik −B1−1 C
P =
In−k
0
ce qui donne
B1
0
0
B3
t
P BP =
avec B3 = − tCB1 C + B2 .
La diagonalisation de B est ainsi ramenée aux diagonalisations de B1 et B3 .
Mathématiques. L2.
36
5 FORMES BILINÉAIRES SYMÉTRIQUES. THÉORIE
GÉNÉRALE.
Le cas b) dans la démonstration précédente correspond au cas k = 1 ci-dessus (avec B1 = [b11 ]
inversible).
Le cas c) dans la démonstration précédente correspond au cas k = 2 ci-dessus avec B1 =
0 b21
, det B1 = −b221 6= 0. La diagonalisation de B1 est traitée dans le lemme 5.11.
2
b21 b22
Base orthonormales
Une base E est dite β-orthonormale si la matrice de β sur E est In .
Cas des espaces complexes
Théorème 5.12 Une forme bilinéaire symétrique non dégénérée sur un C-espace vectoriel de
dimension finie possède des bases orthonormales.
Plus généralement une forme bilinéaire symétrique arbitraire β admet sur une base convenable
une matrice du type
Ir
0
0
0
où r est le rang de β.
Cas des espaces réels
Théorème 5.13
1. Une forme bilinéaire symétrique arbitraire β sur un espace vectoriel
réel E de dimension finie admet une matrice du type
Is
0
0
0
−It
0
0
0
0u
où s + t est le rang de β et s + t + u = dim E.
2. (théorème d’inertie de Sylvester) En outre les entiers r et s sont uniquement déterminés
par β.
Démonstration. 1. L’existence résulte de la forme diagonale. Un coefficient diagonal > 0 peut
être remplacé par 1 et un√coefficient diagonal < 0 peut être remplacé par −1 : en effet si a > 0,
alors ax2 = y 2 avec y = ax, et −ax2 = −y 2 .
2. Supposons par exemple que l’on ait deux formes réduites, l’une avec (s, t, u) l’autre avec
(s0 , t0 , u0 ) et s > s0 , pour deux bases E = (e1 , . . . , en ) et E 0 = (f1 , . . . , fn ). On a donc s+t0 +u0 > n.
Considérons les deux sous-espaces V = he1 , . . . , es i et W = hfs0 +1 , . . . , fn i.
0
Puisque dim V + dim W = s + t0 +
Pus > n, ces deux
Pnespaces ont au moins une droite Rx en
commun avec x 6= 0. On écrit x = i=1 ai ei et x = j=s0 +1 bj fj . Sur la première expression on
P
voit que β(x, x) = si=1 a2i > 0 (car l’un des ai au moins est 6= 0). Sur la deuxième, on voit que
β(x, x) 6 0. L’hypothèse était donc absurde.
2
Remarque. On a donc obtenu une classification complète des formes bilinéaires symétriques en
dimension finie sur les espaces réels et complexes. Le problème de la classification sur Q, c’està-dire lorsque l’on part d’une matrice symétrique à coefficients rationnels et que l’on autorise
5.3 Base orthogonale, (( diagonalisation ))
37
uniquement les changements de base dans GLn (Q), est très difficile et sa solution est due à
Gauss.
6
Formes quadratiques
On considère un K-espace vectoriel E de dimension finie.
La notion de fonction polynôme homogène du second
P degré qP: E → K est bien définie :
elle ne dépend pas de la base choisie pour E, si q(x) = i ai x2i + i<j cij xi xj lorsque x a pour
coordonnées (x1 , . . . , xn ) sur une base, après changement de base, chaque xi est remplacé par
une expression linéaire en les nouvelles coordonnées (z1 , . . . , zn ), et l’on obtient pour q(x) une
nouvelle expression, en les zi , qui reste un polynôme homogène du second degré.
P
P
Si on pose β(x, y) = i ai xi yi + 12 i<j cij (xi yj + xj yi ), on voit que q(x) = β(x, x).
6.1
Définitions, propriété caractéristique
Une forme quadratique sur un K-espace vectoriel E est une application q : E → K qui peut
s’exprimer sous forme q(x) = β(x, x), où β ∈ Bilsym(E).
Fait 6.1 Si q(x) = β(x, x) avec β ∈ Bilsym(E), alors
1
1
β(x, y) = (q(x + y) − q(x) − q(y)) = (q(x + y) − q(x − y))
2
4
et
q(ax) = a2 q(x) ∀a ∈ K, ∀x ∈ E.
Ainsi, la forme β est uniquement déterminée par q, elle s’appelle la forme polaire de q.
Fait 6.2 Une application q : E → K est une forme quadratique si et seulement si sont vérifiées
les propriétés suivantes :
q(2x) = 4q(x)
∀x ∈ E
(x, y) 7→ q(x + y) − q(x) − q(y) ∈ Bil(E)
Fait 6.3 Les formes quadratiques sur E forment un K-espace vectoriel naturellement isomorphe à Bilsym(E).
On parlera de la matrice d’une forme quadratique sur une base de E, de son rang, de vecteur
isotrope pour les mêmes notions concernant la forme bilinéaire symétrique associée (la forme
polaire).
Si β(x, y) = 0, on dit aussi que x et y sont conjugués par rapport à q.
La forme quadratique q (ou sa forme polaire) est dite définie si 0 est le seul vecteur isotrope.
Proposition 6.4 Soit E un K-espace vectoriel de dimension finie, et q : E → K une forme
quadratique définie. Alors :
1. La forme q est non dégénérée.
2. Pour tout sous-espace vectoriel F on a E = F ⊕ F ⊥ .
3. Un système (x1 , . . . , xn ) dans E est linéairement indépendant si et seulement si son déterminant de Gram est non nul.
Remarque. De manière générale, pour une forme bilinéaire symétrique β sur un espace vectoriel
E arbitraire et un système (x1 , . . . , xn ) dans E on a Gram(x1 , . . . , xn ) 6= 0 si et seulement si :
a) le sous-espace hx1 , . . . , xn i est non isotrope, et b) les xi sont linéairement indépendants.
40
Mathématiques. L2.
6.2
6 FORMES QUADRATIQUES
Réduction d’une forme quadratique
Le théorème 5.10 page 34 de diagonalisation d’une forme bilinéaire symétrique peut se relire
comme suit :
Théorème 6.5
1. Toute formePquadratique sur un K-espace vectoriel de dimension finie n peut s’écrire
sous forme ki=1 ai λi (x)2 , où les λi sont des formes linéaires indépendantes et les ai des
scalaires non nuls.
Ici, k est le rang de la forme quadratique.
P
2. Sur le corps C, on peut se ramener à la forme ki=1 λi (x)2 .
3. Sur le corps R, on peut se ramener à la forme
Xs
Xs+t
λi (x)2 −
i=1
i=s+1
λi (x)2 ,
avec les entiers s et t > 0 qui ne dépendent que de la forme quadratique. Le couple (s, t)
est appelé la signature de la forme quadratique (théorème d’inertie de Sylvester).
Une forme quadratique réelle est dite positive si q(x) > 0 pour tout x, négative si q(x) 6 0
pour tout x. Dans le premier cas la signature est (s, 0), dans le second cas (0, t).
Fait 6.6 Une forme quadratique complexe n’est jamais définie, sauf en dimension 1.
Une forme quadratique réelle en dimension n est définie si et seulement si sa signature est
(n, 0) ou (0, n) (elle est donc soit définie et positive, soit définie et négative).
La méthode de Gauss
Pour obtenir une forme réduite, il est en général pratique d’utiliser l’algorithme suivant dû
à Gauss.
Traitons d’abord deux exemples.
Exemple 1.
x2 + 2y 2 − z 2 + 4xy − 6xz + 2yz = (x + (2y − 3z))2 − (2y − 3z)2 + 2y 2 − z 2 + 2yz =
(x + (2y − 3z))2 − 2y 2 − 10z 2 + 14yz = λ1 (x, y, z)2 − 2(y 2 − 7yz) − 10z 2 =
z 2 = λ1 (x, y, z)2 − 2λ2 (y, z)2 + 29
z2
λ21 − 2(y − 27 z)2 + 29
2
2
Les 3 formes linéaires λ1 = x+2y−3z, λ2 = y− 72 z, λ3 = z sont bien linéairement indépendantes.
Exemple 2.
xy + xz + 3yz + xu + 2yu − zu = xy + x(z + u) + y(3z + 2u) − zu =
(x + 3z + 2u)(y + z + u) − (3z + 2u)(z + u) − zu = AB − 3z 2 − 2u2 − 6zu
=
1
1
2
2
2
2
(A + B) + 4 (A − B) − 3(z + u) + u
4
Les 4 formes linéaires λ1 = x + y + 4z + 3u, λ2 = x − y + 2z + u, λ3 = z + u et λ4 = u sont bien
linéairement indépendantes.
L’algorithme général
P
P
Considérons q(x1 , . . . , xn ) = i ai x2i + i<j bij xi xj . On peut supposer la forme non identiquement nulle.
6.2 Réduction d’une forme quadratique
41
1er cas. Il y a un ai 6= 0.
Par exemple a1 6= 0. On considère tous les termes contenant x1 , on écrit la somme correspondante sous la forme
X n
b1j
a1 x21 + 2x1
cj xj
avec cj =
j=2
2a1
de sorte que
q(x) = a1 q1 (x) + q2 (x2 , . . . , xn )
et
Xn
q1 (x) = x1 +
j=2
cj xj
2
−
X n
j=2
cj xj
2
.
Il reste à réduire la forme en x2 , . . . , xn donnée par
X n
2
q2 − a1
cj xj .
j=2
2e cas. Tous les ai sont nuls. Un des bij est non nul.
Par exemple b1,2 . On considère tous les termes contenant x1 ou x2 . On écrit la somme correspondante sous la forme
b1,2 [x1 x2 + x1 λ(x3 , . . . , xn ) + x2 µ(x3 , . . . , xn )]
de sorte que
q(x) = b1,2 q1 (x) + q3 (x3 , . . . , xn )
avec
q1 (x) = (x1 + µ(x3 , . . . , xn ))(x2 + λ(x3 , . . . , xn )) − λ(x3 , . . . , xn )µ(x3 , . . . , xn ) = AB − λµ.
On écrit
1
1
1
1
AB = (A + B)2 + (A − B)2 = (x1 + x2 + λ + µ)2 + (x1 − x2 + λ − µ)2 .
4
4
4
4
Il reste à réduire la forme en x3 , . . . , xn donnée par
q3 (x3 , . . . , xn ) − b1,2 λ(x3 , . . . , xn )µ(x3 , . . . , xn ).
Cas des formes réelles et des formes complexes
Une fois la forme
P quadratique ramenée à une somme pondérée de carrés de formes linéaires
indépendantes, i ai λi (x)2 , on obtient facilement les réductions plus poussées pour le cas où
le corps de base est C ou R, comme énoncé dans le théorème 6.5 page ci-contre.
Dans le cas réel, il ne faut pas oublier la précision donnée par le théorème d’inertie de
Sylvester.
7
Coniques et quadriques (en géométrie affine réelle)
7.1
Espaces réels affines
Introduction au plan réel affine
La notion de plan réel affine est une notion abstraite moderne qui peut être vue sous deux
angles distincts.
Du premier point de vue on considère la géométrie euclidienne classique, qui est une géométrie des figures planes. On peut voir ceci comme une géométrie des puzzles : les composantes
d’une même figure sont les pièces d’un puzzle qu’il s’agit d’assembler entre elles.
La compréhension de cette géométrie des puzzles passe par la notion de (( figures égales )).
Deux figures sont égales lorsque l’on peut les amener à se superposer en déplaçant l’une d’entre
elles. Chez Euclide, cela correspond aux cas d’égalité des triangles : les pièces élémentaires du
puzzle sont les triangles. Cette géométrie a été (( numérisée )) grâce à la méthode des coordonnées, systématisée par Descartes.
En termes modernes, la géométrie euclidienne classique est gouvernée par le groupe des
déplacements.
En prenant du recul on s’aperçoit alors que certaines propriétés des figures n’utilisent
que les propriétés d’alignement et de parallélisme, à l’exclusion des propriétés proprement
(( métriques )) : égalité de longueurs ou égalité d’angles. Par exemple le groupe des translations
n’a besoin que des propriétés des parallélogrammes pour pouvoir être étudié. Plus troublant
encore, les homothéties, qui n’ont besoin que du parallélisme pour pouvoir être étudiées, ne sont
pas des déplacements, mais conservent (( la forme )) des figures. On invente alors de nouvelles
transformations, les transformations affines, qui conservent les propriétés d’alignement et de
parallélisme.
La (( géométrie affine )) que l’on obtient ainsi peut être vue comme une fille de la géométrie
euclidienne, obtenue au choix, (( en agrandissant )) le groupe des transformations intéressantes,
ou (( en restreignant )) les propriétés intéressantes. Par exemple deux triangles non aplatis deviennent (( isomorphes )) du point de vue affine : disparaissent les bissectrices, l’orthocentre, le
cercle circonsrit, mais restent présentes les médianes et le centre de gravité. Par contre deux
quadrilatères distincts ne sont pas en général (( isomorphes du point de vue affine )). Les centres
de gravité des 4 triangles concernés entretiennent une relation surprenante avec le centre de
gravité de la plaque, la chose la plus remarquable étant que le centre de gravité de la plaque
n’est pas une propriété de nature métrique, mais de nature affine.
Selon un deuxième point de vue, on construit la géométrie affine à partir de la géométrie
vectorielle. Qu’est-ce que la géométrie vectorielle ? C’est la géométrie des espaces vectoriels. La
figure emblématique de la géométrie vectorielle plane, la géométrie d’un espace vectoriel P de
dimension 2, ce n’est plus (( le triangle )), mais (( la base )) : la figure formée par deux vecteurs
linéairement indépendants. Deux bases sont (( isomorphes )) : on peut envoyer l’une sur l’autre
par une transformation linéaire (un automorphisme linéaire du plan vectoriel). Le groupe qui
gouverne cette géométrie est le groupe linéaire GL(P ). Chaque transformation linéaire a ellemême une géométrie, qui est donnée par la forme réduite de Jordan dans le cas des espaces
vectoriels complexes, et par quelque chose de plus délicat dans les cas des espaces vectoriels
réels.
Mais un espace vectoriel E a un grave défaut, du point de vue géométrique : il n’est pas
(( partout le même1 )) parce qu’il possède un point très particulier, 0E , qui se distingue de tous
les autres, et qui est invariant par toutes les transformations linéaires.
1. On dit aussi : il n’est pas homogène.
44
Mathématiques. L2.
7 CONIQUES ET QUADRIQUES AFFINES
Pour passer à quelque chose de (( plus géométrique )) il faut rajouter les translations, de
façon à faire perdre à 0E son statut privilégié (( non géométrique )). Le groupe engendré par les
translations et les automorphismes linéaires est alors le groupe affine.
Ainsi, alors que selon le premier point de vue un plan affine est un plan euclidien dans lequel
on oublie l’orthogonalité et l’équidistance (on les a perdues), selon le second point de vue, un
plan affine est un plan vectoriel dans lequel on a perdu l’origine.
Nous allons choisir ce second point de vue, plus facile à exposer.
Définition moderne d’un espace affine réel
Nous nous limitons au cas réel, mais presque rien ne serait changé au début en remplaçant
le corps R par un autre corps de base K.
Par contre quand on passe à l’étude des coniques et des quadriques, qui est le véritable
objectif que nous poursuivons ici, le cadre réel est très important et donne des résultats très
spécifiques.
Définition 7.1
1. Un espace affine réel de dimension n est donné par un triplet (E , E, +) où
– E est un ensemble (l’ensemble des (( points )) de l’espace affine),
– E est un espace vectoriel réel de dimension n (l’ensemble des (( vecteurs )) de l’espace
affine), et
– + est une loi externe : E × E → E , (A, v) 7→ A + v,
– le tout avec les propriétés suivantes :
∀A ∈ E , ∀u, v ∈ E,
∀A ∈ E ,
∀A, B ∈ E , ∃!u ∈ E,
−→
Dans le dernier axiome, on note u = AB.
(A + u) + v = A + (u + v)
A + 0E = A
A+u=B
2. Un repère cartésien d’un espace affine (E , E, +) est un couple
R = (A, E) = (A, (e1 , . . . , en )),
P
où E est une base de E. Si M = A + i xi ei , on dit que les xi sont les coordonnées du
point M dans le repère R. Si X est le vecteur colonne des xi on écrira X =E ,R M .
3. Un sous-espace affine de (E , E, +) est un couple (F , F ) donné par un sous-espace vectoriel F de E et un sous-ensemble F de E , soumis à la condition :
def
∃A ∈ F , F = a + F = { B ∈ E | ∃u ∈ F, A + u = B }
Il est muni d’une structure d’espace affine en prenant comme loi externe pour F et F la
restriction de la loi externe pour E et E.
4. Une application affine d’un espace affine (F , F, +) vers un autre espace affine (E , E, +)
est donnée par un couple (ϕ, ψ), où ϕ : F → E est une application, ψ : E → F est une
application linéaire, soumises à la condition :
∀A, ∈ F , ∀u ∈ F, ϕ(A) + ψ(u) = ϕ(A + u)
On appelle transformation affine de E une application affine bijective de E sur E . Le
groupe affine de E est le groupe des transformations affines de E.
7.1 Espaces réels affines
45
Remarques diverses
En général on parle de l’espace affine E en sous-entendant les deux autres ingrédients (l’espace vectoriel et la loi externe). On dit aussi : (( E est un espace affine dirigé par E )).
Il serait sans doute plus logique de définir la structure affine au moyen de deux lois externes,
la loi + : E × E → E d’une part, et la loi
−→
E × E → E, (A, B) 7→ AB,
d’autre part. Cela permettrait de n’avoir que des axiomes (( universels )) (i.e., les seuls quantificateurs dans les axiomes sont des quantificateurs universels).
La translation de vecteur u est l’application τu définie par
τu : E → E , A 7→ A + u.
Il s’agit d’une transformation affine. En outre τu+v = τu ◦ τv et l’application u 7→ τu est un
isomorphisme de (E, +) sur le sous-groupe du groupe affine formé par les translations.
En pratique les calculs dans un espace réeel affine de dimension n se ramènent à des calculs
dans Rn . En effet si R est un repère cartésien de E , l’application
E → Rn , M 7→ X,
où X =E ,R M
est une application affine bijective, c’est celle qui envoie le repère R sur le repère affine canonique
de Rn formé par l’origine 0 et la base canonique.
Toute propriété dans E peut ainsi être traduite en une propriété dans Rn , qui est le modèle
canonique d’espace affine.
Néanmoins, pour comprendre vraiment ce qui se passe dans E , il ne suffit pas tout à fait de
savoir calculer dans Rn . Il faut aussi au moins savoir bien manipuler le changement de paysage
dans Rn lorsque l’on change de repère affine dans E .
Changement de repère affine
Un changement de repère affine, de R = (A, E) à R0 = (A0 , E 0 ) se traduit sur les coordonnées,
lorsque X =E ,R M, X 0 =E ,R0 M, Q0 =E ,R A0 par
X = P X 0 + Q0
où P est la matrice de passage de E à E 0 .
En effet, si E = (e1 , . . . , en ), E 0 = (e01 , . . . , e0n ), X = t[x1 · · · xn ] et X 0 = t[x01 · · · x0n ] on écrit
M =A+u=A+
Xn
i=1
xi ei = A0 +
Xn
Donc
i=1
x0i e0i = A0 + u0 .
Xn
−−→
−−→ Xn 0 0
u = A0 − A + u0 = AA0 + u0 et u =
xi ei = AA0 +
xi ei ,
i=1
i=1
P
ce qui donne avec des vecteurs colonnes, en réexprimant ni=1 x0i e0i sur la base E : X = Q0 +P X 0 .
On peut écrire aussi
X 0 = P −1 X + Q. ,
avec Q =E ,R0 A.
46
Mathématiques. L2.
7 CONIQUES ET QUADRIQUES AFFINES
Fonctions polynomiales sur un espace affine
Si E est un espace affine, une fonction polynomiale de degré k sur E est une fonction
θ : E → R qui s’exprime dans un repère affine par un polynôme de degré k. Ceci ne dépend pas
du repère affine choisi. En effet la formule de changement de coordonnées exprime les anciennes
en fonction des nouvelles comme des polynômes de degré 1, et vice versa.
Par contre la notion de fonction polynomiale homogène, qui avait un sens dans le cadre des
espaces vectoriels, n’a pas de sens dans le cadre des espaces affines : en dimension 2 par exemple
l’application E → R qui s’exprime dans un repère R sous forme x2 + y 2 s’exprimera après une
translation de l’origine (sans changer les vecteurs de base) sous forme (x0 + a)2 + (y 0 + b)2 , qui
n’est plus un polynôme homogène.
Polynômes de degré 6 2 sur une droite affine
Nous rappelons ici ce que donne l’étude des trinômes ux2 + vx + w lorsque l’on autorise les
changements de variables affines x0 = ex + f (e 6= 0).
Dans un repère affine convenable, un polynôme degré 6 2 sur une droite réelle affine se
ramène à une et une seule des formes suivantes. Pour chaque forme réduite, on donne (( en
titre )) la nature et le nombre des zéros du polynôme :
Degré 2 :
1. Deux points réels
(a) x2 − a, a > 0
(b) −x2 + a, a > 0
2. Deux points complexes conjugués
(a) x2 + a, a > 0
(b) −x2 − a, a > 0
3. Un point réel double.
(a) x2
(b) −x2
Degré 1 :
4. Un point réel simple : x
Degré 0 :
5. Aucun point (ni réel, ni complexe) :
(a) a, a > 0
(b) −a, a > 0
6. Tous les points : 0
La complication du résultat laisse mal augurer de ce qui va se passer pour les polynômes de
degré 6 2 en 2 variables.
En fait si l’on s’intéresse à l’ensemble des zéros, on peut autoriser la multiplication du
polynôme par une constante non nulle, et on perd un degré de liberté.
Alors dans la classification précédente il ne reste qu’un nombre fini de cas :
Degré 2
1. Deux points réels : x2 − 1
2. Deux points complexes conjugués : x2 + 1
3. Un point réel double : x2
7.2 Les coniques
47
Degré 1 :
4. Un point réel simple : x
Degré 0 :
5. Aucun point (ni réel, ni complexe) : 1
6. Tous les points : 0
Nous allons voir que ce phénomène (classification finie) se produit également en dimension
supérieure.
7.2
Les coniques
On se situe dans un plan réel affine P.
Classification complète des polynômes de degré 6 2
On vérifie par un calcul direct qu’un changement de variables affine ne change pas la signature de la forme quadratique donnée par la composante homogène de degré 2 d’une fonction
polynomiale de degré 6 2.
Par ailleurs si on multiplie a fonction par un nombre < 0 on passe de la signature (k, `) à la
signature (`, k). Si on considère toutes les signatures possibles en dimension 2, qui sont (2, 0),
(1, 1), (0, 2), (1, 0), (0, 1), (0, 0), on ne doit donc garder que (2, 0), (1, 1), (1, 0) (on note que
(0, 0) correspond à un polynôme de degré 6 1).
Pour étudier un polynôme de degré 2, on peut d’abord réduire la composante homogène de
degré 2 en suivant la théorie des formes quadratiques en dimension 2. Ensuite, selon la forme
obtenue pour la composante de degré 2, on se ramène à une forme plus simple, en essayant de
supprimer les termes de degré 1, par exemple par une translation.
On aboutit au résultat suivant.
Toute fonction polynomiale de degré 6 2 sur un plan affine se ramène, après multiplication
par une constante non nulle, à une et une seule des formes suivantes (pour chaque forme réduite,
on donne (( en titre )) la nature des zéros du polynôme) :
Degré 2 :
1. Ellipse : x2 + y 2 − 1
2. Hyperbole : x2 − y 2 − 1
3. Parabole : x2 − y
4. Ellipse imaginaire : x2 + y 2 + 1 (pas de point réel)
5. Deux droites réelles sécantes : x2 − y 2
6. Deux droites imaginaires conjugées sécantes : x2 + y 2 (un point réel unique)
7. Deux droites réelles parallèles : x2 − 1
8. Deux droites imaginaires conjuguées parallèles : x2 + 1 (pas de point réel)
9. Une droite réelle (( double )) : x2
Degré 1 :
10. Une droite réelle simple : x
Degré 0 :
11. Aucun point : 1
12. Tous les points : 0
48
Mathématiques. L2.
7 CONIQUES ET QUADRIQUES AFFINES
Dans quelle mesure une courbe de degré 2 est-elle déterminée par son équation ?
La réponse à la question est : oui, l’équation d’une courbe de degré 2 est déterminée, à un
facteur multiplicatif près, par les points de la courbe dans P, pour les cas suivants : ellipse,
parabole, hyperbole, deux droites sécantes, deux droites parallèles.
Si on veut un résultat complètement général il faut faire intervenir aussi les (( points
complexes )) de la courbe, mais nous n’avons pas bien défini l’espace dans lequel ils se trouvent.
Si on tolère de faire descendre le degré en dessous de 2, une droite double ne peut pas être
distinguée d’une droite simple par la seule considération de ses points (réels ou complexes).
Coniques dégénérées
Parmi les fonctions polynomiales de degré 2 on trouve, outre les ellipses, hyperboles et paraboles, les types suivants, les courbes correspondantes sont appelées des coniques dégénérées :
1. Deux droites réelles sécantes : x2 − y 2 = 0
2. Deux droites imaginaires conjugées sécantes : x2 + y 2 = 0, (un seul point réel), celui de
coordonnées (0, 0).
3. Deux droites réelles parallèles : x2 − 1 = 0
4. Deux droites imaginaires conjugées parallèles : x2 + 1 = 0 (pas de point réel)
5. Une droite réelle double : x2 = 0
Voici maintenant l’explication du mot (( dégénérée )) en termes de forme quadratique.
Si l’expression d’une fonction polynomiale de degré 6 2 dans un repère R est ϕ(x, y) =
ax2 + bxy + xy 2 + dx + ey + f , on peut considérer (( l’homogénéisé )) de ϕ en introduisant une
(( variable d’homogénéisation )) z et en définissant formellement
ψ(x, y) = z 2 ϕ(x/z, y/z) = ax2 + bxy + xy 2 + dxz + eyz + f z 2
Un changement de variables affine en (x, y) (du type X = P X 0 +Q) produit alors un changement
de variables linéaire en (x, y, z) = z · (x/z, y/z, 1). Précisément en posant Z = t[ x y 1 ] et
Z 0 = t[ x0 y 0 1 ] on obtient
Z =
P
Q
Z0
0 0 1
Donc la forme ψ se réécrit en utilisant le changement de variables linéaire correspondant à la
P
Q
∈ GL3 (R) ci-dessus, et le type de la forme ψ (à changement de variables
0 0 1
linéaire près) ne dépend que du type du polynôme ϕ (à changement de variables affine près).
On voit alors facilement, en homogénéisant les formes réduites obtenues pour les polynômes de
degré 6 2 que la forme quadratique ψ est non dégénérée seulement dans les 4 cas suivants :
ellipse, hyperbole, parabole, ellipse imaginaire.
En outre on vérifie que ellipse, hyperbole et parabole donnent en fait le même type pour
ψ (rappelons que l’on travaille toujours à constante multiplicative près), à savoir une forme
quadratique de signature (2, 1) : x2 + y 2 − z 2 (sous forme plus imagée : de type + + −).
L’ellipse imaginaire correspond à une homogénéisée de signature (3, 0), du type x2 + y 2 + z 2 .
Les coniques dégénérées correspondent à des homogénéisées dégénérées de signature (2, 0)
ou (1, 1).
matrice
7.2 Les coniques
49
Nous appelons forme quadratique dominante (associée à la fonction polynomiale q) la forme
donnée par la partie homogène de degré 2 lorsque l’on a choisi un repère cartésien et que l’on
exprime q par un polynôme de degré 2 en les coordonnées. Le type de cette forme quadratique
est bien défini car un changement de variables affine (un changement de repère cartésien) induit
sur cette forme dominante un changement de variables linéaire.
Nous sommes donc en possession de deux formes quadratiques assocées à q : la forme
dominante et la forme homogénéisée.
Voici alors un autre regard sur la classification des polynômes de degré 6 2, utilisant le type
de chacune des deux formes quadratiques.
Nom
Equation
Homogénéisée
Dominante
ellipse imaginaire
x2 + y 2 + 1
+ + +
+ +
ellipse
x2 + y 2 − 1
+ + −
+ +
hyperbole
x2 − y 2 − 1
+ + −
+ −
parabole
x2 − y
+ + −
+ 0
2 droites séc. imag.
x2 + y 2
+ + 0
+ +
2 droites sécantes
x2 − y 2
+ − 0
+ −
2 droites parallèles
x2 − 1
+ − 0
+ 0
2 droites par. imag.
x2 + 1
+ + 0
+ 0
1 droite double
x2
+ 0 0
+ 0
1 droite simple
x
+ − 0
0 0
rien
1
+ 0 0
0 0
tout
0
0 0 0
0 0
50
7.3
Mathématiques. L2.
7 CONIQUES ET QUADRIQUES AFFINES
Les quadriques
L’herbier des quadriques non dégénérées
Figure 2 – Ellipsoı̈de x2 + y 2 + z 2 = 1
Figure 3 – Hyperboloı̈de à 1 nappe x2 + y 2 − z 2 = 1
7.3 Les quadriques
51
Figure 4 – Hyperboloı̈de à 2 nappes x2 + y 2 − z 2 = −1
Figure 5 – Paraboloı̈de elliptique x2 + y 2 − z = 0
52
Mathématiques. L2.
7 CONIQUES ET QUADRIQUES AFFINES
Figure 6 – Paraboloı̈de hyperbolique x2 − y 2 − z = 0
Classification complète en degré 2
Nom
Equation
Homogénéisée
Dominante
ellipsoı̈de imaginaire
x2 + y 2 + z 2 + 1
+ + + +
+ + +
ellipsoı̈de
x2 + y 2 + z 2 − 1
+ + + −
+ + +
hyperbolı̈de 2 nappes
x2 + y 2 − z 2 + 1
+ + + −
+ + −
x2 + y 2 − z
+ + + −
+ + 0
x2 + y 2 − z 2 − 1
+ + − −
+ + −
paraboloı̈de hyperbolique
x2 − y 2 − z
+ + − −
+ − 0
cone imaginaire
x2 + y 2 + z 2
+ + + 0
+ + +
cone (elliptique)
x2 + y 2 − z 2
+ + − 0
+ + −
cylindre elliptique
x2 + y 2 − 1
+ + − 0
+ + 0
cylindre hyperbolique
x2 − y 2 + 1
+ + − 0
+ − 0
cylindre parabolique
x2 − y
+ + − 0
+ 0 0
2 plans sécants imag.
x2 + y 2
+ + 0 0
+ + 0
2 plans parallèles imag.
x2 + 1
+ + 0 0
+ 0 0
2 plans sécants
x2 − y 2
+ − 0 0
+ − 0
2 plans parallèles
x2 − 1
+ − 0 0
+ 0 0
x2
+ 0 0 0
+ 0 0
paraboloı̈de elliptique
hyperbolı̈de 1 nappe
1 plan double
8
8.1
Compléments de géométrie
La méthode des moindres carrés
On considère un système linéaire réel de m équations à n inconnues. Il peut étre représenté
sous forme matricielle par l’équation
AX = B
A ∈ Mm,n (R), B ∈ Mm,1 (R), X ∈ Mn,1 (R)
On peut également interpréter ceci au moyen d’une application linéaire Rn → Rm . Il arrive que le problème à résoudre ait une nature physico-géométrique qui fait que les normes
euclidiennes usuelles sur Rn et Rm ait une signification objective, dont il faut tenir compte.
Alors si le système n’admet pas de solution, il est légitime de choisir une solution approchée
en un sens convenable. S’il en admet plus qu’une, on peut aussi estimer qu’il en existe de
meilleures que d’autres.
Voici un problème qui justifie un choix légitime, courant dans les problèmes pratiques.
Trouver un X tel que kAX − Bk soit minimum.
Et parmi les X possibles, trouver celui qui est de norme minimum.
Si A est une matrice injective, ce qui correspond à un système linéaire surdéterminé, on dit
que l’on résout le système linéaire au sens des moindres carrés.
Voici une solution théorique pour le problème général encadré ci-dessus. Tout d’abord on
remplace B par sa projection orthogonale B0 = πF (B) sur l’espace vectoriel F image de A.
Ensuite, si X0 est une solution de AX = B0 et si K = Ker A, on doit remplacer X0 par
X0 − πK (X0 ) pour trouver la solution (( la meilleure )).
Cette approche, correcte en théorie, est cependant un peu naı̈ve car il arrive que la matrice
A n’ait pas un rang bien défini du point de vue numérique. Cela se produit notamment lorsque
ses coefficients ne sont connus que de manière approchée et que la matrice n’est pas clairement
de rang maximum. Dans ce cas son noyau et son image ne sont pas bien définis.
Par ailleurs, à supposer que le rang de A soit clairement connu, il reste tout le problème
de savoir comment conduire les calculs avec des (( réels machine )) (en virgule flottante) pour
obtenir une solution fiable.
8.2
Les isométries affines
Pour un espace affine euclidien (E , E) on est intéressé par les
c’est-à-dire les
−−isométries,
→
bijections de E qui conservent la distance euclidienne d(M N ) = M N .
Lemme 8.1 Une transformation affine ϕ : E → E conserve les distances si et seulement si sa
partie linéaire ψ conserve le produit scalaire. Dans un repère cartésien orthonormé, cela signifie
que la matrice de ψ est orthogonale.
Lemme 8.2 Dans un espace affine euclidien, pour deux points distincts A et B, l’ensemble des
−→
points équidistants de A et B est un hyperplan affine : l’hyperplan orthogonal à AB passant
par le milieu I = A+B
du segment [AB]. On l’appelle l’hyperplan médiateur de A et B.
2
Définition 8.3 Dans un espace affine E (non nécessairement euclidien), considérons un repère
cartésien (A0 , E), avec E = (e1 , . . . , en ). Notons Ai = A0 + ei . Un tel système de n + 1 points
de E , (A0 , A1 , . . . , An ), est appelé un repère affine de E .
54
Mathématiques. L2.
8 COMPLÉMENTS DE GÉOMÉTRIE
Exemples. En dimension 1, 2, 3 : deux points distincts, triangle non aplati, tétraèdre non
aplati.
Fait 8.4 Dans un espace affine de dimension n, un système de n + 1 points est un repère affine
si et seulement si il n’est contenu dans aucun hyperplan affine.
Lemme 8.5 Soit (E , E) un espace affine euclidien. Si une bijection de E conserve les distances
et fixe un repère affine, elle est égale à l’identité. Autrement dit encore : si deux bijections de E
conservent les distances et transforment de la même manière un repère affine, elles sont égales.
Démonstration. Pour le premier point : si ce n’était pas l’identité, il y aurait un point B qui a
pour image un point C distinct de B. Mais alors tous les points du repère affine devraient être
dans l’hyperplan médiateur de C et B.
Pour le deuxième point on compose la première bijection avec la bijection inverse de la seconde : c’est une bijection qui conserve les distances et fixe le repère affine considéré. Donc c’est
l’identité.
2
Théorème 8.6 Si une bijection de E conserve les distances, c’est une transformation affine
et elle est égale au produit d’au plus n + 1 symétries orthogonales par rapport à des hyperplans
affines de E .
Démonstration. Il suffit de construire une transformation affine qui envoie un repère affine
donné R sur un repère affine isométrique R0 au moyen du produit d’au plus n + 1 symétries
orthogonales par rapport à des hyperplans affines. Cela se fait par étapes. La première étape
envoie le premier point de R sur le premier point de R0 au moyen de la symétrie orthogonale
par rapport au plan médiateur des deux points. Ceci transforme R en R1 . Ensuite on envoie
de la même manière le deuxième point de R1 sur le deuxième point de R0 . On vérifie que le
premier point de R1 ne bouge pas. Après deux symétries orthogonales on a donc transformé R
en R2 , les deux premiers points de R2 étant les mêmes que ceux de R0 . Il suffit de continuer.
On peut voir la chose fonctionner dans le plan et dans l’espace de dimension 3.
2
8.3
Coniques
Ellipses, hyperboles et paraboles
Une ellipse est une courbe qui possède une équation de la forme x2 + y 2 − 1 = 0 dans un
repère affine convenable, l’origine est un centre de symétrie, la courbe est bornée (entièrement
contenue dans un parallélogramme).
Elle admet le paramétrage t 7→ (cos t, sin t).
Du point de vue purement algébrique le paramétrage (( rationnel )) suivant est plus intéressant :
1 − t2 2t
,
.
t 7→
1 + t2 1 + t2
Avec y = t(1 + x). Ce paramétrage rationnel est presque une bijection : le point (−1, 0) est la
limite lorsque t tend vers ±∞.
8.3 Coniques
55
Figure 7 – Ellipse x2 + y 2 = 1
Figure 8 – Hyperbole x2 − y 2 = 1
Une hyperbole est une courbe qui possède une équation de la forme x2 − y 2 − 1 = 0 dans
un repère affine convenable, l’origine est un centre de symétrie, la courbe est non bornée, elle
possède deux branches, les droites x + y = 0 et x − y = 0 sont asymptotes à chacune des
deux branches. On dit que les directions des droites x + y = 0 et x − y = 0 sont les directions
asymptotiques de l’hyperbole.
Elle admet le paramétrage t 7→ (cosh t, sinh t).
Du point de vue purement algébrique le paramétrage (( rationnel )) suivant est plus intéressant :
1
1
1
1
t 7→
t+
,
t−
.
2
t
2
t
56
Mathématiques. L2.
8 COMPLÉMENTS DE GÉOMÉTRIE
Avec t = x + y. Ce paramétrage rationnel est presque une bijection : la valeur t = 0 du
paramètre est interdite. On obtient une branche pour t ∈ ] − ∞, 0[ , l’autre pour t ∈ ]0, +∞[ .
Les (( points s’éloignant à l’infini )) sur l’hyperbole correspondent à t = 0+ , t = 0− , t = +∞,
t = −∞.
Une parabole est une courbe qui possède une équation de la forme x2 − y = 0 dans un repère
affine convenable. Elle ne possède pas de centre de symétrie. Elle est non bornée et elle admet
une seule branche. Lorsque x tend vers ±∞ le point M correspondant sur la courbe s’éloigne et
la direction de (AM ) (pour A fixé) tend vers celle de l’axe des y. On dit que c’est la direction
asymptotique de la parabole.
Elle admet le paramétrage bijectif t 7→ (t, t2 ) avec t = x.
Figure 9 – Parabole x2 − y = 0
Intersection avec une droite
Étudier l’intersection d’une ellipse, hyperbole ou parabole, d’équation q(M ) = 0 avec une
droite D, revient à étudier la restriction de la fonction polynomiale q à la droite D. Si (A, u)
est un repère affine de D, et R un repère affine de P on a
a + te
=E ,R A + tu,
b + tf
de sorte que q(A + tu) sera un polynôme de degré 6 2 en t.
Suivant les cas on aura la situation suivante :
– 2 points réels : droite sécante
– 1 point réel double : droite tangente
– 2 points complexes conjugués : droite (( extérieure à la conique ))
– 1 seul point réel : droite qui coupe la conique et qui a pour direction une direction
asymptotique de la conique (on dit aussi que c’est une sécante dont le deuxième point
d’intersection est à l’infini)
– aucun point : droite asymptote (on dit aussi que la droite est tangente à l’hyperbole à
l’infini)
8.3 Coniques
57
– tous les points : ce cas ne se produit pas avec nos trois coniques, car elles ne contiennent
jamais 3 points alignés.
Symétries d’une conique
Les transformations affines σ de P qui vérifient σ 2 = IdP sont appelées des symétries
affines. Une symétrie affine σ possède au moins un point fixe, car pour tout point M , le point
1
(M + σ(M )) est fixe. Si on prend un repère affine ayant pour origine un point fixe de la
2
symétrie on est donc ramené à l’étude des symétries vectorielles qui sont (( bien connues )) :
symétrie par rapport à un sous espace dans la direction d’un sous-espace supplémentaire, avec
pour forme réduite une matrice diagonale ayant les seules valeurs propres ±1.
Parmi les symétries affines du plan P, outre l’identité on trouve donc :
– les symétries-point : symétrie à un seul point fixe A, notée σA ; dans un repère R = (A, E),
elle s’exprime par (x, y) 7→ (−x, −y),
– les symétries-droite : symétrie admettant une droite de points fixes D, dans un repère
convenable R = (A, (u, v)), elle s’exprime par (x, y) 7→ (x, −y). La droite D est D =
A + Ru, la droite vectorielle ∆ = Rv est appelée la direction de la symétrie. On note σD,∆
cette transformation, on l’appelle la symétrie d’axe D dans la direction ∆.
Théorème 8.7 (symétries des coniques)
1. Une ellipse ou une hyperbole possède un et un seul centre de symétrie.
2. Une droite D passant par le centre de symétrie d’une ellipse est l’axe d’une et une seule
symétrie-droite qui conserve l’ellipse.
3. Une droite D passant par le centre de symétrie d’une hyperbole, et distincte des asymptotes, est l’axe d’une et une seule symétrie-droite qui conserve l’hyperbole. De manière
générale, les symétries qui conservent l’hyperbole sont les mêmes que celles qui échangent
ou conservent les asymptotes.
4. Une parabole ne possède pas de centre de symétrie. Toute droite possédant la direction
asymptotique de la parabole est l’axe d’une et une seule symétrie-droite conservant la
parabole. Il n’y a pas d’autres symétries affines conservant la parabole.
Sections coniques
Lorsque l’on a une courbe C dans un plan affine P, avec un système de coordonnées (x, y)
par rapport à un repère cartésien R = (A, (i, j)), on peut regarder ce plan comme le plan z = 1
dans un espace affine de dimension 3 par rapport à un repère cartésien R0 = (O, (i, j, k)) où
−→
le vecteur k est OA. Considérons alors le cone de sommet O qui s’appuie sur la courbe C . Si
l’équation de la courbe est q(x, y) = 0, l’équation du cone, comme équation en (x, y, z), est,
pour z 6= 0, q(x/z, y/z) = 0. Si q est un polynôme de degré k en x, y, on peut retrouver un
polynôme de degré k en (x, y, z) en prenant q hom = z k q(x/z, y/z) : cela s’appelle l’homogénéisé
de q (en degré k).
Voici ce que cela donne avec les trois coniques réelles non dégénérées :
– une ellipse d’équation x2 + y 2 − 1 = 0 donne un cone d’équation x2 + y 2 − z 2 = 0
– une hyperbole d’équation x2 − y 2 − 1 = 0 donne un cone d’équation −x2 + y 2 + z 2 = 0
– une parabole d’équation x2 − y = 0 donne un cone d’équation x2 − yz = 0, ce qui donne
après un changement de variables linéaire x02 + y 0 2 − z 0 2 = 0
58
Mathématiques. L2.
8 COMPLÉMENTS DE GÉOMÉTRIE
Ainsi, les trois coniques ne fabriquent qu’un seul cone !
Inversement si on prend un cone x2 + y 2 − z 2 = 0 dans un espace affine E de dimension 3 et
si on l’intersecte par un plan, lequel admet un système de coordonnées (x0 , y 0 ) par rapport à un
repère R0 = (A0 , (u, v)), le point courant du plan M = A0 + x0 u + y 0 v admet comme coordonnées
dans E :
(x, y, z) = (a1 + b1 x0 + c1 y 0 , a2 + b2 x0 + c2 y 0 , a3 + b3 x0 + c3 y 0 ),
d’où l’équation de l’intersection :
(a1 + b1 x0 + c1 y 0 )2 + (a2 + b2 x0 + c2 y 0 )2 − (a3 + b3 x0 + c3 y 0 )2 = 0.
Le polynôme obtenu reste forcément de degré 2, mais cela ne saute pas aux yeux. La raison
est qu’une forme quadratique non dégénérée en dimension 3 ne possède pas de sous-espace
totalement isotrope de dimension 2.
Une étude détaillée montre que l’on obtient les types suivants, qui correspondent bien à (( ce
que l’on voit )) :
– non dégénérées (plan ne passant pas par le sommet du cone)
– hyperbole
– ellipse
– parabole
– dégénérées (plan passant par le sommet du cone)
– deux droites sécantes
– deux droites imaginaires conjuguées sécantes
– une droite double (plan tangent au cone)
Les trois premiers cas correspondent (dans le même ordre) aux trois seconds : on prend le plan
parallèle passant par le sommet du cone.
Points conjugés par rapport à une conique
Nous introduisons ici la variante affine de la relation d’orthogonalité pour les formes quadratiques.
Étant donnée une fonction polynôme de degré 6 2, q : P → R, M 7→ q(M ), qui s’exprime
dans un repère cartésien R sous la forme
ϕ(x, y) = ax2 + bxy + cy 2 + dx + ey + f
on peut définir sa forme polaire b(M, M 0 ) qui s’exprimera en coordonnées dans le même repère
R par
1
1
1
ϕ1 (x, y; x0 , y 0 ) = axx0 + b(xy 0 + x0 y) + cyy 0 + d(x + x0 ) + e(y + y 0 ) + f
2
2
2
de sorte que b(M, M ) = q(M ). Si on pose
1
ψ(x, y; x , y ) =
2
0
0
∂ϕ
∂ϕ
(x, y)x0 +
(x, y)y 0
∂x
∂y
on aura ϕ1 = 21 (ψ(x, y; x0 , y 0 ) + ψ(x0 , y 0 ; x, y)).
Cette définition ne dépend pas du repère cartésien choisi parce que
M + M0
1
0
b(M, M ) = 2q
− (q(M ) + q(M 0 ))
2
2
8.3 Coniques
59
en effet :
x+x0 2
− 21 x2 − 21 x02
2
(x+x0 ) (y+y 0 )
− 12 xy − 12 x0 y 0
2
2
0)
2 (x+x
− 12 x − 12 x0
2
2 × 1 − 21 × (1 + 1)
2
2
= xx0
=
1
(xy 0 + x0 y)
2
1
(x + x0 )
2
=
= 1
Les points M et M 0 sont dits conjugués par rapport à la conique C définie par q lorsque
b(M, M 0 ) = 0.
Proposition 8.8
1. Deux polynômes de degré 6 2 qui définissent la même relation de conjugaison dans P
sont proportionnels (même si la conique n’a pas de points réels, ou si elle a un seul point
réel).
2. Pour une ellipse, une parabole ou une hyperbole on a :
(a) Les conjugués d’un point arbitraire, distinct du centre dans le cas ellipse ou hyperbole,
forment une droite. On dit que la droite est la droite conjuguée du point par rapport
à la conique.
(b) On obtient ainsi une bijection entre les points du plan (distincts du centre dans le
cas ellipse ou hyperbole) et les droites du plan (ne passant pas par le centre dans le
cas ellipse ou hyperbole).
(c) La droite conjuguée d’un point de la conique est la tangente en ce point.
Les deux formes quadratiques associées à une conique
Quand on a classifié les coniques, on a utilisé deux formes quadratiques attachées à la
conique, définies comme la forme dominante d’une part, l’homogénéisée d’autre part.
On peut essayer de mieux comprendre ces deux formes en donnant des définitions qui ne
dépendent pas du repère affine dans lequel on exprime l’équation de la conique.
Concernant la forme quadratique (( dominante )), voici une explication valable en toute dimension, pour toute fonction polynomiale de degré 6 2 sur un espace affine réel.
Proposition 8.9 Si (E , E, +) est un espace affine et si q : E → R est une fonction polynomiale
de degré 6 2 on peut écrire
q(A + u) = q(A) + `A (u) + θ(u),
où `A est une forme linéaire (un élément de E ? ) qui dépend de A, et θ : E → R est une forme
quadratique qui ne dépend pas de A.
Démonstration. L’écriture q(A + u) = q(A) + `A (u) + θA (u) n’est autre que l’écriture générale
d’un polynôme de degré 6 2 lorsque le repère affine choisi a pour origine A, et a priori, on a une
dépendance une possible de θ par rapport à A. Si B = A + b, on obtient q(B + u) = q(A + b +
u) + `A (b + u) + θA (b + u) et q(B) = q(A + b) + `A (b) + θA (b). En notant βA (x, y) la forme polaire
de θA , on obtient q(B + u) = q(B) + `A (u) + 2βA (b, u) + θA (u). Ainsi `B (u) = `A (u) + 2βA (b, u)
et θA (u) = θB (u).
2
On peut aussi comprendre en analyse que θ ne dépend que de q en remarquant que
θ(u) = lim q(A + tu)/t2 .
t→∞
60
Mathématiques. L2.
8 COMPLÉMENTS DE GÉOMÉTRIE
Pour cette raison on peut dire que θ est la forme quadratique à l’infini de la fonction polynomiale q.
Comme conséquence on retrouve qu’un changement de variables affine ne change pas la
signature de la forme quadratique donnée par la composante homogène de degré 2 d’une fonction
polynomiale de degré 6 2.
Concernant la forme quadratique (( homogénéisée )), la chose est un peu plus délicate. Voici une
explication informelle dans le cas de la dimension 2. Soit P un plan affine et π : P → R une
fonction polynomiale de degré 6 2.
On considère le plan affine P comme étant un plan affine plongé dans un espace vectoriel
E de dimension 3, avec un plongement tel que P ne contienne par l’origine O, c’est-à-dire le
0E de E. On peut identifier les vecteurs de P aux vecteurs correspondants de E.
Si R = (A, (u, v)) est un repère affine de P, alors E = (u, v, A) est une base de E. Notons
(x, y, z) les coordonnées d’un (( point )) de E sur cette base. Celle-ci donne le repère cartésien
(O, E) = (O, (u, v, A)) de E lorsque l’on le considère comme un espace affine. L’équation de P
dans ce repère est z = 1.
Soit p(x, y) le polynôme qui exprime la fonction polynomiale π dans le repère R. Alors
la forme quadratique homogénéisée de p : q(x, y, z) = z 2 p(x/z, y/z), exprime sur la base E
une forme quadratique sur E. Cette forme quadratique est l’équation du cone de sommet O
s’appuyant sur la conique dont l’équation dans R est p(x, y) = 0.
8.4
Quadriques
Les droites qui (( s’appuient )) sur trois droites de l’espace
Intersection avec un plan
Points conjugués par rapport à une quadrique
Les deux formes quadratiques associées à une quadrique
Téléchargement