Cours de mathématiques PC : algèbre

publicité
Chapitre
5
Espaces euclidiens.
Endomorphismes symétriques et
orthogonaux.
Dans ce chapitre, tous les espaces vectoriels sont des R-espaces vectoriels.
5.1
5.1.1
Produit scalaire et orthogonalité
Définition, inégalité de Cauchy-Schwarz
Rappelons la définition d’un produit scalaire :
Définition (produit scalaire)
Un produit scalaire sur un R-espace vectoriel E est une application bilinéaire symétrique
h· | ·i : E × E −→ R
définie positive, i.e. vérifiant
∀x ∈ E \ {0}, hx | xi > 0.
Exemple 1. Sur Rn , l’application (x, y) 7−→ hx | yi =
scalaire canonique sur Rn .
Pn
i=1
xi yi est un produit scalaire, appelé produit
Exemple 2. Sur l’espace Mn,1 (R) des matrices colonne, l’application (X, Y ) 7−→ hX | Y i = X T Y (où
l’on identifie la matrice X T Y ∈ M1,1 (R) à son unique coefficient) est un produit scalaire, appelé produit
scalaire canonique sur Mn,1 (R).
Pn
Exemple 3. Sur l’espace E = Rn [X], l’application (P, Q) 7−→ hP | Qi = k=0 pk qk , où pk (resp. qk ) est le
coefficient de degré k du polynôme P (resp. Q), est un produit scalaire, appelé produit scalaire canonique
sur Rn [X]. OnP
peut de la même façon définir un produit scalaire sur l’espace R[X] de dimension infinie
par hP | Qi = k>0 pk qk (qui est une somme finie car les coefficients sont tous nuls à partir d’un certain
rang). Ce produit scalaire (sur R[X] cette fois-ci) est encore appelé canonique.
Rb
Exemple 4. Sur l’espace E = C ([a, b], R), l’application (f, g) 7−→ hf | gi = a f g est un produit scalaire.
En effet, la seule chose non évidente à vérifier est le caractère défini positif. Pour cela, remarquons que, si f
est une fonction continue sur le segment [a, b], alors la fonction f 2 est positive ou nulle, donc hf | f i > 0.
Si de plus hf | f i = 0, alors la fonction f 2 , positive et continue, est d’intégrale nulle (sur [a, b]), donc c’est
la fonction nulle, donc f est aussi la fonction nulle. Par contraposition, si f n’est pas la fonction nulle,
alors hf | f i > 0.
67
68
Chapitre 5. Espaces euclidiens.
Endomorphismes symétriques et orthogonaux.
Définition (espace préhilbertien)
Un espace préhilbertien est un R-espace vectoriel muni d’un produit scalaire.
Remarque 1. Si E est un espace préhilbertien, tout sous-espace F de E hérite, par restriction, d’un
produit scalaire, donc est lui aussi un espace préhilbertien.
Dans toute la suite, E désigne un espace préhilbertien (réel).
Définition (norme)
Soit E un espace préhilbertien. La norme d’un vecteur x est le réel
p
||x|| = hx | xi.
Proposition
Pour tous vecteurs x, y ∈ E et tout réel λ, on a
– ||λx|| = |λ|||x||
– ||x|| > 0, avec égalité si, et seulement si, x = 0
– ||x + y||2 = ||x||2 + ||y||2 + 2hx | yi.
Remarque 2. En pratique, pour montrer qu’un vecteur est nul, on pourra chercher à montrer que sa
norme est nulle.
Théorème (inégalité de Cauchy-Schwarz)
Pour tous vecteurs x, y ∈ E, on a
−||x||||y|| 6 hx | yi 6 ||x||||y||,
avec égalité à
– droite si, et seulement si, x et y sont colinéaires et de même sens (au sens large)
– gauche si, et seulement si, x et y sont colinéaires et de sens opposés (au sens large).
La locution «au sens large» indique que le vecteur nul doit être considéré comme étant à la fois de même
sens et de sens opposé à tout vecteur (en effet, le nombre 0 est à la fois positif et négatif).
Démonstration. Commençons par examiner le cas y = 0, ce qui équivaut à ||y|| = 0 : la double inégalité
est vérifiée. Ces deux inégalités sont même des égalités, et les vecteurs x et y sont bien colinéaires et de
même sens, ainsi que colinéaires et de sens opposés.
Supposons maintenant y 6= 0. Considérons l’application
f: R
t
−→
7−→
R+
.
||x + ty||2
Pour tout réel t, on a
f (t) = ||x||2 + 2thx | yi + t2 ||y||2
donc la fonction f est polynomiale de degré 2 (exactement car ||y||2 6= 0). Comme elle est de signe constant,
son discriminant est négatif ou nul, donc hx | yi2 − ||x||2 ||y||2 6 0, ce qui est l’inégalité cherchée.
– Supposons maintenant que l’inégalité soit une égalité. Alors le discriminant est nul, donc la fonction f
admet une racine (double) λ. La propriété f (λ) = 0 s’écrit ||x + λy|| = 0, d’où l’on déduit que x = −λy :
les vecteurs sont colinéaires.
– Réciproquement, supposons que les vecteurs soient colinéaires. Notons t le réel tel que x = ty (ce qui
est possible car on sait que y est non nul). On a alors
||x||||y|| = ||ty||||y|| = |t|||y||2
et
hx | yi = hty | yi = t||y||2 ,
donc
– si x et y sont de même sens (i.e. t > 0), on a égalité à droite dans l’inégalité de Cauchy-Schwarz
5.1. Produit scalaire et orthogonalité
69
– si x et y sont de sens opposés (i.e. t 6 0), on a égalité à gauche dans l’inégalité de CauchySchwarz.
Théorème (inégalités triangulaires)
Soient x, y ∈ E. On a
||x|| − ||y|| 6 ||x + y|| 6 ||x|| + ||y||
avec égalité à
– droite si, et seulement si, x et y sont colinéaires et de même sens (au sens large)
– gauche si, et seulement si, x et y sont colinéaires et de sens opposés.
Démonstration. On a, grâce à l’inégalité de Cauchy-Schwarz :
||x + y||2 = ||x||2 + ||y||2 + 2hx | yi 6 ||x||2 + ||y||2 + 2||x|| · ||y|| = (||x|| + ||y||)2 ,
d’où l’inégalité ||x + y|| 6 ||x|| + ||y||, avec égalité si, et seulement si, on est dans le cas d’égalité à droite
dans l’inégalité de Cauchy-Schwarz, i.e. si, et seulement si, x et y sont colinéaires et de même sens.
De même, on a
(||x|| − ||y||)2 = ||x||2 + ||y||2 − 2||x|| · ||y|| 6 ||x||2 + ||y||2 + 2hx | yi = ||x + y||2 ,
d’où l’autre inégalité, avec égalité si, et seulement si, x et y sont colinéaires et de sens opposés (au sens
large).
5.1.2
Orthogonalité
Dans tout ce paragraphe, E désigne un espace préhilbertien.
Définition (orthogonalité)
Deux vecteurs x, y ∈ E sont dits orthogonaux si, et seulement si, hx | yi = 0. On note x ⊥ y.
Remarque 1. Le vecteur nul est orthogonal à tous les vecteurs, et c’est le seul à vérifier cette propriété
(c’est donc une façon de montrer qu’un vecteur est nul : démontrer qu’il est orthogonal à tout vecteur
de E).
Définition (familles orthogonales et orthonormées)
Une famille (xi )i∈I de vecteurs de E est dite
– orthogonale si, et seulement si, xi ⊥ xj pour tous i, j ∈ I, i 6= j
– orthonormée si, et seulement si : ∀i, j ∈ I, hxi | xj i = δij .
Une famille orthonormée est donc une famille orthogonale dont les vecteurs sont tous unitaires.
Exemple 1. La base canonique de Rn , muni de son produit scalaire canonique, est une base orthonormée.
Exemple 2. La base canonique de R[X], muni de son produit scalaire canonique, est une base orthonormée.
Proposition
Une famille orthogonale dont tous les vecteurs sont non nuls est libre. C’est en particulier le cas d’une
famille orthonormée.
Démonstration. Soit (xi )i∈I une famille
P orthogonale dont aucun vecteur n’est nul. Soit (λi )i∈I une famille
à support fini de scalaires telle que i∈I λi xi = 0. Soit j ∈ I : on a
P
P
0 = h i∈I λi xi | xj i = i∈I λi hxi | xj i = λj ||xj ||2 .
Le vecteur xj étant non nul, on en déduit que λj = 0. Ceci étant vrai pour tout j ∈ I, la famille est
libre.
70
Chapitre 5. Espaces euclidiens.
Endomorphismes symétriques et orthogonaux.
Théorème (Pythagore)
Soit x1 , x2 deux vecteurs de E. On a l’équivalence suivante :
x1 ⊥ x2 ⇐⇒ ||x1 + x2 ||2 = ||x1 ||2 + ||x2 ||2 .
Démonstration. En effet, la différence
||x1 + x2 ||2 − (||x1 ||2 + ||x2 ||2 ) = ||x1 ||2 + ||x2 ||2 − 2hx1 | x2 i − ||x1 ||2 − ||x2 ||2 = 2hx1 | x2 i
est nulle si, et seulement si, x1 et x2 sont orthogonaux.
Théorème (Pythagore)
Soit (x1 , . . . , xn ) une famille orthogonale (n > 2). Alors
||x1 + · · · + xn ||2 = ||x1 ||2 + · · · + ||xn ||2 .
La réciproque est fausse si n > 2.
Démonstration. Procédons par récurrence sur n.
– Pour n = 2, la propriété est vraie.
– Soit n > 2. Supposons la propriété vraie pour une famille de n vecteurs, démontrons-la pour une famille
(x1 , . . . , xn+1 ) de n + 1 vecteurs. Pour cela, remarquons que le vecteur xn+1 est orthogonale à la somme
x1 + · · · + xn :
hx1 + · · · + xn | xn+1 i = hx1 | xn+1 i + · · · + hxn | xn+1 i = 0.
On a donc, en appliquant successivement le cas n = 2 et l’hypothèse de récurrence :
||(x1 + · · · + xn ) + xn+1 ||2 = ||x1 + · · · + xn ||2 + ||xn+1 ||2 = ||x1 ||2 + · · · + ||xn ||2 + ||xn+1 ||2
ce qui prouve la propriété au rang n + 1, donc pour tout entier pour récurrence.
Définition (orthogonal d’un sous-espace vectoriel)
Soit F un sous-espace vectoriel de E. L’orthogonal de F est l’ensemble F ⊥ des vecteurs orthogonaux
à tous les vecteurs de F :
F ⊥ = {x ∈ E | ∀y ∈ F, x ⊥ y}.
Proposition
L’orthogonal d’un sous-espace vectoriel F est encore un sous-espace vectoriel de E.
Démonstration. Il est clair que
– le vecteur nul est orthogonal à tous les vecteurs de F
– si x1 et x2 sont deux vecteurs orthogonaux à tous les vecteurs de F et λ un réel, alors, pour tout
vecteur y ∈ F , on a
hx1 + λx2 | yi = hx1 | yi + λhx2 | yi = 0
donc x1 + λx2 appartient à F ⊥ .
Exemple 3. L’orthogonal de l’espace nul est l’espace E ; l’orthogonal de l’espace E est l’espace nul.
Remarque 2. Si F et G sont deux sous-espaces vectoriels de E vérifiant F ⊂ G, on a G⊥ ⊂ F ⊥ .
Définition (sous-espaces orthogonaux)
Deux sous-espaces vectoriels F et G sont dits orthogonaux si, et seulement si, pour tout x ∈ F et tout
y ∈ G, on a x ⊥ y. On note F ⊥ G.
5.2. Espaces euclidiens
71
Remarque 3. Il est équivalent de dire que F ⊂ G⊥ , ou encore que G ⊂ F ⊥ .
Proposition
Soient F, G deux sous-espaces vectoriels orthogonaux. Alors F ∩ G = {0}.
Démonstration. Soit x un vecteur de F ∩G. Ce vecteur appartient à F , donc est orthogonal à tout vecteur
de G, donc à lui-même. Donc x = 0.
Si F et G sont deux sous-espaces vectoriels orthogonaux, la somme F + G est donc directe ; elle est
⊥ G et on parle de somme directe orthogonale.
notée F Proposition
Soit F un sous-espace vectoriel de E. Si E = F ⊕ F ⊥ , alors F ⊥ est le seul supplémentaire de F qui
soit orthogonal à F .
⊥ F ⊥ ). Soit G un sous-espace vectoriel de E
Démonstration. Supposons E = F ⊕ F ⊥ (donc E = F ⊥
⊥ G. Alors F ⊥ G, donc G ⊂ F . Pour l’autre inclusion, choisissons un vecteur x ∈ F ⊥ .
vérifiant E = F ⊥ G. Comme G ⊂ F ⊥ , cette
Écrivons sa décomposition x = xF + xG sur la somme directe E = F ⊥ F ⊥ . Mais cette dernière
décomposition est aussi la décomposition de x sur la somme directe E = F est x = 0 + x. On en déduit donc que x = xG , donc que x appartient à G.
Définition (supplémentaire orthogonal ; projecteur orthogonal)
⊥ F ⊥ , l’espace F ⊥ est appelé le supplémentaire orthogonal de F . Le projecteur sur F
Si E = F parallèlement à F ⊥ est appelé projecteur orthogonal sur F .
Attention! En général, la relation E = F ⊕ F ⊥ est fausse ; seule l’inclusion F ⊕ F ⊥ ⊂ E est vraie.
Si F est un sous-espace vectoriel quelconque de E, on ne peut donc en général pas parler du projecteur
orthogonal sur F .
Proposition
Toute droite vectorielle admet un supplémentaire orthogonal. Si a est un vecteur unitaire de D, le
projecteur orthogonal sur D est l’application x 7→ pD (x) = ha | xia.
Démonstration. Soit D une droite de E. Il s’agit de démontrer que tout vecteur x ∈ E peut se décompose
de façon unique sous la forme x = xD + x⊥ , où xD appartient à D et x⊥ est orthogonal à D. Pour cela,
choisissons un vecteur a unitaire de D. Pour tout vecteur x ∈ E, posons xD = ha | xia et x⊥ = x − xD .
On a clairement xD ∈ D. De plus, ha | x⊥ i = ha | x − ha | xiai = ha | xi − ha | xi||a||2 = 0, ce qui prouve
que x⊥ ∈ D⊥ . L’unicité de la décomposition résulte de ce que D ∩ D⊥ = {0}.
5.2
Espaces euclidiens
5.2.1
Bases orthonormées
Définition
Un espace eucliden est un espace préhilbertien de dimension finie.
Théorème
Tout espace euclidien admet une base orthonormée.
72
Chapitre 5. Espaces euclidiens.
Endomorphismes symétriques et orthogonaux.
Démonstration. Procédons par récurrence sur la dimension n de E.
– Pour n = 1, il suffit de choisir un vecteur non nul de E et de le diviser par sa norme pour obtenir une
base orthonormée.
– Soit n > 1. Supposons le résultat vrai pour tout espace euclidien de dimension n et considérons un
espace euclidien E de dimension n + 1. Choisissons un vecteur e1 unitaire de E et considérons le sousespace H = Vect(e1 )⊥ (toute droite admet un supplémentaire orthogonal) : il est de dimension n, donc
admet une base orthonormée par hypothèse de récurrence. En ajoutant le vecteur e1 à une telle base, on
obtient une base orthonormée de E.
Théorème (expression du produit scalaire et de la norme en base orthonormée)
Soit B = (e1 , . . . , en ) une base orthonormée de l’espace euclidien E. Soient x = x1 e1 + · · · + xn en et
y = y1 e1 + · · · + yn en ∈ E. Alors
hx | yi = x1 y1 + · · · + xn yn
et
||x||2 = x21 + · · · + x2n .
Démonstration. Par bilinéarité et symétrie du produit scalaire, on a
hx | yi =
X
xi yj hei | ej i =
i,j
n
X
xi yi .
i=1
L’autre formule s’en déduit immédiatement.
Attention! Ces formules ne sont vraies que parce que les coordonnées sont exprimées dans une base
orthonormée.
Remarque 1. En notant X = matB (x) et Y = matB (y) (où B est toujours une base orthonormée), cette
formule s’écrit encore, via l’identification d’une matrice (1, 1) à son unique coefficient :
hx | yi = X T Y.
Théorème (coordonnées en base orthonormée)
Soit (e1 , . . . , en ) une base orthonormée de E. Pour tout vecteur x ∈ E, on a x =
n
X
hek | xiek .
k=1
Démonstration. Écrivons x = x1 e1 + · · · + xn en . En prenant le produit scalaire de cette égalité avec le
vecteur ek , on trouve xk = hek | xi.
5.2.2
Projecteurs orthogonaux, supplémentaire orthogonal
Théorème (supplémentaire orthogonal d’un sous-espace de dimension finie)
Soit E un espace préhilbertien (pas nécessairement de dimension finie) et F un sous-espace vectoriel
de dimension finie de E. Alors F admet un supplémentaire orthogonal.
Si B = (e1 , . . . , en ) est une base orthonormée de F , le projecteur orthogonal pF sur F est
pF : x 7→
n
X
hei | xiei .
i=1
Démonstration. Soit B = (e1 , . . . , en ) une
Pn base orthonormée de F .
Soit x un vecteur de E. Posons xF = i=1 hei | xiei et y = x − xF . Le vecteur xF appartient à F . De
plus, pour tout j ∈ [[1, n]], on a
hej | yi = hej | xi −
n
X
hei | xihej | ei i = hej | xi − hej | xi = 0,
i=1
donc le vecteur y est orthogonal à tout vecteur de F , donc appartient à F ⊥ . On a donc l’égalité E =
⊥ F ⊥ . Le projeté orthogonal de x sur F est xF .
F + F ⊥ , donc E = F 73
5.2. Espaces euclidiens
Remarque 1. Si la famille (e1 , . . . , en ) est seulement une base orthogonale de F , le projecteur orthogonal pF
est défini par
n
X
hei | xi
pF : x 7−→ pF (x) =
ei .
||ei ||2
i=1
En effet, la famille ||ee11 || , . . . , ||eenn || est une base orthonormée de F .
Proposition
Soit E un espace euclidien. Pour tout sous-espace vectoriel F de E, on a
– dim(E) = dim(F ) + dim(F ⊥ )
– (F ⊥ )⊥ = F .
Démonstration. La première formule résulte de ce que F ⊥ est un supplémentaire de F ; la seconde est
⊥ F ⊥ montre que F est un supplémentaire orthogonal de F ⊥ , c’est donc son
vraie car l’égalité E = F supplémentaire orthogonal, i.e. (F ⊥ )⊥ .
Définition (distance à un sous-espace vectoriel)
Soit x un vecteur d’un espace préhilbertien E et F un sous-espace vectoriel de E. La distance de x
à F est
d(x, F ) = inf d(x, y) = inf ||x − y||.
y∈F
y∈F
Théorème (distance à un sous-espace vectoriel de dimension finie)
Soit F un sous-espace vectoriel de dimension finie de E et x un vecteur de E. Il existe un unique
vecteur y ∈ F tel que d(x, F ) = d(x, y) : c’est y = pF (x).
Démonstration. Soit y un vecteur de E. On a, par le théorème de Pythagore :
d(x, y)2 = ||x − y||2 = ||(x − pF (x)) + (pF (x) − y)||2 = ||x − pF (x)||2 + ||pF (x) − y||2 > ||x − pF (x)||2 ,
avec égalité si, et seulement si, y = pF (x).
Remarque 2. Avec les notations du théorème, on a donc ||x||2 = ||pF (x)||2 + d(x, F )2 .
Théorème (orthonormalisation de Gram-Schmidt)
Soit B = (e1 , . . . , en ) une base de l’espace euclidien E. Il existe une base orthonormée C = (ε1 , . . . , εn )
telle que
∀p ∈ [[1, n]], Vect(ε1 , . . . , εp ) = Vect(e1 , . . . , ep ).
La base C est l’orthonormalisée de la base B.
Démonstration. On construit les vecteurs par étapes.
– Le vecteur ε1 = ||e11 || e1 est unitaire et colinéaire à e1 .
– Soit p ∈ [[1, n − 1]]. Supposons construite une base orthonormée (ε1 , . . . , εp ) de Vect(e1 , . . . , ei ). Posons
alors
p
X
1
fp+1 = ep+1 −
hεk | ep+1 iεk
et
εp+1 =
fp+1 .
||fp+1 ||
k=1
On vérifie immédiatement que le vecteur fp+1 est dans Vect(e1 , . . . , ep+1 ) et orthogonal à Vect(e1 , . . . , ep ) =
Vect(ε1 , . . . , εp ), donc que (ε1 , . . . , εp+1 ) est une base orthonormée de Vect(e1 , . . . , ep+1 ).
Remarque 3. Le vecteur fp+1 est le «redressé» du vecteur ep+1 orthogonalement à Vect(e1 , . . . , ep ) : on
lui a retranché sa projection orthogonale sur Vect(e1 , . . . , ep ).
74
Chapitre 5. Espaces euclidiens.
Endomorphismes symétriques et orthogonaux.
Remarque 4. On se contente parfois de calculer la famille orthogonale des vecteurs fk pour éviter de
faire apparaître les racines carrées liées aux normes. Dans ce cas, le projeté orthogonal de ep+1 sur
Vect(e1 , . . . , ep ) se calcule par la formule
p
X
hfk | ep+1 i
fk
||fk ||2
k=1
(ne pas oublier que le vecteur fk n’est pas unitaire !).
5.3
5.3.1
Automorphismes orthogonaux ; matrices orthogonales
Automorphismes orthogonaux (isométries)
Dans tout ce paragraphe, E désigne un espace euclidien (donc de dimension finie).
Définition
Un endomorphisme f de E est dit orthogonal (on dit aussi que c’est une isométrie) si, et seulement si,
∀x, y ∈ E, hf (x) | f (y)i = hx | yi.
On note O(E) l’ensemble des endomorphismes orthogonaux.
Autrement dit, c’est une application linéaire qui «respecte le produit scalaire».
Théorème
Tout endomorphisme orthogonal de E est un automorphisme. De plus, l’ensemble O(E) est un sousgroupe du groupe linéaire GL(E).
Démonstration. Si x est un vecteur du noyau de f ∈ O(E), il vérifie hx | xi = hf (x) | f (x)i = 0,
donc x = 0 : l’endomorphisme f est injectif, donc bijectif (car E est de dimension finie). Il est ensuite
clair que l’application IdE est un automorphisme orthogonal, que la composée de deux automorphismes
orthogonaux en est encore un, de même que la bijection réciproque d’une automorphisme orthogonal.
Théorème (caractérisation des automorphismes orthogonaux par la norme)
Un endomorphisme f ∈ L(E) est un automorphisme orthogonal si, et seulement si, il vérifie
∀x ∈ E, ||f (x)|| = ||x||.
Démonstration. Il est clair que si f est un automorphisme orthogonal, il conserve la norme des vecteurs.
Réciproquement, supposons que f préserve la norme de tous les vecteurs. L’identité de polarisation
hx | yi =
1
(||x + y||2 − ||x||2 − ||y||2 )
2
donne, pour tous vecteurs x, y ∈ E :
1
||f (x) + f (y)||2 − ||f (x)||2 − ||f (y)||2
2
1
= ||f (x + y)||2 − ||x||2 − ||y||2
2
1
= ||x + y||2 − ||x||2 − ||y||2 = hx | yi,
2
hf (x) | f (y)i =
ce qui prouve que f est un automorphisme orthogonal.
Remarque 1. Cette propriété justifie la terminologie isométrie : les automorphismes orthogonaux sont
ceux qui conservent la norme (longueur) des vecteurs.
5.3. Automorphismes orthogonaux ; matrices orthogonales
75
Exemple 1. Soit F un sous-espace vectoriel de E et s la symétrie orthogonale par rapport à F (la
symétrie par rapport à F parralèlement à F ⊥ ). Alors s est une isométrie. En effet, soit x un vecteur de E
et x = xF + xF ⊥ sa décompositon sur la somme directe. On a
s(x) = xF − xF ⊥ ,
d’où (théorème de Pythagore)
||s(x)||2 = ||xF − xF ⊥ ||2 = ||xF ||2 + ||xF ⊥ ||2 = ||xF + xF ⊥ ||2 = ||x||2 .
Dans le cas où l’espace F est de dimension n − 1 (où n = dim E), on dit que s est une réflexion. Ainsi,
une réflexion
– plane est une symétrie orthogonale par rapport à une droite ;
– de l’espace (de dimension 3) est une symétrie orthogonale par rapport à un plan.
Théorème (caractérisation des automorphismes orthogonaux par l’action sur les bases orthonormées)
Soit f ∈ L(E). Les assertions suivantes sont équivalentes :
1. f ∈ O(E).
2. Il existe une base orthonormée (e1 , . . . , en ) de E telle que f (e1 ), . . . , f (en ) soit une base orthonormée de E.
3. Pour toute base orthonormée (e1 , . . . , en ) de E, f (e1 ), . . . , f (en ) est une base orthonormée
de E.
Démonstration. 1) =⇒ 3) : soit (e1 , . . . , en ) une base orthonormée de E. Pour tous i, j ∈ [[1, n]], on a
hf (ei ) | f (ej )i = hei | ej i = δi,j
donc f (e1 ), . . . , f (en ) est une base orthonormée.
3) =⇒ 2) : évident.
Pn
2) =⇒ 1) : soit (e1 , . . . , en ) une telle base orthonormée. Pour tout x = i=1 xi ei , on a
pPn
Pn
Pn
2
||f (x)|| = ||f ( i=1 xi ei )|| = || i=1 xi f (ei )|| =
i=1 xi = ||x||
donc f est orthogonal.
Proposition (espaces stables)
Soit f un automorphisme orthogonal de E et F un sous-espace stable par f . Alors l’espace F ⊥ est
stable par f . De plus, les endomorphismes induits par f sur F et F ⊥ sont encore des automorphismes
orthogonaux.
Démonstration. Commençons par remarquer que l’endomorphisme fF induit par f sur F est un isomorphisme : en effet, il est injectif (car f l’est) et F est de dimension finie. Comme f conserve la norme des
vecteurs, il en est de même de fF , donc c’est un automorphisme orthogonal de F . Montrons maintenant
que F ⊥ est stable par f . Pour cela, soit x un vecteur de F ⊥ : il s’agit de démontrer que f (x) appartient
encore à F ⊥ , i.e. qu’il est orthogonal à tout vecteur de F . Soit donc y un vecteur de F . Choisissons un
vecteur t ∈ F tel que y = f (t) (l’endomorphisme fF est bijectif). On a
hf (x) | yi = hf (x) | f (t)i = hx | ti = 0,
donc f (x) ∈ F ⊥ . Cet espace étant stable par f , l’endomorphisme induit par f sur F ⊥ est un automorphisme orthogonal.
76
Chapitre 5. Espaces euclidiens.
5.3.2
Endomorphismes symétriques et orthogonaux.
Matrices orthogonales
Théorème (caractérisation matricielle des automorphismes orthogonaux)
Soit f ∈ L(E), B une base orthonormée et A = matB (f ). Les assertions suivantes sont équivalentes :
1. f ∈ O(E).
2. AT A = In .
3. AAT = In .
Démonstration. Les deux assertions 2) et 3) sont clairement équivalentes ; elles signifient que A est inversible, d’inverse AT . Démontrons donc l’équivalence de 1) et 2).
Notons (e1 , . . . , en ) la base orthonormée B et C = AT A. La colonne Cj (A) de A est matB (f (ej )) ; le
coefficient ci,j de la matrice C est égal à Li (AT )Cj (A) = CiT (A)Cj (A). Comme la base est orthonormée,
ce nombre est le produit scalaire hf (ei ) | f (ej )i. Par suite, la matrice AT A est égale à la matrice In si, et
seulement si, on a hf (ei ) | f (ej )i = δi,j pour tous i, j, i.e. si, et seulement si, la famille f (e1 ), . . . , f (en )
est une base orthonormée, ce qui équivaut à f ∈ O(E).
Définition (matrice orthogonale)
Une matrice A ∈ Mn (R) est dite orthogonale si, et seulement si, elle vérifie AT A = In (ce qui équivaut
à AAT = In ). On note On (R) l’ensemble {A ∈ Mn (R) | AT A = In } des matrices orthogonales.
Un endomorphisme de E est donc un automorphisme orthogonal si, et seulement si, sa matrice dans
une base orthonormée (donc dans toute base orthonormée) est orthogonale. Tout comme O(E) est un
sous-groupe de GL(E), l’ensemble On (R) est un sous-groupe de GLn (R).
Remarque 1. La matrice AT A est symétrique ; il n’est donc pas nécessaire de calculer tous ses coefficients
pour savoir si AT A = In . Par ailleurs, le coefficient d’indice (i, j) de cette matrice est le produit scalaire
de la ième colonne de A avec la j ème colonne. La matrice est donc orthogonale si, et seulement si, ses
colonnes sont deux à deux orthogonales, et unitaires.
Exemple 1. La matrice

1

A = 0
0
0
√
3
2
1
2

0
1
−
√2 
3
2
vérifie
3 1
||C1 || = 1, ||C2 || = ||C3 || = + = 1
4 4
2
2
2
√
et
√
3
3
hC1 | C2 i = hC1 | C3 i = 0, hC2 | C3 i = −
+
=0
4
4
donc A est une matrice orthogonale.
Théorème (déterminant d’une matrice orthogonale, d’un automorphisme orthogonal)
Soit A une matrice orthogonale. Alors | det(A)| = 1.
Soit f un automorphisme orthogonal. Alors | det(f )| = 1.
Démonstration. La matrice A vérifie AT A = In , d’où l’on tire det(AT A) = det(In ) = 1. Or
det(AT A) = det(AT ) det(A) = det(A)2 ,
donc det(A)2 = 1. Pour l’automorphisme orthogonal f , il suffit d’écrire sa matrice M dans une base
orthonormée : c’est une matrice orthogonale, donc son déterminant vérifie | det(f )| = | det(M )| = 1.
Attention! Une matrice A vérifiant det(A) = ±1 n’est en général pas une matrice orthogonale ! Par
exemple, la matrice A = [ 10 11 ] a pour déterminant 1 mais n’est pas orthogonale (les deux colonnes ne sont
pas orthogonales).
5.3. Automorphismes orthogonaux ; matrices orthogonales
77
Définition (automorphismes orthogonaux directs et indirects)
Un automorphisme orthogonal f est dit direct si, et seulement si, det(f ) = 1. On dit encore que f
est un automorphisme spécial orthogonal. On note SO(E) = O+ (E) l’ensemble des automorphismes
orthogonaux directs. Dans le cas contraire (i.e. si det(f ) = −1), l’automorphisme orthogonal f est dit
indirect. On note O− (E) l’ensemble des automorphismes orthogonaux indirects.
Exemple 2. Une réflexion (symétrie orthogonale par rapport à un sous-espace de dimension n − 1) est un
automorphisme orthogonal indirect : dans une base adaptée, sa matrice est diagonale et comporte n − 1
occurrences du coefficient 1 et une seule du coefficient −1.
Proposition
L’ensemble SO(E) est un sous-groupe du groupe orthogonal O(E) de E, appelé groupe spécial orthogonal de E.
Démonstration. L’application IdE appartient à SO(E) ; les formules
det(g ◦ f ) = det(g) det(f )
et
det(f −1 ) = det(f )−1
montrent immédiatement que, f, g appartiennent à SO(E), il en est de même de g ◦ f et f −1 .
Attention! L’ensemble O− (E) n’est pas un groupe ! La composée de deux automorphismes orthogonaux
indirects est un automorphisme orthogonal direct.
Définition (matrices orthogonales directes et indirectes)
Une matrice orthogonale A est dite directe si, et seulement si, det(A) = 1. On dit encore que A est
une matrice spéciale orthogonale. On note SOn (R) = O+
n (R) l’ensemble des matrices orthogonales
directes. Dans le cas contraire (i.e. si det(A) = −1), la matrice orthogonale A est dite indirecte. On
note O−
n (R) l’ensemble des matrices orthogonales indirectes.
Un automorphisme orthogonal f de E est direct (resp. indirect) si, et seulement si, sa matrice A exprimée dans une base orthonormée directe de E est orthogonale directe (resp. indirecte). Plus précisément,
si B est une base orthonormée directe de E, l’isomorphisme de groupes
O(E) −→
f
7−→
On (R)
matB (f )
−
−
envoie O+ (E) sur O+
n (R) et O (E) sur On (R). L’ensemble SOn (R) est un sous-groupe de On (R), alors
−
que On (R) n’en est pas un.
Proposition (matrices de changement de base orthogonale)
Soit B une base orthonormée de E et C une autre base. Notons P la matrice de passage de la base B
à la base C . Alors C est une base orthonormée de E si, et seulement si, P est une matrice orthogonale.
Si c’est le cas, la base C est de même orientation que la base B si, et seulement si, la matrice P est
spéciale orthogonale.
Démonstration. Notons ei les vecteurs de la base B et εi les vecteurs de la base C . La ième colonne Xi
de la matrice P est la matrice matB (εi ). La base B étant orthonormée, on a, pour tous i, j :
hεi | εj i = XiT Xj .
Ainsi, la base C est orthonormée si, et seulement si, les colonnes de la matrice P sont deux à deux
orthogonales et unitaires, i.e. si, et seulement si, la matrice P est orthogonale.
78
Chapitre 5. Espaces euclidiens.
Endomorphismes symétriques et orthogonaux.
Ceci a une conséquence très intéressante sur le déterminant. Nous savons que le déterminant d’une
famille de vecteurs n’est pas défini de façon intrinsèque : il dépend de la base utilisée pour calculer le
déterminant. Ce problème disparaît lorsque l’on se limite à certaines bases :
Théorème (déterminant en base orthonormée directe)
On suppose l’espace E orienté de dimension n. Si B1 et B2 sont deux bases orthonormées directes,
alors, pour toute famille (x1 , . . . , xn ) de E, on a
detB1 (x1 , . . . , xn ) = detB2 (x1 , . . . , xn ).
Démonstration. En effet, en notant P la matrice de passage de la base B1 à la base B2 , on a
detB1 (x1 , . . . , xn ) = det(P ) detB2 (x1 , . . . , xn ),
et la matrice P est spéciale orthogonale, donc de déterminant égale à 1.
5.3.3
Isométries planes
Dans le cas où l’espace euclidien E est un plan, il est facile de donner la description de toutes les
isométries, directes comme indirectes. Pour ce faire, commençons par déterminer toutes les matrices
orthogonales de taille 2, directes comme indirectes.
Théorème
Soit A ∈ M2 (R). Alors
a
1. A ∈ SO2 (R) si, et seulement si, il existe a, b ∈ R tels que a + b = 1 et A =
b
−b
;
a
a
2. A ∈ O2 (R) \ SO2 (R) si, et seulement si, il existe a, b ∈ R tels que a2 + b2 = 1 et A =
b
2
2
b
.
−a
a
b
c
∈ M2 (R). La première colonne est unitaire, donc a2 + b2 = 1. la
d
−b
−b
seconde est orthogonale à la première, donc colinéaire à
. Comme elle est unitaire, c’est ±
.
a
a
a −b
a
b
Ainsi, toute matrice orthogonale est de la forme
ou
, où a2 + b2 = 1. Réciproquement,
b
a
b −a
on vérifie immédiatement que ces matrices sont orthogonales pour tous réels a, b tels que a2 + b2 = 1, de
déterminant 1 pour le premier type, −1 pour le second.
Démonstration. Soit A =
Corollaire
Soit A ∈ M2 (R).
− sin θ
.
cos θ
cos θ
sin θ
2. Si A ∈ O2 (R) \ SO2 (R), il existe un réel θ, unique modulo 2π, tel que A =
. On
sin θ − cos θ
a alors A2 = I2 .
1. Si A ∈ SO2 (R), il existe un réel θ, unique modulo 2π, tel que A =
cos θ
sin θ
De cette description des matrices orthogonales, on déduit la description des automorphismes orthogonaux. Pour cela, plaçons-nous désormais dans un plan E euclidien orienté.
Lemme
Soit ϕ ∈ SO(E). Ilexiste un réel θ,
unique modulo 2π, tel que pour toute base orthonormée directe B,
cos θ − sin θ
on ait matB (ϕ) =
.
sin θ
cos θ
5.3. Automorphismes orthogonaux ; matrices orthogonales
79
Démonstration. Soit B1 une base orthonormée directe et A = matB1 (ϕ). Soit θ le réel, unique modulo 2π,
tel que
cos θ − sin θ
A=
.
sin θ
cos θ
Il s’agit de montrer que, si B2 est une autre base orthonormée directe, on a encore
cos θ − sin θ
matB2 (ϕ) =
.
sin θ
cos θ
La matrice de passage P de B1 à B2 étant spéciale orthogonale (B1 et B2 sont deux bases orthonormées
directes), elle est de la forme
cos α − sin α
P =
.
sin α
cos α
On a alors
−1 cos α − sin α
cos θ − sin θ
cos α − sin α
matB2 (ϕ) =
·
·
sin α
cos α
sin θ
cos θ
sin α
cos α
cos(−α) − sin(−α)
cos(θ + α) − sin(θ + α)
=
·
sin(−α)
cos(−α)
sin(θ + α)
cos(θ + α)
cos θ − sin θ
=
sin θ
cos θ
Définition (rotation)
Soit θ ∈ R. L’application ϕ ∈ SO(E) telle que pour toute base orthonormée directe B, on ait
cos θ − sin θ
matB (ϕ) =
est appelée rotation d’angle θ ; on la note ρθ . Le réel θ est une mesure de
sin θ
cos θ
l’angle de la rotation.
On a donc le
Théorème
Les éléments de SO(E) sont les rotations. Pour tous θ1 , θ2 ∈ R, on a
ρθ1 ρθ2 = ρθ2 ρθ1 = ρθ1 +θ2
et
ρ−1
θ1 = ρ−θ1 .
La formule sur les compositions et l’inverse résulte des calculs faits sur les matrices dans la démonstration du lemme.
Deux rotations ρθ1 et ρθ2 sont égales si, et seulement si, θ2 ≡ θ1 [2π].
Expression complexe d’une rotation
Soit B = (e1 , e2 ) une base orthonormée directe de E. À tout vecteur u = xe1 + ye2 , on associe son affixe
z = x + iy. Le calcul matriciel
cos θ − sin θ x
cos θx − sin θy
=
sin θ
cos θ y
sin θx + cos θy
montre que le vecteur ρθ (u) a pour coordonnées (dans la base B) (cos θx − sin θy, sin θx + cos θy). Mais
ces coordonnées apparaissent aussi dans le calcul de
z 0 = eiθ z = (cos θ + i sin θ)(x + iy) = (cos θx − sin θy) + i(sin θx + cos θy).
Ce complexe z 0 est donc l’affixe du vecteur ρθ (u). On dit que l’écriture z 0 = eiθ z est l’écriture complexe
de la rotation ρθ .
80
Chapitre 5. Espaces euclidiens.
Endomorphismes symétriques et orthogonaux.
Angle de deux vecteurs
Lemme
Soient u, v ∈ E deux vecteurs unitaires. Il existe une unique rotation ρ de E telle que ρ(u) = v.
Démonstration. Soit e1 = u et e2 l’unique vecteur tel que B = (e1 , e2 ) soit une base orthonormée directe.
On a u = e1 et v = ae1 + be2 , avec a2 + b2 =
1.
On cherche ρ ∈ SO(E) tel que ρ(u)
= v.Sa matrice A
a
a −b
dans la base B orthonormée doit donc avoir
pour première colonne, donc A =
. Ceci prouve
b
b
a
l’unicité d’une telle rotation. Réciproquement, la rotation ρ définie par cette matrice dans la base B
répond à la question.
~v = ρθ (~u)
θ
~u
~0
Figure 5.1 – angle de deux vecteurs
Définition
Soient U, V deux vecteurs non nuls de E et u = ||U1 || U , v = ||V1 || V . L’angle orienté de U et V , noté
\
(U,
V ) est l’angle de l’unique rotation ρ vérifiant ρ(u) = v. Par abus, on appelera encore angle orienté
de u et v toute mesure de cet angle (alors définie modulo 2π).
Des résultats sur les rotations, on déduit le
Théorème
Soient U, V, W trois vecteurs non nuls de E. Alors
\
\
\
1. (U,
W ) ≡ (U,
V ) + (V,
W ) [2π] (relation de Chasles) ;
\
\
2. (V,
U ) ≡ −(U,
V ) [2π] ;
\
\
3. (U,
−V ) ≡ (U,
V ) + π [2π].
θ
w
~
−θ
~0
~v
θ1 + θ2
~v
~u
θ2
θ1
~u
~0
Figure 5.2 – opposé d’un angle et somme de deux angles
Démonstration. Il suffit de prouver ces trois assertions pour des vecteurs unitaires u, v et w. Notons
[
\
\
θ1 = (u,
v), θ2 = (v,
w) et θ3 = (u,
w) (i.e. des mesures de ces angles). Alors
1. ρθ1 +θ2 (u) = ρθ1 (ρθ2 (u)) = ρθ1 (v) = w donc θ3 ≡ θ1 + θ2 [2π] ;
[
2. ρ−θ1 (v) = ρ−θ1 (ρθ1 (u)) = ρ−θ1 +θ1 (u) = ρ0 (u) = u donc (v,
u) ≡ −θ1 [2π] ;
\
3. ρθ1 +π (u) = −ρθ1 (u) = −v donc (u,
−v) ≡ θ1 [2π].
5.3. Automorphismes orthogonaux ; matrices orthogonales
81
Détermination pratique (d’une mesure) de l’angle
\
Soient U, V deux vecteurs non nuls. Connaître une mesure θ de l’angle (U,
V ) revient à connaître cos θ et
sin θ. Pour cela, on a le
Théorème
Soit B une base orthonormée directe de E. On a les égalités
hU | V i = ||U || · ||V || cos θ
et
detB (U, V ) = ||U || · ||V || sin θ.
. Soit e1 = u et e2 tel que B = (e1 , e2 ) soit une base
\
orthonormée directe. Soit enfin θ une mesure de l’angle (U,
V ) et ρ la rotation d’angle θ. Celle-ci vérifie
ρ(u) = v, donc v = ρ(u) = ρ(e1 ) = cos θe1 + sin θe2 . Comme
on a u = e1 et que B = (e1 , e2 ) est une base
1 cos θ
= sin θ, d’où la formule souhaitée.
orthonormée directe, on a hu | vi = cos θ et detB (u, v) = 0 sin θ Démonstration. Soient u =
1
||U || U
et v =
1
||V || V
En particulier, les vecteurs U et V sont
\
– orthogonaux si, et seulement si, (U,
V)≡
π
2
[π]
\
– colinéaires si, et seulement si, (U,
V ) ≡ 0 [π]
Corollaire
Soit ρ la rotation d’angle θ et B une base orthonormée directe de E.
Pour tout vecteur unitaire u, on a
cos θ = hu | ρ(u)i
De plus, on a cos θ =
1
2
et
sin θ = detB u, ρ(u) .
Tr(ρ).
\
Démonstration. En effet, ρ(u) est un vecteurunitaire qui vérifie
(u,
ρ(u)) ≡ θ [2π]. Par ailleurs, la matrice
cos θ − sin θ
de ρ dans une base orthonormée directe est
, d’où la trace.
sin θ
cos θ
Isométries planes indirectes
Théorème
Les isométries indirectes du plan E sont les réflexions. La composée de deux réflexions est une rotation.
Démonstration. Soit f une isométrie indirecte et B une base orthonormée directe de E. La matrice
A = matB (f ) vérifie A2 = I2 , donc f est une symétrie. Ce ne peut être ni IdE ni − IdE (sinon, on aurait
det(f ) = 1) ; donc c’est une symétrie par rapport à une droite D1 , parallèlement à une droite D2 . Notons
ui un vecteur directeur de Di : la relation
hu1 | u2 i = hf (u1 ) | f (u2 )i = hu1 | −u2 i = −hu1 | u2 i
montre que ces vecteurs sont orthogonaux : f est une symétrie orthogonale.
Enfin, la composée de deux réflexions est une isométrie directe, donc une rotation.
82
Chapitre 5. Espaces euclidiens.
5.4
Endomorphismes symétriques
5.4.1
Définition et premières propriétés
Endomorphismes symétriques et orthogonaux.
Définition (endomorphisme symétrique)
Un endomorphisme f d’un espace euclidien est dit symétrique si, et seulement si, il vérifie :
∀x, y ∈ E, hf (x) | yi = hx | f (y)i.
Exemple 1. L’application identité ; plus généralement, toute homothétie de E est un endomorphisme
symétrique.
Proposition
L’ensemble des endomorphismes symétriques de E est un sous-espace vectoriel de L(E).
Démonstration. C’est immédiat.
Théorème (caractérisation des projecteurs et symétries orthogonales)
Soient p un projecteur et s une symétrie d’un espace euclidien E. Alors
– p est un projecteur orthogonal si, et seulement si, il est symétrique
– s est une symétrie orthogonale si, et seulement si, elle est symétrique.
Démonstration. Soit E = F ⊕ G une décomposition de l’espace E en somme directe, p le projecteur sur F
parallèlement à G et s la symétrie par rapport à F parallèlement à G.
– Supposons que p est un endomorphisme symétrique. Soient xF ∈ F et xG ∈ G. On a
hxF | xG i = hp(xF ) | xG i = hxF | p(xG )i = hxF | 0i = 0,
ce qui prouve que l’espace F est orthogonal à l’espace G, donc que p est un projecteur orthogonal.
– Réciproquement, supposons que p est un projecteur orthogonal. Soient x, y deux vecteurs de E, de
décompositions respectives x = xF + xG et y = yF + yG sur la somme directe E = F ⊕ G. On a
hp(x) | yi = hxF | yF + yG i = hxF | yF i = hxF + xG | yF i = hx | p(y)i,
ce qui prouve que p est un endomorphisme symétrique.
Traitons maintenant le cas de la symétrie s. Rappelons que l’on a s = 2p − IdE .
– Supposons que s est une symétrie orthogonale. Alors p est un projecteur orthogonal, donc symétrique,
donc s l’est aussi (car IdE est symétrique).
– Réciproquement, supposons s symétrique. Alors p = 21 (s + IdE ) l’est aussi, donc c’est un projecteur
orthogonal, donc la symétrie s est orthogonale.
Matriciellement :
Théorème (caractérisation matricielle des endomorphismes symétriques)
Soit f un endomorphisme d’un espace euclidien E, B une base orthonormée de E et A = matB (f ).
Alors :
f est symétrique ⇐⇒ AT = A.
Autrement dit : les endomorphismes symétriques sont ceux dont la matrice dans une base orthonormée
est symétrique. Il suffit qu’il existe une base orthonormée dans laquelle la matrice soit symétrique pour
que l’endomorphisme soit symétrique, et que sa matrice dans toute base orthonormée soit symétrique.
Lemme
L’unique matrice M ∈ Mn (R) vérifiant :
∀X, Y ∈ Mn,1 (R), X T M Y = 0
est la matrice nulle.
83
5.4. Endomorphismes symétriques
Démonstration. En effet, si la matrice M n’est pas nulle, on peut trouver une matrice colonne Y0 telle
que la matrice X0 = M Y0 soit non nulle. On a alors
X0T M Y0 = X0T X0 = ||X0 ||2 6= 0.
Démonstration du théorème. Pour tous vecteurs x, y de E, on a, en notant X et Y les matrices colonnes
de x et y dans la base B : hf (x) | yi = (AX)T Y et hx | f (y)i = X T AY . On a donc les équivalences :
f est symétrique ⇐⇒ ∀x, y ∈ E, hf (x) | yi = hx | f (y)i
⇐⇒ ∀X, Y ∈ Mn,1 (R), (AX)T Y = X T AY
⇐⇒ ∀X, Y ∈ Mn,1 (R), X T AT Y − X T AY = 0
⇐⇒ ∀X, Y ∈ Mn,1 (R), X T (AT − A)Y = 0
⇐⇒ AT − A = 0.
Corollaire (caractérisation matricielle des symétries orthogonales)
Soit s un endomorphisme d’un espace euclidien, B une base orthonormée de E et A = matB (s).
Alors s est une symétrie orthogonale si, et seulement si, la matrice A est symétrique et orthogonale.
Démonstration. En effet, la matrice d’une symétrie orthogonale est symétrie et vérifie A2 = In , donc
également AT A = In : elle est orthogonale. Réciproquement, si la matrice A vérifie AT = A et AT A = In ,
alors elle vérifie aussi A2 = In , donc s est une symétrie. Sa matrice dans une base orthonormée étant
symétrique, c’est une symétrie orthogonale.
5.4.2
Réduction des endomorphismes symétriques
Proposition
Soit f un endomorphisme symétrique d’un espace euclidien E et F un sous-espace stable par f . Alors
1. l’espace F ⊥ est stable par f
2. les endomorphismes induits par f sur F et F ⊥ sont symétriques.
Démonstration.
1. Soit x un vecteur de F ⊥ : il s’agit de montrer que f (x) appartient encore à F ⊥ ,
i.e. est orthogonal à tout vecteur de F . Pour tout vecteur y ∈ F , on a
hf (x) | yi = hx | f (y)i = 0
car f (y) appartient à F .
2. La propriété hf (x) | yi = hx | f (y)i étant vraie pour tous vecteurs x, y ∈ E, elle est a fortiori vraie
pour tous vecteurs x, y ∈ F , donc l’endomorphisme f ||F est symétrique ; il en est de même de l’autre
endomorphisme induit.
Proposition
Soit f un endomorphisme symétrique d’un espace euclidien E. Son polynôme caractéristique est scindé.
Démonstration. Notons n la dimension de E : il s’agit de montrer que les n racines complexes (éventuellement confondues pour certaines) du polynôme caractéristique χf sont en fait réelles, i.e. que chacune
est égale à sa conjuguée. Pour cela, choisissons une base orthonormée B de E et écrivons la matrice
A = matB (f ). C’est une matrice à coefficients réels ; voyons-la provisoirement comme une matrice à
coefficients complexes. Soit λ une valeur propre (complexe) de A et X un vecteur propre (complexe)
associé : AX = λX. En conjuguant puis en transposant, on obtient X̄ T A = λ̄X T (car A est à coefficients
84
Chapitre 5. Espaces euclidiens.
Endomorphismes symétriques et orthogonaux.
réels et symétrique). Multiplions à droite par X : on obtient X̄ T AX = λ̄X T X, soit λX̄ T X = λ̄X̄ T X.
Or, en notant xi les coefficients (complexes) de la matrice colonne X, on a
X̄ T X = |x1 |2 + · · · + |xn |2 6= 0.
On en déduit que λ̄ = λ.
Théorème (théorème «spectral» : diagonalisation des endomorphismes symétriques)
Soit f un endomorphisme symétrique d’un espace euclidien E. Alors f est diagonalisable en base
orthonormée.
Démonstration. Raisonnons par récurrence sur la dimension n de E.
– Pour n = 1, il n’y a rien à démontrer.
– Soit n > 1. Supposons le résultat vrai pour tout endomorphisme symétrique d’un espace de dimension
inférieure ou égale à n et démontrons-le lorsque dim(E) = n + 1. Commençons par considérer une valeur
propre λ (réelle !) de f (le polynôme caractéristique de f est scindé) et l’espace propre F associé. Cet espace
est stable par f , donc F ⊥ l’est aussi, et de dimension inférieure ou égale à n. Notons g l’endomorphisme
induit par f sur F ⊥ : c’est un endomorphisme symétrique, donc il existe une base orthonormée de F ⊥
formée de vecteurs propres de g (donc de f ). En concaténant cette base orthonormée avec une base
orthonormée de F , on obtient une base orthonormée de E, formée de vecteurs propres de f . La propriété
est prouvée au rang n + 1, donc pour tout entier n par récurrence.
Théorème (diagonalisation des matrices symétriques réelles)
Soit A ∈ Mn (R) une matrice symétrique réelle. Il existe une matrice orthogonale P ∈ On (R) telle que
la matrice D = P T AP = P −1 AP soit diagonale.
Démonstration. C’est la version matricielle du théorème précédent.
Attention! Ce résultat est spécifique aux matrices symétriques réelles ! Par exemple, la matrice symétrique complexe
1
i
A=
i −1
n’est pas diagonalisable : son polynôme caractéristique est χA = X 2 , donc elle admet pour unique valeur
propre λ = 0. Si elle était diagonalisable, elle serait semblable à la matrice nulle...
5.4.3
Endomorphismes symétriques positifs
Le contenu de ce paragraphe n’est pas au programme, mais fait régulièrement l’objet de problèmes
de concours. Il est donc bon de savoir à quoi s’attendre.
Définition (endomorphismes symétriques positifs)
Un endomorphisme symétrique f d’un espace euclidien E est dit
– positif si, et seulement si, pour tout x ∈ E, on a hf (x) | xi > 0
– défini positif si, et seulement si, pour tout x ∈ E \ {0}, on a hf (x) | xi > 0.
Pour les matrices :
Définition (matrices symétriques positives)
Une matrice symétrique A ∈ Mn (R) est dite
– positive si, et seulement si, pour tout X ∈ Mn,1 (R), on a X T AX > 0
– définie positive si, et seulement si, pour tout X ∈ Mn,1 (R) \ {0}, on a X T AX > 0.
D’où immédiatement :
85
5.4. Endomorphismes symétriques
Proposition
Soit f un endomorphisme symétrique d’un espace euclidien E, B une base orthonormée de E et
A = matB (f ).
L’endomorphisme f est positif (resp. défini positif) si, et seulement si, la matrice A est positive (resp.
définie positive).
Il se trouve que, pour un endomorphisme symétrique, on sait encadrer le produit scalaire hf (x) | xi
en fonction de ||x|| :
Proposition
Soit f un endomorphisme symétrique d’un espace euclidien E de dimension finie n. Soient λ1 6 · · · 6 λn
les valeurs propres de f . Pour tout x ∈ E, on a
λ1 ||x||2 6 hf (x) | xi 6 λn ||x||2 .
Démonstration. Soit C = (ε1 , . . . , ε2 ) une base orthonormée de E, diagonale pour f , le vecteur propre εi
étant associé à la valeur propre λi . Soit x = x1 ε1 + · · · + xn εn un vecteur de E. On a
f (x) = λ1 x1 ε1 + · · · + λn xn εn ,
d’où
hf (x) | xi = λ1 x21 + · · · + λn x2n .
Or, pour tout i ∈ [[1, n]], on a λ1 x2i 6 λi x2i 6 λn x2i , d’où, par somme :
λ1 ||x||2 6 hf (x) | xi 6 λn ||x||2 .
On en déduit immédiatement la version matricielle :
Proposition
Soit A ∈ Mn (R) une matrice symétrique. Soient λ1 6 · · · 6 λn les valeurs propres de A. Pour tout
X ∈ Mn,1 (R), on a
λ1 X T X 6 X T AX 6 λn X T X.
Démonstration. Notons f l’endomorphisme canoniquement associé à la matrice A : c’est un endomorphisme symétrique, de valeurs propres λ1 6 · · · 6 λn , donc il vérifie λ1 |kx||2 6 hf (x) | xi 6 λn ||x||2 pour
tout x ∈ Rn , ce qui donne l’encadrement souhaité.
2
2
Exemple 1. Déterminer les extréma de la quantité xx2+2xy
+y 2 lorsque (x, y) parcourt R \ {0}.
1 1
En notant A =
, on remarque que x2 + 2xy = X T AX, où X = [ xy ]. Notons f l’endomorphisme
1 0
√
√
canoniquement associé à la matrice A. Le calcul donne pour valeurs propres λ1 = 1−2 5 6 λ2 = 1+2 5 .
Soit C = (ε1 , ε2 ) une base orthonormée de vecteurs propres associés à ces valeurs propres. Pour tout
vecteur (x, y) ∈ R2 \ {0}, notons x1 , y1 les coordonnées de ce vecteur dans la base C : on a
f (x, y) = f (x1 ε1 + x2 ε2 ) = λ1 x1 ε1 + λ2 x2 ε2 ,
d’où
x2 + 2xy = X T AX = hf (x, y) | (x, y)i = hλ1 x1 ε1 + λ2 x2 ε2 | x1 ε1 + x2 ε2 i = λ1 x21 + λ2 x22
et x2 + y 2 = ||(x, y)||2 = ||x1 ε1 + x2 ε2 ||2 = x21 + x22 , donc le quotient est compris entre λ1 et λ2 . Ces valeurs
sont d’ailleurs atteints : pour (x, y) = ε1 pour la valeur λ1 , et pour (x, y) = ε2 pour la valeur λ2 . On a
donc
√
√
1− 5
x2 + 2xy
1+ 5
x2 + 2xy
=
et
max
=
.
min
2
2
(x,y)6=(0,0) x2 + y 2
(x,y)6=(0,0) x2 + y 2
86
Chapitre 5. Espaces euclidiens.
Endomorphismes symétriques et orthogonaux.
a
Remarque 1. De façon générale, la quantité ax + 2bxy + cy s’écrit sous la forme X AX, où A =
b
x
et X =
. La situation se généralise immédiatement au cas de n variables.
y
2
2
T
b
c
Cet encadrement permet de caractériser les endomorphismes symétriques positifs :
Corollaire
Soit f un endomorphisme symétrique d’un espace euclidien E. Cet endomorphisme est positif (resp.
défini positif) si, et seulement si, ses valeurs propres sont toutes positives (resp. strictement positives).
La version matricielle énonce qu’une matrice symétrique A est positive (resp. définie positive) si, et
seulement si, ses valeurs propres sont toutes positives (resp. strictement positives).
87
5.5. Test de compréhension du chapitre
5.5
5.5.1
Test de compréhension du chapitre
Questions
1. Soit E un espace préhilbertien, u, v deux vecteurs de E vérifiant ||u|| = ||v|| = 1 et hu | vi = 21 . Calculer
||u − v||.
2. Existe-t-il un produit scalaire sur R2 pour lequel ||e1 || = ||e2 || = he1 | e2 i (où (e1 , e2 ) est la base canonique
de R2 ) ?
3. La norme || · ||∞ sur Rn est-elle issue d’un produit scalaire ?
4. Notons (e1 , e2 ) la base canonique de R2 et posons ε1 = 2e1 , ε2 = e1 + e2 . Existe-t-il un produit scalaire
h· | ·i sur R2 pour lequel la base C = (ε1 , ε2 ) soit orthonormée ?
5. Notons (e1 , e2 ) la base canonique de R2 . Trouver un produit scalaire h· | ·i sur R2 pour lequel ||e1 || = 2,
||e2 || = 1 et he1 | e2 i = 1. Trouver (pour ce produit scalaire) un vecteur e3 orthogonal au vecteur e1 .
6. Soient u, v deux vecteurs d’un espace préhilbertien E vérifiant ||u|| = 2, ||v|| = 1, hu | vi = 1. Démontrer
que la famille est libre.
7. Soient u, v deux vecteurs d’un espace préhilbertien E. Démontrer l’équivalence :
||u|| = ||v|| ⇐⇒ u − v ⊥ u + v.
8. Soit E un espace euclidien de dimension 3. Peut-on trouver deux droites orthogonales de E ? Deux plans
orthogonaux ?
9. Soit F un sous-espace d’un espace préhilbertien E. Parmi les assertions suivantes, lesquelles sont vraies ?
a) F admet toujours au moins un supplémentaire orthogonal.
b) F admet toujours au plus un supplémentaire orthogonal.
c) Si F admet un supplémentaire, c’est un supplémentaire orthogonal.
d) Si F admet un supplémentaire, il admet aussi un supplémentaire orthogonal.
e) Si F est de dimension finie, il admet au moins un supplémentaire orthogonal.
f) Si F admet un supplémentaire orthogonal, F ⊥ admet un supplémentaire orthogonal.
R1
10. On munit l’espace E = C ([0, 1], R) du produit scalaire défini par hf | gi = 0 f g. On considère le sousespace F formé par les fonctions constantes.
a) Quelle est la dimension de F ? Quel est l’orthogonal F ⊥ de F ?
⊥ F ⊥ ? Si c’est le cas, donner la décomposition d’une fonction f ∈ E quelconque
b) Est-il vrai que E = F sur cette somme directe orthogonale.
11. Soit E un espace euclidien de dimension 3 muni d’une base orthonormée B. Quelle est la bonne façon de
déterminer la matrice dans la base B d’un projecteur orthogonal sur un plan ? Quelles sont les propriétés
faciles à tester que doit vérifier cette matrice ? Traiter le cas où le plan a pour équation x + y − 2z = 0.
12. Dans R2 muni de son produit scalaire canonique, on considère le vecteur u = (a, b) et la droite D
d’équation y = x.
a) Déterminer la distance d(u, D).
b) Minimiser la quantité (t − a)2 + (t − b)2 lorsque t parcourt R.
13. Quelle est l’image des vecteurs (1, 0) et (0, 1) par la symétrie orthogonale par rapport à la droite D
d’équation x + y = 0 ? Quelle est la matrice (dans la base canonique) de cette symétrie ?
14. Déterminer, sans aucun calcul, le carré des matrices
cos θ − sin θ
A=
et
sin θ
cos θ
B=
cos θ
sin θ
sin θ
.
− cos θ
15. Quelle est la nature de la composée d’une rotation et d’une réflexion plane ?
16. Les assertions suivantes sont-elles vraies ?
1. Si f est une isométrie plane, elle conserve les aires.
2. si f est un endomorphisme du plan qui conserve les aires, c’est une isométrie.
17. Soit f un endomorphisme d’un espace préhilbertien E. Les assertions suivantes sont-elles vraies ?
a) Si hf (x) | f (y)i = hx | yi pour tous x, y ∈ E, alors ||f (x)|| = ||x|| pour tout x ∈ E.
b) Si ||f (x)|| = ||x|| pour tout x ∈ E, alors hf (x) | f (y)i = hx | yi pour tous x, y ∈ E.
88
Chapitre 5. Espaces euclidiens.
Endomorphismes symétriques et orthogonaux.
18. Soit B une base d’un espace euclidien E, f un automorphisme orthogonal de E et A = matB (f ). La
matrice A est-elle orthogonale ? Quel est son déterminant ?
19. Soit f un endomorphisme symétrique d’un espace préhilbertien E, B une base de E et A = matB (f ).
a) Si B est une base orthonormée, la matrice A est-elle symétrique ?
b) Si la matrice A est symétrique, la base B est-elle orthonormée ?
20. Soit A une matrice symétrique de taille (n, n). Existe-t-il une matrice P ∈ On (R) telle que P −1 AP soit
diagonale ?
21. Soit A une matrice symétrique réelle de taille (n, n). Existe-t-il une matrice P ∈ GLn (R) telle que P T AP
soit diagonale ?
89
5.5. Test de compréhension du chapitre
5.5.2
Réponses
1. On a
||u − v||2 = ||u||2 + ||v||2 − 2hu | vi = 1
donc ||u − v|| = 1.
2. Non : si un tel produit scalaire existait, il vérifierait he1 | e2 i = ||e1 || · ||e2 ||, donc les vecteurs e1 et e2
seraient colinéaires, ce qui n’est pas.
2
2
3. Non, sinon l’application (x, y) 7→ ||x+y|| −||x||
2
Il est facile de vérifier qu’elle ne l’est pas.
−||y||2
serait bilinéaire (ce serait l’application produit scalaire).
4. Oui : il suffit de poser, pour tous vecteurs x, y ∈ R2 ,
hx | yi = x1 y1 + x2 y2 ,
où x1 , x2 (resp. y1 , y2 ) sont les coordonnées de x (resp. y) dans la base C . Il est immédiat de vérifier que
c’est un produit scalaire pour lequel la base C est orthonormée.
5. Si un tel produit scalaire h· | ·i existe, pour tous vecteurs
x = (x1 , x2 ) = x1 e1 + x2 e2
et
y = (y1 , y2 ) = y1 e1 + y2 e2 ,
on doit avoir
hx | yi = x1 y1 ||e1 ||2 + x1 y2 he1 | e2 i + x2 y2 he2 | e1 i + x2 y2 ||e2 ||2 = 4x1 y1 + x1 y2 + x2 y1 + x2 y2 .
Mais rien ne prouve a priori que ces formules définissent un produit scalaire sur R2 ; il faut vérifier tous
les axiomes ! Cette application est clairement bilinéaire symétrique. Pour tout x, on a
hx | xi = 4x21 + 2x1 x2 + x22 = 3x21 + (x1 + x2 )2 > 0,
avec égalité si, et seulement si, x1 = x1 + x2 = 0, i.e. si, et seulement si, x = 0. C’est donc un produit
scalaire. Pour ce produit scalaire, le vecteur e3 = (1, −4) est orthogonal au vecteur e1 (le calcul donne
he1 | e3 i = 0).
6. Si la famille était liée, on aurait hu | vi = ±||u|| · |lv||.
7. On calcule
hu − v | u + vi = ||u||2 − ||v||2 + hv | ui − hu | vi = ||u||2 − ||v||2 .
Ce produit scalaire est nul si, et seulement si, ||u|| = ||v||.
8. Deux droites, oui (prendre les deux droites engendrées par deux vecteurs orthogonaux quelconques). Deux
plans non, car deux sous-espaces orthogonaux F et G vérifient nécessairement F ∩ G = {0}.
9. a) Non.
b) Oui : le seul supplémentaire orthogonal possible pour F est F ⊥ . Mais ce n’est en général pas un
supplémentaire de F .
c) Non.
d) Non.
e) Oui. Il admet même un unique supplémentaire orthogonal : F ⊥ (donc il en admet bien au moins un).
f) Oui : l’espace F est un supplémentaire de F ⊥ (car F ⊥ est le supplémentaire orthogonal de F :
hypothèse), et il lui est orthogonal.
10. a) En notant 11 la fonction constante égale à 1, les fonctions constantes sont toutes des multiples de
⊥
cette fonctions, donc F est de dimension 1. Une fonction
R 1si, elle est
R 1 f appartient à F si, et seulement
orthogonale à cette fonction 11, i.e. si, et seulement si, 0 f · 11 = 0, soit si, et seulement si, 0 f = 0.
b) L’espace F est de dimension 1 donc admet un supplémentaire orthogonal (qui est F ⊥ ) : on a bien
⊥ F ⊥.
E=F La norme de la fonction 11 est
s
Z 1
||11|| =
112 = 1,
0
donc 11 est une base orthonormée de F . Le projeté orthogonal d’une fonction f ∈ E sur F est donc
Z 1 p(f ) = hf | 11i11 =
f 11.
0
90
Chapitre 5. Espaces euclidiens.
Endomorphismes symétriques et orthogonaux.
⊥ F ⊥ est donc
La décomposition de f sur la somme directe orthogonale E = F Z 1 Z 1 f 11 + f −
f=
f 11 .
0
| 0 {z } |
{z
}
∈F
∈F ⊥
11. En notant P le plan et D = P ⊥ son orthogonal, ainsi que p le projecteur orthogonal sur le plan P et q
le projecteur orthogonal sur la droite D, on sait que p + q = IdE . Pour connaître p, il suffit donc de
connaître q. En notant u un vecteur unitaire de la droite D, on a q(x) = hx | uiu pour tout vecteur x,
donc il est très simple de déterminer q. La matrice A du projecteur p doit vérifier Tr(A) = 2 (matrice
d’un projecteur sur un plan) et être symétrique (matrice d’un projecteur orthogonal exprimé en base
orthonormée).
Lorsque le plan P a pour équation x + y − 2z = 0 et que l’on note (e1 , e2 , e3 ) les vecteurs de la base B,
1
est une base orthonormée de D (attention !
le vecteur v = e1 + e2 − 2e3 est orthogonal à P , donc u = ||u||
je n’ai pas écrit v = (1, 1, −2) : on n’a nulle part supposé que les vecteurs de E étaient des vecteurs de R3 .
Même si c’était le cas, rien ne permet de penser que la base B utilisée soit la base canonique). On en
déduit que


1
1 −2
1
1 −2
matB (q) =  1
6
−2 −2
4
puis

5
1
−1
matB (p) =
6
2

−1 2
5 2 .
2 2
On constate bien que la matrice est symétrique et de rang 2.
12. a) Le vecteur ε = (1, 1) dirige la droite D, donc le projeté orthogonal de u sur cette droite est
p(u) =
hu | εi
a+b
ε=
(1, 1),
||ε||2
2
et la distance d(u, D) vérifie
d(u, D)2 = d u, p(u)
2
=
a−
a+b
2
2
2
a+b
1
+ b−
= (b − a)2 ,
2
2
√ .
donc d(u, D) = |b−a|
2
b) On reconnaît dans la quantité à minimiser l’expression de d(u, w)2 , où w = (t, t) parcourt D. Cette
2
quantité est minimale lorsque w = p(u), elle est alors égale à d(u, D)2 = (b−a)
(elle est nulle si, et
2
seulement si, a = b, i.e. si, et seulement si, u est sur la droite D, ce qui est normal). On le retrouve par
un calcul élémentaire en écrivant
2
2
a+b
(a + b)2
a+b
(b − a)2
2
2
2
2
2
2
2
(t−a) +(t−b) = 2t −2(a+b)t+a +b = 2 t −
−
+a +b = 2 t −
+
.
2
2
2
2
13. On voit sur un dessin que l’image du vecteur e1 = (1, 0) est le vecteur (0, −1) = −e2 .
y
e1
x
s(e1 )
Pour le démontrer, il suffit d’écrire
1
1
(1, −1) + (1, 1) :
2
2
le premier vecteur appartient à D, le second lui est orthogonal, donc on a
e1 =
s(e1 ) =
1
1
(1, −1) − (1, 1) = (0, −1).
2
2
5.5. Test de compréhension du chapitre
91
On montre de même que s(e2 ) = −e1 . Par suite, la matrice de s dans la base canonique est
0 −1
A=
.
−1
0
14. La matrice A est la matrice (dans une base orthonormée directe quelconque) de la rotation d’angle θ,
donc la matrice A2 est la matrice de la rotation d’angle 2θ (remplacer partout θ par 2θ). La matrice B
est une matrice orthogonale indirecte, donc elle vérifie B 2 = I2 .
15. C’est la composée de deux automorphismes orthogonaux, donc c’en est encore un. L’un est direct et l’autre
indirect, donc la composée est indirecte : c’est une réflexion.
16. Rappelons que det(f ) est la coefficient multiplicateur des aires : si une figure a pour aire A, son image
par f a pour aire | det(f )| × A. Ainsi, si f est une isométrie, elle vérifie det(f ) = ±1, donc elle conserve
les aires. Réciproquement, l’égalité det(f ) = ±1 n’implique pas nécessairement que f soit une isométrie.
17. Les deux assertions sont vraies (c’est du cours).
18. Si la base B n’est pas une base orthonormée, la matrice A n’a aucune raison d’être orthogonale. Mais même
dans ce cas, le déterminant de A est égal à ±1 (c’est quand même le déterminant d’un automorphisme
orthogonal).
19. a) Oui : théorème du cours.
b) Non, pas nécessairement : par exemple, la matrice de l’endomorphisme IdE est symétrique dans toute
base de E, pas seulement dans les bases orthonormées..
20. Pas nécessairement si la matrice A est à coefficients complexes.
21. Oui : il existe même une matrice P ∈ On (R) pour laquelle c’est vrai.
Téléchargement