19 Espaces vectoriels euclidiens. Groupe orthogonal

publicité
19
Espaces vectoriels euclidiens. Groupe
orthogonal
Dans un premier temps, E est un espace vectoriel réel de dimension n ≥ 1.
19.1 Espaces vectoriels euclidiens
Dénition 19.1 On dit qu'une forme bilinéaire symétrique φ : E × E → R est :
positive si φ (x, x) ≥ 0 pour tout x dans E ;
dénie si pour x dans E l'égalité φ (x, x) = 0 équivaut à x = 0.
Dénition 19.2 On appelle produit scalaire sur
E toute forme bilinéaire symétrique dénie
positive.
Dénition 19.3 Un espace euclidien est un espace vectoriel réel de dimension nie muni d'un
produit scalaire.
De manière plus générale, un espace vectoriel réel de dimension nie ou innie muni d'un
produit scalaire est dit préhilbertien (voir le chapitre 47 pour une étude plus détaillée).
Dans ce qui suit E est un espace euclidien de dimension n ≥ 1.
On notera, quand il n'y a pas d'ambiguïté :
(x, y) 7−→ ⟨x | y⟩
un produit scalaire sur E et pour y = x, on note :
∥x∥ =
√
⟨x|x⟩
La norme euclidienne sur E induit une norme sur l'espace L (E) des endomorphismes de E
en posant :
∥u (x)∥
∥x∥
x∈E\{0}
∀u ∈ L (E) , ∥u∥ = sup
Les trois égalités qui suivent, expressions de la forme polaire d'une forme quadratique, sont
utiles en pratique.
481
Espaces vectoriels euclidiens. Groupe orthogonal
482
Théorème 19.1 Pour tous x, y dans E on a :
)
1(
∥x + y∥2 − ∥x∥2 − ∥y∥2
2
)
1(
∥x + y∥2 − ∥x − y∥2
=
4
(
)
∥x + y∥2 + ∥x − y∥2 = 2 ∥x∥2 + ∥y∥2
⟨x | y⟩ =
Théorème 19.2 (Inégalité de Cauchy-Schwarz) Pour tous x, y dans E on a :
|⟨x | y⟩| ≤ ∥x∥ ∥y∥ ,
l'égalité étant réalisée si, et seulement si, x et y sont liés.
Démonstration. Voir le théorème 47.1.
Une conséquence importante de l'inégalité de Cauchy-Schwarz est l'inégalité triangulaire de
Minkowski.
Théorème 19.3 (Inégalité de Minkowski) Pour tous x, y dans E on a :
∥x + y∥ ≤ ∥x∥ + ∥y∥
l'égalité étant réalisée si, et seulement si, x = 0 ou x ̸= 0 et y = λx avec λ ≥ 0 (on dit que x
et y sont positivement liés).
Démonstration. Voir le théorème 47.2.
19.2 Mesures d'angles géométriques
a:
L'inégalité de Cauchy-Schwarz nous dit que pour tous vecteurs x et y non nuls dans E, on
−1 ≤
⟨x | y⟩
≤1
∥x∥ ∥y∥
ce qui implique qu'il existe un unique réel θ dans [0, π] tel que :
⟨x | y⟩ = cos (θ) ∥x∥ ∥y∥
(la fonction cos étant dénie en analyse à partir d'une série entière).
Le réel θ est la mesure dans [0, π] de l'angle géométrique (ou angle non orienté) que font les
[
vecteurs x et y dans E − {0} . On note (x,
y) cette mesure. On a donc :
[
(x,
y) = arccos
(
⟨x | y⟩
∥x∥ ∥y∥
)
∈ [0, π]
Pour θ ∈ {0, π} , on a |⟨x | y⟩| = ∥x∥ ∥y∥ , ce qui équivaut à dire que les vecteurs x et y sont
liés (cas d'égalité dans l'inégalité de Cauchy-Schwarz).
π
Pour θ = , on a ⟨x | y⟩ = 0 et les vecteurs x, y sont dits orthogonaux.
2
De manière générale, on a :
∥x + y∥2 = ∥x∥2 + 2 cos (θ) ∥x∥ ∥y∥ + ∥y∥2
Isométries d'un espace euclidien
483
où θ est la mesure dans [0, π] de l'angle géométrique que font les vecteurs non nuls x et y.
On peut remarquer que si λ, µ sont deux réels strictement positifs, on a alors :
\
(λx,
µy) = arccos
(
⟨x | y⟩
∥x∥ ∥y∥
)
[
= (x,
y)
ce qui permet de dénir la mesure dans [0, π] de l'angle géométrique de deux demi-droites
∆1 = R+ x1 et ∆2 = R+ x2 par :
\
\
(∆
1 , ∆2 ) = (x1 , x2 )
où x1 est un vecteur directeur de ∆1 et x2 un vecteur directeur de ∆2 .
\
On dit parfois que (∆
1 , ∆2 ) est l'angle géométrique ou l'écart angulaire de ∆1 et ∆2 .
19.3 Isométries d'un espace euclidien
Dénition 19.4 Une isométrie (ou application orthogonale) de E est une application u : E →
E qui conserve le produit scalaire, c'est-à-dire que :
∀ (x, y) ∈ E × E, ⟨u (x) | u (y)⟩ = ⟨x | y⟩
On note O (E) l'ensemble des isométries de E.
Exemple 19.1 Les seules homothéties
x →
7 λx qui sont des isométries sont Id et −Id. En
eet pour e ∈ E de norme égale à 1, on a 1 = ∥e∥2 = ∥u (e)∥2 = λ2 et λ = ±1.
Exemple 19.2 Pour E de dimension 1, on a O (E) = {−Id, Id} .
Remarque 19.1 Une isométrie conserve l'orthogonalité, c'est-à-dire que pour tous x, y dans
E, on a :
⟨x | y⟩ = 0 ⇒ ⟨u (x) | u (y)⟩ = 0
mais une application qui conserve l'orthogonalité n'est pas nécessairement une isométrie comme
le montre l'exemple d'une homothétie de rapport λ ∈
/ {−1, 1} .
Remarque 19.2 Comme une isométrie conserve l'orthogonalité, elle conserve les mesures
d'angles géométriques. En eet, pour x, y non nuls dans E, on a :
[
(x,
y) = arccos
(
⟨x | y⟩
∥x∥ ∥y∥
)
(
= arccos
⟨u (x) | u (y)⟩
∥u (x)∥ ∥u (y)∥
)
\
= (u (x)
, u (y))
Exercice 19.1 Soient n ≥ 2, B = (ei )1≤i≤n une base orthonormée de E et u une application
linéaire de E dans E qui conserve l'orthogonalité.
1. Montrer que ∥u (ei )∥ = ∥u (ej )∥ pour tous i, j compris entre 1 et n. On notera λ cette
valeur commune.
2. Montrer que ∥u (x)∥ = λ ∥x∥ pour tout x ∈ E (pour λ > 0, on dit que u est une similitude
de rapport λ).
Solution 19.1
Espaces vectoriels euclidiens. Groupe orthogonal
484
1. Pour 1 ≤ i, j ≤ n, on vérie facilement que les vecteurs ei −ej et ei +ej sont orthogonaux,
donc :
⟨u (ei − ej ) | u (ei + ej )⟩ = 0
et avec :
⟨u (ei − ej ) | u (ei + ej )⟩ = ⟨u (ei ) − u (ej ) | u (ei ) + u (ej )⟩
= ∥u (ei )∥2 − ∥u (ej )∥2
on déduit que ∥u (ei )∥ = ∥u (ej )∥ .
On note λ la valeur commune des ∥u (ei )∥ .
2. Pour tout vecteur x =
n
∑
xi ei , on a u (x) =
n
∑
xi u (ei ) et :
i=1
i=1
∥u (x)∥ =
2
=
n
∑
i=1
n
∑
∑
x2i ∥u (ei )∥2 + 2
1≤i<j
n
∑
2
x2i ∥u (ei )∥2 = λ
xi xj ⟨u (ei ) | u (ej )⟩
x2i = λ2 ∥x∥2
i=1
i=1
(⟨ei | ej ⟩ = 0 pour i ̸= j ⇒ ⟨u (ei ) | u (ej )⟩ = 0).
Théorème 19.4 Une application
u : E → E est une isométrie si, et seulement si, elle est
linéaire et conserve la norme, c'est-à-dire que :
∀x ∈ E, ∥u (x)∥ = ∥x∥
Démonstration. Si
u est linéaire et conserve la norme, on déduit alors de l'identité de
polarisation qu'elle conserve le produit scalaire et c'est une isométrie. En eet, pour tous x, y
dans E, on a :
)
1(
⟨u (x) | u (y)⟩ =
∥u (x) + u (y)∥2 − ∥u (x) − u (y)∥2
4
)
1(
∥u (x + y)∥2 − ∥u (x − y)∥2 (linéarité)
=
4
)
1(
=
∥x + y∥2 − ∥x − y∥2 (conservation de la norme)
4
= ⟨x | y⟩
Réciproquement, si u est une application de E dans E qui conserve le produit scalaire, il est
clair qu'elle conserve la norme. Il nous reste à montrer qu'elle est linéaire.
Pour x, y dans E et λ dans R, on a :
∥u (x + λy) − u (x) − λu (y)∥2 = ∥u (x + λy)∥2 + ∥u (x)∥2 + λ2 ∥u (y)∥2
− 2 (⟨u (x + λy) | u (x)⟩ + λ ⟨u (x + λy) | u (y)⟩)
+ 2λ ⟨u (x) | u (y)⟩
= ∥x + λy∥2 + ∥x∥2 + λ2 ∥y∥2
− 2 (⟨x + λy | x⟩ + λ ⟨x + λy | y⟩)
+ 2λ ⟨x | y⟩
= 2 ∥x∥2 + 2λ2 ∥y∥2 + 2λ ⟨x | y⟩
− 2 ∥x∥2 − 4λ ⟨x | y⟩ − 2λ2 ∥y∥2
+2λ ⟨x | y⟩ = 0
Isométries d'un espace euclidien
485
ce qui équivaut à u (x + λy) = u (x) + λu (y) et u est linéaire.
On peut aussi utiliser une base orthonormée (ei )1≤i≤n de E. Comme u conserve le produit
scalaire, la famille (u (ei ))1≤i≤n est orthonormée et c'est une base de E. Pour tout x ∈ E, on a
alors :
n
n
u (x) =
∑
⟨u (x) | u (ei )⟩ u (ei ) =
i=1
∑
⟨x | ei ⟩ u (ei )
i=1
et la linéarité des applications x 7→ ⟨x | ei ⟩ entraîne celle de u.
Remarque 19.3 On déduit du théorème précédent que les seules valeurs propres réelles possibles d'une isométrie sont −1 et 1.
Remarque 19.4 Une application u : E → E qui conserve la norme n'est pas nécessairement
linéaire et n'est donc pas une isométrie en général. Par exemple pour e ∈ E de norme égale à
1, l'application u : x 7→ ∥x∥ e conserve la norme et n'est pas linéaire (u (−x) = u (x) ̸= −u (x)
pour x ̸= 0).
Exercice 19.2 Soit u une application de E dans E qui conserve les distances, c'est-à-dire telle
que :
∀ (x, y) ∈ E × E, ∥u (x) − u (y)∥ = ∥x − y∥
Montrer qu'il existe un vecteur a ∈ E et une isométrie v de E tels que u (x) = a + v (x) pour
tout x ∈ E (on dit que u est une isométrie ane).
Solution 19.2 Soient a = u (0) (si a existe, c'est la seule possibilité) et v : E → E dénie par
v (x) = u (x) − a, pour tout x ∈ E. Pour tous x, y dans E, on a :
∥v (x)∥ = ∥u (x) − u (0)∥ = ∥x − 0∥ = ∥x∥
∥v (x) − v (y)∥2 = ∥u (x) − u (y)∥2 = ∥x − y∥2
soit :
∥v (x)∥2 − 2 ⟨v (x) | v (y)⟩ + ∥v (y)∥2 = ∥x∥2 − 2 ⟨x | y⟩ + ∥y∥2
et en conséquence ⟨v (x) | v (y)⟩ = ⟨x | y⟩ . Donc v est une isométrie.
Théorème 19.5 Une isométrie est un automorphisme de
E et O (E) est un sous-groupe de
GL (E) .
Démonstration. Soit u ∈ O (E) . Pour x ∈ ker (u) , on a 0 = ∥u (x)∥ = ∥x∥ et x = 0.
Donc ker (u) = {0} et u est injective, ce qui équivaut à dire que u est un automorphisme de E
puisqu'on est en dimension nie.
On a Id ∈ O (E) et pour u, v dans O (E) , x dans E, on a :
∥u ◦ v (x)∥ = ∥u (v (x))∥ = ∥v (x)∥ = ∥x∥
−1
(
)
u (x) = u u−1 (x) = ∥x∥
donc u ◦ v et u−1 sont dans O (E) . L'ensemble O (E) est donc bien un sous-groupe de GL (E) .
On dit, dans le cas où E est de dimension nie, que O (E) est le groupe orthogonal de E.
Espaces vectoriels euclidiens. Groupe orthogonal
486
Remarque 19.5 Si E est de dimension innie, une isométrie est toujours injective (son noyau
est réduit à {0}), mais n'est pas nécessairement surjective.
Donc, dans le cas de la dimension innie, O (E) n'est pas nécessairement un groupe.
Considérons par exemple un espace préhilbertien E de∫ dimension innie dénombrable (par
1
exemple E = R [x] muni du produit scalaire (P, Q) 7→
P (x) Q (x) dx.). On se donne une
0
base orthonormée (en )n∈N (le procédé de Gram-Schmidt vu au paragraphe 47.4 nous permet de
construire une telle base) et on dénit l'endomorphisme u par u (en ) = en+1 pour tout entier
n ≥ 0. Pour x =
nx
∑
xk ek dans E, on a u (x) =
k=0
nx
∑
xk ek+1 et ∥u (x)∥ =
2
k=0
nx
∑
x2k = ∥x∥2 ,
k=0
donc u est une isométrie. Comme Im (u) = Vect {ek | k ∈ N∗ } ̸= E, cette application n'est pas
surjective.
Remarque 19.6 On peut donner, dans un espace préhilbertien, la dénition suivante d'une
isométrie : une isométrie est un automorphisme qui conserve la norme et dans ce cas O (E)
est un sous-groupe de GL (E) .
De l'injectivité et de la conservation de l'orthogonalité par une isométrie, on déduit le résultat
suivant.
Théorème 19.6 Soit u une isométrie de E. Si F est un sous-espace vectoriel de E stable par
u, alors son orthogonal F ⊥ est aussi stable par u.
Démonstration. Comme u est injective, on a dim (u (F )) = dim (F ) et avec u (F ) ⊂ F, on
déduit que u (F ) = F.
Pour x ∈ F ⊥ et y ∈ F, on a :
⟨u (x) | u (y)⟩ = ⟨x | y⟩ = 0
donc u (x) ∈ (u (F ))⊥ = F ⊥ .
Remarque 19.7 Le théorème précédent est encore valable pour
nie d'un espace préhilbertien E.
F sous-espace de dimension
Théorème 19.7 Soient B = (ei )1≤i≤n une base orthonormée de E et u une application linéaire
de E dans E. L'application u est une isométrie si, et seulement si, elle transforme B en une
base orthonormée de E.
Démonstration. Supposons que
u ∈ O (E) . Avec ⟨u (ei ) | u (ej )⟩ = ⟨ei | ej ⟩ = δij pour
1 ≤ i, j ≤ n, on déduit que u (B) = (u (ei ))1≤i≤n est orthonormé. Il en résulte que u (B) est
libre et c'est une base puisque formé de n = dim (E) vecteurs.
Réciproquement supposons que u ∈ L (E) transforme B en une base orthonormée de E. On
n
∑
a alors pour tout x = xi ei dans E :
i=1
2
n
n
∑
∑
2
x2i = ∥x∥2
xi u (ei ) =
∥u (x)∥ = i=1
et u ∈ O (E) .
i=1
Symétries orthogonales dans les espaces euclidiens
Théorème 19.8
487
O (E) est une partie compacte de L (E) .
Démonstration. Pour toute isométrie u ∈ O (E) , on a ∥u (x)∥ = ∥x∥ pour tout vecteur x
et donc ∥u∥ = 1, c'est-à-dire que O (E) est contenu dans la sphère unité de L (E) , c'est donc
une partie bornée.
Si (up )p∈N est une suite d'éléments de O (E) qui converge vers u ∈ L (E) , pour tout x ∈ E,
on a alors :
∥u (x) − up (x)∥ = ∥(u − up ) (x)∥ ≤ ∥u − up ∥ ∥x∥ → 0
p→+∞
donc lim up (x) = u (x) et :
p→+∞
∥u (x)∥ = lim ∥up (x)∥ = lim ∥x∥ = ∥x∥
p→+∞
p→+∞
et u ∈ O (E) . L'ensemble O (E) est donc fermé L (E) .
En dénitive O (E) est fermé borné dans L (E) , ce qui équivaut à dire qu'il est compact
puisque L (E) est un espace normé de dimension nie.
19.4 Symétries orthogonales dans les espaces euclidiens
Pour tout sous-espace vectoriel F de E, on note pF la projection orthogonale sur F (voir le
paragraphe 47.5.
Dénition 19.5 Si F est un sous-espace vectoriel de E, la symétrie orthogonale par rapport à
F est l'application dénie sur E par :
∀x ∈ E, sF (x) = pF (x) − pF ⊥ (x) .
(gure 19.1).
pF ⊥ (x)
x
pF (x)
sF (x)
Figure
19.1 Comme les applications pF et pF ⊥ , l'application sF est linéaire.
Remarque 19.8 Pour
F = {0} , on a sF = −Id et pour F = E, sF = Id. On supposera a
priori que F distinct de {0} et de E (F est un sous-espace vectoriel propre de E ).
Espaces vectoriels euclidiens. Groupe orthogonal
488
De pF + pF ⊥ = Id, on déduit que sF est aussi dénie par :
∀x ∈ E, sF (x) = 2pF (x) − x = x − 2pF ⊥ (x) .
Si D = Ra est une droite vectorielle, on a alors :
sD (x) = 2pD (x) − x = 2
⟨x | a⟩
a − x.
∥a∥2
Si H = D⊥ est un hyperplan, on a alors :
sH (x) = 2pH (x) − x = x − 2
⟨x | a⟩
a.
∥a∥2
Dénition 19.6 On appelle réexion une symétrie orthogonale par rapport à un hyperplan et
demi-tour ou retournement une symétrie orthogonale par rapport à une droite.
Exercice 19.3 Soient a un vecteur non nul dans E, α un réel et u l'application linéaire dénie
par :
∀x ∈ E, u (x) = x + α ⟨x | a⟩ a
Déterminer les valeurs de α pour lesquelles u est une isométrie.
Solution 19.3 Pour α = 0, u est l'identité et c'est une isométrie.
Pour α ̸= 0 et x ∈ E, on a :
∥u (x)∥2 = ⟨x | a⟩2 ∥a∥2 α2 + 2 ⟨x | a⟩2 α + ∥x∥2
Si u est une isométrie, on a alors ∥u (x)∥2 = ∥x∥2 pour tout x ∈ E, ce qui équivaut à :
(
)
⟨x | a⟩2 ∥a∥2 α + 2 = 0
ou encore à ∥a∥2 α + 2 = 0 et donne α = −
Réciproquement, si α = −
2
.
∥a∥2
2
, l'application u est dénie par :
∥a∥2
∀x ∈ E, u (x) = x − 2
⟨x | a⟩
a
∥a∥2
et u est la réexion par rapport à l'hyperplan orthogonal au vecteur a.
Exercice 19.4 Soient a un vecteur non nul dans E, α un réel et u l'application linéaire dénie
par :
∀x ∈ E, u (x) = α ⟨x | a⟩ a − x
Déterminer les valeurs de α pour lesquelles u est une isométrie.
Solution 19.4 Pour α = 0, u est l'homothétie de rapport −1 (u = −Id) et c'est une isométrie.
Pour α ̸= 0 et x ∈ E, on a :
∥u (x)∥2 = ⟨x | a⟩2 ∥a∥2 α2 − 2 ⟨x | a⟩2 α + ∥x∥2
Symétries orthogonales dans les espaces euclidiens
489
Si u est une isométrie, on a alors ∥u (x)∥2 = ∥x∥2 pour tout x ∈ E, ce qui équivaut à :
(
)
⟨x | a⟩2 ∥a∥2 α − 2 = 0
ou encore à ∥a∥2 α − 2 = 0 et donne α =
Réciproquement, si α =
2
.
∥a∥2
2
, l'application u est dénie par :
∥a∥2
∀x ∈ E, u (x) = 2
⟨x | a⟩
a−x
∥a∥2
et u est le demi-tour par rapport à la droite dirigée par a.
Des propriétés des projections orthogonales, on déduit le résultat suivant.
Théorème 19.9 Soit F un sous espace vectoriel de E.
1. Pour x ∈ E, on a x ∈ F si, et seulement si, sF (x) = x et x ∈ F ⊥ si, et seulement si,
sF (x) = −x.
2. sF ◦ sF = Id (sF est involutive). Une symétrie orthogonale est donc un automorphisme
de E avec s−1
F = sF .
3. Pour tous x, y dans E, on a :
⟨sF (x) | y⟩ = ⟨x | sF (y)⟩
(sF est auto-adjoint).
4. Pour tous x, y dans E, on a :
⟨sF (x) | sF (y)⟩ = ⟨x | y⟩
(sF est une isométrie).
5. On a sF + sF ⊥ = 0 et sF ◦ sF ⊥ = sF ⊥ ◦ sF = −Id.
6. Si F est de dimension p ∈ {1,(· · · , n − 1} , il) existe alors une base orthonormée de E dans
laquelle la matrice de sF est
Ip
0
0 −In−p
et det (sF ) = (−1)n−p .
Démonstration.
1. On a :
et :
x ∈ F ⇔ pF (x) = x ⇔ sF (x) = x
x ∈ F ⊥ ⇔ pF ⊥ (x) = x ⇔ sF (x) = −x
2. On a :
sF ◦ sF = (pF − pF ⊥ ) ◦ (pF − pF ⊥ )
= pF ◦ pF − pF ⊥ ◦ pF − pF ◦ pF ⊥ + pF ⊥ ◦ pF ⊥
= pF + pF ⊥ = Id
Espaces vectoriels euclidiens. Groupe orthogonal
490
3. On a :
⟨sF (x) | y⟩ = 2 ⟨pF (x) | y⟩ − ⟨x | y⟩
= 2 ⟨x | pF (y)⟩ − ⟨x | y⟩
= ⟨x | 2pF (y)⟩ − ⟨x | y⟩ = ⟨x | sF (y)⟩
4. On a :
⟨sF (x) | sF (y)⟩ = ⟨x | sF ◦ sF (y)⟩ = ⟨x | y⟩
5. On a :
sF + sF ⊥ = (pF − pF ⊥ ) + (pF ⊥ − pF ) = 0
et :
sF ◦ sF ⊥ = (pF − pF ⊥ ) ◦ (pF ⊥ − pF )
= pF ◦ pF ⊥ − pF ⊥ ◦ pF ⊥ − pF ◦ pF + pF ⊥ ◦ pF
= −pF ⊥ − pF = −Id.
6. Il sut de se placer dans une base formée de la réunion d'une base orthonormée de F et
d'une base orthonormée de F ⊥ .
Exemple 19.3 Si
sH est une réexion, on a det (sH ) = −1 et si sD est un demi-tour, on a
det (sD ) = (−1)n−1 .
Théorème 19.10 Pour
n = dim (E) ≥ 2, le groupe O (E) est engendré par l'ensemble des
réexions. Précisément, toute isométrie de E peut s'écrire comme le produit d'au plus n ré-
exions.
Démonstration. On procède par récurrence sur n ≥ 2.
Pour n = 2, pour toute rotation ρ ∈ O+ (E) et toute réexion σ ∈ O− (E) , on a det (σ ◦ ρ) =
−1, donc σ1 = σ ◦ρ est une réexion (voir le paragraphe 21.1), ce qui nous donne ρ = σ −1 ◦σ1 =
σ ◦ σ1 et ρ est produit de deux réexions. Les isométries négatives étant des réexions, on en
déduit que toute isométrie de E est produit d'une ou deux réexions.
Supposons le résultat acquis pour les espaces euclidiens de dimension n − 1 ≥ 2 et soit
u ∈ O (E) avec E de dimension n. Si u = Id, elle s'écrit u = σ 2 , où σ est une réexion
quelconque. Si u ̸= Id, il existe un vecteur non nul x tel que u (x) ̸= x. On désigne alors
par H l'hyperplan orthogonal à u (x) − x et par σH la réexion par rapport à H. Comme
u (x) − x ∈ H ⊥ , on a σH (u (x) − x) = x − u (x) . De plus, avec :
⟨u (x) − x | u (x) + x⟩ = ∥u (x)∥2 − ∥x∥2 = 0
on déduit que u (x) + x ∈ H et σH (u (x) + x) = u (x) + x, ce qui nous donne :
2σH (x) = σH (u (x) + x) − σH (u (x) − x) = 2u (x)
soit σH (x) = u (x) (H est l'hyperplan médiateur de x et u (x)) et σH ◦u (x) = x, c'est-à-dire que
l'isométrie σH ◦u laisse stable la droite D dirigée par x et aussi l'hyperplan D⊥ . La restriction de
σH ◦ u à D⊥ s'écrit alors comme le produit σ1 ◦ · · · ◦ σp de p réexions de D⊥ avec 1 ≤ p ≤ n − 1.
Les applications σ1′ , · · · , σp′ dénies par σk′ (x) = σk (x) pour x ∈ D⊥ et σk′ (x) = x pour x ∈ D
sont alors des réexions de E telles que σH ◦ u = σ1′ ◦ · · · ◦ σp′ et u = σH ◦ σ1′ ◦ · · · ◦ σp′ .
Remarque 19.9 Dans le cas où
E est de dimension 1, on a O (E) = {−Id, Id} , σ = −Id
étant l'unique réexion avec σ 2 = Id et O (E) est engendré par {−Id} .
Matrices réelles orthogonales
491
19.5 Matrices réelles orthogonales
Le théorème 19.7 va nous donner une caractérisation des matrices d'isométries dans une base
orthonormée de E.
En munissant Rn de sa structure euclidienne canonique et en notant pour toute matrice
réelle A = ((aij ))1≤i,j≤n par Cj = (aij )1≤i≤n ∈ Rn la colonne numéro j ∈ {1, · · · , n} de A, on
a:
t
avec :
AA = ((αij ))1≤i,j≤n
(
)
αij = ligne i de t A (colonne j de A) = t Ci Cj


a1j
n
 ∑

aki akj = ⟨Ci | Cj ⟩ .
= (a1i , · · · , ani )  ...  =
k=1
anj
De plus si B = (ei )1≤i≤n est une base orthonormée de E, en notant pour tout x =
n
∑
xi ei
i=1
dans E, X = (xi )1≤i≤n ∈ Rn le vecteur colonne formé des composantes de X dans B, on a pour
tous x, y dans E :
⟨x | y⟩ =
n
∑
xk yk = ⟨X | Y ⟩
k=1
le produit scalaire de gauche étant celui de E et celui de droite celui de Rn .
Théorème 19.11 Soient
B = (ei )1≤i≤n une base orthonormée de E et u une application linéaire de E dans E de matrice A dans B. L'application u est une isométrie si, et seulement si,
t
AA = A t A = In .
Démonstration. Supposons que u ∈ O (E) . En notant
les notations qui précèdent, on a, pour 1 ≤ i, j ≤ n :
t
AA = ((αij ))1≤i,j≤n et en utilisant
αij = ⟨Ci | Cj ⟩ = ⟨u (ei ) | u (ej )⟩ = ⟨ei | ej ⟩ = δij
ce qui signie que t AA = In . La matrice A est donc inversible d'inverse t A et en conséquence,
on a aussi A t A = In .
Réciproquement, si t AA = A t A = In , on a alors pour 1 ≤ i, j ≤ n :
⟨u (ei ) | u (ej )⟩ = ⟨Ci | Cj ⟩ = δij
ce qui signie que u (B) est une base orthonormée de E et u ∈ O (E) .
Dénition 19.7 On appelle matrice orthogonale, une matrice réelle A telle que
t
AA = A t A =
In .
On note On (R) l'ensemble des matrices orthogonales.
Il revient au même de dire qu'une matrice orthogonale est une matrice inversible A d'inverse
t
A.
Le théorème précédent nous dit qu'une application linéaire u de E dans E est une isométrie
si, et seulement si, sa matrice dans une base orthonormée quelconque de E est orthogonale.
Mais attention, ce résultat est faux pour une base non orthonormée.
((Par)exemple
( ))l'application (x, y) 7→ (−x, y) est orthogonale et sa matrice dans la base
(
A=
−1 −2
0
1
)
(
est non orthogonale ( t AA =
1 2
2 5
)
̸= I2 ).
1
0
,
1
1
est
Espaces vectoriels euclidiens. Groupe orthogonal
492
Théorème 19.12 Pour toute matrice
sous-groupe de GLn (R) .
A dans On (R) , on a det (A) = ±1 et On (R) est un
Démonstration. De det (A) = det ( t A) pour toute matrice A ∈ Mn (R) et
In pour A ∈ On (R) , on déduit que (det (A)) = 1 et det (A) = ±1.
Il en résulte que On (R) ⊂ GLn (R) .
Comme In ∈ On (R) et pour A, B dans On (R) , on a :
t
AA = A t A =
2
(
A−1
)−1
=
(
t
A
)−1
= t A−1
(AB)−1 = B −1 A−1 = t B t A =
t
(AB)
on en déduit que On (R) est un sous-groupe de GLn (R) .
On note :
On+ (R) = {A ∈ On (R) | det (A) = 1}
On− (R) = {A ∈ On (R) | det (A) = −1}
et on dit que les éléments de On+ (R) sont les matrices orthogonales positives et les éléments de
On− (R) sont les matrices orthogonales négative.
On rappelle que si A = ((aij ))1≤i,j≤n est une matrice carrée d'ordre n, la matrice des cofacteurs de A est la matrice C = ((cij ))1≤i,j≤n , où cij = (−1)i+j det (Aij ) en notant Aij la matrice
carrée d'ordre n − 1 déduite de A en supprimant la ligne numéro i et la colonne numéro j. On
a alors :
A · t C = t C · A = det (A) In
et dans le cas où A est inversible, A−1 =
1
t
C.
det (A)
Théorème 19.13 Si A ∈ On+ (R) [resp. A ∈ On− (R)], on a alors A = C [resp. A = −C ], où
C est la matrice des cofacteurs de A.
Démonstration. Résulte de :
A−1 =
1
t
C = ± tC = tA
det (A)
pour A ∈ On± (R) .
19.6 Isométries directes, indirectes
Théorème 19.14 Pour toute isométrie u ∈ O (E) , on a det (u) = ±1.
Démonstration. On a det (u) = det (A) où A est la matrice de u dans une base orthonormée
et u ∈ O (E) si, et seulement si, A ∈ On (R) , ce qui entraîne det (A) = ±1.
On note :
O+ (E) = {u ∈ O (E) | det (u) = 1}
O− (E) = {u ∈ O (E) | det (u) = −1}
et on dit que les éléments de O+ (E) sont les automorphismes orthogonaux positifs ou les isométries directes ou les rotations vectorielles et les éléments de O− (E) sont des automorphismes
orthogonaux négatifs.
Réduction des endomorphismes orthogonaux
Théorème 19.15
d'indice 2.
493
O+ (E) [resp. On+ (R)] est un sous-groupe distingué de O (E) [resp. de On (R)]
Démonstration. Voir l'exercice 1.9.
Comme le déterminant d'une réexion vaut −1 et celui d'une isométrie directe vaut 1, le
théorème 19.10 nous dit que toute isométrie directe est produit d'un nombre pair de réexions
et toute isométrie indirecte est produit d'un nombre impair de réexions.
De ce théorème, on peut aussi déduire le résultat suivant.
Théorème 19.16 Les composantes connexes de O (E) sont O+ (E) et O− (E) .
Démonstration. Il s'agit de montrer que O+ (E) et O− (E) sont connexes dans L (E) .
Pour ce faire, on remarque que l'application φx qui associe à tout vecteur x ∈ S 1 (la sphère
unité de E ) la réexion sx par rapport à l'hyperplan Hx = (Rx)⊥ est continue. On rappelle que
cette réexion est dénie par sx (y) = y − 2 ⟨x | y⟩ x et pour tous x, x′ dans S 1 et tout y ∈ E,
on a :
∥sx (y) − sx′ (y)∥ = 2 ∥⟨x | y⟩ x − ⟨x′ | y⟩ x′ ∥
= 2 ∥⟨x − x′ | y⟩ x + ⟨x′ | y⟩ (x − x′ )∥
≤ 2 |⟨x − x′ | y⟩| + |⟨x′ | y⟩| ∥x − x′ ∥
≤ 2 ∥x − x′ ∥ ∥y∥ + ∥y∥ ∥x − x′ ∥ = 3 ∥x − x′ ∥ ∥y∥
ce qui nous dit que ∥sx − sx′ ∥ ≤ 3 ∥x − x′ ∥ . L'application x 7→ sx est donc continue de S 1 dans
L (E) et il en est de même de l'application :
φ:
2n
(S 1 )
→
L (E)
(x1 , · · · , x2n ) 7→ sx1 ◦ · · · ◦ sx2n
En eet, pour x = (x1 , · · · , x2n ) , x′ = (x′1 , · · · , x′2n ) dans (S 1 )2n et y ∈ E, on a :
∥φ (x) (y) − φ (x′ ) (y)∥ = ∥sx (y) − sx′ (y)∥
≤ 32n ∥x1 − x′1 ∥ · · · ∥x2n − x′2n ∥ ∥y∥
et ∥φ (x) − φ (x′ )∥ ≤ 32n (∥x1 − x)′1 ∥ · · · ∥x2n − x′2n ∥ . Comme S 1 est connexe, il en est de même
de (S 1 )2n et O+ (E) = φ (S 1 )2n est connexe comme image d'un connexe par une application
continue.
On procède de manière analogue pour O− (E) en utilisant l'application ψ : (x1 , · · · , x2n+1 ) 7→
sx1 ◦ · · · ◦ sx2n+1 .
Avec le corollaire 19.2, on propose une autre démonstration de ce résultat.
19.7 Réduction des endomorphismes orthogonaux
On sait déjà que le déterminant d'une isométrie vaut ±1. Pour ce qui est des valeurs propres
réelles, on a le résultat suivant.
Lemme 19.1 Les seules valeurs propres réelles possibles d'une isométrie sont −1 et 1.
Démonstration. Si λ est une valeur propre réelle de u ∈ O (E) et x ∈ E un vecteur propre
associé unitaire, de l'égalité ∥u (x)∥ = ∥x∥ , on déduit alors que λ = ±1.
Espaces vectoriels euclidiens. Groupe orthogonal
494
Lemme 19.2 Soit u ∈ O (E) . Il existe des sous espaces vectoriels de E, P1 , · · · , Pr , de dimenr
sion égale à 1 ou 2, deux à deux orthogonaux, stables par u et tels que E = ⊕ Pj .
j=1
Démonstration. On procède par récurrence sur la dimension n ≥ 1 de E.
Pour n = 1 ou 2, le résultat est évident.
Supposons le acquis pour tout endomorphisme orthogonal sur un espace vectoriel euclidien
de dimension p comprise entre 1 et n − 1, avec n ≥ 3.
Si P1 est un sous espace vectoriel de E non réduit à {0} de dimension au plus égale à 2
stable par u ∈ O (E) (lemme(17.7)
alors P1⊥ est stable par u (théorème 19.6).
)
Comme 1 ≤ n − 2 ≤ dim P1⊥ ≤ n − 1, on peut trouver des sous espaces vectoriels de E,
P2 , · · · , Pr , de dimension au plus 2, deux à deux orthogonaux et stables par la restriction de u
r
r
à P1⊥ , donc par u, tels que P1⊥ = ⊕ Pj . On a alors E = P1 ⊕ P1⊥ = ⊕ Pj .
j=2
j=1
Dans le cas où n (
= 2, la forme
des matrices orthogonales est particulièrement simple (théo)
a b
∈ O2 (R) , il existe alors un unique réel θ ∈ [0, 2π[ tel que :
c d
(
)
(
)
cos (θ) − sin (θ)
cos (θ) sin (θ)
A=
ou A =
sin (θ) cos (θ)
sin (θ) − cos (θ)
)
(
1 0
, ce que l'on peut
et dans le deuxième cas, A est orthogonalement semblable à
0 −1
rème 21.1) : si A =
vérier avec :
(
( )
( ) )(
( )
( ) ) (
)(
)
cos ( 2θ ) − sin( 2θ)
1 0
cos (2θ ) sin ( 2θ )
cos (θ) sin (θ)
=
0 −1
sin (θ) − cos (θ)
sin 2θ
cos 2θ
− sin 2θ cos 2θ
On peut aussi dire que A est symétrique et orthogonale, donc A2 = A t A = In et elle est
diagonalisable puisque annulée par X 2 − 1 qui(est scindé) à racines simples dans R. Comme
A ̸= ±In , elle est orthogonalement semblable à
Théorème 19.17 Soit
1 0
0 −1
.
u ∈ O (E) avec n ≥ 2. Il existe une base orthonormée B de E dans
laquelle la matrice de u s'écrit :






D=




Ip
0
0
−Iq
0
0
...
...
0
..
.
···
0
0
0
···
... ...
...
R1 0
.
0 R2 . .
... ... ...
0
0
0
0
0

.. 
. 


0 

0 


0 
Rr
où, pour tout k ∈ {1, · · · , r} , on a noté :
(
Rk =
cos (θk ) − sin (θk )
sin (θk ) cos (θk )
)
avec θk ∈ ]0, 2π[ − {π} et p, q, r sont des entiers naturels tels p + q + 2r = n (si l'un de ces
entiers est nul, les blocs de matrices correspondants n'existent pas).
Réduction des endomorphismes orthogonaux
495
Démonstration. On procède par récurrence sur la dimension n ≥ 2 de E.
Pour n = 2, c'est fait avec le lemme précédent.
Supposons le résultat acquis pour les endomorphismes orthogonaux sur les espaces euclidiens
de dimension p comprise entre 2 et n − 1 et soit u ∈ O (E) avec n = dim (E) ≥ 3.
Si u admet 1 ou −1 comme valeur propre, pour tout vecteur propre unitaire e1 associé à
cette valeur propre, le sous espace vectoriel H = (Rx)⊥ est stable par u (pour y ∈ H, on a
⟨u (y) | e1 ⟩ = ± ⟨u (y) | u (e1 )⟩ = ± ⟨y | e1 ⟩ = 0) et il existe alors une base orthonormée B1 de
H dans laquelle la matrice de la restriction de u à H est de la forme :






A1 = 




Ip
0
0
0
−Iq
0
0
···
0

0
.. 
. 

... ...
...
R1 0
.
0 R2 . .
... ... ...
0

0 
.
...
0
0 


.. . .
.
.
0 
0 ··· 0 0
0 Rr
(
)
±1 0
Dans la base orthonormée {e1 } ∪ B1 la matrice de u est A =
, qui se ramène
0 A1
bien à la forme souhaitée en permutant au besoin e1 avec l'un des vecteurs de B1 .
Si toutes les valeurs propres de u sont complexes non réelles, on a alors une décomposition
r
E = ⊕ Pk où les Pk sont de dimension 2 deux à deux orthogonaux et stables par u. L'étude du
k=1
cas n = 2 nous dit alors qu'il existe, pour tout k compris entre 1 et r, une base orthonormée
Bk de Pk dans laquelle la matrice de u est de la forme :
(
Rk =
cos (θk ) − sin (θk )
sin (θk ) cos (θk )
)
,
avec θk ∈ ]0, 2π[ − {π} (la restriction de u à Pk est dans O (Pk )). En réunissant toutes ces bases,
on obtient une base orthonormée de E dans laquelle la matrice de u est :



A=

R1
0
0
R2
0
···
..
.
···
0
.. 
. 
...
...
...

.
0 
Rr
0
Remarque 19.10 On a p = dim (ker (u − Id)) et q = dim (ker (u + Id)) avec p + q + 2r = n.
De plus u ∈ O+ (E) [resp. u ∈ O− (E)] si et seulement si q est pair [resp. impair].
Corollaire 19.1 Soit A ∈ On (R) avec n ≥ 2. Il existe une matrice P






t
P AP = 




Ip
0
0
−Iq
0
0
0
..
.
0
...
...
···
0
0
···
... ...
...
R1 0
.
0 R2 . .
... ... ...
0
0
0
0
0

.. 
. 


0 
,
0 


0 
Rr
∈ On (R) telle que :
Espaces vectoriels euclidiens. Groupe orthogonal
496
Démonstration. A est la matrice dans la base canonique Rn d'un endomorphisme ortho-
gonal u et la matrice de passage P de la base canonique à une base orthonormée dans laquelle
la matrice de u à la forme indiquée est orthogonale, donc telle que P −1 = t P.
Exercice 19.5 Soit
m
u
G un sous-ensemble de O (E) . Montrer que s'il existe m ∈ N∗ tel que
= Id pour tout u ∈ G (dans le cas où G est un groupe, on dit qu'il est d'exposant ni),
alors l'ensemble :
tr (G) = {tr (u) | u ∈ G}
est ni.
Solution 19.5 On sait qu'il existe une base orthonormée de
u ∈ G est diagonale par blocs de la forme :
E dans laquelle la matrice de
D = diag (Ip , −Iq , R1 , · · · , Rr )
(
)
cos (θk ) − sin (θk )
où Rk =
avec θk ∈ ]0, 2π[ − {π} .
sin (θk ) cos (θk )
Dans le cas où toutes les matrices des éléments de G sont de la forme diag (Ip , −Iq ) , on a :
{
}
tr (G) ⊂ p − q | (p, q) ∈ N2 et p + q = n
et cet ensemble est ni.
S'il existe u ∈ G et une base orthonormée dans laquelle la matrice de u est de la forme D =
diag (Ip , −Iq , R1 , · · · , Rr ) , alors la matrice de um dans cette base :
Dm = diag (Ip , (−1)m Iq , R (mθ1 ) , · · · , R (mθr ))
et la condition um = Id impose mθk ∈ ]0, 2mπ[ ∩ 2πZ, ce qui entraîne que les θk ne prennent
qu'un nombre ni de valeurs et :
{
tr (G) ⊂
p−q+2
r
∑
}
cos (θk ) | p + q + 2r = n, mθk ∈ ]0, 2mπ[ ∩ 2πZ
k=1
est ni.
Le théorème de réduction des endomorphismes orthogonaux nous permet de retrouver le
théorème 19.16.
Corollaire 19.2 Les composantes connexes de O (E) sont les fermés O+ (E) et O− (E) .
Démonstration. Montrons que O+ (E) est connexe par arcs (donc connexe) dans L (E) .
Soient u ∈ O+ (E) et B = (ei )1≤i≤n une base orthonormée de E dans laquelle la matrice de
u est de la forme :





D=



Ip
0
0
−Iq
0
..
.
0
0
...
···
0
···
...
0
.
R (θ1 ) . .
...
...
0
0
0
..
.
0
0
R (θr )



,



Réduction des endomorphismes orthogonaux
497
(
)
cos (θk ) − sin (θk )
où pour tout k ∈ {1, · · · , r} , R (θk ) =
avec θk dans ]0, 2π[ − {π} .
sin (θk ) cos (θk )
Comme u ∈ O+ (E) , on a det (u) = 1, donc q est pair et la matrice D peut s'écrire :


Ip 0
0
D =  0 D1 0  ,
0 0 D2
avec :



D1 = 

R (α1 )
0
0
R (α2 )
..
.
0
...
···
···
...
...
0
0
..
.
0
R (αq′ )






 , D2 = 


R (θ1 )
0
0
R (θ2 )
..
.
...
···
0

···
0
0
0
R (θr )
...
...
..
.


,

avec αj = π pour tout j.
Pour tout t ∈ [0, 1] , on désigne par γ (t) l'isométrie directe de matrice dans B :


Ip
0
0
0 
D (t) =  0 D1 (t)
0
0
D2 (t)
où :



D1 (t) = 




D2 (t) = 

R (tα1 )
0
0
R (tα2 )
..
.
...
···
...
...
0
..
.



,

0
0
···
0 R (tαq′ )

R (tθ1 )
0
···
0
..
.

0
R (tθ2 ) . .
.

,
..
...
...

.
0
0
···
0 R (tθr )
L'application γ dénit alors un chemin continu dans O+ (E) qui relie Id et u. Ce qui sut à
prouver la connexité par arcs de O+ (E) .
(
)
In−1 0
−
Pour toute isométrie indirecte v ∈ O (E) (par exemple v de matrice
dans
0
−1
une base orthonormée B), l'application u 7−→ v ◦ u réalisant un homéomorphisme de O+ (E)
sur O− (E) , on en déduit alors que O− (E) est aussi connexe par arcs.
On a O (E) = O+ (E) ∪ O− (E) , avec O+ (E) et O− (E) fermés (images réciproques de 1 et
−1 respectivement par l'application déterminant) connexes disjoints dans O (E) . Ce sont donc
les composantes connexes de O (E) .
498
Espaces vectoriels euclidiens. Groupe orthogonal
Téléchargement