Espaces euclidiens - Le site de la Sup 1

publicité
Chapitre 24
Espaces euclidiens
Objectifs
– Définir les notions de produit scalaire, d’orthogonalité, de bases orthonormales.
– Définir les notions d’endomorphismes orthogonaux, de matrices orthogonales, étudier leurs propriétés.
– Étudier les endomorphismes orthogonaux en dimension 1, 2 et 3.
Sommaire
I)
Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1)
Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2)
Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3)
Bases orthonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4)
Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5)
Distance d’un vecteur à un s.e.v . . . . . . . . . . . . . . . . . . . . . . . .
II) Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . .
1)
definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2)
Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3)
Espace vectoriel euclidien orienté . . . . . . . . . . . . . . . . . . . . . .
4)
Produit mixte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5)
Produit vectoriel en dimension 3 . . . . . . . . . . . . . . . . . . . . . . .
III) Endomorphismes orthogonaux en dimension 1, 2 et 3 . . . . . . . . . . . .
1)
En dimension 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2)
Dans le plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3)
En dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
IV) Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . 1
. . 1
.
2
.
4
.
4
.
5
.
6
.
6
.
7
.
8
.
9
.
9
. 10
. 10
. 10
. 12
. 14
Dans tout le chapitre, E désigne un R-espace vectoriel.
I)
Produit scalaire
1)
Définitions
DÉFINITION 24.1
Un produit scalaire sur E est une forme bilinéaire sur E, généralement notée (.|.), qui à tout couple
de vecteurs (x, y) associe le réel (x| y), et qui vérifie :
– ∀ x, y ∈ E, (x| y) = ( y|x) (symétrie).
– ∀ x ∈ E, (x|x) ¾ 0 (positive).
– ∀ x ∈ E, si (x|x) = 0, alors x = 0 (définie).
Lorsque E est muni d’un produit scalaire (.|.), on dit que (E, (.|.)) est un espace euclidien s’il est de
dimension finie, ou un espace pré-hilbertien sinon.
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
1
Produit scalaire
Chapitre 24 : Espaces euclidiens
Exemples:
n
P
x i yi .
– Produit scalaire canonique de Rn : (x| y) =
R b i=1
– E = C 0 ([a; b], R) et ∀ f , g ∈ E, ( f |g) = a f (t)g(t) d t.
– E l’ensemble des fonctions continues sur R et 2π-périodiques, on définit un produit scalaire sur E en posant :
Z 2π
1
∀ f , g ∈ E, ( f |g) =
f (t)g(t) d t
2π 0
– Pour x, y ∈ R2 , ϕ(x, y) = x 1 y1 + x 1 y2 + x 2 y1 + 2x 2 y2 est un produit scalaire sur R2 , mais pas ψ(x, y) =
x 1 y1 + x 1 y2 + x 2 y1 + x 2 y2 .
THÉORÈME 24.1 (Inégalité de Cauchy-Schwarz)
Ð
∀ x, y ∈ E, (x| y)2 ¶ (x|x)( y| y).
Preuve: ∀ λ ∈ R, (x + λ y|x + λ y) ¾ 0, ce qui donne en développant : λ2 ( y| y) + 2λ(x| y) + (x|x) ¾ 0. Lorsque
( y| y) 6= 0, alors le discriminant du trinôme en λ doit être négatif ou nul, ce qui donne l’inégalité.
Lorsque ( y| y) = 0, alors y = 0 et l’inégalité est triviale.
ƒ
THÉORÈME 24.2 (cas d’égalité)
Ð
∀ x, y ∈ E, (x| y)2 = (x|x)( y| y) ⇐⇒ (x, y) est liée.
Preuve: Celle-ci est simple et laissée en exercice.
ƒ
DÉFINITION 24.2 (norme euclidienne)
Soit x ∈ (E, (.|.)), on pose kxk =
égale à 1 est dit unitaire.
Si x est non nul alors le vecteur
1
x
kxk
p
(x|x), c’est la norme euclidienne de x. Un vecteur de norme
est unitaire.
Propriétés :
– kxk = 0 ⇐⇒ x = 0.
– ∀ λ ∈ R, kλxk = |λ|kxk.
– kx + yk ¶ kxk + k yk (inégalité triangulaire).
Exemples:
– Soient x, y ∈ E deux vecteurs non nuls, montrer que kx + yk = kxk + k yk ⇐⇒ ∃ α > 0, x = α y.
– E = Rn , avec le produit scalaire canonique, l’inégalité de Cauchy-Schwarz s’écrit :
s
!2
!
!
n
n
n
n
X
X
X
X
x i yi
¶
x i2
yi2
et kxk =
x i2
i=1
i=1
i=1
i=1
Rb
– E = C 0 ([a; b], R) avec le produit scalaire : ( f |g) = a f (t)g(t) d t, l’inégalité de Cauchy-Schwarz s’écrit :
qR
R b
2 R b R b b
2
2
f (t) f g(t) d t ¶ a f
g
et k f k =
f 2.
a
a
a
Relations entre le produit scalaire et la norme :
– kx + yk2 = kxk2 + k yk2 + 2(x| y).
– kx + yk2 + kx − yk2 = 2(kxk2 + k yk2 ) (théorème de la médiane ou identité du parallélogramme).
– 4(x| y) = kx + yk2 − kx − yk2 (identité de polarisation).
Dans la suite, (E, (.|.)) désigne un espace euclidien.
2)
Orthogonalité
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
2
Produit scalaire
Chapitre 24 : Espaces euclidiens
DÉFINITION 24.3
Soient x, y ∈ E, et soient F, G deux s.e.v de E, on dit que :
– x et y sont orthogonaux lorsque (x| y) = 0.
– F et G sont orthogonaux lorsque ∀ x ∈ F, ∀ y ∈ G, (x| y) = 0.
On appelle orthogonal de A (une partie de E), l’ensemble des vecteurs de E orthogonaux à tous les
vecteurs de A, notation : A⊥ = {x ∈ E / ∀ y ∈ A, (x| y) = 0}. On remarquera que dire que F et G sont
orthogonaux équivaut à F ⊂ G ⊥ , ou encore G ⊂ F ⊥ .
Le seul vecteur orthogonal à tous les autres est le vecteur nul, i.e. E ⊥ = {0}, car le produit scalaire est
défini.
THÉORÈME 24.3 (de Pythagore)
Ð
Deux vecteurs x et y sont orthogonaux ssi kx + yk2 = kxk2 + k yk2 .
THÉORÈME 24.4
Ð
Si F est un s.e.v de E, alors F ⊥ est un s.e.v de E en somme directe avec F .
Preuve: Pour y ∈ E, on pose f y : E → R définie par f y (x) = (x| y), alors f y est une forme linéaire sur E, et il est facile
T
ker( f y ), ce qui prouve que F ⊥ est un s.e.v de E. Si x ∈ F ∩ F ⊥ , alors on doit avoir (x|x) = 0,
de voir que F ⊥ =
y∈F
d’où x = 0.
ƒ
Propriétés :
– Si F ⊂ G, alors G ⊥ ⊂ F ⊥ .
– F ⊂ (F ⊥ )⊥ .
– (F + G)⊥ = F ⊥ ∩ G ⊥ .
THÉORÈME 24.5
Ð
Ð Si dim(E) = n et si F est un s.e.v de E de dimension p, alors dim(F ⊥ ) = n − p, on a donc :
Ð
Ð
Ð
E = F ⊕ F ⊥.
Ð
Ð
Ð
Preuve: On sait que dim(F ⊕ F ⊥ ) ¶ n, d’où dim(F ⊥ ) ¶ n − p.
Soit f : E → R p l’application définie par f (x) = ((e1 |x), . . . , (e p |x)) où B = (e1 , . . . , e p ) désigne une base de F ,
alors il est facile de voir que f est linéaire et que ker( f ) = F ⊥ . D’après le théorème du rang, on a n = dim(F ⊥ )+rg( f ) ¶
dim(F ⊥ ) + p, ce qui donne dim(F ⊥ ) ¾ n − p, et donc dim(F ⊥ ) = n − p.
ƒ
Quelques conséquences :
– (F ⊥ )⊥ = F .
– (F ∩ G)⊥ = F ⊥ + G ⊥ .
THÉORÈME 24.6
Ð
Ð Soit f : E → R une forme linéaire, alors il existe un unique vecteur a ∈ E tel que ∀ x ∈ E, f (x) =
Ð
(a|x).
Preuve: Pour l’existence : si f est nulle alors on peut prendre a = 0. Si f est non nulle, alors ker( f ) est un hyperplan
λ
de E, donc ker( f )⊥ = Vect [u] est une droite vectorielle. Posons f (u) = λ et prenons a = kuk
2 u. Il est facile de vérifier
que pour tout x ∈ E, f (x) = (a|x).
Si b est un autre vecteur qui convient, alors ∀ x ∈ E, (a − b|x) = 0, donc a − b = 0.
ƒ
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
3
Produit scalaire
3)
Chapitre 24 : Espaces euclidiens
Bases orthonormales
DÉFINITION 24.4
Une famille (x 1 , . . . , x p ) de E est dite orthonormale lorsque ∀ i, j ∈ [[1..p]], (ei |e j ) = δi j . Cette famille
est dite orthogonale lorsque ∀ i, j ∈ [[1..p]], i 6= j =⇒ (ei |e j ) = 0.
THÉORÈME 24.7
Ð
Ð Une famille orthogonale ne contenant pas le vecteur nul est libre. En particulier, une famille
Ð
orthonormale est libre.
Preuve: Soit (e1 , . . . , e p ) une famille orthogonale ne contenant pas le vecteur nul, si
on a (ei |
p
P
k=1
λk ek ) =
p
P
p
P
λk ek = 0, alors soit i ∈ [[1..p]],
k=1
λk (ei |ek ) = λi kei k2 = 0, ce qui entraîne λi = 0.
ƒ
k=1
Cas particulier : si dim(E) = n, alors une famille orthonormale de n vecteurs est une base de E, on dit
que l’on a une base orthonormale (b.o.n en abrégé). Par exemple, la base canonique que Rn est une base
orthonormale pour le produit scalaire canonique.
THÉORÈME 24.8
Ð
p
p
Ð
P
P
2
Ð Si (e1 , . . . , e p ) est une famille orthogonale, alors : k
e
k
=
kei k2 .
i
Ð
i=1
k=1
Preuve: En effet, on a k
p
P
i=1
e i k2 =
p
P
(ei |e j ) =
i, j=1
p
P
kei k2 .
ƒ
i=1
THÉORÈME 24.9 (coordonnées dans une b.o.n)
Ð
Ð Soit B = (e1 , . . . , en ) une b.o.n de E, alors ∀ x, y ∈ E :
Ð
Ð
n
n
Ð
X
X
Ð
x=
(x|ei )ei (x| y) =
x i yi
Ð
Ð
i=1
i=1
Ð
Ð
Ð avec x = (x|e ) et y = ( y|e ).
i
i
i
i
Preuve: Soit CoordB (x) = (λ1 , . . . , λn ), on a (x|ek ) = (
n
P
i=1
λi ei |ek ) =
n
P
2
kxk =
n
X
x i2
i=1
λi (ei |ek ) = λk . Pour les deux autres points, il
i=1
suffit de développer le produit scalaire.
ƒ
THÉORÈME 24.10
Ð
Il existe toujours des bases orthonormales.
e
Preuve: Par récurrence sur n = dim(E) : pour n = 1, on a E = Vect e1 , une b.o.n de E est (e10 ) avec e10 = ke1 k .
⊥ 1
Supposons le théorème vrai au rang n − 1 (n ¾ 1), et soit e1 un vecteur unitaire de E, soit F = Vect e1 , alors F
est un s.e.v de dimension n − 1, soit (e2 , . . . , en ) une b.o.n de F , il est facile de voir que (e1 , e2 , . . . , en ) est une b.o.n de
E.
ƒ
4)
Projections orthogonales
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
4
Produit scalaire
Chapitre 24 : Espaces euclidiens
DÉFINITION 24.5
Soit p ∈ L (E) une projection (p ◦ p = p), on dit que p est une projection orthogonale lorsque
ker(p) = ker(p − id)⊥ . Si F est un s.e.v de E, la projection orthogonale sur F , notée p F , est la
projection sur F parallèlement à F ⊥ .
Si F est un s.e.v de E, alors la projection orthogonale sur F ⊥ est id − p F .
THÉORÈME 24.11
Ð
p
Ð
P
Ð Si F est un s.e.v de E, et si (e1 , . . . , e p ) est une b.o.n de F , alors : ∀ x ∈ E, p F (x) = (x|ei )ei .
Ð
i=1
Preuve: Soit (e p+1 , . . . , en ) une b.o.n de F ⊥ , alors B = (e1 , . . . , en ) est une b.o.n de E, donc x =
donne x =
p
P
(x|ei )ei , ce qui
i=1
n
P
(x|ei )ei +
i=1
donc p F (x) =
n
P
(x|ei )ei , la première somme désigne un vecteur de F , et la seconde un vecteur de F ⊥ ,
i=p+1
p
P
(x|ei )ei .
ƒ
i=1
Exemple: Si D = Vect [u] est une droite vectorielle, alors (e1 =
c’est à dire : p D (x) =
(x|u)
.u.
kuk2
u
)
kuk
est une b.o.n de D, donc ∀ x ∈ E, p D (x) = (x|e1 )e1 ,
THÉORÈME 24.12 (procédé d’orthonormalisation de Schmidt 1 )
Ð
Ð
Ð
Ð
Ð
Ð
Ð
Ð
Ð
Soit (e1 , . . . , en ) une base de E, alors il existe une unique b.o.n (v1 , . . . , vn ) de E telle que :
¨
Vect e1 , . . . , ei = Vect v1 , . . . , vi
∀ i ∈ [[1..n]],
.
(ei |vi ) > 0
Preuve: On pose v1 =
e1
,
ke1 k
on a bien Vect e1 = Vect v1 et (e1 |v1 ) > 0.
0
Supposons les vecteurs v1 , . . . , vi construits et vérifiant les conditions, on pose ei+1
= p Fi⊥ (ei+1 ) où Fi = Vect v1 , . . . , vi =
i
P
0
0
Vect e1 , . . . , ei , ce qui donne ei+1
= ei+1 −
(ei+1 |vk )vk , ce vecteur ei+1
est non nul et dans Fi+1 , on pose ensuite
vi+1 =
0
ei+1
0
kei+1
k=1
0
, il est facile de voir que Vect e1 , . . . , ei+1 = Vect v1 , . . . , vi+1 . D’autre part, (ei+1 |vi+1 ) = (ei+1
|vi+1 ) =
k
0
kei+1
k > 0.
On remarque qu’à chaque étape, il y a deux choix pour vi , mais la condition (ei |vi ) > 0 élimine une des deux
0
possibilités, ce qui entraîne l’unicité, car on doit prendre ei+1
dans Fi+1 ∩ Fi⊥ qui est une droite vectorielle.
ƒ
Exercice: Soit E = R3 , muni du produit scalaire canonique, on pose v1 = (1, 1, 0), v2 = (1, 0, 1) et v3 = (0, 1, 1).
Appliquer la méthode de Schmidt à la base (v1 , v2 , v3 ).
Réponse: On pose e1 =
v1
kv1 k
=
p1 (1, 1, 0),
2
puis e20 = v2 − (v2 | e1 ) · e1 = ( 12 , − 12 , 1) et e2 =
Enfin, e30 = v3 − (v3 | e1 ) · e1 − (v3 | e2 ) · e2 = 23 (−1, 1, 1) et e3 =
5)
e30
ke30 k
=
e20
ke20 k
=
p1 (1, −1, 2).
6
p1 (−1, 1, 1).
3
Distance d’un vecteur à un s.e.v
Soit F un s.e.v de E et soit x ∈ E, pour tout vecteur y ∈ F , on a kx − yk2 = k(p F (x) − y) + p F ⊥ (x)k2 =
kp F (x) − yk2 + kp F ⊥ (x)k2 , on voit donc que ∀ y ∈ E, kx − yk2 ¾ kp F ⊥ (x)k2 , et que cette valeur est un
minimum atteint uniquement pour y = p F (x), d’où le théorème :
1. SCHMIDT Erhard (1876 – 1959) : mathématicien allemand.
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
5
Endomorphismes orthogonaux
Chapitre 24 : Espaces euclidiens
THÉORÈME 24.13
Ð
Ð Soit F un s.e.v de E, pour x ∈ E, l’ensemble {kx − yk / y ∈ F } admet un minimum, celui-ci est
Ð
Ð atteint uniquement pour y = p F (x), et vaut kp F ⊥ (x)k. Ce minimum est appelé distance de x à F et
Ð
noté d(x, F ) : d(x, F ) = min y∈F kx − yk = kp F ⊥ (x)k = kx − p F (x)k.
Exemples:
– Distance d’un vecteur à une droite : Soit D = Vect [u] une droite vectorielle, on sait que p D (x) =
q
p
(x|u)2
d(x, D) = kx − p D (x)k2 = kxk2 − kuk2 .
(x|u)
u,
kuk2
d’où
– Distance d’un vecteur à un hyperplan : Soit H un hyperplan de E, alors H ⊥ = Vect [u] est une droite vectorielle,
|(x|u)|
d’où d(x, H) = kp D (x)k = kuk .
II)
1)
Endomorphismes orthogonaux
definition
DÉFINITION 24.6
Une isométrie vectorielle de E (ou endomorphisme orthogonal de E) est une application f ∈ L (E)
telle que ∀ x ∈ E, k f (x)k = kxk (on dit que f conserve la norme), l’ensemble des endomorphismes
orthogonaux de E est noté O(E).
Exemple: id E , h−1 sont des endomorphismes orthogonaux de E.
THÉORÈME 24.14
Ð
Ð Un endomorphisme f de E est une isométrie ssi f conserve le produit scalaire, c’est à dire :
Ð
∀ x, y ∈ E, ( f (x)| f ( y)) = (x| y).
Preuve: Si f conserve le produit scalaire, il est clair que f conserve la norme, et donc f ∈ O(E).
Réciproquement, si f ∈ O(E) : soient x, y ∈ E, k f (x) + f ( y)k2 = kxk2 + k yk2 + 2( f (x)| f ( y)), mais on a aussi
k f (x) + f ( y)k2 = k f (x + y)k2 = kx + yk2 = kxk2 + k yk2 + 2(x| y), d’où ( f (x)| f ( y)) = (x| y).
ƒ
THÉORÈME 24.15
Ð
Ð O(E) est un groupe pour la loi ◦, plus précisément c’est un sous-groupe de GL(E), on l’appelle :
Ð
groupe orthogonal de E.
Preuve: Si f ∈ O(E), alors si x ∈ ker( f ), on a k f (x)k = 0 = kxk, d’où x = 0, donc f est injective, comme E est de
dimension finie, on a bien f ∈ GL(E). D’autre part, id E ∈ O(E), soient f , g ∈ O(E), k f (g(x))k = kg(x)k = kxk, donc
f ◦ g ∈ O(E), kxk = k f ( f −1 (x))k = k f −1 (x)k, donc f −1 ∈ O(E).
ƒ
DÉFINITION 24.7 (symétrie orthogonale)
Soient s ∈ L (E) une symétrie (s2 = id E ), soit F = ker(s − id) et G = ker(s + id), alors on sait que
s est la symétrie par rapport à F et parallèlement à G. On dit que s est une symétrie orthogonale
lorsque F = G ⊥ , on parle alors de la symétrie orthogonale par rapport à F (notée s F ).
THÉORÈME 24.16
Ð
Une symétrie orthogonale est une isométrie vectorielle.
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
6
Endomorphismes orthogonaux
Chapitre 24 : Espaces euclidiens
Preuve: Soit s F la symétrie orthogonale par rapport au s.e.v F , soit p = 12 (s+id), alors on sait que p est la projection sur
F parallèlement à ker(s+id) = F ⊥ , donc p est une projection orthogonale. Soit x ∈ E, ks F (x)k2 = kp F (x)− p F ⊥ (x)k2 =
kp F (x)k2 + kp F ⊥ (x)k2 , or kxk2 = kp F (x) + p F ⊥ (x)k2 = kp F (x)k2 + kp F ⊥ (x)k2 = ks F (x)k2 , d’où s F ∈ O(E).
ƒ
Une projection orthogonale qui n’est pas l’identité, n’est pas une isométrie (elle n’est pas bijective).
DÉFINITION 24.8 (réflexion)
Une réflexion est une symétrie orthogonale par rapport à un hyperplan.
Exercice: Soient u, v ∈ E deux vecteurs non nuls, de même norme et distincts. Montrer qu’il existe une unique
réflexion qui échange u et v.
Réponse: Réponse : soit w = u − v, soit H = Vect [w]⊥ et s = sH , on a (u − v|u + v) = kuk2 − kvk2 = 0, donc
u + v ∈ H, on a donc s(u − v) = v − u et s(u + v) = u + v, la résolution de ce système donne s(u) = v et s(v) = u.
Si s0 est une autre réflexion qui convient, alors on doit avoir s0 (u − v) = v − u, donc ker(s0 + id) = Vect [w] et par
conséquent, s0 = s.
Remarque : l’hyperplan H s’appelle hyperplan médiateur de [u; v], car si x ∈ H, alors ku − xk = ks(v) − s(x)k =
kv − xk.
THÉORÈME 24.17
Ð
Soit f ∈ L (E), alors f ∈ O(E) ⇐⇒ f transforme une b.o.n en une b.o.n de E.
Preuve: Soit B = (e1 , . . . , en ) une b.o.n de E, on a (ei |e j ) = δi, j . Si f ∈ O(E), alors ( f (ei )| f (ek )) = (ei |e j ) = δi, j , donc
B0 = ( f (e1 ), . . . , f (en )) est une b.o.n de E.
n
P
Réciproquement, si B0 = ( f (e1 ), . . . , f (en )) est une b.o.n de E, alors pour x ∈ E, k f (x)k2 = k
x i f (ei )k2 =
n
P
i=1
2)
i=1
x i2
= kxk , donc f ∈ O(E).
2
ƒ
Matrices orthogonales
THÉORÈME 24.18
Ð
Ð Soit f ∈ L (E), soit B une base orthonornale de E et soit A = mat( f ) ∈ Mn (R), alors :
Ð
B
Ð
Ð
Ð
f ∈ O(E) ⇐⇒ tA × A = I n .
Ð
Ð
Ð
Preuve: Soit B = (e1 , . . . , en ), on a [tA × A]i, j =
n
P
ak,i ak, j = ( f (ei )| f (e j )) = δi, j , donc tA × A = I n .
ƒ
k=1
DÉFINITION 24.9
Soit A ∈ Mn (R), on dit que A est une matrice orthogonale lorsque tA× A = I n , l’ensemble des matrices
orthogonales de taille n est noté On (R).
THÉORÈME 24.19 (Caractérisations des matrices orthogonales)
Ð
Ð Soit A ∈ Mn (R), les assertions suivantes sont équivalentes :
Ð
Ð – A ∈ On (R).
Ð
Ð – A est inversible et A−1 = tA.
Ð
– Les vecteurs colonnes de A forment une b.o.n de Rn .
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
7
Endomorphismes orthogonaux
Preuve: On sait que [tA × A]i, j =
point équivaut [tA × A]i, j = δi, j .
Chapitre 24 : Espaces euclidiens
n
P
ak,i ak, j = (ci (A)|c j (A)) (produit scalaire canonique dans Rn ). Donc le troisième
k=1
ƒ
Conséquences On (R) est un groupe multiplicatif, c’est en fait un sous-groupe de (GLn (R), ×), que l’on
appelle groupe orthogonal de type n sur R.
THÉORÈME 24.20
Ð
Si f ∈ O(E), alors det( f ) = ±1. Si A ∈ On (R) alors det(A) = ±1.
Preuve: Si A est la matrice de f dans une base orthonormale, alors A ∈ On (R) donc tA × A = I n , on en déduit que
det(tA × A) = 1 = det(A)2 , et donc det(A) = ±1.
ƒ
DÉFINITION 24.10
L’application det : (O(E), ◦) → ({±1}, ×) est un morphisme de groupes. Son noyau est donc un
sous-groupe de O(E) que l’on appelle groupe des rotations et que l’on note SO(E) : groupe spécial
orthogonal de E (parfois noté O+ (E)). On a donc :
SO(E) = { f ∈ O(E) / det( f ) = 1}.
L’ensemble des matrices orthogonales de déterminant égal à 1 est un sous-groupe de On (R) que l’on
note SOn (R) : groupe spécial orthogonal de type n sur R.
Exemples:


−1 1 −1 1


1
1 1
1
– Soit A = 12 
, les vecteurs colonnes de A sont unitaires et deux à deux orthogonaux, donc
 1 −1 −1 1
−1 −1 1 1
A ∈ O4 (R), on a det(A) = 1, donc A est la matrice d’une rotation.
– Une réflexion n’est pas dans SO(E), en effet, soit s la réflexion par rapport à un hyperplan H, soit en un vecteur
⊥
unitaire de
soit (e1 , . . . , en−1 ) une b.o.n de H, alors B = (e1 , . . . , en ) est une b.o.n de E et
 la droite H , et
1 0 ··· 0

.. 
.


. 
0 . .
mat(s) =  .
, on voit donc que det(s) = −1.
B
.

1
0
.
0 · · · 0 −1
Composée d’endomorphismes orthogonaux : en raisonnant sur le déterminant, on obtient :
– La composée de deux rotations est une rotation.
– La composée d’une rotation et d’une isométrie négative (det = −1) est une isométrie négative.
– La composée de deux isométries négatives est une rotation.
it f ∈ O(E), soit F un s.e.v de E, montrer que si F est stable par f , alors F ⊥ aussi.
3)
Espace vectoriel euclidien orienté
Soit (E, (.|.)) un espace euclidien orienté.
THÉORÈME 24.21 (caractérisation des rotations)
Ð
Ð
Ð
Un endomorphisme f de E est une rotation ssi f transforme une b.o.n.d en une b.o.n.d (on dit que
f conserve l’orientation).
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
8
Endomorphismes orthogonaux
Chapitre 24 : Espaces euclidiens
Preuve: Si f ∈ SO(E) : soit B = (e1 , . . . , en ) une b.o.n.d de E, on sait que f transforme B en une b.o.n de
E, B0 = ( f (e1 ), . . . , f (en )), le déterminant de la matrice de passage est le déterminant de f qui vaut 1, donc B0 est
une base directe.
Réciproquement : si f transforme une b.o.n.d B en une b.o.n.d B0 , alors on sait que f ∈ O(E), le déterminant de
f vaut ±1, or le déterminant de f est le déterminant de la matrice de passage de B à B0 et celui-ci est strictement
positif, donc det( f ) = 1, i.e. f est une rotation.
ƒ
4)
Produit mixte
THÉORÈME 24.22
Ð
Ð Soit B une b.o.n.d de E, soit B0 une autre base orthonormale de E, alors :
Ð
Ð – Si B0 est directe, alors detB0 = detB .
Ð
– Si B0 est indirecte, alors detB0 = − detB .
Preuve: Si B0 est indirecte, alors la matrice de passage de B à B0 a un déterminant strictement négatif, mais cette
matrice est une matrice orthogonale, donc son déterminant vaut −1. Or on a la relation detB = detB (B0 ) detB0 , et
donc detB = − detB0 .
ƒ
L’espace vectoriel E est euclidien, orienté et de dimension n.
DÉFINITION 24.11
Soit B = (e1 , . . . , en ) une b.o.n.d de E, soit (x 1 , . . . , x n ) une famille de vecteurs de E. On appelle produit mixe des vecteurs x 1 , . . . , x n , le réel noté [x 1 , . . . , x n ] et défini par : [x 1 , . . . , x n ] =
detB (x 1 , . . . , x n ). D’après le théorème précédent, ce nombre ne dépend pas de la b.o.n.d choisie.
Le produit mixte étant un déterminant, il hérite des propriétés de ce dernier.
Exemple: En dimension deux : soit B = (u, v) une b.o.n.d de E, E peut être identifié à C. Soient x, y ∈ E \ {0},
alors x = kxk(cos(θ )u + sin(θ )v), et y = k yk(cos(θ 0 )u + sin(θ 0 )v), d’où (x| y) = kxkk yk cos(θ 0 − θ ), ou encore
(x| y) = kxkk yk cos(α) où α = (x, y) (mod 2π). De même, [x, y] = kxkk yk sin(α), donc l’angle α entre les vecteurs
x et y dans le plan orienté est défini par :
cos(α) =
5)
(x| y)
kxkk yk
et sin(α) =
[x, y]
kxkk yk
.
Produit vectoriel en dimension 3
(E, (.|.)) est un espace vectoriel euclidien orienté de dimension 3.
DÉFINITION 24.12
Soit u, v ∈ E, l’application f : E → R définie par f (x) = [u, v, x] est une forme linéaire sur E, donc
il existe un unique vecteur a ∈ E tel que ∀ x ∈ E, [u, v, x] = (a|x). Par définition, ce vecteur a est
appelé produit vectoriel de u et v, on le note u ∧ v.
Propriétés du produit vectoriel
– u ∧ v = 0 ssi (u, v) est liée.
Preuve: Si (u, v) est liée, alors ∀ x ∈ E, (u, v, x) est liée, donc [u, v, x] = 0, et par conséquent, u ∧ v = 0.
Si (u, v) est libre, alors il existe x ∈ E tel que (u, v, x) est une base de E, donc [u, v, x] 6= 0, ce qui entraîne
u ∧ v 6= 0.
ƒ
– u ∧ v est orthogonal à u et v.
Preuve: (u|u ∧ v) = [u, v, u] = 0 et (u ∧ v|v) = [u, v, v] = 0.
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
ƒ
9
Endomorphismes orthogonaux en dimension 1, 2 et 3
Chapitre 24 : Espaces euclidiens
– Si (u, v) est libre, alors (u, v, u ∧ v) est une base directe de E.
Preuve: Soit P = Vect [u, v], alors (u ∧ v) est une base de la droite P ⊥ , donc (u, v, u ∧ v) est une base de E.
Soit B une b.o.n.d de E, alors le déterminant de la famille (u, v, u ∧ v) dans la base B est le produit mixte
[u, v, u ∧ v] = ku ∧ vk2 > 0, cette famille est donc bien une base directe.
ƒ
– Le produit vectoriel est bilinéaire et antisymétrique.
– ku ∧ vk2 = kuk2 kvk2 − (u|v)2 .


(u|i) (v|i) (u ∧ v|i)


Preuve: Soit B = (i, j, k) une b.o.n.d de E, [u, v, u ∧ v] = det( (u| j) (v| j) (u ∧ v| j) ), soit A cette
(u|k) (v|k) (u ∧ v|k)


2
kuk
(u|v)
0


0
matrice, le calcul de tA × A donne tA × A = (u|v) kvk2
, on obtient alors det(tA × A) = det(A)2 =
2
0
0
ku ∧ vk
€
Š
ku ∧ vk2 kuk2 kvk2 − (u|v)2 , mais ceci est égal à [u, v, u ∧ v]2 = ku ∧ vk4 . Si la famille (u, v) est liée alors la
formule est évidente, sinon on peut simplifier par ku ∧ vk2 dans l’expression ci-dessus, ce qui donne la formule.
On remarquera que si u et v sont unitaires orthogonaux, alors (u, v, u ∧ v) est une b.o.n.d de E.
ƒ
(u|v)
Lorsque (u, v) est libre, alors d’après l’inégalité de Cauchy-Schwarz kukkvk ∈ [−1; 1], donc il existe un
unique réel θ ∈ [0; π] tel que (u|v) = kukkvk cos(θ ), on obtient alors ku ∧ vk = kukkvk sin(θ ). Ce
réel θ est appelé mesure de l’angle (u, v), c’est un élément de [0; π].
– Coordonnées de u ∧ v dans une b.o.n.d : soit (i, j, k) une b.o.n.d de E, alors :
u2 v2 u1 v1 u1 v1 k.
u∧v =
i−
j+
u3 v3 u3 v3 u2 v2 u
v2 2
Preuve: La coordonnée sur i de u ∧ v est (i|u ∧ v) = [i, u, v] = . Le raisonnement est le même
u3 v3 pour les deux autres.
On retient ceci en disant c’est le développement suivant la troisième colonne du
u
v
i 1
1
« déterminant » u2 v2 j . On remarquera que i ∧ j = k, i ∧ k = − j et j ∧ k = i.
ƒ
u3 v3 k
– Formule du double produit vectoriel : ∀ x, y, z ∈ E, x ∧ ( y ∧ z) = (x|z) y − (x| y)z.
Preuve: On choisit (i, j, k) une b.o.n telle que x = αi, y = β i + γ j et z = ai + b j + ck, on a alors :
y ∧ z = bβ k − cβ j − aγk + cγi d’où x ∧ ( y ∧ z) = −bαβ j − cαβ k + aαγ j = [aαγ − bαβ] j − cαβ k. D’autre part,
(x|z) = aα et (x| y) = αβ, donc on a (x|z) y − (x| y)z = aαβ i + aαγ j − aαβ i − αβ b j − αβ ck ce qui donne
[aαγ − bβα] j − cαβ k, ce qui donne l’égalité.
ƒ
Exercice: Soit u un vecteur unitaire de E, montrer que pour x ∈ E, (u ∧ x) ∧ u est le projeté orthogonal de x sur le
plan P = Vect [u]⊥ .
Réponse: Le projeté orthogonal de x sur la droite Vect [u] est (x|u)u, donc le projeté orthogonal de x sur P est
x − (x|u)u qui est égal à (u ∧ x) ∧ u d’après la formule du double produit vectoriel.
III)
1)
Endomorphismes orthogonaux en dimension 1, 2 et 3
En dimension 1
Si dim(E) = 1 et si f ∈ O(E), alors f est une homothétie de rapport λ ∈ R, mais f conserve la norme
donc ∀ x ∈ E, kλxk = kxk, ce qui donne en prenant x 6= 0, |λ| = 1, d’où O(E) = {±id E }.
2)
Dans le plan
Soit E un plan euclidien orienté et soit f ∈ O(E), on effectue la classification suivant les invariants de
f : F = ker( f − id E ).
– dim(F ) = 2 : alors f = id ∈ SO(E).
– dim(F ) = 1 : alors F = Vect [u] est une droite vectorielle (avec u unitaire) stable par f , donc F ⊥ est
une droite vectorielle stable par f également et sur laquelle le seul vecteur invariant est 0, donc la
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
10
Endomorphismes orthogonaux en dimension 1, 2 et 3
Chapitre 24 : Espaces euclidiens
⊥
restriction de f à ‚
F ⊥ est −id
Œ F ⊥ . Soit v un vecteur unitaire de F , alors B = (u, v) est une b.o.n de E
1 0
et on a mat( f ) =
, donc f est la réflexion d’axe F .
0 −1
B
Soit B0 = (i, j) une b.o.n.d, il existe un réel θ tel que u = cos(θ /2)i ‚
+ sin(θ /2) j, on prend Œ
alors
cos(θ /2) − sin(θ /2)
v = − sin(θ /2)i + cos(θ /2) j, la matrice de passage de B0 à B est P =
, et
sin(θ /2) cos(θ /2)
‚
Œ
cos(θ ) sin(θ )
la matrice de f dans la base B0 est mat
(f ) =
.
sin(θ ) − cos(θ )
B0
– dim(F ) = 0, seul le vecteur nul est invariant par f , soit B = (i, j) une b.o.n.d de E, alors mat( f ) =
B

2
2
‚
Œ
=1
a + c
a b
2
2
A=
, avec b + d
= 1 , avec les complexes z = a + ic et z 0 = b + id, on a |z| = |z 0 | = 1,

c d
a b + cd = 0
0
donc z = e iθ , z(0 = e iθ , avec Re(zz 0 ) = a b + cd = 0,(donc cos(θ − θ 0 ) = 0, d’où θ 0 = θ + π/2 + kπ,
b = cos(θ 0 ) = − sin(θ )
b = cos(θ 0 ) = sin(θ )
ce qui donne
, ou bien
, mais le second cas
d = sin(θ 0 ) = cos(θ )
d = sin(θ 0 ) = − cos(θ )
‚
Œ
cos(θ ) − sin(θ )
correspond à une réflexion d’après l’étude précédente, il reste donc : mat( f ) =
,
sin(θ ) cos(θ )
B
cette matrice est notée R(θ ), c’est la matrice d’une rotation.
‚ Œ
a
Soit u un vecteur non nul, et soit v = f (u), notons X =
les coordonnées de x dans la base
b
‚
Œ
a cos(θ ) − b sin(θ )
0
B, alors les coordonnées de v sont X =
, d’où (u|v) = (a2 + b2 ) cos(θ ) =
a sin(θ ) + b cos(θ )
kukk f (u)k cos(θ ), et d’autre part [u, v] = (a2 + b2 ) sin(θ ) = kukk f (u)k sin(θ ), donc θ est l’angle
orienté des deux vecteurs u et v. On dit que f est la rotation d’angle θ . On remarquera que la matrice
de f est la même dans toutes les b.o.n.d de E.
En résumé :
→ SO(E) = { f ∈ O(E) / ∃ θ ∈ R, mat( f ) = R(θ )}, où B est une b.o.n.d quelconque de E
B
‚
Œ
cos(θ ) sin(θ )
→ O (E) = { f ∈ O(E) / ∃ θ ∈ R, mat( f ) =
},
sin(θ ) − cos(θ )
B
où B est une b.o.n.d quelconque de E. Ce sont des réflexions d’axe Vect [u]
où u = cos(θ /2)i + sin(θ /2) j.
−
→ SO2 (R) = {R(θ ) / θ ∈ R} et
O−
2 (R)
‚
Œ
cos(θ ) sin(θ )
={
/ θ ∈ R}
sin(θ ) − cos(θ )
−
→
x
D⊥
D
−
x→
2
−
→
−→
x =−
x→
1 + x2
−
→

θ /2
θ
−
→
ı
−
x→
1
−
→
ı
−−
x→
2
→
−→
s(−
x )=−
x→
1 − x2
MPSI - COURS
−
→

→
r(−
x )
Fradin
c
Patrick – http://mpsi.tuxfamily.org
11
Endomorphismes orthogonaux en dimension 1, 2 et 3
Chapitre 24 : Espaces euclidiens
FIGURE 24.1: Réflexion et rotation
‚
Œ
cos(θ ) − sin(θ )
Propriété : L’application R : R → SO2 (R) définie par R(θ ) =
est un morphisme
sin(θ ) cos(θ )
de groupes surjectif. En particulier, on a R(0) = I2 et ∀ θ , θ 0 ∈ R, R(θ + θ 0 ) = R(θ ) × R(θ 0 ), d’où
R(θ )−1 = R(−θ ).
THÉORÈME 24.23
Ð
Le groupe des rotations, (SO(E), ◦), est commutatif.
Composée de deux réflexions : Soit B = (i, j) une b.o.n.d de E, soit s la réflexion d’axe Vect [u] et s0 la
0
0
réflexion d’axe Vect u0 avec u = cos(θ‚/2)i + sin(θ /2) j etŒu0 =
‚ cos(θ /2)i + sin(θŒ/2) j. La matrice de
cos(θ ) sin(θ )
cos(θ 0 ) sin(θ 0 )
s ◦ s0 dans la base B est la matrice A =
×
= R(θ − θ 0 ), donc
sin(θ ) − cos(θ )
sin(θ 0 ) − cos(θ 0 )
s ◦ s0 est la rotation d’angle θ − θ 0 = 2(u0 , u) (mod 2π). Ce calcul montre en même temps, qu’une rotation
peut s’écrire comme la composée de deux réflexions dont une est arbitraire.
3)
En dimension 3
Soit E une espace euclidien orienté de dimension 3, et soit f ∈ O(E), la classification se fait suivant la
dimension de F = ker( f − id E ).
– dim(F ) = 3 : alors f = id E , c’est une rotation.
– dim(F ) = 2, alors F est un plan stable par f , donc F ⊥ = Vect [u] (avec u unitaire) est une droite
stable par f sur laquelle le seul vecteur invariant est 0, donc la restriction de f à F ⊥ est −id F ⊥ , d’où
f (u) = −u, f est donc la réflexion par rapport au plan F , et f ∈ O− (E).
Soit x ∈ E, le projeté orthogonal de x sur F est (u ∧ x) ∧ u et son projeté sur F ⊥ est (x|u)u, donc
x = (x|u)u + (u ∧ x) ∧ u, on en déduit :
∀x ∈ E, f (x) = −(x|u)u + (u ∧ x) ∧ u).
C’est l’expression vectorielle de la réflexion par rapport au plan Vect [u]⊥ .
– dim(F ) = 1 : alors F = Vect [u] est une droite vectorielle stable par f (avec u unitaire), donc F ⊥
est un plan stable par f sur lequel le seul vecteur invariant est 0, donc la restriction de f à F ⊥
est une rotation. Soit (v, w) une b.o.n.d de F ⊥ orientépar u, alors B = (u, v,w) est une b.o.n.d de
1
0
0


E, et la matrice de f dans la base B est : mat( f ) = 0 cos(θ ) − sin(θ ) . Le déterminant de
B
0 sin(θ ) cos(θ )
cette matrice vaut 1, donc f est une rotation, on dit que f est la rotation d’axe Vect [u] et d’angle
θ dans le plan Vect [u]⊥ orienté par u. Soit x ∈ E, le projeté orthogonal de x sur F est (x|u)u
et son projeté sur F ⊥ est (u ∧ x) ∧ u = (x|v)v + (x|w)w, l’image de ce dernier vecteur dans le
plan F ⊥ par la rotation est : (x|v)[cos(θ )v + sin(θ )w] + (x|w)[− sin(θ )v + cos(θ )w], c’est à dire
cos(θ )[(x|v)v +(x|w)w]+sin(θ )[(x|v)w −(x|w)v], ce qui donne cos(θ )(u∧ x)∧u+sin(θ )x ∧(w ∧ v),
ou encore : cos(θ )(u ∧ x) ∧ u + sin(θ )u ∧ x. Finalement :
∀x ∈ E, f (x) = (x|u)u + cos(θ )(u ∧ x) ∧ u + sin(θ )u ∧ x.
C’est l’expression vectorielle de la rotation f . On remarquera que tr( f ) = 1 + 2 cos(θ ), et si x est un
vecteur unitaire orthogonal à u, alors x ∧ f (x) = sin(θ )u, ce qui permet de déterminer l’angle de la
rotation.
– dim(F ) = 0 : alors (on admet que) f 2 est une rotation d’axe Vect y , soit x = f ( y) − y on a x 6= 0
et f (x) = −x, donc il existe un vecteur unitaire u tel que f (u) = −u, soit D = Vect [u], alors D⊥ est
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
12
Endomorphismes orthogonaux en dimension 1, 2 et 3
Chapitre 24 : Espaces euclidiens
un plan stable par f sur lequel seul le vecteur nul est invariant, donc la restriction de f à D⊥ est une
rotation, soit (v, w) une b.o.n.d de D⊥ orienté par u, alors B = (u, v, w) est une b.o.n.d de E et :


−1
0
0


mat( f ) =  0 cos(θ ) − sin(θ ) ,
B
0 sin(θ ) cos(θ )
le déterminant de cette matrice vaut −1 donc f ∈ O− (E). Soit s la réflexion par rapport au plan D⊥
et r la rotation d’axe D = Vect [u] et d’angle θ , il est facile de vérifier que f = s ◦ r = r ◦ s. D’autre
part, pour tout vecteur x ∈ E :
f (x) = −(x|u)u + cos(θ )(u ∧ x) ∧ u + sin(θ )u ∧ x.
C’est l’expression vectorielle de f . On remarquera que tr( f ) = −1 + 2 cos(θ ), et que si x est un
vecteur unitaire orthogonal à u, alors x ∧ f (x) = sin(θ )u, ce qui permet de déterminer l’angle θ .
En résumé :


1
0
0


→ SO(E) = { f ∈ O(E) / ∃ B, b.o.n.d, ∃ θ ∈ R, mat( f ) = 0 cos(θ ) − sin(θ )}
B
0 sin(θ ) cos(θ )
(les invariants forment une droite vectorielle si f 6= id E )
→ Si det( f ) = −1, alors soit f est une réflexion (un plan invariant),
soit f est la composée commutative entre une rotation d’axe Vect [u] et une réflexion
par rapport au plan Vect [u]⊥ .
P⊥ = D
−
→
−→
x =−
x→
1 + x2
→
r(−
x )
−
x→
2
P
−
x→
1
r(−
x→
1 )
−−
x→
2
→
−→
s(−
x )=−
x→
1 − x2
→
→
s ◦ r(−
x ) = r ◦ s(−
x )
FIGURE 24.2: réflexion, rotation, et composée commutative
THÉORÈME 24.24
Ð
Toute rotation peut s’écrire comme produit de deux réflexions.
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
13
Exercices
Chapitre 24 : Espaces euclidiens
Preuve: Si f est une rotation d’axe D = Vect [u], alors la restriction de f au plan D⊥ est une rotation (plane) qui
peut donc s’écrire comme composée de deux réflexions du plan D⊥ , le résultat en découle.
ƒ
IV)
Exercices
ÆExercice 24.1
Soit B = (i, j, k) la base canonique de R3 , dans les cas suivants, dire si ϕ est un produit scalaire, et
si c’est le cas, appliquer la méthode de Schmidt à B :
a) ϕ(x, y) =
3
P
i=1
(x i2 + yi2 ).
b) ϕ(x, y) = x 1 y1 − x 2 y2 + x 3 y3 .
c) ϕ(x, y) = (x 1 − 2x 2 )( y1 − 2 y2 ) + x 2 y2 + (x 2 + x 3 )( y2 + y3 ).
ÆExercice 24.2
Soit B = (i, j, k) une b.o.n de E, soient v1 (1, 1, 2), v2 (1, 2, −2) et v3 (5, −4, 0) trois vecteurs de E.
Montrer que B0 = (v1 , v2 , v3 ) est une base de E, et appliquer à B0 la méthode de Schmidt.
ÆExercice 24.3
Soit E = Mn (R), on pose pour A, B ∈ E, ϕ(A, B) = tr(tA × B).
a) Montrer que ϕ est un produit scalaire sur E. La base canonique de E est -elle orthonormale ?
Comment s’écrit l’inégalité de Cauchy-Schwarz ? Le cas d’égalité ?
b) Soit D = Vect I n , pour A ∈ E, calculer la distance de A à D. En déduire une condition
nécessaire et suffisante pour que A ∈ D à l’aide de la trace.
ÆExercice 24.4
Soit E un espace euclidien de dimension 5, soit B une b.o.n de E et soient v1 (1, 0, 0, 1, −2),
v2 (2, 0, 1, 0, 2) et v3 (0, 1, 2, 0, 1) trois vecteurs de E. On pose F = Vect v1 , v2 , v3 , déterminer une
b.o.n de F ⊥ .
ÆExercice 24.5
Soit E un espace euclidien et soit f ∈ L (E) tel que ∀ x ∈ E, (x| f (x)) = 0. Montrer que ker( f ) et
Im( f ) sont supplémentaires orthogonaux.
ÆExercice 24.6
Soit f un endomorphisme d’un espace euclidien E, tel que ∀ x ∈ E, k f (x)k ¶ kxk. Montrer que
ker( f − id E ) et Im( f − id E ) ont supplémentaires.
Application : soit p ∈ L (E) une projection, montrer que p est une projection orthogonale ssi
∀ x ∈ E, kp(x)k ¶ kxk.
ÆExercice 24.7
Soit B = (e1 , . . . , e p ) une famille libre de p vecteurs dans un espace euclidien E, on suppose que
p
P
∀ x ∈ E, kxk2 = (x|ei )2 .
i=1
”
—⊥
= {0}, en déduire que B est une base de E.
a) Montrer que Vect e1 , . . . , e p
b) Soient x, y ∈ E, montrer que (x| y) =
p
P
(x|ei )( y|ei ).
i=1
c) Soit x ∈ E et soit y =
p
P
(x|ei )ei . Montrer que kxk2 = k yk2 = (x| y). En déduire que x = y,
i=1
puis que B est orthonormale.
ÆExercice 24.8
Soit E un espace euclidien, pour tout s.e.v F de E, on note p F la projection orthogonale sur F .
a) Soient F et G deux s.e.v de E, montrer que p F ◦ pG = 0 ssi F et G sont orthogonaux.
b) Montrer que p F +G = p F + pG ssi F et G sont orthogonaux.
c) Montrer que p F et pG commutent ssi F et F ⊥ sont stables par pG , déterminer alors pG ◦ p F .
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
14
Exercices
Chapitre 24 : Espaces euclidiens
ÆExercice 24.9
Soit B une b.o.n.d d’un plan euclidien E, déterminer la nature de l’endomorphisme de E dont la
matrice dans la base B est :
‚
Œ
‚
Œ
‚p
Œ
‚p
Œ
1 4 −3
1 4 3
1
1
3 1
3 −1
p
p
.
3
5 3 4
5 3 −4
2 −1
2 −1 − 3
ÆExercice 24.10
Soit B une b.o.n.d d’un espace euclidien E de dimension 3, déterminer la nature de l’endomorphisme
de E dont la matrice dans la base B est :






−1 2
2
2 −1 2
2
2 −1
1
 1
 1

2 −1
2
 2 −1 2 
2
−1 2
3
3
3
2
2 −1
−1 2
2
2 −1 2
p 
−3
1
6
p 
1
6
1
−3
 p
p
4
− 6 − 6 −2



0 1 0


 0 0 1 .
−1 0 0
ÆExercice 24.11
Soit E un espace euclidien de dimension 3, soit B = (i, j, k) une b.o.n.d de E, déterminer la matrice
dans la base B de :
a) p, la projection orthogonale sur le plan P d’équation x + y + z = 0.
b) s, la réflexion par rapport au plan P d’équation 2x + 3 y + z = 0.
c) s, le demi-tour d’axe Vect [u] avec u(1, 1, 1).
d) r, la rotation d’axe Vect [u] et d’angle π/2, avec u(0, 1, 1).
e) r, la rotation d’axe Vect [u] qui transforme i en j, avec u = i + j + k.
MPSI - COURS
Fradin
c
Patrick – http://mpsi.tuxfamily.org
15
Téléchargement