Espace vectoriel euclidien

publicité
Espace vectoriel euclidien
I Définition et notations
Un espace vectoriel euclidien  un R-ev de dimension finie muni d’un produit scalaire.
déf
Dans tout ce chapitre, E désigne un R-ev euclidien de dimension n  2 , le produit
scalaire est noté  . Pour x, y  E , on note aussi :
- x  y pour  ( x, y ) (parfois on rencontre aussi x | y )
- x 2 pour  ( x, x)
- x pour  ( x, x) (ainsi, x  x est la norme associée au produit scalaire  , on
l’appelle la norme euclidienne)
- x  y pour  ( x, y )  0
Exemple : R n muni du produit scalaire canonique : on parle de la structure euclidienne
canonique de R n .
Remarque : Si E est un espace vectoriel euclidien, alors tout sous-espace vectoriel F de
E est muni naturellement d’une structure euclidienne, obtenue par restriction.
II Bases orthonormales
A) Généralités
Définition, proposition :
Une base orthonormale (ou orthonormée)  une famille orthonormale de vecteurs
déf
de E qui en forme une base = une famille orthonormale de n vecteurs de E (car une
famille orthonormale est libre.
Théorème (Schmidt) :
Soit (u1 , u2 ,...un ) une base quelconque de E.
Alors il existe une unique base orthonormale (e1 , e2 ,...en ) telle que :
 p  1, n , Vect (e1 , e2 ,...e p )  Vect (u1 , u2 ,...u p )
 p  1, n , e p  u p  0
On dit que (e1 , e2 ,...en ) est la base orthonormale s’appuyant sur la base
(u1 , u2 ,...un ) par le procédé d’orthonormalisation de Schmidt.
Préliminaire (graphique) :
u2

j
e2
 
(i , j ) : base orthonormée
u1
e1
(u1 , u 2 ) : base quelconque
(e1 , e2 ) : base orthonormée qui s’appuie dessus

i
Démonstration :
On montre par récurrence sur p que, pour tout p  1, n , « on a une et une seule
 
manière de construire e p ».
- Il est évident qu’il y a une seule façon de construire e1 de sorte que :
 Vect (e1 )  Vect (u1 ) (cela impose que e1  u1 , avec   0 car e1  0, u1  0 )
 e1  1 (cela impose alors que  u1  1 , ainsi e1    u1 )
 e1  u1  0 , donc e1    u1 .
Ainsi, e1 
u1
. Réciproquement, ce vecteur convient bien
u1
- Soit p  1, n  1 . Supposons (e1 , e2 ,...e p ) construit.
Montrons qu’il y a un et un seul choix de sorte que :
 Vect (e1 , e2 ,...e p 1 )  Vect (u1 , u 2 ,...u p 1 ) (1)
 e p 1 est orthogonal aux ei ,1  i  p
(2)
 e p 1  1
(3)
 e p 1  u p 1  0
(4)
(1) impose que e p 1 soit combinaison linéaire des ui ,1  i  p  1
 u p 1  combinaiso n linéaire des ui ,1  i  p

combinaison linéairedes ei ,1i  p
et   0 car sinon Vect (e1 , e2 ,...e p 1 )  Vect (u1 , u 2 ,...u p )  Vect (u1 , u 2 ,...u p 1 ) et
u p 1 serait alors combinaison linéaire des ui ,1  i  p .
p


Donc e p 1    u p 1   i ei  .
i 1


p



Et inversement, si e p 1    u p 1   i ei  , alors on a bien (1).
i 1


(2) impose que pour j  1, p , e j  e p1  0 .
 
p


Or, pour j  1, p , e j  e p 1    u p 1  e j   i ei  e j    (u p 1 .e j   j ) car on a
i 1


ei  e j  0 si i  j , 1 sinon, par hypothèse de récurrence.
Ainsi, j  1, n ,  j  u p1  e j
Inversement, si cette condition est vérifiée, on a bien (2).
p
(3) impose que e p 1  1 , c'est-à-dire que 1   u p 1   i ei .
i 1
Donc   
1
p
u p 1    i ei
i 1
p
( u p 1   i ei  0 car sinon u p 1  Vect (e1 , e2 ,...e p )  Vect (u1 , u 2 ,...u p ) )
i 1
Inversement, si on a cette valeur de  , on a bien (3).
p


(4) impose le choix de +, car e p 1  e p 1    u p 1  e p 1   i ei  e p 1  .
i 1


p
Or,
 e  e
i 1
i i
p 1
 0 car e p 1 est orthogonal aux ei ,1  i  p .
Donc e p 1  e p 1   u p 1  e p 1 donc   0 .





1
0
Inversement, si   0 , on a bien (4).
Ce qui achève la récurrence.
Conséquences :
(1) Dans un espace vectoriel euclidien, il existe au moins une base orthonormale
(2) Toute famille orthonormale peut être complétée en une base orthonormale.
En effet :
Soit (e1 , e2 ,...e p ) une famille orthonormale. Comme elle est libre, on peut la
compléter en une base (e1 , e2 ,...e p , e p 1 ,...en ) de E. Par le procédé d’orthonormalisation
de Schmidt, on obtient alors une base orthonormale (e'1 , e' 2 ,...e' n ) . Mais, d’après le
théorème de Schmidt appliqué dans F  Vect (e1 , e2 ,...en ) , on a (e1 ,...e p )  (e'1 ,...e' p ) .
B) Produit scalaire et base orthonormale
Soit B  (e1 , e2 ,...en ) une base orthonormale de E.
 x1 
 
Soit x  E , de composantes ( x1 , x2 ,...xn ) dans B, notons X   x2  .
x 
 n
 y1 
 
Soit y  E , de composantes ( y1 , y 2 ,... y n ) dans B, notons Y   y2  .
y 
 n
On identifie ici R et M 1,1 (R ) pour ne pas charger les notations :
n

 n
  n
x  y    xi ei     y j e j    xi ei  y j e j   xi yi  ( x1
i 1
 i 1
  j 1
 i , j 1,n 
x2 
 y1 
 y2  t
xn ) 
   ( X )Y
y 
 n
n
Ainsi, x  y   xi y i ( t X )Y .
i 1
n
Et, en particulier : x 2  x  x   xi2 ( t X ) X
i 1
Ainsi, l’application  B :
, qui est un isomorphisme de R-ev,
Rn  E
n
( x1, x2 ,...xn ) xi ei
i 1
est aussi un isomorphisme de R-ev euclidien *, R n étant muni de sa structure
euclidienne canonique. (* C'est-à-dire que pour tout u, v  R n ,  B (u)   B (v)  u  v , en
plus des règles pour un R-ev).
Remarque :
Inversement, soit E un R-ev de dimension n, B  (u1 , u 2 ,...u n ) une base de E.
Alors il existe un et un seul produit scalaire tel que B soit orthonormale dans le
R-ev euclidien E muni de ce produit scalaire.
En effet, c’est l’application  définie par :
Pour tout x, y  E , de composantes ( x1 , x2 ,...xn ) et ( y1 , y 2 ,... y n ) dans B,
n
 ( x, y )   x i y i .
i 1
Exemple :
 
1,2), (
1,1)] . On note (i , j ) la base canonique de R 2 .
R 2 , muni de la base [(
u1
u2
Soit x  ( x1 , x2 )  R .


Alors x  x1i  x2 j  x1 (2u 2  u1 )  x2 (u1  u 2 )  ( x2  x1 )u1  (2 x1  x2 )u 2 .
 
Ainsi, (i , j ) est une base orthonormale pour le produit scalaire naturel, mais
(u1 , u 2 ) n’en est pas une pour ce produit scalaire ; en revanche, c’en est une pour le
2
produit scalaire  :
R2 R
.
( x( x1, x2 ), y( y1, y2 ))( x2  x1 )( y 2  y1 )  (2 x1  x2 )( 2 y1  y 2 )
2 x2 y2 5 x1 y13x1 y2 3x2 y1
III Orthogonal d’un sous-espace vectoriel, projecteurs et symétries orthogonaux
A) Orthogonal d’un sous-espace vectoriel (rappel)
Soit F un sous-espace vectoriel de E.
On définit F   x  E, y  F , x  y  0 .
Alors F  est un sous-espace vectoriel de E, et E  F  F  .
Démonstration :
Déjà, c’est un sous-espace vectoriel de E (vu dans le chapitre précédent).
 Si F  0, alors F   E , et on a bien E  F  F  .
 Si F  0. On note p la dimension de F ; ainsi, 1  p  n .
Soit (e1 , e2 ,...e p ) une base orthonormale de F.
On la complète en une base orthonormale B  (e1 , e2 ,...en ) de E. Soit alors x  E ,
de composantes ( x1 , x2 ,...xn ) dans B.
On a alors les équivalences :
 n

x  F   y  F ,   xi ei   y  0
 i 1


 n
  p
 y1 , y 2 ,... y p  R ,   xi ei     y i ei   0
 i 1
  i 1

n


 j  1, p ,   xi ei   e j  0  j  1, p , x j  0
 i 1

L’avant-dernière équivalence se justifie dans un sens en prenant, pour j  1, p
 
 
y j  1 et i  1, p \  j, yi  0 , et dans l’autre sens par linéarité de la deuxième
variable.
Donc F   Vect (e p1 , e p2 ,...en ) , donc F  est bien supplémentaire de F dans E.
Conséquence :
Dans un espace euclidien, ( F  )   F .
En effet, on a déjà vu que F  (F  )  . De plus, en notant p  dim F , on a :
dim( F  )  n  p , donc dim(( F  )  )  n  (n  p)  p  dim F . D’où l’égalité.
B) Projecteur orthogonal
Définition :
Soit F un sous-espace vectoriel de E.
Le projecteur orthogonal sur F  le projecteur sur F selon F  .
déf
Pour x  E , p le projecteur orthogonal sur F, alors p (x ) est appelée la projection
orthogonale de x sur F.
F
x
p(x)
F
Ainsi, p (x ) est l’unique élément de F tel que x s’écrive :
x  p ( x)  u , où u  F  . (car E  F  F  , et x  E , p( x)  F )
Autrement dit, p (x ) est l’unique élément de F tel que x  p( x)  F  . Ainsi, pour
y  F
y  E , y  p( x)  
.

x  y  F
C) Distance d’un élément à un sous-espace vectoriel
Définition :
Soit A une partie non vide E et soit x  E . Alors la distance de x à A, notée
d ( x, A) , est : d ( x, A)  inf d ( x, y) .
déf yA
La borne inférieure existe bien, car d ( x, y), y  A est non vide (car A est non
vide), et minorée (par 0).
(Définition : frontière = adhérence d’une partie, privée de l’intérieur)
Théorème :
Soit F un sous-espace vectoriel de E, soit p le projecteur orthogonal sur F.
Soit x0  E .
Alors p( x0 ) est l’unique élément de F tel que d ( x0 , F )  x0  p( x0 ) . Autrement
dit, la distance de x 0 est atteinte, en un et un seul point, qui n’est autre que p( x0 ) .
Démonstration :
Soit y  F .
Alors y  x0
 y  p( x0 )  p( x0 )  x0 .
2
2
Or, y  p( x0 )  F car y  F , p( x0 )  F ; et p( x0 )  x0  F  par définition de p.
Donc y  p( x0 )  p( x0 )  x0 . Ainsi, d’après le théorème de Pythagore :
y  x0
D’où
y  x0
2
2
 y  p( x0 )  p( x0 )  x0
2
 y  p( x0 )  p( x0 )  x0
2
2
y  x0  p( x0 )  x0 , et il n’y a égalité que si y  p( x0 ) (car sinon
 p( x0 )  x0
 y  p( x0 )
2
2
 0)
D) Symétries orthogonales
Ce sont les symétries par rapport à un sous-espace vectoriel F, selon F  .
Autrement dit :
La symétrie orthogonale par rapport à F  l’application f : E  F  F   E .
déf
x x' x''x' x''
F
x
x' '
x'
F
 x' '
f (x)
Remarque : f ( x)  2 p( x)  x , où p est la projection orthogonale sur F.
Proposition :
Soit f une symétrie sur E. On a l’équivalence :
f est une symétrie orthogonale  x  f ( x)  x .
Symétrie quelconque :
x
F
f (x)
Démonstration :
Soit f une symétrie par rapport à F selon G. (où G est tel que E  F  G ).
Soit x  E . Alors x  x F  xG , et f ( x)  x F  xG .
 
F
Donc x
2
 xF
2
G
 2 x F  xG  xG
2
et f ( x)
2
 xF
2
 2 x F  xG  xG .
2
Ainsi :
 Si G  F  , alors x F  xG vaudra toujours 0. Donc x  f ( x)  x

Si G  F  , on peut trouver x' F , x' ' G tel que x'x' '  0 . Alors, en prenant
x  x' x' ' ( E ) , on aura trouvé x tel que f ( x)  x . D’où l’équivalence.
IV Formes linéaires et hyperplans
A) Formes linéaires
Théorème :
Les formes linéaires sur E sont exactement les applications du type : E  R , où
x ax
a  R . Plus précisément :
(1) Les applications du type x  a  x sont linéaires, et
(2) Si h  E * , alors il existe un et un seul élément a de E tel que
x  E , h( x)  a  x . (on retrouve ainsi le fait que dim( E*)  dim( E ) )
Démonstration :
Le premier point résulte de la linéarité du produit scalaire par rapport à la seconde
variable. Pour le deuxième :
Soit B  (e1 , e2 ,...en ) une base orthonormale de E.
Soit h  E * .
Il existe alors a1 , a2 ,...an  R tels que, pour tout x  E de composantes
n
( x1 , x2 ,...xn ) dans B, h( x)  a1 x1  a2 x2  ...  an xn  a  x , avec a   a i ei
(on
i 1
introduit en fait (a1 a2 ... an ) , matrice de h dans les bases B et (1)). D’où l’existence.
Unicité :
Si il existe a, a ' E tels que x  E , h( x)  a  x et h( x)  a ' x , alors
x  E , (a  a' )  x  0 (linéarité par rapport à la première variable).
Donc a  a' E   0, d’où a  a' .
B) Hyperplans
Soit H un hyperplan de E. Alors H est le noyau d’une forme linéaire sur E, h, non
nulle (attention, il n’y a pas unicité !).


Or, il existe n  E tel que x  E , h( x)  n  x .

 
Ainsi, H  ker h  x  E , h( x)  0  x  E , n  x  0  Vect (n ) .

Donc n dirige la droite vectorielle N  H  . On dit que N est la normale à H :

N  H  , ou encore N   H , et que n est un vecteur normal à H.
Remarque :
Si B  (e1 , e2 ,...en ) est une base orthonormale de E,

Si H a pour équation H : a1 x1  a2 x2  ...  an xn  0 dans B, alors le vecteur n de
 a1 

 
composantes  a2  dans B est normal à H. En effet, l’équation "dit" : x  H  n  x  0 .
a 
 n
C) Projection orthogonale sur un hyperplan

On considère un hyperplan H, un vecteur n normal à H et p le projecteur
orthogonal sur H.
 x'  p ( x)
Soit x  E . Alors x  
.
x'  
x' ' , et 

x
'
'


n
,
où


R

H

H

Donc x  p( x)  .n


2
Ainsi, x  n  p( x)  n   n

 0 car p ( x )H

xn
D’où    2 , et, par conséquent :
n

p( x)  x  x' '  x  .n
 x  n  
Soit p( x)  x    2 .n
 n 


Conséquence :


xn 
xn
Pour tout x  E , d ( x, H )  x  p ( x)   2 n   .
n
n
D) Réflexion
Une réflexion  une symétrie orthogonale par rapport à un hyperplan.
déf
Proposition :
Etant donnés deux vecteurs x, x’ de E, distincts et de même norme, il existe une et
une seule réflexion qui les échange.
Démonstration :
Existence :
Soit H l’hyperplan tel qu’un vecteur normal soit x  x' , et soit f la réflexion
d’hyperplan H. On note enfin p la projection orthogonale sur H.


x  ( x  x' )
Alors f ( x)  2 p ( x)  x  2 x 
( x  x' )   x
2


x  x'


x  x  x'
2
 2
x  2 x  x' x'
2
x  x  x'
2
( x  x' )  x
2
 2
2 x  2 x  x'
2
( x  x' )  x
 ( x  x ' )  x  x '
Et, de même, f ( x' )  x .
Unicité :
Supposons qu’il existe deux réflexions f, g d’hyperplans F, G telles que :
f ( x)  x' ; f ( x' )  x ; g ( x)  x' ; g ( x' )  x
On a alors :
Déjà, x  x' est normal à F. En effet :
Pour tout y  F , on a déjà :
f ( x  y)  x  y
 f ( x)  f ( y )  x' y
D’où x  y  x' y .
De plus, pour tout y  F :
( x  x' )  y  x' y  x  y 
1
2
 x'
2
 y  x' y
2
2
  x
1
2
2
 y  x y
2
 0 car x'  x et x' y  x  y
2
.

Donc F  Vect ( x  x' ) .
De même, G   Vect ( x  x' )
Donc F   G  , d’où F  G .
V Automorphismes orthogonaux
A) Définition, théorème
Soit f  L(E ) .
f est un automorphi sme orthogonal  f " conserve le produit scalaire" (1) :
déf
x, y  E , f ( x)  f ( y )  x  y
 f " conserve la norme" (2) :
x  E , f ( x)  x
 f " conserve les bases orthonorma les" (3) :
Pour toute base orthonorma le (e1 , e2 ,...en )
( f (e1 ), f (e2 ),... f (en )) est orthonorma le
 f " conserve une base orthonorma le" (4) :
Il existe une base orthonorma le (e1 , e2 ,...en )
telle que ( f (e1 ), f (e2 ),... f (en )) est orthonorma le
Démonstration :
(1)  (2) : évident ; si (1), alors f ( x) 2  x 2
(2)  (1) : supposons (2).
Soient x, y  E . Alors :
1
2
2
f ( x)  f ( y ) 
f ( x)  f ( y )  f ( x)  f ( y )
2
1
2
2
2

f ( x  y )  f ( x)  f ( y )
2
1
2
2
2

x y  x  y
2
 x y
(1)  (3) : supposons (1).
Soit (e1 , e2 ,...en ) une base orthonormale.



2



 
Alors, pour tout i, j  1, n , f (ei )  f (e j )  ei  e j   i; j
(3)  (4) : il en existe puisque l’ensemble des bases orthonormales n’est pas vide.
(4)  (1) : supposons (4).
Soit B  (e1 , e2 ,...en ) une base orthonormale telle que B '  ( f (e1 ), f (e2 ),... f (en ))
soit aussi orthonormale.
Soient alors x, y  E , de composantes ( x1 , x2 ,...xn ) et ( y1 , y2 ,... yn ) dans B.
n
Alors x  y   xi y i .
i 1
n
Et f ( x)  f ( y )   xi yi car B’ est aussi orthonormale, et les composantes de
i 1
f (x ) et f ( y ) dans B’ sont ( x1 , x2 ,...xn ) et ( y1 , y2 ,... yn ) puisque f est linéaire (rappel :
n
n
i 1
i 1
pour une application linéaire, x   xi ei  f ( x)   xi f (ei ) )
Remarque :
Si une application f est un automorphisme orthogonal, alors c’est aussi un
automorphisme.
En effet : si f est un automorphisme orthogonal, alors :
f ( x)  0  f ( x)  0  x  0  x  0 . Donc ker f  0. Donc f est injective,
donc bijective (puisque E est de dimension finie)
Définition, proposition :
On note O (E ) l’ensemble des automorphismes orthogonaux de E. Alors O (E )
constitue un sous-groupe de GL(E ), des automorphismes de E. On l’appelle le
groupe orthogonal de E. Les éléments de O (E ) sont aussi appelés des isométries
vectorielles.
Démonstration :
 Id E  O( E)
 Si f , g  O ( E ) , alors f  g  O(E ) et f 1  O( E ) :
( f  g )( x)  f ( g ( x))  g ( x)  x , et f 1 ( x)  f ( f 1 ( x))  f 1 ( x)  x .
Exemple :
Les symétries orthogonales sont des éléments de O (E )
B) Matrices orthogonales
Théorème :
Soit B une base orthonormale de E. Soit f  L(E ) , et A  (ai , j )1in  mat ( f , B ) .
1 j  n
Alors :
f  O(E )  les colonnes de A forment une base orthonormale de M n ,1 (R ) muni
de son produit scalaire naturel  A t A  I n  A est inversible et A 1  t A
Démonstration :
f  O( E )  ( f (e1 ), f (e2 ),... f (en )) est orthonormé e
 i, j  1, n , f (ei )  f (e j )   i , j
 i, j  1, n ,  a k ,i a k , j   i , j
n
k 1
 les colonnes de A forment une famille orthonorma le de M n,1 (R )...
et i, j  1, n ,  a k ,i a k , j   i , j  t AA  I n
n
k 1
 A est inversible et A 1  t A
 At A  I n
D’où le résultat.
Définition, proposition :
- Soit A  M n (R )
A est orthogonale  t AA  I n  A est inversible et A 1  t A
déf
- L’ensemble des matrices carrées et orthogonales, noté On (ou O (n) , ou On (R ) ),
forme un sous-groupe de (GLn (R ),)
- Si B est une base orthonormale de E, si f est une application linéaire de E dans E,
et si A  mat ( f , B ) , alors f  O( E )  A  On
- B étant une base orthonormale de E, l’application  : O( E )  On
est un
f mat ( f ,B )
isomorphisme du groupe (O( E ),) dans (On ,)
En effet :
Déjà,  est correctement définie, puisque pour f  O (E ) , mat ( f , B ) est bien
orthogonale.
  ( f  g )  mat ( f  g , B )  mat ( f , B )  mat ( g , B )   ( f )   ( g )
  (Id E )  I n
 C’est surjectif d’après le tiret précédent : pour A  On , on trouve f  O(E ) .
 C’est aussi injectif : ker   Id
Exemple :
1   2
1 
 2

 

5 ,  5
5 O
 5
n
2 
 1 2  1

 

5  5
5
 5
C) Déterminant d’un automorphisme orthogonal
Proposition :
Si f  O (E ) , alors det f  1
Si A  On , alors det A  1
Démonstration :
Si A  On , on a alors :
AA  I n , donc det( t AA)  1 , soit det( t A)  det( A)  1 , d’où det( A) 2  1
Si f  O (E ) : soit A  mat ( f , B ) , où B est une base orthonormale.
Alors det f  det A  1 car A est orthogonale.
t
Définition, proposition :
On note SO (E ) l’ensemble des éléments f  O (E ) tels que det f  1
On note SOn l’ensemble des A  On tels que det( A)  1 .
Alors SO (E ) est un sous-groupe de (O( E ),) , on l’appelle le groupe orthogonal
spécial de E. Et SOn est un sous-groupe de (On ,) , on l’appelle le groupe orthogonal
spécial d’ordre n (attention, SOn n’est pas pour autant de cardinal n !)
Ces deux groupe sont isomorphes ; plus précisément, si B désigne une base
orthonormale de E, l’application O( E )  On
définit, par restriction, un
f mat ( f ,B )
isomorphisme de SO (E ) vers SOn .
(Remarque : O( E ) \ SO( E ) n’est pas un sous-groupe, puisque si det f  1 et
det g  1 , alors det f  g  1 !)
Exemple :
Soit f une symétrie orthogonale par rapport à un sous-espace vectoriel quelconque
F de E. (on note p la dimension de F).
Alors f  O (E ) (puisque f conserve la norme)
On considère la matrice de f dans une base adaptée (le "début" dans F, le "reste"
dans F  ) :
1 0    0 


 
0  
  1 
 


 1   


  0 

 0    0  1


n p
Ainsi, det f  (1)
Vocabulaire :
Un élément de SO (E ) est un automorphisme orthogonal direct / une isométrie
vectorielle directe. (et indirect(e) pour les éléments de O( E ) \ SO( E ) )
Ainsi :
 Les réflexions sont toujours indirectes ( n  p  1 )
 Les symétries orthogonales par rapport à une droite (appelées aussi
retournements) sont indirectes en dimension 2, directes en dimension 3.
Autre vocabulaire :
Les éléments de SO (E ) s’appellent aussi des rotations.
VI Orientation et changement de base
A) Orientation d’un R-ev E de dimension n.
Orienter E, c’est choisir une base B de E, décréter qu’elle est directe, et convenir
qu’étant donnée une base B’ de E :
B’ est directe  det B B '  0
B’ est indirecte  det B B '  0
Ainsi, étant données deux bases B’ et B’’ de E, B’ et B’’ sont de même sens (c'està-dire toutes les deux (in)directes) si et seulement si det B ' B ' '  0
En effet : det B ' B ' '  det B ' B  det B B ' '  (det B B ' ) 1  det B B ' ' , qui est positif si et
seulement si les deux déterminants on même signe.
Exemples :
 En dimension 2 :
 
 
 
 
Si (i , j ) est directe, alors ( j , i ) est indirecte, ( j , i ) est directe, (i , j ) aussi.
(Les déterminants sont « multipliés par -1 » lorsqu’on échange deux vecteurs)
 En dimension 3 :
  
  
  
  
Si (i , j , k ) est directe, alors ( j , k , i ) est directe, ( j , i , k ) est indirecte, et ( j , i ,k )
directe.
On considère dorénavant E orienté.
Proposition :
Si (u1 , u 2 ,...u p ) est une famille orthonormale de E, avec p  n , on peut la
compléter en une base orthonormée directe de E.
Démonstration :
On sait construire (u1 , u 2 ,...u n ) base orthonormale. Ainsi, soit (u1 , u 2 ,...u n ) , soit
(u1 , u 2 ,...  u n ) sera directe.
B) Changement de base orthonormale
Proposition :
Soit B  (e1 , e2 ,...en ) une base orthonormale de E.
Soit B '  (e'1 , e' 2 ,...e' n ) une autre base de E, et P la matrice de passage de B à B’.
Alors B’ est orthonormale  P est orthogonale.
Plus précisément :
B’ est orthonormale de même sens que B  P  SOn
B’ est orthonormale de sens contraire à B  P  On \ SOn .
Démonstration :
P donne les composantes de B’ dans B, qui est orthonormale.
Donc, pour tout i, j  1, n , e'i e' j  Ci  C j (produit scalaire naturel des colonnes
de P), et donc B’ est orthonormale si et seulement si les colonnes de P forment une base
orthonormale de M n ,1 (R ) . (Par ailleurs, det B B '  det P , d’où le sens…)
Ainsi, si B est une base orthonormée directe et si B’ est une autre base, P la
matrice de passage de B à B’, alors B’ est une base orthonormée directe si et seulement
si P  SOn
 
C) Automorphismes orthogonaux et orientation
Proposition :
Soit f  L(E ) , soit B  (e1 , e2 ,...en ) une base orthonormale de E.
On sait déjà que f  O( E )  ( f (e1 ), f (e2 ),... f (en )) est une base orthonormale.
On a, plus précisément :
f  SO( E )  ( f (e1 ),... f (en )) est une base orthonormale de même sens que B.
f  O( E ) \ SO( E )  ( f (e1 ), f (e2 ),... f (en )) est une base orthonormale de sens
opposé à B.
Démonstration :
Si B '  ( f (e1 ), f (e2 ),... f (en )) , alors det B (B ' )  det f .
D) Déterminant en base orthonormée directe
Proposition, définition :
Soit B une base orthonormée directe de E.
Soit (u1 , u 2 ,...u n ) une famille de n vecteurs de E.
Alors det B (u1 , u 2 ,...u n ) ne dépend pas du choix de la base orthonormée directe B,
et s’appelle le produit mixte de u1 , u 2 ,...u n , qu’on note det(u1 , u 2 ,...u n ) ou u1 , u 2 ,...u n  .
Démonstration :
Si B, B’ sont deux bases orthonormées directes :
det B ' (u1 , u 2 ,...u n )  det B ' B  det B (u1 , u 2 ,...u n )

1 car B , B '
sont deux bases
orthonormales
de même sens
Téléchargement