Notes de cours - CPGE Dupuy de Lôme

publicité
Produit scalaire.
Chapitre 11 : notes de cours.
Projections orthogonales.
• Projecteur orthogonal
• Supplémentaire orthogonal d’un sous-espace vectoriel de dimension finie, et expression de la projection
orthogonale sur un sous-espace vectoriel de dimension finie
• Distance d’un vecteur à un sous-espace vectoriel de dimension finie
• Inégalité de Bessel
Espaces euclidiens.
• Caractérisation matricielle des bases orthogonales ou orthonormales
• Expression matricielle du produit scalaire
• Représentation d’une forme linéaire à l’aide du produit scalaire, vecteur normal à un hyperplan d’un
espace euclidien
Automorphismes orthogonaux et matrices orthogonales.
• Endomorphisme orthogonal dans un espace vectoriel euclidien
• Bijectivité des endomorphismes orthogonaux en dimension finie, automorphismes orthogonaux
(isométries) et caractérisations des automorphismes orthogonaux, groupe (O(E),o)
• Matrice orthogonale, caractérisation des matrices orthogonales par leurs vecteurs lignes ou colonnes,
groupe (O(n),×)
• Automorphisme orthogonal et sous-espaces stables
• Isométries positives et négatives d’un espace vectoriel euclidien, groupes (SO(E),o) et (SO(n),×)
• Matrice de passage entre bases orthonormales
Réduction des endomorphismes symétriques, des matrices symétriques réelles.
• Endomorphisme symétrique
• Caractérisation matricielle des endomorphismes symétriques
• Valeurs propres d’une matrice symétrique réelle, d’un endomorphisme symétrique
• Orthogonalité des espaces propres d’un endomorphisme symétrique
• Théorème spectral : diagonalisabilité des endomorphismes symétriques
• Diagonalisabilité des matrices symétriques réelles
Espaces euclidiens de dimension 2 ou 3.
• Orientation d’un espace vectoriel, orientation induite par un sous-espace vectoriel, produit mixte
• Produit vectoriel de deux vecteurs en dimension 3, propriétés du produit vectoriel, expression du produit
vectoriel dans une base orthonormale directe, expression géométrique du produit vectoriel
• Eléments de O(2) : matrices orthogonales 2×2
• Automorphismes orthogonaux d’un espace vectoriel euclidien de dimension 2
• Produit de rotations, commutativité de SO(2) et SO(E), pour E de dimension 2
• Automorphismes orthogonaux d’un espace vectoriel euclidien de dimension 3
• Eléments de O(3) : matrices orthogonales 3×3
Chapitre 11 : Produit scalaire – Notes de cours.
-1-
Produit scalaire.
Chapitre 11 : notes de cours.
Projections orthogonales.
Théorème 3.2 : expression de la projection orthogonale sur un sous-espace vectoriel de dimension
finie
Soit (E, (.|.)) un espace préhilbertien réel de dimension finie ou non.
Soit F un sous-espace vectoriel de E de dimension finie m.
Soit (e1, …, em) une base orthonormale de F et pF la projection orthogonale de E sur F.
Alors pour tout vecteur x de E, on a : p F ( x) =
m
∑ (e
i =1
i
x).ei .
Définition 3.2 et théorème 3.3 : distance d’un vecteur à un sous-espace vectoriel de dimension finie
Soit (E, (.|.)) un espace préhilbertien réel de dimension finie ou non et . la norme associée.
Soit F un sous-espace vectoriel de E de dimension finie m.
Pour un vecteur x de E, on appelle distance de x à F, notée d ( x, F ) , la quantité : d ( x, F ) = inf x − z .
z∈F
Cette valeur est atteinte en un unique vecteur de F qui est p F (x) , la projection orthogonale de x sur F.
On a donc : d ( x, F ) = x − p F ( x) .
4
Exemple : calculer la projection puis la distance d’un vecteur de
à un hyperplan au choix
4
Soit H l’hyperplan de
(muni de son produit scalaire canonique) défini par l’équation : x + y +
On peut proposer comme base orthogonale de H la famille (1,0,-1,0), (1,-2,1,0) et (1,1,1,-3).
1
.(1,0,−1,0) , v =
1
.(1,−2,1,0) , w =
1
.(1,1,1,−3) , forment une base orthonormale de H.
2
6
2. 3
Le vecteur : a = (1,2,3,4) , a alors pour projection orthogonale sur H le vecteur :
1
1
1
3 1 1 3
a' = p H (a) =
.(1 − 3).u +
.(1 − 4 + 3).v +
.(1 + 2 + 3 − 12).w = (− ,− , , ) .
2 2 2 2
2
6
2. 3
5 5 5 5
On peut remarquer qu’on a bien : a’ ∈ H, et : (a – a’) ∈ H⊥, puisque : a − a ' = ( , , , ) .
2 2 2 2
5 5 5 5 5
Enfin : d ( a, H ) = a − p H ( a ) = a − a ' =  , , ,  = . (1,1,1,1) = 5 .
2 2 2 2 2
Donc :
u=
z + t = 0.
Théorème 3.4 : inégalité de Bessel
Soit (E, (.|.)) un espace préhilbertien réel de dimension finie ou non et .
la norme associée.
Soit F un sous-espace vectoriel de E de dimension finie m.
Soit (e1, …, em) une base orthonormale de F.
m
Pour tout vecteur x de E, on a :
∑ (e
i =1
2
i
x) ≤ x .
2
Espaces euclidiens.
Théorème 4.3 : caractérisation matricielle des bases orthogonales ou orthonormales
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n.
Soit : B = (ei), une base de E.
On note M la matrice du produit scalaire dans la base (ei) définie par : ∀ 1 ≤ i,j ≤ n, mi , j = (ei e j ) .
La matrice M est symétrique.
On a de plus les équivalences suivantes :
• (B est orthogonale) ⇔ (M est diagonale),
• (B est orthonormale) ⇔ (M = In).
Chapitre 11 : Produit scalaire – Notes de cours.
-2-
Théorème 4.4 : expression matricielle du produit scalaire
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n.
Soit : B = (ei), une base de E.
Soient x et y des vecteurs de E, et X et Y les matrices colonnes de leurs coordonnées dans B.
Alors : ( x y )= t X .M .Y .
Si B est orthonormale, on a de plus :
• ( x y )= t X .Y =
n
∑ x .y
i =1
• x=
2
i
(forme canonique d’un produit scalaire dans une base orthonormale),
n
∑ (e
i =1
• x
i
i
x).ei ,
n
n
i =1
i =1
= ∑ xi2 = ∑ (ei x) 2 .
Théorèmes 4.7 et 4.8 : représentation d’une forme linéaire à l’aide du produit scalaire, vecteur
normal à un hyperplan
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n.
Soit ϕ* une forme linéaire sur E.
Alors il existe un unique vecteur : a ∈ E, tel que : ∀ x ∈ E, ϕ * ( x) = (a x) .
De plus si H est un hyperplan de E, et : B = (e1, …, en), une base orthonormale de E, alors une
équation de H dans B fournit un vecteur orthogonal à H, dit aussi vecteur normal à H.
Exemple :
4
Dans
muni de son produit scalaire canonique, le vecteur (1,1,1,1) est un vecteur normal à l’hyperplan H dont
4
une équation dans la base canonique de
est : x + y + z + t = 0 .
Automorphismes orthogonaux et matrices orthogonales.
Définition 5.1, théorèmes 5.1 et 5.2 : endomorphisme orthogonal dans un espace vectoriel euclidien
Soit (E, (.|.)) un espace vectoriel euclidien, . la norme associée et : u ∈ L(E).
• On dit que u est un endomorphisme orthogonal de E si et seulement si u conserve la norme ou le
produit scalaire de E, c'est-à-dire : ∀ (x,y) ∈ E2, (u ( x) u ( y )) = ( x y ) , ou : ∀ x ∈ E, u ( x) = x .
Ces deux définitions sont bien équivalentes.
• Un endomorphisme orthogonal est bijectif et on parle d’automorphisme orthogonal.
• Les seules valeurs propres possibles d’un endomorphisme orthogonal sont ±1.
Définition 5.2 et théorème 5.3 : matrice orthogonale, caractérisation par les lignes ou les colonnes
Soit : n ≥ 1.
• On dit que : A ∈ Mn( ), est une matrice orthogonale si et seulement si : t A. A = I n , ou : A.t A = I n .
• Une matrice A de Mn( ) est orthogonale si et seulement si ses colonnes, considérées comme des
vecteurs de n (ou ses lignes) forment une base orthonormale de n, pour le produit scalaire canonique
de n.
• Si : A ∈ Mn( ), est orthogonale, alors : det( A) = ±1 (pas de réciproque).
Théorème 5.4 : caractérisations des automorphismes orthogonaux
Soit (E, (.|.)) un espace vectoriel euclidien, . la norme associée et : u ∈ L(E).
• u est un automorphisme orthogonal si et seulement si sa matrice dans une base orthonormale de E est
une matrice orthogonale.
• u est un automorphisme orthogonal si et seulement si l’image d’une base orthonormale de E par u est
une autre base orthonormale.
Théorème 5.5 : automorphisme orthogonal et sous-espaces vectoriels stables
Soit (E, (.|.)) un espace vectoriel euclidien.
Soient u un automorphisme orthogonal de E et F un sous-espace vectoriel de E, stable par u.
Chapitre 11 : Produit scalaire – Notes de cours.
-3-
Alors F⊥ est également stable par u.
Théorème 5.6 et définition 5.3 : les groupes (O(E),o), (O(n),×), (SO(E),o) et (SO(n),×)
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n et . la norme associée.
• Alors l’ensemble des automorphismes orthogonaux de E, noté O(E), forme un groupe pour la loi o,
appelé groupe orthogonal de E et sous-groupe de (Gl(E),o).
• De même, l’ensemble O(n) des matrices orthogonales de Mn( ), forme un groupe pour la loi ×,
appelé groupe orthogonal d’ordre n, et sous-groupe de (Gl(n),×).
• Par ailleurs, les éléments de O(E) dont le déterminant vaut 1 forment un sous-groupe de O(E) appelé
Groupe spécial orthogonal de E, de même les matrices de O(n) dont le déterminant vaut 1 forment un
sous-groupe de O(n) appelé groupe spécial orthogonal d’ordre n.
• Enfin, si on fixe une base B de E, orthonormale, l’application de L(E) dans Mn( ), qui à un
endomorphisme u associe sa matrice dans la base B, induit un isomorphisme de groupes de (O(E),o)
dans (O(n),×).
Définition 5.4 : isométries d’un espace vectoriel euclidien, isométries positives et négatives
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n et . la norme associée.
• Un automorphisme orthogonal de E est encore appelé isométrie de E.
• si u est orthogonal, alors : det(u ) = ±1 .
On dira que u est une isométrie positive de E si : det(u ) = +1 , et négative de E si : det(u ) = −1 .
Théorème 5.7 : matrice de passage entre bases orthonormales
Soit (E, (.|.)) un espace vectoriel euclidien et . la norme associée.
Soit B une base orthonormale de E et B’ une autre base de E.
Si on note P la matrice de passage de B à B’, alors B’ est orthonormale si et seulement si P est
orthogonale.
Réduction des endomorphismes symétriques, des matrices symétriques réelles.
Définition 7.1 et théorème 7.1 : endomorphisme symétrique et caractérisation matricielle
Soit (E, (.|.)) un espace vectoriel euclidien.
• On dit qu’un endomorphisme u de E est symétrique lorsque : ∀ (x,y) ∈ E2, (u ( x) y ) = ( x u ( y )) .
• Un endomorphisme u de E est symétrique si et seulement si sa matrice représentative dans toute base
orthonormale de E est symétrique.
Théorème 7.2 : valeurs propres d’une matrice symétrique réelle, d’un endomorphisme symétrique
• Soit : A ∈ Mn( ), une matrice symétrique réelle, avec : n ≥ 1.
Alors A, considérée comme élément de Mn( ), est telle que toutes les racines de son polynôme
caractéristique sont réelles et donc a toutes ses valeurs propres réelles.
• De même, soit (E, (.|.)) un espace vectoriel euclidien, et soit : u ∈ L(E), symétrique.
Toutes les racines du polynôme caractéristique de u sont réelles.
Théorèmes 7.3 et 7.4 : (dit théorème spectral) diagonalisabilité des endomorphismes symétriques
Soit (E, (.|.)) un espace vectoriel euclidien, et soit : u ∈ L(E), symétrique.
• Si λ et µ sont des valeurs propres distinctes de u, les espaces propres associés Eλ(u) et Eµ(u) sont
orthogonaux.
• Il existe une base orthonormale de E dans laquelle l’endomorphisme u est diagonalisable.
• E est la somme directe orthogonale des sous-espaces propres de u.
Théorème 7.5 : diagonalisabilité des matrices symétriques réelles
Soit : A ∈ Mn( ), une matrice symétrique réelle, avec : n ≥ 1.
Alors A est diagonalisable et il est possible de la diagonaliser par l’intermédiaire d’une matrice
orthogonale.
Chapitre 11 : Produit scalaire – Notes de cours.
-4-
Exemple : diagonaliser une matrice symétrique réelle 3×3 et constater les propriétés annoncées
2 1 1


Soit A la matrice : A =  1 2 1  .
 1 1 2


Les valeurs propres de A (obtenues par exemple avec χA) sont 1 (valeur propre double) et 4 (simple).
3
d’équation : x + y + z = 0 , qui admet pour base orthonormale :
L’espace propre associé à 1 est le plan de
(e1, e2) = (
1
2
.(1,−1,0) ,
1
6
.(1,1,−2) ).
L’espace propre associé à 4 est la droite de
3
engendrée par : e3 =
1
3
.(1,1,1) .
Ces deux espaces propres sont bien supplémentaires orthogonaux pour le produit scalaire canonique de
 1

 2
 1
De plus si on pose : P =  −
2

 0


3
.
1 

6
3
1
1 
 , alors P est orthogonale (comme matrice de passage entre bases
6
3
−2 1 

6
3
1 0 0


−1
t
3
orthonormales, de la base canonique de
à (e1,e2,e3)) et : P . A.P = P. A.P = D =  0 1 0  .
 0 0 4


1
1 1
1


−1
Remarque : si on pose : Q =  − 1 1 1 , Q n’est pas orthogonale mais on a tout de même : Q A.Q = D .
 0 − 2 1


Espaces euclidiens de dimension 2 ou 3.
Dans ce paragraphe, E désigne un espace euclidien de dimension 2 ou 3.
Définition 6.1 : orientation d’un espace vectoriel, orientation induite par un sous-espace vectoriel
• Une orientation de E correspond au choix d’une base de E décrétée comme directe.
Toute base de E est alors soit directe, soit indirecte, suivant que le déterminant de la matrice de
passage de cette nouvelle base à la base de référence est positif ou négatif.
• Si F est un sous-espace vectoriel de E (un plan ou une droite), orienter F permet alors de définir une
orientation induite dans tout sous-espace supplémentaire de F dans E de la façon suivante :
si BF est une base directe de F, une base d’un supplémentaire G de F sera directe si la concaténation
de BF et de BG est une base directe de E.
Exemple :
3
Soit
muni de son produit scalaire canonique et de son orientation canonique (la base canonique est directe).
Soit : ∆ = Vect(e1), avec : e1 = (1,1,1)), et muni de l’orientation donnée par ce vecteur.
3
Alors : Π = Vect(e2,e3), où : (e2,e3) = ((1,1,0), (1,0,1)), est un supplémentaire de ∆ dans
(puisque la réunion des
3
deux bases de Π et de ∆ forme une base de ), et (e2,e3) est une base indirecte de Π dans l’orientation induite par
1 1 1
∆ car la matrice de passage P de la base canonique à (e1,e2,e3) vérifie :
1 1
0
det( P) = 1 1 0 = 1 1 − 1 = −1 .
1 0 1 1 0 0
Remarques :
• Si on prend au départ une base orthonormale comme base directe et qu’on examine les autres bases
orthonormales de E, alors le déterminant de la matrice de passage vaut toujours ±1.
• Orienter une droite (dans le plan ou l’espace) correspond donc à la donnée d’un vecteur de norme 1.
• Orienter un plan dans 3 revient alors à choisir une base orthonormale du plan comme base directe,
Chapitre 11 : Produit scalaire – Notes de cours.
-5-
mais de façon équivalente à choisir un vecteur de norme 1 et normal au plan.
En effet l’orientation de 3 induit, par le choix de ce vecteur normal au plan, une orientation dans le plan.
Théorème 6.1 et définition 6.2 : produit mixte
Soit E est un espace euclidien de dimension 2 ou 3 orienté.
Si B et B’ sont deux bases orthonormales directes de E, alors :
• si E est de dimension 2 : ∀ (u,v) ∈ E2, det B (u , v) = det B’ (u , v) ,
• si E est de dimension 3 : ∀ (u,v,w) ∈ E3, det B (u , v, w) = det B’ (u , v, w) .
Cette valeur invariante est notée : [u , v] = det B (u , v) , ou : [u , v, w] = det B (u , v, w) , suivant le cas, et est
appelé produit mixte de u et de v ou de u, v et w, suivant le cas.
Théorèmes 6.2 et 6.3 et définition 6.3 : produit vectoriel de deux vecteurs en dimension 3
Soit E est un espace euclidien de dimension 3 orienté.
Soient u et v deux vecteurs de E.
Il existe un unique vecteur w de E, noté u∧v et appelé produit vectoriel de u et de v tel que :
∀ x ∈ E, [u , v, x] = ( w x) .
Le produit vectoriel a alors les propriétés suivantes :
• il est bilinéaire : ∀ (u,u’,v,v’) ∈ E4, ∀ (λ,λ’) ∈ 2,
u ∧ (λ.v + λ '.v' ) = λ.u ∧ v + λ '.u ∧ v' , et : (λ .u + λ '.u ' ) ∧ v = λ .u ∧ v + λ '.u '∧v ,
• il est alterné : ∀ (u,v) ∈ E2, v ∧ u = −u ∧ v ,
• ∀ (u,v) ∈ E2, u ∧ v est orthogonal à u et à v.
• ∀ (u,v) ∈ E2, ( u ∧ v = 0 ) ⇔ ( (u , v ) est liée) ⇔ (u et v colinéaires).
• ∀ (u,v) ∈ E2, ((u,v) libre) ⇔ (u et v non colinéaires) ⇔ ( (u , v, u ∧ v) est une base directe de E).
Théorèmes 6.4 et 6.5 : expressions du produit vectoriel (dans une base orthonormale directe,
géométrique)
Soit E est un espace euclidien de dimension 3 orienté muni d’une base orthonormale directe B.
• Soient u et u’ deux vecteurs de E de coordonnées respectives (x,y,z) et (x’,y’,z’) dans B.
Alors u ∧ u ' a pour coordonnées dans B ( y.z '− y '.z , z.x'− z '.x, x. y '− y.x ' ) .
• Si de plus u et u’ sont supposés non colinéaires, qu’on note Π le plan engendré par u et u’ et si on
oriente Π à l’aide d’un vecteur unitaire n normal à Π (donc dirigeant et orientant : ∆ = Π⊥), alors :
u ∧ u ' = u . u ' . sin(θ ).n , où θ est l’angle orienté (u,u’).
Remarque :
Pour trois vecteurs u, v et w de E, espace euclidien de dimension 3 orienté on a :
• u ∧ v représente la surface du parallélogramme défini par les vecteurs u et v,
• [u , v, w] représente le volume du parallélépipède construit sur les vecteurs u, v et w.
Théorème 6.6 : éléments de O(2) : matrices orthogonales 2×2
Soit : A ∈ O(2), une matrice orthogonale de taille 2×2.
 cos(θ ) − sin(θ ) 
 .
 sin(θ ) cos(θ ) 
• si : det( A) = +1 , il existe un réel θ tel que : A = 
 cos(θ ) sin(θ ) 
 .
 sin(θ ) − cos(θ ) 
• si : det( A) = −1 , il existe un réel θ tel que : A = 
Remarque :
Si on identifie E au plan complexe , en représentant des vecteurs par leur affixe, alors la rotation
vectorielle d’angle θ est représentée par l’application : z a z.e i.θ .
Théorème 6.7 : automorphismes orthogonaux d’un espace vectoriel euclidien de dimension 2
Soit (E, (.|.)) un espace vectoriel euclidien de dimension 2, orienté.
Soit u un automorphisme orthogonal de E et A la matrice de u dans une base : B = (i,j), orthonormale
directe de E.
Chapitre 11 : Produit scalaire – Notes de cours.
-6-
 cos(θ ) − sin(θ ) 
 .
 sin(θ ) cos(θ ) 
• si : det(u ) = +1 , alors il existe un réel θ tel que : A = 
Si u n’est pas l’identité de E, u est la rotation de E d’angle θ, θ étant donné par : 2. cos(θ ) = tr (u ) .
 cos(θ ) sin(θ ) 
 .
 sin(θ ) − cos(θ ) 
• si : det(u ) = −1 , alors il existe un réel θ tel que : A = 
θ 
θ 
 − y. cos  = 0 , et
2
2
u est alors la symétrie orthogonale par rapport à la droite D d’équation : x. sin 
l’angle de D avec la droite dirigée par i est égal à
θ
2
.
2
Exemple : reconnaître une isométrie négative de
canonique et identifier ses éléments géométriques
2
Soit u l’endomorphisme de
(muni de sa structure euclidienne canonique, c'est-à-dire de son produit scalaire
canonique) dont la matrice dans la base canonique de
2
est :
1 1
A = .
2 3
t
3
.
− 1 
2
Alors A est orthogonale (puisque : A.A = I2) et u est une isométrie de , négative car : det(A) = -1.
Puisque A est de plus symétrique réelle A est diagonalisable et ses valeurs propres sont ±1.
L’espace propre associé à 1 est la droite D engendrée par (
3 ,1 ), et celui associé à -1 est la droite D’ engendrée
par ( − 3 ,1 ), orthogonale de la précédente.
u est donc la symétrie orthogonale par rapport à la droite D.
Théorème 6.8 : produit de rotations, commutativité de SO(2) et SO(E), pour E de dimension 2
Le groupe SO(2) est commutatif.
• Si E est un espace vectoriel euclidien de dimension 2, le groupe SO(E) est commutatif.
• En particulier, deux matrices orthogonales de déterminant +1 commutent, tout comme deux rotations
dans un plan euclidien.
• Le produit de deux rotations, d’angle respectifs θ et θ’, est la rotation d’angle (θ+θ’).
Théorème 6.9 : automorphismes orthogonaux d’un espace vectoriel euclidien de dimension 3
Soit (E, (.|.)) un espace vectoriel euclidien de dimension 3, orienté.
Soit u un automorphisme orthogonal de E.
• si : det(u) = +1, et si u n’est pas l’identité de E, alors u admet une droite ∆ de vecteurs invariants.
Soit alors Π le plan orthogonal à ∆, et x un vecteur non nul de Π (ou orthogonal à ∆).
- Si : tr(u) = – 1, alors u est la symétrie orthogonale par rapport à ∆ (ou rotation d’angle π autour de ∆).
- Si : tr(u) ≠ – 1, alors : k = x∧u(x), est un vecteur non nul de ∆.
Si on oriente cette droite avec k et Π avec l’orientation induite par celle de ∆, u est alors la rotation d’axe
∆ et d’angle +θ, où θ est donné par la relation : 2.cos(θ) + 1 = tr(u).
• si : det(u) = – 1, et si u n’est pas –idE, alors l’ensemble des vecteurs changés en leur opposé par u est
une droite ∆ de E.
Notons encore Π le plan orthogonal à ∆ et x un vecteur non nul de Π (ou orthogonal à ∆).
- Si : tr(u) = +1, u est la symétrie orthogonale par rapport à Π.
- Si : tr(u) ≠ +1, alors : k = x∧u(x), est encore un vecteur non nul de ∆.
Si on oriente cette droite avec k, et Π avec l’orientation induite par celle de ∆, alors u est la composée de
la rotation d’axe ∆ et d’angle +θ, où θ est donné par la relation : 2.cos(θ) – 1 = tr(u), et de la symétrie
orthogonale de E par rapport à Π.
Théorème 6.10 : éléments de O(3) : matrices orthogonales 3×3
Soit : A ∈ O(3), une matrice orthogonale de taille 3×3.
 cos(θ ) − sin(θ ) 0 


• si : det( A) = +1 , alors : ∃ θ ∈ , ∃ P ∈ O(3), A = P. sin(θ ) cos(θ ) 0 .t P .
 0
0
1 

Chapitre 11 : Produit scalaire – Notes de cours.
-7-
 cos(θ ) − sin(θ ) 0 


• si : det( A) = −1 , alors : ∃ θ ∈ , ∃ P ∈ O(3), A = P. sin(θ ) cos(θ )
0 .t P .
 0
0
− 1

Exemple : reconnaître une matrice orthogonale 3×3 et identifier ses éléments géométriques
3
Soit u l’endomorphisme de
(muni de sa structure euclidienne canonique, c'est-à-dire de son produit scalaire
canonique) dont la matrice dans la base canonique de
2
0 0 1


est : A =  1 0 0  .
 0 1 0


t
Alors A est orthogonale (puisque : A.A = I3, ou parce que la famille des colonnes forme une base orthonormale
3
3
pour la structure euclidienne canonique de ) et u est une isométrie positive de
(puisque : det(A) = +1), donc
3
une rotation de .
On détermine l’axe de cette rotation à l’aide des vecteurs invariants par u donc on résout le système : A.X = X.
On trouve alors : ker(u – idE) = Vect((1,1,1)) = ∆.
L’angle θ de la rotation est donné par :
1
2.π
tr (u ) = tr ( A) = 0 = 2. cos(θ ) + 1 , soit : cos(θ ) = − , et : θ =
.
2
3
On choisit ensuite un vecteur orthogonal à cette droite par exemple : x = (1,-1,0), et : u(x) = (0,1,-1).
On constate alors qu’on a bien : x∧u(x) = (1,1,1) ∈ ∆.
Si maintenant on décide d’orienter ∆ à l’aide de ce produit vectoriel, alors le plan : Π = ∆⊥, est orienté par cette
orientation choisie sur ∆ (on choisit le « point de vue ») et la rotation u opère dans le sens positif.
Finalement, u est la rotation d’angle
2.π
, autour de ∆, orientée par : k = (1,1,1).
3
3
On peut remarquer d’ailleurs que : A = I3, ce qui est assez logique, puisque en faisant agir u 3 fois de suite, on
obtient une rotation autour de ∆ d’angle :
3.
2.π
= 2.π , et u3 est bien l’identité.
3
Chapitre 11 : Produit scalaire – Notes de cours.
-8-
Téléchargement