Chapitre 24 Espaces euclidiens Objectifs – Définir les notions de produit scalaire, d’orthogonalité, de bases orthonormales. – Définir les notions d’endomorphismes orthogonaux, de matrices orthogonales, étudier leurs propriétés. – Étudier les endomorphismes orthogonaux en dimension 1, 2 et 3. Sommaire I) Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2) Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3) Bases orthonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4) Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5) Distance d’un vecteur à un s.e.v . . . . . . . . . . . . . . . . . . . . . . . . II) Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 1) definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2) Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3) Espace vectoriel euclidien orienté . . . . . . . . . . . . . . . . . . . . . . 4) Produit mixte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5) Produit vectoriel en dimension 3 . . . . . . . . . . . . . . . . . . . . . . . III) Endomorphismes orthogonaux en dimension 1, 2 et 3 . . . . . . . . . . . . 1) En dimension 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2) Dans le plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3) En dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IV) Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 . . 1 . 2 . 4 . 4 . 5 . 6 . 6 . 7 . 8 . 9 . 9 . 10 . 10 . 10 . 12 . 14 Dans tout le chapitre, E désigne un R-espace vectoriel. I) Produit scalaire 1) Définitions DÉFINITION 24.1 Un produit scalaire sur E est une forme bilinéaire sur E, généralement notée (.|.), qui à tout couple de vecteurs (x, y) associe le réel (x| y), et qui vérifie : – ∀ x, y ∈ E, (x| y) = ( y|x) (symétrie). – ∀ x ∈ E, (x|x) ¾ 0 (positive). – ∀ x ∈ E, si (x|x) = 0, alors x = 0 (définie). Lorsque E est muni d’un produit scalaire (.|.), on dit que (E, (.|.)) est un espace euclidien s’il est de dimension finie, ou un espace pré-hilbertien sinon. MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 1 Produit scalaire Chapitre 24 : Espaces euclidiens Exemples: n P x i yi . – Produit scalaire canonique de Rn : (x| y) = R b i=1 – E = C 0 ([a; b], R) et ∀ f , g ∈ E, ( f |g) = a f (t)g(t) d t. – E l’ensemble des fonctions continues sur R et 2π-périodiques, on définit un produit scalaire sur E en posant : Z 2π 1 ∀ f , g ∈ E, ( f |g) = f (t)g(t) d t 2π 0 – Pour x, y ∈ R2 , ϕ(x, y) = x 1 y1 + x 1 y2 + x 2 y1 + 2x 2 y2 est un produit scalaire sur R2 , mais pas ψ(x, y) = x 1 y1 + x 1 y2 + x 2 y1 + x 2 y2 . THÉORÈME 24.1 (Inégalité de Cauchy-Schwarz) Ð ∀ x, y ∈ E, (x| y)2 ¶ (x|x)( y| y). Preuve: ∀ λ ∈ R, (x + λ y|x + λ y) ¾ 0, ce qui donne en développant : λ2 ( y| y) + 2λ(x| y) + (x|x) ¾ 0. Lorsque ( y| y) 6= 0, alors le discriminant du trinôme en λ doit être négatif ou nul, ce qui donne l’inégalité. Lorsque ( y| y) = 0, alors y = 0 et l’inégalité est triviale. THÉORÈME 24.2 (cas d’égalité) Ð ∀ x, y ∈ E, (x| y)2 = (x|x)( y| y) ⇐⇒ (x, y) est liée. Preuve: Celle-ci est simple et laissée en exercice. DÉFINITION 24.2 (norme euclidienne) Soit x ∈ (E, (.|.)), on pose kxk = égale à 1 est dit unitaire. Si x est non nul alors le vecteur 1 x kxk p (x|x), c’est la norme euclidienne de x. Un vecteur de norme est unitaire. Propriétés : – kxk = 0 ⇐⇒ x = 0. – ∀ λ ∈ R, kλxk = |λ|kxk. – kx + yk ¶ kxk + k yk (inégalité triangulaire). Exemples: – Soient x, y ∈ E deux vecteurs non nuls, montrer que kx + yk = kxk + k yk ⇐⇒ ∃ α > 0, x = α y. – E = Rn , avec le produit scalaire canonique, l’inégalité de Cauchy-Schwarz s’écrit : s !2 ! ! n n n n X X X X x i yi ¶ x i2 yi2 et kxk = x i2 i=1 i=1 i=1 i=1 Rb – E = C 0 ([a; b], R) avec le produit scalaire : ( f |g) = a f (t)g(t) d t, l’inégalité de Cauchy-Schwarz s’écrit : qR R b 2 R b R b b 2 2 f (t) f g(t) d t ¶ a f g et k f k = f 2. a a a Relations entre le produit scalaire et la norme : – kx + yk2 = kxk2 + k yk2 + 2(x| y). – kx + yk2 + kx − yk2 = 2(kxk2 + k yk2 ) (théorème de la médiane ou identité du parallélogramme). – 4(x| y) = kx + yk2 − kx − yk2 (identité de polarisation). Dans la suite, (E, (.|.)) désigne un espace euclidien. 2) Orthogonalité MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 2 Produit scalaire Chapitre 24 : Espaces euclidiens DÉFINITION 24.3 Soient x, y ∈ E, et soient F, G deux s.e.v de E, on dit que : – x et y sont orthogonaux lorsque (x| y) = 0. – F et G sont orthogonaux lorsque ∀ x ∈ F, ∀ y ∈ G, (x| y) = 0. On appelle orthogonal de A (une partie de E), l’ensemble des vecteurs de E orthogonaux à tous les vecteurs de A, notation : A⊥ = {x ∈ E / ∀ y ∈ A, (x| y) = 0}. On remarquera que dire que F et G sont orthogonaux équivaut à F ⊂ G ⊥ , ou encore G ⊂ F ⊥ . Le seul vecteur orthogonal à tous les autres est le vecteur nul, i.e. E ⊥ = {0}, car le produit scalaire est défini. THÉORÈME 24.3 (de Pythagore) Ð Deux vecteurs x et y sont orthogonaux ssi kx + yk2 = kxk2 + k yk2 . THÉORÈME 24.4 Ð Si F est un s.e.v de E, alors F ⊥ est un s.e.v de E en somme directe avec F . Preuve: Pour y ∈ E, on pose f y : E → R définie par f y (x) = (x| y), alors f y est une forme linéaire sur E, et il est facile T ker( f y ), ce qui prouve que F ⊥ est un s.e.v de E. Si x ∈ F ∩ F ⊥ , alors on doit avoir (x|x) = 0, de voir que F ⊥ = y∈F d’où x = 0. Propriétés : – Si F ⊂ G, alors G ⊥ ⊂ F ⊥ . – F ⊂ (F ⊥ )⊥ . – (F + G)⊥ = F ⊥ ∩ G ⊥ . THÉORÈME 24.5 Ð Ð Si dim(E) = n et si F est un s.e.v de E de dimension p, alors dim(F ⊥ ) = n − p, on a donc : Ð Ð Ð E = F ⊕ F ⊥. Ð Ð Ð Preuve: On sait que dim(F ⊕ F ⊥ ) ¶ n, d’où dim(F ⊥ ) ¶ n − p. Soit f : E → R p l’application définie par f (x) = ((e1 |x), . . . , (e p |x)) où B = (e1 , . . . , e p ) désigne une base de F , alors il est facile de voir que f est linéaire et que ker( f ) = F ⊥ . D’après le théorème du rang, on a n = dim(F ⊥ )+rg( f ) ¶ dim(F ⊥ ) + p, ce qui donne dim(F ⊥ ) ¾ n − p, et donc dim(F ⊥ ) = n − p. Quelques conséquences : – (F ⊥ )⊥ = F . – (F ∩ G)⊥ = F ⊥ + G ⊥ . THÉORÈME 24.6 Ð Ð Soit f : E → R une forme linéaire, alors il existe un unique vecteur a ∈ E tel que ∀ x ∈ E, f (x) = Ð (a|x). Preuve: Pour l’existence : si f est nulle alors on peut prendre a = 0. Si f est non nulle, alors ker( f ) est un hyperplan λ de E, donc ker( f )⊥ = Vect [u] est une droite vectorielle. Posons f (u) = λ et prenons a = kuk 2 u. Il est facile de vérifier que pour tout x ∈ E, f (x) = (a|x). Si b est un autre vecteur qui convient, alors ∀ x ∈ E, (a − b|x) = 0, donc a − b = 0. MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 3 Produit scalaire 3) Chapitre 24 : Espaces euclidiens Bases orthonormales DÉFINITION 24.4 Une famille (x 1 , . . . , x p ) de E est dite orthonormale lorsque ∀ i, j ∈ [[1..p]], (ei |e j ) = δi j . Cette famille est dite orthogonale lorsque ∀ i, j ∈ [[1..p]], i 6= j =⇒ (ei |e j ) = 0. THÉORÈME 24.7 Ð Ð Une famille orthogonale ne contenant pas le vecteur nul est libre. En particulier, une famille Ð orthonormale est libre. Preuve: Soit (e1 , . . . , e p ) une famille orthogonale ne contenant pas le vecteur nul, si on a (ei | p P k=1 λk ek ) = p P p P λk ek = 0, alors soit i ∈ [[1..p]], k=1 λk (ei |ek ) = λi kei k2 = 0, ce qui entraîne λi = 0. k=1 Cas particulier : si dim(E) = n, alors une famille orthonormale de n vecteurs est une base de E, on dit que l’on a une base orthonormale (b.o.n en abrégé). Par exemple, la base canonique que Rn est une base orthonormale pour le produit scalaire canonique. THÉORÈME 24.8 Ð p p Ð P P 2 Ð Si (e1 , . . . , e p ) est une famille orthogonale, alors : k e k = kei k2 . i Ð i=1 k=1 Preuve: En effet, on a k p P i=1 e i k2 = p P (ei |e j ) = i, j=1 p P kei k2 . i=1 THÉORÈME 24.9 (coordonnées dans une b.o.n) Ð Ð Soit B = (e1 , . . . , en ) une b.o.n de E, alors ∀ x, y ∈ E : Ð Ð n n Ð X X Ð x= (x|ei )ei (x| y) = x i yi Ð Ð i=1 i=1 Ð Ð Ð avec x = (x|e ) et y = ( y|e ). i i i i Preuve: Soit CoordB (x) = (λ1 , . . . , λn ), on a (x|ek ) = ( n P i=1 λi ei |ek ) = n P 2 kxk = n X x i2 i=1 λi (ei |ek ) = λk . Pour les deux autres points, il i=1 suffit de développer le produit scalaire. THÉORÈME 24.10 Ð Il existe toujours des bases orthonormales. e Preuve: Par récurrence sur n = dim(E) : pour n = 1, on a E = Vect e1 , une b.o.n de E est (e10 ) avec e10 = ke1 k . ⊥ 1 Supposons le théorème vrai au rang n − 1 (n ¾ 1), et soit e1 un vecteur unitaire de E, soit F = Vect e1 , alors F est un s.e.v de dimension n − 1, soit (e2 , . . . , en ) une b.o.n de F , il est facile de voir que (e1 , e2 , . . . , en ) est une b.o.n de E. 4) Projections orthogonales MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 4 Produit scalaire Chapitre 24 : Espaces euclidiens DÉFINITION 24.5 Soit p ∈ L (E) une projection (p ◦ p = p), on dit que p est une projection orthogonale lorsque ker(p) = ker(p − id)⊥ . Si F est un s.e.v de E, la projection orthogonale sur F , notée p F , est la projection sur F parallèlement à F ⊥ . Si F est un s.e.v de E, alors la projection orthogonale sur F ⊥ est id − p F . THÉORÈME 24.11 Ð p Ð P Ð Si F est un s.e.v de E, et si (e1 , . . . , e p ) est une b.o.n de F , alors : ∀ x ∈ E, p F (x) = (x|ei )ei . Ð i=1 Preuve: Soit (e p+1 , . . . , en ) une b.o.n de F ⊥ , alors B = (e1 , . . . , en ) est une b.o.n de E, donc x = donne x = p P (x|ei )ei , ce qui i=1 n P (x|ei )ei + i=1 donc p F (x) = n P (x|ei )ei , la première somme désigne un vecteur de F , et la seconde un vecteur de F ⊥ , i=p+1 p P (x|ei )ei . i=1 Exemple: Si D = Vect [u] est une droite vectorielle, alors (e1 = c’est à dire : p D (x) = (x|u) .u. kuk2 u ) kuk est une b.o.n de D, donc ∀ x ∈ E, p D (x) = (x|e1 )e1 , THÉORÈME 24.12 (procédé d’orthonormalisation de Schmidt 1 ) Ð Ð Ð Ð Ð Ð Ð Ð Ð Soit (e1 , . . . , en ) une base de E, alors il existe une unique b.o.n (v1 , . . . , vn ) de E telle que : ¨ Vect e1 , . . . , ei = Vect v1 , . . . , vi ∀ i ∈ [[1..n]], . (ei |vi ) > 0 Preuve: On pose v1 = e1 , ke1 k on a bien Vect e1 = Vect v1 et (e1 |v1 ) > 0. 0 Supposons les vecteurs v1 , . . . , vi construits et vérifiant les conditions, on pose ei+1 = p Fi⊥ (ei+1 ) où Fi = Vect v1 , . . . , vi = i P 0 0 Vect e1 , . . . , ei , ce qui donne ei+1 = ei+1 − (ei+1 |vk )vk , ce vecteur ei+1 est non nul et dans Fi+1 , on pose ensuite vi+1 = 0 ei+1 0 kei+1 k=1 0 , il est facile de voir que Vect e1 , . . . , ei+1 = Vect v1 , . . . , vi+1 . D’autre part, (ei+1 |vi+1 ) = (ei+1 |vi+1 ) = k 0 kei+1 k > 0. On remarque qu’à chaque étape, il y a deux choix pour vi , mais la condition (ei |vi ) > 0 élimine une des deux 0 possibilités, ce qui entraîne l’unicité, car on doit prendre ei+1 dans Fi+1 ∩ Fi⊥ qui est une droite vectorielle. Exercice: Soit E = R3 , muni du produit scalaire canonique, on pose v1 = (1, 1, 0), v2 = (1, 0, 1) et v3 = (0, 1, 1). Appliquer la méthode de Schmidt à la base (v1 , v2 , v3 ). Réponse: On pose e1 = v1 kv1 k = p1 (1, 1, 0), 2 puis e20 = v2 − (v2 | e1 ) · e1 = ( 12 , − 12 , 1) et e2 = Enfin, e30 = v3 − (v3 | e1 ) · e1 − (v3 | e2 ) · e2 = 23 (−1, 1, 1) et e3 = 5) e30 ke30 k = e20 ke20 k = p1 (1, −1, 2). 6 p1 (−1, 1, 1). 3 Distance d’un vecteur à un s.e.v Soit F un s.e.v de E et soit x ∈ E, pour tout vecteur y ∈ F , on a kx − yk2 = k(p F (x) − y) + p F ⊥ (x)k2 = kp F (x) − yk2 + kp F ⊥ (x)k2 , on voit donc que ∀ y ∈ E, kx − yk2 ¾ kp F ⊥ (x)k2 , et que cette valeur est un minimum atteint uniquement pour y = p F (x), d’où le théorème : 1. SCHMIDT Erhard (1876 – 1959) : mathématicien allemand. MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 5 Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens THÉORÈME 24.13 Ð Ð Soit F un s.e.v de E, pour x ∈ E, l’ensemble {kx − yk / y ∈ F } admet un minimum, celui-ci est Ð Ð atteint uniquement pour y = p F (x), et vaut kp F ⊥ (x)k. Ce minimum est appelé distance de x à F et Ð noté d(x, F ) : d(x, F ) = min y∈F kx − yk = kp F ⊥ (x)k = kx − p F (x)k. Exemples: – Distance d’un vecteur à une droite : Soit D = Vect [u] une droite vectorielle, on sait que p D (x) = q p (x|u)2 d(x, D) = kx − p D (x)k2 = kxk2 − kuk2 . (x|u) u, kuk2 d’où – Distance d’un vecteur à un hyperplan : Soit H un hyperplan de E, alors H ⊥ = Vect [u] est une droite vectorielle, |(x|u)| d’où d(x, H) = kp D (x)k = kuk . II) 1) Endomorphismes orthogonaux definition DÉFINITION 24.6 Une isométrie vectorielle de E (ou endomorphisme orthogonal de E) est une application f ∈ L (E) telle que ∀ x ∈ E, k f (x)k = kxk (on dit que f conserve la norme), l’ensemble des endomorphismes orthogonaux de E est noté O(E). Exemple: id E , h−1 sont des endomorphismes orthogonaux de E. THÉORÈME 24.14 Ð Ð Un endomorphisme f de E est une isométrie ssi f conserve le produit scalaire, c’est à dire : Ð ∀ x, y ∈ E, ( f (x)| f ( y)) = (x| y). Preuve: Si f conserve le produit scalaire, il est clair que f conserve la norme, et donc f ∈ O(E). Réciproquement, si f ∈ O(E) : soient x, y ∈ E, k f (x) + f ( y)k2 = kxk2 + k yk2 + 2( f (x)| f ( y)), mais on a aussi k f (x) + f ( y)k2 = k f (x + y)k2 = kx + yk2 = kxk2 + k yk2 + 2(x| y), d’où ( f (x)| f ( y)) = (x| y). THÉORÈME 24.15 Ð Ð O(E) est un groupe pour la loi ◦, plus précisément c’est un sous-groupe de GL(E), on l’appelle : Ð groupe orthogonal de E. Preuve: Si f ∈ O(E), alors si x ∈ ker( f ), on a k f (x)k = 0 = kxk, d’où x = 0, donc f est injective, comme E est de dimension finie, on a bien f ∈ GL(E). D’autre part, id E ∈ O(E), soient f , g ∈ O(E), k f (g(x))k = kg(x)k = kxk, donc f ◦ g ∈ O(E), kxk = k f ( f −1 (x))k = k f −1 (x)k, donc f −1 ∈ O(E). DÉFINITION 24.7 (symétrie orthogonale) Soient s ∈ L (E) une symétrie (s2 = id E ), soit F = ker(s − id) et G = ker(s + id), alors on sait que s est la symétrie par rapport à F et parallèlement à G. On dit que s est une symétrie orthogonale lorsque F = G ⊥ , on parle alors de la symétrie orthogonale par rapport à F (notée s F ). THÉORÈME 24.16 Ð Une symétrie orthogonale est une isométrie vectorielle. MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 6 Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens Preuve: Soit s F la symétrie orthogonale par rapport au s.e.v F , soit p = 12 (s+id), alors on sait que p est la projection sur F parallèlement à ker(s+id) = F ⊥ , donc p est une projection orthogonale. Soit x ∈ E, ks F (x)k2 = kp F (x)− p F ⊥ (x)k2 = kp F (x)k2 + kp F ⊥ (x)k2 , or kxk2 = kp F (x) + p F ⊥ (x)k2 = kp F (x)k2 + kp F ⊥ (x)k2 = ks F (x)k2 , d’où s F ∈ O(E). Une projection orthogonale qui n’est pas l’identité, n’est pas une isométrie (elle n’est pas bijective). DÉFINITION 24.8 (réflexion) Une réflexion est une symétrie orthogonale par rapport à un hyperplan. Exercice: Soient u, v ∈ E deux vecteurs non nuls, de même norme et distincts. Montrer qu’il existe une unique réflexion qui échange u et v. Réponse: Réponse : soit w = u − v, soit H = Vect [w]⊥ et s = sH , on a (u − v|u + v) = kuk2 − kvk2 = 0, donc u + v ∈ H, on a donc s(u − v) = v − u et s(u + v) = u + v, la résolution de ce système donne s(u) = v et s(v) = u. Si s0 est une autre réflexion qui convient, alors on doit avoir s0 (u − v) = v − u, donc ker(s0 + id) = Vect [w] et par conséquent, s0 = s. Remarque : l’hyperplan H s’appelle hyperplan médiateur de [u; v], car si x ∈ H, alors ku − xk = ks(v) − s(x)k = kv − xk. THÉORÈME 24.17 Ð Soit f ∈ L (E), alors f ∈ O(E) ⇐⇒ f transforme une b.o.n en une b.o.n de E. Preuve: Soit B = (e1 , . . . , en ) une b.o.n de E, on a (ei |e j ) = δi, j . Si f ∈ O(E), alors ( f (ei )| f (ek )) = (ei |e j ) = δi, j , donc B0 = ( f (e1 ), . . . , f (en )) est une b.o.n de E. n P Réciproquement, si B0 = ( f (e1 ), . . . , f (en )) est une b.o.n de E, alors pour x ∈ E, k f (x)k2 = k x i f (ei )k2 = n P i=1 2) i=1 x i2 = kxk , donc f ∈ O(E). 2 Matrices orthogonales THÉORÈME 24.18 Ð Ð Soit f ∈ L (E), soit B une base orthonornale de E et soit A = mat( f ) ∈ Mn (R), alors : Ð B Ð Ð Ð f ∈ O(E) ⇐⇒ tA × A = I n . Ð Ð Ð Preuve: Soit B = (e1 , . . . , en ), on a [tA × A]i, j = n P ak,i ak, j = ( f (ei )| f (e j )) = δi, j , donc tA × A = I n . k=1 DÉFINITION 24.9 Soit A ∈ Mn (R), on dit que A est une matrice orthogonale lorsque tA× A = I n , l’ensemble des matrices orthogonales de taille n est noté On (R). THÉORÈME 24.19 (Caractérisations des matrices orthogonales) Ð Ð Soit A ∈ Mn (R), les assertions suivantes sont équivalentes : Ð Ð – A ∈ On (R). Ð Ð – A est inversible et A−1 = tA. Ð – Les vecteurs colonnes de A forment une b.o.n de Rn . MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 7 Endomorphismes orthogonaux Preuve: On sait que [tA × A]i, j = point équivaut [tA × A]i, j = δi, j . Chapitre 24 : Espaces euclidiens n P ak,i ak, j = (ci (A)|c j (A)) (produit scalaire canonique dans Rn ). Donc le troisième k=1 Conséquences On (R) est un groupe multiplicatif, c’est en fait un sous-groupe de (GLn (R), ×), que l’on appelle groupe orthogonal de type n sur R. THÉORÈME 24.20 Ð Si f ∈ O(E), alors det( f ) = ±1. Si A ∈ On (R) alors det(A) = ±1. Preuve: Si A est la matrice de f dans une base orthonormale, alors A ∈ On (R) donc tA × A = I n , on en déduit que det(tA × A) = 1 = det(A)2 , et donc det(A) = ±1. DÉFINITION 24.10 L’application det : (O(E), ◦) → ({±1}, ×) est un morphisme de groupes. Son noyau est donc un sous-groupe de O(E) que l’on appelle groupe des rotations et que l’on note SO(E) : groupe spécial orthogonal de E (parfois noté O+ (E)). On a donc : SO(E) = { f ∈ O(E) / det( f ) = 1}. L’ensemble des matrices orthogonales de déterminant égal à 1 est un sous-groupe de On (R) que l’on note SOn (R) : groupe spécial orthogonal de type n sur R. Exemples: −1 1 −1 1 1 1 1 1 – Soit A = 12 , les vecteurs colonnes de A sont unitaires et deux à deux orthogonaux, donc 1 −1 −1 1 −1 −1 1 1 A ∈ O4 (R), on a det(A) = 1, donc A est la matrice d’une rotation. – Une réflexion n’est pas dans SO(E), en effet, soit s la réflexion par rapport à un hyperplan H, soit en un vecteur ⊥ unitaire de soit (e1 , . . . , en−1 ) une b.o.n de H, alors B = (e1 , . . . , en ) est une b.o.n de E et la droite H , et 1 0 ··· 0 .. . . 0 . . mat(s) = . , on voit donc que det(s) = −1. B . 1 0 . 0 · · · 0 −1 Composée d’endomorphismes orthogonaux : en raisonnant sur le déterminant, on obtient : – La composée de deux rotations est une rotation. – La composée d’une rotation et d’une isométrie négative (det = −1) est une isométrie négative. – La composée de deux isométries négatives est une rotation. it f ∈ O(E), soit F un s.e.v de E, montrer que si F est stable par f , alors F ⊥ aussi. 3) Espace vectoriel euclidien orienté Soit (E, (.|.)) un espace euclidien orienté. THÉORÈME 24.21 (caractérisation des rotations) Ð Ð Ð Un endomorphisme f de E est une rotation ssi f transforme une b.o.n.d en une b.o.n.d (on dit que f conserve l’orientation). MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 8 Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens Preuve: Si f ∈ SO(E) : soit B = (e1 , . . . , en ) une b.o.n.d de E, on sait que f transforme B en une b.o.n de E, B0 = ( f (e1 ), . . . , f (en )), le déterminant de la matrice de passage est le déterminant de f qui vaut 1, donc B0 est une base directe. Réciproquement : si f transforme une b.o.n.d B en une b.o.n.d B0 , alors on sait que f ∈ O(E), le déterminant de f vaut ±1, or le déterminant de f est le déterminant de la matrice de passage de B à B0 et celui-ci est strictement positif, donc det( f ) = 1, i.e. f est une rotation. 4) Produit mixte THÉORÈME 24.22 Ð Ð Soit B une b.o.n.d de E, soit B0 une autre base orthonormale de E, alors : Ð Ð – Si B0 est directe, alors detB0 = detB . Ð – Si B0 est indirecte, alors detB0 = − detB . Preuve: Si B0 est indirecte, alors la matrice de passage de B à B0 a un déterminant strictement négatif, mais cette matrice est une matrice orthogonale, donc son déterminant vaut −1. Or on a la relation detB = detB (B0 ) detB0 , et donc detB = − detB0 . L’espace vectoriel E est euclidien, orienté et de dimension n. DÉFINITION 24.11 Soit B = (e1 , . . . , en ) une b.o.n.d de E, soit (x 1 , . . . , x n ) une famille de vecteurs de E. On appelle produit mixe des vecteurs x 1 , . . . , x n , le réel noté [x 1 , . . . , x n ] et défini par : [x 1 , . . . , x n ] = detB (x 1 , . . . , x n ). D’après le théorème précédent, ce nombre ne dépend pas de la b.o.n.d choisie. Le produit mixte étant un déterminant, il hérite des propriétés de ce dernier. Exemple: En dimension deux : soit B = (u, v) une b.o.n.d de E, E peut être identifié à C. Soient x, y ∈ E \ {0}, alors x = kxk(cos(θ )u + sin(θ )v), et y = k yk(cos(θ 0 )u + sin(θ 0 )v), d’où (x| y) = kxkk yk cos(θ 0 − θ ), ou encore (x| y) = kxkk yk cos(α) où α = (x, y) (mod 2π). De même, [x, y] = kxkk yk sin(α), donc l’angle α entre les vecteurs x et y dans le plan orienté est défini par : cos(α) = 5) (x| y) kxkk yk et sin(α) = [x, y] kxkk yk . Produit vectoriel en dimension 3 (E, (.|.)) est un espace vectoriel euclidien orienté de dimension 3. DÉFINITION 24.12 Soit u, v ∈ E, l’application f : E → R définie par f (x) = [u, v, x] est une forme linéaire sur E, donc il existe un unique vecteur a ∈ E tel que ∀ x ∈ E, [u, v, x] = (a|x). Par définition, ce vecteur a est appelé produit vectoriel de u et v, on le note u ∧ v. Propriétés du produit vectoriel – u ∧ v = 0 ssi (u, v) est liée. Preuve: Si (u, v) est liée, alors ∀ x ∈ E, (u, v, x) est liée, donc [u, v, x] = 0, et par conséquent, u ∧ v = 0. Si (u, v) est libre, alors il existe x ∈ E tel que (u, v, x) est une base de E, donc [u, v, x] 6= 0, ce qui entraîne u ∧ v 6= 0. – u ∧ v est orthogonal à u et v. Preuve: (u|u ∧ v) = [u, v, u] = 0 et (u ∧ v|v) = [u, v, v] = 0. MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 9 Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens – Si (u, v) est libre, alors (u, v, u ∧ v) est une base directe de E. Preuve: Soit P = Vect [u, v], alors (u ∧ v) est une base de la droite P ⊥ , donc (u, v, u ∧ v) est une base de E. Soit B une b.o.n.d de E, alors le déterminant de la famille (u, v, u ∧ v) dans la base B est le produit mixte [u, v, u ∧ v] = ku ∧ vk2 > 0, cette famille est donc bien une base directe. – Le produit vectoriel est bilinéaire et antisymétrique. – ku ∧ vk2 = kuk2 kvk2 − (u|v)2 . (u|i) (v|i) (u ∧ v|i) Preuve: Soit B = (i, j, k) une b.o.n.d de E, [u, v, u ∧ v] = det( (u| j) (v| j) (u ∧ v| j) ), soit A cette (u|k) (v|k) (u ∧ v|k) 2 kuk (u|v) 0 0 matrice, le calcul de tA × A donne tA × A = (u|v) kvk2 , on obtient alors det(tA × A) = det(A)2 = 2 0 0 ku ∧ vk ku ∧ vk2 kuk2 kvk2 − (u|v)2 , mais ceci est égal à [u, v, u ∧ v]2 = ku ∧ vk4 . Si la famille (u, v) est liée alors la formule est évidente, sinon on peut simplifier par ku ∧ vk2 dans l’expression ci-dessus, ce qui donne la formule. On remarquera que si u et v sont unitaires orthogonaux, alors (u, v, u ∧ v) est une b.o.n.d de E. (u|v) Lorsque (u, v) est libre, alors d’après l’inégalité de Cauchy-Schwarz kukkvk ∈ [−1; 1], donc il existe un unique réel θ ∈ [0; π] tel que (u|v) = kukkvk cos(θ ), on obtient alors ku ∧ vk = kukkvk sin(θ ). Ce réel θ est appelé mesure de l’angle (u, v), c’est un élément de [0; π]. – Coordonnées de u ∧ v dans une b.o.n.d : soit (i, j, k) une b.o.n.d de E, alors : u2 v2 u1 v1 u1 v1 k. u∧v = i− j+ u3 v3 u3 v3 u2 v2 u v2 2 Preuve: La coordonnée sur i de u ∧ v est (i|u ∧ v) = [i, u, v] = . Le raisonnement est le même u3 v3 pour les deux autres. On retient ceci en disant c’est le développement suivant la troisième colonne du u v i 1 1 « déterminant » u2 v2 j . On remarquera que i ∧ j = k, i ∧ k = − j et j ∧ k = i. u3 v3 k – Formule du double produit vectoriel : ∀ x, y, z ∈ E, x ∧ ( y ∧ z) = (x|z) y − (x| y)z. Preuve: On choisit (i, j, k) une b.o.n telle que x = αi, y = β i + γ j et z = ai + b j + ck, on a alors : y ∧ z = bβ k − cβ j − aγk + cγi d’où x ∧ ( y ∧ z) = −bαβ j − cαβ k + aαγ j = [aαγ − bαβ] j − cαβ k. D’autre part, (x|z) = aα et (x| y) = αβ, donc on a (x|z) y − (x| y)z = aαβ i + aαγ j − aαβ i − αβ b j − αβ ck ce qui donne [aαγ − bβα] j − cαβ k, ce qui donne l’égalité. Exercice: Soit u un vecteur unitaire de E, montrer que pour x ∈ E, (u ∧ x) ∧ u est le projeté orthogonal de x sur le plan P = Vect [u]⊥ . Réponse: Le projeté orthogonal de x sur la droite Vect [u] est (x|u)u, donc le projeté orthogonal de x sur P est x − (x|u)u qui est égal à (u ∧ x) ∧ u d’après la formule du double produit vectoriel. III) 1) Endomorphismes orthogonaux en dimension 1, 2 et 3 En dimension 1 Si dim(E) = 1 et si f ∈ O(E), alors f est une homothétie de rapport λ ∈ R, mais f conserve la norme donc ∀ x ∈ E, kλxk = kxk, ce qui donne en prenant x 6= 0, |λ| = 1, d’où O(E) = {±id E }. 2) Dans le plan Soit E un plan euclidien orienté et soit f ∈ O(E), on effectue la classification suivant les invariants de f : F = ker( f − id E ). – dim(F ) = 2 : alors f = id ∈ SO(E). – dim(F ) = 1 : alors F = Vect [u] est une droite vectorielle (avec u unitaire) stable par f , donc F ⊥ est une droite vectorielle stable par f également et sur laquelle le seul vecteur invariant est 0, donc la MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 10 Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens ⊥ restriction de f à F ⊥ est −id F ⊥ . Soit v un vecteur unitaire de F , alors B = (u, v) est une b.o.n de E 1 0 et on a mat( f ) = , donc f est la réflexion d’axe F . 0 −1 B Soit B0 = (i, j) une b.o.n.d, il existe un réel θ tel que u = cos(θ /2)i + sin(θ /2) j, on prend alors cos(θ /2) − sin(θ /2) v = − sin(θ /2)i + cos(θ /2) j, la matrice de passage de B0 à B est P = , et sin(θ /2) cos(θ /2) cos(θ ) sin(θ ) la matrice de f dans la base B0 est mat (f ) = . sin(θ ) − cos(θ ) B0 – dim(F ) = 0, seul le vecteur nul est invariant par f , soit B = (i, j) une b.o.n.d de E, alors mat( f ) = B 2 2 =1 a + c a b 2 2 A= , avec b + d = 1 , avec les complexes z = a + ic et z 0 = b + id, on a |z| = |z 0 | = 1, c d a b + cd = 0 0 donc z = e iθ , z(0 = e iθ , avec Re(zz 0 ) = a b + cd = 0,(donc cos(θ − θ 0 ) = 0, d’où θ 0 = θ + π/2 + kπ, b = cos(θ 0 ) = − sin(θ ) b = cos(θ 0 ) = sin(θ ) ce qui donne , ou bien , mais le second cas d = sin(θ 0 ) = cos(θ ) d = sin(θ 0 ) = − cos(θ ) cos(θ ) − sin(θ ) correspond à une réflexion d’après l’étude précédente, il reste donc : mat( f ) = , sin(θ ) cos(θ ) B cette matrice est notée R(θ ), c’est la matrice d’une rotation. a Soit u un vecteur non nul, et soit v = f (u), notons X = les coordonnées de x dans la base b a cos(θ ) − b sin(θ ) 0 B, alors les coordonnées de v sont X = , d’où (u|v) = (a2 + b2 ) cos(θ ) = a sin(θ ) + b cos(θ ) kukk f (u)k cos(θ ), et d’autre part [u, v] = (a2 + b2 ) sin(θ ) = kukk f (u)k sin(θ ), donc θ est l’angle orienté des deux vecteurs u et v. On dit que f est la rotation d’angle θ . On remarquera que la matrice de f est la même dans toutes les b.o.n.d de E. En résumé : → SO(E) = { f ∈ O(E) / ∃ θ ∈ R, mat( f ) = R(θ )}, où B est une b.o.n.d quelconque de E B cos(θ ) sin(θ ) → O (E) = { f ∈ O(E) / ∃ θ ∈ R, mat( f ) = }, sin(θ ) − cos(θ ) B où B est une b.o.n.d quelconque de E. Ce sont des réflexions d’axe Vect [u] où u = cos(θ /2)i + sin(θ /2) j. − → SO2 (R) = {R(θ ) / θ ∈ R} et O− 2 (R) cos(θ ) sin(θ ) ={ / θ ∈ R} sin(θ ) − cos(θ ) − → x D⊥ D − x→ 2 − → −→ x =− x→ 1 + x2 − → θ /2 θ − → ı − x→ 1 − → ı −− x→ 2 → −→ s(− x )=− x→ 1 − x2 MPSI - COURS − → → r(− x ) Fradin c Patrick – http://mpsi.tuxfamily.org 11 Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens FIGURE 24.1: Réflexion et rotation cos(θ ) − sin(θ ) Propriété : L’application R : R → SO2 (R) définie par R(θ ) = est un morphisme sin(θ ) cos(θ ) de groupes surjectif. En particulier, on a R(0) = I2 et ∀ θ , θ 0 ∈ R, R(θ + θ 0 ) = R(θ ) × R(θ 0 ), d’où R(θ )−1 = R(−θ ). THÉORÈME 24.23 Ð Le groupe des rotations, (SO(E), ◦), est commutatif. Composée de deux réflexions : Soit B = (i, j) une b.o.n.d de E, soit s la réflexion d’axe Vect [u] et s0 la 0 0 réflexion d’axe Vect u0 avec u = cos(θ/2)i + sin(θ /2) j etu0 = cos(θ /2)i + sin(θ/2) j. La matrice de cos(θ ) sin(θ ) cos(θ 0 ) sin(θ 0 ) s ◦ s0 dans la base B est la matrice A = × = R(θ − θ 0 ), donc sin(θ ) − cos(θ ) sin(θ 0 ) − cos(θ 0 ) s ◦ s0 est la rotation d’angle θ − θ 0 = 2(u0 , u) (mod 2π). Ce calcul montre en même temps, qu’une rotation peut s’écrire comme la composée de deux réflexions dont une est arbitraire. 3) En dimension 3 Soit E une espace euclidien orienté de dimension 3, et soit f ∈ O(E), la classification se fait suivant la dimension de F = ker( f − id E ). – dim(F ) = 3 : alors f = id E , c’est une rotation. – dim(F ) = 2, alors F est un plan stable par f , donc F ⊥ = Vect [u] (avec u unitaire) est une droite stable par f sur laquelle le seul vecteur invariant est 0, donc la restriction de f à F ⊥ est −id F ⊥ , d’où f (u) = −u, f est donc la réflexion par rapport au plan F , et f ∈ O− (E). Soit x ∈ E, le projeté orthogonal de x sur F est (u ∧ x) ∧ u et son projeté sur F ⊥ est (x|u)u, donc x = (x|u)u + (u ∧ x) ∧ u, on en déduit : ∀x ∈ E, f (x) = −(x|u)u + (u ∧ x) ∧ u). C’est l’expression vectorielle de la réflexion par rapport au plan Vect [u]⊥ . – dim(F ) = 1 : alors F = Vect [u] est une droite vectorielle stable par f (avec u unitaire), donc F ⊥ est un plan stable par f sur lequel le seul vecteur invariant est 0, donc la restriction de f à F ⊥ est une rotation. Soit (v, w) une b.o.n.d de F ⊥ orientépar u, alors B = (u, v,w) est une b.o.n.d de 1 0 0 E, et la matrice de f dans la base B est : mat( f ) = 0 cos(θ ) − sin(θ ) . Le déterminant de B 0 sin(θ ) cos(θ ) cette matrice vaut 1, donc f est une rotation, on dit que f est la rotation d’axe Vect [u] et d’angle θ dans le plan Vect [u]⊥ orienté par u. Soit x ∈ E, le projeté orthogonal de x sur F est (x|u)u et son projeté sur F ⊥ est (u ∧ x) ∧ u = (x|v)v + (x|w)w, l’image de ce dernier vecteur dans le plan F ⊥ par la rotation est : (x|v)[cos(θ )v + sin(θ )w] + (x|w)[− sin(θ )v + cos(θ )w], c’est à dire cos(θ )[(x|v)v +(x|w)w]+sin(θ )[(x|v)w −(x|w)v], ce qui donne cos(θ )(u∧ x)∧u+sin(θ )x ∧(w ∧ v), ou encore : cos(θ )(u ∧ x) ∧ u + sin(θ )u ∧ x. Finalement : ∀x ∈ E, f (x) = (x|u)u + cos(θ )(u ∧ x) ∧ u + sin(θ )u ∧ x. C’est l’expression vectorielle de la rotation f . On remarquera que tr( f ) = 1 + 2 cos(θ ), et si x est un vecteur unitaire orthogonal à u, alors x ∧ f (x) = sin(θ )u, ce qui permet de déterminer l’angle de la rotation. – dim(F ) = 0 : alors (on admet que) f 2 est une rotation d’axe Vect y , soit x = f ( y) − y on a x 6= 0 et f (x) = −x, donc il existe un vecteur unitaire u tel que f (u) = −u, soit D = Vect [u], alors D⊥ est MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 12 Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens un plan stable par f sur lequel seul le vecteur nul est invariant, donc la restriction de f à D⊥ est une rotation, soit (v, w) une b.o.n.d de D⊥ orienté par u, alors B = (u, v, w) est une b.o.n.d de E et : −1 0 0 mat( f ) = 0 cos(θ ) − sin(θ ) , B 0 sin(θ ) cos(θ ) le déterminant de cette matrice vaut −1 donc f ∈ O− (E). Soit s la réflexion par rapport au plan D⊥ et r la rotation d’axe D = Vect [u] et d’angle θ , il est facile de vérifier que f = s ◦ r = r ◦ s. D’autre part, pour tout vecteur x ∈ E : f (x) = −(x|u)u + cos(θ )(u ∧ x) ∧ u + sin(θ )u ∧ x. C’est l’expression vectorielle de f . On remarquera que tr( f ) = −1 + 2 cos(θ ), et que si x est un vecteur unitaire orthogonal à u, alors x ∧ f (x) = sin(θ )u, ce qui permet de déterminer l’angle θ . En résumé : 1 0 0 → SO(E) = { f ∈ O(E) / ∃ B, b.o.n.d, ∃ θ ∈ R, mat( f ) = 0 cos(θ ) − sin(θ )} B 0 sin(θ ) cos(θ ) (les invariants forment une droite vectorielle si f 6= id E ) → Si det( f ) = −1, alors soit f est une réflexion (un plan invariant), soit f est la composée commutative entre une rotation d’axe Vect [u] et une réflexion par rapport au plan Vect [u]⊥ . P⊥ = D − → −→ x =− x→ 1 + x2 → r(− x ) − x→ 2 P − x→ 1 r(− x→ 1 ) −− x→ 2 → −→ s(− x )=− x→ 1 − x2 → → s ◦ r(− x ) = r ◦ s(− x ) FIGURE 24.2: réflexion, rotation, et composée commutative THÉORÈME 24.24 Ð Toute rotation peut s’écrire comme produit de deux réflexions. MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 13 Exercices Chapitre 24 : Espaces euclidiens Preuve: Si f est une rotation d’axe D = Vect [u], alors la restriction de f au plan D⊥ est une rotation (plane) qui peut donc s’écrire comme composée de deux réflexions du plan D⊥ , le résultat en découle. IV) Exercices ÆExercice 24.1 Soit B = (i, j, k) la base canonique de R3 , dans les cas suivants, dire si ϕ est un produit scalaire, et si c’est le cas, appliquer la méthode de Schmidt à B : a) ϕ(x, y) = 3 P i=1 (x i2 + yi2 ). b) ϕ(x, y) = x 1 y1 − x 2 y2 + x 3 y3 . c) ϕ(x, y) = (x 1 − 2x 2 )( y1 − 2 y2 ) + x 2 y2 + (x 2 + x 3 )( y2 + y3 ). ÆExercice 24.2 Soit B = (i, j, k) une b.o.n de E, soient v1 (1, 1, 2), v2 (1, 2, −2) et v3 (5, −4, 0) trois vecteurs de E. Montrer que B0 = (v1 , v2 , v3 ) est une base de E, et appliquer à B0 la méthode de Schmidt. ÆExercice 24.3 Soit E = Mn (R), on pose pour A, B ∈ E, ϕ(A, B) = tr(tA × B). a) Montrer que ϕ est un produit scalaire sur E. La base canonique de E est -elle orthonormale ? Comment s’écrit l’inégalité de Cauchy-Schwarz ? Le cas d’égalité ? b) Soit D = Vect I n , pour A ∈ E, calculer la distance de A à D. En déduire une condition nécessaire et suffisante pour que A ∈ D à l’aide de la trace. ÆExercice 24.4 Soit E un espace euclidien de dimension 5, soit B une b.o.n de E et soient v1 (1, 0, 0, 1, −2), v2 (2, 0, 1, 0, 2) et v3 (0, 1, 2, 0, 1) trois vecteurs de E. On pose F = Vect v1 , v2 , v3 , déterminer une b.o.n de F ⊥ . ÆExercice 24.5 Soit E un espace euclidien et soit f ∈ L (E) tel que ∀ x ∈ E, (x| f (x)) = 0. Montrer que ker( f ) et Im( f ) sont supplémentaires orthogonaux. ÆExercice 24.6 Soit f un endomorphisme d’un espace euclidien E, tel que ∀ x ∈ E, k f (x)k ¶ kxk. Montrer que ker( f − id E ) et Im( f − id E ) ont supplémentaires. Application : soit p ∈ L (E) une projection, montrer que p est une projection orthogonale ssi ∀ x ∈ E, kp(x)k ¶ kxk. ÆExercice 24.7 Soit B = (e1 , . . . , e p ) une famille libre de p vecteurs dans un espace euclidien E, on suppose que p P ∀ x ∈ E, kxk2 = (x|ei )2 . i=1 ⊥ = {0}, en déduire que B est une base de E. a) Montrer que Vect e1 , . . . , e p b) Soient x, y ∈ E, montrer que (x| y) = p P (x|ei )( y|ei ). i=1 c) Soit x ∈ E et soit y = p P (x|ei )ei . Montrer que kxk2 = k yk2 = (x| y). En déduire que x = y, i=1 puis que B est orthonormale. ÆExercice 24.8 Soit E un espace euclidien, pour tout s.e.v F de E, on note p F la projection orthogonale sur F . a) Soient F et G deux s.e.v de E, montrer que p F ◦ pG = 0 ssi F et G sont orthogonaux. b) Montrer que p F +G = p F + pG ssi F et G sont orthogonaux. c) Montrer que p F et pG commutent ssi F et F ⊥ sont stables par pG , déterminer alors pG ◦ p F . MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 14 Exercices Chapitre 24 : Espaces euclidiens ÆExercice 24.9 Soit B une b.o.n.d d’un plan euclidien E, déterminer la nature de l’endomorphisme de E dont la matrice dans la base B est : p p 1 4 −3 1 4 3 1 1 3 1 3 −1 p p . 3 5 3 4 5 3 −4 2 −1 2 −1 − 3 ÆExercice 24.10 Soit B une b.o.n.d d’un espace euclidien E de dimension 3, déterminer la nature de l’endomorphisme de E dont la matrice dans la base B est : −1 2 2 2 −1 2 2 2 −1 1 1 1 2 −1 2 2 −1 2 2 −1 2 3 3 3 2 2 −1 −1 2 2 2 −1 2 p −3 1 6 p 1 6 1 −3 p p 4 − 6 − 6 −2 0 1 0 0 0 1 . −1 0 0 ÆExercice 24.11 Soit E un espace euclidien de dimension 3, soit B = (i, j, k) une b.o.n.d de E, déterminer la matrice dans la base B de : a) p, la projection orthogonale sur le plan P d’équation x + y + z = 0. b) s, la réflexion par rapport au plan P d’équation 2x + 3 y + z = 0. c) s, le demi-tour d’axe Vect [u] avec u(1, 1, 1). d) r, la rotation d’axe Vect [u] et d’angle π/2, avec u(0, 1, 1). e) r, la rotation d’axe Vect [u] qui transforme i en j, avec u = i + j + k. MPSI - COURS Fradin c Patrick – http://mpsi.tuxfamily.org 15