Espaces euclidiens 1. Généralités Définition 1.1 Soit E un e.v. sur . On appelle produit scalaire sur E toute forme bilinéaire sur E symétrique, définie et positive. On note généralement un produit scalaire …x, y ou (x | y) pour x et y ∈E. Remarque 1.2 Les propriétés caractérisant un produit scalaire sur un e.v. réel E sont donc : …x + x ∏ , y = …x, y + …x ∏ , y • ∀x,x',y∈E, ∀α,β∈ …x, y = …y, x • ∀x,y∈E … • x, x = 0 e x = 0 …x, x m 0 • ∀x∈E Exemples 1.3 • • f : 2 → (x,y) xy ϕ : [X] × [X] → 1 c'est-à-dire f (x,y) = …x, y = xy. (P,Q) ¶ P(t )Q(t ) dt 1 c'est-à-dire ϕ(P,Q) = …P, Q = ¶ P(t )Q(t ) dt. 0 0 Définition 1.4 L'application f définie par f : n × n → n (x,y) x i y i i=1 où x = (x1,x2,x3,...,xn) xi∈ pour tout i = 1,n et y = (y1,y2,y3,...,yn) yi∈ pour tout i = 1,n est appelé produit scalaire canonique sur n. Remarque 1.5 n La forme quadratique associée au produit scalaire canonique de n est q(x ) = x 2i où x = (x1,x2,x3,...,xn). i=1 Définition 1.6 On appelle espace préhilbertien réel tout espace vectoriel réel muni d'un produit scalaire. On appelle espace euclidien tout espace préhilbertien réel de dimension finie. Francis Wlazinski 1 Remarque 1.7 Hilbertien = evn complet dont la norme est issue d'un produit scalaire. Préhilbertien de dim finie = Hilbertien. Exemples 1.8 • Soit E = [X] < > : [X] × [X] → 1 (P,Q) …P, Q = ¶ P(t )Q(t ) dt • • (E,< >) est un espace préhilbertien réel. 0 Soit F = n[X] {P∈[X] / deg P ≤ n} et soit < > le produit scalaire précédent. (F,< >) est un espace euclidien. Soient n*, G = M n() et f l'application définie par f : (A,B) tr ( tA.B). (G,< >) = (G,f) est un espace euclidien. Remarque 1.9 La donnée d'une forme quadratique de signature (n,0) sur un -e.v. de dimension n fournit une structure d'espace euclidien. Propriété 1.10 (Inégalité de Cauchy-Schwarz) Soit (E,< >) un espace préhilbertien réel. 1 1 ∀x,y∈E, …x, y [ …x, x 2 …y, y 2 . L'égalité est obtenue si et seulement si x et y sont linéairement dépendants. Démonstration Si y = 0, l'égalité de la propriété est vérifiée ∀x∈E. On peut donc supposer y ≠ 0. Inégalité ∀x,y∈E et ∀λ∈ et on suppose x et y fixés. …x + y, x + y m 0 car le produit scalaire est positif. …x, x + …x, y + …y, x + 2 …y, y m 0. 2 …y, y + 2…x, y + …x, x m 0. Puisque y ≠ 0, 2 …y, y + 2…x, y + …x, x est un polynôme de degré 2 en λ. Ce polynôme est de signe constant donc le discriminant doit être négatif ou nul, ce qui donne : 2 4…x, y − 4…x, x …y, y [ 0 2 g 4…x, y [ 4…x, x …y, y 1 Egalité : • • Francis Wlazinski 1 …x, y [ …x, x 2 …y, y 2 . g Supposons x = λy …y, y = …y, y 1 1 1 1 1 …y, y 2 …y, y 2 = ( 2 ) 2 % …y, y 2 % …y, y 2 = …y, y . 1 1 Si on a l'égalité …x, y = …x, x 2 …y, y 2 . 2 On obtient 4…x, y − 4…x, x …y, y = 0. Le discriminant est nul et l'on a donc une racine double pour le polynôme 2 …y, y + 2…x, y + …x, x . Or, si celui-ci s'annule pour un λ0, on a nécessairement …x + 0 y, x + 0 y = 0. C'est-à-dire x + λ0y = 0 où encore x = −λ0y. 2 Remarques 1.11 • On utilise aussi l'expression (au carré) : …x, y [ …x, x …y, y . • Si E = n, et si < > est le produit scalaire canonique, on obtient 2 n xiyi 1 • 2 n [ i=1 x 2i i=1 n y 2 i . i=1 Si E = C([0,1]) et si on prend comme produit scalaire : < f,g > = ¶ f(t )g(t ) dt, on obtient 1 0 2 ¶ f(t )g(t ) dt 1 [ 0 ¶(f(t )) 1 2 0 dt ¶(g(t )) 2 dt . 0 Propriété 1.12 Soit (E,< >) un espace préhilbertien réel. L'application æ. æ : E → x < x,x >1/2 est une norme. æx æ = 0 e x = 0 c'est-à-dire (i) æx æ = æx æ ∀x∈E, ∀λ∈. (ii) (iii) æx + y æ [ æx æ + æy æ ∀x,y∈E. De plus, on obtient l'égalité dans (iii) lorsque x et y sont positivement liés. Démonstration (i) (ii) (iii) (iii) æx æ = 0 e …x, x = 0 e x = 0 car le produit scalaire est défini. 1 1 1 æx æ = …x, x 2 = ( 2 ) 2 % …x, x 2 = æx æ Inégalité triangulaire ou inégalité de Minkowski æx + y æ 2 = …x + y, x + y = æx æ 2 + …x, y + …y, x + æy æ 2 2 2 2 2 = æx æ + …x, y + …x, y + æy æ = æx æ + 2 …x, y + æy æ 2 2 si y = λx avec λ positif c’est une égalité et non sinon. [ æx æ + 2 …x, y + æy æ 2 2 æ æ æ æ æ æ æ æ d'après Cauchy-Schwarz. [ x +2 x % y + y 2 [ (æx æ + æy æ) Egalité • Supposons y = λx avec λ∈. æx + y æ = æx + x æ = æ(1 + )x æ = 1 + æx æ = (1 + )æx æ æx æ + æy æ = æx æ + æx æ = æx æ + æx æ = æx æ + æx æ = (1 + )æx æ • On a l'égalité de Cauchy-Schwarz lorsque x et y linéairement dépendants. On vérifie aisément que y = λx avec λ∈ ne convient pas. Remarques 1.13 • • La norme associée au produit scalaire canonique de n est æx æ = si x = (x1,x2,x3,...,xn). Pour retenir l'inégalité de Cauchy-Schwarz , on peut se rappeler de u.v = æu æ æv æ cos(u, v ). (Inégalité de Minkowski) Si E = n, et si < > est le produit scalaire canonique, on a 1/2 n (a i + b i ) 2 i=1 • 1/2 x 2i i=1 Rappel 1.14 • n 1 n [ a 2i 1/2 + i=1 n b 2i i=1 Si E = C([0,1]) et si on prend comme produit scalaire : < f,g > = ¶ f(t )g(t ) dt, on obtient 1/2 1 ¶[f(t ) + g(t )] 0 Francis Wlazinski 2 dt 1/2 1 [ ¶[f(t )] 0 2 dt + ¶[g(t )] 0 1/2 1 2 dt . 0 3 1/2 . Définition 1.15 Soit (E,< >) un espace préhilbertien réel. Soient x,y deux vecteurs non nuls de E. On appelle mesure de < x, y > l'angle non orienté du couple (x,y) le réel compris entre 0 et tel que cos θ = < x, x > 1/2 < y, y > 1/2 . Remarques 1.16 • • • Toutes les normes ne sont pas forcement issues d'un produit scalaire. On obtient un espace métrique en posant d(x,y) = æ y − x æ. Interprétation dans le cas euclidien : soit (e) une base d'un espace euclidien (E,< >) = (E,f ). Si A = M e(f) = M e(< >) et si x a pour coordonnées X dans (e), alors || x || = (tXAX)1/2. Propriété 1.17 Dans un espace euclidien, toute famille de vecteurs non nuls et deux à deux orthogonaux est libre. Démonstration Soit (E,< >) un espace euclidien de dimension n 1. Soit (a1, a2, a3, ... , ap) une famille de vecteurs non nuls et deux à deux orthogonaux p∈* (on aura p ≤ n). p iai = 0 p ≤j = 1, p ⇒ < iai, aj > = 0 i=1 i=1 ⇒ ≤j = 1, p j < a j , a j > = 0 ⇒ car < > est défini donc il n'y a pas de vecteurs isotropes. ≤j = 1, p j = 0 Donc c'est bien une famille libre. Propriété 1.18 (Théorème de Pythagore) Soit (E,< >) un espace euclidien de dimension n 1. 2 p Soit (vi)i =1,p une famille de vecteurs non nuls et deux à deux orthogonaux. Alors vi i=1 p = æv i æ . 2 i=1 Démonstration 2 p v i=1 p p p p p p p p = < v i , v i > = < v i , v j > = < v i , v j > = < v i , v i > = æv i æ . 2 i i=1 i=1 i=1 j=1 i=1 j=1 i=1 i=1 Remarque 1.19 Avec une notation f au lieu de < >, on obtient f(x 1 + x 2 + ¢ + x n , x 1 + x 2 + ¢ + x n ) = f(x 1 , x 1 ) + f(x 2 , x 2 ) + £ + f(x n , x n ) ou q f (x 1 + x 2 + ¢ + x n ) = q f (x 1 ) + q f (x 2 ) + £ + q f (x n ). Propriété 1.20 (Identité du parallélogramme) 2 2 2 2 Soit (E,< >) un espace euclidien. On a : ∀x,y∈E, æx + y æ + æx − y æ = 2(æx æ + æy æ ). Démonstration Voir exercice formes quadratiques 011 : q(x + y) + q(x − y) = 2q(x) + 2q(y). Francis Wlazinski 4 2. Orthogonaux Corollaire 2.1 Soit (E,< >) un espace euclidien. ∀ϕ∈L (E,) = E* = dual de E (c'est-à-dire pour toute forme linéaire sur E). ∃!y0∈E / ϕ(x) = < x,y0 > ∀x∈E. On a E* isomorphe à E. Corollaire 2.2 Tout espace euclidien (E,< >) admet une base orthonormale et dans cette nouvelle base, le produit scalaire est le produit scalaire canonique. Propriété 2.3 Soit (e1, e2, ..., ep) est une base orthogonale d'un espace euclidien (E,< >) de dimension p 1. p < v, e i > Alors, ∀v∈E, v = < e i , e i > e i . i=1 Démonstration p p p On a v = v i e i et, pour tout j = 1,p, < v,ej > = < v i e i , e j > = v i < e i , e j > = v j < e j , e j >. i=1 i=1 i=1 < v, e j > D'où v j = < e j , e j > . Remarque 2.4 < v, e p > < v, e 1 > < v, e 2 > Les coordonnées de v dans (e1, e2, ..., ep) sont donc < e 1 , e 1 > , < e 2 , e 2 > , ..., < e p , e p > . Si la base est orthonormale, on a …e j , e j = 1 pour tout j =1,p. Propriété 2.5 Soit (E,< >) un espace euclidien et soit F un s.e.v. de E. On a E = F ⊕ F⊥ et (F⊥)⊥ = F. F⊥ est appelé le supplémentaire orthogonal de F. Démonstration On a une structure d'espace euclidien en considérant la restriction de < > à F. Soit (ei)i=1,p une base orthonormale de F et soit x∈E. p Pour tout i = 1,p on pose λi = < x,ei> et a = i e i . i=1 On a bien a∈F et on pose b = x − a. On a, ∀i =1,p, < b,ei> = < x,ei> − < a,ei> = λi − λi = 0. Donc b∈F⊥ et x = a + b. De plus, montrons que F∩F⊥ = {0} : on sait déjà que {0} ⊂ F ∩ F⊥. 2 Soit maintenant x∈F∩F⊥, on a æx æ = < x, x > = 0 et donc x = 0. Puisque E = F ⊕ F⊥ E = F ⊥ ⊕ (F⊥)⊥, on a dim F dim (F⊥)⊥. Or F (F⊥)⊥ donc (F⊥)⊥ = F. Francis Wlazinski 5 Définition 2.6 Soit (E,< >) un espace euclidien et soit F un s.e.v de E. On a E = F ⊕ F⊥. L'application pF qui, à tout x = a + b avec a∈F et b∈F⊥, associe pF(x) = a est appelée projection sur F de direction F⊥ ou projection orthogonale sur F. Avec les même hypothèses, l'application sF, qui à x associe sF(x) = a − b est appelée la symétrie orthogonale par rapport à F. Remarque 2.7 sF = 2 pF − IdE car 2a − ( a + b) = a − b. Corollaire 2.8 Soit (E,< >) un espace euclidien, soit F un s.e.v de E et soit (u1, u2,...,up) est une base orthonormale de F. p Alors ∀x∈E, pF(x) = < x, u i > u i . i=1 Démonstration Voir la démonstration de la propriété 2.5. Définition 2.9 Soit (E,< >) un espace euclidien et soit F un s.e.v de E. On définie les applications distances suivantes : x,y∈E, d(x,y) = æx − y æ. x∈E, d(x,F) = Infy∈F(d(x,y)). Propriété 2.10 Soit (E,< >) un espace euclidien et soit F un s.e.v de E. 2 2 x∈E, d 2(x,pF(x)) =æx æ − æp F (x )æ . 1. 2. x∈E, d(x,F) = d(x,pF(x)) = æx − p F (x )æ. Démonstration 1. 2. æx æ 2 = æx − p F (x ) + p F (x )æ 2 = æx − p F (x )æ 2 + æp F (x )æ 2 d'après Pythagore. 2 2 2 C'est-à-dire æx − p F (x )æ = æx æ − æp F (x )æ . 2 2 ∀y∈F, d 2(x,y) = æx − y æ = æx − p F (x ) + p F (x ) − y æ 2 2 = æx − p F (x )æ + æp F (x ) − y æ car x − p F (x ) c F Ω et p F (x ) − y c F 2 m æx − p F (x )æ . 2 Donc æx − p F (x )æ est un minorant de {d(x,y), y∈F}. Or ∀y∈F, d(x,y) ≥ d(x,F). En particulier, pF(x)∈F. D'où d (x,pF(x)) ≥ d(x,F) = æx − p F (x )æ. 3. Méthode d'orthonormalisation de Schmidt Exemple d'orthonormalisation 3.1 Dans 4, muni du produit scalaire canonique, on veut orthonormaliser l'espace E engendré par les vecteurs (libres) : u1 = (1,1,1,0) u2 = (1,1,0,0) u3 = (1,0,0,0). Francis Wlazinski 6 1ère étape • • • 2ème étape • • • Orthogonalisation → (v1,v2,v3) v1 = u1. v2 = u2 + λv1 avec λ∈. On a v2 ≠ 0 pour tout λ car u1 et u2 sont linéairement indépendants. On veut < v2,v1> = 0 ⇔ < u2 + λu1,u1> = 0 ⇔ < u2,u1> + λ< u1,u1> = 0. On a < u1,u1> ≠ 0 car u1 ≠ 0. < u2, u1 > ⇔ = − < u1, u1 > ⇔ = −2. 3 v2 = (1,1,0,0) − 2 (1,1,1,0). 3 1 D'où v2 = (1,1,−2,0). 3 v3 = u3 + λv1 + µv2 avec λ,µ∈. On a v3 ≠ 0 pour tous les λ et µ car u1, u2 et u3 sont linéairement indépendants. On veut < v3,v1> = 0 et < v3,v2> = 0. < v3,v1> = 0 ⇔ < u3 + λv1 + µv2,u1> = 0 ⇔ < u3,u1> + λ< u1,u1> + µ< v2,v1> = 0 On a < v2,v1> = 0 ⇔ < u3,u1> + λ< u1,u1> = 0 < u3, u1 > ⇔ = − < u1, u1 > ⇔ = −1. 3 < v3,v2> = 0 ⇔ < u3 + λv1 + µv2,v2> = 0 ⇔ < u3,v2> + λ< v1,v2> + µ< v2,v2> = 0 On a < v1,v2> = 0 ⇔ < u3,v2> + µ< v2,v2> = 0 < u3, v2 > ⇔ = − < v2, v2 > 1 (1 ) ⇔ =− 1 2 3 = −1. 2 ( 3 ) (1 + 1 + 4 ) v3 = (1,0,0,0) − 1 (1,1,1,0) − 1 % 1 (1,1,−2,0). 3 2 3 D'où v3 = 1 (6 − 2 − 1, 0 − 2 − 1, 0 − 2 + 2, 0 + 0 + 0) 6 = 1 (1,−1,0,0). 2 Normalisation → (b1,b2,b3) v1 v b1 = = < v , v1 > 1/2 æv 1 æ 1 1 v2 v2 b2 = = æv 2 æ < v 2 , v 2 > 1/2 v3 v3 b3 = = æv 3 æ < v 3 , v 3 > 1/2 v1 = (1,1,1,0) v2 = 1 (1,1,−2,0) 3 v3 = 1 (1,−1,0,0) 2 æv 1 æ = 3 æv 2 æ = 1 6 3 æv 3 æ = 1 2 2 Propriété 3.2 Toute famille (ai)i =1,p libre de vecteurs (non nuls) d'un espace euclidien de dimension n (n ≥ p 1) peut être remplacée par une famille (bj)j=1,p de vecteurs deux à deux orthogonaux (famille orthogonale ) de telle sorte que : Vect (a1,a2,a3,...,ak) = Vect (b1,b2,b3,...,bk) pour tout k = 1,p. Francis Wlazinski 7 Méthode de Schmidt 3.3 • • • b 1 = a 1. b2 = a2 + λb1 avec λ∈. On a b1 et b2 linéairement indépendants pour tout λ. On veut < b2,b1> = 0 ⇔ < a2,a1> + λ < a1,a1> = 0 on a < a1,a1> ≠ 0 car a1 ≠ 0 < a1, a2 > ⇔ = − < a1, a1 > < a1, a2 > D'où b2 = a2 − < a 1 , a 1 > b1. On vérifie aisément que Vect (b1,b2) = {CL de b1 et b2} = {CL de a1 et a2} = Vect (a1,a2). On a bien < b2,b1> = 0. Supposons que l'on ait construit b1,b2,b3,...,bk−1. k−1 Il faut trouver (λi)i =1,k−1 tels que b k = a k + i b i soit orthogonal à chaque bj avec j = 1,n. < bk,bj> = 0 ⇔ ⇔ i=1 < ak,bj> + λj < bj,bj> = 0 < ak, bj > . j = − < bj, bj > On construit ainsi bk. Vect (b1,b2,b3,...,bk) = {CL de b1,b2,b3,...,bk} = {CL de a1,a2,a3,...,ak} = Vect (a1,a2,a3,...,ak). Théorème 3.4 (de la base orthonormale incomplète) Toute famille orthonormale de p vecteurs dans un espace euclidien E de dimension n (n > p) peut être complétée en une base orthonormale de E. Démonstration Théorème de la base incomplète + procédé de Schmidt. 4. Endomorphisme adjoint Propriété 4.1 Soit (E,< >) un espace euclidien. Soit ϕ∈L (E) c'est-à-dire ϕ est application linéaire de E dans E (ou ϕ est un endomorphisme de E). Alors ∃!ϕ*∈L (E) / < ϕ(x),y > = < x,ϕ*(y) > ∀x,y∈E. Cet endomorphisme ϕ* est appelé l'endomorphisme adjoint de ϕ. Démonstration Unicité : Existence : Francis Wlazinski On suppose qu'il existe deux applications ψ1 et ψ2 ∈L (E) telles que : < ϕ(x),y > = < x,ψ1(y) > = < x,ψ2(y) > ∀x,y∈E. On a donc < x,ψ1(y) − ψ2(y) > = 0 ∀x,y∈E. Or un produit scalaire est non dégénéré donc on obtient ψ1(y) − ψ2(y) = 0 ∀y∈E. Donc ψ1(y) = ψ2(y) ∀y∈E c'est-à-dire ψ1 = ψ2. ∀y∈E, l'application x < ϕ(x),y > est une forme linéaire en x. Donc ∀y∈E, ∃!y0∈E / < ϕ(x),y > = < x,y0 >. Soit ϕ* l'application de E dans E qui, à tout y, associe y0. 8 ∃!y0∈E / < ϕ(x),y > = < x,y0 > ∀x∈E. ∃!y'0∈E / < ϕ(x),y' > = < x,y'0 > ∀x∈E. On a donc : < ϕ(x),y + y' > = < ϕ(x),y' > + < ϕ(x),y' > = < x,y0 > + < x,y'0 > = < x,y0 + y'0 >. < ϕ(x),λy > = λ< ϕ(x),y > = λ< x,y0 > = < x,λy0 >. D'où l'application ϕ est linéaire. Remarque 4.2 ∀x,y∈E, < Id(x),y > = < x,y > = < x,Id(y) >. On a donc Id* = Id. Propriétés 4.3 Soit (E,< >) un espace euclidien, soient u,v∈L (E) et soit λ∈. a. (u + v)* = u* + v*. b. (u o v)* = v* o u*. c. (λu)* = λu*. d. (u*)* = u. Démonstration a. ∀x,y∈E, b. ∀x,y∈E, c. ∀x,y∈E, d. ∀x,y∈E, < (u + v)(x),y > = < u(x) + v(x),y > = < u(x),y > + < v(x),y > = < x,u*(y) > + < x,v*(y) > = < x,u*(y) + v*(y) > = < x,(u* + v*)(y) >. < (u o v)(x),y > = < u(v(x)),y > = < v(x),u*(y) > = < x,v*(u*(y)) > = < x,(v* o u*)(y) >. < (λu)(x),y > = < λu(x),y > = λ< u(x),y > = λ< x,u*(y) > = < x,λu*(y) > = < x,(λu*)(y) >. < u*(x),y > = < y,u*(x) > = < u(y),x > = < x,u(y) >. Propriété 4.4 Soit (E,< >) un espace euclidien de dimension n∈*. Soit (b) = (b1,b2,b3,...,bn) une base orthonormale de E. On a M b(u*) = tM b(u). Démonstration Supposons M b(u) = (aij)i,j=1,n. n On a donc : u(bi) = a ji b j < u(bi),bj> = aji < bi,u*(bj)> = aji <u*(bj),bi> = aji u*(bj) = a ji b i M b(u (aji)i,j=1,n. j=1 n i=1 Francis Wlazinski 9 Propriété 4.5 Soit (E,< >) un espace euclidien et soit (e) une base de E. Soient u∈L (E) et u* son endomorphisme adjoint, on a M e(u*) = [M e(< >)]−1 × [tM e(u)] × [M e(< >)]. Démonstration Soit (b) une base orthonormale de E et soit S la matrice de passage de (b) à (e). M e(< >) = tS ×M b(< >) × S = tS × S. M e(u) = S −1 ×M b(u) × S c'est-à-dire M b(u) = S ×M e(u) × S −1. M e(u*) = S −1 ×M b(u*) × S. Or M b(u*) = tM b(u). Donc M b(u*) = t(S ×M e(u) × S−1) = tS−1 × tM e(u) × tS. Et M e(u*) = S −1 ×M b(u*) × S = S −1 × tS−1 × tM e(u) × tS × S = (tS × S)−1 × tM e(u) × ( tS × S). Propriété 4.6 Soit (E,< >) un espace euclidien et soit u∈L (E), on a : • u et u* ont même rang. • det u = det u*. • u inversible ⇒ u* inversible et (u*)−1 = (u−1)*. Démonstration Tout ceci provient directement des propriétés des transposés de matrices. Propriété 4.7 Soient (E,< >) un espace euclidien, F un s.e.v. de E et u∈L (E). Si F est stable par u alors F⊥ est stable par u*. Démonstration ∀y∈F, on a u(y)∈F car F est stable par u. x∈F⊥ ⇒ < x,u(y) > = 0 ∀y∈F ⇒ < u(y),x > = 0 ∀y∈F ⇒ < y,u*(x) > = 0 ∀yF ⇒ u*(x)∈F⊥. Propriété - Définition 4.8 Soit (E,< >) un espace euclidien et soit u∈L (E). Les trois propriétés suivantes sont équivalentes : (i) < u(x),u(y)> = < x,y> ∀x,y∈E. (ii) < u(x),u(x)> = < x,x> ∀x∈E. (iii) u* o u = Id. Si l'une de ces propriétés est vérifiée, on dit que u est une isométrie vectorielle ou que u est orthogonale. Francis Wlazinski 10 Remarque 4.9 (ii) ⇔ (ii)' ∀x∈E, æu(x )æ = æx æ. Démonstration (i) ⇒ (iii) ⇔ ⇔ ⇔ ⇔ (iii) ⇒ (ii) < u(x),u(y)> = < x,y> < x,u*(u(y))> = < x,y> < x,u*(u(y)) − y> = 0 u*(u(y)) − y = 0 u*(u(y)) = y ∀x,y∈E ∀x,y∈E ∀x,y∈E ∀y∈E car < > non dégénérée. ∀y∈E. ∀x∈F < u(x),u(x)> = < x,u*(u(x)> = < x,x> ∀x∈E. (ii) ⇒ (i) ⇔ ⇔ ⇔ ⇔ < u(x + y),u(x + y)> = < x + y,x + y> < u(x) + u(y),u(x) + u(y) > = < x + y,x + y> < u(x),u(x) > + < u(x),u(y) > + < u(y),u(x) > + < u(y),u(y) > = < x,x > + < x,y > + < y,x > + < y,y > 2 <u(x),u(y)> = 2< x,y> <u(x),u(y)> = < x,y> ∀x,y∈E ∀x,y∈E ∀x,y∈E ∀x,y∈E ∀x,y∈E. Propriété 4.10 Soit (E,< >) un espace euclidien et soit u une isométrie vectorielle. Alors det u = ±1 donc u est inversible et u* = u−1. Démonstration • • Nous savons que det u = det u*. 1 = det Id = det (u o u*) = det (u) × det (u*) = det (u)2. Unicité de l'inverse lorsqu'il existe et u* o u = Id. Propriété 4.11 Soit (E,< >) un espace euclidien. L'ensemble O(E) des isométries vectorielles muni de la loi de composition usuelle des fonctions vérifie : • La loi o est une loi de composition interne sur O(E). • La loi o est associative sur O(E). • La loi o admet un élément neutre dans O(E). • Tout élément de O(E) admet un symétrique pour la loi o. On dit que (O(E),o) est un groupe non commutatif. Il est appelé groupe orthogonal de E. Démonstration • • • Soient u1,u2 ∈O(E). ∀x,y∈E, < (u1 o u2)(x),(u1 o u2)(y) > = < u1(u2(x)),u1(u2(y)) > = < u2(x),u2(y) > car u1∈O(E) = < x,y > car u2∈O(E) La loi o est toujours associative. IdE∈O(E). Francis Wlazinski donc u1 o u2∈O(E). 11 • Soit u2 ∈O(E). ∀x,y∈E, < u2−1(x),u2−1(y) > = < u2(u2−1(x)),u2(u2−1(y)) > = < (u2 o u2−1)(x),(u2 o u2−1)(y) > = < x,y > donc u2−1∈O(E). Définition 4.12 Soit (E,< >) un espace euclidien. On appelle les éléments de O+(E) = SO(E) = {u∈O(E) / det u = 1} les rotations vectorielles de E. On appelle les éléments de O−(E) = {u∈O(E) / det u = −1} les anti-rotations vectorielles de E. Propriété 4.13 Soit (E,< >) un espace euclidien. (SO(E),o) est un groupe non commutatif appelé groupe spécial orthogonal de E. Démonstration Cela provient directement des propriétés : • det (u o v) = det (u) × det (v) • det Id = 1 • det (u−1) = [det (u)]−1 Propriété 4.14 Soit (E,< >) un espace euclidien de dimension n 1. Pour que u∈L (E) soit une isométrie, il faut et il suffit que l'image d'une base orthonormale par u soit orthonormale. Démonstration Soit (e) = (e1,e2,e3,...,en) une base orthonormale de E. (⇒) Si u est une isométrie alors u est bijective et donc (u(e1),u(e2),u(e3),....,u(en)) est une base de E. De plus, < u(x),u(y) > = < x,y > ∀x,y∈F. D'où < u(ei),u(ej) > = < ei,ej > = δij. (⇐) Si (u(e1),u(e2),u(e3),....,u(en)) base orthonormale de E, on a < u(ei),u(ej) > = < ei,ej > = δij. n n ∀x∈E, on peut écrire x = x i e i et u(x ) = x i u(e i ). n n i=1 n i=1 n n n i=1 j=1 < u(x),u(x) > = x i x j < u(ei),u(ej) > = x i x j < ei,ej > = < x i e i , x j e j > = < x,x >. i=1 j=1 i=1 j=1 Propriété 4.15 Les valeurs propres d'une isométrie sont soit 1 soit −1 (pour un e.v. réel). Démonstration Soit (E,< >) un espace euclidien et soit u une isométrie vectorielle. Si u(x) = λx avec x 0, on a < x,x> = <u(x),u(x)> = <λx,λx> = λ2< x,x>. < x, x > C'est-à-dire λ2 = < x, x > = 1. Francis Wlazinski 12 Propriété et définition 4.16 Soit (n,< >) où n* et < > est le produit scalaire canonique et soit M∈M n(). Les 5 propositions suivantes sont équivalentes : (1) M.tM = In. t (1') (2) M.M = In. (3) M est inversible et tM = M −1. (2') (4) Les vecteurs colonnes de M forment une base orthonormale de n. (5) Les vecteurs lignes de M forment une base orthonormale de n. Une matrice qui vérifie l'une de ces conditions est dite orthogonale. Démonstration Soit (e) = (e1,e2,e3,...,en) la base canonique de n. • Etape 1 : (1) ⇔ (2) ⇔ (3) (1) ⇒ det M ≠ 0 ⇐ (2). On obtient le résultat à cause de l'unicité du symétrique. • Etape 2 : (1') ⇔ (4) M = (aij)i,j=1,n M = (aji)i,j=1,n t n M.M = (γij)i,j=1,n où ij = a ki a kj . t k=1 Soit (bi)i=1,n les vecteurs colones de M (donc les vecteurs ligne de tM). n n k=1 k=1 On a bi = a ki e k et <bi,bj> = a ki a kj = γij. M.M = In ⇔ γij = δij = <bi,bj>. t Remarque 4.17 La matrice de passage d'une base orthonormale à une autre est une matrice orthogonale. Propriété 4.18 L'ensemble On() l'ensemble des matrices orthogonales carrées d'ordre n 1 à coefficients dans muni de la loi de la multiplication usuelle des matrices vérifie : • La loi × est une loi de composition interne sur On(). • La loi × est associative sur On(). • La loi × admet un élément neutre dans On(). • Tout élément de On() admet un symétrique pour la loi ×. On dit que (On(),×) est un groupe non commutatif. Il est appelé groupe orthogonal d'ordre n. Démonstration • • • • Soient A et B deux matrices orthogonales. On a t(AB)AB = tB tA AB = tBIB = I donc AB∈On(). La loi × est associative sur M n(). In∈On(). Soit M∈On() t (M1).(M1) = (tM)1.(M1) = (MtM)1 = In 1 = In donc M1∈On() Propriété 4.19 Le déterminant d'une matrice orthogonale est ±1. Francis Wlazinski 13 Démonstration Soit M une matrice orthogonale. 1 = det I = det tMM = det tM × det M = det M × det M = (det M)2. Propriété 4.20 Soit On()+ = SOn() = {M∈On() / det M = 1} où n*. (On()+),×) est un groupe non commutatif appelé groupe spécial orthogonal d'ordre n. Propriété 4.21 Soit (E,< >) un espace euclidien. Pour que u∈L (E) soit une isométrie, il faut et il suffit que sa matrice dans une base orthonormale soit orthogonale. Démonstration Soit (e) une base orthonormale de E et soit A =M e(u). u isométrie ⇔ u* = u−1 ⇔ M e(u*) = M e(u−1) t ⇔ A = A−1 ⇔ A orthogonale. Définition 4.22 Soit (E,< >) un espace euclidien et soit u∈L (E). On dit que u est auto-adjoint ou symétrique ssi u = u* c'est-à-dire ssi ∀x,y∈E, < u(x),y > = < x,u(y) >. Exemple 4.23 Soit F un s.e.v. d'un espace euclidien E. La projection orthogonale sur F et la symétrie orthogonale par rapport à F sont des endomorphismes auto-adjoints. En effet, ∀x,x'∈E, ∃ a,a'∈F et ∃ b,b'∈F⊥ tels que x = a + b et x' = a' + b'. On a : • < pF(x),x' > = < a ,a' + b' > = < a,a' > + < a,b' > = < a,a' > < x,pF(x' )> = < a + b,a' > = < a,a' > + < b,a' > = < a,a' > • < sF(x),x' > = < a − b,a' + b' > = < a,a' > + < a,b' > − < b,a' > − < b,b' > = < a,a' > − < b,b' > < x,sF(x' )> = < a + b,a' − b' > = < a,a' > − < a,b' > + < b,a' > − < b,b' > = < a,a' > − < b,b' > Propriété 4.24 Soit (E,< >) un espace euclidien. Soit (b) = (b1,b2,b3,...,bn) une base (orthonormale) de E. u∈L (E) symétrique ⇔ ∀i,j =1,n, < u(bi),bj > = < bi,u(bj) >. Démonstration (⇒) trivial. (⇐) x,y∈E, x = x i b i et y = y j b j . n n i=1 < u(x),y > = < u n n j=1 n n n n n i=1 j=1 i=1 j=1 x i b i , y j b j > = < x i u(b i ), y j b j > = x i y j < u(b i ), b j > i=1 n j=1 = x i y j < b i , u(b j ) > = < x,u(y) >. i=1 Francis Wlazinski j=1 14 Propriété 4.25 Soit (E,< >) un espace euclidien. Pour que u∈L (E) soit symétrique, il faut et il suffit que sa matrice par rapport à une base orthonormale soit symétrique. Démonstration Soit A = M e(u) où (e) est une base orthonormale de E. u symétrique ⇔ u = u* ⇔ A = tA ⇔ A symétrique. Remarque 4.26 {u∈L (E) / u symétrique} est un s.e.v. de (L (E),,.). Propriété 4.27 Soit A une matrice symétrique et soit P une matrice orthogonale. Alors A' = P−1A P est une matrice symétrique. Démonstration A' = t(P−1A P ) = tP tA tP −1 = P−1A P = A'. t Propriété 4.28 Deux vecteurs propres d'un endomorphisme symétrique réel associés à deux valeurs propres distinctes sont orthogonaux. Démonstration Soit f un endomorphisme adjoint et soient u1 et u2 deux vecteurs propres de valeurs propres différentes respectives λ1 et λ2. On a donc f (u1) = λ1u1 et f (u2) = λ2u2. D'où λ1< u1,u2 > = < λ1 u1,u2 > = < f (u1),u2 > = < u1,f (u2) > = < u1,λ2u2 > = λ2 < u1,u2 >. Donc (λ1−λ2) < u1,u2> = 0 c'est-à-dire < u1,u2> = 0. Remarque 4.29 On obtient une propriété identique à la propriété 4.28 pour les matrices symétriques à coefficients réels. Propriété 4.30 Soit (E,< >) un espace euclidien et soit u∈L (E) symétrique. On a Ker u = (Im u)⊥ et Im u = (Ker u)⊥ et E = Ker u ⊕ Im u. Démonstration Soit x∈Ker u et y∈Im u. x∈Ker u ⇔ u(x) = 0. y∈Im u ⇔ ∃ t∈E / u(t) = y. < x,y> = < x,u(t)> = < u(x),t> = < 0,t> = 0. Francis Wlazinski 15