Chapitre 5 Espaces euclidiens. Endomorphismes symétriques et orthogonaux. Dans ce chapitre, tous les espaces vectoriels sont des R-espaces vectoriels. 5.1 5.1.1 Produit scalaire et orthogonalité Définition, inégalité de Cauchy-Schwarz Rappelons la définition d’un produit scalaire : Définition (produit scalaire) Un produit scalaire sur un R-espace vectoriel E est une application bilinéaire symétrique h· | ·i : E × E −→ R définie positive, i.e. vérifiant ∀x ∈ E \ {0}, hx | xi > 0. Exemple 1. Sur Rn , l’application (x, y) 7−→ hx | yi = scalaire canonique sur Rn . Pn i=1 xi yi est un produit scalaire, appelé produit Exemple 2. Sur l’espace Mn,1 (R) des matrices colonne, l’application (X, Y ) 7−→ hX | Y i = X T Y (où l’on identifie la matrice X T Y ∈ M1,1 (R) à son unique coefficient) est un produit scalaire, appelé produit scalaire canonique sur Mn,1 (R). Pn Exemple 3. Sur l’espace E = Rn [X], l’application (P, Q) 7−→ hP | Qi = k=0 pk qk , où pk (resp. qk ) est le coefficient de degré k du polynôme P (resp. Q), est un produit scalaire, appelé produit scalaire canonique sur Rn [X]. OnP peut de la même façon définir un produit scalaire sur l’espace R[X] de dimension infinie par hP | Qi = k>0 pk qk (qui est une somme finie car les coefficients sont tous nuls à partir d’un certain rang). Ce produit scalaire (sur R[X] cette fois-ci) est encore appelé canonique. Rb Exemple 4. Sur l’espace E = C ([a, b], R), l’application (f, g) 7−→ hf | gi = a f g est un produit scalaire. En effet, la seule chose non évidente à vérifier est le caractère défini positif. Pour cela, remarquons que, si f est une fonction continue sur le segment [a, b], alors la fonction f 2 est positive ou nulle, donc hf | f i > 0. Si de plus hf | f i = 0, alors la fonction f 2 , positive et continue, est d’intégrale nulle (sur [a, b]), donc c’est la fonction nulle, donc f est aussi la fonction nulle. Par contraposition, si f n’est pas la fonction nulle, alors hf | f i > 0. 67 68 Chapitre 5. Espaces euclidiens. Endomorphismes symétriques et orthogonaux. Définition (espace préhilbertien) Un espace préhilbertien est un R-espace vectoriel muni d’un produit scalaire. Remarque 1. Si E est un espace préhilbertien, tout sous-espace F de E hérite, par restriction, d’un produit scalaire, donc est lui aussi un espace préhilbertien. Dans toute la suite, E désigne un espace préhilbertien (réel). Définition (norme) Soit E un espace préhilbertien. La norme d’un vecteur x est le réel p ||x|| = hx | xi. Proposition Pour tous vecteurs x, y ∈ E et tout réel λ, on a – ||λx|| = |λ|||x|| – ||x|| > 0, avec égalité si, et seulement si, x = 0 – ||x + y||2 = ||x||2 + ||y||2 + 2hx | yi. Remarque 2. En pratique, pour montrer qu’un vecteur est nul, on pourra chercher à montrer que sa norme est nulle. Théorème (inégalité de Cauchy-Schwarz) Pour tous vecteurs x, y ∈ E, on a −||x||||y|| 6 hx | yi 6 ||x||||y||, avec égalité à – droite si, et seulement si, x et y sont colinéaires et de même sens (au sens large) – gauche si, et seulement si, x et y sont colinéaires et de sens opposés (au sens large). La locution «au sens large» indique que le vecteur nul doit être considéré comme étant à la fois de même sens et de sens opposé à tout vecteur (en effet, le nombre 0 est à la fois positif et négatif). Démonstration. Commençons par examiner le cas y = 0, ce qui équivaut à ||y|| = 0 : la double inégalité est vérifiée. Ces deux inégalités sont même des égalités, et les vecteurs x et y sont bien colinéaires et de même sens, ainsi que colinéaires et de sens opposés. Supposons maintenant y 6= 0. Considérons l’application f: R t −→ 7−→ R+ . ||x + ty||2 Pour tout réel t, on a f (t) = ||x||2 + 2thx | yi + t2 ||y||2 donc la fonction f est polynomiale de degré 2 (exactement car ||y||2 6= 0). Comme elle est de signe constant, son discriminant est négatif ou nul, donc hx | yi2 − ||x||2 ||y||2 6 0, ce qui est l’inégalité cherchée. – Supposons maintenant que l’inégalité soit une égalité. Alors le discriminant est nul, donc la fonction f admet une racine (double) λ. La propriété f (λ) = 0 s’écrit ||x + λy|| = 0, d’où l’on déduit que x = −λy : les vecteurs sont colinéaires. – Réciproquement, supposons que les vecteurs soient colinéaires. Notons t le réel tel que x = ty (ce qui est possible car on sait que y est non nul). On a alors ||x||||y|| = ||ty||||y|| = |t|||y||2 et hx | yi = hty | yi = t||y||2 , donc – si x et y sont de même sens (i.e. t > 0), on a égalité à droite dans l’inégalité de Cauchy-Schwarz 5.1. Produit scalaire et orthogonalité 69 – si x et y sont de sens opposés (i.e. t 6 0), on a égalité à gauche dans l’inégalité de CauchySchwarz. Théorème (inégalités triangulaires) Soient x, y ∈ E. On a ||x|| − ||y|| 6 ||x + y|| 6 ||x|| + ||y|| avec égalité à – droite si, et seulement si, x et y sont colinéaires et de même sens (au sens large) – gauche si, et seulement si, x et y sont colinéaires et de sens opposés. Démonstration. On a, grâce à l’inégalité de Cauchy-Schwarz : ||x + y||2 = ||x||2 + ||y||2 + 2hx | yi 6 ||x||2 + ||y||2 + 2||x|| · ||y|| = (||x|| + ||y||)2 , d’où l’inégalité ||x + y|| 6 ||x|| + ||y||, avec égalité si, et seulement si, on est dans le cas d’égalité à droite dans l’inégalité de Cauchy-Schwarz, i.e. si, et seulement si, x et y sont colinéaires et de même sens. De même, on a (||x|| − ||y||)2 = ||x||2 + ||y||2 − 2||x|| · ||y|| 6 ||x||2 + ||y||2 + 2hx | yi = ||x + y||2 , d’où l’autre inégalité, avec égalité si, et seulement si, x et y sont colinéaires et de sens opposés (au sens large). 5.1.2 Orthogonalité Dans tout ce paragraphe, E désigne un espace préhilbertien. Définition (orthogonalité) Deux vecteurs x, y ∈ E sont dits orthogonaux si, et seulement si, hx | yi = 0. On note x ⊥ y. Remarque 1. Le vecteur nul est orthogonal à tous les vecteurs, et c’est le seul à vérifier cette propriété (c’est donc une façon de montrer qu’un vecteur est nul : démontrer qu’il est orthogonal à tout vecteur de E). Définition (familles orthogonales et orthonormées) Une famille (xi )i∈I de vecteurs de E est dite – orthogonale si, et seulement si, xi ⊥ xj pour tous i, j ∈ I, i 6= j – orthonormée si, et seulement si : ∀i, j ∈ I, hxi | xj i = δij . Une famille orthonormée est donc une famille orthogonale dont les vecteurs sont tous unitaires. Exemple 1. La base canonique de Rn , muni de son produit scalaire canonique, est une base orthonormée. Exemple 2. La base canonique de R[X], muni de son produit scalaire canonique, est une base orthonormée. Proposition Une famille orthogonale dont tous les vecteurs sont non nuls est libre. C’est en particulier le cas d’une famille orthonormée. Démonstration. Soit (xi )i∈I une famille P orthogonale dont aucun vecteur n’est nul. Soit (λi )i∈I une famille à support fini de scalaires telle que i∈I λi xi = 0. Soit j ∈ I : on a P P 0 = h i∈I λi xi | xj i = i∈I λi hxi | xj i = λj ||xj ||2 . Le vecteur xj étant non nul, on en déduit que λj = 0. Ceci étant vrai pour tout j ∈ I, la famille est libre. 70 Chapitre 5. Espaces euclidiens. Endomorphismes symétriques et orthogonaux. Théorème (Pythagore) Soit x1 , x2 deux vecteurs de E. On a l’équivalence suivante : x1 ⊥ x2 ⇐⇒ ||x1 + x2 ||2 = ||x1 ||2 + ||x2 ||2 . Démonstration. En effet, la différence ||x1 + x2 ||2 − (||x1 ||2 + ||x2 ||2 ) = ||x1 ||2 + ||x2 ||2 − 2hx1 | x2 i − ||x1 ||2 − ||x2 ||2 = 2hx1 | x2 i est nulle si, et seulement si, x1 et x2 sont orthogonaux. Théorème (Pythagore) Soit (x1 , . . . , xn ) une famille orthogonale (n > 2). Alors ||x1 + · · · + xn ||2 = ||x1 ||2 + · · · + ||xn ||2 . La réciproque est fausse si n > 2. Démonstration. Procédons par récurrence sur n. – Pour n = 2, la propriété est vraie. – Soit n > 2. Supposons la propriété vraie pour une famille de n vecteurs, démontrons-la pour une famille (x1 , . . . , xn+1 ) de n + 1 vecteurs. Pour cela, remarquons que le vecteur xn+1 est orthogonale à la somme x1 + · · · + xn : hx1 + · · · + xn | xn+1 i = hx1 | xn+1 i + · · · + hxn | xn+1 i = 0. On a donc, en appliquant successivement le cas n = 2 et l’hypothèse de récurrence : ||(x1 + · · · + xn ) + xn+1 ||2 = ||x1 + · · · + xn ||2 + ||xn+1 ||2 = ||x1 ||2 + · · · + ||xn ||2 + ||xn+1 ||2 ce qui prouve la propriété au rang n + 1, donc pour tout entier pour récurrence. Définition (orthogonal d’un sous-espace vectoriel) Soit F un sous-espace vectoriel de E. L’orthogonal de F est l’ensemble F ⊥ des vecteurs orthogonaux à tous les vecteurs de F : F ⊥ = {x ∈ E | ∀y ∈ F, x ⊥ y}. Proposition L’orthogonal d’un sous-espace vectoriel F est encore un sous-espace vectoriel de E. Démonstration. Il est clair que – le vecteur nul est orthogonal à tous les vecteurs de F – si x1 et x2 sont deux vecteurs orthogonaux à tous les vecteurs de F et λ un réel, alors, pour tout vecteur y ∈ F , on a hx1 + λx2 | yi = hx1 | yi + λhx2 | yi = 0 donc x1 + λx2 appartient à F ⊥ . Exemple 3. L’orthogonal de l’espace nul est l’espace E ; l’orthogonal de l’espace E est l’espace nul. Remarque 2. Si F et G sont deux sous-espaces vectoriels de E vérifiant F ⊂ G, on a G⊥ ⊂ F ⊥ . Définition (sous-espaces orthogonaux) Deux sous-espaces vectoriels F et G sont dits orthogonaux si, et seulement si, pour tout x ∈ F et tout y ∈ G, on a x ⊥ y. On note F ⊥ G. 5.2. Espaces euclidiens 71 Remarque 3. Il est équivalent de dire que F ⊂ G⊥ , ou encore que G ⊂ F ⊥ . Proposition Soient F, G deux sous-espaces vectoriels orthogonaux. Alors F ∩ G = {0}. Démonstration. Soit x un vecteur de F ∩G. Ce vecteur appartient à F , donc est orthogonal à tout vecteur de G, donc à lui-même. Donc x = 0. Si F et G sont deux sous-espaces vectoriels orthogonaux, la somme F + G est donc directe ; elle est ⊥ G et on parle de somme directe orthogonale. notée F Proposition Soit F un sous-espace vectoriel de E. Si E = F ⊕ F ⊥ , alors F ⊥ est le seul supplémentaire de F qui soit orthogonal à F . ⊥ F ⊥ ). Soit G un sous-espace vectoriel de E Démonstration. Supposons E = F ⊕ F ⊥ (donc E = F ⊥ ⊥ G. Alors F ⊥ G, donc G ⊂ F . Pour l’autre inclusion, choisissons un vecteur x ∈ F ⊥ . vérifiant E = F ⊥ G. Comme G ⊂ F ⊥ , cette Écrivons sa décomposition x = xF + xG sur la somme directe E = F ⊥ F ⊥ . Mais cette dernière décomposition est aussi la décomposition de x sur la somme directe E = F est x = 0 + x. On en déduit donc que x = xG , donc que x appartient à G. Définition (supplémentaire orthogonal ; projecteur orthogonal) ⊥ F ⊥ , l’espace F ⊥ est appelé le supplémentaire orthogonal de F . Le projecteur sur F Si E = F parallèlement à F ⊥ est appelé projecteur orthogonal sur F . Attention! En général, la relation E = F ⊕ F ⊥ est fausse ; seule l’inclusion F ⊕ F ⊥ ⊂ E est vraie. Si F est un sous-espace vectoriel quelconque de E, on ne peut donc en général pas parler du projecteur orthogonal sur F . Proposition Toute droite vectorielle admet un supplémentaire orthogonal. Si a est un vecteur unitaire de D, le projecteur orthogonal sur D est l’application x 7→ pD (x) = ha | xia. Démonstration. Soit D une droite de E. Il s’agit de démontrer que tout vecteur x ∈ E peut se décompose de façon unique sous la forme x = xD + x⊥ , où xD appartient à D et x⊥ est orthogonal à D. Pour cela, choisissons un vecteur a unitaire de D. Pour tout vecteur x ∈ E, posons xD = ha | xia et x⊥ = x − xD . On a clairement xD ∈ D. De plus, ha | x⊥ i = ha | x − ha | xiai = ha | xi − ha | xi||a||2 = 0, ce qui prouve que x⊥ ∈ D⊥ . L’unicité de la décomposition résulte de ce que D ∩ D⊥ = {0}. 5.2 Espaces euclidiens 5.2.1 Bases orthonormées Définition Un espace eucliden est un espace préhilbertien de dimension finie. Théorème Tout espace euclidien admet une base orthonormée. 72 Chapitre 5. Espaces euclidiens. Endomorphismes symétriques et orthogonaux. Démonstration. Procédons par récurrence sur la dimension n de E. – Pour n = 1, il suffit de choisir un vecteur non nul de E et de le diviser par sa norme pour obtenir une base orthonormée. – Soit n > 1. Supposons le résultat vrai pour tout espace euclidien de dimension n et considérons un espace euclidien E de dimension n + 1. Choisissons un vecteur e1 unitaire de E et considérons le sousespace H = Vect(e1 )⊥ (toute droite admet un supplémentaire orthogonal) : il est de dimension n, donc admet une base orthonormée par hypothèse de récurrence. En ajoutant le vecteur e1 à une telle base, on obtient une base orthonormée de E. Théorème (expression du produit scalaire et de la norme en base orthonormée) Soit B = (e1 , . . . , en ) une base orthonormée de l’espace euclidien E. Soient x = x1 e1 + · · · + xn en et y = y1 e1 + · · · + yn en ∈ E. Alors hx | yi = x1 y1 + · · · + xn yn et ||x||2 = x21 + · · · + x2n . Démonstration. Par bilinéarité et symétrie du produit scalaire, on a hx | yi = X xi yj hei | ej i = i,j n X xi yi . i=1 L’autre formule s’en déduit immédiatement. Attention! Ces formules ne sont vraies que parce que les coordonnées sont exprimées dans une base orthonormée. Remarque 1. En notant X = matB (x) et Y = matB (y) (où B est toujours une base orthonormée), cette formule s’écrit encore, via l’identification d’une matrice (1, 1) à son unique coefficient : hx | yi = X T Y. Théorème (coordonnées en base orthonormée) Soit (e1 , . . . , en ) une base orthonormée de E. Pour tout vecteur x ∈ E, on a x = n X hek | xiek . k=1 Démonstration. Écrivons x = x1 e1 + · · · + xn en . En prenant le produit scalaire de cette égalité avec le vecteur ek , on trouve xk = hek | xi. 5.2.2 Projecteurs orthogonaux, supplémentaire orthogonal Théorème (supplémentaire orthogonal d’un sous-espace de dimension finie) Soit E un espace préhilbertien (pas nécessairement de dimension finie) et F un sous-espace vectoriel de dimension finie de E. Alors F admet un supplémentaire orthogonal. Si B = (e1 , . . . , en ) est une base orthonormée de F , le projecteur orthogonal pF sur F est pF : x 7→ n X hei | xiei . i=1 Démonstration. Soit B = (e1 , . . . , en ) une Pn base orthonormée de F . Soit x un vecteur de E. Posons xF = i=1 hei | xiei et y = x − xF . Le vecteur xF appartient à F . De plus, pour tout j ∈ [[1, n]], on a hej | yi = hej | xi − n X hei | xihej | ei i = hej | xi − hej | xi = 0, i=1 donc le vecteur y est orthogonal à tout vecteur de F , donc appartient à F ⊥ . On a donc l’égalité E = ⊥ F ⊥ . Le projeté orthogonal de x sur F est xF . F + F ⊥ , donc E = F 73 5.2. Espaces euclidiens Remarque 1. Si la famille (e1 , . . . , en ) est seulement une base orthogonale de F , le projecteur orthogonal pF est défini par n X hei | xi pF : x 7−→ pF (x) = ei . ||ei ||2 i=1 En effet, la famille ||ee11 || , . . . , ||eenn || est une base orthonormée de F . Proposition Soit E un espace euclidien. Pour tout sous-espace vectoriel F de E, on a – dim(E) = dim(F ) + dim(F ⊥ ) – (F ⊥ )⊥ = F . Démonstration. La première formule résulte de ce que F ⊥ est un supplémentaire de F ; la seconde est ⊥ F ⊥ montre que F est un supplémentaire orthogonal de F ⊥ , c’est donc son vraie car l’égalité E = F supplémentaire orthogonal, i.e. (F ⊥ )⊥ . Définition (distance à un sous-espace vectoriel) Soit x un vecteur d’un espace préhilbertien E et F un sous-espace vectoriel de E. La distance de x à F est d(x, F ) = inf d(x, y) = inf ||x − y||. y∈F y∈F Théorème (distance à un sous-espace vectoriel de dimension finie) Soit F un sous-espace vectoriel de dimension finie de E et x un vecteur de E. Il existe un unique vecteur y ∈ F tel que d(x, F ) = d(x, y) : c’est y = pF (x). Démonstration. Soit y un vecteur de E. On a, par le théorème de Pythagore : d(x, y)2 = ||x − y||2 = ||(x − pF (x)) + (pF (x) − y)||2 = ||x − pF (x)||2 + ||pF (x) − y||2 > ||x − pF (x)||2 , avec égalité si, et seulement si, y = pF (x). Remarque 2. Avec les notations du théorème, on a donc ||x||2 = ||pF (x)||2 + d(x, F )2 . Théorème (orthonormalisation de Gram-Schmidt) Soit B = (e1 , . . . , en ) une base de l’espace euclidien E. Il existe une base orthonormée C = (ε1 , . . . , εn ) telle que ∀p ∈ [[1, n]], Vect(ε1 , . . . , εp ) = Vect(e1 , . . . , ep ). La base C est l’orthonormalisée de la base B. Démonstration. On construit les vecteurs par étapes. – Le vecteur ε1 = ||e11 || e1 est unitaire et colinéaire à e1 . – Soit p ∈ [[1, n − 1]]. Supposons construite une base orthonormée (ε1 , . . . , εp ) de Vect(e1 , . . . , ei ). Posons alors p X 1 fp+1 = ep+1 − hεk | ep+1 iεk et εp+1 = fp+1 . ||fp+1 || k=1 On vérifie immédiatement que le vecteur fp+1 est dans Vect(e1 , . . . , ep+1 ) et orthogonal à Vect(e1 , . . . , ep ) = Vect(ε1 , . . . , εp ), donc que (ε1 , . . . , εp+1 ) est une base orthonormée de Vect(e1 , . . . , ep+1 ). Remarque 3. Le vecteur fp+1 est le «redressé» du vecteur ep+1 orthogonalement à Vect(e1 , . . . , ep ) : on lui a retranché sa projection orthogonale sur Vect(e1 , . . . , ep ). 74 Chapitre 5. Espaces euclidiens. Endomorphismes symétriques et orthogonaux. Remarque 4. On se contente parfois de calculer la famille orthogonale des vecteurs fk pour éviter de faire apparaître les racines carrées liées aux normes. Dans ce cas, le projeté orthogonal de ep+1 sur Vect(e1 , . . . , ep ) se calcule par la formule p X hfk | ep+1 i fk ||fk ||2 k=1 (ne pas oublier que le vecteur fk n’est pas unitaire !). 5.3 5.3.1 Automorphismes orthogonaux ; matrices orthogonales Automorphismes orthogonaux (isométries) Dans tout ce paragraphe, E désigne un espace euclidien (donc de dimension finie). Définition Un endomorphisme f de E est dit orthogonal (on dit aussi que c’est une isométrie) si, et seulement si, ∀x, y ∈ E, hf (x) | f (y)i = hx | yi. On note O(E) l’ensemble des endomorphismes orthogonaux. Autrement dit, c’est une application linéaire qui «respecte le produit scalaire». Théorème Tout endomorphisme orthogonal de E est un automorphisme. De plus, l’ensemble O(E) est un sousgroupe du groupe linéaire GL(E). Démonstration. Si x est un vecteur du noyau de f ∈ O(E), il vérifie hx | xi = hf (x) | f (x)i = 0, donc x = 0 : l’endomorphisme f est injectif, donc bijectif (car E est de dimension finie). Il est ensuite clair que l’application IdE est un automorphisme orthogonal, que la composée de deux automorphismes orthogonaux en est encore un, de même que la bijection réciproque d’une automorphisme orthogonal. Théorème (caractérisation des automorphismes orthogonaux par la norme) Un endomorphisme f ∈ L(E) est un automorphisme orthogonal si, et seulement si, il vérifie ∀x ∈ E, ||f (x)|| = ||x||. Démonstration. Il est clair que si f est un automorphisme orthogonal, il conserve la norme des vecteurs. Réciproquement, supposons que f préserve la norme de tous les vecteurs. L’identité de polarisation hx | yi = 1 (||x + y||2 − ||x||2 − ||y||2 ) 2 donne, pour tous vecteurs x, y ∈ E : 1 ||f (x) + f (y)||2 − ||f (x)||2 − ||f (y)||2 2 1 = ||f (x + y)||2 − ||x||2 − ||y||2 2 1 = ||x + y||2 − ||x||2 − ||y||2 = hx | yi, 2 hf (x) | f (y)i = ce qui prouve que f est un automorphisme orthogonal. Remarque 1. Cette propriété justifie la terminologie isométrie : les automorphismes orthogonaux sont ceux qui conservent la norme (longueur) des vecteurs. 5.3. Automorphismes orthogonaux ; matrices orthogonales 75 Exemple 1. Soit F un sous-espace vectoriel de E et s la symétrie orthogonale par rapport à F (la symétrie par rapport à F parralèlement à F ⊥ ). Alors s est une isométrie. En effet, soit x un vecteur de E et x = xF + xF ⊥ sa décompositon sur la somme directe. On a s(x) = xF − xF ⊥ , d’où (théorème de Pythagore) ||s(x)||2 = ||xF − xF ⊥ ||2 = ||xF ||2 + ||xF ⊥ ||2 = ||xF + xF ⊥ ||2 = ||x||2 . Dans le cas où l’espace F est de dimension n − 1 (où n = dim E), on dit que s est une réflexion. Ainsi, une réflexion – plane est une symétrie orthogonale par rapport à une droite ; – de l’espace (de dimension 3) est une symétrie orthogonale par rapport à un plan. Théorème (caractérisation des automorphismes orthogonaux par l’action sur les bases orthonormées) Soit f ∈ L(E). Les assertions suivantes sont équivalentes : 1. f ∈ O(E). 2. Il existe une base orthonormée (e1 , . . . , en ) de E telle que f (e1 ), . . . , f (en ) soit une base orthonormée de E. 3. Pour toute base orthonormée (e1 , . . . , en ) de E, f (e1 ), . . . , f (en ) est une base orthonormée de E. Démonstration. 1) =⇒ 3) : soit (e1 , . . . , en ) une base orthonormée de E. Pour tous i, j ∈ [[1, n]], on a hf (ei ) | f (ej )i = hei | ej i = δi,j donc f (e1 ), . . . , f (en ) est une base orthonormée. 3) =⇒ 2) : évident. Pn 2) =⇒ 1) : soit (e1 , . . . , en ) une telle base orthonormée. Pour tout x = i=1 xi ei , on a pPn Pn Pn 2 ||f (x)|| = ||f ( i=1 xi ei )|| = || i=1 xi f (ei )|| = i=1 xi = ||x|| donc f est orthogonal. Proposition (espaces stables) Soit f un automorphisme orthogonal de E et F un sous-espace stable par f . Alors l’espace F ⊥ est stable par f . De plus, les endomorphismes induits par f sur F et F ⊥ sont encore des automorphismes orthogonaux. Démonstration. Commençons par remarquer que l’endomorphisme fF induit par f sur F est un isomorphisme : en effet, il est injectif (car f l’est) et F est de dimension finie. Comme f conserve la norme des vecteurs, il en est de même de fF , donc c’est un automorphisme orthogonal de F . Montrons maintenant que F ⊥ est stable par f . Pour cela, soit x un vecteur de F ⊥ : il s’agit de démontrer que f (x) appartient encore à F ⊥ , i.e. qu’il est orthogonal à tout vecteur de F . Soit donc y un vecteur de F . Choisissons un vecteur t ∈ F tel que y = f (t) (l’endomorphisme fF est bijectif). On a hf (x) | yi = hf (x) | f (t)i = hx | ti = 0, donc f (x) ∈ F ⊥ . Cet espace étant stable par f , l’endomorphisme induit par f sur F ⊥ est un automorphisme orthogonal. 76 Chapitre 5. Espaces euclidiens. 5.3.2 Endomorphismes symétriques et orthogonaux. Matrices orthogonales Théorème (caractérisation matricielle des automorphismes orthogonaux) Soit f ∈ L(E), B une base orthonormée et A = matB (f ). Les assertions suivantes sont équivalentes : 1. f ∈ O(E). 2. AT A = In . 3. AAT = In . Démonstration. Les deux assertions 2) et 3) sont clairement équivalentes ; elles signifient que A est inversible, d’inverse AT . Démontrons donc l’équivalence de 1) et 2). Notons (e1 , . . . , en ) la base orthonormée B et C = AT A. La colonne Cj (A) de A est matB (f (ej )) ; le coefficient ci,j de la matrice C est égal à Li (AT )Cj (A) = CiT (A)Cj (A). Comme la base est orthonormée, ce nombre est le produit scalaire hf (ei ) | f (ej )i. Par suite, la matrice AT A est égale à la matrice In si, et seulement si, on a hf (ei ) | f (ej )i = δi,j pour tous i, j, i.e. si, et seulement si, la famille f (e1 ), . . . , f (en ) est une base orthonormée, ce qui équivaut à f ∈ O(E). Définition (matrice orthogonale) Une matrice A ∈ Mn (R) est dite orthogonale si, et seulement si, elle vérifie AT A = In (ce qui équivaut à AAT = In ). On note On (R) l’ensemble {A ∈ Mn (R) | AT A = In } des matrices orthogonales. Un endomorphisme de E est donc un automorphisme orthogonal si, et seulement si, sa matrice dans une base orthonormée (donc dans toute base orthonormée) est orthogonale. Tout comme O(E) est un sous-groupe de GL(E), l’ensemble On (R) est un sous-groupe de GLn (R). Remarque 1. La matrice AT A est symétrique ; il n’est donc pas nécessaire de calculer tous ses coefficients pour savoir si AT A = In . Par ailleurs, le coefficient d’indice (i, j) de cette matrice est le produit scalaire de la ième colonne de A avec la j ème colonne. La matrice est donc orthogonale si, et seulement si, ses colonnes sont deux à deux orthogonales, et unitaires. Exemple 1. La matrice 1 A = 0 0 0 √ 3 2 1 2 0 1 − √2 3 2 vérifie 3 1 ||C1 || = 1, ||C2 || = ||C3 || = + = 1 4 4 2 2 2 √ et √ 3 3 hC1 | C2 i = hC1 | C3 i = 0, hC2 | C3 i = − + =0 4 4 donc A est une matrice orthogonale. Théorème (déterminant d’une matrice orthogonale, d’un automorphisme orthogonal) Soit A une matrice orthogonale. Alors | det(A)| = 1. Soit f un automorphisme orthogonal. Alors | det(f )| = 1. Démonstration. La matrice A vérifie AT A = In , d’où l’on tire det(AT A) = det(In ) = 1. Or det(AT A) = det(AT ) det(A) = det(A)2 , donc det(A)2 = 1. Pour l’automorphisme orthogonal f , il suffit d’écrire sa matrice M dans une base orthonormée : c’est une matrice orthogonale, donc son déterminant vérifie | det(f )| = | det(M )| = 1. Attention! Une matrice A vérifiant det(A) = ±1 n’est en général pas une matrice orthogonale ! Par exemple, la matrice A = [ 10 11 ] a pour déterminant 1 mais n’est pas orthogonale (les deux colonnes ne sont pas orthogonales). 5.3. Automorphismes orthogonaux ; matrices orthogonales 77 Définition (automorphismes orthogonaux directs et indirects) Un automorphisme orthogonal f est dit direct si, et seulement si, det(f ) = 1. On dit encore que f est un automorphisme spécial orthogonal. On note SO(E) = O+ (E) l’ensemble des automorphismes orthogonaux directs. Dans le cas contraire (i.e. si det(f ) = −1), l’automorphisme orthogonal f est dit indirect. On note O− (E) l’ensemble des automorphismes orthogonaux indirects. Exemple 2. Une réflexion (symétrie orthogonale par rapport à un sous-espace de dimension n − 1) est un automorphisme orthogonal indirect : dans une base adaptée, sa matrice est diagonale et comporte n − 1 occurrences du coefficient 1 et une seule du coefficient −1. Proposition L’ensemble SO(E) est un sous-groupe du groupe orthogonal O(E) de E, appelé groupe spécial orthogonal de E. Démonstration. L’application IdE appartient à SO(E) ; les formules det(g ◦ f ) = det(g) det(f ) et det(f −1 ) = det(f )−1 montrent immédiatement que, f, g appartiennent à SO(E), il en est de même de g ◦ f et f −1 . Attention! L’ensemble O− (E) n’est pas un groupe ! La composée de deux automorphismes orthogonaux indirects est un automorphisme orthogonal direct. Définition (matrices orthogonales directes et indirectes) Une matrice orthogonale A est dite directe si, et seulement si, det(A) = 1. On dit encore que A est une matrice spéciale orthogonale. On note SOn (R) = O+ n (R) l’ensemble des matrices orthogonales directes. Dans le cas contraire (i.e. si det(A) = −1), la matrice orthogonale A est dite indirecte. On note O− n (R) l’ensemble des matrices orthogonales indirectes. Un automorphisme orthogonal f de E est direct (resp. indirect) si, et seulement si, sa matrice A exprimée dans une base orthonormée directe de E est orthogonale directe (resp. indirecte). Plus précisément, si B est une base orthonormée directe de E, l’isomorphisme de groupes O(E) −→ f 7−→ On (R) matB (f ) − − envoie O+ (E) sur O+ n (R) et O (E) sur On (R). L’ensemble SOn (R) est un sous-groupe de On (R), alors − que On (R) n’en est pas un. Proposition (matrices de changement de base orthogonale) Soit B une base orthonormée de E et C une autre base. Notons P la matrice de passage de la base B à la base C . Alors C est une base orthonormée de E si, et seulement si, P est une matrice orthogonale. Si c’est le cas, la base C est de même orientation que la base B si, et seulement si, la matrice P est spéciale orthogonale. Démonstration. Notons ei les vecteurs de la base B et εi les vecteurs de la base C . La ième colonne Xi de la matrice P est la matrice matB (εi ). La base B étant orthonormée, on a, pour tous i, j : hεi | εj i = XiT Xj . Ainsi, la base C est orthonormée si, et seulement si, les colonnes de la matrice P sont deux à deux orthogonales et unitaires, i.e. si, et seulement si, la matrice P est orthogonale. 78 Chapitre 5. Espaces euclidiens. Endomorphismes symétriques et orthogonaux. Ceci a une conséquence très intéressante sur le déterminant. Nous savons que le déterminant d’une famille de vecteurs n’est pas défini de façon intrinsèque : il dépend de la base utilisée pour calculer le déterminant. Ce problème disparaît lorsque l’on se limite à certaines bases : Théorème (déterminant en base orthonormée directe) On suppose l’espace E orienté de dimension n. Si B1 et B2 sont deux bases orthonormées directes, alors, pour toute famille (x1 , . . . , xn ) de E, on a detB1 (x1 , . . . , xn ) = detB2 (x1 , . . . , xn ). Démonstration. En effet, en notant P la matrice de passage de la base B1 à la base B2 , on a detB1 (x1 , . . . , xn ) = det(P ) detB2 (x1 , . . . , xn ), et la matrice P est spéciale orthogonale, donc de déterminant égale à 1. 5.3.3 Isométries planes Dans le cas où l’espace euclidien E est un plan, il est facile de donner la description de toutes les isométries, directes comme indirectes. Pour ce faire, commençons par déterminer toutes les matrices orthogonales de taille 2, directes comme indirectes. Théorème Soit A ∈ M2 (R). Alors a 1. A ∈ SO2 (R) si, et seulement si, il existe a, b ∈ R tels que a + b = 1 et A = b −b ; a a 2. A ∈ O2 (R) \ SO2 (R) si, et seulement si, il existe a, b ∈ R tels que a2 + b2 = 1 et A = b 2 2 b . −a a b c ∈ M2 (R). La première colonne est unitaire, donc a2 + b2 = 1. la d −b −b seconde est orthogonale à la première, donc colinéaire à . Comme elle est unitaire, c’est ± . a a a −b a b Ainsi, toute matrice orthogonale est de la forme ou , où a2 + b2 = 1. Réciproquement, b a b −a on vérifie immédiatement que ces matrices sont orthogonales pour tous réels a, b tels que a2 + b2 = 1, de déterminant 1 pour le premier type, −1 pour le second. Démonstration. Soit A = Corollaire Soit A ∈ M2 (R). − sin θ . cos θ cos θ sin θ 2. Si A ∈ O2 (R) \ SO2 (R), il existe un réel θ, unique modulo 2π, tel que A = . On sin θ − cos θ a alors A2 = I2 . 1. Si A ∈ SO2 (R), il existe un réel θ, unique modulo 2π, tel que A = cos θ sin θ De cette description des matrices orthogonales, on déduit la description des automorphismes orthogonaux. Pour cela, plaçons-nous désormais dans un plan E euclidien orienté. Lemme Soit ϕ ∈ SO(E). Ilexiste un réel θ, unique modulo 2π, tel que pour toute base orthonormée directe B, cos θ − sin θ on ait matB (ϕ) = . sin θ cos θ 5.3. Automorphismes orthogonaux ; matrices orthogonales 79 Démonstration. Soit B1 une base orthonormée directe et A = matB1 (ϕ). Soit θ le réel, unique modulo 2π, tel que cos θ − sin θ A= . sin θ cos θ Il s’agit de montrer que, si B2 est une autre base orthonormée directe, on a encore cos θ − sin θ matB2 (ϕ) = . sin θ cos θ La matrice de passage P de B1 à B2 étant spéciale orthogonale (B1 et B2 sont deux bases orthonormées directes), elle est de la forme cos α − sin α P = . sin α cos α On a alors −1 cos α − sin α cos θ − sin θ cos α − sin α matB2 (ϕ) = · · sin α cos α sin θ cos θ sin α cos α cos(−α) − sin(−α) cos(θ + α) − sin(θ + α) = · sin(−α) cos(−α) sin(θ + α) cos(θ + α) cos θ − sin θ = sin θ cos θ Définition (rotation) Soit θ ∈ R. L’application ϕ ∈ SO(E) telle que pour toute base orthonormée directe B, on ait cos θ − sin θ matB (ϕ) = est appelée rotation d’angle θ ; on la note ρθ . Le réel θ est une mesure de sin θ cos θ l’angle de la rotation. On a donc le Théorème Les éléments de SO(E) sont les rotations. Pour tous θ1 , θ2 ∈ R, on a ρθ1 ρθ2 = ρθ2 ρθ1 = ρθ1 +θ2 et ρ−1 θ1 = ρ−θ1 . La formule sur les compositions et l’inverse résulte des calculs faits sur les matrices dans la démonstration du lemme. Deux rotations ρθ1 et ρθ2 sont égales si, et seulement si, θ2 ≡ θ1 [2π]. Expression complexe d’une rotation Soit B = (e1 , e2 ) une base orthonormée directe de E. À tout vecteur u = xe1 + ye2 , on associe son affixe z = x + iy. Le calcul matriciel cos θ − sin θ x cos θx − sin θy = sin θ cos θ y sin θx + cos θy montre que le vecteur ρθ (u) a pour coordonnées (dans la base B) (cos θx − sin θy, sin θx + cos θy). Mais ces coordonnées apparaissent aussi dans le calcul de z 0 = eiθ z = (cos θ + i sin θ)(x + iy) = (cos θx − sin θy) + i(sin θx + cos θy). Ce complexe z 0 est donc l’affixe du vecteur ρθ (u). On dit que l’écriture z 0 = eiθ z est l’écriture complexe de la rotation ρθ . 80 Chapitre 5. Espaces euclidiens. Endomorphismes symétriques et orthogonaux. Angle de deux vecteurs Lemme Soient u, v ∈ E deux vecteurs unitaires. Il existe une unique rotation ρ de E telle que ρ(u) = v. Démonstration. Soit e1 = u et e2 l’unique vecteur tel que B = (e1 , e2 ) soit une base orthonormée directe. On a u = e1 et v = ae1 + be2 , avec a2 + b2 = 1. On cherche ρ ∈ SO(E) tel que ρ(u) = v.Sa matrice A a a −b dans la base B orthonormée doit donc avoir pour première colonne, donc A = . Ceci prouve b b a l’unicité d’une telle rotation. Réciproquement, la rotation ρ définie par cette matrice dans la base B répond à la question. ~v = ρθ (~u) θ ~u ~0 Figure 5.1 – angle de deux vecteurs Définition Soient U, V deux vecteurs non nuls de E et u = ||U1 || U , v = ||V1 || V . L’angle orienté de U et V , noté \ (U, V ) est l’angle de l’unique rotation ρ vérifiant ρ(u) = v. Par abus, on appelera encore angle orienté de u et v toute mesure de cet angle (alors définie modulo 2π). Des résultats sur les rotations, on déduit le Théorème Soient U, V, W trois vecteurs non nuls de E. Alors \ \ \ 1. (U, W ) ≡ (U, V ) + (V, W ) [2π] (relation de Chasles) ; \ \ 2. (V, U ) ≡ −(U, V ) [2π] ; \ \ 3. (U, −V ) ≡ (U, V ) + π [2π]. θ w ~ −θ ~0 ~v θ1 + θ2 ~v ~u θ2 θ1 ~u ~0 Figure 5.2 – opposé d’un angle et somme de deux angles Démonstration. Il suffit de prouver ces trois assertions pour des vecteurs unitaires u, v et w. Notons [ \ \ θ1 = (u, v), θ2 = (v, w) et θ3 = (u, w) (i.e. des mesures de ces angles). Alors 1. ρθ1 +θ2 (u) = ρθ1 (ρθ2 (u)) = ρθ1 (v) = w donc θ3 ≡ θ1 + θ2 [2π] ; [ 2. ρ−θ1 (v) = ρ−θ1 (ρθ1 (u)) = ρ−θ1 +θ1 (u) = ρ0 (u) = u donc (v, u) ≡ −θ1 [2π] ; \ 3. ρθ1 +π (u) = −ρθ1 (u) = −v donc (u, −v) ≡ θ1 [2π]. 5.3. Automorphismes orthogonaux ; matrices orthogonales 81 Détermination pratique (d’une mesure) de l’angle \ Soient U, V deux vecteurs non nuls. Connaître une mesure θ de l’angle (U, V ) revient à connaître cos θ et sin θ. Pour cela, on a le Théorème Soit B une base orthonormée directe de E. On a les égalités hU | V i = ||U || · ||V || cos θ et detB (U, V ) = ||U || · ||V || sin θ. . Soit e1 = u et e2 tel que B = (e1 , e2 ) soit une base \ orthonormée directe. Soit enfin θ une mesure de l’angle (U, V ) et ρ la rotation d’angle θ. Celle-ci vérifie ρ(u) = v, donc v = ρ(u) = ρ(e1 ) = cos θe1 + sin θe2 . Comme on a u = e1 et que B = (e1 , e2 ) est une base 1 cos θ = sin θ, d’où la formule souhaitée. orthonormée directe, on a hu | vi = cos θ et detB (u, v) = 0 sin θ Démonstration. Soient u = 1 ||U || U et v = 1 ||V || V En particulier, les vecteurs U et V sont \ – orthogonaux si, et seulement si, (U, V)≡ π 2 [π] \ – colinéaires si, et seulement si, (U, V ) ≡ 0 [π] Corollaire Soit ρ la rotation d’angle θ et B une base orthonormée directe de E. Pour tout vecteur unitaire u, on a cos θ = hu | ρ(u)i De plus, on a cos θ = 1 2 et sin θ = detB u, ρ(u) . Tr(ρ). \ Démonstration. En effet, ρ(u) est un vecteurunitaire qui vérifie (u, ρ(u)) ≡ θ [2π]. Par ailleurs, la matrice cos θ − sin θ de ρ dans une base orthonormée directe est , d’où la trace. sin θ cos θ Isométries planes indirectes Théorème Les isométries indirectes du plan E sont les réflexions. La composée de deux réflexions est une rotation. Démonstration. Soit f une isométrie indirecte et B une base orthonormée directe de E. La matrice A = matB (f ) vérifie A2 = I2 , donc f est une symétrie. Ce ne peut être ni IdE ni − IdE (sinon, on aurait det(f ) = 1) ; donc c’est une symétrie par rapport à une droite D1 , parallèlement à une droite D2 . Notons ui un vecteur directeur de Di : la relation hu1 | u2 i = hf (u1 ) | f (u2 )i = hu1 | −u2 i = −hu1 | u2 i montre que ces vecteurs sont orthogonaux : f est une symétrie orthogonale. Enfin, la composée de deux réflexions est une isométrie directe, donc une rotation. 82 Chapitre 5. Espaces euclidiens. 5.4 Endomorphismes symétriques 5.4.1 Définition et premières propriétés Endomorphismes symétriques et orthogonaux. Définition (endomorphisme symétrique) Un endomorphisme f d’un espace euclidien est dit symétrique si, et seulement si, il vérifie : ∀x, y ∈ E, hf (x) | yi = hx | f (y)i. Exemple 1. L’application identité ; plus généralement, toute homothétie de E est un endomorphisme symétrique. Proposition L’ensemble des endomorphismes symétriques de E est un sous-espace vectoriel de L(E). Démonstration. C’est immédiat. Théorème (caractérisation des projecteurs et symétries orthogonales) Soient p un projecteur et s une symétrie d’un espace euclidien E. Alors – p est un projecteur orthogonal si, et seulement si, il est symétrique – s est une symétrie orthogonale si, et seulement si, elle est symétrique. Démonstration. Soit E = F ⊕ G une décomposition de l’espace E en somme directe, p le projecteur sur F parallèlement à G et s la symétrie par rapport à F parallèlement à G. – Supposons que p est un endomorphisme symétrique. Soient xF ∈ F et xG ∈ G. On a hxF | xG i = hp(xF ) | xG i = hxF | p(xG )i = hxF | 0i = 0, ce qui prouve que l’espace F est orthogonal à l’espace G, donc que p est un projecteur orthogonal. – Réciproquement, supposons que p est un projecteur orthogonal. Soient x, y deux vecteurs de E, de décompositions respectives x = xF + xG et y = yF + yG sur la somme directe E = F ⊕ G. On a hp(x) | yi = hxF | yF + yG i = hxF | yF i = hxF + xG | yF i = hx | p(y)i, ce qui prouve que p est un endomorphisme symétrique. Traitons maintenant le cas de la symétrie s. Rappelons que l’on a s = 2p − IdE . – Supposons que s est une symétrie orthogonale. Alors p est un projecteur orthogonal, donc symétrique, donc s l’est aussi (car IdE est symétrique). – Réciproquement, supposons s symétrique. Alors p = 21 (s + IdE ) l’est aussi, donc c’est un projecteur orthogonal, donc la symétrie s est orthogonale. Matriciellement : Théorème (caractérisation matricielle des endomorphismes symétriques) Soit f un endomorphisme d’un espace euclidien E, B une base orthonormée de E et A = matB (f ). Alors : f est symétrique ⇐⇒ AT = A. Autrement dit : les endomorphismes symétriques sont ceux dont la matrice dans une base orthonormée est symétrique. Il suffit qu’il existe une base orthonormée dans laquelle la matrice soit symétrique pour que l’endomorphisme soit symétrique, et que sa matrice dans toute base orthonormée soit symétrique. Lemme L’unique matrice M ∈ Mn (R) vérifiant : ∀X, Y ∈ Mn,1 (R), X T M Y = 0 est la matrice nulle. 83 5.4. Endomorphismes symétriques Démonstration. En effet, si la matrice M n’est pas nulle, on peut trouver une matrice colonne Y0 telle que la matrice X0 = M Y0 soit non nulle. On a alors X0T M Y0 = X0T X0 = ||X0 ||2 6= 0. Démonstration du théorème. Pour tous vecteurs x, y de E, on a, en notant X et Y les matrices colonnes de x et y dans la base B : hf (x) | yi = (AX)T Y et hx | f (y)i = X T AY . On a donc les équivalences : f est symétrique ⇐⇒ ∀x, y ∈ E, hf (x) | yi = hx | f (y)i ⇐⇒ ∀X, Y ∈ Mn,1 (R), (AX)T Y = X T AY ⇐⇒ ∀X, Y ∈ Mn,1 (R), X T AT Y − X T AY = 0 ⇐⇒ ∀X, Y ∈ Mn,1 (R), X T (AT − A)Y = 0 ⇐⇒ AT − A = 0. Corollaire (caractérisation matricielle des symétries orthogonales) Soit s un endomorphisme d’un espace euclidien, B une base orthonormée de E et A = matB (s). Alors s est une symétrie orthogonale si, et seulement si, la matrice A est symétrique et orthogonale. Démonstration. En effet, la matrice d’une symétrie orthogonale est symétrie et vérifie A2 = In , donc également AT A = In : elle est orthogonale. Réciproquement, si la matrice A vérifie AT = A et AT A = In , alors elle vérifie aussi A2 = In , donc s est une symétrie. Sa matrice dans une base orthonormée étant symétrique, c’est une symétrie orthogonale. 5.4.2 Réduction des endomorphismes symétriques Proposition Soit f un endomorphisme symétrique d’un espace euclidien E et F un sous-espace stable par f . Alors 1. l’espace F ⊥ est stable par f 2. les endomorphismes induits par f sur F et F ⊥ sont symétriques. Démonstration. 1. Soit x un vecteur de F ⊥ : il s’agit de montrer que f (x) appartient encore à F ⊥ , i.e. est orthogonal à tout vecteur de F . Pour tout vecteur y ∈ F , on a hf (x) | yi = hx | f (y)i = 0 car f (y) appartient à F . 2. La propriété hf (x) | yi = hx | f (y)i étant vraie pour tous vecteurs x, y ∈ E, elle est a fortiori vraie pour tous vecteurs x, y ∈ F , donc l’endomorphisme f ||F est symétrique ; il en est de même de l’autre endomorphisme induit. Proposition Soit f un endomorphisme symétrique d’un espace euclidien E. Son polynôme caractéristique est scindé. Démonstration. Notons n la dimension de E : il s’agit de montrer que les n racines complexes (éventuellement confondues pour certaines) du polynôme caractéristique χf sont en fait réelles, i.e. que chacune est égale à sa conjuguée. Pour cela, choisissons une base orthonormée B de E et écrivons la matrice A = matB (f ). C’est une matrice à coefficients réels ; voyons-la provisoirement comme une matrice à coefficients complexes. Soit λ une valeur propre (complexe) de A et X un vecteur propre (complexe) associé : AX = λX. En conjuguant puis en transposant, on obtient X̄ T A = λ̄X T (car A est à coefficients 84 Chapitre 5. Espaces euclidiens. Endomorphismes symétriques et orthogonaux. réels et symétrique). Multiplions à droite par X : on obtient X̄ T AX = λ̄X T X, soit λX̄ T X = λ̄X̄ T X. Or, en notant xi les coefficients (complexes) de la matrice colonne X, on a X̄ T X = |x1 |2 + · · · + |xn |2 6= 0. On en déduit que λ̄ = λ. Théorème (théorème «spectral» : diagonalisation des endomorphismes symétriques) Soit f un endomorphisme symétrique d’un espace euclidien E. Alors f est diagonalisable en base orthonormée. Démonstration. Raisonnons par récurrence sur la dimension n de E. – Pour n = 1, il n’y a rien à démontrer. – Soit n > 1. Supposons le résultat vrai pour tout endomorphisme symétrique d’un espace de dimension inférieure ou égale à n et démontrons-le lorsque dim(E) = n + 1. Commençons par considérer une valeur propre λ (réelle !) de f (le polynôme caractéristique de f est scindé) et l’espace propre F associé. Cet espace est stable par f , donc F ⊥ l’est aussi, et de dimension inférieure ou égale à n. Notons g l’endomorphisme induit par f sur F ⊥ : c’est un endomorphisme symétrique, donc il existe une base orthonormée de F ⊥ formée de vecteurs propres de g (donc de f ). En concaténant cette base orthonormée avec une base orthonormée de F , on obtient une base orthonormée de E, formée de vecteurs propres de f . La propriété est prouvée au rang n + 1, donc pour tout entier n par récurrence. Théorème (diagonalisation des matrices symétriques réelles) Soit A ∈ Mn (R) une matrice symétrique réelle. Il existe une matrice orthogonale P ∈ On (R) telle que la matrice D = P T AP = P −1 AP soit diagonale. Démonstration. C’est la version matricielle du théorème précédent. Attention! Ce résultat est spécifique aux matrices symétriques réelles ! Par exemple, la matrice symétrique complexe 1 i A= i −1 n’est pas diagonalisable : son polynôme caractéristique est χA = X 2 , donc elle admet pour unique valeur propre λ = 0. Si elle était diagonalisable, elle serait semblable à la matrice nulle... 5.4.3 Endomorphismes symétriques positifs Le contenu de ce paragraphe n’est pas au programme, mais fait régulièrement l’objet de problèmes de concours. Il est donc bon de savoir à quoi s’attendre. Définition (endomorphismes symétriques positifs) Un endomorphisme symétrique f d’un espace euclidien E est dit – positif si, et seulement si, pour tout x ∈ E, on a hf (x) | xi > 0 – défini positif si, et seulement si, pour tout x ∈ E \ {0}, on a hf (x) | xi > 0. Pour les matrices : Définition (matrices symétriques positives) Une matrice symétrique A ∈ Mn (R) est dite – positive si, et seulement si, pour tout X ∈ Mn,1 (R), on a X T AX > 0 – définie positive si, et seulement si, pour tout X ∈ Mn,1 (R) \ {0}, on a X T AX > 0. D’où immédiatement : 85 5.4. Endomorphismes symétriques Proposition Soit f un endomorphisme symétrique d’un espace euclidien E, B une base orthonormée de E et A = matB (f ). L’endomorphisme f est positif (resp. défini positif) si, et seulement si, la matrice A est positive (resp. définie positive). Il se trouve que, pour un endomorphisme symétrique, on sait encadrer le produit scalaire hf (x) | xi en fonction de ||x|| : Proposition Soit f un endomorphisme symétrique d’un espace euclidien E de dimension finie n. Soient λ1 6 · · · 6 λn les valeurs propres de f . Pour tout x ∈ E, on a λ1 ||x||2 6 hf (x) | xi 6 λn ||x||2 . Démonstration. Soit C = (ε1 , . . . , ε2 ) une base orthonormée de E, diagonale pour f , le vecteur propre εi étant associé à la valeur propre λi . Soit x = x1 ε1 + · · · + xn εn un vecteur de E. On a f (x) = λ1 x1 ε1 + · · · + λn xn εn , d’où hf (x) | xi = λ1 x21 + · · · + λn x2n . Or, pour tout i ∈ [[1, n]], on a λ1 x2i 6 λi x2i 6 λn x2i , d’où, par somme : λ1 ||x||2 6 hf (x) | xi 6 λn ||x||2 . On en déduit immédiatement la version matricielle : Proposition Soit A ∈ Mn (R) une matrice symétrique. Soient λ1 6 · · · 6 λn les valeurs propres de A. Pour tout X ∈ Mn,1 (R), on a λ1 X T X 6 X T AX 6 λn X T X. Démonstration. Notons f l’endomorphisme canoniquement associé à la matrice A : c’est un endomorphisme symétrique, de valeurs propres λ1 6 · · · 6 λn , donc il vérifie λ1 |kx||2 6 hf (x) | xi 6 λn ||x||2 pour tout x ∈ Rn , ce qui donne l’encadrement souhaité. 2 2 Exemple 1. Déterminer les extréma de la quantité xx2+2xy +y 2 lorsque (x, y) parcourt R \ {0}. 1 1 En notant A = , on remarque que x2 + 2xy = X T AX, où X = [ xy ]. Notons f l’endomorphisme 1 0 √ √ canoniquement associé à la matrice A. Le calcul donne pour valeurs propres λ1 = 1−2 5 6 λ2 = 1+2 5 . Soit C = (ε1 , ε2 ) une base orthonormée de vecteurs propres associés à ces valeurs propres. Pour tout vecteur (x, y) ∈ R2 \ {0}, notons x1 , y1 les coordonnées de ce vecteur dans la base C : on a f (x, y) = f (x1 ε1 + x2 ε2 ) = λ1 x1 ε1 + λ2 x2 ε2 , d’où x2 + 2xy = X T AX = hf (x, y) | (x, y)i = hλ1 x1 ε1 + λ2 x2 ε2 | x1 ε1 + x2 ε2 i = λ1 x21 + λ2 x22 et x2 + y 2 = ||(x, y)||2 = ||x1 ε1 + x2 ε2 ||2 = x21 + x22 , donc le quotient est compris entre λ1 et λ2 . Ces valeurs sont d’ailleurs atteints : pour (x, y) = ε1 pour la valeur λ1 , et pour (x, y) = ε2 pour la valeur λ2 . On a donc √ √ 1− 5 x2 + 2xy 1+ 5 x2 + 2xy = et max = . min 2 2 (x,y)6=(0,0) x2 + y 2 (x,y)6=(0,0) x2 + y 2 86 Chapitre 5. Espaces euclidiens. Endomorphismes symétriques et orthogonaux. a Remarque 1. De façon générale, la quantité ax + 2bxy + cy s’écrit sous la forme X AX, où A = b x et X = . La situation se généralise immédiatement au cas de n variables. y 2 2 T b c Cet encadrement permet de caractériser les endomorphismes symétriques positifs : Corollaire Soit f un endomorphisme symétrique d’un espace euclidien E. Cet endomorphisme est positif (resp. défini positif) si, et seulement si, ses valeurs propres sont toutes positives (resp. strictement positives). La version matricielle énonce qu’une matrice symétrique A est positive (resp. définie positive) si, et seulement si, ses valeurs propres sont toutes positives (resp. strictement positives). 87 5.5. Test de compréhension du chapitre 5.5 5.5.1 Test de compréhension du chapitre Questions 1. Soit E un espace préhilbertien, u, v deux vecteurs de E vérifiant ||u|| = ||v|| = 1 et hu | vi = 21 . Calculer ||u − v||. 2. Existe-t-il un produit scalaire sur R2 pour lequel ||e1 || = ||e2 || = he1 | e2 i (où (e1 , e2 ) est la base canonique de R2 ) ? 3. La norme || · ||∞ sur Rn est-elle issue d’un produit scalaire ? 4. Notons (e1 , e2 ) la base canonique de R2 et posons ε1 = 2e1 , ε2 = e1 + e2 . Existe-t-il un produit scalaire h· | ·i sur R2 pour lequel la base C = (ε1 , ε2 ) soit orthonormée ? 5. Notons (e1 , e2 ) la base canonique de R2 . Trouver un produit scalaire h· | ·i sur R2 pour lequel ||e1 || = 2, ||e2 || = 1 et he1 | e2 i = 1. Trouver (pour ce produit scalaire) un vecteur e3 orthogonal au vecteur e1 . 6. Soient u, v deux vecteurs d’un espace préhilbertien E vérifiant ||u|| = 2, ||v|| = 1, hu | vi = 1. Démontrer que la famille est libre. 7. Soient u, v deux vecteurs d’un espace préhilbertien E. Démontrer l’équivalence : ||u|| = ||v|| ⇐⇒ u − v ⊥ u + v. 8. Soit E un espace euclidien de dimension 3. Peut-on trouver deux droites orthogonales de E ? Deux plans orthogonaux ? 9. Soit F un sous-espace d’un espace préhilbertien E. Parmi les assertions suivantes, lesquelles sont vraies ? a) F admet toujours au moins un supplémentaire orthogonal. b) F admet toujours au plus un supplémentaire orthogonal. c) Si F admet un supplémentaire, c’est un supplémentaire orthogonal. d) Si F admet un supplémentaire, il admet aussi un supplémentaire orthogonal. e) Si F est de dimension finie, il admet au moins un supplémentaire orthogonal. f) Si F admet un supplémentaire orthogonal, F ⊥ admet un supplémentaire orthogonal. R1 10. On munit l’espace E = C ([0, 1], R) du produit scalaire défini par hf | gi = 0 f g. On considère le sousespace F formé par les fonctions constantes. a) Quelle est la dimension de F ? Quel est l’orthogonal F ⊥ de F ? ⊥ F ⊥ ? Si c’est le cas, donner la décomposition d’une fonction f ∈ E quelconque b) Est-il vrai que E = F sur cette somme directe orthogonale. 11. Soit E un espace euclidien de dimension 3 muni d’une base orthonormée B. Quelle est la bonne façon de déterminer la matrice dans la base B d’un projecteur orthogonal sur un plan ? Quelles sont les propriétés faciles à tester que doit vérifier cette matrice ? Traiter le cas où le plan a pour équation x + y − 2z = 0. 12. Dans R2 muni de son produit scalaire canonique, on considère le vecteur u = (a, b) et la droite D d’équation y = x. a) Déterminer la distance d(u, D). b) Minimiser la quantité (t − a)2 + (t − b)2 lorsque t parcourt R. 13. Quelle est l’image des vecteurs (1, 0) et (0, 1) par la symétrie orthogonale par rapport à la droite D d’équation x + y = 0 ? Quelle est la matrice (dans la base canonique) de cette symétrie ? 14. Déterminer, sans aucun calcul, le carré des matrices cos θ − sin θ A= et sin θ cos θ B= cos θ sin θ sin θ . − cos θ 15. Quelle est la nature de la composée d’une rotation et d’une réflexion plane ? 16. Les assertions suivantes sont-elles vraies ? 1. Si f est une isométrie plane, elle conserve les aires. 2. si f est un endomorphisme du plan qui conserve les aires, c’est une isométrie. 17. Soit f un endomorphisme d’un espace préhilbertien E. Les assertions suivantes sont-elles vraies ? a) Si hf (x) | f (y)i = hx | yi pour tous x, y ∈ E, alors ||f (x)|| = ||x|| pour tout x ∈ E. b) Si ||f (x)|| = ||x|| pour tout x ∈ E, alors hf (x) | f (y)i = hx | yi pour tous x, y ∈ E. 88 Chapitre 5. Espaces euclidiens. Endomorphismes symétriques et orthogonaux. 18. Soit B une base d’un espace euclidien E, f un automorphisme orthogonal de E et A = matB (f ). La matrice A est-elle orthogonale ? Quel est son déterminant ? 19. Soit f un endomorphisme symétrique d’un espace préhilbertien E, B une base de E et A = matB (f ). a) Si B est une base orthonormée, la matrice A est-elle symétrique ? b) Si la matrice A est symétrique, la base B est-elle orthonormée ? 20. Soit A une matrice symétrique de taille (n, n). Existe-t-il une matrice P ∈ On (R) telle que P −1 AP soit diagonale ? 21. Soit A une matrice symétrique réelle de taille (n, n). Existe-t-il une matrice P ∈ GLn (R) telle que P T AP soit diagonale ? 89 5.5. Test de compréhension du chapitre 5.5.2 Réponses 1. On a ||u − v||2 = ||u||2 + ||v||2 − 2hu | vi = 1 donc ||u − v|| = 1. 2. Non : si un tel produit scalaire existait, il vérifierait he1 | e2 i = ||e1 || · ||e2 ||, donc les vecteurs e1 et e2 seraient colinéaires, ce qui n’est pas. 2 2 3. Non, sinon l’application (x, y) 7→ ||x+y|| −||x|| 2 Il est facile de vérifier qu’elle ne l’est pas. −||y||2 serait bilinéaire (ce serait l’application produit scalaire). 4. Oui : il suffit de poser, pour tous vecteurs x, y ∈ R2 , hx | yi = x1 y1 + x2 y2 , où x1 , x2 (resp. y1 , y2 ) sont les coordonnées de x (resp. y) dans la base C . Il est immédiat de vérifier que c’est un produit scalaire pour lequel la base C est orthonormée. 5. Si un tel produit scalaire h· | ·i existe, pour tous vecteurs x = (x1 , x2 ) = x1 e1 + x2 e2 et y = (y1 , y2 ) = y1 e1 + y2 e2 , on doit avoir hx | yi = x1 y1 ||e1 ||2 + x1 y2 he1 | e2 i + x2 y2 he2 | e1 i + x2 y2 ||e2 ||2 = 4x1 y1 + x1 y2 + x2 y1 + x2 y2 . Mais rien ne prouve a priori que ces formules définissent un produit scalaire sur R2 ; il faut vérifier tous les axiomes ! Cette application est clairement bilinéaire symétrique. Pour tout x, on a hx | xi = 4x21 + 2x1 x2 + x22 = 3x21 + (x1 + x2 )2 > 0, avec égalité si, et seulement si, x1 = x1 + x2 = 0, i.e. si, et seulement si, x = 0. C’est donc un produit scalaire. Pour ce produit scalaire, le vecteur e3 = (1, −4) est orthogonal au vecteur e1 (le calcul donne he1 | e3 i = 0). 6. Si la famille était liée, on aurait hu | vi = ±||u|| · |lv||. 7. On calcule hu − v | u + vi = ||u||2 − ||v||2 + hv | ui − hu | vi = ||u||2 − ||v||2 . Ce produit scalaire est nul si, et seulement si, ||u|| = ||v||. 8. Deux droites, oui (prendre les deux droites engendrées par deux vecteurs orthogonaux quelconques). Deux plans non, car deux sous-espaces orthogonaux F et G vérifient nécessairement F ∩ G = {0}. 9. a) Non. b) Oui : le seul supplémentaire orthogonal possible pour F est F ⊥ . Mais ce n’est en général pas un supplémentaire de F . c) Non. d) Non. e) Oui. Il admet même un unique supplémentaire orthogonal : F ⊥ (donc il en admet bien au moins un). f) Oui : l’espace F est un supplémentaire de F ⊥ (car F ⊥ est le supplémentaire orthogonal de F : hypothèse), et il lui est orthogonal. 10. a) En notant 11 la fonction constante égale à 1, les fonctions constantes sont toutes des multiples de ⊥ cette fonctions, donc F est de dimension 1. Une fonction R 1si, elle est R 1 f appartient à F si, et seulement orthogonale à cette fonction 11, i.e. si, et seulement si, 0 f · 11 = 0, soit si, et seulement si, 0 f = 0. b) L’espace F est de dimension 1 donc admet un supplémentaire orthogonal (qui est F ⊥ ) : on a bien ⊥ F ⊥. E=F La norme de la fonction 11 est s Z 1 ||11|| = 112 = 1, 0 donc 11 est une base orthonormée de F . Le projeté orthogonal d’une fonction f ∈ E sur F est donc Z 1 p(f ) = hf | 11i11 = f 11. 0 90 Chapitre 5. Espaces euclidiens. Endomorphismes symétriques et orthogonaux. ⊥ F ⊥ est donc La décomposition de f sur la somme directe orthogonale E = F Z 1 Z 1 f 11 + f − f= f 11 . 0 | 0 {z } | {z } ∈F ∈F ⊥ 11. En notant P le plan et D = P ⊥ son orthogonal, ainsi que p le projecteur orthogonal sur le plan P et q le projecteur orthogonal sur la droite D, on sait que p + q = IdE . Pour connaître p, il suffit donc de connaître q. En notant u un vecteur unitaire de la droite D, on a q(x) = hx | uiu pour tout vecteur x, donc il est très simple de déterminer q. La matrice A du projecteur p doit vérifier Tr(A) = 2 (matrice d’un projecteur sur un plan) et être symétrique (matrice d’un projecteur orthogonal exprimé en base orthonormée). Lorsque le plan P a pour équation x + y − 2z = 0 et que l’on note (e1 , e2 , e3 ) les vecteurs de la base B, 1 est une base orthonormée de D (attention ! le vecteur v = e1 + e2 − 2e3 est orthogonal à P , donc u = ||u|| je n’ai pas écrit v = (1, 1, −2) : on n’a nulle part supposé que les vecteurs de E étaient des vecteurs de R3 . Même si c’était le cas, rien ne permet de penser que la base B utilisée soit la base canonique). On en déduit que 1 1 −2 1 1 −2 matB (q) = 1 6 −2 −2 4 puis 5 1 −1 matB (p) = 6 2 −1 2 5 2 . 2 2 On constate bien que la matrice est symétrique et de rang 2. 12. a) Le vecteur ε = (1, 1) dirige la droite D, donc le projeté orthogonal de u sur cette droite est p(u) = hu | εi a+b ε= (1, 1), ||ε||2 2 et la distance d(u, D) vérifie d(u, D)2 = d u, p(u) 2 = a− a+b 2 2 2 a+b 1 + b− = (b − a)2 , 2 2 √ . donc d(u, D) = |b−a| 2 b) On reconnaît dans la quantité à minimiser l’expression de d(u, w)2 , où w = (t, t) parcourt D. Cette 2 quantité est minimale lorsque w = p(u), elle est alors égale à d(u, D)2 = (b−a) (elle est nulle si, et 2 seulement si, a = b, i.e. si, et seulement si, u est sur la droite D, ce qui est normal). On le retrouve par un calcul élémentaire en écrivant 2 2 a+b (a + b)2 a+b (b − a)2 2 2 2 2 2 2 2 (t−a) +(t−b) = 2t −2(a+b)t+a +b = 2 t − − +a +b = 2 t − + . 2 2 2 2 13. On voit sur un dessin que l’image du vecteur e1 = (1, 0) est le vecteur (0, −1) = −e2 . y e1 x s(e1 ) Pour le démontrer, il suffit d’écrire 1 1 (1, −1) + (1, 1) : 2 2 le premier vecteur appartient à D, le second lui est orthogonal, donc on a e1 = s(e1 ) = 1 1 (1, −1) − (1, 1) = (0, −1). 2 2 5.5. Test de compréhension du chapitre 91 On montre de même que s(e2 ) = −e1 . Par suite, la matrice de s dans la base canonique est 0 −1 A= . −1 0 14. La matrice A est la matrice (dans une base orthonormée directe quelconque) de la rotation d’angle θ, donc la matrice A2 est la matrice de la rotation d’angle 2θ (remplacer partout θ par 2θ). La matrice B est une matrice orthogonale indirecte, donc elle vérifie B 2 = I2 . 15. C’est la composée de deux automorphismes orthogonaux, donc c’en est encore un. L’un est direct et l’autre indirect, donc la composée est indirecte : c’est une réflexion. 16. Rappelons que det(f ) est la coefficient multiplicateur des aires : si une figure a pour aire A, son image par f a pour aire | det(f )| × A. Ainsi, si f est une isométrie, elle vérifie det(f ) = ±1, donc elle conserve les aires. Réciproquement, l’égalité det(f ) = ±1 n’implique pas nécessairement que f soit une isométrie. 17. Les deux assertions sont vraies (c’est du cours). 18. Si la base B n’est pas une base orthonormée, la matrice A n’a aucune raison d’être orthogonale. Mais même dans ce cas, le déterminant de A est égal à ±1 (c’est quand même le déterminant d’un automorphisme orthogonal). 19. a) Oui : théorème du cours. b) Non, pas nécessairement : par exemple, la matrice de l’endomorphisme IdE est symétrique dans toute base de E, pas seulement dans les bases orthonormées.. 20. Pas nécessairement si la matrice A est à coefficients complexes. 21. Oui : il existe même une matrice P ∈ On (R) pour laquelle c’est vrai.