Géométrie euclidienne C. Charignon Table des matières I Cours 3 1 Produit scalaire 1.1 Produit scalaire et norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Inégalité de Cauchy-Schwarz, conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 2 Orthogonalité 2.1 Orthogonalité de deux vecteurs 2.2 Familles orthogonales, normées, 2.3 Bases orthonormées . . . . . . 2.4 Orthogonalité de parties de E . . . . . . . . . . orthonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Espaces euclidiens 3.1 Définitions générales . . . . . . . . . . . . . . . . . . . . 3.2 Caractérisation matricielle d’une base orthonormée (hors 3.3 Existence de BON . . . . . . . . . . . . . . . . . . . . . 3.3.1 Le lemme fondamental . . . . . . . . . . . . . . . 3.3.2 Orthonormalisation de Gramm-Schmidt . . . . . 3.3.3 « théorème de la base orthonormée incomplète » 3.3.4 Concaténation de familles orthonormées . . . . . 4 Projections et distance à un sev 4.1 Étude de F ⊥ lorsque F est de dimension finie . . . . 4.2 Projection orthogonale . . . . . . . . . . . . . . . . . 4.3 Distance à F . . . . . . . . . . . . . . . . . . . . . . 4.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Cas où E est euclidien . . . . . . . . . . . . . 4.4.2 Algorithme général . . . . . . . . . . . . . . . 4.4.3 Exemples sans connaître de base orthonormée 4.5 Résumé des méthodes de calcul . . . . . . . . . . . . II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 5 5 6 . . . . . . . . programme) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 8 8 9 11 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 12 12 14 14 14 15 17 19 . . . . . . . . . . . . . . . . . . . . . . de F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercices 19 1 Produits scalaires 1.1 Exemples de produits scalaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Autres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 2 2 Orthogonalité 2.1 Vecteurs orthogonaux . . . . . . . . . . . . 2.2 Exemples de familles orthogonales . . . . . 2.3 Géométrie à l’ancienne . . . . . . . . . . . . 2.4 Familles orthogonales : exercices théoriques 2.5 Sous-espaces orthogonaux . . . . . . . . . . . . . . . 3 3 3 4 5 5 3 Distance, projections 3.1 Calculs de projetés et de distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Autres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Première partie Cours 1 Produit scalaire Nous fixons pour ce chapitre un R-espace vectoriel E. N.B. Le corps de base est R, car nous utiliserons la relation d’ordre. Une théorie similaire existe cependant pour le corps C (espace « hermitiens »). 1.1 Produit scalaire et norme Définition 1.1. Un produit scalaire sur E est une application p : E 2 → R vérifiant : 1. p est linéaire en chaque variable 2. p est « symétrique » : ∀(x, y) ∈ E 2 ), p(x, y) = p(y, x). 3. p est « positive » : ∀x ∈ E, p(x, x) > 0 4. et p est « définie » : ∀x ∈ E : p(x, x) = 0 ⇔ x = 0E . On a l’habitude de noter (.|.), ou < ., . >, ou (., .) ou < .|. > les produit scalaires. L’image de deux vecteurs (x, y) ∈ E 2 se note alors (x|y) (ou < x, y >,...) Remarque : Une fois la symétrie prouvée, il suffit de montrer la linéarité selon la première variable pour obtenir la bilinéarité. Exemples de référence à connaître : • Dans Rn : produit scalaire canonique. R • Soit I un intervalle et E = C(I, R), alors (f, g) 7→ I f.g est un produit scalaire. Autre exemple : Dans R2 : ((x1 , y1 ), (x2 , y2 )) 7→ x1 x2 + y1 y2 − x1 y2 − x2 y1 . Dans la suite, on fixe un produit scalaire (.|.) sur E. Définition 1.2. (Norme) 1. Soit (.|.) un produit scalaire sur E. La norme associée à (.|.) est l’application, notée ||.||, définie par : p ∀x ∈ E, ||x|| = (x|x). 2. Un vecteur x ∈ E tel que ||x|| = 1 est appelé un vecteur unitaire. 3. Pour tout (x, y) ∈ E 2 , on appelle la distance entre x et y le nombre ||x − y||. Quelques relations simples reliant norme et produit scalaire : pour tout (x, y) ∈ E 2 : • ||x + y||2 = ||x||2 + ||y||2 + 2(x|y) • ||x − y||2 = ||x||2 + ||y||2 − 2(x|y) 1 • identités de polarisation : (x|y) = f rac12 ||x + y||2 − ||x||2 − ||y||2 = (||x + y||2 − ||x − y||2 ) 4 • identité du parallélogramme : ||x + y||2 + ||x − y||2 = 2(||x||2 + ||y||2 ) Les deux premières ne sont autre que les identités remarquables qu’on connaît déjà dans C pour + et ·. La troisième relation permet de retrouver le produit scalaire à partir de la norme (voir l’exercice ). On l’appelle « égalité de polarisation ». 3 Enfin la dernière s’interpète géométriquement : dans le parallèlogramme de côtés x et y, x + y et x − y sont les diagonales. 1.2 Inégalité de Cauchy-Schwarz, conséquences Proposition 1.3. (Inégalité de Cauchy-Schwarz) Pour tout (x, y) ∈ E 2 , (x|y) 6 ||x||.||y|| De plus, l’égalité se produit si et seulement si x et y sont colinéaires : ∀(x, y) ∈ E 2 , |(x|y)| = ||x||.||y|| (x, y) est liée . ⇔ Voici la même inégalité sans les valeurs absolues : −||x||.||y|| 6 (x|y) 6 ||x||.||y||. Et on peut préciser les cas d’égalité : ( (x|y) = ||x||.||y|| ⇔ (x|y) = −||x||.||y|| ⇔ ∃λ ∈ R+ tq x = λ.y ∃λ ∈ R− tq x = λ.y Remarque : Puisque la fonction x 7→ x2 est croissante sur R+ , l’inégalité de Cauchy-Schwarz équivaut à : ∀(x, y) ∈ E 2 , (x|y)2 6 (x|x).(y|y) N.B. Cette relation est souvent utile enRthéorie de l’intégration. Dans le cas où E = C(I, R), avec le produit scalaire défini par ∀(f, g) ∈ E 2 , (f |g) = I f g, l’inégalité de Cauchy-Schwarz devient : !2 Z ∀(f, g) ∈ C(I, R), f.g Z Z f . 6 I 2 I g2 I De manière générale, dès qu’on veut prouver une inégalité faisant intervenir des carrés, il est bon de se demander s’il y a un produit scalaire dans les parages. cf exercice: 10 Proposition 1.4. (propriétés de la norme) Soit E un R-ev, (.|.) un produit scalaire sur E, ||.|| la norme associée. 1. ||.|| est une fonction de E dans R+ . 2. (homogénéité) ∀λ ∈ R, ∀x ∈ E, ||λ.x|| = |λ|.||x||. 3. (séparation) ∀x ∈ E, ||x|| = 0 ⇔ x=0 4. (inégalité triangulaire) ∀(x, y) ∈ E 2 , ||x + y|| 6 ||x|| + ||y||. 2 Orthogonalité 2.1 Orthogonalité de deux vecteurs Définition 2.1. Soient (x, y) ∈ E 2 . On dit que x et y sont orthogonaux lorsque (x|y) = 0. Remarques : 4 • La relation « être orthogonal » sur l’ensemble E est symétrique. • Soient x et y deux vecteurs orthogonaux. Alors pour tout (λ, µ) ∈ R2 , λ.x et µ.y sont orthogonaux. • Le vecteur nul est orthogonal à tout autre vecteur. (Ces remarques sont la conséquence du fait que (.|.) est une forme bilinéaire symétrique.) Proposition 2.2. (théorème de Pytagore) Soient (x, y) ∈ E 2 . Alors : x⊥y ⇔ 2.2 ||x + y||2 = ||x||2 + ||y||2 Familles orthogonales, normées, orthonormales Définition 2.3. (Famille orthogonale/orthonormale) Soit n ∈ N et F = (e1 , ..., en ) ∈ E n une famille de n vecteurs. 1. On dit que F est une famille orthogonale lorsque ∀(i, j) ∈ J1, nK2 tel que i 6= j, (ei |ej ) = 0. 2. On dit que F est normée si tous ses vecteurs sont unitaires, i.e. ∀i ∈ J1, nK, ||ei || = 1. 3. On dit que F est orthonormale si elle est orthogonale et normée. Proposition 2.4. (Pythagore) Soit n ∈ N et F = (e1 , ..., en ) ∈ E n une famille de n vecteurs. On suppose F orthogonale. Alors : || n X ei ||2 = i=1 n X ||ei ||2 . i=1 Remarques : Pn √ • Si F est orthonormale, on obtient || i=1 ei || = n. C’est la longueur de la diagonale d’un cube de côté 1 dans Rn . Proposition 2.5. (i) Une famille orthogonale ne contenant aucun vecteur nul est libre. (ii) Une famille orthonormale est libre. 2.3 Bases orthonormées Définition 2.6. Soit B = (e1 , ..., en ) une base de E. On dit que B est : 1. une base orthogonale si c’est de plus une famille orthogonale (i.e. ∀(i, j) ∈ J1, nK, (ei |ej ) = 0). 2. une base orthonormale si c’est de plus une famille orthonormée (i.e. elle est orthogonale et pour tout i ∈ J1, nK, ||ei || = 1). Remarque : Partant d’une base orthogonale, on peut facilement obtenir une base orthonormale : Si B = e1 en (e1 , ..., en ) est une base orthogonale, alors B 0 := ( , ..., ) est une base orthonormale. (Pour tout ||e1 || ||en || i ∈ J1, nK, ||ei || = 6 0 puisque ei 6= 0E ). On verra plus loin comment obtenir une BON en partant d’une base quelconque. Une base orthonormale est particulièrement pratique pour déterminer les coordonnées d’un vecteur : Proposition 2.7. (Coordonnées dans une base orthonormale) Soit (s’il en existe) B = (e1 , ..., en ) une BON de E. Alors pour tout x ∈ E, on a : x= n X (x|ei ).ei i=1 ◦ autrement dit, pour tout i ∈ J1, nK, la i coordonnées de x dans B est (x|ei ). 5 1 1 Exemple: Dans R2 , soit B = ( √ (1, 1), √ (1, −1)), on vérifie facilement que c’est une base orthonormée 2 2 de R2 . Calculons alors MatB (can). Exemple: Soit f ∈ L(E), B = (e1 , ..., en ) une BON de E, soit M = M atB (f ). Alors pour tout (i, j) ∈ J1, nK2 , Mi,j est la i◦ coordonnée de f (ej ), c’est donc (ei |f (ej )). Proposition 2.8. (Expression du produit scalaire et de la distance dans une BON) Soit B une BON. Soit (x, y) ∈ E 2 et (x1 , ..., xn ), (y1 , ..., yn ) leur coordonnées dans B. Alors : (x|y) = n X xi .yi k=1 v u n uX ||x|| = t x2 i i=1 Remarque : Et donc la distance de x à y est : v u n uX ||x − y|| = t (xi − yi )2 i=1 Ainsi, une fois trouvée une BON, les calculs sont exactement semblables à ceux qu’on effectue dans Rn muni du produit scalaire canonique. Formellement, on peut dire que, si B est une BON, alors l’application ϕ : E → Rn est un isomorphismes d’espaces vectoriels qui vérifie de plus ∀(x, y) ∈ x 7→ coordonnées dans B de x E 2 , (x|y) = (ϕ(x)|ϕ(y)) (en notant de la même manière le produit scalaire de E et le produit scalaire canonique de Rn ). En fait, une telle application ϕ devrait être appelée un isomorphisme d’espaces euclidiens. 2.4 Orthogonalité de parties de E Définition 2.9. Soient X et Y deux parties de E. On dit que X et Y sont orthogonales, et on note X ⊥ Y lorsque : ∀x ∈ X, ∀y ∈ Y, (x|y) = 0 Proposition 2.10. Soit (X, Y ) ∈ P(E)2 . Si X ⊥ Y , alors Vect(X) ⊥ Vect(Y ). Exemple: Dans R3 munit du produit scalaire canonique, soit D = Vect((1, 1, 1)) et P = Vect((1, −1, 0), (0, 1, −1)). Alors D ⊥ P . En effet on vérifie que (1, 1, 1) ⊥ (1, −1, 0) et que (1, 1, 1) ⊥ (0, 1, −1), puis on utilise le lemme. En particulier, soit n ∈ N et F = (e1 , ..., en ) une famille orthogonale. Alors pour tout i ∈ J1, nK, on a {e1 , ..., ei } ⊥ {ei+1 , ..., en } et donc Vect(e1 , ..., ei ) ⊥ Vect(ei+1 , ..., en ). Définition 2.11. Soit X ∈ P(E). On appelle l’orthogonal de X, et on note X ⊥ l’ensemble : X ⊥ = y ∈ E | ∀x ∈ X, (x|y) On a donc immédiatement que X ⊥ ⊥ X. En fait, X ⊥ est le plus grand ensemble qui soit orthogonal à X. Remarque : Dans un R-ev E quelconque, on a toujours {0}⊥ = E et E ⊥ = {0}. Exemple: Dans R3 munit du produit scalaire usuel, soit (a, b, c) ∈ R3 , calculons {(a, b, c)}⊥ . 6 Proposition 2.12. Soit X ∈ P(E)2 . Alors : 1. X ⊥ est un sev de E. 2. X ⊥ = (VectX)⊥ . Proposition 2.13. (orthogonalité et espaces vectoriels) Soit F et G deux sev de E. 1. F ⊂ (F ⊥ )⊥ 2. Si F ⊥ G, alors F et G sont en somme directe. 3. En particulier F et F ⊥ sont en somme directe. Remarque : Nous verrons que si F est de dimension finie les deux derniers résultats peuvent être améliorés : on aura F ⊕ F ⊥ = E et F = (F ⊥ )⊥ . Voici un contre-exemple pour montrer que l’égalité n’est pas toujours vraie en dimension finie : prenons E = C([0, 1], R) muni du produit scalaire usuel. Soit F = f ∈ E | f (0) = 0 . On vérifie que F ⊥ = {0}. Ainsi, F ⊥ ⊕ F = F 6= E et (F ⊥ )⊥ = E 6= F . cf exercice: 30 Exemple: Dans R3 munit du produit scalaire usuel, soit P = Vect((1, 1, 1), (1, 2, 3)). Calculons D⊥ . 3 Espaces euclidiens 3.1 Définitions générales Définition 3.1. Un espace euclidien est un couple (E, (.|.)), où E est un R-espace vectoriel de dimension finie, et (.|.) un produit scalaire sur E. On fixe désormais un espace euclidien (E, (.|.)), on note ||.|| la norme associée, et n = dim(E). Remarque : Soit F un sev de E. Alors la restriction de (.|.) à F 2 est un produit scalaire sur F , de plus F est encore de dimension finie, donc (F, (.|.)) est encore un espace euclidien. Ainsi un espace euclidien dispose de bases, et de la notion d’orthogonalité. Il sera alors souvent pratique d’utiliser une base « orthogonale », voire « orthonormale » : Rappel : Nous avons déjà dit qu’une famille orthogonale formée de vecteurs non nuls est automatiquement libre. Ainsi : Proposition 3.2. (i) Une famille orthogonale formée de n vecteurs non nuls est une base orthogonale (ii) Une famille orthonormale formée de n vecteurs est une base orthonormale Exemple: Dans R3 munit du produit scalaire canonique, soit B = (1, 1, 2), (2, 0, −1), (1, 3, −2) . 3.2 Caractérisation matricielle d’une base orthonormée (hors programme) Exemple: Dans R3 muni du produit scalaire canonique, notons B la base canonique. Soit F = ((1, 2, 1), (3, −1, −1), (−1, 4, − Voyons si F est orthogonale ou orthonormale... Fixons une BON B = (e1 , ..., en ) de E. Soit F une famille de vecteurs de E, comment savoir à partir de M atB (F) si F est orthogonale ou orthonormale ? Notons k le nombre de vecteurs de F, (f1 , ..., fk ) ∈ E k ces vecteurs et M = M atB (F) ∈ Mn,k (R). 7 Pour tout j ∈ J1, kK, la norme de fj est : ||fj || = qP n k=1 ⇔ fj est unitaire 2 et donc Mi,k n X 2 Mi,k = 1. k=1 Et pour tout (i, j) ∈ J1, kK, le produit scalaire (fi , fj ) vaut : (fi |fj ) = fi ⊥ fj ⇔ n X Pn k=1 Mi,k .Mj,k , et donc : Mi,k .Mj,k = 0. k=1 Ainsi, F est orthogonale si et seulement si pour tout Pn(i, j) 2∈ J1, nK tel que i 6= j, Et F est orthonormale si de plus pour tout i ∈ J1, nK, k=1 Mi,k = 1. On remarque que toutes ces égalités peuvent être résumées assez simplement : Pn k=1 Mi,k .Mj,k = 0. Proposition 3.3. Soit B une BON de E. Soit F une famille de vecteurs et M = M atB (F). Alors : 1. F est orthogonale si et seulement si M.t M est une matrice diagonale. 2. F est une famille normée si et seulement si la diagonale de M.t M ne contient que des 1. 3. F est une base orthonormale si et seulement si M.t M = In . N.B. Si F est une base orthonormale, elle contient alors n vecteurs, et M est carrée. Alors la relation M.t M = In donne que M est inversible d’inverse t M donc on a aussi t M.M = In . N.B. Soit k le nombre de vecteurs de F, alors M ∈ Mn,k (R). Et M.t M ∈ Mn (R). Par contre t M.M ∈ Mk (R), et les points (i) et (ii) de la proposition précédente ne sont pas vrais en remplaçant M.t M par t M.M . n o Définition 3.4. On note On (R) = M ∈ Mn (R) M.t M = In . Les éléments de On (R) sont appelés les matrices orthogonales. Nous venons de voire que pour tout M ∈ Mn (R), M ∈ On (R) ⇔ ⇔ M.t M = In ⇔ t M.M = In ⇔ M est inversible d’inverse t M toute famille de vecteur pouvant être représentée dans une BON par M est une BON N.B. Il est indispensable de prendre la matrice de F dans une BON, pas dans une base quelconque pour appliquer ce résultat. Proposition 3.5. Pour tout M ∈ On (R), det(M ) ∈ {−1, 1}. Corollaire 3.6. Si B et C sont deux BON de E, alors detB (C) = detC (B) ∈ {−1, 1}. 3.3 Existence de BON Avant d’aller plus loin avec les bases orthonormale, il est temps de prouver qu’il en existe ! Plus généralement, nous allons démontrer que toute base de E peut être modifiée d’une certaine manière en une BON. 3.3.1 Le lemme fondamental On étudie ici comment transformer une famille libre en une famille orthonormée dans le cas où un seul vecteur n’est pas orthogonal aux autres. 8 Lemme 3.7. Soit k ∈ J1, nK et soit (~e1 , . . . , ~ek ) une famille orthonormée de vecteurs de E. Soit f~ ∈ E \ Vect(~e1 , . . . , ~ek ) (de sorte que (~e1 , . . . , ~ek , f~) est libre). k X On pose ~gk+1 = f~ − < f~|~ei > .~ei . i=1 Alors la famille (~e1 , ..., ~ek , gk+1 ) est orthogonale. 1 .~gk+1 , la famille (~e1 , . . . , ~ek+1 ) est orthonormée. Donc, en posant ensuite ek+1 = ||~gk+1 || Enfin, on a Vect(~e1 , . . . , ~ek+1 ) = Vect(~e1 , . . . , ~ek , f~). 3.3.2 Orthonormalisation de Gramm-Schmidt version simple : Théorème 3.8. (Gramm-Schmidt version simple) Soit p ∈ N et B = (f1 , ..., fp ) une famille libre de E. Alors il existe une famille orthonormée (e1 , .., ep ) telle que ∀i ∈ J1, pK, Vect(e1 , ..., ep ) = Vect(f1 , ..., fp ). En pratique, on calcule e1 puis e2 ...puis ep à chaque fois en utilisant le lemme 3.7. On peut aussi démontrer un théorème d’unicité de cette famille orthonormée en rajoutant une hypothèse supplémentaire : Théorème 3.9. (Orthonormalisation de Gramm-Schmidt) Soit p ∈ N et B = (f1 , ..., fp ) une famille libre de E. Alors il existe une unique famille C = (e1 , ..., ep ) de E telle que : 1. C est orthonormée 2. ∀i ∈ J1, pK, Vect(e1 , ..., ei ) = Vect(f1 , ..., fi ) 3. ∀i ∈ J1, pK, (ei |fi ) > 0. Remarques : • la troisième hypothèse assure l’unicité de C (sans cette hypothèse on pourrait remplacer pour n’importe quel i ∈ J1, nK, fi par −fi ). À part ça, elle n’est pas très utile dans la plupart des cas. • Si la famille de départ est une base directe, alors son orthonormalisé de Schmidt sera une BOND. Exemple : Soit P = Vect((1, 2, 1), (1, 0, −1)) ⊂ R3 . Calculer la matrice dans la base canonique de la projection orthogonale sur P, puis de la symétrie selon P de direction P ⊥ . Notons u = (1, 2, 1), v = (1, 1, −1) et w = u ∧ v. Comme (u, v) est libre, c’est une base de P. De plus, ⊥ w ∈ P ⊥ , et comme dim(P⊥ ) = 1 etw 6= 0 (puisque (u, v) est libre), (w) est une base de P . 1 0 0 1 0 0 Ainsi, M at(u,v,w) p = 0 1 0 et M at(u,v,w) (s) = 0 1 0 . Pour trouver les matrices dans les 0 0 0 0 0 −1 bases canoniques, il reste à effectuer le changement de base, donc à calculer la matrice de passage et son inverse... Plus simple : choisissons une BON (i, j, k) telle que (i, j) = Vect(P). Pour cela, il nous suffit d’orthonormaliser (u, v). 1 1 .u = √ .u. La méthode de Schmidt nous donne : i = ||u|| 6 1 2 Ensuite, (u|v) = 2. Donc (i|v) = √ .2. Nous définissons dans un premier temps j0 = v − √ .i = 6 6 2 1 −4 ( , , ). 3 3 3 9 r j0 1 3 = .j0 = √ (2, 1, −4). ||j0 || 7 21 Remarque : Pour effectuer la vraie orthonormalisation de Schmidt, il faut vérifier que (j|v) > 0, si ce n’est pas le cas remplacer j par −j. Et dans un deuxième temps j = Nous pouvons alors utiliser la formule : pour tout x ∈ E, p(x) = (x|i).i + (x|j).j. Quant à s, il suffit de constater que s = 2p − Id. Remarque : Pour vérifier on peut compléter (i, j) puis utiliser un changement de base : comme troisième 1 1 vecteur nous prenons k = i ∧ j = √ .(−9, 6, −3) = √ .(−3, 2, −1). 3 14 14 1 0 0 1 0 0 Alors M ati,j,k (p) = 0 1 0 et M ati,j,k (s) = 0 1 0 . 0 0 −1 0 0 0 1 2 −3 √ √ √ 21 14 6 2 1 2 √ √ La matrice de passage de la base canonique à (i, j, k) est P = √ . L’avantage est que 21 14 6 −4 −1 1 √ √ √ 6 21 14 t −1 cette matrice est orthogonale (directe d’ailleurs), donc P = P . La formule de changement de base est M ati,j,k (p) = P −1 .M atcan (p).P , d’où : M atcan (p) = P.M ati,j,k (p).t P Exercice 1. S n o oit F = (x, y, z, t) x + y + z + t = 0 et x − y + z − t = 0 . Déterminer une BO de F ⊥ . Écrire les matrices de la projection orthogonale sur F et de la symétrie orthogonale par rapport à F . Calculer la distance de (1, 2, 3, 4) à F . Exemple: On se place dans C([−1, 1], R) muni du produit scalaire usuel. Cherchons une BON de l’ensemble des fonctions polynomiales de degré au plus 2. 2 Notons F = x 7→ ax + bx + c (a, b, c) ∈ R3 : Notons c : x 7→ x2 : on sait que (1, Id, c) est une base de F . On a (1|Id) = 0 et (Id|c) = 0. Par contre, (1|c) = 2/3 : 1 n’est pas orthogonal à c. Le principe est de remplacer c par un autre vecteur de la forme c − λ.1. Nous voulons que (1|c − λ.1) = 0, donc que (1|c) = λ||1||2 , donc que 2/3 = λ.2. Il suffit de prendre λ = 1/3. Finalement, la famille (1, Id, c − 1/3) est une √ BO de F . p Il reste à la normer : sachant que ||1|| = 2, ||Id|| = 2/3 et ||c − 1/3|| = 8/45, on obtient la base orthonormée suivante de F : ! p 1 p 1 √ , 3/2Id, 45/2(c − ) 3 2 Notons e1 , e2 , e3 ces trois fonctions. On peut maintenant calculer facilement la fonction polynomiale de degré 2 la plus proche d’une fonction donnée. Par exemple le projeté orthogonal de cos sur F est (cos |e1 ).e1 + (cos |e2 ).e2 + (cos |e3 ).e3 . On laisse le calcul à python... 10 3.3.3 « théorème de la base orthonormée incomplète » Proposition 3.10. (« théorème de la BON incomplète ») Toute famille orthonormale sans vecteur nul peut être complétée en une BON. Remarque : Si l’espace est orienté, et si F n’est pas déjà une base, nous pouvons toujours choisir de compléter F en une BOND : il suffit de remplacer le dernier vecteur rajouté par son opposé pour changer l’orientation de la base obtenue. Corollaire 3.11. Tout espace euclidien admet au moins une base orthonormale. Tout espace euclidien orienté admet une base orthonormée directe. N.B. On rappelle qu’un sev d’un espace euclidien est en particulier un espace euclidien pour le produit scalaire (restreint). On peut donc appliquer les résultats précédents dans un sev. 3.3.4 Concaténation de familles orthonormées Proposition 3.12. (concaténation de familles orthonormées) 1. Soient F et G deux sev de E, notons p = dim(E), q = dim(F ). On suppose F ⊥ G. Alors F et G sont en somme directe. De plus, si (e1 , ..., ep ) est une BON de F , si (f1 , ..., fq ) est une BON de G, alors (e1 , ..., ep , f1 , ..., fq ) est une BON de F ⊕ G. 2. Réciproquement, soit k ∈ J1, nK et (e1 , ..., ek ) une famille orthogonale. Alors pour tout p ∈ J1, kK, Vect(e1 , ..., ep ) et Vect(ep+1 , ..., ek ) sont deux sev orthogonaux. N.B. De manière générale, si (e1 , ..., ep ) et (f1 , ..., fq ) sont des familles orthogonales, il n’y a aucune raison que (e1 , ..., ep , f1 , ..., fq ) soit orthogonale, même si elle est libre. Remarque : La relation Vect(X)⊥ = X ⊥ est utile notamment lorsque X est une base d’un sev F : pour calculer F ⊥ , il suffit de calculer X ⊥ . Exemple: Soit P = (x, y, z, t) ∈ R4 x + y + z = 0 et y − z − t = 0 . Calculer une base de P puis de P ⊥. 4 Projections et distance à un sev Dans cette partie on ne suppose plus que E est de dimension finie. On fixe par contre un sev F de E de dimension finie. Ainsi, F est un espace euclidien, il admet des bases orthonormées d’après la partie précédente. Fixons k = dim(F ) et B = (~e1 , . . . , ~ek ) une base orthonormée de F . Nous étudions dans cette partie la question suivante : étant donné un vecteur x ∈ E, comment calculer le point de F le plus proche de x ? Ce genre de question arrive fréquemment en pratique. Typiquement étant donné un problème de physique un peu compliqué, notons f la fonction solution. Si on n’arrive pas à déterminer exactement f , on peut en chercher des approximation. Par exemple on peut fixer n ∈ N et chercher la fonction polynomiale de degré 6 n la plus proche de f . Il s’agit donc de chercher l’élément de Rn [X] le plus proche de f . On est bien dans le cas d’un sev de dimension finie dans un espace de dimension infinie muni d’un produit scalaire. La plupart des équations aux dérivées partielles sont résolues en utilisant ce genre de principes. 11 4.1 Étude de F ⊥ lorsque F est de dimension finie Proposition 4.1. (orthogonal d’un sev de E de dimension finie) 1. E = F ⊕ F ⊥ 2. (F ⊥ )⊥ = F . Démonstration: 1. Soit x ∈ E. On a : x= k X (ei |x).ei + x− i=1 Notons xF = Pk i=1 k X (ei |x).ei i=1 (ei |x).ei . On vérifie facilement que ∀j ∈ J1, kK, (ej |x − xF ) = 0. Donc x − xF ∈ {e1 , ..., ep }⊥ = Vect(e1 , ..., ep )⊥ = F ⊥ . Ainsi x ∈ F + F ⊥ et F + F ⊥ = E. Le fait que la somme est directe a déjà été prouvé (vrai quel que soit F ). 2. L’inclusion F ⊂ (F ⊥ )⊥ est toujours vraie. Soit maintenant x ∈ (F ⊥ )⊥ , montrons x ∈ F . Comme E = F ⊕ F ⊥ , il existe (xF , xF ⊥ ) ∈ F × F ⊥ tel que x = xF + xF ⊥ . On fixe un tel couple (xF , xF ⊥ ), et on calcule (x|xF ⊥ ). On obtient ||xF ⊥ ||2 = 0, donc xF ⊥ = 0 et x = xF ∈ F . D’où il vient immédiatement, dans le cas où E est de dimension finie : Corollaire 4.2. On suppose que E est de dimension fini. Alors : dim(F ⊥ ) = dim(E) − dim(F ). Par contre dans le cas où E est de dimension finie, on voit que F ⊥ aussi est de dimension infinie. cf exercice: 14 Exemples: • Dans R2 , l’orthogonal d’un vecteur non nul est une droite. • Dans R3 , si D est une droite (vectorielle), alors D⊥ est un supplémentaire de D dans R3 , c’est donc un plan (vectoriel). Si P est un plan, alors son orthogonal est une droite. On se souvient de la formule pratique vue en début d’année et au lycée : soit D une droite et v tel que (v) est une base vecteur directeur de D). Soit (a, b, c) les coordonnées de de D (on dit alors que v est un ⊥ 3 v, alors D = (x, y, z) ∈ R ax + by + cz = 0 , c’est le plan d’équation ax + by + cz. Et réciproquement, soient (a, b, c) ∈ R3 et P le plan d’équation ax + by + cz = 0, alors P ⊥ est la droite Vect((a, b, c)). On se souvient également que si u et v sont deux vecteurs non colinéaires, alors le vecteur u ∧ v est un vecteur non nul orthogonal à u et v. Et si (u, v) est une famille ON, alors (u, v, u ∧ v) est une BONd de R3 . (Mais le produit vectoriel n’est malheureusement défini que pour un espace de dimension 3.) 4.2 Projection orthogonale Le fait que F ⊕ F ⊥ = E nous permet de définir la projection sur F parallèlement à F ⊥ : Définition 4.3. La projection sur F parallèlement à F ⊥ s’appelle la projection orthogonale sur F et se note pF . 12 Dans la preuve précédente, nous avions calculé la décomposition d’un vecteur x dans la somme F ⊕ F ⊥ , ce qui nous donne immédiatement la formule pour pF (x) : Proposition 4.4. (formule pour pF ) Alors pour tout ~x ∈ E : pF (~x) = k X (~ei |~x).~ei i=1 Remarques : • En outre, le projeté sur F ⊥ est x − pF (x). • Si la base est seulement orthogonale, alors ( 1 1 .e1 , ..., .ek ) est une BON, et nous pouvons ||e1 || ||ek || appliquer la formule à celle-ci, nous trouvons : pF (x) = k X i=1 1 (ei |x).ei ||ei ||2 Ainsi, le projeté orthogonal sur F est très facile à calculer à condition d’avoir une BON de F ! Si on n’en a pas on peut en calculer une grâce à l’orthonormalisation de Gramm-Schmidt. Ceci présente l’avantage qu’une fois calculée une BON de F , on pourra calculer autant de projeté sur F que l’on souhaite facilement. Par exemple on pourra obtenir la matrice de pF . cf exercice: 32, 34. Par contre si on ne veut calculer qu’un seul projeté sur F il n’est pas nécessaire de calculer une BON de F . On peut se baser sur le fait que x − pF (x) ∈ F ⊥ . Voir l’exemple ci-dessous. Proposition 4.5. (inégalité de Bessel) Soit p ∈ L(E) une projection orthogonale. Pour tout x ∈ E, on a : ||p(x)|| 6 ||x|| avec égalité si et seulement si x ∈ Im(p). Remarque : On peut prouver que réciproquement, une projection vérifiant le résultat de cette proposition est une projection orthogonale. Voir l’exercice 39. Démonstration: Soit x ∈ E. Par définition d’une projection, on sait que E = Ker(p) ⊕ Im(p), et par définition d’une projection orthogonale, cette somme est orthogonale. Soit (xk , xi ) ∈ Ker(p) × Im(p) tel que x = xk + xi . Alors p(x) = xi , et xp ⊥ xi . Par le théorème de Pythagore : ||p(x)||2 = ||xi ||2 6 ||xi ||2 + ||xk ||2 = ||x||2 . Et comme la fonction racine carrée est croissante, ceci donne ||p(x)|| 6 ||x||. En outre, pour le cas d’égalité : ||p(x)|| = ||x|| ⇔ ⇔ ⇔ ⇔ ||p(x)||2 = ||x||2 ||xi ||2 = ||xi ||2 + ||xk ||2 ||xk || = 0 ⇔ xk = 0 x ∈ Im(p) 13 4.3 Distance à F Voici enfin le théorème permettant de calculer le point de F le plus proche de x : Théorème 4.6. Pour tout x ∈ E, pF (x) est l’unique vecteur de F à distance minimale de x. Démonstration: Notons G la direction de p, donc E = F ⊕⊥ G. Notons (xF , xG ) ∈ F × G la décomposition de x dans F ⊕ G. Donc x = xF + xG et p(x) = xF . 1. Montrons que p(x) est un vecteur de F à distance minimale de x. Déjà p(x) ∈ F . La distance de x à p(x) est ||x − p(x)|| = ||xG ||. Soit yF ∈ F un autre vecteur de F . Alors : ||x − yF ||2 = ||xF − yF + xG ||2 = ||xF − yF ||2 + ||xG ||2 > ||xG ||2 Par croissance de la fonction racine carrée, on obtient ||x − yF || > ||x − p(x)||. Donc : ||x − p(x)|| = min n ||x − yF || yF ∈ F o , p(x) est bien un vecteur de F à distance minimale de x. 2. Montrons que p(x) est l’unique tel vecteur de F . Soit donc yF ∈ F un autre vecteur à distance minimale de x. Alors ||x − yF || = ||x − p(x)||. Ce qui donne ||xF − yF || = 0, donc yF = xF = p(x). Définition 4.7. Pour tout x ∈ E, on appelle distance de x à F le nombre : d(x, F ) = ||x − pF (x)|| = min ||x − f ||. f ∈F Remarque : La proposition précédente prouve en particulier l’existencende ce minimum.oDe manière plus générale, la distance d’un point x à un ensemble Y est défini comme inf d(x, y) y ∈ Y . N.B. On rappelle que x − pF (x) est le projeté de x sur F ⊥ . Donc on peut aussi écrire : d(x, F ) = ||pF ⊥ (x)|| Exemples: • distance à une droite : soit D une droite de E. Soit u ∈ D \ {0}, donc (u) est une base de D, et ( 1 .u) ||u|| en est une BON. Alors pour tout x ∈ E, pD (x) = (u|x).u et d(x, D) = ||x − (x|u).u||. • Dans R2 , R3 ... 4.4 4.4.1 Exemples Cas où E est euclidien Dans le cas où E est lui-même de dimension finie, F ⊥ est aussi de dimension finie. En notant n = dim(E), on a dim(F ⊥ ) = n − k. Soit (~ek+1 , . . . , ~en ) une BON de F ⊥ . Soit x ∈ E, on peut alors calculer la distance de x à F ainsi : v u X n X u n < ~ei |~x >2 d(x, F ) = ||pF ⊥ (x)|| = || < ~ei |~x > .~ei || = t i=k+1 i=k+1 14 C’est la formule classique pour calculer la distance d’un point à une droite dans R2 ou d’un point à un plan dans R3 . Dans R2 : 2 Soit (a, b) ∈ R et D = (x, y) ∈ R ax + by = 0 (la droite d’équation ax + by = 0). 2 Notons ~n = (a, b), alors pour tout (x, y) ∈ R2 : (x, y) ∈ D ⇔ ax + by = 0 ⇔ (x, y) ⊥ ~n ⇔ (x, y) ∈ ~n⊥ Ainsi, D = ~n⊥ , et D⊥ = Vect(~n) (on est en dimension finie). Remarque : On a donc D ⊕ ~n⊥ = R2 , et la somme est orthogonale. Et (~n) est une base orthogonale de D⊥ , une base orthonormée est ( 1 .~n). ||~n|| Alors par la formule précédente : |ax + by| 1 1 2 < .~n|w ~ > = < .~n|w ~ > = √ ||~n|| ||~n|| a2 + b2 s 2 ∀w ~ = (x, y) ∈ R , d(w, ~ D) = Dans R3 : Le principe est le même que ci-dessus. 3 Soit (a, b, c) ∈ R et D = (x, y, z) ∈ R2 ax + by + cz = 0 (le plan d’équation ax + by + cz = 0). Notons ~n = (a, b, c), alors P = ~n⊥ , et P ⊥ = Vect(~n), (~n) est une base orthogonale de D⊥ , une base 1 orthonormée est ( .~n). ||~n|| Alors par la formule précédente : |ax + by + cz| 1 3 .~n|w ~ > = √ ∀w ~ = (x, y, z) ∈ R , d(w, ~ D) = < ||~n|| a2 + b2 + c2 N.B. Les deux exemples qu’on vient de voir sont particulièrement simples cas F ⊥ est de dimension 1, on trouve donc sans aucune difficulté une BON de F ⊥ . 4.4.2 Algorithme général On se donne un sous-espace vectoriel F de E , et une base B de F . La méthode générale pour calculer la projection sur F est la suivante : 1. Orthonormaliser B. 2. En notant C la base obtenue, on utilise la formule ∀x ∈ E, pF (x) = C[i] le ième élément de C (ci-dessous, C sera un eliste python) P i < x|C[i] > .C[i], en notant Voici alors un algorithme python pour effectuer ces opérations. L’algorithme prendra en entrée B (qui sera de type list), mais aussi le produit scalaire ps, mais aussi les opérations plus et point, et le vecteur nul vnul. import numpy as np def orthonormalisation(B, ps, plus, point): \og \fg{}\og orthonormalise B selon Gramm-Schmidt, en utilisant le produit scalaire ps. 15 plus et point sont les opérations de l'espace vectoriel\fg{}\og \fg{} def norme(x): return np.sqrt( ps(x,x)) C=[] #pour contenir la BON for i in range(len(B)): #on traite le ième vecteur de B d= B[i] for k in range(i): d= plus( d , point( -ps(B[i], C[k]), C[k]) ) f= point( 1/norme(d), d) #on normalise d C.append(f) return(C) def projection(B,ps,x,plus,point, vnul): \og \fg{}\og projette x sur vect(B), en utilisant le produit scalaire ps.\fg{}\og \fg{} C=orthonormalisation(B,ps, plus, point) p=vnul for i in range(len(C)): p= plus( p, point( ps(x,C[i]), C[i])) return(p) Voici un exemple d’utilisation pour projeter des fonctions : import matplotlib.pylab as plt def plusFonction (f, g): return( lambda x:f(x)+g(x) ) def pointFonction(k,f): return(lambda x:k*f(x)) def integrale(f,a,b): \og \fg{}\og Calcul d'intégrale selon la méthode de Simpson\fg{}\og \fg{} S=f(a)+f(b) n=100 h=(b-a)/n for i in range(n): S+= 4*f(a+(i+.5)*h) for i in range(1,n): S+= 2*f(a+i*h) return(S*h/6) def psFonction(f,g): return( integrale( lambda x:f(x)*g(x) , 0,1)) def dessinProjFonction( f, B, a, b): p = projection(B,psFonction,f,plusFonction ,pointFonction, lambda x:0) 16 labs =[ a+ .01*i*(b-a) for i in range(100) ] lf =[ f(x) for x in labs] lp=[p(x) for x in labs] plt.plot( labs, lf,label=\og graphe de f\fg{}) plt.plot( labs, lp, label=\og grpahe du projeté\fg{}) plt.legend() plt.show() Voici le résultat obtenu pour projeter sin sur Vect(1, Id, x 7→ x2 ). Notez que le produit scalaire est en réalité un produit scalaire uniquement sur C([0, 1], R). La fonction obtenu est donc proche de sin uniquement sur l’intervalle [0, 1]. 4.4.3 Exemples sans connaître de base orthonormée de F En pratique, on ne connaît pas souvent de base orthonormée de F . Bien sûr, on peut toujours orthonormaliser une base, mais on peut aussi s’en passer. En effet, soit x ∈ E, alors pF (x) est l’unique vecteur de F tel que (x − pF (x)) ∈ F ⊥ . Si C = (f1 , ..., fn ) est une base quelconque de F , alors on sait que : (x − pF (x)) ∈ F ⊥ ⇔ ∀i ∈ J1, nK, < x − pF (x)|fi >= 0 Notons (λ1 , ..., λn ) les coordonnées de pF (x) dans la base C, elles vérifient donc : ∀i ∈ J1, nK, < x − n X λj .fj |fi >= 0 j=1 ceci est un simple système d’équations de n équations et n inconnues... N.B. Chercher une base orthonormée est rentable si on a plusieurs projections à faire. Si on en a une seule, on préférera faire le calcul directement comme ci-dessus. Exemple: Calculer le projeter de sin sur Vect(1, Id), i.e. la fonction polynomiale de degré 6 1 la plus proche possible de sin. 17 Notons F = Vect(1, Id), B = (1, Id), pF la projection orthogonale sur F . On cherche donc pF (sin), et B est une base de F . Comme pF (sin) ∈ F , nous pouvons prendre ses coordonnées dans B : soit (a, b) ∈ R2 tel que pF (sin) = a + bId, i.e. pF (sin) : t 7→ a + b.t. Ensuite, sin −pF (sin) est le projeté de sin sur F ⊥ , donc : donc donc donc donc donc donc donc donc donc donc donc donc sin −pF (sin) ∈ F ⊥ sin −pF (sin) ∈ (VectB)⊥ sin −pF (sin) ∈ B ⊥ ( sin −pF (sin) ⊥ 1 sin −pF (sin) ⊥ Id ( sin −pF (sin) | 1 = 0 sin −pF (sin) | Id = 0 ( sin −pF (sin) | 1 = 0 sin −pF (sin) | Id = 0 ( sin | 1 = pF (sin) | 1 Zsin | Id Z= pF (sin) | Id 1 1 sin = (a + bt)dt 0 Z0 1 Z 1 t. sin(t).dt = (at + bt2 )dt 0 0 1 1 − cos(1) = a + b 2 Z 1 1 1 1 [−t. cos(t)] − − cos(t).dt = a + b 0 2 3 0 1 a + b = 1 − cos(1) 2 1 1 a + b = − cos(1) + sin(1) 3 2 − 1 b = 1 + cos(1) − 2 sin(1) 6 1 1 a + b = − cos(1) + sin(1) 2 3 b = −6 − 6 cos(1) + 12 sin(1) 1 a = 2.(− cos(1) + sin(1) − b) 3 ( b = −6 − 6 cos(1) + 12 sin(1) ' 0, 86 a = 4 + 2 cos(1) − 6 sin(1) ' −0, 03 L1 ← L1 − 2L2 Ainsi, la fonction polynomiale de degré 1 la plus proche possible de sin, au sens du produit scalaire < .|. > défini ci-dessus est t 7→ 4 + 2 cos(1) − 6 sin(1) + t.(−6 − 6 cos(1) + 12 sin(1)), environ t 7→ −0, 03 + 0, 86.t. 18 (On rappelle qu’ayant considéré un produit scalaire sur C([0, 1], R), le projeté n’est proche de f que sur [0, 1].) Exemple: Calculer inf (a,b,c)∈R3 R1 −1 (t3 − at2 − bt − c)2 .dt. R1 On munit R3 [X] du produit scalaire (P, Q) 7→ −1 P (t).Q(t).dt. Alors la valeur cherchée n’est autre que d(X 3 , R2 [X]). Pour la trouver, il nous suffit de calculer le projeté orthogonal de X 3 sur R2 [X]. Soit P ce projeté, et soit (a, b, c) ∈ R3 tel que P = aX 2 + bX + c. Comme nous ne connaissons pas de BON de R3 [X] pour ce produit scalaire, nous allons juste utiliser le fait que X 3 − P ∈ R2 [X]⊥ . Autrement dit : 3 (X − P |1) = 0 (X 3 − P |X) = 0 (X 3 − P |X 2 ) = 0 3 X et d = 8/175. 5 Remarque : Bien sûr une autre méthode est de déterminer une BON de R2 [X], ou même directement de R2 [X]⊥ . ...... On trouve P = 4.5 Résumé des méthodes de calcul • En général, chercher une BON de F , projeter, et calculer ||pF (x) − x||. • Si E est de dimension finie, si on a une BON de F ⊥ , autant calculer directement pF ⊥ (x). • On peut aussi chercher les coordonnées de pF (x) dans une base B = (e1 , ..., ep ) de F pas orthonormée en résolvant le système ∀i ∈ J1, pK, < ei |pF (x) >= 0. Méthode à préférer lorsqu’on ne dispose pas d’une BON de F et qu’on veut calculer qu’un seul projeté. Deuxième partie Exercices 19 Exercices : géométrie euclidienne Sauf mention du contraire, n est un entier naturel et (E, +, ·, · | · ) un espace euclidien de dimension n. 1 Produits scalaires 1.1 Exemples de produits scalaires Exercice 1. ** produits scalaires sur Rn Soit n ∈ N∗ et E = Rn . Soit (a1 , ..., an ) ∈ Rn . On définit la fonction : m: E2 → R Pn . (x1 , ..., xn ), (y1 , ..., yn ) 7→ i=1 ai .xi .yi 1) Vérifier que m est une forme bilinéaire symétrique. 2) Vérifier que m est un produit scalaire si et seulement si ∀i ∈ J1, nK, ai > 0. Exercice 2. * ! Exemples de produit scalaires sur Rn [X] Soit n ∈ N. Montrer que l’application (.|.) est un produit scalaire sur Rn [X] dans les cas suivants : 1) ∀(P, Q) ∈ Rn [X]2 , (P |Q) = R1 −1 P (t).Q(t).dt 3) ∀(P, Q) ∈ Rn [X]2 , (P |Q) = n+1 X P (k) (0).Q(k) (1) k=1 2) ∀(P, Q) ∈ Rn [X]2 , (P |Q) = n+1 X 4) ∀(P, Q) ∈ Rn [X]2 , (P |Q) = P (k).Q(k) n+1 X P (k) (2).Q(k) (2) k=1 k=1 Ces formules définissent-elles encore un produit scalaire sur R[X] ? Exercice 3. * ! produits scalaires sur C([0, 1], R) Soit E = C([−1, 1], R). Z 1 1) Pour tout (f, g) ∈ E 2 , on pose < f |g >= f (t).g(t).et .dt. Démontrer que < .|. > est un produit scalaire −1 sur E. 2) (**) Même question avec (.|.) défini par ∀(f, g) ∈ E 2 , (f |g) = R1 −1 f (t).g(t).(1 − t2 )dt Exercice 4. *** une généralisation de l’exercice précédent Soit (a, b) ∈ R2 tel que a < b, et E = C([a, b], R). On fixe h ∈ E, et on définit < .|. >h ainsi : 2 ∀(f, g) ∈ E , Z < f |g >h = b f.g.h. a 1) Montrer que si ∀x ∈ [a, b], h(x) > 0, alors < .|. > est un produit scalaire. 2) Montrer que si h > 0 et h ne s’annule qu’un nombre fini de fois, alors < .|. > est encore un produit scalaire. 3) Montrer que si < .|. > est un produit scalaire, alors h > 0. Exercice 5. * un produit scalaire sur C 1 ([0, 1], R) Soit E = C 1 ([0, 1], R). Pour tout (f, g) ∈ E 2 , on pose Z < f |g >= f (0).g(0) + 0 Démontrer que < .|. > est un produit scalaire sur E. 1 1 f 0 (t).g 0 (t)dt. Exercice 6. ** une généralisation de l’exercice précédent Soit k ∈ N, on définit pour tout (f, g) ∈ C k ([0, 1]), Z 1 k−1 X < f |g >k = f (i) (0).g (i) (0) + f (i) .g (i) . 0 i=0 Montrer que < .|. >k est un produit scalaire sur C k ([0, 1]). Exercice 7. ** ! Produit scalaire sur l’ensemble des P matrices n Soit n ∈ N∗ . Pour tout M ∈ Mn (K), on pose T r(M ) = k=1 Mk,k , c’est la « trace » de M . 2 On définit ensuite pour tout (A, B) ∈ Mn (K) , < A|B >= T r(t A.B). 1. Pour tout (A, B) ∈ Mn (K)2 , donner une formule explicite exprimant < A|B > en fonction des coefficients de A et de B. 2. Démontrer que < .|. > est un produit scalaire. √ 3. Montrer que pour tout M ∈ Mn (K), |T r(M )| 6 n.||M ||. 4. (avec le ! cours sur les projections) Pour cette question, on prend n = 2. Déterminer la distance de 1 2 à l’ensemble des matrices diagonales. 2 3 1.2 Autres Exercice 8. * identité du parallélogramme Soit (x, y) ∈ E 2 . Montrer que ||x + y||2 + ||x − y||2 = 2(||x||2 + ||y||2 ). Interpréter en terme de longueurs dans un parallélogramme. Exercice 9. ** Cauchy-Schwartz pour l’espérance Montrer que pour tout couple de variables aléatoires : E(X × Y )2 6 E(X 2 ) × E(Y 2 ). Exercice 10. ** ! Utilisation de l’inégalité de Cauchy-Scwharz Montrer les inégalités suivantes et étudier les cas d’égalité : 1) Pour n ∈ N et (x1 , ..., xn ) ∈ Rn : 2 n n X X xi 6 n. x2i . i=1 2) Pour n ∈ N, (x1 , ..., xn ) ∈ (R+∗ )n tel que Pn i=1 i=0 xi = 1 : n X i=0 1 > n2 . xi 3) Pour (a, b) ∈ R2 tel que a < b, et f ∈ C 0 ([a, b], R) strictement positive : Z b Z b 1 f. > (b − a)2 . a a f Exercice 11. ** inégalité sur une limite de suites P 1 1 Pn 1 n Soit u ∈ (R+∗ )N . Soit v = u et w = . On suppose que v et w k n k=1 n k=1 uk n∈N n∈N convergent, on note l et l0 leur limites respectives. Montrer que ll0 > 1. Exercice 12. *** Existence de produit scalaire pour qu’une base donnée soit ON Soit E un R-ev de dimension finie, n = dim(E), et B = (e1 , ..., en ) une base de E. Démontrer qu’il existe un unique produit scalaire (.|.) sur E pour lequel B soit une BON. 2 2 Orthogonalité 2.1 Vecteurs orthogonaux Exercice 13. *** une caractérisation de deux vecteurs orthogonaux Soit (x, y) ∈ E 2 . Montrer que : x⊥y ⇔ ∀λ ∈ R, ||λx + y|| > ||y|| . Exercice 14. ** résultats de géométrie élémentaire du plan et de l’espace Énoncer précisément et démontrer les résultats de géométrie élémentaire suivants : 1) Dans un plan : deux vecteur orthogonaux à un même troisième non nul sont colinéaires 2) Dans un espace de dimension 3 : trois vecteur orthogonaux à un même quatrième non nul sont coplanaires 3) Dans un espace de dimension 3 : Soit ~u et ~v non colinéaires, alors deux vecteurs orthogonaux à ~u et à ~v sont colinéaires. Exercice 15. ** avec le produit vectoriel R3 → R3 On fixe un vecteur a ∈ R3 . Soit f : . Montrer que f est un automorphisme x 7→ x + a ∧ x 2.2 Exemples de familles orthogonales Exercice 16. * ! BON incomplète Vérifier que les familles suivantes sont orthogonales et libres, et les compléter en des BOd. Multiplier enfin les vecteurs par un scalaire pour obtenir une BONd. Les deux premières sont des familles de vecteurs de R3 muni du produit scalaire canonique, la troisième est dans R4 muni du produit scalaire canonique. 1) F = (1, 0, 2), (2, 0, −1) 2) G = (1, 1, 1) 3) H = (1, 0, 2, 1), (2, 0, −1, 0) . Exercice 17. * BON de R2 [X] R1 On munit R2 [X] du produit scalaire < .|. > tel que ∀(P, Q) ∈ R2 [X], < P |Q >= 0 P (t).Q(t).dt. 1) La base canonique est-elle orthogonale ? 2) Calculer ||1||, ||X||, ||X 2 ||. 3) Orthonormaliser la base canonique de R2 [X] Exercice 18. * BON adaptée à un plan 1) On se place dans R3 munit du produit scalaire canonique. Soit P = n o (x, y, z) x + 2y + z = 0 . Déter- miner une BONd de R4 dont les deux premiers vecteurs forment une base de P. n o 2) Même question dans R4 avec P = (x, y, z, t) x + y = 0 et z + t = 0 . Exercice 19. * exemple simple avec des polynômes On note E = R3 [X]. Pour tout (P, Q) ∈ E 2 , on pose : P | Q = P (0)Q(0) + P (1)Q(1) + P (2)Q(2) + P (3)Q(3) 1. Montrer que · | · est un produit scalaire sur E. 2. Que dire de la famille (X − 1)(X − 2)(X − 3), X(X − 2)(X − 3), X(X − 1)(X − 3), X(X − 1)(X − 2) ? L’orthonormaliser. On notera B la base obtenue. 3. Calculer les coordonnées de X dans B. Plus généralement, étant donné Q ∈ E, donner les coordonnées de Q dans B. 3 4. Soit P ∈ E. Calculer X | P , et montrer : √ p P (1) + 2P (2) + 3P (3) 6 14 P (0)2 + P (1)2 + P (2)2 + P (3)2 . Exercice 20. ** ! Exemple de famille orthonormée de polynômes Soit n ∈ N∗ et E = Rn [X]. On définit pour tout (P, Q) ∈ Rn [X]2 , (P |Q) = n X P (k) (0).Q(k) (0) k=0 1) Montrer que (.|.) est un produit scalaire. 2) Trouver une BON de (E, (.|.)). Exercice 21. *** ! Deuxième exemple de famille ON dans R[X] Pour tout (P, Q) ∈ R[X]2 , on pose : Z π 1 P (eiθ ).Q(e−iθ )dθ. (P |Q) = 2π −π 1) Montrer que (.|.) est un produit scalaire. 2) Montrer que pour tout n ∈ N, la famille (1, X, X 2 , ..., X n ) est orthonormée. 3) Calculer ||1 + X 2 + 2X 3 ||, puis (1 + X + X 2 |X + 2X 4 ). Exercice 22. *** Autre exemple dans Rn [X] Pour tout (P, Q) ∈ Rn [X]2 , on pose : < P |Q >= n X P (k) (k).Q(k) (k) k=0 1 Pour tout k ∈ J0, nK, on pose Pk = X.(X − k)k−1 . k! 1. Montrer que (P0 , ..., Pn ) est une base de Rn [X]. 2. Montrer que < .|. > est un produit scalaire sur Rn [X]. 3. Montrer que (P0 , ..., Pn ) est orthonormée. Exercice 23. *** Exemple de famille orthonormée de fonctions π 1) Montrer que pour tout n ∈ N l’équation x. tan(x) = 1 d’inconnue x ∈]nπ, nπ. [ admet une unique 2 solution. On notera xn cette solution. [−1, 1] → R 2 + x2n cos(xn t) . 2) On pose pour tout n ∈ N an = . et f : n t 7→ √ 1 + x2n an Montrer que la famille (fn )n∈N est orthonormale pour le produit scalaire usuel sur l’espace C([−1, 1], R). 2.3 Géométrie à l’ancienne Exercice 24. ** pyramide On se place dans l’espace usuel. Soit SABCD une pyramide de sommet S et de base ABCD carrée. On note O le centre de ABCD, a la longueur AB, et h la longueur OS. −→ −→ −→ −→ 1. Calculer SA.SO et SA.SC. 2. Comment choisir h pour que les arêtes [SA] et [SC] soient perpendiculaires ? 3. Quelle est alors la longueur SA ? Exercice 25. *** Angle dans une molécule de CH4 Notons A, B, C, D l’emplacement des quatre atomes d’hydrogène dans une molécule de méthane, et O −→ −−→ l’emplacement du carbone. Calculer l’angle (OA, OB). 4 2.4 Familles orthogonales : exercices théoriques Exercice 26. *** CNS pour une BON Soit k ∈ N∗ et F = (e1 , ..., ek ) une famille de k vecteurs de E. Montrer que F est une BON de E si et seulement si : ∀i ∈ J1, nK, ||ei || > 1 et ∀x ∈ E, ||x||2 = n X (ei |x)2 i=1 Exercice 27. ** Variante un peu plus simple Soit (E, < .|. >) un espace euclidien. Soit n ∈ P N et B = (e1 , . . . , en ) ∈ E n une famille de vecteurs n 2 unitaires. On suppose que pour tout x ∈ E, ||x|| = k=1 < x|ek >. Montrer que B est une base orthonormée de E. Exercice 28. **** Exemple de choix de base particulière Soit u ∈ L(E). Montrer qu’il existe une base B = (e1 , ..., en ) de E telle que ∀(i, j) ∈ J1, nK tel que i 6= j, (u(ei )|u(ej )) = 0. 2.5 Sous-espaces orthogonaux Exercice 29. ** Contre-exemple en dimension infinie n o R1 On munit R[X] du produit scalaire · | · : (P, Q) 7→ 0 P (t)Q(t)dt. On pose F = P ∈ R[X] P (0) = 0 . 1. Soit P ∈ F ⊥ . Que vaut X × P | P ? 2. Montrer que F ⊥ = {0}. 3. Que vaut F plusF ⊥ ? Exercice 30. ** ! ! orthogonal d’une réunion ou d’une intersection Soient X et Y deux parties de E. 1) Exprimer (X ∪ Y )⊥ en fonction de X ⊥ et Y ⊥ . 2) Vérifier l’inclusion (X ∩ Y )⊥ ⊃ Vect(X ⊥ ∪ Y ⊥ ). Trouver un exemple ou l’égalité est vérifiée, trouver un exemple où elle ne l’est pas. Exercice 31. ** calculs avec des sev orthogonaux Soit E un espace euclidien. Soient F et G deux sev de E vérifiant : F ⊂ G⊥ et F + G = E 1) Montrer que F = G⊥ et G = F ⊥ et F ⊕ G = E. 2) Même question en ne supposant plus que E est de dimension finie. 3 3.1 Distance, projections Calculs de projetés et de distance Exercice 32. * ! Calcul d’une projection orthogonale dans R3 On se place dans R3 muni du produit scalaire canonique. Soient les vecteurs u = (1, 2, 2), v = (−1, 4, 1) et w = (2, 5, 1). 1) Orthonormaliser la famille (u, v) selon le procédé de Gramm-Schmidt. 2) Soit P = Vect(u, v), et p la projection orthogonale sur P . Calculer la matrice de p dans la base canonique de R3 . 5 3) Calculer la distance du point (1, 1, 1) au plan P . Exercice 33. ** Projection sur une droite dans R2 2 Soit (a, 0)} et D ladroite vectorielle d’équation ax + by = 0. On rappelle que cela signifie b) ∈ R \ {(0, que D = (x, y) ∈ R2 ax + by = 0 . 1. On note ~n = (a, b). Démontrer que D = ~n⊥ . On dit que ~n est un vecteur normal à D. Donner un vecteur directeur de D, i.e. un vecteur ~u tel que (~u) est une base de D. 2. Soit (x, y) ∈ R2 . Donner une formule pour calculer d (x, y), D . 3. Même question pour la distance à un plan dans R3 : on fixe (a, b, c) ∈ R3 \ {(0, 0, 0)} et on note P le plan d’équation ax + by + cz = 0. Déterminer un vecteur normal à P , puis proposer une formule pour la distance d’un point à P . Exercice 34. ** exemple dans R4 On se place dans R4 muni du produit scalaire canonique. Calculer la matrice dans ( x + 2y + 3z + 4t = 0 4 la projection orthogonale sur l’espace F = (x, y, z, t) ∈ R x + 3y + 5z + 7t = 0 labase canonique de . Exercice 35. ** Exemple de projection de fonctions Calculer le projeté orthogonal de tan sur Vect(sin, cos) pour le produit scalaire < .|. >: (f, g) 7→ R π/4 f (t).g(t).dt. −π/4 Exercice 36. ** (CCP) projection de fonction Dans l’espace E = C([0, 2π], R) avec le produit scalaire usuel, calculer le projeté orthogonal de x 7→ sin(x) sur Vect(x 7→ cos(x), x 7→ cos(2x)). Exercice 37. ** ! algorithme de projection, séries de Fourrier Soit E l’ensemble des fonctions continues et 2π-périodiques sur R, muni du produit scalaire < .|. > tel 1 Rπ que ∀(f, g) ∈ E 2 , < f |g >= f (t)g(t)dt. 2π −π Soit p ∈ N. On pose : Fp = Vect(1, cos, sin, cos ◦2Id, sin ◦2Id, . . . , cos ◦pId, sin ◦pId) 1) Vérifier l’axiome de séparation pour < .|. >. On admettra les autres conditions prouvant que < .|. > est un produit scalaire. 2) Trouver une base orthonormée de F . 3) Proposer un algorithme pour calculer pF (f ), et l’implémenter sous Python. 3.2 Autres Exercice 38. * projections associées Soit F un sev de E et pF la projection orthogonale sur F . Montrer que IdE − pF est la projection orthogonale sur F ⊥ . Exercice 39. *** caractérisation d’un projecteur orthogonal Soit p un projecteur de E. Démontrer que p est un projecteur orthogonal si et seulement si ∀x ∈ E, ||p(x)|| 6 ||x||. Exercice 40. **** Déterminant de Gramm Soit F = (e1 , ..., en ) ∈ E N . On note G(e1 , ..., en ) = G(F) ∈ Mn (R) la matrice dont, pour tout (i, j) ∈ J1, nK2 , le coefficient i, j est (ei |ej ). 6 1) Montrer que si F est liée, alors det(G(F)) = 0. 2) Calculer det(G(F)) dans le cas où F est orthonormée. 3) On suppose à présent que F est libre, et on note F = Vect(F). Soit B une BON de F , et P = M atB (F). Exprimer G(F) en fonction de P et t P . En déduire : det(G(F)) > 0 4) Montrer que pour tout x ∈ E, s d(x, F ) = det(G(x, e1 , ..., en )) det(G(e1 , ..., en )) 5) Dans R3 , calculer une formule pour la projection orthogonal sur le plan Vect (1, 2, 1), (−1, 1, 0) . Quelques indications 3 2) Pour le caractère défini : si (f |f ) = 0, on obtient sans peine que ∀t ∈] − 1, 1[, f (t) = 0. Pour montrer que f (−1) = 0 = f (1), utiliser la continuité. 4 2) Soit a1 , ..., an les points où h s’annule. Si < f |f >= 0, on obtient facilement que f est nulle sur I \ {a1 , ..., an }. Utiliser ensuite la continuité de f en les ai 3) raisonner par l’absurde 7 1. Vérifier que < A|B >= 2. Vérifier que ( 1 0 Pn Pn 0 0 , 1 0 i=1 j=1 Ai,j .Bi,j . 0 ) est une BON de l’ensemble des matrices diagonales. 1 9 C’est l’inégalité de Cauchy-Schwartz, il suffit de faire la même preuve que celle du chapitre sur la géométrie euclidienne, à savoir étudier la fonction λ 7→ E((λX + Y )2 ). 11 Pour tout n ∈ N, utiliser le produit scalaire usuel sur Rn . Penser à Cauchy-Schwartz. 12 Utiliser les coordonnées dans B. 13 Passer au carré et développer. Étudier les limites en 0+ puis en 0− . 15 Calculer Kerf . 18 Commencer par trouver une base de P, puis l’orthonormaliser. 19 2) vérifier qu’elle est orthogonale. Ne reste plus qu’à normer ses vecteurs. 4) Cauchy-Schwartz 20 2) Partir de la base canonique. 21 1) utiliser la formule ∀P ∈ R[X], ∀z ∈ C, P (z̄) = P (z). 26 Pour le sens non évident : fixer j ∈ J1, nK et appliquer la formule donnée avec x = ej . 28 Partir d’une base orthonormée de Im(u), et d’une base de Ker(u). 31 1) L’étude de la dimension suffit 34 Comme dans l’exercice 32 7 35 Pour calculer le projeté d’un seul vecteur, lorsqu’on ne dispose pas d’une base orthonormée de l’espace sur lequel on projette, il n’est pas obligatoire d’utiliser l’orthonormalisation de Gramm-Schmidt pour déterminer une BON. On peut juste déterminer les coefficients α, β tels que p(tan) = α sin +β cos en résolvant un système. 36 Il n’est pas nécessaire de calculer une BON de Vect(cos, cos ◦2Id). 38 Montrer que c’est la projection sur F ⊥ de direction F en utilisant directement la définition. 39 Utiliser ou s’inspirer de l’exercice 13. Pour montrer que Im(p) ⊥ Ker(p), soit x ∈ Ker(p) et y ∈ Im(p), étudier pour tout λ ∈ R λ.x + y et faire tendre λ vers 0. 8 Quelques solutions 1 3 4 2) On suppose que < .|. > est un produit scalaire. Supposons par l’absurde qu’il existe x0 ∈ [a, b] tel que h(x0 ) < 0. Comme h est continue en x0 , il existe ε ∈ R+∗ tel que h reste strictement positive sur ]x0 − ε, x0 + ε[∩[a, b]. Soit alors une fonction f continue sur [a, b] positive sur ]x0 − ε, x0 + ε[∩[a, b] et nulle ailleurs. (Une telle fonction existe, par exemple prendre la fonction affine par morceaux qui vaut 1 en x0 , et 0 hors de l’intervalle ]x0 − ε, x0 + ε[∩[a, b].) Rb R Alors < f |f >= a f 2 .h = ]x −ε,x +ε[∩[a,b] f 2 .h (car f 2 h est nulle sur le reste de l’intervalle). Mais la fonction 0 0 f 2 .h sur ]x0 − ε, x0 + ε[∩[a, b] est continue, négative, non nulle : donc son intégrale est strictement négative. Ainsi < f | >> 0 ce qui contredit le caractère positif du produit scalaire. Ainsi, h > 0. Par ailleurs il est possible d’obtenir un produit scalaire avec h une fonction positive qui s’annule, il suffit qu’elle ne s’annule qu’un nombre fini de fois. (Par exemple h : x 7→ |x| sur [−1, 1].) En effet : soit h une telle fonction, soit n ∈ N le nombre de points où h s’annule et a1 , ..., an ces points. RLa symétrie b et la positivité de < .|. > sont évidents, voyons le caractère défini. Soit f ∈ E tel que < f |f >= 0. Donc a f 2 .h = 0. Comme f 2 .h est continue, positive, d’intégrale nulle, elle est donc nulle. Alors ∀x ∈ [a, b] \ {a1 , ..., an }, on obtient f (x) = 0. Puis par continuité de f , f est également nulle en a1 , ..., an . ( ∀i ∈ J1, nK, 0 = limx→ai f (x) = f (ai ).) D’où f = 0. 5 6 7 8 9 10 11 12 Définissons (.|.) ainsi : pour tout (x, y) ∈ E 2 , notons (x1 , ..., xn , y1 , ..., yn ) ∈ R2n les coordonnées de x et y dans B, et posons : n X (x|y) = xi yi i=1 On prouve sans peine qu’il s’agit d’un produit scalaire et que B est ON. L’unicité découle immédiatement du cours : si < .|. > est un autre produit scalaire tel que B est ON , alors on sait que pour tout (x, y) ∈ E 2 , en notant (x1 , ..., xn , y1 , ..., yn ) ∈ R2n les coordonnées de x et y dans B, on a : < x|y >= n X xi .yi = (x|y). i=1 13 ⇒ est évident par Pythagore. Réciproquement, supposons ∀λ ∈ R, ||λx + y|| > ||y||. Alors pour tout λ ∈ R, ||λx + y||2 > ||y||2 , puis λ2 .||x||2 + 2λ.(x|y) > 0, donc pour tout λ ∈ R−∗ , −λ.||x||2 > (x|y). (on divise par λ < 0) Étudiant la limite en 0− il vient (x|y) > 0. En étudiant de même la limite en 0+ , on obtient (x|y) 6 0. 14 9 15 On vérifie facilement que f est linéaire. Soit x ∈ Ker(f ), donc x + a ∧ x = 0, donc x = −a ∧ x. Mais −a ∧ x est orthogonal à x. Donc x ⊥ x, donc x = 0. Ainsi Ker(f ) = {0}, donc f est injective. Mais f est un endomorphisme en dimension finie, c’est donc un automorphisme. 17 18 19 20 21 22 23 24 25 26 Le « seulement si » est facile. Réciproquement, on suppose ∀i ∈ J1, nK, ||ei || > 1 et Soit j ∈ J1, nK. En utilisant la formule pour x = ej : ||ej ||2 = n X ∀x ∈ E, ||x||2 = (ei |ej )2 = ||ej ||4 + i=1 (ei |x)2 . (ei |ej )2 i=1,i6=j i=1 4 n X Pn 2 Or, ||ej || > 1, donc ||ej || > ||ej || . Donc : n X (ei |ej )2 = ||ej ||2 − ||ej ||4 6 0 i=1,i6=j Pn comme cette somme est positive (somme de carré), on a donc i=1,i6=j (ei |ej )2 = 0, puis ∀i ∈ J1, nK \ {j}, (ei |ej ) = 0 (somme des termes positifs). Enfin, il reste ||ej ||4 = ||ej ||2 , d’où ||ej ||2 = 1 puis ||ej || = 1 (car ||ej || > 0). En conclusion, nous avons obtenu, quel que soit j ∈ J1, nK, ||ej || = 1 et ∀i ∈ J1, nK \ {j}, ei ⊥ ej . La famille (e1 , ..., en ) est bien orthonormée, c’est une BON de E. 27 28 Soit r = rg(u) et (f1 , ..., fr ) une base de Im(u). Pour tout i ∈ J1, rK, soit ei ∈ E tel que u(ei ) = fi . La famille (e1 , ..., er ) est libre (sinon (f1 , .., fr ) = u((e1 , ..., er )) serait liée car l’image par une application linéaire d’une famille liée est liée). On remarque en outre que Ker(f ) ∩ Vect(e1 , ...er ) = {0}, donc Ker(f ) ⊕ Vect(e1 , ..., er ) = E (les dimensions sont les bonnes). Donc si nous concaténons (e1 , ..., er ) avec une base de Ker(f ), nous obtenons une base de E. Une telle base convient, comme on le vérifie facilement. 29 1. On remarque que XP ∈ F . Donc XP | P = 0. 30 1) on trouve (X ∪ Y )⊥ = X ⊥ ∩ Y ⊥ 10 31 1) Les deux égalités donnent au niveau des dimensions : dim(F ) 6 dim(E) − dim(G) dim(E) 6 dim(F ) + dim(G). et d’où dim(F ) = dim(E) − dim(G) = dim(G⊥ ). Comme on a déjà l’inclusion F ⊂ G⊥ , ceci donne l’égalité. Ensuite, G = (G⊥ )⊥ = F ⊥ . (valable car G est de dimension finie) 2) Maintenant, on ne peut plus utiliser la dimension, et l’égalité F = (F ⊥ )⊥ n’est plus valable, on a plus que F ⊂ (F ⊥ )⊥ . Commençons par prouver que G⊥ ⊂ F . Soit donc x ∈ G⊥ . Comme E = F + G, il existe (xF , xG ) ∈ F × G tel que x = xF + xG . Et le fait que x ∈ G⊥ donne (x|xG ) = 0 d’où : 0 = (x|xG ) = (xF |xG ) + (xG |xG ). Mais F ⊂ G⊥ donc xF ⊥ xG . L’équation ci-dessus donne 0 = ||xG ||2 . Donc xG = 0E et x = xF ∈ F . On a alors G ⊂ (G⊥ )⊥ = F ⊥ . Pour l’inclusion réciproque, soit x ∈ F ⊥ , (xF , xG ) ∈ F × G tel que x = xF + xG , alors 0 = (xF |x) donne xF = 0 puis x = xG ∈ G. 32 33 34 35 36 On trouve 0. Ce qui signifie que sin est orthogonal à Vect(cos, cos ◦2Id). 37 38 On sait que E = F ⊕F ⊥ (car F est de dimension finie). Notons pF ⊥ la projection orthogonale sur F ⊥ . Sa direction est donc (F ⊥ )⊥ = F . Soit x ∈ E et (xF , xF ⊥ ) ∈ F ×F ⊥ sa décomposition dans cette somme directe. Alors pF (x) = xF et (Id−pF )(x) = x − xF = xF ⊥ = pF ⊥ (x). 39 Le « seulement si » vient de l’inégalité de Bessel. Pour le « si » : supposons ∀x ∈ E, ||p(x)|| 6 ||x||. Nous savons que p est la projection sur Im(p) parallèlement à Ker(p). Il faut donc vérifier que Ker(p) = Im(p)⊥ . Soit x ∈ Ker(p) et y ∈ Im(p), montrons que x ⊥ y. Pour tout λ ∈ R, en utilisant l’hypothèse sur le vecteur λx.y, on trouve : ||p(λ.x + y) 6 ||λ.x + y) Or, p(λ.x + y) = λ.p(x) + p(y). Et p(x) = 0 car x ∈ Ker(p), alors que p(y) = y car y ∈ Im(p). Au final p(λ.x + y) = p(y), et donc ||y|| 6 ||λ.x + y|| On met en outre l’inégalité précédente au carré pour faire apparaître les produits scalaires : ∀λ ∈ R : ||y||2 6 ||λ.x + y||2 donc donc ||y||2 6 λ2 .||x||2 + ||y||2 + 2λ x | y 0 6 λ2 .||x||2 + 2λ x | y On va diviser par λ. Attention : si λ < 0 cela change le sens des inégalités ! Pour tout λ ∈ R+∗ , on déduit : 0 6 λ.||x||2 + 2 x | y 11 et lorsque λ → 0+ , le théorème de comparaison de limites fournit : 06 x|y De même, pour tout λ ∈ R−∗ , on a (changement de sens de l’inégalité car λ < 0) 0 > λ.||x||2 + 2 x | y donne lorsque λ → 0− 0 > x | y . En conclusion, x | y = 0. 40 12 qui