Géométrie euclidienne

publicité
Géométrie euclidienne
C. Charignon
Table des matières
I
Cours
3
1 Produit scalaire
1.1 Produit scalaire et norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Inégalité de Cauchy-Schwarz, conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
4
2 Orthogonalité
2.1 Orthogonalité de deux vecteurs
2.2 Familles orthogonales, normées,
2.3 Bases orthonormées . . . . . .
2.4 Orthogonalité de parties de E .
. . . . . . . . .
orthonormales
. . . . . . . . .
. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Espaces euclidiens
3.1 Définitions générales . . . . . . . . . . . . . . . . . . . .
3.2 Caractérisation matricielle d’une base orthonormée (hors
3.3 Existence de BON . . . . . . . . . . . . . . . . . . . . .
3.3.1 Le lemme fondamental . . . . . . . . . . . . . . .
3.3.2 Orthonormalisation de Gramm-Schmidt . . . . .
3.3.3 « théorème de la base orthonormée incomplète »
3.3.4 Concaténation de familles orthonormées . . . . .
4 Projections et distance à un sev
4.1 Étude de F ⊥ lorsque F est de dimension finie . . . .
4.2 Projection orthogonale . . . . . . . . . . . . . . . . .
4.3 Distance à F . . . . . . . . . . . . . . . . . . . . . .
4.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Cas où E est euclidien . . . . . . . . . . . . .
4.4.2 Algorithme général . . . . . . . . . . . . . . .
4.4.3 Exemples sans connaître de base orthonormée
4.5 Résumé des méthodes de calcul . . . . . . . . . . . .
II
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
5
5
6
. . . . . . . .
programme)
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
8
8
9
11
11
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
12
12
14
14
14
15
17
19
.
.
.
.
. . .
. . .
. . .
. . .
. . .
. . .
de F
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Exercices
19
1 Produits scalaires
1.1 Exemples de produits scalaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Autres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
1
2
2 Orthogonalité
2.1 Vecteurs orthogonaux . . . . . . . . . . . .
2.2 Exemples de familles orthogonales . . . . .
2.3 Géométrie à l’ancienne . . . . . . . . . . . .
2.4 Familles orthogonales : exercices théoriques
2.5 Sous-espaces orthogonaux . . . . . . . . . .
.
.
.
.
.
3
3
3
4
5
5
3 Distance, projections
3.1 Calculs de projetés et de distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Autres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
6
.
.
.
.
.
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Première partie
Cours
1
Produit scalaire
Nous fixons pour ce chapitre un R-espace vectoriel E.
N.B. Le corps de base est R, car nous utiliserons la relation d’ordre. Une théorie similaire existe cependant
pour le corps C (espace « hermitiens »).
1.1
Produit scalaire et norme
Définition 1.1. Un produit scalaire sur E est une application p : E 2 → R vérifiant :
1. p est linéaire en chaque variable
2. p est « symétrique » : ∀(x, y) ∈ E 2 ), p(x, y) = p(y, x).
3. p est « positive » : ∀x ∈ E, p(x, x) > 0
4. et p est « définie » : ∀x ∈ E : p(x, x) = 0 ⇔ x = 0E .
On a l’habitude de noter (.|.), ou < ., . >, ou (., .) ou < .|. > les produit scalaires. L’image de deux
vecteurs (x, y) ∈ E 2 se note alors (x|y) (ou < x, y >,...)
Remarque : Une fois la symétrie prouvée, il suffit de montrer la linéarité selon la première variable pour
obtenir la bilinéarité.
Exemples de référence à connaître :
• Dans Rn : produit scalaire canonique.
R
• Soit I un intervalle et E = C(I, R), alors (f, g) 7→ I f.g est un produit scalaire.
Autre exemple : Dans R2 : ((x1 , y1 ), (x2 , y2 )) 7→ x1 x2 + y1 y2 − x1 y2 − x2 y1 .
Dans la suite, on fixe un produit scalaire (.|.) sur E.
Définition 1.2. (Norme)
1. Soit (.|.) un produit scalaire sur E. La norme associée à (.|.) est l’application, notée ||.||, définie par :
p
∀x ∈ E, ||x|| = (x|x).
2. Un vecteur x ∈ E tel que ||x|| = 1 est appelé un vecteur unitaire.
3. Pour tout (x, y) ∈ E 2 , on appelle la distance entre x et y le nombre ||x − y||.
Quelques relations simples reliant norme et produit scalaire : pour tout (x, y) ∈ E 2 :
• ||x + y||2 = ||x||2 + ||y||2 + 2(x|y)
• ||x − y||2 = ||x||2 + ||y||2 − 2(x|y)
1
• identités de polarisation : (x|y) = f rac12 ||x + y||2 − ||x||2 − ||y||2 = (||x + y||2 − ||x − y||2 )
4
• identité du parallélogramme : ||x + y||2 + ||x − y||2 = 2(||x||2 + ||y||2 )
Les deux premières ne sont autre que les identités remarquables qu’on connaît déjà dans C pour + et ·.
La troisième relation permet de retrouver le produit scalaire à partir de la norme (voir l’exercice ). On
l’appelle « égalité de polarisation ».
3
Enfin la dernière s’interpète géométriquement : dans le parallèlogramme de côtés x et y, x + y et x − y
sont les diagonales.
1.2
Inégalité de Cauchy-Schwarz, conséquences
Proposition 1.3. (Inégalité de Cauchy-Schwarz)
Pour tout (x, y) ∈ E 2 ,
(x|y) 6 ||x||.||y||
De plus, l’égalité se produit si et seulement si x et y sont colinéaires :
∀(x, y) ∈ E 2 ,
|(x|y)| = ||x||.||y||
(x, y) est liée .
⇔
Voici la même inégalité sans les valeurs absolues :
−||x||.||y|| 6 (x|y) 6 ||x||.||y||.
Et on peut préciser les cas d’égalité :
(
(x|y) = ||x||.||y|| ⇔
(x|y) = −||x||.||y|| ⇔
∃λ ∈ R+ tq x = λ.y
∃λ ∈ R− tq x = λ.y
Remarque : Puisque la fonction x 7→ x2 est croissante sur R+ , l’inégalité de Cauchy-Schwarz équivaut à :
∀(x, y) ∈ E 2 ,
(x|y)2 6 (x|x).(y|y)
N.B. Cette relation est souvent utile enRthéorie de l’intégration. Dans le cas où E = C(I, R), avec le produit
scalaire défini par ∀(f, g) ∈ E 2 , (f |g) = I f g, l’inégalité de Cauchy-Schwarz devient :
!2
Z
∀(f, g) ∈ C(I, R),
f.g
Z
Z
f .
6
I
2
I
g2
I
De manière générale, dès qu’on veut prouver une inégalité faisant intervenir des carrés, il est bon de se
demander s’il y a un produit scalaire dans les parages.
cf exercice: 10
Proposition 1.4. (propriétés de la norme)
Soit E un R-ev, (.|.) un produit scalaire sur E, ||.|| la norme associée.
1. ||.|| est une fonction de E dans R+ .
2. (homogénéité) ∀λ ∈ R, ∀x ∈ E, ||λ.x|| = |λ|.||x||.
3. (séparation) ∀x ∈ E, ||x|| = 0
⇔
x=0
4. (inégalité triangulaire) ∀(x, y) ∈ E 2 , ||x + y|| 6 ||x|| + ||y||.
2
Orthogonalité
2.1
Orthogonalité de deux vecteurs
Définition 2.1. Soient (x, y) ∈ E 2 . On dit que x et y sont orthogonaux lorsque (x|y) = 0.
Remarques :
4
• La relation « être orthogonal » sur l’ensemble E est symétrique.
• Soient x et y deux vecteurs orthogonaux. Alors pour tout (λ, µ) ∈ R2 , λ.x et µ.y sont orthogonaux.
• Le vecteur nul est orthogonal à tout autre vecteur.
(Ces remarques sont la conséquence du fait que (.|.) est une forme bilinéaire symétrique.)
Proposition 2.2. (théorème de Pytagore)
Soient (x, y) ∈ E 2 . Alors :
x⊥y ⇔
2.2
||x + y||2 = ||x||2 + ||y||2
Familles orthogonales, normées, orthonormales
Définition 2.3. (Famille orthogonale/orthonormale) Soit n ∈ N et F = (e1 , ..., en ) ∈ E n une famille de n
vecteurs.
1. On dit que F est une famille orthogonale lorsque ∀(i, j) ∈ J1, nK2 tel que i 6= j, (ei |ej ) = 0.
2. On dit que F est normée si tous ses vecteurs sont unitaires, i.e. ∀i ∈ J1, nK, ||ei || = 1.
3. On dit que F est orthonormale si elle est orthogonale et normée.
Proposition 2.4. (Pythagore)
Soit n ∈ N et F = (e1 , ..., en ) ∈ E n une famille de n vecteurs. On suppose F orthogonale. Alors :
||
n
X
ei ||2 =
i=1
n
X
||ei ||2 .
i=1
Remarques :
Pn
√
• Si F est orthonormale, on obtient || i=1 ei || = n. C’est la longueur de la diagonale d’un cube de
côté 1 dans Rn .
Proposition 2.5.
(i) Une famille orthogonale ne contenant aucun vecteur nul est libre.
(ii) Une famille orthonormale est libre.
2.3
Bases orthonormées
Définition 2.6. Soit B = (e1 , ..., en ) une base de E. On dit que B est :
1. une base orthogonale si c’est de plus une famille orthogonale (i.e. ∀(i, j) ∈ J1, nK, (ei |ej ) = 0).
2. une base orthonormale si c’est de plus une famille orthonormée (i.e. elle est orthogonale et pour tout
i ∈ J1, nK, ||ei || = 1).
Remarque : Partant d’une base orthogonale, on peut facilement obtenir une base orthonormale : Si B =
e1
en
(e1 , ..., en ) est une base orthogonale, alors B 0 := (
, ...,
) est une base orthonormale. (Pour tout
||e1 ||
||en ||
i ∈ J1, nK, ||ei || =
6 0 puisque ei 6= 0E ).
On verra plus loin comment obtenir une BON en partant d’une base quelconque.
Une base orthonormale est particulièrement pratique pour déterminer les coordonnées d’un vecteur :
Proposition 2.7. (Coordonnées dans une base orthonormale)
Soit (s’il en existe) B = (e1 , ..., en ) une BON de E. Alors pour tout x ∈ E, on a :
x=
n
X
(x|ei ).ei
i=1
◦
autrement dit, pour tout i ∈ J1, nK, la i coordonnées de x dans B est (x|ei ).
5
1
1
Exemple: Dans R2 , soit B = ( √ (1, 1), √ (1, −1)), on vérifie facilement que c’est une base orthonormée
2
2
de R2 . Calculons alors MatB (can).
Exemple: Soit f ∈ L(E), B = (e1 , ..., en ) une BON de E, soit M = M atB (f ). Alors pour tout
(i, j) ∈ J1, nK2 , Mi,j est la i◦ coordonnée de f (ej ), c’est donc (ei |f (ej )).
Proposition 2.8. (Expression du produit scalaire et de la distance dans une BON)
Soit B une BON. Soit (x, y) ∈ E 2 et (x1 , ..., xn ), (y1 , ..., yn ) leur coordonnées dans B. Alors :
(x|y) =
n
X
xi .yi
k=1
v
u n
uX
||x|| = t
x2
i
i=1
Remarque : Et donc la distance de x à y est :
v
u n
uX
||x − y|| = t (xi − yi )2
i=1
Ainsi, une fois trouvée une BON, les calculs sont exactement semblables à ceux qu’on effectue dans Rn
muni du produit scalaire canonique. Formellement, on peut dire que, si B est une BON, alors l’application ϕ :
E → Rn
est un isomorphismes d’espaces vectoriels qui vérifie de plus ∀(x, y) ∈
x 7→ coordonnées dans B de x
E 2 , (x|y) = (ϕ(x)|ϕ(y)) (en notant de la même manière le produit scalaire de E et le produit scalaire
canonique de Rn ). En fait, une telle application ϕ devrait être appelée un isomorphisme d’espaces euclidiens.
2.4
Orthogonalité de parties de E
Définition 2.9. Soient X et Y deux parties de E. On dit que X et Y sont orthogonales, et on note X ⊥ Y
lorsque :
∀x ∈ X, ∀y ∈ Y, (x|y) = 0
Proposition 2.10. Soit (X, Y ) ∈ P(E)2 . Si X ⊥ Y , alors Vect(X) ⊥ Vect(Y ).
Exemple: Dans R3 munit du produit scalaire canonique, soit D = Vect((1, 1, 1)) et P = Vect((1, −1, 0), (0, 1, −1)).
Alors D ⊥ P . En effet on vérifie que (1, 1, 1) ⊥ (1, −1, 0) et que (1, 1, 1) ⊥ (0, 1, −1), puis on utilise le lemme.
En particulier, soit n ∈ N et F = (e1 , ..., en ) une famille orthogonale. Alors pour tout i ∈ J1, nK, on a
{e1 , ..., ei } ⊥ {ei+1 , ..., en } et donc Vect(e1 , ..., ei ) ⊥ Vect(ei+1 , ..., en ).
Définition 2.11. Soit X ∈ P(E). On appelle l’orthogonal de X, et on note X ⊥ l’ensemble :
X ⊥ = y ∈ E | ∀x ∈ X, (x|y)
On a donc immédiatement que X ⊥ ⊥ X. En fait, X ⊥ est le plus grand ensemble qui soit orthogonal à
X.
Remarque : Dans un R-ev E quelconque, on a toujours {0}⊥ = E et E ⊥ = {0}.
Exemple: Dans R3 munit du produit scalaire usuel, soit (a, b, c) ∈ R3 , calculons {(a, b, c)}⊥ .
6
Proposition 2.12. Soit X ∈ P(E)2 . Alors :
1. X ⊥ est un sev de E.
2. X ⊥ = (VectX)⊥ .
Proposition 2.13. (orthogonalité et espaces vectoriels)
Soit F et G deux sev de E.
1. F ⊂ (F ⊥ )⊥
2. Si F ⊥ G, alors F et G sont en somme directe.
3. En particulier F et F ⊥ sont en somme directe.
Remarque : Nous verrons que si F est de dimension finie les deux derniers résultats peuvent être améliorés :
on aura F ⊕ F ⊥ = E et F = (F ⊥ )⊥ .
Voici un contre-exemple pour montrer que l’égalité n’est
pas toujours vraie
en dimension finie : prenons
E = C([0, 1], R) muni du produit scalaire usuel. Soit F = f ∈ E | f (0) = 0 . On vérifie que F ⊥ = {0}.
Ainsi, F ⊥ ⊕ F = F 6= E et (F ⊥ )⊥ = E 6= F .
cf exercice: 30
Exemple: Dans R3 munit du produit scalaire usuel, soit P = Vect((1, 1, 1), (1, 2, 3)). Calculons D⊥ .
3
Espaces euclidiens
3.1
Définitions générales
Définition 3.1. Un espace euclidien est un couple (E, (.|.)), où E est un R-espace vectoriel de dimension
finie, et (.|.) un produit scalaire sur E.
On fixe désormais un espace euclidien (E, (.|.)), on note ||.|| la norme associée, et n = dim(E).
Remarque : Soit F un sev de E. Alors la restriction de (.|.) à F 2 est un produit scalaire sur F , de plus F
est encore de dimension finie, donc (F, (.|.)) est encore un espace euclidien.
Ainsi un espace euclidien dispose de bases, et de la notion d’orthogonalité. Il sera alors souvent pratique
d’utiliser une base « orthogonale », voire « orthonormale » :
Rappel : Nous avons déjà dit qu’une famille orthogonale formée de vecteurs non nuls est automatiquement
libre. Ainsi :
Proposition 3.2.
(i) Une famille orthogonale formée de n vecteurs non nuls est une base orthogonale
(ii) Une famille orthonormale formée de n vecteurs est une base orthonormale
Exemple: Dans R3 munit du produit scalaire canonique, soit B = (1, 1, 2), (2, 0, −1), (1, 3, −2) .
3.2
Caractérisation matricielle d’une base orthonormée (hors programme)
Exemple: Dans R3 muni du produit scalaire canonique, notons B la base canonique. Soit F = ((1, 2, 1), (3, −1, −1), (−1, 4, −
Voyons si F est orthogonale ou orthonormale...
Fixons une BON B = (e1 , ..., en ) de E. Soit F une famille de vecteurs de E, comment savoir à partir de
M atB (F) si F est orthogonale ou orthonormale ? Notons k le nombre de vecteurs de F, (f1 , ..., fk ) ∈ E k ces
vecteurs et M = M atB (F) ∈ Mn,k (R).
7
Pour tout j ∈ J1, kK, la norme de fj est : ||fj || =
qP
n
k=1
⇔
fj est unitaire
2 et donc
Mi,k
n
X
2
Mi,k
= 1.
k=1
Et pour tout (i, j) ∈ J1, kK, le produit scalaire (fi , fj ) vaut : (fi |fj ) =
fi ⊥ fj
⇔
n
X
Pn
k=1
Mi,k .Mj,k , et donc :
Mi,k .Mj,k = 0.
k=1
Ainsi, F est orthogonale si et seulement si pour tout
Pn(i, j) 2∈ J1, nK tel que i 6= j,
Et F est orthonormale si de plus pour tout i ∈ J1, nK, k=1 Mi,k
= 1.
On remarque que toutes ces égalités peuvent être résumées assez simplement :
Pn
k=1
Mi,k .Mj,k = 0.
Proposition 3.3. Soit B une BON de E. Soit F une famille de vecteurs et M = M atB (F). Alors :
1. F est orthogonale si et seulement si M.t M est une matrice diagonale.
2. F est une famille normée si et seulement si la diagonale de M.t M ne contient que des 1.
3. F est une base orthonormale si et seulement si M.t M = In .
N.B. Si F est une base orthonormale, elle contient alors n vecteurs, et M est carrée. Alors la relation
M.t M = In donne que M est inversible d’inverse t M donc on a aussi t M.M = In .
N.B. Soit k le nombre de vecteurs de F, alors M ∈ Mn,k (R). Et M.t M ∈ Mn (R). Par contre t M.M ∈
Mk (R), et les points (i) et (ii) de la proposition précédente ne sont pas vrais en remplaçant M.t M par
t
M.M .
n
o
Définition 3.4. On note On (R) = M ∈ Mn (R) M.t M = In . Les éléments de On (R) sont appelés les
matrices orthogonales.
Nous venons de voire que pour tout M ∈ Mn (R),
M ∈ On (R)
⇔
⇔
M.t M = In ⇔ t M.M = In ⇔ M est inversible d’inverse t M
toute famille de vecteur pouvant être représentée dans une BON par M est une BON
N.B. Il est indispensable de prendre la matrice de F dans une BON, pas dans une base quelconque pour
appliquer ce résultat.
Proposition 3.5. Pour tout M ∈ On (R), det(M ) ∈ {−1, 1}.
Corollaire 3.6. Si B et C sont deux BON de E, alors detB (C) = detC (B) ∈ {−1, 1}.
3.3
Existence de BON
Avant d’aller plus loin avec les bases orthonormale, il est temps de prouver qu’il en existe ! Plus généralement, nous allons démontrer que toute base de E peut être modifiée d’une certaine manière en une
BON.
3.3.1
Le lemme fondamental
On étudie ici comment transformer une famille libre en une famille orthonormée dans le cas où un seul
vecteur n’est pas orthogonal aux autres.
8
Lemme 3.7. Soit k ∈ J1, nK et soit (~e1 , . . . , ~ek ) une famille orthonormée de vecteurs de E. Soit f~ ∈
E \ Vect(~e1 , . . . , ~ek ) (de sorte que (~e1 , . . . , ~ek , f~) est libre).
k
X
On pose ~gk+1 = f~ −
< f~|~ei > .~ei .
i=1
Alors la famille (~e1 , ..., ~ek , gk+1 ) est orthogonale.
1
.~gk+1 , la famille (~e1 , . . . , ~ek+1 ) est orthonormée.
Donc, en posant ensuite ek+1 =
||~gk+1 ||
Enfin, on a Vect(~e1 , . . . , ~ek+1 ) = Vect(~e1 , . . . , ~ek , f~).
3.3.2
Orthonormalisation de Gramm-Schmidt
version simple :
Théorème 3.8. (Gramm-Schmidt version simple)
Soit p ∈ N et B = (f1 , ..., fp ) une famille libre de E. Alors il existe une famille orthonormée (e1 , .., ep )
telle que ∀i ∈ J1, pK, Vect(e1 , ..., ep ) = Vect(f1 , ..., fp ).
En pratique, on calcule e1 puis e2 ...puis ep à chaque fois en utilisant le lemme 3.7.
On peut aussi démontrer un théorème d’unicité de cette famille orthonormée en rajoutant une hypothèse
supplémentaire :
Théorème 3.9. (Orthonormalisation de Gramm-Schmidt)
Soit p ∈ N et B = (f1 , ..., fp ) une famille libre de E. Alors il existe une unique famille C = (e1 , ..., ep ) de
E telle que :
1. C est orthonormée
2. ∀i ∈ J1, pK, Vect(e1 , ..., ei ) = Vect(f1 , ..., fi )
3. ∀i ∈ J1, pK, (ei |fi ) > 0.
Remarques :
• la troisième hypothèse assure l’unicité de C (sans cette hypothèse on pourrait remplacer pour n’importe quel i ∈ J1, nK, fi par −fi ). À part ça, elle n’est pas très utile dans la plupart des cas.
• Si la famille de départ est une base directe, alors son orthonormalisé de Schmidt sera une BOND.
Exemple : Soit P = Vect((1, 2, 1), (1, 0, −1)) ⊂ R3 . Calculer la matrice dans la base canonique de la
projection orthogonale sur P, puis de la symétrie selon P de direction P ⊥ .
Notons u = (1, 2, 1), v = (1, 1, −1) et w = u ∧ v. Comme (u, v) est libre, c’est une base de P. De plus,
⊥
w ∈ P ⊥ , et comme dim(P⊥ ) = 1 etw 6= 0 (puisque (u, v) 
est libre), (w)
 est une base de P .
1 0 0
1 0 0




Ainsi, M at(u,v,w) p = 0 1 0 et M at(u,v,w) (s) = 0 1 0 . Pour trouver les matrices dans les
0 0 0
0 0 −1
bases canoniques, il reste à effectuer le changement de base, donc à calculer la matrice de passage et son
inverse...
Plus simple : choisissons une BON (i, j, k) telle que (i, j) = Vect(P). Pour cela, il nous suffit d’orthonormaliser (u, v).
1
1
.u = √ .u.
La méthode de Schmidt nous donne : i =
||u||
6
1
2
Ensuite, (u|v) = 2. Donc (i|v) = √ .2. Nous définissons dans un premier temps j0 = v − √ .i =
6
6
2 1 −4
( , ,
).
3 3 3
9
r
j0
1
3
=
.j0 = √ (2, 1, −4).
||j0 ||
7
21
Remarque : Pour effectuer la vraie orthonormalisation de Schmidt, il faut vérifier que (j|v) > 0, si ce n’est
pas le cas remplacer j par −j.
Et dans un deuxième temps j =
Nous pouvons alors utiliser la formule : pour tout x ∈ E, p(x) = (x|i).i + (x|j).j.
Quant à s, il suffit de constater que s = 2p − Id.
Remarque : Pour vérifier on peut compléter (i, j) puis utiliser un changement de base : comme troisième
1
1
vecteur nous prenons k = i ∧ j = √ .(−9, 6, −3) = √ .(−3, 2, −1).
3 14
 14



1 0 0
1 0 0




Alors M ati,j,k (p) = 0 1 0 et M ati,j,k (s) = 0 1 0 .
0 0 −1
0 0 0


1
2
−3
√
√ 
√
21
14 
 6
 2
1
2 

√
√ 
La matrice de passage de la base canonique à (i, j, k) est P =  √
. L’avantage est que
21
14 
 6

−4
−1 
 1
√
√
√
6
21
14
t
−1
cette matrice est orthogonale (directe d’ailleurs), donc P = P .
La formule de changement de base est M ati,j,k (p) = P −1 .M atcan (p).P , d’où :
M atcan (p) = P.M ati,j,k (p).t P
Exercice 1. S
n
o
oit F = (x, y, z, t) x + y + z + t = 0 et x − y + z − t = 0 . Déterminer une BO de F ⊥ . Écrire les
matrices de la projection orthogonale sur F et de la symétrie orthogonale par rapport à F .
Calculer la distance de (1, 2, 3, 4) à F .
Exemple: On se place dans C([−1, 1], R) muni du produit scalaire usuel. Cherchons une BON de l’ensemble
des fonctions polynomiales
de degré au plus 2.
2
Notons F = x 7→ ax + bx + c (a, b, c) ∈ R3 :
Notons c : x 7→ x2 : on sait que (1, Id, c) est une base de F . On a (1|Id) = 0 et (Id|c) = 0. Par contre,
(1|c) = 2/3 : 1 n’est pas orthogonal à c.
Le principe est de remplacer c par un autre vecteur de la forme c − λ.1. Nous voulons que (1|c − λ.1) = 0,
donc que (1|c) = λ||1||2 , donc que 2/3 = λ.2. Il suffit de prendre λ = 1/3.
Finalement, la famille (1, Id, c − 1/3) est une
√ BO de F . p
Il reste à la normer : sachant que ||1|| = 2, ||Id|| = 2/3 et ||c − 1/3|| = 8/45, on obtient la base
orthonormée suivante de F :
!
p
1 p
1
√ , 3/2Id, 45/2(c − )
3
2
Notons e1 , e2 , e3 ces trois fonctions.
On peut maintenant calculer facilement la fonction polynomiale de degré 2 la plus proche d’une fonction
donnée.
Par exemple le projeté orthogonal de cos sur F est (cos |e1 ).e1 + (cos |e2 ).e2 + (cos |e3 ).e3 . On laisse le
calcul à python...
10
3.3.3
« théorème de la base orthonormée incomplète »
Proposition 3.10. (« théorème de la BON incomplète »)
Toute famille orthonormale sans vecteur nul peut être complétée en une BON.
Remarque : Si l’espace est orienté, et si F n’est pas déjà une base, nous pouvons toujours choisir de compléter
F en une BOND : il suffit de remplacer le dernier vecteur rajouté par son opposé pour changer l’orientation
de la base obtenue.
Corollaire 3.11. Tout espace euclidien admet au moins une base orthonormale.
Tout espace euclidien orienté admet une base orthonormée directe.
N.B. On rappelle qu’un sev d’un espace euclidien est en particulier un espace euclidien pour le produit
scalaire (restreint). On peut donc appliquer les résultats précédents dans un sev.
3.3.4
Concaténation de familles orthonormées
Proposition 3.12. (concaténation de familles orthonormées)
1. Soient F et G deux sev de E, notons p = dim(E), q = dim(F ). On suppose F ⊥ G.
Alors F et G sont en somme directe.
De plus, si (e1 , ..., ep ) est une BON de F , si (f1 , ..., fq ) est une BON de G, alors (e1 , ..., ep , f1 , ..., fq )
est une BON de F ⊕ G.
2. Réciproquement, soit k ∈ J1, nK et (e1 , ..., ek ) une famille orthogonale. Alors pour tout p ∈ J1, kK,
Vect(e1 , ..., ep ) et Vect(ep+1 , ..., ek ) sont deux sev orthogonaux.
N.B. De manière générale, si (e1 , ..., ep ) et (f1 , ..., fq ) sont des familles orthogonales, il n’y a aucune raison
que (e1 , ..., ep , f1 , ..., fq ) soit orthogonale, même si elle est libre.
Remarque : La relation Vect(X)⊥ = X ⊥ est utile notamment lorsque X est une base d’un sev F : pour
calculer F ⊥ , il suffit de calculer X ⊥ .
Exemple: Soit P = (x, y, z, t) ∈ R4 x + y + z = 0 et y − z − t = 0 . Calculer une base de P puis de
P ⊥.
4
Projections et distance à un sev
Dans cette partie on ne suppose plus que E est de dimension finie. On fixe par contre un sev F de
E de dimension finie. Ainsi, F est un espace euclidien, il admet des bases orthonormées d’après la partie
précédente. Fixons k = dim(F ) et B = (~e1 , . . . , ~ek ) une base orthonormée de F .
Nous étudions dans cette partie la question suivante : étant donné un vecteur x ∈ E, comment calculer
le point de F le plus proche de x ?
Ce genre de question arrive fréquemment en pratique. Typiquement étant donné un problème de physique
un peu compliqué, notons f la fonction solution. Si on n’arrive pas à déterminer exactement f , on peut en
chercher des approximation. Par exemple on peut fixer n ∈ N et chercher la fonction polynomiale de degré
6 n la plus proche de f . Il s’agit donc de chercher l’élément de Rn [X] le plus proche de f . On est bien dans
le cas d’un sev de dimension finie dans un espace de dimension infinie muni d’un produit scalaire.
La plupart des équations aux dérivées partielles sont résolues en utilisant ce genre de principes.
11
4.1
Étude de F ⊥ lorsque F est de dimension finie
Proposition 4.1. (orthogonal d’un sev de E de dimension finie)
1. E = F ⊕ F ⊥
2. (F ⊥ )⊥ = F .
Démonstration:
1. Soit x ∈ E. On a :
x=
k
X
(ei |x).ei
+
x−
i=1
Notons xF =
Pk
i=1
k
X
(ei |x).ei
i=1
(ei |x).ei .
On vérifie facilement que ∀j ∈ J1, kK, (ej |x − xF ) = 0. Donc x − xF ∈ {e1 , ..., ep }⊥ = Vect(e1 , ..., ep )⊥ = F ⊥ .
Ainsi x ∈ F + F ⊥ et F + F ⊥ = E. Le fait que la somme est directe a déjà été prouvé (vrai quel que soit F ).
2. L’inclusion F ⊂ (F ⊥ )⊥ est toujours vraie.
Soit maintenant x ∈ (F ⊥ )⊥ , montrons x ∈ F . Comme E = F ⊕ F ⊥ , il existe (xF , xF ⊥ ) ∈ F × F ⊥ tel que
x = xF + xF ⊥ .
On fixe un tel couple (xF , xF ⊥ ), et on calcule (x|xF ⊥ ). On obtient ||xF ⊥ ||2 = 0, donc xF ⊥ = 0 et x = xF ∈ F .
D’où il vient immédiatement, dans le cas où E est de dimension finie :
Corollaire 4.2. On suppose que E est de dimension fini. Alors :
dim(F ⊥ ) = dim(E) − dim(F ).
Par contre dans le cas où E est de dimension finie, on voit que F ⊥ aussi est de dimension infinie.
cf exercice: 14
Exemples:
• Dans R2 , l’orthogonal d’un vecteur non nul est une droite.
• Dans R3 , si D est une droite (vectorielle), alors D⊥ est un supplémentaire de D dans R3 , c’est donc un
plan (vectoriel). Si P est un plan, alors son orthogonal est une droite.
On se souvient de la formule pratique vue en début d’année et au lycée : soit D une droite et v tel que
(v) est une base
vecteur directeur de D). Soit (a, b, c) les coordonnées de
de D (on dit alors que v est un ⊥
3 v, alors D = (x, y, z) ∈ R ax + by + cz = 0 , c’est le plan d’équation ax + by + cz.
Et réciproquement, soient (a, b, c) ∈ R3 et P le plan d’équation ax + by + cz = 0, alors P ⊥ est la droite
Vect((a, b, c)).
On se souvient également que si u et v sont deux vecteurs non colinéaires, alors le vecteur u ∧ v est un
vecteur non nul orthogonal à u et v. Et si (u, v) est une famille ON, alors (u, v, u ∧ v) est une BONd de
R3 . (Mais le produit vectoriel n’est malheureusement défini que pour un espace de dimension 3.)
4.2
Projection orthogonale
Le fait que F ⊕ F ⊥ = E nous permet de définir la projection sur F parallèlement à F ⊥ :
Définition 4.3. La projection sur F parallèlement à F ⊥ s’appelle la projection orthogonale sur F et se note
pF .
12
Dans la preuve précédente, nous avions calculé la décomposition d’un vecteur x dans la somme F ⊕ F ⊥ ,
ce qui nous donne immédiatement la formule pour pF (x) :
Proposition 4.4. (formule pour pF )
Alors pour tout ~x ∈ E :
pF (~x) =
k
X
(~ei |~x).~ei
i=1
Remarques :
• En outre, le projeté sur F ⊥ est x − pF (x).
• Si la base est seulement orthogonale, alors (
1
1
.e1 , ...,
.ek ) est une BON, et nous pouvons
||e1 ||
||ek ||
appliquer la formule à celle-ci, nous trouvons :
pF (x) =
k
X
i=1
1
(ei |x).ei
||ei ||2
Ainsi, le projeté orthogonal sur F est très facile à calculer à condition d’avoir une BON de F ! Si on
n’en a pas on peut en calculer une grâce à l’orthonormalisation de Gramm-Schmidt. Ceci présente l’avantage
qu’une fois calculée une BON de F , on pourra calculer autant de projeté sur F que l’on souhaite facilement.
Par exemple on pourra obtenir la matrice de pF . cf exercice: 32, 34.
Par contre si on ne veut calculer qu’un seul projeté sur F il n’est pas nécessaire de calculer une BON de
F . On peut se baser sur le fait que x − pF (x) ∈ F ⊥ . Voir l’exemple ci-dessous.
Proposition 4.5. (inégalité de Bessel)
Soit p ∈ L(E) une projection orthogonale. Pour tout x ∈ E, on a :
||p(x)|| 6 ||x||
avec égalité si et seulement si x ∈ Im(p).
Remarque : On peut prouver que réciproquement, une projection vérifiant le résultat de cette proposition
est une projection orthogonale. Voir l’exercice 39.
Démonstration: Soit x ∈ E. Par définition d’une projection, on sait que E = Ker(p) ⊕ Im(p), et par définition
d’une projection orthogonale, cette somme est orthogonale.
Soit (xk , xi ) ∈ Ker(p) × Im(p) tel que x = xk + xi . Alors p(x) = xi , et xp ⊥ xi . Par le théorème de Pythagore :
||p(x)||2 = ||xi ||2 6 ||xi ||2 + ||xk ||2 = ||x||2 .
Et comme la fonction racine carrée est croissante, ceci donne ||p(x)|| 6 ||x||.
En outre, pour le cas d’égalité :
||p(x)|| = ||x||
⇔
⇔
⇔
⇔
||p(x)||2 = ||x||2
||xi ||2 = ||xi ||2 + ||xk ||2
||xk || = 0 ⇔ xk = 0
x ∈ Im(p)
13
4.3
Distance à F
Voici enfin le théorème permettant de calculer le point de F le plus proche de x :
Théorème 4.6. Pour tout x ∈ E, pF (x) est l’unique vecteur de F à distance minimale de x.
Démonstration:
Notons G la direction de p, donc E = F ⊕⊥ G. Notons (xF , xG ) ∈ F × G la décomposition de x dans F ⊕ G. Donc
x = xF + xG et p(x) = xF .
1. Montrons que p(x) est un vecteur de F à distance minimale de x.
Déjà p(x) ∈ F . La distance de x à p(x) est ||x − p(x)|| = ||xG ||.
Soit yF ∈ F un autre vecteur de F . Alors :
||x − yF ||2 = ||xF − yF + xG ||2 = ||xF − yF ||2 + ||xG ||2 > ||xG ||2
Par croissance de la fonction racine carrée, on obtient ||x − yF || > ||x − p(x)||. Donc :
||x − p(x)|| = min
n
||x − yF || yF ∈ F
o
, p(x) est bien un vecteur de F à distance minimale de x.
2. Montrons que p(x) est l’unique tel vecteur de F .
Soit donc yF ∈ F un autre vecteur à distance minimale de x. Alors ||x − yF || = ||x − p(x)||. Ce qui donne
||xF − yF || = 0, donc yF = xF = p(x).
Définition 4.7. Pour tout x ∈ E, on appelle distance de x à F le nombre :
d(x, F ) = ||x − pF (x)|| = min ||x − f ||.
f ∈F
Remarque : La proposition précédente prouve en particulier l’existencende ce minimum.oDe manière plus
générale, la distance d’un point x à un ensemble Y est défini comme inf d(x, y) y ∈ Y .
N.B. On rappelle que x − pF (x) est le projeté de x sur F ⊥ . Donc on peut aussi écrire :
d(x, F ) = ||pF ⊥ (x)||
Exemples:
• distance à une droite : soit D une droite de E. Soit u ∈ D \ {0}, donc (u) est une base de D, et (
1
.u)
||u||
en est une BON. Alors pour tout x ∈ E, pD (x) = (u|x).u et d(x, D) = ||x − (x|u).u||.
• Dans R2 , R3 ...
4.4
4.4.1
Exemples
Cas où E est euclidien
Dans le cas où E est lui-même de dimension finie, F ⊥ est aussi de dimension finie. En notant n = dim(E),
on a dim(F ⊥ ) = n − k. Soit (~ek+1 , . . . , ~en ) une BON de F ⊥ .
Soit x ∈ E, on peut alors calculer la distance de x à F ainsi :
v
u X
n
X
u n
< ~ei |~x >2
d(x, F ) = ||pF ⊥ (x)|| = ||
< ~ei |~x > .~ei || = t
i=k+1
i=k+1
14
C’est la formule classique pour calculer la distance d’un point à une droite dans R2 ou d’un point à un
plan dans R3 .
Dans R2 :
2
Soit (a, b) ∈ R et D =
(x, y) ∈ R ax + by = 0 (la droite d’équation ax + by = 0).
2
Notons ~n = (a, b), alors pour tout (x, y) ∈ R2 :
(x, y) ∈ D
⇔
ax + by = 0
⇔
(x, y) ⊥ ~n
⇔
(x, y) ∈ ~n⊥
Ainsi, D = ~n⊥ , et D⊥ = Vect(~n) (on est en dimension finie).
Remarque : On a donc D ⊕ ~n⊥ = R2 , et la somme est orthogonale.
Et (~n) est une base orthogonale de D⊥ , une base orthonormée est (
1
.~n).
||~n||
Alors par la formule précédente :
|ax + by|
1
1
2
<
.~n|w
~ > = <
.~n|w
~ > = √
||~n||
||~n||
a2 + b2
s
2
∀w
~ = (x, y) ∈ R ,
d(w,
~ D) =
Dans R3 :
Le principe est le même que
ci-dessus. 3
Soit (a, b, c) ∈ R et D = (x, y, z) ∈ R2 ax + by + cz = 0 (le plan d’équation ax + by + cz = 0).
Notons ~n = (a, b, c), alors P = ~n⊥ , et P ⊥ = Vect(~n), (~n) est une base orthogonale de D⊥ , une base
1
orthonormée est (
.~n).
||~n||
Alors par la formule précédente :
|ax + by + cz|
1
3
.~n|w
~ > = √
∀w
~ = (x, y, z) ∈ R ,
d(w,
~ D) = <
||~n||
a2 + b2 + c2
N.B. Les deux exemples qu’on vient de voir sont particulièrement simples cas F ⊥ est de dimension 1, on
trouve donc sans aucune difficulté une BON de F ⊥ .
4.4.2
Algorithme général
On se donne un sous-espace vectoriel F de E , et une base B de F . La méthode générale pour calculer
la projection sur F est la suivante :
1. Orthonormaliser B.
2. En notant C la base obtenue, on utilise la formule ∀x ∈ E, pF (x) =
C[i] le ième élément de C (ci-dessous, C sera un eliste python)
P
i
< x|C[i] > .C[i], en notant
Voici alors un algorithme python pour effectuer ces opérations. L’algorithme prendra en entrée B (qui
sera de type list), mais aussi le produit scalaire ps, mais aussi les opérations plus et point, et le vecteur
nul vnul.
import numpy as np
def orthonormalisation(B, ps, plus, point):
\og \fg{}\og orthonormalise B selon Gramm-Schmidt, en utilisant le produit scalaire ps.
15
plus et point sont les opérations de l'espace vectoriel\fg{}\og \fg{}
def norme(x):
return np.sqrt( ps(x,x))
C=[]
#pour contenir la BON
for i in range(len(B)):
#on traite le ième vecteur de B
d= B[i]
for k in range(i):
d= plus( d , point( -ps(B[i], C[k]), C[k]) )
f= point( 1/norme(d), d) #on normalise d
C.append(f)
return(C)
def projection(B,ps,x,plus,point, vnul):
\og \fg{}\og projette x sur vect(B), en utilisant le produit scalaire ps.\fg{}\og \fg{}
C=orthonormalisation(B,ps, plus, point)
p=vnul
for i in range(len(C)):
p= plus( p, point( ps(x,C[i]), C[i]))
return(p)
Voici un exemple d’utilisation pour projeter des fonctions :
import matplotlib.pylab as plt
def plusFonction (f, g):
return( lambda x:f(x)+g(x) )
def pointFonction(k,f):
return(lambda x:k*f(x))
def integrale(f,a,b):
\og \fg{}\og Calcul d'intégrale selon la méthode de Simpson\fg{}\og \fg{}
S=f(a)+f(b)
n=100
h=(b-a)/n
for i in range(n):
S+= 4*f(a+(i+.5)*h)
for i in range(1,n):
S+= 2*f(a+i*h)
return(S*h/6)
def psFonction(f,g):
return( integrale( lambda x:f(x)*g(x) ,
0,1))
def dessinProjFonction( f, B, a, b):
p = projection(B,psFonction,f,plusFonction ,pointFonction, lambda x:0)
16
labs =[ a+ .01*i*(b-a) for i in range(100) ]
lf =[ f(x) for x in labs]
lp=[p(x) for x in labs]
plt.plot( labs, lf,label=\og graphe de f\fg{})
plt.plot( labs, lp, label=\og grpahe du projeté\fg{})
plt.legend()
plt.show()
Voici le résultat obtenu pour projeter sin sur Vect(1, Id, x 7→ x2 ). Notez que le produit scalaire est en
réalité un produit scalaire uniquement sur C([0, 1], R). La fonction obtenu est donc proche de sin uniquement
sur l’intervalle [0, 1].
4.4.3
Exemples sans connaître de base orthonormée de F
En pratique, on ne connaît pas souvent de base orthonormée de F . Bien sûr, on peut toujours orthonormaliser une base, mais on peut aussi s’en passer.
En effet, soit x ∈ E, alors pF (x) est l’unique vecteur de F tel que (x − pF (x)) ∈ F ⊥ . Si C = (f1 , ..., fn )
est une base quelconque de F , alors on sait que :
(x − pF (x)) ∈ F ⊥
⇔
∀i ∈ J1, nK, < x − pF (x)|fi >= 0
Notons (λ1 , ..., λn ) les coordonnées de pF (x) dans la base C, elles vérifient donc :
∀i ∈ J1, nK, < x −
n
X
λj .fj |fi >= 0
j=1
ceci est un simple système d’équations de n équations et n inconnues...
N.B. Chercher une base orthonormée est rentable si on a plusieurs projections à faire. Si on en a une seule,
on préférera faire le calcul directement comme ci-dessus.
Exemple: Calculer le projeter de sin sur Vect(1, Id), i.e. la fonction polynomiale de degré 6 1 la plus
proche possible de sin.
17
Notons F = Vect(1, Id), B = (1, Id), pF la projection orthogonale sur F . On cherche donc pF (sin), et B
est une base de F .
Comme pF (sin) ∈ F , nous pouvons prendre ses coordonnées dans B : soit (a, b) ∈ R2 tel que pF (sin) =
a + bId, i.e. pF (sin) : t 7→ a + b.t.
Ensuite, sin −pF (sin) est le projeté de sin sur F ⊥ , donc :
donc
donc
donc
donc
donc
donc
donc
donc
donc
donc
donc
donc
sin −pF (sin) ∈ F ⊥
sin −pF (sin) ∈ (VectB)⊥
sin −pF (sin) ∈ B ⊥
(
sin −pF (sin) ⊥ 1
sin −pF (sin) ⊥ Id
(
sin −pF (sin) | 1 = 0
sin −pF (sin) | Id = 0
(
sin −pF (sin) | 1 = 0
sin −pF (sin) | Id = 0
(
sin | 1 = pF (sin) | 1
Zsin | Id Z= pF (sin) | Id
1
1



sin =
(a + bt)dt

0
Z0 1
Z 1



t.
sin(t).dt
=
(at + bt2 )dt

0
0

1


1 − cos(1) = a + b
2
Z 1
1
1

1

[−t.
cos(t)]
−
− cos(t).dt = a + b

0
2
3
0

1

a + b = 1 − cos(1)
2
1
1

 a + b = − cos(1) + sin(1)
3
2

− 1 b = 1 + cos(1) − 2 sin(1)
6
1
1

 a + b = − cos(1) + sin(1)
2
3

b = −6 − 6 cos(1) + 12 sin(1)
1
a = 2.(− cos(1) + sin(1) − b)
3
(
b = −6 − 6 cos(1) + 12 sin(1) ' 0, 86
a = 4 + 2 cos(1) − 6 sin(1) ' −0, 03
L1 ← L1 − 2L2
Ainsi, la fonction polynomiale de degré 1 la plus proche possible de sin, au sens du produit scalaire < .|. >
défini ci-dessus est t 7→ 4 + 2 cos(1) − 6 sin(1) + t.(−6 − 6 cos(1) + 12 sin(1)), environ t 7→ −0, 03 + 0, 86.t.
18
(On rappelle qu’ayant considéré un produit scalaire sur C([0, 1], R), le projeté n’est proche de f que sur
[0, 1].)
Exemple: Calculer inf (a,b,c)∈R3
R1
−1
(t3 − at2 − bt − c)2 .dt.
R1
On munit R3 [X] du produit scalaire (P, Q) 7→ −1 P (t).Q(t).dt. Alors la valeur cherchée n’est autre que
d(X 3 , R2 [X]). Pour la trouver, il nous suffit de calculer le projeté orthogonal de X 3 sur R2 [X]. Soit P ce
projeté, et soit (a, b, c) ∈ R3 tel que P = aX 2 + bX + c.
Comme nous ne connaissons pas de BON de R3 [X] pour ce produit scalaire, nous allons juste utiliser le
fait que X 3 − P ∈ R2 [X]⊥ . Autrement dit :

3


(X − P |1) = 0
(X 3 − P |X) = 0


(X 3 − P |X 2 ) = 0
3
X et d = 8/175.
5
Remarque : Bien sûr une autre méthode est de déterminer une BON de R2 [X], ou même directement de
R2 [X]⊥ .
...... On trouve P =
4.5
Résumé des méthodes de calcul
• En général, chercher une BON de F , projeter, et calculer ||pF (x) − x||.
• Si E est de dimension finie, si on a une BON de F ⊥ , autant calculer directement pF ⊥ (x).
• On peut aussi chercher les coordonnées de pF (x) dans une base B = (e1 , ..., ep ) de F pas orthonormée
en résolvant le système ∀i ∈ J1, pK, < ei |pF (x) >= 0. Méthode à préférer lorsqu’on ne dispose pas
d’une BON de F et qu’on veut calculer qu’un seul projeté.
Deuxième partie
Exercices
19
Exercices : géométrie euclidienne
Sauf mention du contraire, n est un entier naturel et (E, +, ·, · | · ) un espace euclidien de dimension n.
1
Produits scalaires
1.1
Exemples de produits scalaires
Exercice 1. ** produits scalaires sur Rn
Soit n ∈ N∗ et E = Rn . Soit (a1 , ..., an ) ∈ Rn . On définit la fonction :
m:
E2 → R
Pn
.
(x1 , ..., xn ), (y1 , ..., yn ) 7→
i=1 ai .xi .yi
1) Vérifier que m est une forme bilinéaire symétrique.
2) Vérifier que m est un produit scalaire si et seulement si ∀i ∈ J1, nK, ai > 0.
Exercice 2. * ! Exemples de produit scalaires sur Rn [X]
Soit n ∈ N. Montrer que l’application (.|.) est un produit scalaire sur Rn [X] dans les cas suivants :
1) ∀(P, Q) ∈ Rn [X]2 , (P |Q) =
R1
−1
P (t).Q(t).dt
3) ∀(P, Q) ∈ Rn [X]2 , (P |Q) =
n+1
X
P (k) (0).Q(k) (1)
k=1
2) ∀(P, Q) ∈ Rn [X]2 , (P |Q) =
n+1
X
4) ∀(P, Q) ∈ Rn [X]2 , (P |Q) =
P (k).Q(k)
n+1
X
P (k) (2).Q(k) (2)
k=1
k=1
Ces formules définissent-elles encore un produit scalaire sur R[X] ?
Exercice 3. * ! produits scalaires sur C([0, 1], R) Soit E = C([−1, 1], R).
Z 1
1) Pour tout (f, g) ∈ E 2 , on pose < f |g >=
f (t).g(t).et .dt. Démontrer que < .|. > est un produit scalaire
−1
sur E.
2) (**) Même question avec (.|.) défini par ∀(f, g) ∈ E 2 , (f |g) =
R1
−1
f (t).g(t).(1 − t2 )dt
Exercice 4. *** une généralisation de l’exercice précédent
Soit (a, b) ∈ R2 tel que a < b, et E = C([a, b], R). On fixe h ∈ E, et on définit < .|. >h ainsi :
2
∀(f, g) ∈ E ,
Z
< f |g >h =
b
f.g.h.
a
1) Montrer que si ∀x ∈ [a, b], h(x) > 0, alors < .|. > est un produit scalaire.
2) Montrer que si h > 0 et h ne s’annule qu’un nombre fini de fois, alors < .|. > est encore un produit
scalaire.
3) Montrer que si < .|. > est un produit scalaire, alors h > 0.
Exercice 5. * un produit scalaire sur C 1 ([0, 1], R)
Soit E = C 1 ([0, 1], R). Pour tout (f, g) ∈ E 2 , on pose
Z
< f |g >= f (0).g(0) +
0
Démontrer que < .|. > est un produit scalaire sur E.
1
1
f 0 (t).g 0 (t)dt.
Exercice 6. ** une généralisation de l’exercice précédent
Soit k ∈ N, on définit pour tout (f, g) ∈ C k ([0, 1]),
Z 1
k−1
X
< f |g >k =
f (i) (0).g (i) (0) +
f (i) .g (i) .
0
i=0
Montrer que < .|. >k est un produit scalaire sur C k ([0, 1]).
Exercice 7. ** ! Produit scalaire sur l’ensemble des P
matrices
n
Soit n ∈ N∗ . Pour tout M ∈ Mn (K), on pose T r(M ) = k=1 Mk,k , c’est la « trace » de M .
2
On définit ensuite pour tout (A, B) ∈ Mn (K) , < A|B >= T r(t A.B).
1. Pour tout (A, B) ∈ Mn (K)2 , donner une formule explicite exprimant < A|B > en fonction des coefficients de A et de B.
2. Démontrer que < .|. > est un produit scalaire.
√
3. Montrer que pour tout M ∈ Mn (K), |T r(M )| 6 n.||M ||.
4. (avec le
! cours sur les projections) Pour cette question, on prend n = 2. Déterminer la distance de
1 2
à l’ensemble des matrices diagonales.
2 3
1.2
Autres
Exercice 8. * identité du parallélogramme
Soit (x, y) ∈ E 2 . Montrer que ||x + y||2 + ||x − y||2 = 2(||x||2 + ||y||2 ).
Interpréter en terme de longueurs dans un parallélogramme.
Exercice 9. ** Cauchy-Schwartz pour l’espérance
Montrer que pour tout couple de variables aléatoires :
E(X × Y )2 6 E(X 2 ) × E(Y 2 ).
Exercice 10. ** ! Utilisation de l’inégalité de Cauchy-Scwharz
Montrer les inégalités suivantes et étudier les cas d’égalité :
1) Pour n ∈ N et (x1 , ..., xn ) ∈ Rn :

2
n
n
X
X

xi  6 n.
x2i .
i=1
2) Pour n ∈ N, (x1 , ..., xn ) ∈ (R+∗ )n tel que
Pn
i=1
i=0
xi = 1 :
n
X
i=0
1
> n2 .
xi
3) Pour (a, b) ∈ R2 tel que a < b, et f ∈ C 0 ([a, b], R) strictement positive :
Z b Z b
1
f.
> (b − a)2 .
a
a f
Exercice 11. ** inégalité sur une limite de
suites
P
1
1 Pn
1
n
Soit u ∈ (R+∗ )N . Soit v =
u
et
w
=
. On suppose que v et w
k
n k=1
n k=1 uk n∈N
n∈N
convergent, on note l et l0 leur limites respectives. Montrer que ll0 > 1.
Exercice 12. *** Existence de produit scalaire pour qu’une base donnée soit ON
Soit E un R-ev de dimension finie, n = dim(E), et B = (e1 , ..., en ) une base de E.
Démontrer qu’il existe un unique produit scalaire (.|.) sur E pour lequel B soit une BON.
2
2
Orthogonalité
2.1
Vecteurs orthogonaux
Exercice 13. *** une caractérisation de deux vecteurs orthogonaux
Soit (x, y) ∈ E 2 . Montrer que :
x⊥y ⇔
∀λ ∈ R, ||λx + y|| > ||y|| .
Exercice 14. ** résultats de géométrie élémentaire du plan et de l’espace
Énoncer précisément et démontrer les résultats de géométrie élémentaire suivants :
1) Dans un plan : deux vecteur orthogonaux à un même troisième non nul sont colinéaires
2) Dans un espace de dimension 3 : trois vecteur orthogonaux à un même quatrième non nul sont coplanaires
3) Dans un espace de dimension 3 : Soit ~u et ~v non colinéaires, alors deux vecteurs orthogonaux à ~u et à ~v
sont colinéaires.
Exercice 15. ** avec le produit vectoriel
R3 → R3
On fixe un vecteur a ∈ R3 . Soit f :
. Montrer que f est un automorphisme
x 7→ x + a ∧ x
2.2
Exemples de familles orthogonales
Exercice 16. * ! BON incomplète
Vérifier que les familles suivantes sont orthogonales et libres, et les compléter en des BOd. Multiplier
enfin les vecteurs par un scalaire pour obtenir une BONd.
Les deux premières sont des familles de vecteurs de R3 muni du produit scalaire canonique, la troisième
est dans R4 muni du produit scalaire canonique.
1) F = (1, 0, 2), (2, 0, −1)
2) G = (1, 1, 1)
3) H = (1, 0, 2, 1), (2, 0, −1, 0) .
Exercice 17. * BON de R2 [X]
R1
On munit R2 [X] du produit scalaire < .|. > tel que ∀(P, Q) ∈ R2 [X], < P |Q >= 0 P (t).Q(t).dt.
1) La base canonique est-elle orthogonale ?
2) Calculer ||1||, ||X||, ||X 2 ||.
3) Orthonormaliser la base canonique de R2 [X]
Exercice 18. * BON adaptée à un plan
1) On se place dans R3 munit du produit scalaire canonique. Soit P =
n
o
(x, y, z) x + 2y + z = 0 . Déter-
miner une BONd de R4 dont les deux premiers vecteurs forment une base de P.
n
o
2) Même question dans R4 avec P = (x, y, z, t) x + y = 0 et z + t = 0 .
Exercice 19. * exemple simple avec des polynômes
On note E = R3 [X]. Pour tout (P, Q) ∈ E 2 , on pose :
P | Q = P (0)Q(0) + P (1)Q(1) + P (2)Q(2) + P (3)Q(3)
1. Montrer que · | · est un produit scalaire sur E.
2. Que dire de la famille (X − 1)(X − 2)(X − 3), X(X − 2)(X − 3), X(X − 1)(X − 3), X(X − 1)(X − 2) ?
L’orthonormaliser. On notera B la base obtenue.
3. Calculer les coordonnées de X dans B. Plus généralement, étant donné Q ∈ E, donner les coordonnées
de Q dans B.
3
4. Soit P ∈ E. Calculer X | P , et montrer :
√ p
P (1) + 2P (2) + 3P (3) 6 14 P (0)2 + P (1)2 + P (2)2 + P (3)2 .
Exercice 20. ** ! Exemple de famille orthonormée de polynômes
Soit n ∈ N∗ et E = Rn [X]. On définit pour tout (P, Q) ∈ Rn [X]2 ,
(P |Q) =
n
X
P (k) (0).Q(k) (0)
k=0
1) Montrer que (.|.) est un produit scalaire.
2) Trouver une BON de (E, (.|.)).
Exercice 21. *** ! Deuxième exemple de famille ON dans R[X]
Pour tout (P, Q) ∈ R[X]2 , on pose :
Z π
1
P (eiθ ).Q(e−iθ )dθ.
(P |Q) =
2π −π
1) Montrer que (.|.) est un produit scalaire.
2) Montrer que pour tout n ∈ N, la famille (1, X, X 2 , ..., X n ) est orthonormée.
3) Calculer ||1 + X 2 + 2X 3 ||, puis (1 + X + X 2 |X + 2X 4 ).
Exercice 22. *** Autre exemple dans Rn [X]
Pour tout (P, Q) ∈ Rn [X]2 , on pose :
< P |Q >=
n
X
P (k) (k).Q(k) (k)
k=0
1
Pour tout k ∈ J0, nK, on pose Pk = X.(X − k)k−1 .
k!
1. Montrer que (P0 , ..., Pn ) est une base de Rn [X].
2. Montrer que < .|. > est un produit scalaire sur Rn [X].
3. Montrer que (P0 , ..., Pn ) est orthonormée.
Exercice 23. *** Exemple de famille orthonormée de fonctions
π
1) Montrer que pour tout n ∈ N l’équation x. tan(x) = 1 d’inconnue x ∈]nπ, nπ. [ admet une unique
2
solution. On notera xn cette solution.
[−1, 1] → R
2 + x2n
cos(xn t) .
2) On pose pour tout n ∈ N an =
.
et
f
:
n
t 7→
√
1 + x2n
an
Montrer que la famille (fn )n∈N est orthonormale pour le produit scalaire usuel sur l’espace C([−1, 1], R).
2.3
Géométrie à l’ancienne
Exercice 24. ** pyramide
On se place dans l’espace usuel. Soit SABCD une pyramide de sommet S et de base ABCD carrée. On
note O le centre de ABCD, a la longueur AB, et h la longueur OS.
−→ −→ −→ −→
1. Calculer SA.SO et SA.SC.
2. Comment choisir h pour que les arêtes [SA] et [SC] soient perpendiculaires ?
3. Quelle est alors la longueur SA ?
Exercice 25. *** Angle dans une molécule de CH4
Notons A, B, C, D l’emplacement des quatre atomes d’hydrogène dans une molécule de méthane, et O
−→ −−→
l’emplacement du carbone. Calculer l’angle (OA, OB).
4
2.4
Familles orthogonales : exercices théoriques
Exercice 26. *** CNS pour une BON
Soit k ∈ N∗ et F = (e1 , ..., ek ) une famille de k vecteurs de E.
Montrer que F est une BON de E si et seulement si :
∀i ∈ J1, nK, ||ei || > 1 et
∀x ∈ E, ||x||2 =
n
X
(ei |x)2
i=1
Exercice 27. ** Variante un peu plus simple
Soit (E, < .|. >) un espace euclidien. Soit n ∈ P
N et B = (e1 , . . . , en ) ∈ E n une famille de vecteurs
n
2
unitaires. On suppose que pour tout x ∈ E, ||x|| = k=1 < x|ek >.
Montrer que B est une base orthonormée de E.
Exercice 28. **** Exemple de choix de base particulière
Soit u ∈ L(E). Montrer qu’il existe une base B = (e1 , ..., en ) de E telle que ∀(i, j) ∈ J1, nK tel que i 6= j,
(u(ei )|u(ej )) = 0.
2.5
Sous-espaces orthogonaux
Exercice 29. ** Contre-exemple en dimension infinie
n
o
R1
On munit R[X] du produit scalaire · | · : (P, Q) 7→ 0 P (t)Q(t)dt. On pose F = P ∈ R[X] P (0) = 0 .
1. Soit P ∈ F ⊥ . Que vaut X × P | P ?
2. Montrer que F ⊥ = {0}.
3. Que vaut F plusF ⊥ ?
Exercice 30. ** ! ! orthogonal d’une réunion ou d’une intersection
Soient X et Y deux parties de E.
1) Exprimer (X ∪ Y )⊥ en fonction de X ⊥ et Y ⊥ .
2) Vérifier l’inclusion (X ∩ Y )⊥ ⊃ Vect(X ⊥ ∪ Y ⊥ ). Trouver un exemple ou l’égalité est vérifiée, trouver un
exemple où elle ne l’est pas.
Exercice 31. ** calculs avec des sev orthogonaux
Soit E un espace euclidien. Soient F et G deux sev de E vérifiant :
F ⊂ G⊥ et F + G = E
1) Montrer que F = G⊥ et G = F ⊥ et F ⊕ G = E.
2) Même question en ne supposant plus que E est de dimension finie.
3
3.1
Distance, projections
Calculs de projetés et de distance
Exercice 32. * ! Calcul d’une projection orthogonale dans R3
On se place dans R3 muni du produit scalaire canonique. Soient les vecteurs u = (1, 2, 2), v = (−1, 4, 1)
et w = (2, 5, 1).
1) Orthonormaliser la famille (u, v) selon le procédé de Gramm-Schmidt.
2) Soit P = Vect(u, v), et p la projection orthogonale sur P . Calculer la matrice de p dans la base canonique
de R3 .
5
3) Calculer la distance du point (1, 1, 1) au plan P .
Exercice 33. ** Projection sur une droite dans R2
2
Soit (a,
0)} et D ladroite vectorielle d’équation ax + by = 0. On rappelle que cela signifie
b) ∈ R \ {(0,
que D = (x, y) ∈ R2 ax + by = 0 .
1. On note ~n = (a, b). Démontrer que D = ~n⊥ . On dit que ~n est un vecteur normal à D. Donner un
vecteur directeur de D, i.e. un vecteur ~u tel que (~u) est une base de D.
2. Soit (x, y) ∈ R2 . Donner une formule pour calculer d (x, y), D .
3. Même question pour la distance à un plan dans R3 : on fixe (a, b, c) ∈ R3 \ {(0, 0, 0)} et on note P le
plan d’équation ax + by + cz = 0. Déterminer un vecteur normal à P , puis proposer une formule pour
la distance d’un point à P .
Exercice 34. ** exemple dans R4
On se place dans R4 muni du produit scalaire
canonique. Calculer la matrice dans

(

x + 2y + 3z + 4t = 0
4 la projection orthogonale sur l’espace F = (x, y, z, t) ∈ R 
x + 3y + 5z + 7t = 0
labase canonique de

.

Exercice 35. ** Exemple de projection de fonctions
Calculer le projeté orthogonal de tan sur Vect(sin, cos) pour le produit scalaire < .|. >: (f, g) 7→
R π/4
f (t).g(t).dt.
−π/4
Exercice 36. ** (CCP) projection de fonction
Dans l’espace E = C([0, 2π], R) avec le produit scalaire usuel, calculer le projeté orthogonal de x 7→ sin(x)
sur Vect(x 7→ cos(x), x 7→ cos(2x)).
Exercice 37. ** ! algorithme de projection, séries de Fourrier
Soit E l’ensemble des fonctions continues et 2π-périodiques sur R, muni du produit scalaire < .|. > tel
1 Rπ
que ∀(f, g) ∈ E 2 , < f |g >=
f (t)g(t)dt.
2π −π
Soit p ∈ N. On pose :
Fp = Vect(1, cos, sin, cos ◦2Id, sin ◦2Id, . . . , cos ◦pId, sin ◦pId)
1) Vérifier l’axiome de séparation pour < .|. >. On admettra les autres conditions prouvant que < .|. > est
un produit scalaire.
2) Trouver une base orthonormée de F .
3) Proposer un algorithme pour calculer pF (f ), et l’implémenter sous Python.
3.2
Autres
Exercice 38. * projections associées
Soit F un sev de E et pF la projection orthogonale sur F . Montrer que IdE − pF est la projection
orthogonale sur F ⊥ .
Exercice 39. *** caractérisation d’un projecteur orthogonal
Soit p un projecteur de E. Démontrer que p est un projecteur orthogonal si et seulement si ∀x ∈ E,
||p(x)|| 6 ||x||.
Exercice 40. **** Déterminant de Gramm
Soit F = (e1 , ..., en ) ∈ E N . On note G(e1 , ..., en ) = G(F) ∈ Mn (R) la matrice dont, pour tout (i, j) ∈
J1, nK2 , le coefficient i, j est (ei |ej ).
6
1) Montrer que si F est liée, alors det(G(F)) = 0.
2) Calculer det(G(F)) dans le cas où F est orthonormée.
3) On suppose à présent que F est libre, et on note F = Vect(F). Soit B une BON de F , et P = M atB (F).
Exprimer G(F) en fonction de P et t P . En déduire :
det(G(F)) > 0
4) Montrer que pour tout x ∈ E,
s
d(x, F ) =
det(G(x, e1 , ..., en ))
det(G(e1 , ..., en ))
5) Dans R3 , calculer une formule pour la projection orthogonal sur le plan Vect (1, 2, 1), (−1, 1, 0) .
Quelques indications
3 2) Pour le caractère défini : si (f |f ) = 0, on obtient sans peine que ∀t ∈] − 1, 1[, f (t) = 0. Pour montrer que
f (−1) = 0 = f (1), utiliser la continuité.
4 2) Soit a1 , ..., an les points où h s’annule. Si < f |f >= 0, on obtient facilement que f est nulle sur I \ {a1 , ..., an }.
Utiliser ensuite la continuité de f en les ai
3) raisonner par l’absurde
7
1. Vérifier que < A|B >=
2. Vérifier que (
1
0
Pn Pn
0
0
,
1
0
i=1
j=1
Ai,j .Bi,j .
0
) est une BON de l’ensemble des matrices diagonales.
1
9 C’est l’inégalité de Cauchy-Schwartz, il suffit de faire la même preuve que celle du chapitre sur la géométrie
euclidienne, à savoir étudier la fonction λ 7→ E((λX + Y )2 ).
11 Pour tout n ∈ N, utiliser le produit scalaire usuel sur Rn . Penser à Cauchy-Schwartz.
12 Utiliser les coordonnées dans B.
13 Passer au carré et développer. Étudier les limites en 0+ puis en 0− .
15 Calculer Kerf .
18 Commencer par trouver une base de P, puis l’orthonormaliser.
19 2) vérifier qu’elle est orthogonale. Ne reste plus qu’à normer ses vecteurs.
4) Cauchy-Schwartz
20 2) Partir de la base canonique.
21 1) utiliser la formule ∀P ∈ R[X], ∀z ∈ C, P (z̄) = P (z).
26 Pour le sens non évident : fixer j ∈ J1, nK et appliquer la formule donnée avec x = ej .
28 Partir d’une base orthonormée de Im(u), et d’une base de Ker(u).
31 1) L’étude de la dimension suffit
34 Comme dans l’exercice 32
7
35 Pour calculer le projeté d’un seul vecteur, lorsqu’on ne dispose pas d’une base orthonormée de l’espace sur lequel
on projette, il n’est pas obligatoire d’utiliser l’orthonormalisation de Gramm-Schmidt pour déterminer une BON.
On peut juste déterminer les coefficients α, β tels que p(tan) = α sin +β cos en résolvant un système.
36 Il n’est pas nécessaire de calculer une BON de Vect(cos, cos ◦2Id).
38 Montrer que c’est la projection sur F ⊥ de direction F en utilisant directement la définition.
39 Utiliser ou s’inspirer de l’exercice 13.
Pour montrer que Im(p) ⊥ Ker(p), soit x ∈ Ker(p) et y ∈ Im(p), étudier pour tout λ ∈ R λ.x + y et faire tendre
λ vers 0.
8
Quelques solutions
1
3
4 2) On suppose que < .|. > est un produit scalaire. Supposons par l’absurde qu’il existe x0 ∈ [a, b] tel que h(x0 ) < 0.
Comme h est continue en x0 , il existe ε ∈ R+∗ tel que h reste strictement positive sur ]x0 − ε, x0 + ε[∩[a, b].
Soit alors une fonction f continue sur [a, b] positive sur ]x0 − ε, x0 + ε[∩[a, b] et nulle ailleurs. (Une telle fonction
existe, par exemple prendre la fonction affine par morceaux qui vaut 1 en x0 , et 0 hors de l’intervalle ]x0 − ε, x0 +
ε[∩[a, b].)
Rb
R
Alors < f |f >= a f 2 .h = ]x −ε,x +ε[∩[a,b] f 2 .h (car f 2 h est nulle sur le reste de l’intervalle). Mais la fonction
0
0
f 2 .h sur ]x0 − ε, x0 + ε[∩[a, b] est continue, négative, non nulle : donc son intégrale est strictement négative. Ainsi
< f | >> 0 ce qui contredit le caractère positif du produit scalaire.
Ainsi, h > 0.
Par ailleurs il est possible d’obtenir un produit scalaire avec h une fonction positive qui s’annule, il suffit qu’elle
ne s’annule qu’un nombre fini de fois. (Par exemple h : x 7→ |x| sur [−1, 1].)
En effet : soit h une telle fonction, soit n ∈ N le nombre de points où h s’annule et a1 , ..., an ces points. RLa symétrie
b
et la positivité de < .|. > sont évidents, voyons le caractère défini. Soit f ∈ E tel que < f |f >= 0. Donc a f 2 .h = 0.
Comme f 2 .h est continue, positive, d’intégrale nulle, elle est donc nulle. Alors ∀x ∈ [a, b] \ {a1 , ..., an }, on obtient
f (x) = 0. Puis par continuité de f , f est également nulle en a1 , ..., an . ( ∀i ∈ J1, nK, 0 = limx→ai f (x) = f (ai ).)
D’où f = 0.
5
6
7
8
9
10
11
12 Définissons (.|.) ainsi : pour tout (x, y) ∈ E 2 , notons (x1 , ..., xn , y1 , ..., yn ) ∈ R2n les coordonnées de x et y dans
B, et posons :
n
X
(x|y) =
xi yi
i=1
On prouve sans peine qu’il s’agit d’un produit scalaire et que B est ON.
L’unicité découle immédiatement du cours : si < .|. > est un autre produit scalaire tel que B est ON , alors on
sait que pour tout (x, y) ∈ E 2 , en notant (x1 , ..., xn , y1 , ..., yn ) ∈ R2n les coordonnées de x et y dans B, on a :
< x|y >=
n
X
xi .yi = (x|y).
i=1
13 ⇒ est évident par Pythagore.
Réciproquement, supposons ∀λ ∈ R, ||λx + y|| > ||y||.
Alors pour tout λ ∈ R, ||λx + y||2 > ||y||2 , puis λ2 .||x||2 + 2λ.(x|y) > 0, donc pour tout λ ∈ R−∗ , −λ.||x||2 > (x|y).
(on divise par λ < 0) Étudiant la limite en 0− il vient (x|y) > 0.
En étudiant de même la limite en 0+ , on obtient (x|y) 6 0.
14
9
15 On vérifie facilement que f est linéaire. Soit x ∈ Ker(f ), donc x + a ∧ x = 0, donc x = −a ∧ x. Mais −a ∧ x est
orthogonal à x. Donc x ⊥ x, donc x = 0.
Ainsi Ker(f ) = {0}, donc f est injective. Mais f est un endomorphisme en dimension finie, c’est donc un
automorphisme.
17
18
19
20
21
22
23
24
25
26 Le « seulement si » est facile.
Réciproquement, on suppose ∀i ∈ J1, nK, ||ei || > 1 et
Soit j ∈ J1, nK.
En utilisant la formule pour x = ej :
||ej ||2 =
n
X
∀x ∈ E, ||x||2 =
(ei |ej )2 = ||ej ||4 +
i=1
(ei |x)2 .
(ei |ej )2
i=1,i6=j
i=1
4
n
X
Pn
2
Or, ||ej || > 1, donc ||ej || > ||ej || . Donc :
n
X
(ei |ej )2 = ||ej ||2 − ||ej ||4 6 0
i=1,i6=j
Pn
comme cette somme est positive (somme de carré), on a donc i=1,i6=j (ei |ej )2 = 0, puis ∀i ∈ J1, nK \ {j}, (ei |ej ) = 0
(somme des termes positifs).
Enfin, il reste ||ej ||4 = ||ej ||2 , d’où ||ej ||2 = 1 puis ||ej || = 1 (car ||ej || > 0).
En conclusion, nous avons obtenu, quel que soit j ∈ J1, nK, ||ej || = 1 et ∀i ∈ J1, nK \ {j}, ei ⊥ ej . La famille
(e1 , ..., en ) est bien orthonormée, c’est une BON de E.
27
28 Soit r = rg(u) et (f1 , ..., fr ) une base de Im(u).
Pour tout i ∈ J1, rK, soit ei ∈ E tel que u(ei ) = fi . La famille (e1 , ..., er ) est libre (sinon (f1 , .., fr ) = u((e1 , ..., er ))
serait liée car l’image par une application linéaire d’une famille liée est liée).
On remarque en outre que Ker(f ) ∩ Vect(e1 , ...er ) = {0}, donc Ker(f ) ⊕ Vect(e1 , ..., er ) = E (les dimensions sont
les bonnes). Donc si nous concaténons (e1 , ..., er ) avec une base de Ker(f ), nous obtenons une base de E.
Une telle base convient, comme on le vérifie facilement.
29
1. On remarque que XP ∈ F . Donc
XP | P
= 0.
30 1) on trouve (X ∪ Y )⊥ = X ⊥ ∩ Y ⊥
10
31 1) Les deux égalités donnent au niveau des dimensions :
dim(F ) 6 dim(E) − dim(G)
dim(E) 6 dim(F ) + dim(G).
et
d’où dim(F ) = dim(E) − dim(G) = dim(G⊥ ).
Comme on a déjà l’inclusion F ⊂ G⊥ , ceci donne l’égalité.
Ensuite, G = (G⊥ )⊥ = F ⊥ . (valable car G est de dimension finie)
2) Maintenant, on ne peut plus utiliser la dimension, et l’égalité F = (F ⊥ )⊥ n’est plus valable, on a plus que
F ⊂ (F ⊥ )⊥ .
Commençons par prouver que G⊥ ⊂ F . Soit donc x ∈ G⊥ . Comme E = F + G, il existe (xF , xG ) ∈ F × G tel que
x = xF + xG . Et le fait que x ∈ G⊥ donne (x|xG ) = 0 d’où :
0 = (x|xG ) = (xF |xG ) + (xG |xG ).
Mais F ⊂ G⊥ donc xF ⊥ xG . L’équation ci-dessus donne 0 = ||xG ||2 . Donc xG = 0E et x = xF ∈ F .
On a alors G ⊂ (G⊥ )⊥ = F ⊥ . Pour l’inclusion réciproque, soit x ∈ F ⊥ , (xF , xG ) ∈ F × G tel que x = xF + xG ,
alors 0 = (xF |x) donne xF = 0 puis x = xG ∈ G.
32
33
34
35
36 On trouve 0. Ce qui signifie que sin est orthogonal à Vect(cos, cos ◦2Id).
37
38 On sait que E = F ⊕F ⊥ (car F est de dimension finie). Notons pF ⊥ la projection orthogonale sur F ⊥ . Sa direction
est donc (F ⊥ )⊥ = F .
Soit x ∈ E et (xF , xF ⊥ ) ∈ F ×F ⊥ sa décomposition dans cette somme directe. Alors pF (x) = xF et (Id−pF )(x) =
x − xF = xF ⊥ = pF ⊥ (x).
39 Le « seulement si » vient de l’inégalité de Bessel.
Pour le « si » : supposons ∀x ∈ E, ||p(x)|| 6 ||x||.
Nous savons que p est la projection sur Im(p) parallèlement à Ker(p). Il faut donc vérifier que Ker(p) = Im(p)⊥ .
Soit x ∈ Ker(p) et y ∈ Im(p), montrons que x ⊥ y.
Pour tout λ ∈ R, en utilisant l’hypothèse sur le vecteur λx.y, on trouve :
||p(λ.x + y) 6 ||λ.x + y)
Or, p(λ.x + y) = λ.p(x) + p(y). Et p(x) = 0 car x ∈ Ker(p), alors que p(y) = y car y ∈ Im(p). Au final
p(λ.x + y) = p(y), et donc
||y|| 6 ||λ.x + y||
On met en outre l’inégalité précédente au carré pour faire apparaître les produits scalaires : ∀λ ∈ R :
||y||2 6 ||λ.x + y||2
donc
donc
||y||2 6 λ2 .||x||2 +
||y||2 +
2λ x | y
0 6 λ2 .||x||2 + 2λ x | y
On va diviser par λ. Attention : si λ < 0 cela change le sens des inégalités !
Pour tout λ ∈ R+∗ , on déduit :
0 6 λ.||x||2 + 2 x | y
11
et lorsque λ → 0+ , le théorème de comparaison de limites fournit :
06 x|y
De même, pour tout λ ∈ R−∗ , on a (changement de sens de l’inégalité car λ < 0) 0 > λ.||x||2 + 2 x | y
donne lorsque λ → 0− 0 > x | y .
En conclusion,
x | y = 0.
40
12
qui
Téléchargement