Espaces euclidiens 1) Espaces préhilbertiens réels a) Un espace

Espaces euclidiens
1) Espaces préhilbertiens réels
a) Un espace préhilbertien réel est un R-espace vectoriel muni d’un produit scalaire, c’est-à-dire une forme bilinéaire
symétrique dé…nie positive (x; y)7! (xjy):On pose kxk=p(xjx).
Remarque : Pour tout x6= 0,x
kxkappartient à la sphère unité S(intersection de Set de la demi-droite R+x).
Exemples :Rnmuni de (XjY) = Pn
k=1 xkyk,C0([a; b];R)muni de (fjg) = Rb
af(t)g(t)dt:
b) Norme d’une somme
kx+yk2=kxk2+kyk2+ 2(xjy)Remarque : Lien avec Al-Kashi : kxyk2=kxk2+kyk22kxkkykcos(x; y):
Remarque : Dans C,jz+z0j2=jzj2+jz0j2+ 2 Re(zz0):
Identité du parallélogramme :kx+yk2+kxyk2= 2 kxk2+ 2 kyk2.
Remarque culturelle : Une norme est euclidienne ssi elle véri…e l’identité du parallélogramme.
Cette identité équivaut d’ailleurs à l’identité de la médiane : M A2+MB2= 2MI2+1
2AB2, où Imilieu de [AB]:
c) Identités de polarisation :(xjy) = 1
2kx+yk2 kxk2 kyk2=1
4kx+yk2 kxyk2:
Ainsi, la connaissance de k k (et donc de la sphère unité) détermine entièrement le produit scalaire.
d) Inégalité de Cauchy-Schwarz et inégalité triangulaire
Prop :(xjy)2 kxkkyk, avec égalité ssi xet ysont colinéaires .
Preuve : Le polynôme P(t) = kx+tyk2=kxk2+ 2t(xjy) + t2kyk2est à valeurs positives, donc 0:
Prop :kx+yk  kxk+kyk, avec égalité ssi (xjy) = kxkkyk, c’est-à-dire ssi xet ycolinéaires de même sens.
2) Orthogonalité
a) Vecteurs orthogonaux
Théorème de Pythagore : (xjy) = 0 ssi kx+yk2=kxk2+kyk2:
Si x1; x2; :::; xnsont deux à deux orthogonaux, alors kPn
i=1 xik2=Pn
i=1 kxik2:
Toute famille orthonormée est libre (de même pour une famille orthogonale de vecteurs non nuls).
Tout espace admet une base orthonormée (admis).
b) Orthogonal d’un sev : On dé…nit F?=fy2Ej 8x2E,(xjy) = 0g:
Remarque : On a toujours F?
F?, mais en dimension quelconque, la somme n’est pas toujours égale à E.
Par exemple, si Fest le sev des polynômes dans C0([a; b];R)muni de k k2, alors F?=f0g.
Deux sev Fet Gsont orthogonaux ssi 8(x; y)2FG,(xjy) = 0, c’est-à-dire ssi FG?(ou GF?).
Important : Le seul vecteur orthogonal à lui-même est le vecteur nul.
Donc le seul vecteur orthogonal à tout vecteur est le vecteur nul, c’est-à-dire E?=f0g.
Conséquence : Pour prouver que x=y, il su¢ t de prouver que 8x2E,(xjz) = (yjz):
c) Projection orthogonale sur un sous-espace de dimension …nie
Prop : Soit Fun sev de dimension …nie. On considère (e1; :::; en)une base orthonormée de F.
Alors z=xPn
i=1(eijx)eiest orthogonal à tous les ej, donc appartient à F?.
Corollaire : Pour tout sev Fun sev de dimension …nie, on a F?
F?=E :
Le projeté orthogonal de xsur Fest y=Pn
i=1(eijx)ei.
En e¤et, pour tout i2 f1;2;3; :::; ng, on a (eijxy) = 0, c’est-à-dire xy2Vect(e1; :::; en)?=F?:
Inégalité de Bessel :Pn
i=1(eijx)2=kyk2 kxk2:
La distance de xàFest atteinte en y:d(x; F )2=kxyk2=kxk2 kyk2:
3) Espaces euclidiens
Un espace euclidien est un espace préhilbertien réel de dimension …nie.
a) Représentation des formes linéaires sur un espace euclidien
Les formes linéaires sur un espace euclidien sont les 'a:E!Rx7! (ajx), avec a2E.
Remarque : Si a6= 0,a?est un hyperplan, supplémentaire orthogonal de D=Ra.
Remarque : En dimension in…nie, les formes linéaires ne sont pas nécessairement de la forme x7! (ajx).
Par exemple, ':f7! f(0) dans C0([a; b];R)muni de k k2n’est pas de la forme f7! Rb
af(t)!(t)dt:
b) Bases orthonormées
Prop : Tout espace euclidien admet une base orthonormée (preuve par récurrence appliquée à e?, avec e6= 0).
Base orthonormée adaptée à une somme directe orthogonale FF?=E:
Théorème de la base orthonormée incomplète :toute famille orthonormée (e1; :::; ep)peut être complétée en une
base orthonormée de E: il su¢ t de la compléter par une base de F?, où F= Vect(e1; :::; ep):
c) Expression des coordonnées d’un vecteur et du produit scalaire dans une base orthonormée
Si (e1; :::; en)est une base orthonormée de E, alors x=Pn
i=1(eijx)ei.
Si x=Pn
i=1 xieiet si y=Pn
i=1 yiei, alors (xjy) = Pn
i=1 xiyi=tXY et kxk=qPn
i=1 x2
i:
Autrement dit, le produit scalaire de vecteurs correspond au produit scalaire canonique de leurs coordonnées dans
une base orthonormée. Le choix d’une BON permet d’identi…er Eavec Rnmuni du produit scalaire canonique.
Remarque : Le choix d’une BON dé…nit la structure euclidienne. Autrement dit, on peut dé…nir une structure
euclidienne par le choix d’une base orthonormée. On a alors (Pn
i=1 xieijPn
i=1 yiei) = Pn
i=1 xiyi:
d) Projections orthogonales
F?est le seul supplémentaire de Forthogonal à F(appelé le supplémentaire orthogonal de F), et (F?)?=F:
Def : La projection orthogonale psur Fest la projection sur Fparallèlement à F?.
Si F= Vect(e1; :::; ep),p(x) = Pp
i=1(eijx)ei.
Si F?= Vect(ep+1; :::; en),p(x) = xPp
i=1(eijx)ei.
Remarque : Les projections orthogonales sont les projections qui diminuent la norme.
Cas particuliers importants : Le projeté de xsur la droite D=Raest p(x) = (ajx)
(aja)a:
Le projeté de xsur l’hyperplan H=a?est p(x) = x(ajx)
(aja)a:
4) Procédé d’orthogonalisation de Gram-Schmidt
Lemme fondamental : Soit Fun sev et a2EnF.
Alors le projeté bde asur F?véri…e ab2Fet b2F?:On a aussi (ajb) = kbk2>0:
Prop : Soient (a1; a2; :::; an)une base de E. Pour 0kn, on pose Fk= Vect(a1; a2; :::; ak):Ainsi, F0=f0g.
On note bkle projeté orthogonal de aksur (Fk1)?:Et on pose ek=bk
kbkk:
Alors (b1; b2; :::; bn)est une BON de E:
On a 8k2 f1;2; :::ng,Vect(a1; a2; :::; ak) = Vect(e1; e2; :::; ek), et (akjek)>0:
Expression des ek: On a bk=akPk1
j=1 (ejjak)ejet ek=bk
kbkk.
5) Exemple : Produit scalaire (canonique) dans Mn(R)
Le produit scalaire canonique dans Mn(R) = R(n2)est (AjB) = Pi;j aij bij = tr(tAB).
En particulier, les formes linéaires sur Mn(R)sont les M7! tr(tAM), c’est-à-dire les M7! tr(AM):
Remarque : Les sev Sn(R)et An(R)des matrices symétriques et antisymétriques sont supplémentaires orthogonaux
: Par dimension, il su¢ t de prouver qu’ils sont orthogonaux. Or, tr(SA) = tr(tSA) = tr(tAS) = tr(SA).
Automorphismes orthogonaux dans un espace euclidien et matrices orthogonales
1) Automorphismes orthogonaux
a) Dé…nition et caractérisations
Prop et def : Soient Eeuclidien et u2 L(E):
On dit que uest une transformation orthogonale ssi uvéri…e les assertions suivantes qui sont équivalentes :
i) uconserve la norme : 8x2E; ku(x)k=kxk:
ii) uconserve le produit scalaire : 8(x; y)2E2;(u(x)ju(y)) = (xjy):
iii) L’image par ude toute base orthonormée de Eest une base orthonormée.
iv) Il existe une base orthonormée dont l’image par uest une base orthonormée.
b) Groupe orthogonal
L’ensemble des transformations orthogonales est un sous-groupe de (GL(E););appelé groupe orthogonal, noté O(E).
En particulier, Id 2O(E), la composée de deux transformations orthogonales est une transformation orthogonale et
la réciproque d’une transformation orthogonale est une transformation orthogonale.
On note O+(E) = fu2O(E)jdet u > 0gle sous-groupe des rotations. On a O+(E) = O(E)\SL(E) = SO(E):
c) Symétries orthogonales
Def : La symétrie orthogonale par rapport à Fest la symétrie spar rapport à Fparallèlement à F?:
Les symétries orthogonales sont des transformations orthogonales.
Remarque : Les symétries orthogonales sont les seules symétries qui sont des transformations orthogonales.
Attention : Les projections orthogonales n’appartiennent pas à O(E)(sauf Id).
d) Ré‡exions
Def : Une ré‡exion est une symétrie orthogonale spar rapport à un hyperplan H:
Si H=a?, on a 8x2E; s(x) = x2(xja)
(aja)a :
Prop : Soient aet bnon nuls tels que kak=kbk:Alors il existe une unique ré‡exion stelle que s(a) = b:
De plus, sest la ré‡exion par rapport à H= (ba)?:
e) Image de l’orthogonal par une transformation orthogonale
Prop : Soient u2O(E)et Fsev de E: Alors u(F?) = u(F)?:
Preuve : Pour (x; y)2FF?,(u(x)ju(y)) = (xjy) = 0, d’u(F?)u(F)?, et on conclut par dimension.
Corollaire : Si Fest stable par u2O(E), alors F?est stable par u.
2) Matrices orthogonales
a) Représentation matricielle du produit scalaire canonique dans Rn
Si X= (x1; :::; xn)et Y= (y1; :::; yn)2Rn;alors (XjY) = Pn
i=1 xiyi=tX Y:
b) Matrice de Gram
Soient Aet B2 Mn(R):On note A1; :::; Anles colonnes de A; et B1; :::; Bnles colonnes de B: Alors
tAB = ((AijBj))1in;1jn
Le co cient d’indice (i; j)de tAB est le psc des vecteurs Aiet Bj:
c) Matrice orthogonale
On dit que A2 Mn(R)est une matrice orthogonale ssi Avéri…e les assertions suivantes qui sont équivalentes :
i) Aest inversible et A1=tAi’) AtA=In:i”) tA A =In:
ii) Les vecteurs colonnes de Aforment une base orthonormée de Rnmuni du psc.
iii) L’endomorphisme associé à Aest une transformation orthogonale de Rnmuni du psc.
Remarque : On a nécessairement det A=1:
d) Groupes On(R)et O+
n(R) = SOn(R)
L’ensemble des matrices orthogonales est un sous-groupe de GLn(R), appelé groupe orthogonal, noté On(R).
En particulier, Inet In2On(R):
e) Caractérisation matricielle des bases orthonormées et des transformations orthogonales
Prop (Important) : Soient Eeuclidien et Bune base orthonormée de E:
i) Une famille (x1; :::; xn)est une base orthonormée de Essi MatB(x1; :::; xn)est une matrice orthogonale.
ii) Un endomorphisme u2 L(E)est une transformation orthogonale de Essi MatBuest une matrice orthogonale .
Corollaire : La matrice de passage entre deux bases orthonormées est orthogonale.
Prop (Important) : Soient Eeuclidien orienté et Bune base orthonormée directe de E:
i) Une famille (x1; :::; xn)est une base orthonormée directe ssi MatB(x1; :::; xn)est une matrice de rotation.
ii) Un endomorphisme u2 L(E)est une rotation de Essi MatBuest une matrice de rotation.
Corollaire : La matrice de passage entre deux bases orthonormées directes est une matrice de rotation.
3) Décomposition d’Iwasawa (traduction matricielle de Gram-Schmidt) et inégalité d’Hadamard (hp)
Prop : Toute matrice A2GLn(R)s’écrit A=U T , où U2On(R)et Ttriangulaire supérieure.
Preuve : Considérons (A1; A2; :::; An)la base de Rnformée des colonnes de A. Par le procédé d’orthonormalisation
de Gram-Schmidt, on obtient une base orthornormée (U1; U2; :::; Un):
On a Aj2Vect(U1; :::; Uj), donc Ajest de la forme Aj=Pj
i=1 tij Ui. On obtient ainsi A=UT .
Prop (Inégalité d’Hadamard):jdet Aj  kA1kkA2k; ::: kAnk:
Preuve : On a jdet Aj=jdet Tj=jt11t22:::tnnj. Or, Aj=U Tj, donc kA2k  jtjj j:
Variante directe : (|) On note bkle projeté de aksur Vect(a1; :::; ak1)?.
On a alors jdet(a1; a2; :::; an)j=jdet(b1; b2; :::; bn)j=kb1kkb2k; ::: kbnk  ka1kka2k; ::: kank:
Avec égalité ssi (a1; a2; :::; an) = (b1; b2; :::; bn), c’est-à-dire (a1; a2; :::; an)est une base orthogonale.
Exemple : (|) Toute matrice réelle trigonalisable est trigonalisation dans une base orthonormée.
En e¤et, avec A=P BP 1, on applique la décomposition d’Iwasawa à P, qui s’écrit donc P=UT:
On obtient A=U(T BT 1)U1, et si Best triangulaire supérieure, alors T BT 1est triangulaire supérieure.
Espaces euclidiens : Compléments
1) Distance à un sev et minimisation
a) Projeté et distance d’un point à un sev
Principe : Soit Fun sev et x2E. On considère d(x; F ) = inffkxzk,z2Fg.
Il existe un unique vecteur y2Ftel que d(x; F ) = kxyk, et yest le projeté orthogonal de xsur F.
En e¤et, si z2F, on a par Pythagore, kxzk2=kxyk2+kyzk2 kxyk2:
Important :d(x; F )2=kxyk2=kxk2 kyk2:
Remarque : Si (e1; :::; en)est une bon de F, alors y=Pn
k=1(xjek)eket d(x; F )2=kxk2Pn
k=1(xjek)2:
Si (f1; :::; fp)est une bon de F?, alors d(x; F )2=Pp
k=1(xjfk)2:
Exemple : Calcul du projeté yde xsur un plan F= Vect(u; v).
Si (u; v)est orthogonale, u
kuk;v
kvkest une bon, donc y=(xju)
kuk2u+(xjv)
kvk2v:
Dans le cas général, on peut calculer yde deux façons :
- On orthogonalise (u; v)par le procédé de Gram-Schmidt.
- Mieux : on cherche ysous la forme u +v, et on écrit que (xy)est orthogonal à uet à v.
D’où le système : ((u +v ju) = (xju)
(u +v jv) = (xjv)((uju) + (vju) = (xju)
(ujv) + (vjv) = (xjv)
On obtient un système de Cramer d’inconnue (; ), car  = kuk2kvk2(ujv)2>0par Cauchy-Schwarz.
b) Exemple de minimisation
Exemple : (|||) Soit f: [0;1] !Rune application continue.
On veut déterminer les valeurs de (a; b)2R2pour lesquelles R1
0(f(t)abt)2dt est minimum.
Autrement dit, en considérant E=C0([a; b];R)de la norme euclidienne kgk2=qR1
0g(t)2dt, on cherche à minimiser
kfLk2
2, où Lest une droite a¢ ne.
Par a), kfLk2
2est minimum lorsque Lest le projeté de fsur F= Vect(1; t)le sev des fonctions a¢ nes.
On détermine L(t) = a+bt par (a(1 j1) + b(tj1) = (fj1)
a(1 jt) + b(tjt) = (fjt)(a+1
2b= (fj1)
1
2a+1
3b= (fjt)
On obtient a= 4(fj46t)et b= (fj 6 + 12t):
Remarque : On peut prendre E= Vect(1; t; f )au lieu de C0([a; b];R)(pour se placer en dimension …nie).
Exemple : (|||) On veut minimiser R+1
0(t2abt)2etdt, avec (a; b)2R2.
On considère R[X]muni du produit scalaire (PjQ) = R+1
0P(t)Q(t)etdt:
Alors R+1
0(t2abt)2etdt est minimum lorsque (a+bX)est le projeté de X2sur Vect(1; X).
2) Polynômes orthogonaux
a) Propriétés générales : Soit (j)un produit scalaire sur R[X].
Pour tout n2N, il existe un unique polynôme unitaire Bnde degré northogonal à Rn1[X]. En e¤et, l’orthogonal
de Rn1[X]dans Rn[X]est une droite, et une droite contient un unique polynôme unitaire (de co cient dominant
1).
Remarque : En fait, Bnest le projeté orthogonal de Xnsur Rn1[X]?.
Prop : Il existe une (unique) base orthogonale (Bn)n2Nde R[X]de polynômes unitaires de degrés échelonnés .
1 / 6 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !