Aide Mémoire de Calcul Différentiel

publicité
Aide Mémoire de Calcul Différentiel
1
Rappels sur les espaces normés
boule ouverte de centre a et de rayon r
boule fermé de centre a et de rayon r
Ω ouvert
⇐⇒
def
B(a, r) = {x ∈ E | kx − ak < r}
def
B(a, r) = {x ∈ E | kx − ak 6 r}
def
∀x ∈ Ω, ∃r > 0 | B(x, r) ⊂ Ω
⇐⇒
⇐⇒
def
A fermé ⇐⇒
⇐⇒
E\A ouvert
∀xn ∈ A −→ x alors x ∈ A
def
∃r > 0, B(a, r) ⊂ V
def
∃x ∈ E, ∃r > 0 | A ⊂ B(x, r)
def
∀ε > 0, ∃n0 ∈ N | n > n0 ⇒ kxn − xk < ε
suite de Cauchy
def
⇐⇒
∀ε > 0, ∃n0 ∈ N | n, m > n0 ⇒ kxn − xm k < ε
suite convergente
=⇒
suite de Cauchy
V(a) : V voisinage de a
A borné
⇐⇒
⇐⇒
suite convergente ⇐⇒
def
espace de Banach (complet) ⇐⇒
∃a > 0, b > 0 | ∀x ∈ E, akxk 6 kxk0 6 bkxk
⇐⇒
def
∀ε > 0, ∃δ > 0 : kx − akE 6 δ ⇒ kf (x) − f (a)kF 6 ε
⇐⇒
∀ε > 0, ∃δ > 0, ∀x ∈ B(a, δ), f (x) ∈ B(f (a), ε)
k · k et k · k0 équivalentes ⇐⇒
f : E → F continue en a
suite de Cauchy = suite convergente
def
f continue ⇐⇒
B fermé alors f −1 (B) fermé
⇐⇒
B ouvert alors f −1 (B) ouvert
⇐⇒
∀xn −→ x alorsf (xn ) −→ f (x)
def
compact ⇐⇒
sous-recouvrement fini d’ouverts
⇐⇒
∀ suite, ∃ sous-suite convergente
=⇒
fermé + borné
=⇒
de Banach (complet)
F fermé ⊂ K compact
=⇒
F compact
K compact et f continue
=⇒
f (K) compact et f bornée et atteint ses bornes
1
dimensions infinies (cas général)
dimensions finies
exemples : C 0 ([0; 1], R) ∼ R∞ , P [X]
exemples : Rn , Mn×m (R)
normes équivalentes
espace de Banach (complet) si
suite de Cauchy = suite convergente
suite de Cauchy = suite convergente
compact = sous-recouvrement fini d’ouverts
compact ⇐⇒ sous-suite convergente
compact =⇒ fermé + borné
compact ⇐⇒ fermé + borné
linéaire + continue ⇔ linéaire + bornée
sur B(0; 1)
linéaire =⇒ continue
Théorème du point fixe
f : E → E avec E, espace de Banach
=⇒ f (a) = a unique
kf (x) − f (y)k 6 αkx − yk (0 < α < 1)
Applications linéaires continues : L(E, F )
|||f ||| = kf kL(E,F )
si f linéaire :
f continue sur E
supkxkE 61 kf (x)kF
=
⇔
f continue en un point
⇔
f est bornée sur B(0; 1)
⇔
∃M > 0 tel que kf (x)kF 6 M kxkE (avec M = |||f |||)
f ∈ L(E, F ) =⇒ kf (x)kF 6 |||f |||kxkE
2
Synthèse sur les applications différentiables
f (a + h) − f (a) =
linéaire, continue en h
+ négligeable en h
0
différentielle : f (a) ∈ L(E, F )
f (a + h) − f (a) =
(calcul différentiel) =
[f 0 (a)](h) ou f 0 (a)h
+ o(h)
+ (majorations de normes)
(algèbre linéaire)
x 7→ f 0 (a)(x − a) + f (a) : équation de la tangente à f en a = approximation affine
Rappels
f = o(g) ⇐⇒
a
f (x) x→a
−−−→ 0
g(x)
f = O(g) ⇐⇒ lim
a
f (h) = o(h) ⇐⇒
kf (h)k khk→0
−−−−→ 0
khk
2
x→a
f (x)
borné
g(x)
g ∈ L(R, R) ⇐⇒
n
∃λ ∈ R | ∀x ∈ R, g(x) = λx
m
∃Mg ∈ Mn×m (R) | ∀x ∈ Rn , g(x) = Mg x
g ∈ L(R , R ) ⇐⇒
⇒ f 0 (a) ∈ L(Rn , Rm )
2.1
f 0 (a) ∈ Mn×m (R)
≡
Propriétés
• f différentiable =⇒ f continue
• f ∈ L(E, F ) =⇒ f 0 (a) = f
• f constante =⇒ f 0 (a) = 0
• (λf )0 (a) = λf 0 (a)
• (f + g)0 (a) = f 0 (a) + g 0 (a)
• (g ◦ f )0 (a) = g 0 (f (a)) ◦ f 0 (a)
• l(x) = B(f (x), g(x)) =⇒ l0 (a)h = B(f 0 (a)h, g(a)) + B(f (a), g 0 (a)h)
ex : l(x) = f (x) × g(x) = B(f (x), g(x)) avec B(x, y) = x × y
⇒ l0 (a)h = f 0 (a)h × g(a) + f (a) × g 0 (a)h
2.2
Théorème d’accroissements finis
!
f différentiable sur [a, b] ⇒
0
kf (b) − f (a)kF 6
sup |||f (x)||| kb − akE
x∈[a,b]
f différentiable sur un connexe ⇒
kf (x) − f (y)kF 6
|||f 0 (a)||| = kf 0 (a)kL(E,F )
2.3
=
sup
|||f 0 (a)||| kx − ykE
a∈connexe
supkxkE 61 kf 0 (a)(x)kF
Cas f : Rn → Rm
δi f existent : δi f (a) = f 0 (a)ei
δi f existent
δi f existent et sont continues
X
f 0 (a)h =
δi f (a)hi
f différentiable ⇒
f différentiable :
f différentiable ⇐
2.4
Continûment différentiable
1
f ∈C =
f différentiable
f 0 continue
⇔ δi f existent et sont continues (cas Rn → Rm )
f 0 (x) : E → F
f0 : U
6=
0
h 7→ f (x)h
x
f différentiable sur U
⇒
6=
→ L(E, F )
7
→
f 0 (x)
f 0 (a) continue (et linéaire) ∀a ∈ E
f 0 continue
3
2.5
Matrice Jacobienne de f : Rn → Rm en x

 
∇f1 (x)T
∂n f1 (x)

 
..
..
 = (J1 f (x) . . . Jm f (x))
=
.
.
T
∂n fm (x)
∇fm (x)

∂1 f1 (x) . . .

..
..
Jf (x) = 
.
.
∂1 fm (x) . . .
x∈R
n
L(Rn , Rm ) ≡
f 0 (x)
≡
Mn×m (R)
Jf (x)
x, y ∈ Rn , f 0 (x)y = Jf (x)y ∈ Rm
2.6
Gradient de f : Rn → R en x

f 0 (x)h =

∂1 f (x)


..
∇f (x) = Jf (x)T = 

.
∂n f (x)


h1
 . 
∂1 f (x) . . . ∂n f (x)  ..  = h∇f (x), hi
hn
f (a + h) − f (a) = h∇f (x), hi + o(h)
Rappels
Injectif, Surjectif, Bijectif
f injectif ⇔ f (x) = f (y) ⇒ x = y
si f linéaire :
f injectif ⇔ (f (x) = 0 ⇒ x = 0) ⇔ ker f = {0}
f surjectif ⇔
∀f :E→F
∀y, ∃x | f (x) = y
⇒ f : E → f (E) surjectif
f bijectif ⇔ f inversible
⇔ f injectif et surjectif
⇔
n
∀y, ∃!x | f (x) = y
m
f ∈ L(R , R ) inversible et d’inverse continue ⇔ det Jf (x) 6= 0
Inversion de matrice
A−1 =
1
comAT
det A
avec comAij = (−1)i+j det(A privée de la i-ème ligne et de la j-ième colonne)
a
c
b
d
−1
1
=
ac − bd
4
d −b
−c a
3
Différentielles secondes, formules de Taylor
3.1 f 00 (a) différentielle seconde de f en a
f 0 (a + h) = f 0 (a) + f 00 (a)h + o(h) dans L(E, F )
f 00 (a) = (f 0 )0 (a) ∈ L(E, L(E, F )) ≡ L(E×E, F )) = application bilinéaire continue
3.2
Théorème de Schwarz
f de classe C 2 ⇒ f 00 (a) est symétrique
3.3
Cas f : Rn → R
f 00 (x)(h, k) =
n X
n
X
j=1 i=1
∂2f
(x)ki hj
∂xj ∂xi
Matrice hessienne de f (carrée et symétrique)
∂2f
(x)
∂x21


∇2 f (x) = 

3.4
∂2f
∂xn ∂x1 (x)

..
.



..
.
∂2f
∂x1 ∂xn (x)
···
∂2f
∂x2n (x)
Formule de Taylor
f :E→F
f : Rn → R
3.5
···
1
f (a + h) = f (a) + f 0 (a)h + f 00 (a)(h, h) + o(h2 )
2
1
f (a + h) = f (a) + h∇f (a), hi + h∇2 f (a)h, hi + o(h2 )
2
Ensemble convexe / Fonction convexe
C ⊂ Rn convexe ⇐⇒ ∀x, y ∈ C, ∀α ∈ [0, 1], αx + (1 − α)y ∈ C
f : C ⊂ Rn → R convexe ⇐⇒ ∀α ∈ [0, 1], f (αx+(1−α)y) 6 αf (x)+(1−α)f (y)
3.6
Propriétés
f convexe =⇒ λf convexe (λ > 0)
f et g convexes =⇒ (f + g) et max(f, g) convexes
3.7 M ∈ Mn (R) matrice symétrique
M est définie positive
n
T
M est semi-définie positive
⇐⇒ ∀x ∈ R \{0}, x M x > 0
⇐⇒ ∀x ∈ Rn , xT M x > 0
⇐⇒ toutes valeurs propres > 0
det(M ) > 0
n=2
⇐⇒
tra(M ) > 0
⇐⇒ toutes valeurs propres > 0
det(M ) > 0
n=2
⇐⇒
tra(M ) > 0
5
3.8
Propriétés
f convexe sur C
⇐⇒
f (y) > f (x) + ∇f (x)T (y − x)
∀x, y ∈ C,
2
f convexe sur C
⇐⇒
∀x ∈ C, ∇ f (x) semi-définie positive
f strictement convexe sur C
⇐⇒
∀x ∈ C, ∇2 f (x) définie positive
4
4.1
Inversion locale, fonctions implicites
Difféomorphisme de classe C 1 ou C 1 -difféomorphisme
f : V → F est un difféomorphisme de classe C 1 de V (sur W = f (V ))
f : V → W est bijective de classe C 1 sur V
⇐⇒
f −1 : W → V est de classe C 1 sur W
4.2
Théorème d’inversion locale
f : U → F de classe C 1
0
n
m
f (a) inversible et d’inverse continu (≡ det Jf (a) 6= 0 : cas R → R )
∃V = V(a) ouvert, (∃W = V(f (a)) = f (V ) ouvert)
Alors
f : V → F est un C 1 -difféomorphisme de V
Si
de plus
=⇒
[f −1 ]0 (f (x)) =
J(f
4.3
−1
f 0 (x)−1
(Jf (x))−1
)(f (x)) =
cas Rn → Rm
Théorème des fonctions implicites
f : U ⊂ R n × Rp → R p
(valable aussi sur des espaces de Banach)
(x,
y)
→
7
f
(x,
y)

 f est de classe C 1
f (a, b) = 0
Si

det
Jy f (a, b) 6= 0
(Jy f (a, b) ∈ Mp×p (R) et Jf (x, y) ∈ M(n+p)×p (R))

∃Va = V(a) ouvert, ∃Vb = V(b) ouvert, avec Va × Vb ⊂ U



∃ une application ϕ : Va →Vb de classe C 1 tels que
alors
(x, y) ∈ Va × Vb
x ∈ Va


⇔

f (x, y) = 0
y = ϕ(x)
de plus
=⇒
4.4
Jϕ(x) = −[Jy f (x, ϕ(x))]−1 Jx f (x, ϕ(x))
(∈ Mn×p (R))
Vecteur tangent en a à C ⊂ Rn
v ∈ Rn vecteur tangent en a à C
⇐⇒ ∃γ : I → Rn dérivable (où I est un intervalle ouvert contenant 0) telle que

 γ(I) ⊂ C
γ(0) = a
 0
γ (0) = v
6
v vecteur tangent de ker h en a
v vecteur tangent de ker h en a
=⇒ v ∈ ker Jh(a)

 v ∈ ker Jh(a)
∀i, ∇hi (a) linéairement indépendants
⇐=

(c-à-d ker Jh(a)T = {0Rm })
7
Téléchargement