Aide Mémoire de Calcul Différentiel 1 Rappels sur les espaces normés boule ouverte de centre a et de rayon r boule fermé de centre a et de rayon r Ω ouvert ⇐⇒ def B(a, r) = {x ∈ E | kx − ak < r} def B(a, r) = {x ∈ E | kx − ak 6 r} def ∀x ∈ Ω, ∃r > 0 | B(x, r) ⊂ Ω ⇐⇒ ⇐⇒ def A fermé ⇐⇒ ⇐⇒ E\A ouvert ∀xn ∈ A −→ x alors x ∈ A def ∃r > 0, B(a, r) ⊂ V def ∃x ∈ E, ∃r > 0 | A ⊂ B(x, r) def ∀ε > 0, ∃n0 ∈ N | n > n0 ⇒ kxn − xk < ε suite de Cauchy def ⇐⇒ ∀ε > 0, ∃n0 ∈ N | n, m > n0 ⇒ kxn − xm k < ε suite convergente =⇒ suite de Cauchy V(a) : V voisinage de a A borné ⇐⇒ ⇐⇒ suite convergente ⇐⇒ def espace de Banach (complet) ⇐⇒ ∃a > 0, b > 0 | ∀x ∈ E, akxk 6 kxk0 6 bkxk ⇐⇒ def ∀ε > 0, ∃δ > 0 : kx − akE 6 δ ⇒ kf (x) − f (a)kF 6 ε ⇐⇒ ∀ε > 0, ∃δ > 0, ∀x ∈ B(a, δ), f (x) ∈ B(f (a), ε) k · k et k · k0 équivalentes ⇐⇒ f : E → F continue en a suite de Cauchy = suite convergente def f continue ⇐⇒ B fermé alors f −1 (B) fermé ⇐⇒ B ouvert alors f −1 (B) ouvert ⇐⇒ ∀xn −→ x alorsf (xn ) −→ f (x) def compact ⇐⇒ sous-recouvrement fini d’ouverts ⇐⇒ ∀ suite, ∃ sous-suite convergente =⇒ fermé + borné =⇒ de Banach (complet) F fermé ⊂ K compact =⇒ F compact K compact et f continue =⇒ f (K) compact et f bornée et atteint ses bornes 1 dimensions infinies (cas général) dimensions finies exemples : C 0 ([0; 1], R) ∼ R∞ , P [X] exemples : Rn , Mn×m (R) normes équivalentes espace de Banach (complet) si suite de Cauchy = suite convergente suite de Cauchy = suite convergente compact = sous-recouvrement fini d’ouverts compact ⇐⇒ sous-suite convergente compact =⇒ fermé + borné compact ⇐⇒ fermé + borné linéaire + continue ⇔ linéaire + bornée sur B(0; 1) linéaire =⇒ continue Théorème du point fixe f : E → E avec E, espace de Banach =⇒ f (a) = a unique kf (x) − f (y)k 6 αkx − yk (0 < α < 1) Applications linéaires continues : L(E, F ) |||f ||| = kf kL(E,F ) si f linéaire : f continue sur E supkxkE 61 kf (x)kF = ⇔ f continue en un point ⇔ f est bornée sur B(0; 1) ⇔ ∃M > 0 tel que kf (x)kF 6 M kxkE (avec M = |||f |||) f ∈ L(E, F ) =⇒ kf (x)kF 6 |||f |||kxkE 2 Synthèse sur les applications différentiables f (a + h) − f (a) = linéaire, continue en h + négligeable en h 0 différentielle : f (a) ∈ L(E, F ) f (a + h) − f (a) = (calcul différentiel) = [f 0 (a)](h) ou f 0 (a)h + o(h) + (majorations de normes) (algèbre linéaire) x 7→ f 0 (a)(x − a) + f (a) : équation de la tangente à f en a = approximation affine Rappels f = o(g) ⇐⇒ a f (x) x→a −−−→ 0 g(x) f = O(g) ⇐⇒ lim a f (h) = o(h) ⇐⇒ kf (h)k khk→0 −−−−→ 0 khk 2 x→a f (x) borné g(x) g ∈ L(R, R) ⇐⇒ n ∃λ ∈ R | ∀x ∈ R, g(x) = λx m ∃Mg ∈ Mn×m (R) | ∀x ∈ Rn , g(x) = Mg x g ∈ L(R , R ) ⇐⇒ ⇒ f 0 (a) ∈ L(Rn , Rm ) 2.1 f 0 (a) ∈ Mn×m (R) ≡ Propriétés • f différentiable =⇒ f continue • f ∈ L(E, F ) =⇒ f 0 (a) = f • f constante =⇒ f 0 (a) = 0 • (λf )0 (a) = λf 0 (a) • (f + g)0 (a) = f 0 (a) + g 0 (a) • (g ◦ f )0 (a) = g 0 (f (a)) ◦ f 0 (a) • l(x) = B(f (x), g(x)) =⇒ l0 (a)h = B(f 0 (a)h, g(a)) + B(f (a), g 0 (a)h) ex : l(x) = f (x) × g(x) = B(f (x), g(x)) avec B(x, y) = x × y ⇒ l0 (a)h = f 0 (a)h × g(a) + f (a) × g 0 (a)h 2.2 Théorème d’accroissements finis ! f différentiable sur [a, b] ⇒ 0 kf (b) − f (a)kF 6 sup |||f (x)||| kb − akE x∈[a,b] f différentiable sur un connexe ⇒ kf (x) − f (y)kF 6 |||f 0 (a)||| = kf 0 (a)kL(E,F ) 2.3 = sup |||f 0 (a)||| kx − ykE a∈connexe supkxkE 61 kf 0 (a)(x)kF Cas f : Rn → Rm δi f existent : δi f (a) = f 0 (a)ei δi f existent δi f existent et sont continues X f 0 (a)h = δi f (a)hi f différentiable ⇒ f différentiable : f différentiable ⇐ 2.4 Continûment différentiable 1 f ∈C = f différentiable f 0 continue ⇔ δi f existent et sont continues (cas Rn → Rm ) f 0 (x) : E → F f0 : U 6= 0 h 7→ f (x)h x f différentiable sur U ⇒ 6= → L(E, F ) 7 → f 0 (x) f 0 (a) continue (et linéaire) ∀a ∈ E f 0 continue 3 2.5 Matrice Jacobienne de f : Rn → Rm en x ∇f1 (x)T ∂n f1 (x) .. .. = (J1 f (x) . . . Jm f (x)) = . . T ∂n fm (x) ∇fm (x) ∂1 f1 (x) . . . .. .. Jf (x) = . . ∂1 fm (x) . . . x∈R n L(Rn , Rm ) ≡ f 0 (x) ≡ Mn×m (R) Jf (x) x, y ∈ Rn , f 0 (x)y = Jf (x)y ∈ Rm 2.6 Gradient de f : Rn → R en x f 0 (x)h = ∂1 f (x) .. ∇f (x) = Jf (x)T = . ∂n f (x) h1 . ∂1 f (x) . . . ∂n f (x) .. = h∇f (x), hi hn f (a + h) − f (a) = h∇f (x), hi + o(h) Rappels Injectif, Surjectif, Bijectif f injectif ⇔ f (x) = f (y) ⇒ x = y si f linéaire : f injectif ⇔ (f (x) = 0 ⇒ x = 0) ⇔ ker f = {0} f surjectif ⇔ ∀f :E→F ∀y, ∃x | f (x) = y ⇒ f : E → f (E) surjectif f bijectif ⇔ f inversible ⇔ f injectif et surjectif ⇔ n ∀y, ∃!x | f (x) = y m f ∈ L(R , R ) inversible et d’inverse continue ⇔ det Jf (x) 6= 0 Inversion de matrice A−1 = 1 comAT det A avec comAij = (−1)i+j det(A privée de la i-ème ligne et de la j-ième colonne) a c b d −1 1 = ac − bd 4 d −b −c a 3 Différentielles secondes, formules de Taylor 3.1 f 00 (a) différentielle seconde de f en a f 0 (a + h) = f 0 (a) + f 00 (a)h + o(h) dans L(E, F ) f 00 (a) = (f 0 )0 (a) ∈ L(E, L(E, F )) ≡ L(E×E, F )) = application bilinéaire continue 3.2 Théorème de Schwarz f de classe C 2 ⇒ f 00 (a) est symétrique 3.3 Cas f : Rn → R f 00 (x)(h, k) = n X n X j=1 i=1 ∂2f (x)ki hj ∂xj ∂xi Matrice hessienne de f (carrée et symétrique) ∂2f (x) ∂x21 ∇2 f (x) = 3.4 ∂2f ∂xn ∂x1 (x) .. . .. . ∂2f ∂x1 ∂xn (x) ··· ∂2f ∂x2n (x) Formule de Taylor f :E→F f : Rn → R 3.5 ··· 1 f (a + h) = f (a) + f 0 (a)h + f 00 (a)(h, h) + o(h2 ) 2 1 f (a + h) = f (a) + h∇f (a), hi + h∇2 f (a)h, hi + o(h2 ) 2 Ensemble convexe / Fonction convexe C ⊂ Rn convexe ⇐⇒ ∀x, y ∈ C, ∀α ∈ [0, 1], αx + (1 − α)y ∈ C f : C ⊂ Rn → R convexe ⇐⇒ ∀α ∈ [0, 1], f (αx+(1−α)y) 6 αf (x)+(1−α)f (y) 3.6 Propriétés f convexe =⇒ λf convexe (λ > 0) f et g convexes =⇒ (f + g) et max(f, g) convexes 3.7 M ∈ Mn (R) matrice symétrique M est définie positive n T M est semi-définie positive ⇐⇒ ∀x ∈ R \{0}, x M x > 0 ⇐⇒ ∀x ∈ Rn , xT M x > 0 ⇐⇒ toutes valeurs propres > 0 det(M ) > 0 n=2 ⇐⇒ tra(M ) > 0 ⇐⇒ toutes valeurs propres > 0 det(M ) > 0 n=2 ⇐⇒ tra(M ) > 0 5 3.8 Propriétés f convexe sur C ⇐⇒ f (y) > f (x) + ∇f (x)T (y − x) ∀x, y ∈ C, 2 f convexe sur C ⇐⇒ ∀x ∈ C, ∇ f (x) semi-définie positive f strictement convexe sur C ⇐⇒ ∀x ∈ C, ∇2 f (x) définie positive 4 4.1 Inversion locale, fonctions implicites Difféomorphisme de classe C 1 ou C 1 -difféomorphisme f : V → F est un difféomorphisme de classe C 1 de V (sur W = f (V )) f : V → W est bijective de classe C 1 sur V ⇐⇒ f −1 : W → V est de classe C 1 sur W 4.2 Théorème d’inversion locale f : U → F de classe C 1 0 n m f (a) inversible et d’inverse continu (≡ det Jf (a) 6= 0 : cas R → R ) ∃V = V(a) ouvert, (∃W = V(f (a)) = f (V ) ouvert) Alors f : V → F est un C 1 -difféomorphisme de V Si de plus =⇒ [f −1 ]0 (f (x)) = J(f 4.3 −1 f 0 (x)−1 (Jf (x))−1 )(f (x)) = cas Rn → Rm Théorème des fonctions implicites f : U ⊂ R n × Rp → R p (valable aussi sur des espaces de Banach) (x, y) → 7 f (x, y) f est de classe C 1 f (a, b) = 0 Si det Jy f (a, b) 6= 0 (Jy f (a, b) ∈ Mp×p (R) et Jf (x, y) ∈ M(n+p)×p (R)) ∃Va = V(a) ouvert, ∃Vb = V(b) ouvert, avec Va × Vb ⊂ U ∃ une application ϕ : Va →Vb de classe C 1 tels que alors (x, y) ∈ Va × Vb x ∈ Va ⇔ f (x, y) = 0 y = ϕ(x) de plus =⇒ 4.4 Jϕ(x) = −[Jy f (x, ϕ(x))]−1 Jx f (x, ϕ(x)) (∈ Mn×p (R)) Vecteur tangent en a à C ⊂ Rn v ∈ Rn vecteur tangent en a à C ⇐⇒ ∃γ : I → Rn dérivable (où I est un intervalle ouvert contenant 0) telle que γ(I) ⊂ C γ(0) = a 0 γ (0) = v 6 v vecteur tangent de ker h en a v vecteur tangent de ker h en a =⇒ v ∈ ker Jh(a) v ∈ ker Jh(a) ∀i, ∇hi (a) linéairement indépendants ⇐= (c-à-d ker Jh(a)T = {0Rm }) 7