Calcul différentiel - Département Mathématiques Mécanique et

publicité
Calcul différentiel
A. Ninet
Septembre 2007
2
Table des matières
1 Fonctions convexes
1.1 Définition et propriétés élémentaires . .
1.2 Caractérisations de la convexité . . . . .
1.3 Applications de la convexité . . . . . . .
1.3.1 Inégalité de Jordan . . . . . . . .
1.3.2 Inégalité arithmético-géométrique
1.3.3 Inégalité de Hölder . . . . . . . .
1.3.4 Inégalité de Minkowski . . . . . .
1.3.5 Inégalité de Jensen . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
11
16
16
17
17
18
19
2 Applications différentiables
2.1 Rappels et compléments . . . . . . . . . . . . . . .
2.2 Différentiabilité . . . . . . . . . . . . . . . . . . . .
2.2.1 Notion de différentiabilité en un point . . .
2.2.2 Différentiabilité sur un ouvert . . . . . . . .
2.3 Exemples . . . . . . . . . . . . . . . . . . . . . . .
2.4 Propriétés . . . . . . . . . . . . . . . . . . . . . . .
2.5 Cas des espaces produits . . . . . . . . . . . . . . .
2.5.1 Fonctions à valeurs dans un espace produit
2.5.2 Fonctions définies sur un espace produit . .
2.5.3 Cas particulier . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
23
23
25
26
29
33
33
34
35
3 Accroissements finis et Taylor
3.1 Egalité des accroissements finis . . . . . . . . . . .
3.2 Inégalité des accroissements finis . . . . . . . . . .
3.2.1 Fonction définie sur un intervalle de R . . .
3.2.2 Fonction définie sur un ouvert de E . . . .
3.2.3 Applications . . . . . . . . . . . . . . . . .
3.3 Différentiabilité et différentiabilité partielle . . . .
3.4 Différentielle seconde d’une application . . . . . . .
3.4.1 Isomorphismes . . . . . . . . . . . . . . . .
3.4.2 Différentielles secondes . . . . . . . . . . . .
3.5 Formules de Taylor . . . . . . . . . . . . . . . . . .
3.5.1 Formule de Taylor-Young . . . . . . . . . .
3.5.2 Formule de Taylor avec reste integral . . . .
3.5.3 Formule de Taylor-Lagrange . . . . . . . . .
3.6 Extremum d’une fonction numérique . . . . . . . .
3.6.1 Extremum relatif d’une fonction numérique
3.6.2 Cas E = Rn . . . . . . . . . . . . . . . . . .
3.6.3 Extremum lié d’une fonction numérique . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
37
37
38
38
39
39
40
42
42
43
46
46
48
49
50
50
51
53
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4 T.I.L. et T.F.I.
4.1 Notion de difféomorphisme . . . . . . . . . . .
4.1.1 Différentiabilité de la “réciprocation” des
4.1.2 Difféomorphismes . . . . . . . . . . . . .
4.2 Théorème d’inversion locale . . . . . . . . . . .
4.3 Théorème des fonctions implicites . . . . . . . .
TABLE DES MATIÈRES
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
57
57
60
62
67
5 Eléments d’étude locale de surfaces de R3
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Rappels sur les plans et droites de l’espace . . . . . . . . . . . . . .
5.3 Surface de R3 définie comme un graphe . . . . . . . . . . . . . . .
5.3.1 Plan tangent à S en un point . . . . . . . . . . . . . . . . .
5.3.2 Vecteur normal, droite normale à S en M0 . . . . . . . . . .
5.3.3 Position de la surface S par rapport au plan tangent en M0
5.4 Surface définie par une équation cartésienne implicite . . . . . . . .
5.5 Surface de R3 définie par une représentation paramétrique . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
73
73
75
75
75
76
77
78
79
. . . . . . . . .
isomorphismes
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
.
.
.
.
.
Introduction
Ce document correspond au cours de L3 Mathématiques de calcul différentiel donné à Reims de
2005 à 2008.
Il fut inspiré par le cours de T. Raoux de calcul différentiel, ainsi que par les ouvrages cités dans
la bibliographie.
Il est
–
–
–
–
–
–
disponible sur le bureau virtuel de l’URCA :
Aller à l’adresse http ://sead.univ-reims.fr,
Donner son login et son mat de passe,
Cliquer sur Gestion des cours et catégories,
Cliquer sur S’inscrire aux cours,
Cliquer sur Licences,
Cliquer sur Licence Sciences et Technologies : Mathématiques, mécanique et
informatique,
– Sélectionner le cours auquel on veut s’inscrire.
5
6
TABLE DES MATIÈRES
Chapitre 1
Fonctions convexes
Nous allons voir dans ce chapitre les fonctions convexes et leurs propriétés, des caractérisations
analytiques et/ou géométriques, puis certaines applications. Nous nous intéresseront principalement au cas d’une variable réelle.
1.1
Définition et propriétés élémentaires
Commençons par définir une fonction convexe.
Définition 1.1.1 Soit I un intervalle de R non réduit à un point.
Soit f : I → R une application ; f est dite convexe sur I si, pour tout (a, b) ∈ I 2 et tout λ ∈ [0, 1],
on a :
f λ a + (1 − λ) b ≤ λ f (a) + (1 − λ) f (b).
On peut aussi donner la définition avec cette variante triviale :
Corollaire 1.1.2 Soit I un intervalle de R non réduit à un point.
Soit f : I → R une application ; f est convexe sur I si et seulement si pour tout (a, b) ∈ I 2 et
tout (λ, µ) ∈ R2+ tels que λ + µ = 1, on a :
f (λa + µb) ≤ λ f (a) + µ f (b).
y = f(x)
y
y=f(x)
y = f(x)
x
0
y = f(x)
Voyons un aspect géométrique de la convexité.
Pour tout a et b ∈ I, le segment [(a, f (a)), (b, f (b))] est au dessus du graphe de f .
7
8
CHAPITRE 1. FONCTIONS CONVEXES
y
y=f(x)
0
x
a
b
On peut le généraliser par le corollaire suivant :
Corollaire 1.1.3 Soit f : I → R, f est convexe si et seulement si son épigraphe epi(f ) est une
partie convexe du plan, avec :
epi(f ) = {(x, y) ∈ I × R / f (x) ≤ y}.
y
epi(f)
B
y=f(x)
A
x
0
Nous allons maintenant donner un lemme simple, mais qui sera régulièrement utilisé dans les
démonstrations et exercices.
Lemme 1.1.4 Soit x < z < y trois réels, alors il existe λ ∈]0, 1[ tel que :
z = λ x + (1 − λ) y.
Démonstration :
Il suffit de poser :
λ=
et vérifier le lemme.
y−z
y−x
Définition 1.1.5 Soit I un intervalle de R non réduit à un point.
Soit f : I → R une application ; f est dite strictement convexe sur I si, pour tout (a, b) ∈ I 2 ,
a 6= b, et tout λ ∈]0, 1[, on a :
f λ a + (1 − λ) b < λ f (a) + (1 − λ) f (b).
9
1.1. DÉFINITION ET PROPRIÉTÉS ÉLÉMENTAIRES
Définition 1.1.6 Une application f est dite concave sur I si -f est convexe sur I, c’est-à-dire
si, pour tout (a, b) ∈ I 2 et tout λ ∈ [0, 1], on a :
f λ a + (1 − λ) b ≥ λ f (a) + (1 − λ) f (b).
y
y=f(x)
x
0
La définition de convexité peut se généraliser. Il faut d’abord généraliser la notion d”’intervalle”,
avec une définition qui va également généraliser le lemme.
Définition 1.1.7 Soit E un R-espace vectoriel et a et b ∈ E. On note [a, b] et ]a, b[ les ensembles :
[a, b] = {µ a + (1 − µ) b, µ ∈ [0, 1]}
et
]a, b[= {µ a + (1 − µ) b, µ ∈]0, 1[}.
On peut maintenant définir une fonction convexe sur un espace vectoriel.
Définition 1.1.8 Soit E un R-espace vectoriel et Ω un sous-ensemble de E.
Soit f : Ω → R. L’application f est dite convexe sur Ω si, pour tout (a, b) ∈ Ω2 tel que [a, b] ⊂ Ω
et tout λ ∈ [0, 1], on a :
f λ a + (1 − λ) b ≤ λ f (a) + (1 − λ) f (b).
On remarque le lien avec la notion d’ensemble convexe, c’est-à-dire tel que pour tout (a, b) ∈ Ω2 ,
on a [a, b] ⊂ Ω. Dans ce cas, l’hypothèse sur [a, b] n’est bien sûr plus nécessaire.
Il faut également bien faire attention : l’espace de départ doit être un R-espace vectoriel, l’espace
d’arrivé doit être R.
DANS TOUTE LA SUITE DU CHAPITRE, NOUS TRAVAILLERONS DANS R.
L’ensemble I sera un intervalle non réduit à un point.
Voyons maintenant quelques propriétés élémentaires des fonctions convexes.
Proposition 1.1.9 Soit I un intervalle de R.
1. Soit f et g deux fonctions convexes sur I, alors f + g est convexe sur I.
2. Soit f convexe sur I et µ ∈ R+ , alors µf est convexe sur I.
3. Soit J un ensemble et (fj )j∈J une famille de fonctions convexes sur I telle que, pour tout
x ∈ I, sup fj (x) < +∞. Alors la fonction g : I → R, définie par g(x) = sup fj (x) pour
j∈J
tout x ∈ I, est convexe sur I.
On appelle g l’enveloppe supérieure de la famille de fonctions (fj )j∈J .
Démonstration :
j∈J
10
CHAPITRE 1. FONCTIONS CONVEXES
1. Soit (a, b) ∈ I 2 et λ ∈ [0, 1]. Alors :
(f + g) λ a + (1 − λ) b = f λ a + (1 − λ) b + g λ a + (1 − λ) b
≤ λ f (a) + (1 − λ) f (b) + λ g(a) + (1 − λ) g(b)
≤ λ (f + g)(a) + (1 − λ) (f + g)(b).
Donc f + g est bien convexe sur I.
2. Soit (a, b) ∈ I 2 et λ ∈ [0, 1]. Alors :
(µf ) λ a + (1 − λ) b = µ f λ a + (1 − λ) b
≤ µ λ f (a) + (1 − λ) f (b) car µ ≥ 0
≤ λ (µf )(a) + (1 − λ) (µf )(b).
Donc µf est convexe sur I.
3. Soit (a, b) ∈ I 2 et λ ∈ [0, 1]. Alors, pour tout j ∈ J, on a :
fj λ a + (1 − λ) b ≤ λ fj (a) + (1 − λ) fj (b).
Comme λ ≥ 0 et 1 − λ ≥ 0, on en déduit (puisque fj (x) ≤ g(x) pour tout x ∈ I) que, pour
tout j ∈ J,
fj λ a + (1 − λ) b ≤ λ g(a) + (1 − λ) g(b).
On passe au sup sur J à gauche et on en déduit :
g λ a + (1 − λ) b = sup fj λ a + (1 − λ) b ≤ λ g(a) + (1 − λ) g(b).
j∈J
Donc g est bien convexe sur I.
Remarque :
Cette proposition reste vraie sur un espace vectoriel quelconque.
Remarque : L’ensemble des fonctions convexes sur I ne forme pas un espace vectoriel, car si
λ < 0, λf sera concave, mais pas convexe en général (à moins d’être affine).
Remarque : On peut généraliser les deux premiers points de la proposition ainsi : toute combinaison linéaire à coefficients positifs de fonctions convexes sur I est convexe sur I.
Remarque : Les deux premiers points restent vrais si on remplace partout convexe par strictement convexe.
Remarque : Le dernier point reste vrai si on l’énonce : Soit J un ensemble et (fj )j∈J une famille
de fonctions strictement convexes sur I. Alors la fonction g : I → R, définie par g(x) = sup fj (x)
j∈J
pour tout x ∈ I, est convexe sur I.
Voyons une autre propriété intéressante.
Proposition 1.1.10 Soit f convexe de I dans R et n ∈ N, n ≥ 2. Alors, pour tout x1 , ...,
xn ∈ I et tout λ1 , ..., λn ≥ 0 tels que λ1 + ... + λn = 1, on a :
f (λ1 x1 + ... + λn xn ) ≤ λ1 f (x1 ) + ... + λn f (xn ).
11
1.2. CARACTÉRISATIONS DE LA CONVEXITÉ
Démonstration :
La démonstration se fait par récurrence sur n ≥ 2.
Pour n = 2, c’est la définition de la convexité, car λ2 = 1 − λ1 .
Supposons maintenant l’hypothèse vérifiée pour un certain n ≥ 2 et regardons le cas n + 1.
Si l’un des λi , pour 1 ≤ i ≤ n + 1, est nul, le résultat est vrai par hypothèse de récurrence.
Si tous les λi , pour 1 ≤ i ≤ n + 1, sont non nuls, posons λ = λ1 + ... + λn > 0. Alors
λn+1 = 1 − λ > 0.
λ1 x1 + ... + λn xn
Posons également a =
et b = xn+1 .
λ
On a 0 < λ < 1 et b ∈ I.
Montrons que a ∈ I. Si on note α ∈ I (resp : β ∈ I) le plus petit (resp : le plus grand))
des xi , 1 ≤ i ≤ n, alors, puisque λi > 0, on a λi α ≤ λi xi ≤ λi β et donc, en sommant, on
obtient :
n
X
λi xi ≤ λ β
λα≤
i=1
et finalement α ≤ a ≤ β. On en déduit que a ∈ I. Puisque f est convexe sur I, on obtient :
Or :
f (λ1 x1 + ... + λn xn + λn+1 xn+1 ) = f λ a + (1 − λ) b ≤ λ f (a) + (1 − λ) f (b).
λ f (a) = λ f
λ1 x1 + ... + λn xn
λ
λ1
λn
≤ λ
f (x1 ) + ... +
f (xn ) par hypothèse de récurrence
λ
λ
≤ λ1 f (x1 ) + ... + λn f (xn ).
Donc l’hypothèse est vérifiée au rang n + 1, et est donc vraie pour tout n ≥ 2.
1.2
Caractérisations de la convexité
Nous allons voir, suivant la régularité de f , des caractérisations de la convexité.
La première que nous allons voir est l’une des plus importantes.
Proposition 1.2.1 Soit f : I → R, I un intervalle de R contenant au moins deux points
distincts.
La fonction f est convexe sur I si et seulement si, pour tout a ∈ I, l’application Ta : I\{a} → R,
f (x) − f (a)
définie par Ta (x) =
, est croissante sur I\{a}.
x−a
Remarque :
La fonction Ta représente le taux d’accroissement de f au voisinage de a.
Démonstration :
Supposons d’abord f convexe sur I.
Soit a ∈ I et x, y ∈ I\{a} avec x < y. Nous avons trois cas possibles :
a < x < y,
x < a < y,
x < y < a.
12
CHAPITRE 1. FONCTIONS CONVEXES
Nous allons traiter le premier cas, les deux autres se faisant de la même façon.
x−a
y−x
> 0, on a donc x = λ a + (1 − λ) y et 1 − λ =
> 0. Puisque f est
On pose λ =
y−a
y−a
convexe sur I, on en déduit que :
f (x) = f λ a + (1 − λ) y ≤ λ f (a)+ (1 − λ) f (y)
⇐⇒ f (x) − f (a) ≤ (1 − λ) f (y) − f (a)
x−a
⇐⇒ f (x) − f (a) ≤
f (y) − f (a)
y−a
f (x) − f (a)
f (y) − f (a)
≤
x−a
y−a
⇐⇒ Ta (x) ≤ Ta (y).
⇐⇒
Donc Ta est bien croissante.
Supposons maintenant que, pour tout a ∈ I, Ta est croissante.
Soit (x, y) ∈ I 2 , avec x < y et λ ∈]0, 1[.
On pose a = λ x + (1 − λ) y, d’où x < a < y.
On sait que Tx (a) ≤ Tx (y), c’est-à-dire :
f (y) − f (x)
f (a) − f (x)
≤
.
a−x
y−x
a−x
y−a
et 1 − λ =
, d’où :
y−x
y−x
f (a) − f (x) ≤ (1 − λ) f (y) − f (x) ⇐⇒ f (a) ≤ (1 − λ) f (y) + λ f (x).
Comme x < a < y, on a λ =
Donc f est bien convexe sur I.
Voyons une conséquence géométrique de ce résultat.
Corollaire 1.2.2 Inégalité des trois pentes :
Soit f : I → R convexe sur I.
Soit a, b et c ∈ I, avec a < b < c. Alors :
f (b) − f (a)
f (c) − f (a)
f (c) − f (b)
≤
≤
.
b−a
c−a
c−b
Vu sur un exemple, cela donne ceci :
y
y=f(x)
a 0
b
c
x
1.2. CARACTÉRISATIONS DE LA CONVEXITÉ
13
La pente de (a, b) est négative, celle de (b, c) positive.
Démonstration :
Le corollaire se vérifie facilement : on utilise la proposition précédente et on en déduit :
Ta (b) ≤ Ta (c) = Tc (a) ≤ Tc (b)
par croissance de Ta et de Tc .
Remarque : La réciproque est vraie. Si l’inégalité des trois pentes est vérifiée pour tout a < b < c,
on obtient la croissance des fonctions Ta pour tout a ∈ I et donc la convexité.
Cela permet de donner une nouvelle propriété des fonctions convexes.
Théorème 1.2.3 Soit f : I → R convexe sur I. Alors, pour tout a ∈ ˚
I, il existe une dérivée à
droite fd′ (a) et une dérivée à gauche fg′ (a) de f en a, et fg′ (a) ≤ fd′ (a).
De plus, f est continue sur ˚
I et fg′ et fd′ sont croissantes sur ˚
I.
Démonstration :
Commençons par montrer l’existence des dérivées à gauche et à droite.
Soit a un point intérieur de I, alors il existe x et y ∈ I tels que x < a < y. D’après la proposition
précédente, Ta est croissante sur I\{a} et :
f (x) − f (a)
f (y) − f (a)
≤
.
x−a
y−a
Donc l’application Ta est croissante et majorée sur I∩] − ∞, a[ par Ta (y). Elle admet alors une
limite finie en a, qui est fg′ (a).
De même, Ta est croissante et minorée sur I∩]a, +∞[, donc elle admet alors une limite finie en
a, qui est fd′ (a).
De plus, on a bien :
fg′ (a) = lim
x→a−
f (x) − f (a)
f (y) − f (a)
≤ lim
= fd′ (a).
x−a
y−a
y→a+
Puisque f admet une dérivée à gauche (resp : à droite) en a, elle est continue à gauche (resp :
à droite) en a, et donc f est continue en a, pour tout a ∈ ˚
I.
Il reste à montrer que fg′ et fd′ sont croissantes sur ˚
I. On va le montrer pour fg′ , c’est la même
′
chose pour fd .
Soit a et b ∈ ˚
I, avec a < b.
Il existe x et y ∈ ˚
I tels que x < a < y < b (car ˚
I est ouvert dans R). Alors, d’après l’inégalité
des trois pentes appliquée à x < a < y puis à a < y < b, on a :
f (a) − f (x)
f (y) − f (a)
f (y) − f (b)
≤
≤
a−x
y−a
y−b
et donc :
lim
x→a−
d’où finalement :
f (a) − f (x)
f (y) − f (b)
= fg′ (a) ≤
a−x
y−b
fg′ (a) ≤ lim
y→b−
Donc fg′ est bien croissante sur ˚
I.
f (y) − f (b)
= fg′ (b).
y−b
14
CHAPITRE 1. FONCTIONS CONVEXES
Remarque :
valle.
f convexe sur I est donc continue sur ˚
I, mais pas forcément aux bornes de l’inter-
Voyons maintenant une conséquence géométrique de ce théorème :
Corollaire 1.2.4 Soit f : I → R une fonction convexe.
Alors f admet en tout point de ˚
I une droite d’appui pour son épigraphe.
Plus précisement, pour tout a ∈ ˚
I, il existe une application affine ga : R → R définie par
I, ga (x) ≤ f (x).
ga (x) = f (a) + µa (x − a) (avec µa ∈ [fg′ (a), fd′ (a)]) vérifiant, pour tout x ∈ ˚
y
y=f(x)
y=ga(x)
x
0
Remarque :
On a f (a) = ga (a) pour tout a ∈ ˚
I.
Démonstration :
On sait, d’après la démonstration du théorème, que pour tout y < a < z dans ˚
I, on a :
f (z) − f (a)
f (y) − f (a)
≤ fg′ (a) ≤ fd′ (a) ≤
.
y−a
z−a
On choisit µa ∈ [fg′ (a), fd′ (a)] et on pose ga : ˚
I → R, définie par ga (x) = f (a) + µa (x − a).
˚
Alors, pour tout x ∈ I :
– Si x = a, on a f (a) = ga (a).
– Si x < a,
f (x) − f (a)
≤ fg′ (a) ≤ µa
x−a
d’où f (x) − f (a) ≥ µa (x − a) et donc :
f (x) ≥ f (a) + µa (x − a) = ga (x).
– Si x > a,
µa ≤ fd′ (a) ≤
d’où µa (x − a) ≤ f (x) − f (a) et donc :
f (x) − f (a)
x−a
f (a) + µa (x − a) = ga (x) ≤ f (x).
15
1.2. CARACTÉRISATIONS DE LA CONVEXITÉ
Remarque : Si f est dérivable en a, alors la droite donnée par ga est unique et est la tangente
à f en a. On en déduit le corollaire suivant :
Corollaire 1.2.5 Soit f : I → R une fonction convexe, dérivable sur I un intervalle ouvert.
Alors, pour tout a ∈ I, on a :
f (x) ≥ f (a) + f ′ (a) (x − a)
∀ x ∈ I.
Proposition 1.2.6 Une fonction convexe f sur un intervalle I ouvert est l’enveloppe supérieure
d’une famille de fonctions affines.
Démonstration :
Pour tout a ∈ I ouvert, on sait qu’il existe ga affine telle que ga (a) = f (a) et ga ≤ f sur I.
Notons Φ(x) = sup ga (x) pour tout x ∈ I.
a∈I
Alors Φ ≤ f (car ga ≤ f pour tout a) sur I. De plus, pour tout a ∈ I, on a Φ(a) ≥ ga (a) = f (a)
donc Φ ≥ f sur I.
Finalement, on a bien Φ = f .
Voyons maintenant une caractérisation de la convexité dans le cas d’une fonction dérivable.
Théorème 1.2.7 Soit f : I → R dérivable sur I.
Alors f est convexe sur I si et seulement si f ′ est croissante sur I.
Démonstration :
Supposons f convexe sur I. Alors, d’après un précédent théorème, f ′ est croissante sur I (car si
f est dérivable, f ′ = fg′ = fd′ qui sont croissantes).
Supposons maintenant que f ′ soit croissante sur I. On raisonne par l’absurde.
Si f n’est pas convexe, alors il existe a < b dans I et λ ∈]0, 1[ tels que :
f (λ a + (1 − λ) b) > λ f (a) + (1 − λ) f (b).
Notons c = λ a + (1 − λ) b, on a donc a < c < b et :
f (c) > λ f (a) + (1 − λ) f (b)
ce qui équivaut à dire que :
λ (f (c) − f (a)) > (1 − λ) (f (b) − f (c)).
Or λ =
b−c
c−a
et 1 − λ =
donc :
b−a
b−a
et finalement :
c−a
b−c
f (c) − f (a) >
f (b) − f (c)
b−a
b−a
f (c) − f (a)
f (b) − f (c)
>
.
c−a
b−c
Or, d’après l’inégalité des accroissements finis, il existe α ∈]a, c[ et β ∈]c, b[ tels que :
f (c) − f (a) = f ′ (α) (c − a)
et f (b) − f (c) = f ′ (β) (b − c).
On déduit de ce qui précède que f ′ (α) > f ′ (β) et α < β, ce qui est contradictoire avec la
croissance de f ′ .
Donc f est nécessairement convexe sur I.
16
CHAPITRE 1. FONCTIONS CONVEXES
Proposition 1.2.8 Si f : I → R est deux fois dérivable sur I, alors f est convexe sur I si et
seulement si f ′′ ≥ 0 sur I.
C’est une conséquence directe du théorème précédent.
Remarque : Tous les résultats vus dans cette partie peuvent s’adapter au cas des fonctions
concaves : il suffit de remplacer partout f par −f .
La dernière proposition nous permet de voir facilement que :
1. La fonction exponentielle est convexe sur R car si f (x) = ex , alors f est deux fois dérivable
sur R et f ′′ (x) = ex ≥ 0.
2. La fonction logarithme est concave sur R∗+ car si f (x) = − ln x, alors f est deux fois
1
dérivable sur R∗+ et f ′′ (x) = 2 ≥ 0.
x
3. Suivant l’intervalle sur lequel on se place, les fonctions sinus et cosinus peuvent être
convexes, concaves ou ni l’un ni l’autre.
Par exemple,h la dérivée
seconde de
étant son opposée, on en déduit que cosinus est
h π cosinus
i
πi
concave sur 0, , convexe sur
, π et ni concave ni convexe sur [0, π].
2
2
4. Les applications qui a x associent x2n (avec n ∈ N∗ ) et ln(1 + ex ) sont convexes sur R.
5. Les applications affines sont à la fois convexes et concaves sur R.
Nous allons maintenant voir des applications de la convexité.
1.3
1.3.1
Applications de la convexité
Inégalité de Jordan
h πi
Proposition 1.3.1 Pour tout x ∈ 0, , on a :
2
sin x ≥
2
x.
π
Démonstration :
h πi
En effet, la fonction sinus est concave sur 0,
: elle est deux fois dérivable et, pour tout
2
h πi
h πi
x ∈ 0, , on a : (− sin x)′′ = sin x ≥ 0, donc − sin est convexe et sin est concave sur 0, .
2
2
h πi
2
Comme, pour tout x ∈ 0, , il existe λ = x ∈ [0, 1] tel que :
2
π
x=λ
π
+ (1 − λ) 0
2
et par concavité du sinus,
sin x ≥ λ sin
π
2
+ (1 − λ) sin 0 = λ × 1 + (1 − λ) × 0 = x.
2
π
17
1.3. APPLICATIONS DE LA CONVEXITÉ
1.3.2
Inégalité arithmético-géométrique
Proposition 1.3.2 Soit n ∈ N∗ et x1 , ..., xn des réels positifs. Alors :
1
(x1 ... xn ) n ≤
x1 + ... + xn
.
n
Démonstration :
Commençons par un cas trivial : si l’un au moins des xi est nul, alors l’inégalité est évidente.
Supposons maintenant que tous les xi sont strictement positifs.
On a vu que le logarithme est concave, donc − ln est convexe, et d’après une proposition précédente, on a :
x
xn 1
1
1
+ ... +
≤ − ln(x1 ) − ... −
ln(xn )
− ln
n
n
n
n
1
x1 + ... + xn
1
≥
ln(x1 ) + ... + ln(xn ) = ln (x1 ...xn ) n
⇐⇒ ln
n
n
⇐⇒
1
x1 + ... + xn
≥ (x1 ...xn ) n
n
par passage à l’exponentielle, qui est croissante sur R.
1.3.3
Inégalité de Hölder
1 1
+ = 1 et soit n ∈ N∗ .
p q
Proposition 1.3.3 Soit p > 1 et q > 1 des réels vérifiant
Soit a1 , ..., an , b1 , ..., bn des réels positifs. Alors :
n
X
j=1

aj bj ≤ 
n
X
j=1
1 
p
apj 

n
X
j=1
1
q
bqj 
.
Démonstration :
Si tous les aj ou tous les bj sont nuls, c’est trivial.
Supposons maintenant qu’il existe au moins un ai et un bj non nuls.
On va de nouveau utiliser la concavité du logarithme. Pour tout x et y > 0, on a :
1
1
x y
1
1
ln
+
≥ ln x + ln y = ln(x p y q )
p q
p
q
et donc par passage à l’exponentielle (croissante sur R) :
1
1
x y
+ ≥ xp y q .
p q
Cette inégalité reste vraie si x ou y est nul.
ap
bq
On pose maintenant x = n i et y = n i , avec 1 ≤ i ≤ n quelconque. On a donc, grâce à la
P p
P q
aj
bj
j=1
j=1
formule ci-dessus, pour tout 1 ≤ i ≤ n :
ai
n
P
j=1
apj
!1/p
×
bi
n
P
j=1
bqj
!1/q
≤
p
api
n
P
j=1
apj
+
q
bqi
n
P
j=1
bqj
.
18
CHAPITRE 1. FONCTIONS CONVEXES
On somme sur i, ce qui donne :
n
P
ai bi
i=1
n
P
j=1
apj
!1/p
n
P
j=1
bqj
!1/q ≤
p
n
P
apj
j=1
n
P
j=1
apj
+
q
n
P
bqj
j=1
n
P
j=1
bqj
=
1 1
+ = 1.
p q
On en déduit finalement :
n
X
i=1

ai bi ≤ 
n
X
j=1
1/p 
apj 

n
X
j=1
1/q
bqj 
.
Remarque :
1.3.4
Le cas particulier p = q = 2 nous redonne l’inégalité de Schwarz.
Inégalité de Minkowski
Proposition 1.3.4 Soit p ≥ 1 réel, n ∈ N∗ et x1 , ..., xn , y1 , ..., yn des réels positifs. Alors :
1 
1 
1
p
p
p
n
n
n
X
X
X
p
p
p
 (xj + yj )  ≤ 
xj  + 
yj  .

j=1
j=1
j=1
Démonstration :
Si p = 1, c’est trivial, c’est l’égalité.
Si tous les xj et tous les yj sont nuls, c’est également trivial.
p
1 1
. Ainsi on a + = 1.
p−1
p q
On peut donc utiliser l’inégalité de Hölder en posant aj = xj et bj = (xj + yj )p−1 . On obtient :
Si p > 1 et si au moins un des xj ou des yj est non nul, posons q =
n
X
xj (xj + yj )p−1
j=1

1 
1
p
q
n
n
X
X
p
(p−1)q 


≤
xj
(xj + yj )
j=1
j=1

1 
 p−1
p
p
n
n
X
X
p
p


≤
xj
(xj + yj )
.
j=1
j=1
On recommence en posant cette fois aj = yj et bj = (xj + yj )p−1 . On obtient :
n
X
j=1

yj (xj + yj )p−1 ≤ 
n
X
j=1
1 
p
yjp 
 p−1
p
n
X
 (xj + yj )p 
.
j=1
On somme les deux inégalités obtenues, ce qui donne :
n
X
(xj + yj ) (xj + yj )p−1
j=1

1 
1  
 p−1
p
p
p
n
n
n
X
X
X

p
p  
p

≤
xj
+
yj
(xj + yj )
.

j=1
j=1
j=1
19
1.3. APPLICATIONS DE LA CONVEXITÉ
Ce qui s’écrit aussi :

1 
1  
 p−1
p
p
p
n
n
n
X
X
X


p
p
p
p
(xj + yj ) ≤ 
xj
+
yj    (xj + yj ) 
.
n
X
j=1
j=1
j=1
j=1
On en déduit donc que :

1

1 
1
p
p
p
n
n
n
X
X
X
p
p
 (xj + yj )p  ≤ 

xj
+
yj
.
j=1
j=1
j=1
Remarque : Cette inégalité justifie le fait que l’application Rn → R, qui à (x1 , ..., xn ) associe

1
p
n
X
p

|xj |
, vérifie l’inégalité triangulaire et est donc une norme sur Rn (les autres hypothèses
j=1
sont facilement vérifiables).
1.3.5
Inégalité de Jensen
Proposition 1.3.5 Soit f :]a, b[→ R convexe sur ]a, b[.
Soit g : [0, 1] →]a, b[ intégrable sur [0, 1].
Z1
Alors
g(x) dx ∈]a, b[ et :
0

f
Z1
0

g(x) dx ≤
Z1
0
(f ◦ g)(x) dx.
Démonstration :
On sait que pour tout x ∈ [0, 1], on a a < g(x) < b, donc :
a=
Z1
0
a dx <
Z1
g(x) dx <
0
Z1
b dx = b.
0
Puisque f est convexe sur ]a, b[ ouvert, f est l’enveloppe supérieure d’une famille de fonctions
affines (Ψj )j∈J , avec J un ensemble. C’est-à-dire que pour tout y ∈]a, b[,
f (y) = sup Ψj (y).
j∈J
20
CHAPITRE 1. FONCTIONS CONVEXES
Puisque Ψj est affine, elle peut s’écrire Ψj (y) = αj y + βj pour tout y ∈]a, b[. On en déduit que :
Z1
0
(Ψj ◦ g)(x) dx =
Z1
αj g(x) + βj dx
0
= αj
Z1
g(x) dx +
Z1
g(x) dx + βj
0
= αj
Z1
βj dx
0
0

= Ψj 
Z1
0

g(x) dx .
Or, pour tout j ∈ J, on a Ψj ≤ f , donc Ψj ◦ g ≤ f ◦ g et finalement :
Z1
0
On obtient donc :
(Ψj ◦ g)(x) dx ≤

Ψj 
Z1
0

g(x) dx ≤
Z1
0
(f ◦ g)(x) dx.
Z1
0
(f ◦ g)(x) dx.
Or, pour tout y ∈]a, b[, on rappelle que f (y) = sup Ψj (y), donc :
j∈J

f
Z1
0
 1

Z
Z1
g(x) dx = sup Ψj  g(x) dx ≤ (f ◦ g)(x) dx.

j∈J
0
0
Chapitre 2
Applications différentiables
Avant de commencer, nous allons faire quelques rappels et compléments sur les espaces vectoriels
normés, la continuité et les applications linéaires. Les notions nouvelles seront vues en détail en
Ma52 dans le courant de ce semestre.
2.1
Rappels et compléments
Soit K un corps (pour nous, K = R).
Commençons par la définition d’un espace vectoriel.
Définition 2.1.1 Soit E un ensemble, + une loi de composition interne (+ : E × E → E) et
× une loi de composition externe (× : K × E → E).
On dit que E est un K-espace vectoriel si (E, +) est un groupe commutatif, c’est-dire si, pour
tout (x, y, z) ∈ E 3 , on a :
x+y = y+x,
(x+y)+z = x+(y+z),
x+0 = 0+x = x,
∃ −x ∈ E / x+(−x) = (−x)+x = 0
et si on a, pour tout (x, y) ∈ E 2 et tout (λ, µ) ∈ K2 :
(λ+µ)×x = λ×x+µ×x,
λ×(x+y) = λ×x+λ×y,
(λµ)×x = λ×(µ×x),
1×x = x.
Remarque : Dans un espace vectoriel, on peut donc additionner (ou soustraire) deux éléments.
On peut aussi multiplier un élément de l’espace vectoriel par un élément du corps.
Mais ON NE PEUT PAS multiplier deux éléments de l’espace vectoriel entre eux, ou les diviser.
Rappelons maintenant la définition d’une norme sur un espace vectoriel.
Définition 2.1.2 Soit E un R-espace vectoriel. On appelle norme sur E toute application N :
E → R+ vérifiant les propriétés :
1. ∀ x ∈ E, N (x) = 0 ⇐⇒ x = 0,
2. ∀ λ ∈ R, ∀ x ∈ E, on a N (λx) = |λ| N (x),
3. ∀ (x, y) ∈ E 2 , on a N (x + y) ≤ N (x) + N (y).
La dernière propriété est appelée inégalité triangulaire.
On dit alors que E est un espace vectoriel normé, ce que l’on notera plus simplement evn.
On notera généralement la norme de x ∈ E ainsi : kxkE au lieu de N (x).
Un espace vectoriel normé est naturellement un espace topologique. On peut alors définir la
continuité sur des evn.
21
22
CHAPITRE 2. APPLICATIONS DIFFÉRENTIABLES
Définition 2.1.3 Soit E et F deux R-espaces vectoriels de normes respectives k.kE et k.kF , Ω
un ouvert de E. Soit f : Ω → F . Soit a ∈ Ω. On dit que f est continue en a si, pour tout ε > 0,
il existe η > 0 tel que, pour tout x ∈ Ω,
kx − akE < η =⇒ kf (x) − f (a)kF < ε.
On dit que f est continue sur Ω si elle est continue en chaque point de Ω.
Il y a un cas particulier, qui nous servira continuellement dans la suite du cours, celui des
applications linéaires.
Définition 2.1.4 Soit E et F deux R-espaces vectoriels et f : E → F . On dit que f est linéaire
si elle vérifie les propriétés suivantes :
1. ∀ (x, y) ∈ E 2 , on a f (x + y) = f (x) + f (y),
2. ∀ λ ∈ R, ∀ x ∈ E, on a f (λx) = λ f (x).
On dit aussi que f est un morphisme de R-espace vectoriel, et on note L(E, F ) l’ensemble des
applications linéaires de E sur F .
Proposition 2.1.5 Soit E et F deux R-espaces vectoriels normés et soit f ∈ L(E, F ). Les
propriétés suivantes sont équivalentes :
1. f est continue sur E.
2. f est continue en 0.
3. f est bornée sur la boule unité fermée D(0, 1) de E.
4. f est bornée sur la sphère unité S(0, 1) de E.
5. il existe une constante M ≥ 0 telle que, pour tout x ∈ E, on ait kf (x)kF ≤ M kxkE .
6. f est lipschitzienne, c’est-à-dire qu’il existe une constante k > 0 telle que, pour tout (x, y) ∈
E 2 , on a : kf (x) − f (y)kF ≤ k kx − ykE .
7. f est uniformément continue sur E.
L’ensemble des applications de L(E, F ) qui vérifient ces propositions est noté Lc (E, F ).
Remarque :
On rappelle que D(0, 1) = {x ∈ E / kxkE ≤ 1} et S(0, 1) = {x ∈ E / kxkE = 1}.
Remarque : En général, on se sert du point 2 ou du point 5 pour montrer la continuité d’une
application linéaire.
Proposition 2.1.6 Si f ∈ Lc (E, F ), il existe un réel positif M0 tel que, pour tout M ≥ 0,
∀ x ∈ E, kf (x)kF ≤ M kxkE =⇒ M0 ≤ M.
kf (x)kF
= sup kf (x)kF = sup kf (x)kF et on appelle k|.k|
x∈E ∗ kxkE
kxkE ≤1
kxkE =1
la norme d’application linéaire (continue).
On note alors M0 = k|f k| = sup
Remarque :
Lc (E, F ) muni de la norme k|.k| est un R-espace vectoriel normé.
Proposition 2.1.7 Si E est de dimension finie, alors L(E, F ) = Lc (E, F ).
Autrement dit, toute application linéaire d’un espace vectoriel de dimension finie sur un espace
vectoriel quelconque est continue.
On peut étendre ces notions des applications linéaires aux applications bilinéaires.
23
2.2. DIFFÉRENTIABILITÉ
Définition 2.1.8 Soit E, F et G trois R-espaces vectoriels et f : E × F → G. On dit que f est
bilinéaire si elle vérifie les propriétés suivantes :
1. ∀ (x, y) ∈ E 2 , ∀ z ∈ F , ∀ α ∈ R, on a f (αx + y, z) = αf (x, z) + f (y, z),
2. ∀ x ∈ E, ∀ (y, z) ∈ F 2 , ∀ α ∈ R, on a f (x, αy + z) = αf (x, y) + f (x, z).
On a également une caractérisation pour la continuité d’une application bilinéaire.
Proposition 2.1.9 Soit E, F et G trois R-espaces vectoriels normés et f : E × F → G une
application bilinéaire.
Alors f est continue sur E × F si et seulement s’il existe une constante M > 0 telle que, pour
tout (x, y) ∈ E × F ,
kf (x, y)kG ≤ M kxkE kykF .
2.2
Différentiabilité
Dans toute la suite de ce chapitre, E, F et G désigneront des R-espaces vectoriels normés, de
normes respectives k.kE , k.kF et k.kG .
Commençons par rappeler la notion de dérivée d’une application de R dans R.
Soit f : I → R, I un intervalle ouvert de R. On dit que f est dérivable en un point a ∈ I si
f (x) − f (a)
admet une limite quand x tend vers a dans I. On note alors cette limite f ′ (a), ce
x−a
qu’on peut écrire ainsi :
f (a + h) − f (a)
f ′ (a) = lim
.
h→0
h
Notre but est de généraliser cette notion pour une application f : E → F , E et F des R-evn
quelconques.
2.2.1
Notion de différentiabilité en un point
Définition 2.2.1 Soit Ω un ouvert de E et f : Ω → F . Soit a ∈ Ω. On dit que f est différentiable
en a s’il existe une application linéaire continue L (L ∈ Lc (E, F )), un voisinage ouvert V de 0
dans E et une application ε : V → F tels que, pour tout h ∈ V ,
f (a + h) = f (a) + L(h) + khkE ε(h)
et
lim kε(h)kF = 0.
khkE →0
Quelques remarques :
– Il est nécessaire de se restreindre à des vecteurs h de V afin de garantir que a + h soit dans
Ω, l’ensemble de définition de f . C’est-à-dire qu’on choisit V ouvert de E tel que 0 ∈ V et
V ⊂ {h ∈ E / a + h ∈ Ω}.
– On écrira aussi L.h au lieu de L(h).
– Dans certains ouvrages, on trouvera f dérivable en a au lieu de f différentiable en a. Afin
d’éviter les confusions, on utilisera toujours dans ce cours le terme différentiable. On réservera le terme dérivable pour le seul cas réel.
On a plusieurs caractérisations de la différentiabilité. Par exemple, en utilisant la notation o :
Corollaire 2.2.2 Soit Ω un ouvert de E et f : Ω → F . Soit a ∈ Ω. On dit que f est différentiable
en a s’il existe L ∈ Lc (E, F ) telle que :
f (a + h) = f (a) + L(h) + o(h)
au voisinage de 0 dans E.
24
CHAPITRE 2. APPLICATIONS DIFFÉRENTIABLES
La caractérisation suivante est très utile en pratique.
Corollaire 2.2.3 Soit Ω un ouvert de E et f : Ω → F . Soit a ∈ Ω. On dit que f est différentiable
en a s’il existe L ∈ Lc (E, F ) telle que :
kf (a + h) − f (a) − L(h)kF
= 0.
khkE
khkE →0
lim
Ce ne sont que des reécritures directes de la définition.
Proposition 2.2.4 Si f est différentiable en a, l’application linéaire continue L est unique.
Nous aurons besoin du lemme suivant pour la démonstration :
Lemme 2.2.5 Soit E un R-espace vectoriel normé, Ω un ouvert de E non vide et x ∈ Ω.
Soit v ∈ E\{0}, il existe un intervalle ouvert I de R contenant 0 tel que {x + tv / t ∈ I} ⊂ Ω.
La démonstration sera faite en Ma52.
Démonstration :
Supposons qu’il existe L1 , L2 linéaires continues de E sur F , ε1 : V1 → F et ε2 : V2 → F qui
vérifient la définition au point a ∈ Ω.
On a alors, pour tout h ∈ V = V1 ∩ V2 ,
f (a + h) − f (a) = L1 (h) + khkE ε1 (h) = L2 (h) + khkE ε2 (h)
et donc L1 (h) − L2 (h) = −khkE ε1 (h) + khkE ε2 (h), soit (L1 − L2 )(h) = khkE (ε2 (h) − ε1 (h)).
Alors, d’après le lemme (en prenant Ω = V , x = 0 et v = h), il existe un intervalle ouvert I
contenant 0 tel que pour tout t ∈ I, on a th ∈ V , et donc :
(L1 − L2 )(th) = kthkE (ε2 − ε1 )(th).
On passe à la norme de F :
k(L1 − L2 )(th)kF = |t| khkE k(ε2 − ε1 )(th)kF ,
d’où, puisque L1 − L2 est linéaire, on a :
k(L1 − L2 )(h)kF = khkE k(ε2 − ε1 )(th)kF −→ 0.
t→0
On en déduit que L1 − L2 est nulle sur V , et donc sur E, d’où l’égalité.
On peut alors, puisqu’il y a unicité, définir la différentielle :
Définition 2.2.6 Soit Ω un ouvert de E et f : Ω → F . Soit a ∈ Ω. Si f est différentiable en
a, l’application linéaire continue L ∈ Lc (E, F ) est appelée différentielle de f en a, et est notée
Df (a).
Remarque :
Avec les notations de la définition, on a, pour tout h ∈ V ,
f (a + h) = f (a) + Df (a).h + khk ε(h).
Remarque : ATTENTION, Df (a) n’est pas un réel, c’est une application linéaire continue.
Dans le cas où E = F = R, on peut identifier Df (a) et le réel f ′ (a), mais c’est le seul cas où
25
2.2. DIFFÉRENTIABILITÉ
c’est possible (voir exemples).
Remarque : Dans certains ouvrages, on peut trouver au lieu de Df (a) la notation df (a),
Dfa ou f ′ (a), ainsi que les appellations dérivée de f en a ou application linéaire tangente à f
en a.
Dans ce cours, nous utiliserons toujours, pour des raisons de compréhension et afin d’éviter les
malentendus, la notation Df (a). En effet, nous utiliserons plus loin la notation dt f (a) pour les
dérivées partielles et la notation f ′ (a) sera réservée uniquement au cas réel.
Nous allons maintenant étendre la notion de différentiabilité à un ouvert.
2.2.2
Différentiabilité sur un ouvert
Définition 2.2.7 On dit que f : Ω → F est différentiable sur Ω (ouvert de E) si f est différentiable en chaque point de Ω, et on note D1 (Ω, F ) l’ensemble des applications de Ω dans F
différentiables sur Ω.
On appelle alors différentielle de f l’application Df : Ω → Lc (E, F ) qui, à tout a ∈ Ω, associe
Df (a).
Comme Lc (E, F ) muni de la norme k|.k| est un espace vectoriel normé, il est possible de regarder
si Df est continue sur Ω.
Définition 2.2.8 On dit que f est de classe C 1 sur Ω à valeurs dans F si f ∈ D1 (Ω, F ) et si
Df est continue sur Ω.
On note C 1 (Ω, F ) l’ensemble des fonctions de classe C 1 sur Ω à valeurs dans F .
On notera C 0 (Ω, F ) l’ensemble des fonctions continues sur Ω à valeurs dans F .
Remarque :
L’application Df est continue au point a ∈ Ω si et seulement si :
lim k|Df (a + h) − Df (a)k| = 0.
khkE →0
On peut, du coup, se demander si l’application Df est différentiable.
Définition 2.2.9 On dit que f est deux fois différentiable (noté f ∈ D2 (Ω, F )) sur Ω si f ∈
D1 (Ω, F ) et si Df est différentiable sur Ω. On note alors D2 f = D(Df ).
Remarque : Si elle existe, D2 f : Ω → Lc (E, Lc (E, F )) et D2 f (a) ∈ Lc (E, Lc (E, F )) pour tout
a ∈ Ω. De plus, pour tout a ∈ Ω et tout h ∈ E, on a D2 f (a).h ∈ Lc (E, F ) et pour tout k ∈ E,
(D2 f (a).h).k ∈ F .
Définition 2.2.10 On dit que f est de classe C 2 sur Ω (noté f ∈ C 2 (Ω, F )) si f ∈ D2 (Ω, F )
et si D2 f est continue sur Ω.
On peut alors, par récurrence, étendre ces notions.
Définition 2.2.11 Soit k ∈ N, k ≥ 2.
Par récurrence, on dit que f est k fois différentiable (noté f ∈ Dk (Ω, F )) si f ∈ Dk−1 (Ω, F ) et
si Dk−1 f est différentiable sur Ω. On note alors Dk f = D(Dk−1 f ).
On dit que f est de classe C k sur Ω (noté f ∈ C k (Ω, F )) si f ∈ Dk (Ω, F ) et si Dk f est continue
sur Ω.
Si f est de classe C k pour tout k ∈ N∗ , on dit que f est de classe C ∞ .
Nous allons maintenant voir quelques exemples élémentaires d’applications différentiables.
Remarque :
Il faut bien comprendre de quel objet on parle à chaque fois :
26
CHAPITRE 2. APPLICATIONS DIFFÉRENTIABLES
– La différentielle Df est une application sur Ω à valeur dans Lc (E, F ) :
Df : Ω → Lc (E, F ).
– En tout point a ∈ Ω, Df (a) est une application linéaire continue de E dans F , c’est-à-dire
Df (a) ∈ Lc (E, F ) et donc :
Df (a) : E → F.
– En tout point a ∈ Ω et h ∈ E, on a Df (a).h ∈ F .
2.3
Exemples
1) Application différentiable
x2 y 2
et telle
x2 + y 2
que f (0, 0) = 0 est différentiable sur R2 . En effet, elle est différentiable sur R2 \{(0, 0)} comme
quotient de fonctions polynômiale dont le dénominateur ne s’annule pas (voir propriétés dans la
partie suivante).
En (0, 0), soit (h1 , h2 ) ∈ R2 \{(0, 0)} :
L’application f : R2 → R, qui à tout (x, y) 6= (0, 0) associe f (x, y) = x +
f (h1 , h2 ) − f (0, 0) = h1 +
h21 h22
.
h21 + h22
L’application qui à (h1 , h2 ) ∈ R2 associe h1 est linéaire (trivialement) et continue sur R2 (espace
de dimension finie). C’est un bon candidat à la différentielle.
Regardons :
|f (h1 , h2 ) − f (0, 0) − h1 |
|h1 |2 |h2 |2
k(h1 , h2 )k42
=
≤
= k(h1 , h2 )k2 .
k(h1 , h2 )k2
k(h1 , h2 )k32
k(h1 , h2 )k32
Donc :
|f (h1 , h2 ) − f (0, 0) − h1 |
=0
k(h1 , h2 )k2
(h1 ,h2 )→(0,0)
lim
et on en conclue que f est différentiable en (0, 0), de différentielle Df (0, 0) : R2 → R, qui à
(h1 , h2 ) ∈ R2 associe Df (0, 0).(h1 , h2 ) = h1 .
2) Application non différentiable en un point
L’application f : R2 → R, qui à tout (x, y) 6= (0, 0) associe f (x, y) =
x y2
et telle que
x2 + y 2
f (0, 0) = 0 est différentiable sur R2 \{(0, 0)}, mais pas à l’origine.
En effet, elle est différentiable sur R2 \{(0, 0)} comme quotient de fonctions polynômiale dont le
dénominateur ne s’annule pas.
En (0, 0), soit (h1 , h2 ) ∈ R2 \{(0, 0)} :
f (h1 , h2 ) − f (0, 0) =
h1 h22
.
h21 + h22
L’application qui à (h1 , h2 ) ∈ R2 associe 0 est linéaire continue sur R2 . C’est un bon candidat à
la différentielle.
Regardons :
|f (h1 , h2 ) − f (0, 0) − 0|
|h1 | |h2 |2
=
.
k(h1 , h2 )k2
k(h1 , h2 )k32
27
2.3. EXEMPLES
Cette fonction n’a pas de limite en (0, 0), donc soit f n’est pas différentiable en (0, 0), soit le
candidat choisi pour la différentielle n’est pas le bon.
Une proposition de la prochaine partie (celle sur les dérivées directionnelles) nous permettra de
confirmer que cette fonction n’est pas différentiable en (0, 0).
3) Cas E = F = R :
Proposition 2.3.1 Soit f : I ⊂ R → R et a ∈ I, un intervalle ouvert de R. Alors, f est différentiable en a si et seulement si f est dérivable en a (au sens classique vu antérieurement).
De plus, pour tout h ∈ V , Df (a).h = f ′ (a) × h.
Démonstration :
En effet, si f est différentiable en a, il existe une application linéaire continue L ∈ Lc (R, R), un
intervalle ouvert V contenant 0 et une fonction ε : V → R tels que f (a+h)−f (a) = L(h)+|h| ε(h)
et lim ε(h) = 0.
h→0
Or, puisque L ∈ Lc (R, R), il existe un réel L0 tel que pour tout h ∈ R, L(h) = L0 × h. D’où
f (a + h) − f (a)
f (a + h) − f (a) = L0 × h + |h| ε(h) et donc lim
= L0 , ce qui montre que f est
h→0
h
dérivable en a et f ′ (a) = L0 .
f (a + h) − f (a)
−f ′ (a) =
h→0
h
La réciproque est vraie, si f est dérivable en a, alors f ′ (a) existe et lim
f (a + h) − f (a) − f ′ (a)h
et, puisque l’application h 7→ f ′ (a)h est linéaire (et donc contih→0
h
nue car en dimension finie), f est différentiable en a.
0 = lim
Remarque : On peut donc identifier l’application linéaire Df (a) avec la dérivée f ′ (a), BIEN
QU’IL S’AGISSE DE DEUX OBJETS DISTINCTS.
4) Cas d’une application constante :
Proposition 2.3.2 Soit f : Ω → F constante sur Ω. Alors f ∈ C ∞ (Ω, F ) et pour tout k ∈ N∗ ,
Dk f = 0.
Démonstration :
En effet, soit a ∈ Ω, pour tout h ∈ V = {h ∈ E / a + h ∈ Ω},
f (a + h) = f (a) = f (a) + 0 + khkE × 0
donc on a bien f différentiable en tout point a ∈ Ω et Df = 0. Par récurrence, on a alors
Dk f = 0 pour tout k ∈ N∗ .
5) Cas d’une application linéaire continue :
Proposition 2.3.3 Soit f ∈ Lc (E, F ). Alors f ∈ C ∞ (E, F ) et on a, pour tout a ∈ E, Df (a) =
f et pour tout k ≥ 2, Dk f (a) = 0.
28
CHAPITRE 2. APPLICATIONS DIFFÉRENTIABLES
Démonstration :
En effet, pour tout h ∈ E, on a par linéarité de f :
f (a + h) = f (a) + f (h) = f (a) + f (h) + khkE × 0.
Comme f est linéaire continue, on a bien f différentiable et Df (a) = f . De plus, l’application
Df est constante, et d’après l’exemple précédent, on a Dk f = 0 pour tout k ≥ 2.
6) Cas d’une application bilinéaire continue :
Proposition 2.3.4 Soit f : E × F → G bilinéaire continue (E × F muni de la norme produit).
Alors f ∈ C ∞ (E × F, G) et, pour tout (a, b) ∈ E × F et tout (h, k) ∈ E × F , on a :
Df (a, b).(h, k) = f (a, k) + f (h, b).
De plus, pour tout (a, b) ∈ E × F , on a :
D2 f (a, b) = Df
Dk f (a, b) = 0 ∀ k ≥ 3.
et
Démonstration :
On a, par bilinéarité :
f (a + h, b + k) = f (a, b) + f (a, k) + f (h, b) + f (h, k).
Posons L(h, k) = f (a, k) + f (h, b). Alors L ∈ L(E × F, G) car f est bilinéaire et L est continue
car :
kL(h, k)kG = kf (a, k) + f (h, b)kG ≤ kf (a, k)kG + kf (h, b)kG .
Or, comme f est bilinéaire continue, on a kf (a, k)kG ≤ k|f k| kakE kkkG , donc :
kL(h, k)kG ≤ k|f k| (kakE kkkF + khkE kbkF )
≤ k|f k| (kakE + kbkF ) max(khkE , kkkF )
≤ k|f k| (kakE + kbkF ) k(h, k)kE×F
d’où L ∈ Lc (E × F, G). Il ne reste plus qu’à vérifier :
kf (a + h, b + k) − f (a, b) − L(h, k)kG
k(h, k)kE×F
=
kf (h, k)kG
k(h, k)kE×F
≤
k|f k| k(h, k)k2E×F
k|f k| khkE kkkF
≤
k(h, k)kE×F
k(h, k)kE×F
≤ k|f k| k(h, k)kE×F
−→
k(h,k)k→0
0.
Donc f est bien différentiable sur E × F , et de plus on peut vérifier que Df est linéaire continue
sur E × F .
En effet, d’après une majoration précédente, on a k|Df (a, b)k| ≤ k|f k| (kakE + kbkF ) et donc
k|Df (a, b)k| ≤ 2 k|f k| k(a, b)kE×F . En conséquence, d’après l’exemple précédent, on a en plus
que D2 f = Df et Dk f = 0 pour tout k ≥ 3.
29
2.4. PROPRIÉTÉS
2.4
Propriétés
Proposition 2.4.1 Soit f : Ω ⊂ E → F . Les propriétés suivantes sont toujours vraies.
1. Si f est différentiable en a ∈ Ω, alors f est continue en a.
2. La notion de différentiabilité est une notion locale (c’est-à-dire que si Ω′ ⊂ Ω ouvert de E
tel que a ∈ Ω′ , alors f différentiable en a implique f |Ω′ est différentiable en a).
3. La différentielle est inchangée si on remplace une des normes par une norme équivalente.
Démonstration :
1. Si f est différentiable en a, alors pour tout h ∈ V , on a :
f (a + h) − f (a) = Df (a).h + khkE ε(h)
d’où
kf (a + h) − f (a)kF ≤ kDf (a).hkF + khkE kε(h)kF
et, puisque Df (a) est linéaire continue,
kf (a + h) − f (a)kF ≤ k|Df (a)k| + kε(h)kF khkE −→ 0
h→0
d’où la continuité en a.
2. Ce point est trivial, il suffit d’écrire la définition au voisinage V ′ = {h ∈ V / a + h ∈ Ω′ }
de 0 dans E. En effet, pour tout h ∈ V ′ , on a f|Ω′ (a + h) = f (a + h).
3. Il suffit simplement de remarquer qu’une application linéaire reste continue si on prend
kf (a + h) − f (a) − L(h)kF
une norme équivalente (voir Ma52), et que la limite de
reste 0
khkE
si on prend des normes équivalentes.
Corollaire 2.4.2 Ce résultat nous donne la relation suivante :
∀ k ∈ N,
Dk+1 (Ω, F ) ⊂ C k (Ω, F ) ⊂ Dk (Ω, F )
ce qu’on peut aussi écrire :
C ∞ (Ω) ⊂ ... ⊂ C k+1 (Ω) ⊂ Dk+1 (Ω) ⊂ C k (Ω) ⊂ Dk (Ω) ⊂ ... ⊂ C 1 (Ω) ⊂ D1 (Ω) ⊂ C 0 (Ω).
Nous allons définir la dérivée suivant un vecteur avant de continuer les propriétés.
Définition 2.4.3 Dérivée suivant un vecteur :
Soit f : Ω ⊂ E → F , a ∈ Ω et v ∈ E\{0}.
Si l’application ϕ : I → F , définie par ϕ(t) = f (a + tv) (I un intervalle ouvert de R contenant
0 obtenu par un lemme précédent), admet une dérivée en 0, on dit que f est dérivable suivant
le vecteur v, et on appelle dérivée de f en a dans la direction v la dérivée ϕ′ (0).
Remarque :
f (a + tv) − f (a)
existe dans F . Cette limite sera la
t→0
t
Cela revient à dire que lim
dérivée de f en a dans la direction v.
On a la proposition suivante :
Proposition 2.4.4 Si f admet une différentielle en a, alors pour tout v ∈ E\{0}, f admet en
a une dérivée dans la direction v, qui est le vecteur Df (a).v.
30
CHAPITRE 2. APPLICATIONS DIFFÉRENTIABLES
P REU V E :
Pour tout t ∈ I, on a :
ϕ(t) = f (a + tv) = f (a) + Df (a).(tv) + ktvkE ε(tv) = ϕ(0) + t Df (a).v + |t| kvkE ε(tv)
d’où
ϕ(t) − ϕ(0)
|t|
= Df (a).v +
kvkE ε(tv) −→ Df (a).v
t→0
t
t
et donc ϕ est dérivable en 0, de dérivée ϕ′ (0) = Df (a).v.
La notion de vecteur dérivée est utile pour essayer, dans des cas difficiles, de déterminer la
différentielle de f en a, mais le fait qu’une fonction soit dérivable dans toutes les directions
n’implique pas qu’elle soit différentiable.
En effet, la réciproque de la proposition est fausse. Vous verrez en TD des exemples d’applications dérivables dans toutes les directions, mais n’étant pas différentiables au point concerné.
xy 2
Par exemple, la fonction f : R2 → R définie par f (x, y) = 2
si (x, y) 6= (0, 0) et f (0, 0) = 0
x + y2
n’est pas différentiable au point (0, 0) bien qu’elle y admette des dérivées partielles dans toutes
vx vy2
les directions : si v = (vx , vy ), alors la dérivée directionnelle est 2
, qui n’est pas linéaire
vx + vy2
en v, ce qui contredit l’existence de la différentielle à l’origine (car dans ce cas, cette expression
serait Df (0, 0).v).
Nous allons voir maintenant une propriété de “linéarité” de la différentiation.
Proposition 2.4.5 Soit Ω un ouvert de E, a ∈ Ω, f et g : Ω → F différentiables en a. Alors,
pour tout λ et µ réels, λf + µg est différentiable en a et D(λf + µg)(a) = λDf (a) + µDg(a).
P REU V E :
Pour tout h ∈ V , on a :
I(h) =
(λf + µg)(a + h) − (λf + µg)(a) − λDf (a).h − µDg(a).h
khk
= λ
f (a + h) − f (a) − Df (a).h
g(a + h) − g(a) − Dg(a).h
+µ
−→ 0
h→0
khk
khk
car f et g sont différentiables en a. De plus, λDf (a) + µDg(a) est bien une application linéaire
continue de E sur F (car somme de deux applications linéaires continues).
Ce qui prouve la proposition.
Voyons maintenant un théorème de composition.
Théorème 2.4.6 Soit f : Ω → F , Ω un ouvert de E, et soit g : Ω′ → G, Ω′ un ouvert de F ,
avec f (Ω) ⊂ Ω′ .
Si f est différentiable en a ∈ Ω et si g est différentiable en f (a), alors g ◦ f est différentiable en
a et :
D(g ◦ f )(a) = Dg(f (a)) ◦ Df (a).
31
2.4. PROPRIÉTÉS
Remarque : On rappelle que D(g ◦f )(a) ∈ Lc (E, G), Dg(f (a)) ∈ Lc (F, G) et Df (a) ∈ Lc (E, F )
et, pour tout h ∈ E,
D(g ◦ f )(a).h = Dg(f (a)).[Df (a).h],
composée de deux applications linéaires continues.
P REU V E :
Il est clair, d’après la remarque ci-dessus, que Dg(f (a)) ◦ Df (a) ∈ Lc (E, G). Il ne reste donc
plus qu’à montrer que la bonne expression tend vers 0 quand h tend vers 0.
Puisque f et g sont différentiables en a et f (a) respectivement, on a, pour tout h ∈ V et tout
k ∈V′ :
f (a + h) = f (a) +Df (a).h + khkE ε(h)
g f (a) + k = g f (a) + Dg(f (a)).k + kkkF ε′ (k).
On peut donc écrire, pour tout h ∈ V ,
(g ◦ f )(a + h) = g f (a + h) = g f (a) + Df (a).h + khkE ε(h) .
Or Df (a).h + khkE ε(h) est voisin de 0F et tend vers 0F quand h tend vers 0E ; il peut donc
jouer le rôle de k et on a alors :
(g ◦ f )(a + h) = g(f (a)) + Dg(f (a)). Df (a).h + khkE ε(h)
+
kDf (a).h + khkE ε(h)kF ε′ Df (a).h + khkE ε(h) .
En utilisant la linéarité de Dg(f (a)), on obtient finalement :
(g ◦ f )(a + h) = (g ◦ f )(a) + Dg(f (a)).(Df (a).h) + khkE Dg(f (a)).(ε(h))
+
On en déduit que :
I(h) =
=
≤
kDf (a).h + khkE ε(h)kF ε′ Df (a).h + khkE ε(h) .
k(g ◦ f )(a + h) − (g ◦ f )(a) − Dg(f (a)) ◦ Df (a) .hkG
khkE
kkhkE Dg(f (a)).(ε(h)) + kDf (a).h + khkE ε(h)kF ε′ Df (a).h + khkE ε(h) kG
khkE
khkE kDg(f (a)).(ε(h))kG + khkE k|Df (a)k| + kε(h)kF kε′ Df (a).h + khkE ε(h) kG
khkE
≤ kDg(f (a)).(ε(h))kG + k|Df (a)k| + kε(h)kF kε′ Df (a).h + khkE ε(h) kG .
Par des considérations de linéarité et de continuité de Df (a) et de Dg(f (a)), on obtient bien
que :
k(g ◦ f )(a + h) − (g ◦ f )(a) − Dg(f (a)) ◦ Df (a) .hkG
lim
=0
h→0
khkE
et donc g ◦ f est bien différentiable en a, de différentielle Dg(f (a)) ◦ Df (a).
Le théorème suivant complète le précédent :
Théorème 2.4.7 Si de plus f ∈ C 1 (Ω) et g ∈ C 1 (Ω′ ), alors g ◦ f ∈ C 1 (Ω).
32
CHAPITRE 2. APPLICATIONS DIFFÉRENTIABLES
Démonstration :
On peut voir, pour tout a ∈ Ω, D(g ◦ f )(a) comme B Df (a), Dg(f (a)) , où B est l’opérateur
de composition B : Lc (E, F ) × Lc (F, G) → Lc (E, G) défini par B(u, v) = v ◦ u.
Cet opérateur est bilinéaire continu. En effet, la bilinéarité est évidente, et pour la continuité,
pour tout x ∈ Ω,
kB(u, v)(x)kG = kv(u(x))kG ≤ k|vk| ku(x)kF ≤ k|vk| k|uk| kxkE
donc k|B(u, v)k| ≤ k|vk| k|uk| et B est continue.
Puisque chaque différentielle est supposée continue et que B est continue, D(g ◦ f ) est continue,
et donc g ◦ f est de classe C 1 sur Ω.
On peut généraliser ces théorèmes de composition car B est de classe C ∞ (comme application
bilinéaire continue).
Théorème 2.4.8 Sous les mêmes hypothèses, si f ∈ Dk (Ω) et g ∈ Dk (Ω′ ), alors g ◦ f ∈ Dk (Ω).
Si f ∈ C k (Ω) et g ∈ C k (Ω′ ), alors g ◦ f ∈ C k (Ω).
Pour finir, on a le cas particulier des applications à valeurs réelles :
Proposition 2.4.9 Soient f et g deux applications de Ω ouvert de E dans R, différentiables en
a ∈ Ω. Alors f g est différentiable en a et D(f g)(a) = f (a) Dg(a) + g(a) Df (a).
Remarque : Il est évident que cette formule ne peut se généraliser pour des fonctions à valeurs
dans un espace vectoriel normé quelconque, ce dernier n’ayant a priori pas de loi de multiplication interne.
P REU V E :
Il suffit de passer par la définition :
(f g)(a + h) =
f (a) + Df (a).h + khk ε(h) g(a) + Dg(a).h + khk ε′ (h)
= (f g)(a) + g(a) Df (a).h + f (a) Dg(a).h + (Df (a).h) × (Dg(a).h)
+khk ε(h) g(a) + Dg(a).h + khk ε′ (h) + ε′ (h) f (a) + Df (a).h
donc, si on passe à la valeur absolue :
I(h) =
|(f g)(a + h) − (f g)(a) − f (a) Dg(a).h + g(a) Df (a) .h|
khk
≤ k|Df (a)k| k|Dg(a)k| khk + |ε(h)| × |g(a) + Dg(a).h + khk ε′ (h)|
+|ε′ (h)| × |f (a) + Df (a).h| −→ 0
h→0
et donc, puisque f (a) Dg(a) + g(a) Df (a) est linéaire continue de E sur R, on a bien le résultat
voulu.
33
2.5. CAS DES ESPACES PRODUITS
2.5
Cas des espaces produits
2.5.1
Fonctions à valeurs dans un espace produit
On considèrera dans cette partie des espaces vectoriels normés
 E,Fi (1 ≤ i ≤ p) et F , avec
y1
 .. 
F = F1 × ... × Fp muni de la norme produit : pour tout y =  .  ∈ F , kykF = max kyi kFi .

yp
1≤i≤p

f1


Soit f : Ω → F avec Ω ouvert de E. On écrira f =  ... , c’est-à-dire que, pour tout x ∈ Ω,
fp
fi (x) ∈ Fi .
Théorème 2.5.1 Les propriétés suivantes sont toujours vérifiées :
1. f est différentiable en a ∈ Ω si et seulement si, pour tout 1 ≤ i ≤ p, fi est différentiable
en a. Dans ce cas, pour tout h ∈ E,

Df1 (a).h


..
Df (a).h = 
.
.
Dfp (a).h

2. f ∈ D1 (Ω, F ) ⇐⇒ ∀ 1 ≤ i ≤ p, fi ∈ D1 (Ω, Fi ).
3. f ∈ C 1 (Ω, F ) ⇐⇒ ∀ 1 ≤ i ≤ p, fi ∈ C 1 (Ω, Fi ).
4. Soit k ∈ N∗ , on a f ∈ Dk (Ω, F ) ⇐⇒ ∀ 1 ≤ i ≤ p, fi ∈ Dk (Ω, Fi ).
5. Soit k ∈ N∗ , on a f ∈ C k (Ω, F ) ⇐⇒ ∀ 1 ≤ i ≤ p, fi ∈ C k (Ω, Fi ).
P REU V E :
1. On se basera sur le théorème de composition.
Pour tout 1 ≤ i ≤ p, on note Πi : F → Fi la ieme projection qui, à tout y ∈ F , associe
yi ∈ Fi .


0
 .. 
 . 


 0 



On note ci : Fi → F le plongement canonique qui, à tout yi ∈ Fi , associe 
 yi  ∈ F .
 0 


 .. 
 . 
0
On voit sans problème que ces deux applications sont linéaires, et on va montrer qu’elles
sont continues. En effet,
kΠi (y)kFi = kyi kFi ≤ kykF
et
kci (yi )kF = kyi kFi
donc les deux applications sont continues, de norme au plus 1. On sait alors qu’elles sont
de classe C ∞ (voir les exemples), donc en particulier de classe C 1 , et que DΠi (y) = Πi et
Dci (yi ) = ci pour tout 1 ≤ i ≤ p, y ∈ F et yi ∈ Fi .
p
P
On remarque que f =
ci ◦ fi et fi = Πi ◦ f , donc, d’après le théorème de composition
i=1
et celui de “linéarité” de la différentiation, on a bien :
- si f est différentiable en a ∈ Ω, alors fi est différentiable et Dfi (a) = DΠi (f (a))◦Df (a) =
34
CHAPITRE 2. APPLICATIONS DIFFÉRENTIABLES
Πi ◦ Df (a).
- si toutes les fi sont différentiables en a, f l’est aussi et :
Df (a) =
p
X
i=1
Dci (fi (a)) ◦ Dfi (a) =
p
X
i=1
ci ◦ Dfi (a).
2. On applique le résultat qu’on vient de montrer à tous les points de Ω.
3. C’est toujours le théorème de composition, appliquer avec les fonctions du 1.
4. Même chose que ci-dessus (on a remarqué que les applications ci et Πi sont de classe C ∞ ).
5. Même chose que ci-dessus.
2.5.2
Fonctions définies sur un espace produit
Soient E, Ej (1 ≤ j ≤ n) et F des espaces vectoriels normés, avec E = E1 × ... × En muni de la
norme d’espace produit : pour tout x = (x1 , ..., xn ) ∈ E, kxkE = max kxj kEj .
1≤j≤n
Soit f : Ω → F , Ω un ouvert de E.
Soit a ∈ Ω fixé, on définit les n applications partielles de f en a, ϕ1 , ..., ϕn par :
ϕ1 (t) = f (t, a2 , ..., an ), avec t ∈ E1 tel que (t, a2 , ..., an ) ∈ Ω,
ϕj (t) = f (a1 , ..., aj−1 , t, aj+1 , ..., an ), avec t ∈ Ej tel que (a1 , ..., aj−1 , t, aj+1 , ..., an ) ∈ Ω, pour
tout 2 ≤ j ≤ n − 1,
ϕn (t) = f (a1 , ..., an−1 , t), avec t ∈ En tel que (a1 , ..., an−1 , t) ∈ Ω.
Pour tout 1 ≤ j ≤ n, on pose αj : Ej → E qui à t associe (a1 , ..., aj−1 , t, aj+1 , ..., an ), et
cj : Ej → E le plongement canonique qui à t associe (0, ...0, t, 0, ..., 0).
On remarque alors que αj est de classe C ∞ car αj (t) = cj (t) + (a1 , ..., aj−1 , 0, aj+1 , ..., an ), et
on a vu plus haut que cj est C ∞ . On a également Dαj (t) = Dcj (t) = cj et on remarque que
ϕj = f ◦ αj .
Une conséquence de tout ceci est que Ωj = {t ∈ Ej / (a1 , ..., aj−1 , t, aj+1 , ..., an ) ∈ Ω} = α−1
j (Ω)
est un ouvert de Ej . Les applications ϕj sont donc définies sur des ouverts :
ϕj : Ωj →
F
t 7→ f ◦ αj
Définition 2.5.2 Si ϕj est différentiable en aj , on appelle Dϕj (aj ) la j eme différentielle partielle de f en a.
On la note généralement ∂j f (a) ∈ Lc (Ej , F ).
Remarque : On ne la note pas ∂j f (aj ) car ϕj dépend a priori de tous les coefficients de a, pas
uniquement de aj .
On a la propriété suivante pour les différentielles partielles :
Proposition 2.5.3 Avec les notations précédentes,
1. si f est différentiable en a, alors ∂j f (a) existe pour tout 1 ≤ j ≤ n et on a, pour tout
h = (h1 , ..., hn ) ∈ E,
n
X
Df (a).h =
∂j f (a).hj .
j=1
35
2.5. CAS DES ESPACES PRODUITS
2. si f ∈ C 1 (Ω, F ), alors pour tout 1 ≤ j ≤ n, ∂j f : x 7→ ∂j f (x) est continue de Ω dans
Lc (Ej , F ).
P REU V E :
1. Puisque ϕj = f ◦ αj , grâce au théorème de composition, si f est différentiable en a,
nécessairement ϕj l’est en aj . De plus,
Dϕj (aj ) = Df (αj (aj )) ◦ Dαj (aj ) = Df (a) ◦ cj .
On en déduit que, pour tout hj ∈ Ej , on a :
∂j f (a).hj = Dϕj (aj ).hj = Df (a).(cj (hj )) = Df (a).(0, ..., 0, hj , 0, ..., 0).
Par linéarité de la différentielle, on obtient la formule :
n
X
j=1
∂j f (a).hj =
n
X
Df (a).(0, ..., 0, hj , 0, ..., 0) = Df (a).
j=1
n
X
(0, ..., 0, hj , 0, ..., 0) = Df (a).h.
j=1
2. Si f est de classe C 1 sur Ω, alors comme ∂j f (x) = Df (x) ◦ cj = B(cj , Df (x)) et B et cj
sont continues, ∂j f l’est aussi.
Remarque : La réciproque est fausse, particulièrement dans le cas de Rn . Les dérivées partielles
peuvent exister mais la fonction n’être pas différentiable. Il faut que les dérivées partielles soient
continues. On a donc une réciproque du point 2, mais pas du point 1 :
Théorème 2.5.4 Soit Ω un ouvert de E = E1 × ... × En et f : Ω → F .
f est de classe C 1 sur Ω si et seulement si pour tout 1 ≤ j ≤ n, ∂j f existe et continue sur Ω.
La démonstration de ce résultat sera faite dans le chapitre suivant. Il est vrai en pariculier dans
le cas E = Rn et F = Rp .
2.5.3
Cas particulier
On regarde le cas particulier où E = Rn et F = Rp , et f : Ω ⊂ Rn → Rp , différentiable en a ∈ Ω.
D’après ce qui précède, cela revient à dire que chaque composante fi de f est différentiable en
a, et donc admet une différentielle partielle par rapport à xj , c’est-à-dire que ∂j fi (a) existe.
Or cette différentielle partielle est la différentielle d’une application définie sur un ouvert de R
∂fi
et à valeurs réelles. On peut donc l’identifier à sa dérivée, qu’on note
(a) et qu’on appelle
∂xj
dérivée partielle de fi en a par rapport à sa j ème variable. On peut la voir comme la dérivée de
fi dans la direction ej = (0, ..., 0, 1, 0, ..., 0) en a :
∂fi
fi (a + hej ) − fi (a)
fi (a1 , ..., aj−1 , aj + h, aj+1 , ..., an ) − fi (a)
(a) = lim
= lim
.
h→0
h→0
∂xj
h
h
On a alors, pour tout hj ∈ R :
∂j fi (a).hj =
∂fi
(a) × hj .
∂xj
36
CHAPITRE 2. APPLICATIONS DIFFÉRENTIABLES
De plus, la différentielle de f en a peut s’écrire en fonction de ses dérivées partielles. En effet,
d’après les résultats de la proposition et du théorème précédents, pour tout h ∈ Rn :
 n

X ∂f1
(a) × hj 

∂xj



  j=1

Df1 (a).h


..

.
 

..



  X
n
.


 
∂fi

=
(a)
×
h
Df
(a).h
Df (a).h = 
j
.
i

 
∂x

j
  j=1

..


 
.

.
.


.
Dfp (a).h

 n

 X ∂f
p

(a) × hj 
∂xj
j=1
On peut donc identifier l’application linéaire Df (a) avec sa matrice dans la base canonique, que
l’on note Mf (a) :
∂fi
Mf (a) =
(a)
.
∂xj
i,j
Cette matrice est appelée matrice jacobienne de f en a. On peut alors écrire, pour tout h ∈ Rn ,


h1


Df (a).h = Mf (a) ×  ...  .
hn
Dans le cas particulier où p = 1 (c’est-à-dire F = R), on parle plutôt de vecteur gradient de f
en a, noté gradf (a). Dans ce cas, on a pour tout h ∈ Rn :


h1
n
X ∂f


hj
(a) = gradf (a)  ...  =< gradf (a), h > .
Df (a).(h1 , ..., hn ) =
∂xj
j=1
hn
Pour finir, on peut remarquer, en utilisant le théorème réciproque précédent non encore démontré, que si les dérivées partielles existent et sont continues sur Ω, alors f est différentiable et de
classe C 1 sur Ω.
RESUME :
Soit E et F deux R-espaces vectoriels normés.
Soit f : Ω → F et a ∈ Ω.
La fonction f est différentiable en a s’il existe une application linéaire continue L : E → F telle
que :
kf (a + h) − f (a) − L(h)kF
lim
= 0.
h→0
khkE
On note alors Df (a) = L la différentielle de f en a et :
1. Df (a) : E → F linéaire continue.
2. Df (a).h ∈ F pour tout h ∈ E.
3. Si f est différentiable sur Ω, alors Df : Ω → Lc (E, F ).
Chapitre 3
Accroissements finis et Taylor
Dans ce chapitre, nous verrons d’abord les théorèmes d’accroissements finis et une application,
les différentielles d’ordre 2 pour f : Ω → R, avec Ω un ouvert de Rn , puis les formules de Taylor
et enfin une étude des extremums d’une fonction à valeurs réelles.
3.1
Egalité des accroissements finis
Rappelons le théorème déjà vu pour des fonctions réelles :
Théorème 3.1.1 Soit f : [a, b] ⊂ R → R.
Si f est continue sur [a, b] et dérivable sur ]a, b[, alors il existe c ∈]a, b[ tel que f (b) − f (a) =
f ′ (c) × (b − a).
Ce résultat peut s’étendre à f définie sur un espace vectoriel normé E quelconque, à valeurs
dans R.
Théorème 3.1.2 Soit f : Ω ⊂ E → R, f différentiable sur Ω.
Alors pour tout (a, b) ∈ Ω × Ω, a 6= b, tels que [a, b] ⊂ Ω, il existe c ∈]a, b[ tel que :
f (b) − f (a) = Df (c).(b − a).
On rappelle que dans un espace vectoriel quelconque E, on définit [a, b] = {a+t(b−a), t ∈ [0, 1]}
et ]a, b[= {a + t(b − a), t ∈]0, 1[}.
Remarque : Il faut insister sur le fait que f doit être à valeurs réelles.
Si f est à valeurs dans un espace vectoriel de dimension au moins 2, le résultat n’est plus nécessairement vrai. Par exemple, si on prend f : [0, 2π] → R2 définie par f (t) = (cos t, sin t) ou
f : [0, 2π] → C définie par f (t) = eit . On a dans les deux cas f (0) = f (2π), mais pour tout
c ∈]0, 2π[, puisque kf ′ (t)k2 = 1, on a Df (c).(2π − 0) 6= 0 = f (2π) − f (0).
Voyons maintenant la démonstration du théorème.
Démonstration :
Soit ϕ : [0, 1] ⊂ R → [a, b] ⊂ E définie par ϕ(t) = a + t(b − a).
L’application ϕ est continue sur [0, 1] et différentiable sur ]0, 1[ comme somme d’une application
constante et d’une application linéaire. Sa différentielle, en tout t ∈]0, 1[, est Dϕ(t).h = (b − a)h,
pour tout h ∈ R.
On pose g = f ◦ ϕ, c’est-à-dire g : [0, 1] ⊂ R → R définie par g(t) = f (a + t(b − a)).
D’après ce qui précède, g est continue sur [0, 1] (composée de deux applications continues) et
dérivable sur ]0, 1[ (composée de deux applications différentiables).
En utilisant le premier théorème, on obtient qu’il existe t0 ∈]0, 1[ tel que g(1) − g(0) = g′ (t0 ) ×
37
38
CHAPITRE 3. ACCROISSEMENTS FINIS ET TAYLOR
(1 − 0), c’est-à-dire f (b) − f (a) = g′ (t0 ).
Or g′ (t0 ) = Dg(t0 ).1 = Df (ϕ(t0 )).(Dϕ(t0 ).1) = Df (ϕ(t0 )).(b − a).
Donc, si on pose c = ϕ(t0 ) ∈]a, b[, on a bien montré qu’il existe c ∈]a, b[ tel que f (b) − f (a) =
Df (c).(b − a).
3.2
Inégalité des accroissements finis
Soit E et F des espaces vectoriels normés.
3.2.1
Fonction définie sur un intervalle de R
Théorème 3.2.1 Soit f : [a, b] ⊂ R → F , continue sur [a, b] et différentiable sur ]a, b[.
S’il existe M > 0 telle que pour tout x ∈]a, b[, k|Df (x)k| ≤ M , alors :
kf (b) − f (a)kF ≤ M (b − a).
Remarque : Ici, on peut parler d’application dérivable, car à variable réelle, et remplacer
k|Df (x)k| par kf ′ (x)kF .
P REU V E :
On va en fait établir que, quelque soit ε > 0, on a, pour tout x ∈ [a, b],
kf (x) − f (a)kF ≤ (M + ε)(x − a) + ε.
(P (x, ε))
L’inégalité cherchée s’obtient alors en prenant x = b et en faisant tendre ε vers 0.
On fixe ε > 0, on pose Aε = {y ∈ [a, b] / ∀ x ∈ [a, y], P (x, ε) vraie}. Montrons que Aε = [a, b].
Tout d’abord, Aε est un intervalle car si y et z sont dans Aε , avec y < z par exemple, alors par
définition [y, z] ⊂ Aε . De plus, a ∈ Aε et, comme f est continue en a à droite, il existe δ > 0 tel
que, pour tout x ∈ [a, a + δ], kf (x) − f (a)kF ≤ ε ≤ (M + ε)(x − a) + ε. On en déduit qu’il existe
c > a tel que Aε = [a, c].
Il ne reste plus qu’à montrer que c = b. On raisonne par l’absurde.
Supposons que a < c < b, alors comme f est différentiable en c, il existe une fonction η définie
au voisinage de 0, avec lim η(h) = 0, telle que, pour tout h au voisinage de 0,
h→0
f (c + h) − f (c) = Df (c).h + |h| η(h).
D’après les propriétés de η, il existe δ > 0 tel que, pour tout 0 < h < δ, on ait kη(h)kF < ε.
Donc, on obtient :
kf (c + h) − f (c)kF ≤ h k|Df (c)k| + h ε ≤ h (M + ε).
Comme c ∈ Aε , on a kf (c) − f (a)kF ≤ (M + ε)(c − a) + ε et, par inégalité triangulaire :
kf (c + h) − f (a)kF ≤ kf (c + h) − f (c)kF + kf (c) − f (a)kF ≤ (M + ε)(c + h − a) + ε.
On a donc [c, c + δ[⊂ Aε et [a, c + δ[⊂ Aε , ce qui contredit le fait que Aε = [a, c].
Donc on a bien Aε = [a, b].
3.2. INÉGALITÉ DES ACCROISSEMENTS FINIS
3.2.2
39
Fonction définie sur un ouvert de E
Théorème 3.2.2 Soit f : Ω ⊂ E → F , Ω un ouvert de E, f différentiable sur Ω.
Pour tout a, b ∈ Ω tels que [a, b] ⊂ Ω, on a :
!
kf (a) − f (b)kF ≤
sup k|Df (x)k| ka − bkE .
x∈[a,b]
Démonstration :
Si a = b ou si sup k|Df (x)k| = +∞, le théorème est trivial.
x∈[a,b]
On suppose que a 6= b et on note M = sup k|Df (x)k| < +∞.
x∈[a,b]
On pose ϕ : [0, 1] → [a, b] ⊂ E qui à t associe ϕ(t) = a + t(b − a). On a déjà vu dans une
démonstration précédente que ϕ est continue sur [0, 1], différentiable sur ]0, 1[ de différentielle
constante b − a.
Alors g = f ◦ ϕ est continue sur [0, 1] et dérivable sur ]0, 1[, à valeurs dans F , avec pour tout
t ∈]0, 1[, Dg(t).h = Df (ϕ(t)).(b − a) × h pour tout h ∈ R.
Donc k|Dg(t)k| ≤ k|Df (ϕ(t))k|×ka−bkE ≤ M kb−akE . On applique alors le théorème précédent
à g et on obtient :
kg(1) − g(0)kF = kf (b) − f (a)kF ≤ M kb − akE × 1.
Corollaire 3.2.3 Soit f : Ω ⊂ E → F différentiable sur Ω ouvert de E.
On suppose Ω convexe et qu’il existe M > 0 tel que k|Df (x)k| ≤ M pour tout x ∈ Ω. Alors, pour
tout (x, y) ∈ Ω2 ,
kf (x) − f (y)kF ≤ M kx − ykE .
La démonstration est une application directe du théorème précédent, puisque Ω convexe signifie
que pour tout (x, y) ∈ Ω2 , on a [x, y] ⊂ Ω.
3.2.3
Applications
Proposition 3.2.4 Soit f différentiable de Ω dans F où Ω est un ouvert convexe de E.
Alors, f est globalement lipschitzienne sur Ω si et seulement si Df est bornée sur Ω.
Démonstration :
La condition suffisante (⇐=) est une conséquence directe du corollaire.
Voyons la condition nécessaire. On suppose f lipschitzienne. Alors il existe une constante k ≥ 0
telle que, pour tout (x, y) ∈ Ω2 , on ait :
kf (x) − f (y)kF ≤ k kx − ykE .
Fixons x ∈ Ω et v ∈ E\{0}. Pour t assez petit en valeur absolue, x + tv ∈ Ω et d’après l’inégalité
ci-dessus :
kf (x + tv) − f (x)kF ≤ k |t| kvkE
et donc :
kf (x + tv) − f (x)kF
≤ k kvkE .
|t|
On fait tendre t vers 0 ; la partie de gauche tend vers la dérivée directionelle de f en x dans la
direction de v, c’est-à-dire :
kf (x + tv) − f (x)kF
= kDf (x).vkF .
t→0
|t|
lim
40
CHAPITRE 3. ACCROISSEMENTS FINIS ET TAYLOR
On obtient donc :
kDf (x).vkF ≤ k kvkE .
Ceci étant vrai pour tout v ∈ E\{0}, on a donc k|Df (x)k| ≤ k d’où sup k|Df (x)k| ≤ k.
x∈Ω
Proposition 3.2.5 Soit f différentiable d’un ouvert connexe Ω de E dans F , telle que pour
tout x ∈ Ω, Df (x) = 0.
Alors f est constante sur Ω.
P REU V E :
Rappelons la définition de la connexité : les seules parties ouvertes et fermées de Ω sont Ω et ∅.
Soit x0 ∈ Ω, montrons que pour tout x ∈ Ω, f (x) = f (x0 ).
Notons A = {x ∈ Ω / f (x) = f (x0 )}. A est non vide car x0 ∈ A.
A est un fermé car A = f −1 ({f (x0 )}), c’est-à-dire A est l’antécédent d’un fermé par une application continue, c’est donc un fermé.
Reste à montrer que A est aussi un ouvert. Soit x ∈ A ⊂ Ω, il existe r > 0 tel que B(x, r) ⊂ Ω.
Or toute boule ouverte est un convexe de E, on peut donc lui appliquer le corollaire 3.2.3 avec
M = 0, et on obtient que pour tout y ∈ B(x, r), f (y) = f (x) = f (x0 ), donc y ∈ A et B(x, r) ⊂ A.
Donc A est un ouvert.
Puisque A est un ouvert et un fermé de Ω non vide, et que Ω est connexe, c’est que A = Ω.
Attention, il faut impérativement que Ω soit connexe pour que le résultat soit valable. En effet,
si on prend l’exemple suivant : Ω =]0, 1[∪]2, 3[ et f (x) = 0 si x ∈]0, 1[, f (x) = 2 si x ∈]2, 3[, on
a bien f ′ (x) = 0 pour tout x ∈ Ω, mais f n’est pas constante sur Ω.
Remarque : Ne pas confondre connexe et convexe : tout convexe est connexe par arcs et donc
connexe (ce sont deux résultats de topologie de Ma52), la réciproque, elle, est généralement
fausse.
3.3
Différentiabilité et différentiabilité partielle
Nous allons maintenant démontrer un théorème donné dans le chapitre précédent, en utilisant
l’inégalité des accroissements finis.
Théorème 3.3.1 Soit Ω un ouvert de E = E1 ×...×En muni de la norme produit et f : Ω → F .
L’application f est de classe C 1 sur Ω si et seulement si pour tout 1 ≤ j ≤ n, ∂j f existe et est
continue sur Ω.
Démonstration :
La condition suffisante a déjà été montrée dans le chapitre 2. Reste la condition nécessaire. Nous
allons d’abord la démontrer dans le cas où n = 2 puis dans le cas général par récurrence.
Cas n = 2 :
On suppose que ∂1 f et ∂2 f existent et sont continues sur Ω.
Fixons (a, b) ∈ Ω. On sait que si f est différentiable en (a, b), on a nécessairement, pour tout
(h, k) ∈ E,
Df (a, b).(h, k) = ∂1 f (a, b).h + ∂2 f (a, b).k.
3.3. DIFFÉRENTIABILITÉ ET DIFFÉRENTIABILITÉ PARTIELLE
41
Ce qui peut aussi écrire Df (a, b) = ∂1 f (a, b) ◦ Π1 + ∂2 f (a, b) ◦ Π2 , où Πj est le projecteur
canonique sur Ej . Cette expression est bien un élément de Lc (E, F ). Il suffit donc de vérifier
que :
kf (a + h, b + k) − f (a, b) − ∂1 f (a, b).h − ∂2 f (a, b).kkF
lim
= 0.
k(h, k)kE
k(h,k)kE →0
Estimons le numérateur de cette expression.
On pose N (h, k) = f (a + h, b + k) − f (a, b) − ∂1 f (a, b).h − ∂2 f (a, b).k.
On écrit :
N (h, k) = [f (a + h, b + k) − f (a, b + k) − ∂1 f (a, b).h] + [f (a, b + k) − f (a, b) − ∂2 f (a, b).k]
=
N1 (h, k)
+
N2 (h, k).
Soit ε > 0.
Par définition de la différentielle partielle ∂2 f et comme Ω est un ouvert de E, il existe η1 > 0
kN2 (h, k)kF
tel que 0 ≤ kkkE2 ≤ η1 =⇒ (a, b + k) ∈ Ω et
≤ ε.
kkkE2
On a donc, pour tout (h, k) ∈ E tel que k(h, k)kE ≤ η1 , (a, b + k) ∈ Ω et kN2 (h, k)k ≤ ε kkkE2 ≤
ε k(h, k)kE .
Puisque ∂1 f est continue en (a, b) et Ω ouvert de E, il existe η2 > 0 tel que, pour tout (x, y) ∈ E,
k(x − a, y − b)kE ≤ η2 =⇒ (x, y) ∈ Ω et k|∂1 f (x, y) − ∂1 f (a, b)k| ≤ ε.
Fixons provisoirement (h, k) tel que k(h, k)kE ≤ η2 et considérons g : B(a, η2 ) ⊂ E1 → F définie
par g(x) = f (x, b + k) − ∂1 f (a, b).x.
Alors g est différentiable sur B(a, η2 ) et pour tout x ∈ B(a, η2 ), on a :
Dg(x) = ∂1 f (x, b + k) − ∂1 f (a, b).
En particulier, puisque B(a, η2 ) est un convexe de E1 , [a, a + h] ⊂ B(a, η2 ) et :
sup
x∈[a,a+h]
k|Dg(x)k| ≤
sup
x∈B(a,η2 )
k|Dg(x)k| =
sup
x∈B(a,η2 )
k|∂1 f (x, b + k) − ∂1 f (a, b)k| ≤ ε
car pour tout x ∈ [a, a + h], on a k(x − a, k)kE < η2 .
L’inégalité des accroissements finis appliquée à g permet de conclure que :
kg(a + h) − g(a)kF ≤ ε khkE1 .
Autrement dit,
kf (a + h, b + k) − ∂1 f (a, b).(a + h) − f (a, b + k) + ∂1 f (a, b).akF ≤ ε khkE1
ce qui implique, par linéarité et définition de la norme produit,
kN1 (h, k)kF ≤ ε khkE1 ≤ ε k(h, k)kE .
Finalement, par inégalité triangulaire, on obtient :
kN (h, k)kF ≤ 2 ε k(h, k)kE
dès que k(h, k)kE ≤ min(η1 , η2 ).
On a donc démontré que, pour tout (h, k) ∈ E,
0 < k(h, k)kE < min(η1 , η2 ) =⇒
kN (h, k)kF
< 2ε.
k(h, k)kE
42
CHAPITRE 3. ACCROISSEMENTS FINIS ET TAYLOR
Ceci étant vrai pour tout ε > 0, on peut bien conclure que :
lim
k(h,k)kE →0
kN (h, k)kF
= 0.
k(h, k)kE
Donc f est bien différentiable en (a, b).
Comme c’est vrai pour tout (a, b) ∈ Ω, on en déduit que f ∈ D1 (Ω, F ).
Il ne reste plus qu’à voir que f ∈ C 1 (Ω, F ), c’est-à-dire que Df est continue sur Ω.
Pour tout (x, y) ∈ Ω,
Df (x, y) = ∂1 f (x, y) ◦ Π1 + ∂2 f (x, y) ◦ Π2 .
Donc, pour tout (x, y) et (x′ , y ′ ) ∈ Ω,
k|Df (x′ , y ′ ) − Df (x, y)k| ≤ k|∂1 f (x′ , y ′ ) − ∂1 f (x, y)k| × k|Π1 k|
+k|∂2 f (x′ , y ′ ) − ∂2 f (x, y)k| × k|Π2 k|
≤ k|∂1 f (x′ , y ′ ) − ∂1 f (x, y)k| + k|∂2 f (x′ , y ′ ) − ∂2 f (x, y)k|
−→
(x′ ,y ′ )→(x,y)
0
par continuité de ∂1 f et ∂2 f sur Ω.
Ceci démontre donc le théorème pour le cas où n = 2.
Cas n ≥ 3 :
Pour le cas n quelconque, on raisonne par récurrence sur n ≥ 2.
On vient de la vérifier pour le cas où n = 2.
On le suppose vrai pour un certain n ≥ 2.
Soit f : Ω ⊂ E → F , avec les ∂j f continues sur E = E1 × ... × En+1 = E ′ × En+1 , avec
E ′ = E1 × ... × En .
On pose (x1 , ..., xn+1 ) = (x′ , xn+1 ) et g(x′ ) = f (x′ , xn+1 ) (pour xn+1 fixé).
Pour tout 1 ≤ j ≤ n, on a ∂j g(x′ ) = ∂j f (x′ , xn+1 ) qui est continue sur Ω′ = {x′ ∈ E ′ / (x′ , xn+1 ) ∈
Ω}.
Donc, par hypothèse de récurrence, g est de classe C 1 sur Ω′ , et en posant Πj le projecteur sur
Ej , on a, pour tout x′ ∈ Ω′ ,
Dg(x′ ) =
n
X
j=1
Dg(x′ )
∂j f (x′ , xn+1 ) ◦ Πj .
∂x′ f (x′ , xn+1 )
En fait,
=
et elle est continue par rapport à (x′ , xn+1 ) sur Ω (par l’expression ci-dessus et le même type d’argument que pour la continuité de Df dans le cas n = 2).
On a donc l’existence de ∂x′ f et ∂xn+1 f = ∂n+1 f qui sont continues sur Ω, donc grâce au résultat
obtenu pour n = 2, on a bien f ∈ C 1 (Ω, F ).
ATTENTION, les dérivées partielles peuvent exister sans pour cela que l’application soit différentiable. Il suffit de reprendre l’exemple du chapitre précédent (2.3 exemple 2). En (0, 0), les
dérivées partielles existent et sont nulles, mais f n’est pas différentiable en (0, 0).
3.4
3.4.1
Différentielle seconde d’une application
Isomorphismes
Nous allons commencer par définir (ou rappeler) la notion d’isomorphisme.
On suppose que E et F sont des Banach, c’est-à-dire des espaces vectoriels complets (i.e. tels
que toute suite de Cauchy soit convergente). C’est le cas de Rn muni de la norme euclidienne.
Alors, Lc (E, F ) est aussi un espace de Banach (voir cours de topologie Ma52).
3.4. DIFFÉRENTIELLE SECONDE D’UNE APPLICATION
43
Définition 3.4.1 Un isomorphisme de E sur F est une application linéaire bijective bicontinue
de E vers F , c’est-à-dire u : E → F qui vérifie :
– u linéaire continue sur E (u ∈ Lc (E, F ),
– u bijective de E sur F (donc u−1 : F → E est bien définie),
– u−1 continue sur F .
On note Isom(E, F ) l’ensemble des isomorphismes de E sur F .
Remarque :
On a donc Isom(E, F ) ⊂ Lc (E, F ).
Remarque :
Si u ∈ Isom(E, F ), alors u−1 est linéaire aussi et donc u−1 ∈ Isom(F, E).
Remarque : De tels isomorphismes n’existent pas nécessairement, par exemple si on prend
n 6= p, Isom(Rn , Rp ) = ∅.
Corollaire 3.4.2 Toute application linéaire bijective continue de E sur F est un isomorphisme
de E sur F .
C’est une conséquence du théorème de Banach (voir [KOM] page 66 ou [RUD2] page 48), qui
affirme que si u : E → F est linéaire bijective continue, alors u−1 est nécessairement continue.
3.4.2
Différentielles secondes
Revenons à la différentielle seconde. On rappelle que f : Ω ⊂ Rn → Rp est k fois différentiable
(resp : de classe C k ) si et seulement si f1 , ..., fp sont k fois différentiables (resp : de classe C k )
(voir le chapitre 2).
On peut donc se limiter à l’étude du cas p = 1, c’est-à-dire f : Ω ⊂ Rn → R.
Proposition 3.4.3 Soit f : Ω ⊂ Rn → R deux fois différentiable en a = (a1 , ..., an ) ∈ Ω. Alors
f admet en a n2 dérivées partielles secondes (d’ordre 2).
Démonstration :
Si f est deux fois différentiable en a, il existe un voisinage ouvert U de a dans Ω tel que f soit
différentiable sur U . De plus, pour tout x ∈ U , pour tout h ∈ Rn ,
n
X
∂f
Df (x).h =
(x) hi
∂xi
i=1
ce qu’on peut aussi écrire, pour tout x ∈ U ,
Df (x) =
n
X
∂f
(x) Πi
∂xi
i=1
où Πi : Rn → R est l’application linéaire continue qui à (h1 , ..., hn ) associe hi (le ieme projecteur).
La famille (Π1 , ...Πn ) forme une base de Lc (Rn , R) (c’est la base duale de la base canonique de
Rn ).
On pose Φ : L(Rn , R) → Rn qui à une application linéaire ϕ associe (α1 , ..., αn ) ses coordonnées
dans la base (Π1 , ...Πn ). C’est-à-dire que, pour tout 1 ≤ i ≤ n, ϕ(ei ) = αi . Ce qu’on peut aussi
n
P
écrire ϕ =
ϕ(ei ) Πi . Donc Φ(ϕ) = (ϕ(e1 ), ..., ϕ(en )).
i=1
On remarque que Φ est linéaire, continue car en dimension finie et bijective. Donc Φ est un
isomorphisme d’espaces vectoriels, ce qui implique que Φ et Φ−1 sont de classe C ∞ (voir chapitre
44
CHAPITRE 3. ACCROISSEMENTS FINIS ET TAYLOR
2). On a, pour tout (α1 , . . . , αn ) ∈ Rn , Φ−1 (α1 , . . . , αn ) =
De plus, pour tout x ∈ U ,
Φ ◦ Df (x) =
n
P
αj Πj .
j=1
∂f
∂f
(x), ...,
(x) .
∂x1
∂xn
On déduit de tout ce qui précède que, si f est 2 fois différentiable en a, alors Df est différentiable
∂f
en a, donc Φ ◦ Df est différentiable en a, d’où, pour tout 1 ≤ i ≤ n, le composant
de Φ ◦ Df
∂xi
∂f
admet n dérivées partielles
est différentiable en a, ce qui implique que pour tout 1 ≤ i ≤ n,
∂xi
∂2f
en a, et donc que pour tout 1 ≤ i, j ≤ n,
(a) existe.
∂xj ∂xi
Théorème 3.4.4 Une application f : Ω ⊂ Rn → R est de classe C 2 sur Ω si et seulement si f
admet des dérivées partielles continues jusqu’à l’ordre 2 en tout point de Ω.
P REU V E :
=⇒ : On applique la proposition précédente en tout point x de Ω, puis on reprend la preuve en
remarquant que f ∈ C 2 (Ω) =⇒ Df ∈ C 1 (Ω) =⇒ Φ ◦ Df ∈ C 1 (Ω) car Φ est de classe C ∞ sur
∂f
L(Rn , R). On conclut avec une proposition du chapitre 2 qui nous dit que les composantes
∂xi
de Φ ◦ Df admettent donc des dérivées partielles continues.
⇐= : On suppose que f admet des dérivées partielles d’ordre 1 continues donc Df est défi∂f
nie sur Ω. Puis, en raisonnant comme dans la proposition précédente, les composantes
de
∂xi
Φ ◦ Df admettent des dérivées partielles continues donc Φ ◦ Df ∈ C 1 (Ω). Alors Df ∈ C 1 (Ω)
(car Φ−1 est de classe C ∞ ) et donc f ∈ C 2 (Ω).
Proposition 3.4.5 Soit f admettant une différentielle seconde en a (donc des dérivées partielles
jusqu’à l’ordre 2).
Alors, pour tout (h, k) ∈ Rn × Rn ,
n X
n
X
∂2f
D f (a).h .k =
(a) hj ki .
∂xj ∂xi
2
j=1 i=1
P REU V E :
∂f
∂f
Posons g(x) =
(x), ...,
(x) pour x ∈ U (U défini comme dans la démo de la proposition
∂x1
∂xn
précédente), c’est-à-dire g = Φ ◦ Df .
On a donc Df = Φ−1 ◦ g, donc :
D2 f (a) = D(Df )(a) = D(Φ−1 ◦ g)(a)
= DΦ−1 (g(a)) ◦ Dg(a)
= Φ−1 ◦ Dg(a)
45
3.4. DIFFÉRENTIELLE SECONDE D’UNE APPLICATION
car Φ−1 est linéaire (Φ ∈ Isom(L(Rn , R), Rn )).
On a alors, pour tout h ∈ Rn ,
D2 f (a).h = (Φ−1 ◦ Dg(a)).h
= Φ−1 (Dg1 (a).h, ..., Dgn (a).h)
n
X
(Dgi (a).h) × Πi .
=
i=1
Or, pour tout 1 ≤ i ≤ n et h ∈ Rn ,
Dgi (a).h =
n
X
∂gi
(a) hj
∂xj
j=1
n
X
∂2f
=
(a) hj .
∂xj ∂xi
j=1
Et finalement, on obtient :
2
D f (a).h =
n
X
i,j=1
∂2f
(a) hj Πi
∂xj ∂xi
d’où, pour tout h, k ∈ Rn ,
n
X
D2 f (a).h .k =
i,j=1
∂2f
(a) hj ki .
∂xj ∂xi
Remarque : Les rôles de h et k sont apparement tout à fait disymétriques, mais l’expression
obtenue à droite apparait comme une forme bilinéaire continue sur Rn × Rn . On notera donc
désormais (D2 f (a).h).k = D2 f (a).(h, k).
Remarque :
Il faut bien faire attention aux objets qu’on manipule :
D2 f (a) ∈ Lc (Rn , Lc (Rn , R))
D2 f (a).h ∈ Lc (Rn , R)
D2 f (a).(h, k) ∈ R.
Théorème 3.4.6 Théorème de Schwarz
Lorsque f admet une différentielle seconde en a, on a pour tout 1 ≤ i, j ≤ n :
∂2f
∂2f
(a) =
(a).
∂xi ∂xj
∂xj ∂xi
On peut voir ce théorème comme un corollaire du théorème suivant :
Théorème 3.4.7 Si f : Ω → F est deux fois différentiable en un point a ∈ Ω, la différentielle
seconde D2 f (a) ∈ Lc (E, Lc (E, F )) est une application bilinéaire symétrique de E 2 dans F .
Autrement dit, pour tout (h, k) ∈ E 2 , on a :
(D2 f (a).h).k = (D2 f (a).k).h.
Pour une preuve de ce théorème, on pourra se reporter au livre de Cartan [CAR], p. 65 à 67.
46
CHAPITRE 3. ACCROISSEMENTS FINIS ET TAYLOR
Corollaire 3.4.8 Si f : Ω ⊂ Rn → R est deux fois différentiable en a ∈ Ω, alors D2 f (a) est
une forme bilinéaire symétrique. On appelle matrice hessienne de f en a la matrice symétrique :


∂2f
∂2f
...
(a) 
 ∂x2 (a)
∂x1 ∂xn


1


..
..
Hessf (a) = 

.
.


 ∂2f

∂2f
(a) . . .
(a)
2
∂x1 ∂xn
∂xn
On a alors, pour tout h = (h1 , ..., hn ) et k = (k1 , ..., kn ) ∈ Rn ,



k1



D2 f (a).(h, k) = (h1 , ..., hn ) × Hessf (a) ×  ...  = (k1 , ..., kn ) × Hessf (a) × 
kn
Les résultats précédents admettent les généralisations suivantes :

h1
..  .
. 
hn
1. Si f : Ω ⊂ E → F est k fois différentiable en a ∈ Ω, Df k (a) s’identifie à une application
k-linéaire continue de E k dans F . On note Dk f (a).(h1 , ..., hk ) sa valeur en un vecteur
(h1 , ..., hk ) ∈ E k .
2. Dk f (a) vérifie, pour tout (h1 , ..., hk ) ∈ E k , pour toute permutation σ de σk ,
Dk f (a).(hσ(1) , ..., hσ(k) ) = Dk f (a).(h1 , ..., hk ).
3.5
Formules de Taylor
Nous allons donner les trois formules de Taylor, d’abord dans un cas particulier que nous démontrerons, puis leur généralisation (que nous ne démontrerons pas).
3.5.1
Formule de Taylor-Young
Théorème 3.5.1 FORMULE DE TAYLOR-YOUNG
Soit Ω un ouvert de Rn et f : Ω → Rp . Si f est deux fois différentiable en a ∈ Ω alors il existe
un voisinage V de 0 dans Rn et une fonction ε : V → Rp tels que lim ε(h) = 0 et, pour tout
h→0
h∈V,
f (a + h) = f (a) +
n
X
hi
i=1
n
∂f
1 X
∂2f
(a) +
hi hj
(a) + khk2 ε(h)
∂xi
2
∂xi ∂xj
i,j=1
1
= f (a) + Df (a).h + D2 f (a).(h, h) + khk2 ε(h).
2
Remarque :
Les notations
∂2f
∂f
(a) et
(a) désignent des vecteurs de Rp .
∂xi
∂xi ∂xj
Remarque : La seconde formulation de ce résultat s’étend à des fonctions d’un espace vectoriel
normé quelconque E dans un espace vectoriel normé quelconque F (comme le montre l’examen
de la preuve).
Remarque :
La formule à l’ordre 1 :
f (a + h) = f (a) + Df (a).h + khkE ε(h)
avec ε(h) → 0 quand h → 0, n’est autre que la définition de la différentiabilité.
47
3.5. FORMULES DE TAYLOR
P REU V E :
Puisque f est supposée deux fois différentiable en a, elle est en particulier différentiable sur un
voisinage ouvert U de a. Notons V = {h ∈ Rn /a + h ∈ U } et posons pour tout h ∈ V :
1
ϕ(h) = f (a + h) − f (a) − Df (a).h − D2 f (a).(h, h).
2
ϕ(h)
= 0.
khk2
La fonction ϕ est différentiable sur V . En effet, ϕ = ϕ1 − ϕ2 − ϕ3 avec :
– ϕ1 (h) = f (a + h) − f (a), donc ϕ1 est différentiable en tout h ∈ V et Dϕ1 (h) = Df (a + h) ;
– ϕ2 = Df (a) ∈ Lc (Rn , Rp ) donc ϕ2 est différentiable en tout h ∈ V et Dϕ2 (h) = ϕ2 =
Df (a) ;
1
– ϕ3 = B ◦ ψ où B = D2 f (a) est bilinéaire continue (donc différentiable de Rn × Rn dans
2
Rp ) et ψ : h 7→ (h, h) est linéaire continue (donc différentiable de Rn dans Rn × Rn ). Ainsi
ϕ3 est différentiable en h ∈ V et Dϕ3 (h) = DB(ψ(h)) ◦ Dψ(h) = DB(h, h) ◦ ψ, d’où, pour
tout h ∈ V , pour tout k ∈ Rn :
Il nous suffit de montrer que lim
h→0
Dϕ3 (h).k = DB(h, h).(k, k) = B(h, k) + B(k, h) = 2B(h, k) = D2 f (a).(h, k)
car B est symétrique et donc Dϕ3 (h) = D(Df ) (a).h.
Finalement, on a obtenu Dϕ(h) = Df (a + h) − Df (a) − D(Df ) (a).h, et la différentiabilité de
k|Dϕ(h)k|
Df en a se traduit précisement par lim
= 0.
h→0
khk
Fixons η > 0. Il existe donc δ > 0 tel que, pour tout h ∈ Rn on ait :
khk < δ =⇒ a + h ∈ V et k|Dϕ(h)k| ≤ η khk.
On a alors, pour tout h tel que khk < δ, sup k|Dϕ(k)k| ≤ ηkk ≤ η khk et donc par l’inégalité
k∈[0,h[
des accroissements finis :
kϕ(h)k = kϕ(h) − ϕ(0)k ≤ η khk × kh − 0k = khk2 η.
Ceci étant vrai pour tout η > 0, la fonction ε définie sur V par ε(h) =
h tend vers 0, ce qui achève la preuve.
ϕ(h)
tend vers 0 quand
khk2
Cette formule se généralise ainsi (pour h ∈ E, on note (h)k le k-uplet (h, ...., h)) :
Théorème 3.5.2 FORMULE DE TAYLOR-YOUNG
Soit Ω un ouvert de Rn et f : Ω → Rp . Si f est k fois différentiable en a ∈ Ω, alors il existe un
voisinage ouvert V de 0 dans Rn et une fonction ε : V → Rp tels que lim ε(h) = 0 et, pour tout
h∈V,
h→0
1
1
f (a + h) = f (a) + Df (a).h + D2 f (a).(h, h) + ... + Dk f (a).(h)k + khkk ε(h).
2
k!
48
CHAPITRE 3. ACCROISSEMENTS FINIS ET TAYLOR
3.5.2
Formule de Taylor avec reste integral
Théorème 3.5.3 FORMULES DE TAYLOR AVEC RESTE SOUS FORME INTEGRALE
Soit Ω un ouvert de Rn , a ∈ Ω et h ∈ Rn tel que [a, a + h] ⊂ Ω.
Si f ∈ C 1 (Ω, Rp ), on a
f (a + h) = f (a) +
n
X
hi
i=1
Z1
0
∂f
(a + th) dt = f (a) +
∂xi
Z1
Df (a + th).h dt.
0
Si f ∈ C 2 (Ω, Rp ), on a
f (a + h) = f (a) +
n
X
i=1
Z1
n
X
∂f
∂2f
hi
(a) +
hi hj
(1 − t)
(a + th) dt
∂xi
∂xi ∂xj
i,j=1
= f (a) + Df (a).h +
Z1
0
Remarque :
Les notations
0
(1 − t) D2 f (a + th).(h, h) dt.
∂f
∂2f
(a + th) et
(a + th) désignent des vecteurs de Rp .
∂xi
∂xi ∂xj
Remarque : La seconde formulation de ce résultat s’étend à des fonctions d’un espace vectoriel
normé quelconque E dans un espace vectoriel normé complet F (il faut pour cela définir l’intégrale de Riemann des fonctions continues d’un segment de R à valeurs dans F , d’où la nécessité
que F soit un espace de Banach).
P REU V E :
Comme l’intégrale sur [0, 1] d’une fonction à valeurs dans Rp se calcule en intégrant composante
par composante, il suffit d’établir les formules pour une fonction f à valeurs dans R. Pour une
telle fonction, les points a et h étant fixés, on pose pour tout t ∈ [0, 1], ϕ(t) = f (a + th), qu’on
décompose en ϕ = f ◦ c, avec c(t) = a + th.
Si f ∈ C 1 (Ω, R), on a ϕ ∈ C 1 ([0, 1], R) (car c est C ∞ sur [0, 1]) et ϕ′ (t) = Dϕ(t).1 = Df (c(t)) ◦
Dc(t).1 = Df (c(t)).c′ (t) = Df (a + th).h pour t ∈ [0, 1]. On en tire :
f (a + h) − f (a) = ϕ(1) − ϕ(0) =
Z1
′
ϕ (t) dt =
0
Z1
Df (a + th).h dt
0
ce qui établit la formule à l’ordre 1.
Si f ∈ C 2 (Ω, R), en remarquant que ϕ′ = Lh ◦ Df ◦ c, où Lh : Lc (E, F ) → F définie par
Lh (u) = u(h) est linéaire continue, on obtient que ϕ′ ∈ C 1 ([0, 1], R). De plus, pour tout t ∈ [0, 1],
on a :
ϕ′′ (t) = D(ϕ′ )(t).1 = Lh ◦ D2 f (c(t)) ◦ Dc(t).1 = Lh [D2 f (c(t)).c′ (t)] = D2 f (a + th).(h, h).
Considérons la fonction g définie sur [0, 1] par g(t) = ϕ(t) + (1 − t)ϕ′ (t). Elle vérifie g′ (t) =
(1 − t)ϕ′′ (t) de sorte que :
g(1) − g(0) =
Z1
0
′
g (t) dt =
Z1
0
(1 − t) ϕ′′ (t) dt.
49
3.5. FORMULES DE TAYLOR
Autrement dit,
′
ϕ(1) − ϕ(0) − ϕ (0) =
c’est-à-dire :
f (a + h) − f (a) − Df (a).h =
Z1
0
Z1
0
(1 − t) ϕ′′ (t) dt
(1 − t) D2 f (a + th).(h, h) dt.
Cette formule se généralise ainsi (pour h ∈ E, on note (h)k le k-uplet (h, ...., h)) :
Théorème 3.5.4 FORMULE DE TAYLOR AVEC RESTE INTEGRAL
Soit Ω un ouvert de Rn et f ∈ C k (Ω, Rp ), a ∈ Ω et h ∈ Rn tel que [a, a + h] ⊂ Ω. Alors :
1
1
f (a + h) = f (a) + Df (a).h + D2 f (a).(h, h) + ... +
Dk−1 f (a).(h)k−1
2
(k − 1)!
+
Z1
0
3.5.3
(1 − t)k−1 k
D f (a + th).(h)k dt.
(k − 1)!
Formule de Taylor-Lagrange
Théorème 3.5.5 FORMULE DE TAYLOR-LAGRANGE
Soit Ω un ouvert de Rn , f : Ω → R, a ∈ Ω et h ∈ Rn tel que [a, a + h] ⊂ Ω.
Si f est deux fois différentiable sur Ω, alors il existe θ ∈]0, 1[ tel que
f (a + h) = f (a) +
n
X
i=1
hi
n
∂f
1 X
∂2f
(a) +
hi hj
(a + θh)
∂xi
2
∂xi ∂xj
i,j=1
= f (a) + Df (a).h +
1 2
D f (a + θh).(h, h).
2
Remarque : ATTENTION, cet énoncé concerne des fonctions à valeurs dans R. Il serait faux
pour des fonctions à valeurs dans un espace vectoriel quelconque (reprendre le contrexemple
donné au début du chapitre).
Remarque : La seconde formulation de ce résultat s’étend à des fonctions définies sur un espace
vectoriel quelconque E (mais toujours à valeurs dans R ... voir remarque ci-dessus).
Remarque :
A l’ordre 1, la formule s’énonce :
f (a + h) = f (a) + Df (a + θh).h
c’est l’égalité des accroissements finis.
P REU V E :
Considérons la fonction ϕ : [0, 1] → R définie pour tout t ∈ [0, 1] par ϕ(t) = f (a + th). En
décomposant ϕ comme dans la preuve précédente, on montre que ϕ est deux fois dérivable sur
]0, 1[, de classe C 1 sur [0, 1] et vérifie :
ϕ′ (t) = Df (a + th).h
et
ϕ′′ (t) = D2 f (a + th).(h, h).
50
CHAPITRE 3. ACCROISSEMENTS FINIS ET TAYLOR
Appliquons à ϕ la formule de Taylor-Lagrange pour les fonctions numériques d’une variable
(1 − 0)2
réelle : il existe θ ∈]0, 1[ tel que ϕ(1) = ϕ(0) + (1 − 0)ϕ′ (0) +
ϕ′′(θ), soit :
2
1
f (a + h) = f (a) + Df (a).h + D2 f (a + θh).(h, h).
2
Cette formule se généralise ainsi (pour h ∈ E, on note (h)k le k-uplet (h, ...., h)) :
Théorème 3.5.6 FORMULE DE TAYLOR-LAGRANGE
Soit Ω un ouvert de Rn , f : Ω → R et h ∈ Rn tel que [a, a + h] ⊂ Ω. Si f est k fois différentiable
sur Ω, alors il existe θ ∈]0, 1[ tel que :
1
1
1
Dk−1 f (a).(h)k−1 + Dk f (a+θh).(h)k .
f (a+h) = f (a)+Df (a).h+ D2 f (a).(h, h)+...+
2
(k − 1)!
k!
Les démonstrations se font comme celles en dimension 2. On pourra le cas échéant consulter
Cartan pages 77 à 79.
3.6
Extremum d’une fonction numérique
3.6.1
Extremum relatif d’une fonction numérique
Soit f : Ω ⊂ E → R, soit a ∈ Ω.
Définition 3.6.1 On dit que f admet un minimum local en a s’il existe un voisinage ouvert V
de a dans Ω tel que, pour tout x ∈ V , f (x) ≥ f (a).
On dit que f admet un minimum local strict en a s’il existe un voisinage ouvert V de a dans Ω
tel que, pour tout x ∈ V , x 6= a, f (x) > f (a).
On dit que f admet un maximum local (resp : local strict) en a si −f admet un minimum local
(resp : local strict) en a.
On dit que f admet un extremum si f admet un minimum ou un maximum.
Si V = Ω, l’extremum est dit global.
Remarque :
On parle aussi d’extremum relatif pour local, et absolu pour global.
Définition 3.6.2 On dit que a est un point critique de f si f est différentiable en a et si
Df (a) = 0.
Proposition 3.6.3 Soit Ω un ouvert de E et f : Ω → R.
Si f est différentiable en a ∈ Ω et admet un extremum local en a, alors a est un point critique
de f .
Démonstration :
Soit h ∈ E. Il existe α > 0 tel que pour tout t ∈ R (voir lemme du chapitre 2),
|t| < α =⇒ a + th ∈ Ω.
On définit ϕ(t) = f (a + th) pour t ∈] − α, α[. Cette application est dérivable sur ] − α, α[ et
admet en 0 un extremum relatif, donc ϕ′ (0) = 0, i.e. Df (a).h = 0. Comme c’est vrai pour tout
h ∈ E, on a bien Df (a) = 0.
3.6. EXTREMUM D’UNE FONCTION NUMÉRIQUE
51
Remarque : ATTENTION ! ! ! La réciproque est fausse : un point critique n’est pas forcément
un extremum. Par exemple, si on pose f : R → R définie par f (x) = x3 , 0 est un point critique
de f mais pas un extremum.
Remarque : ATTENTION ! ! ! Il est important que a ∈ Ω ouvert. Si Ω n’est pas ouvert, il faut
traiter séparement les points du bord.
Dans certains cas, on sait si un point critique est ou non un extremum.
Proposition 3.6.4 Soit f : Ω ⊂ E → R admettant une différentielle seconde en a ∈ Ω.
On suppose que a est un point critique de f .
Soit Q(h) la forme quadratique :
Q(h) = D2 f (a).(h, h).
1. S’il existe c > 0 telle que Q(h) ≥ c khk2E pour tout h ∈ E, alors f possède un minimum
local strict en a.
2. S’il existe c > 0 telle que Q(h) ≤ −c khk2E pour tout h ∈ E, alors f possède un maximum
local strict en a.
3. S’il existe h ∈ E tel que Q(h) > 0 et k ∈ E tel que Q(k) < 0, f n’admet pas d’extremum
en a.
Démonstration :
Commençons par le premier cas. On applique la formule de Taylor-Young à l’ordre 2 :
f (a + h) = f (a) + Df (a).h +
1 2
D f (a).(h, h) + khk2E ε(h)
2
1
= f (a) + 0 + Q(h) + khk2E ε(h)
2
c
+ ε(h) .
≥ f (a) + khk2E
2
c
Or, pour khkE assez petite, on a + ε(h) > 0 d’où f (a + h) > f (a).
2
Le deuxième cas se traite de manière identique.
Dans le troisième cas, pour tout t ∈ R, |t| assez petit,
1
1
f (a + th) = f (a) + Q(th) + kthk2E ε(th) = f (a) + t2
Q(h) + khk2E ε(th)
2
2
1
Q(h) + khk2E ε(th) > 0 pour |t| petit donc f (a + th) > f (a) pour |t| petit. De même, on a
2
f (a + tk) < f (a) pour |t| petit. Donc il n’y a pas d’extremum local pour f en a.
et
Remarque :
3.6.2
Si Q ≥ 0 et s’il existe h 6= 0 tel que Q(h) = 0, on ne peut pas conclure.
Cas E = Rn
En dimension finie, le premier cas est vérifié dès que Q(h) > 0 pour tout h 6= 0, c’est-à-dire dès
que Q est définie positive.
En effet, il existe c > 0 telle que pour tout h ∈ Rn , khk = 1 =⇒ Q(h) ≥ c (car {h ∈ Rn / khk = 1}
52
CHAPITRE 3. ACCROISSEMENTS FINIS ET TAYLOR
est fermé borné donc compact dans Rn , donc Q y atteint une borne inférieure, qui est non nulle).
Alors, pour tout h ∈ Rn ,
h
2
h 6= 0 =⇒ Q(h) = khk Q
≥ c khk2 .
khk
Même chose pour les autres cas.
De plus, on peut écrire, pour tout h ∈ Rn :

h1


Q(h) = D2 f (a).(h, h) =
hi hj
(a) = (h1 , . . . , hn ) × Hessf (a) ×  ...  .
∂xi ∂xj
i,j=1
hn
n
X

∂2f
La Hessienne est donc la matrice associée à la forme quadratique Q dans la base canonique.
On déduit de tous ces résultats le corollaire :
Corollaire 3.6.5 Soit f : Ω ⊂ Rn → R admettant une différentielle seconde en a ∈ Ω.
On suppose que a est un point critique de f .
1. Si la Hessienne de f en a est la matrice d’une forme quadratique définie positive, alors f
admet un minimum local strict en a.
2. Si la Hessienne de f en a est la matrice d’une forme quadratique définie négative, alors f
admet un maximum local strict en a.
3. Si la Hessienne de f en a est la matrice d’une forme quadratique ni positive ni négative,
alors f n’admet pas d’extremum local en a.
Remarque :
définie.
On ne sait pas conclure quand la Hessienne est, par exemple, positive mais non
Remarque : La matrice hessienne Hessf (a) est une matrice symétrique réelle, donc il existe P
matrice orthogonale (t P = P −1 ) telle que t P × Hessf (a) × P = Diag(λ1 , ..., λn ). La condition
1 équivaut alors à λi > 0 pour tout i, la condition 2 équivaut à λi < 0 pour tout i. La condition
3 équivaut à il existe i et j tels que λi > 0 et λj < 0.
On peut le résumer sous le corollaire suivant :
Corollaire 3.6.6 Soit f : Ω ⊂ Rn → R admettant une différentielle seconde en a ∈ Ω.
On suppose que a ∈ Ω est un point critique de f .
Soit λ1 , ..., λn les n valeurs propres de la matrice hessienne Hess(f (a)). Alors,
1. si λi > 0 pour tout 1 ≤ i ≤ n, f admet un minimum local strict en a.
2. si λi < 0 pour tout 1 ≤ i ≤ n, f admet un maximum local strict en a.
3. s’il existe i et j tels que λi < 0 et λj > 0, alors f n’admet pas d’extremum local en a.
Remarque :
On ne sait pas conclure s’il y a des valeurs prores nulles.
Remarque :
Dans le cas n = 2, on peut écrire :

∂2f
∂2f
(a)
(a)
 ∂x2
∂x1 ∂x2
1

Hessf (a) = 

 ∂2f
∂2f
(a)
(a)
∂x1 ∂x2
∂x22

 
= r s .

s t

53
3.6. EXTREMUM D’UNE FONCTION NUMÉRIQUE
Avec les notations précédentes, la condition 1 est vérifiée si et seulement si :
⇐⇒
⇐⇒
⇐⇒
⇐⇒
λ1 > 0 et λ2 > 0
λ1 λ2 > 0 et λ1 + λ2 > 0
det(Hessf (a)) > 0 et tr (Hessf (a)) > 0
rt − s2 > 0 et r + t > 0
rt − s2 > 0 et r > 0 (car rt > s2 > 0 donc r et t de même signe).
Donc, si Df (a) = 0, on a :
1. rt − s2 > 0 =⇒ f admet un extremum local en a (les deux valeurs propres sont de même
signe).
2. De plus, si r > 0 (et t > 0), alors f (a) est un minimum local strict.
Si r < 0 (et t < 0), alors f (a) est un maximum local strict.
3. Si rt − s2 < 0, alors f n’admet pas d’extremum en a.
On peut le résumer sous le corollaire suivant :
Corollaire 3.6.7 Soit f : Ω ⊂ R2 → R admettant une différentielle seconde en a ∈ Ω et a un
point critique de f .
Alors la matrice hessienne de f en a peut s’écrire sous la forme :


∂2f
∂2f
(a)   ∂x2 (a)
∂x1 ∂x2
1


r s


Hessf (a) = 
= s t
 ∂2f

∂2f
(a)
(a)
∂x1 ∂x2
∂x22
et de plus, les propriétés suivantes sont vérifiées :
1. rt − s2 > 0 =⇒ f admet un extremum local en a.
2. De plus, si r > 0 (et t > 0), alors f (a) est un minimum local strict.
Si r < 0 (et t < 0), alors f (a) est un maximum local strict.
3. Si rt − s2 < 0, alors f n’admet pas d’extremum en a.
On peut, à partir de ces résultats, donner une méthode de recherche d’extremum :
Soit f : Ω ⊂ Rn → R où Ω est un sous-ensemble, pas forcément ouvert, de Rn . On suppose f
o
différentiable sur Ω.
o
1. On commence par chercher d’éventuels extremum dans l’ouvert Ω. On recherche donc les
o
points critiques de f dans Ω.
2. On détermine, pour chaque point critique a, si f admet un extremum en a (on peut par
exemple utiliser la proposition ou les corollaires pour cela).
o
3. Si Ω\Ω est non vide, c’est-à-dire si Ω n’est pas un ouvert de Rn , on regarde “à la main” si
o
f admet un extremum en chacun des points de Ω\Ω.
3.6.3
Extremum lié d’une fonction numérique
On considère toujours une application f : Ω → R, définie sur un ouvert Ω de Rn . Cette fois, on
ne cherche plus les extremum de f sur Ω, mais sur une partie X de Ω.
Typiquement, X sera l’intersection de Ω avec une courbe, une surface ou un hyperplan.
Les variables de travail dans Rn , x1 , ..., xn , seront donc “liées” par une certaine relation. Voyons
deux types de relations.
54
CHAPITRE 3. ACCROISSEMENTS FINIS ET TAYLOR
1. Supposons qu’il existe un ouvert U de Rd , avec 1 ≤ d < n, et g : U → Rn tels que
X = g(U ). Alors chercher les extremum de f sur X revient à chercher les extremum de
f ◦ g sur U . Si f et g sont différentiables sur les bons espaces, on peut utiliser les résultats
qu’on a vu précédemment.
Considérons l’exemple suivant : soit f : R2 → R, définie par f (x, y) = x2 + y 2 . On cherche
les éventuels extremum de f sur la courbe X du plan définie par :
n
i π π ho
2
.
X = (cos t, sin t cos 2t), t ∈ − ,
2 2
i π πh
On peut écrire X sous la forme X = g(U ), avec U = − ,
et g : R → R2 , définie par
2 2
g(t) = (cos2 t, sin t cos 2t).
Chercher les extremum de f sur la courbe X revient à chercher les extremum de f ◦ g sur
l’ouvert U . On a, pour tout t ∈ U :
(f ◦ g)(t) = (cos2 t)2 + sin2 t (cos 2t)2
= (1 − sin2 t)2 + sin2 t (1 − 2 sin2 t)2
= 1 − sin2 t − 3 sin4 t + 4 sin6 t.
L’application f ◦ g est dérivable sur l’ouvert U , donc pour qu’elle admette un extremum
en t ∈ U , il faut que (f ◦ g)′ (t) = 0. Pour tout t ∈ U , on a :
(f ◦ g)′ (t) = 2 sin t cos t (12 sin4 t − 6 sin2 t − 1).
Donc on a l’équivalence :

ou
 sin t = 0 (⇐⇒ t = 0)
′
cos t = 0 (impossible)
ou
(f ◦ g) (t) = 0 ⇐⇒

12 sin4 t − 6 sin2 t − 1 = 0
Regardons la dernière équation. Si on pose x = sin2 t, √
il faut résoudre l’équation 12x2 −
3 ± 21
6x − 1 = 0. Cette équation admet deux solutions,
. Or x doit être positive, donc
12 
 s
√
√
3 + 21
3
+
21 
x=
. On en déduit que t = arcsin ±
.
12
12
 s

√
3 + 21 
En étudiant les cas possibles, on obtient que f ◦g admet un minimum en t = arcsin ±
12
et un maximum en t = 0.
1
0.8
0.6
0.4
0.2
0
−0.2
−0.4
−0.6
−0.8
−1
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
55
3.6. EXTREMUM D’UNE FONCTION NUMÉRIQUE
2. Supposons maintenant que X soit donné par une famille d’équations implicites : X = {x ∈
Ω / g1 (x) = g2 (x) = ... = gp (x) = 0}. On a le théorème suivant (qu’on ne démontrera pas,
voir [GOU], [POM] ou [ROU]) :
Théorème 3.6.8 Soient f , g1 , ..., gp des fonctions réelles de classe C 1 sur Ω ouvert de
Rn .
Soit X l’ensemble défini par les équations :
X = {x ∈ Ω / g1 (x) = g2 (x) = ... = gp (x) = 0}.
Si la restriction de f à X admet un extremum local en a ∈ X, et si les différentielles
Dg1 (a), ..., Dgp (a) sont des formes linéaires indépendantes sur Rn , alors nécessairement
les formes linéaires Df (a), Dg1 (a), ..., Dgp (a) sont liées.
En d’autres termes, il existe des coefficients réels λ1 , ..., λp appelés multiplicateurs de
Lagrange, tels que :
Df (a) = λ1 Dg1 (a) + ... + λp Dgp (a).
Voyons un exemple. On cherche le minimum de la même fonction f , mais cette fois sur la
courbe X définie par l’équation implicite :
X = {(x, y) ∈ R2 / (x − 2)2 + (y + 1)2 − 1 = 0}.
On voit que X est le cercle de centre (2, −1) de rayon 1. La courbe X peut aussi s’écrire
X = g−1 ({0}), avec g(x, y) = (x − 2)2 + (y + 1)2 − 1.
Les deux applications f et g sont différentiables sur R2 . On va chercher les points (x, y)
de X tels qu’il existe λ ∈ R vérifiant Df (x, y) = λ Dg(x, y), puis on regardera si (x, y) est
un extremum local de f sur X.
Montrer qu’il existe λ ∈ R tel que Df (x, y) = λ Dg(x, y) revient à vérifier que Mf (x, y) =
λ Mg (x, y), c’est-à-dire que :
(2x, 2y) = λ (2x − 4, 2y + 2).
Cela équivaut à :
x = λ (x − 2)
et
y = λ (y + 1).
On peut montrer que si (x, y) ∈ X, alors 1 ≤ x ≤ 3. On va donc considérer deux cas :
– Si x = 2, le système devient 2 = 0 et y = λ (y + 1), ce qui n’a pas de solutions.
– Si x 6= 2, le système devient :
x
x
λ=
et
y=
(y + 1),
x−2
x−2
soit encore :
λ=
On a finalement :
x
x−2
λ=
x
x−2
xy − 2y = xy + x.
et
et
x = −2y.
1
Comme (x, y) ∈ X, on en déduit que 5y 2 + 10y + 4 = 0, c’est-à-dire que y = −1 ± √ .
5
Donc Df (x, y) et Dg(x, y) sont liés pour (x, y) ∈ X si et seulement si :
2
1
2
1
(x, y) = 2 + √ , −1 − √
ou
2 − √ , −1 + √
.
5
5
5
5
Il ne reste ensuite plus qu’à regarder si l’un
de ces deux points
est un extremum ; on
2
1
montre que f admet un maximum local en 2 + √ , −1 − √
et un minimum local en
5
5
2
1
2 − √ , −1 + √ .
5
5
56
CHAPITRE 3. ACCROISSEMENTS FINIS ET TAYLOR
4
3
2
1
0
−1
−2
−3
−4
−4
−3
−2
−1
0
1
2
3
4
Comme on le voit, ce résultat théorique est assez difficile à utiliser en pratique.
Chapitre 4
T.I.L. et T.F.I.
Dans ce chapitre, nous commençerons par des rappels et compléments sur les difféomorphismes,
puis nous démontrerons deux théorèmes très importants : le théorème d’inversion locale et celui
des fonctions implicites.
Dans tout ce chapitre, E, F et G seront des espaces vectoriels normés complets (des espaces de
Banach).
4.1
4.1.1
Notion de difféomorphisme
Différentiabilité de la “réciprocation” des isomorphismes
Théorème 4.1.1 Soient E et F deux espaces de Banach (des evn complets). Alors :
1. Isom(E, F ) est ouvert dans Lc (E, F ).
2. Si Isom(E, F ) 6= ∅, l’application J : Isom(E, F ) → Isom(F, E) qui à u associe u−1 est
de classe C ∞ et sa différentielle est donnée par, pour tout u ∈ Isom(E, F ), pour tout
h ∈ Lc (E, F ),
DJ(u).h = −u−1 ◦ h ◦ u−1 .
Remarque : Le premier point est évident si on est en dimension finie. En effet, si E est de
dimension finie, alors on a l’équivalence :
Isom(E, F ) 6= ∅ ⇐⇒ dim(E) = dim(F ) = d.
On fixe alors une base BE de E et une base BF de F . On peut identifier L(E, F ) = Lc (E, F )
à Md (R) et Isom(E, F ) à GL(d, R) grâce à un isomorphisme (continue car nous sommes en
dimension finie). Comme l’application déterminant (notée det) est continue sur Md (R) (car
fonction polynômiale des coefficients de la matrice) et que GL(d, R) = det−1 (R∗ ), on en déduit
que GL(d, R) est un ouvert de Md (R) et donc par isomorphisme Isom(E, F ) est un ouvert de
L(E, F ).
Pour la preuve du théorème (en dimension non finie), nous aurons besoin du lemme suivant :
Lemme 4.1.2 Soit v ∈ Lc (E, E) tel que k|vk| < 1.
Alors IdE − v ∈ Isom(E, E).
P REU V E :
Puisque k|vk| < 1, la série
+∞
X
n=0
k|vk|n converge. Et comme 0 ≤ k|v n k| ≤ k|vk|n , la série
57
+∞
X
n=0
k|v n k|
58
CHAPITRE 4. T.I.L. ET T.F.I.
converge. On en déduit que la série
+∞
X
v n converge dans Lc (E, E) (car elle est absolument
n=0
convergente) et notons S sa limite.
De plus, pour tout N ∈ N∗ :
(IdE − v) ◦
N
X
vn =
n=0
N
X
n=0
vn
!
◦ (IdE − v) = IdE − v N +1 .
Comme les applications de Lc (E, E) dans Lc (E, E) qui à u associe u ◦ w et w ◦ u sont linéaires
continues (w étant fixé), on a, en posant w = IdE − v,
lim (IdE − v) ◦
N →+∞
et
lim (
N →+∞
On a finalement :
N
X
n=0
N
X
n=0
v n = (IdE − v) ◦ S =
v n ) ◦ (IdE − v) = S ◦ (IdE − v) =
lim IdE − v N +1 = IdE
N →+∞
lim IdE − v N +1 = IdE .
N →+∞
(IdE − v) ◦ S = S ◦ (IdE − v) = IdE .
Ce qui montre bien que IdE − v est bijective et que (IdE − v)−1 = S ∈ Lc (E, E).
Corollaire 4.1.3 Soit v ∈ Lc (E, E) tel que k|IdE − vk| < 1.
Alors v ∈ Isom(E, E).
C’est le même énoncé, en remplaçant v par IdE − v.
Revenons maintenant à la démonstration du théorème.
P REU V E :
Nous allons procéder en quatre étapes.
ETAPE 1
Nous allons d’abord montrer le 1.
Soit Isom(E, F ) est vide, et dans ce cas c’est bien un ouvert de Lc (E, F ).
Soit Isom(E, F ) n’est pas vide et il existe u0 ∈ Isom(E, F ).
Alors, pour tout u ∈ Lc (E, F ), on a l’équivalence :
u ∈ Isom(E, F ) ⇐⇒ u−1
0 ◦ u ∈ Isom(E, E).
D’après le lemme précédent, on est donc sûr que u ∈ Isom(E, F ) dès que k|IdE − u−1
0 ◦ uk| < 1.
−1
−1
Or k|IdE − u−1
◦
uk|
=
k|u
◦
(u
−
u)k|
≤
k|u
k|
k|u
−
uk|.
Donc,
pour
tout
u
∈
L
0
0
c (E, F ) telle
0
0
0
−1 −1
−1
que k|u0 − uk| < k|u0 k| , on a k|IdE − u0 ◦ uk| < 1, ce qui entraı̂ne d’après le corollaire que
u−1
0 ◦ u ∈ Isom(E, E) et donc que u ∈ Isom(E, F ).
−1
Finalement, on a montré que la boule ouverte de Lc (E, F ) de centre u0 et de rayon k|u−1
0 k|
est incluse dans Isom(E, F ). C’est donc bien un ouvert de Lc (E, F ).
ETAPE 2 : Continuité de J :
On fixe maintenant u0 ∈ Isom(E, F ) et on considère u ∈ Isom(E, F ). On veut majorer
−1
k|J(u) − J(u0 )k| = k|u−1
0 − u k|, pour montrer ensuite que cette norme tend vers 0 quand
59
4.1. NOTION DE DIFFÉOMORPHISME
u tend vers u0 .
−1 = (Id − u−1 ◦ u ) ◦ u−1 , ce qui nous donne la majoration :
On écrit u−1
E
0
0 −u
0
−1
−1
−1
k|u−1
◦ u0 k|.
0 − u k| ≤ k|u0 k| k|IdE − u
Posons v = IdE − u−1
0 ◦ u. On a alors :
−1
u−1 ◦ u0 = (u−1
= (IdE − v)−1 .
0 ◦ u)
De plus, on a vu dans la partie 1 que
k|vk| ≤ k|u−1
0 k| k|u0 − uk|
ce qui entraı̂ne que v tend vers 0 quand u tend vers u0 . Donc, si u est assez proche de u0 (u dans
+∞
P n
−1
−1 =
la boule de centre u0 de rayon k|u−1
v (voir la
0 k| ), on a k|vk| < 1 et donc (IdE − v)
n=0
démonstration du lemme précédent).
Finalement, on a :
IdE − u−1 ◦ u0 = IdE − (IdE − v)−1 = IdE −
d’où :
−1
−1
k|u−1
0 − u k| ≤ k|u0 k| ×
+∞
X
n=1
k|vk|n =
+∞
X
n=0
vn = −
+∞
X
vn
n=1
k|u−1
0 k| × k|vk|
.
1 − k|vk|
qui tend vers 0 quand u tend u0 , car v = (IdE − u−1
0 ◦ u) tend vers 0 lorsque u tend vers u0 .
On a donc montré que J est continue sur Isom(E, F ).
ETAPE 3 : Différentiabilité de J :
Montrons que J admet pour différentielle en u l’application L : h 7→ −u−1 ◦ h ◦ u−1 .
On vérifie d’abord que L est bien linéaire continue de Lc (E, F ) dans Lc (F, E).
La linéarité de L vient de la linéarité de u−1 et la continuité vient de la majoration :
k|L(h)k| ≤ k|u−1 k|2 × k|hk|.
Vérifions maintenant qu’il s’agit bien de la différentielle de J en u :
J(u + h) − J(u) − L(h) =
=
=
=
(u + h)−1 − u−1 + u−1 ◦ h ◦ u−1
(u + h)−1 ◦ [u − (u + h) + (u + h) ◦ u−1 ◦ h] ◦ u−1
(u + h)−1 ◦ [−h + h + h ◦ u−1 ◦ h] ◦ u−1
(u + h)−1 ◦ h ◦ u−1 ◦ h ◦ u−1
d’où :
k|J(u + h) − J(u) − L(h)k| ≤ k|J(u + h)k| × k|u−1 k|2 × k|hk|2
et donc puisque J est continue sur Isom(E, F ) :
k|J(u + h) − J(u) − L(h)k|
≤ k|J(u + h)k| k|u−1 k|2 k|hk| −→ 0.
h→0
k|hk|
Donc J est bien différentiable en u, de différentielle L.
ETAPE 4
Il ne reste plus qu’à montrer que J est de classe C 1 et même C ∞ .
Notons pour v et w ∈ Lc (F, E), ∆(v, w) : Lc (E, F ) → Lc (F, E) l’application linéaire qui à h
associe −v ◦ h ◦ w.
60
CHAPITRE 4. T.I.L. ET T.F.I.
On a k|∆(u, v).hk| ≤ k|vk| k|wk| k|hk|, donc k|∆(u, v)k| ≤ k|vk| k|wk| et ∆(u, v) est continue.
L’application ∆ est donc une application de Lc (F, E)2 dans Lc (Lc (E, F ); Lc (F, E)), bilinéaire
et continue car k|∆(u, v)k| ≤ k|vk| k|wk|.
On a déjà vu que toute application bilinéaire continue est de classe C ∞ , donc ∆ l’est.
De plus, comme DJ(u) = ∆(J(u), J(u)), puisque J est continue, l’application u 7→ DJ(u) est
également continue, et donc J est de classe C 1 .
Par récurrence, le même raisonnement permet de montrer que si J est C k , DJ est aussi C k et
donc J est C k+1 .
4.1.2
Difféomorphismes
Soit U un ouvert de E et V un ouvert de F .
Définition 4.1.4 Une application f : U → V est un difféomorphisme (global) de U sur V si :
– f est différentiable sur U ,
– f est bijective de U sur V ,
– f −1 est différentiable sur V .
Remarque :
sur U .
Si f est un difféomorphisme de U sur V , alors f −1 est un difféomorphisme de V
Remarque : f difféomorphisme de U sur V implique f homéomorphe de U sur V (c’est-à-dire f
bijective, f et f −1 continues) car f et f −1 sont différentiables, donc continues sur leurs ouverts
respectifs.
Mais on peut avoir f homéomorphe différentiable sans que f soit un difféomorphisme.
Par exemple, :
f −1 (x) = x1/3 .
U = V = R,
f (x) = x3 ,
L’application f −1 n’est pas différentiable en 0.
Remarque :
On a nécessairement V = f (U ).
Remarque : Ne pas confondre difféomorphisme (bijectif bidifférentiable) et isomorphisme (linéaire bijectif bicontinue). Un isomorphisme est un difféomorphisme, mais la réciproque est
fausse (par exemple f : x 7→ x2 sur R∗+ ).
Proposition 4.1.5 Si f est un difféomorphisme de U sur V , alors, pour tout x ∈ U , Df (x) ∈
Isom(E, F ) et D(f −1 )(f (x)) = [Df (x)]−1 .
De plus, si f est de classe C k , f −1 est aussi de classe C k . On dit alors que f est un C k difféomorphisme global de U sur V .
Remarque :
Pour tout y ∈ V , on a :
D(f −1 )(y) = [Df (f −1 (y))]−1 .
Démonstration :
Comme f −1 ◦ f = IdE et f ◦ f −1 = IdF , on a pour tout x ∈ U et y ∈ V tels que y = f (x) :
D(f −1 )(f (x)) ◦ Df (x) = D(IdE )(x) = IdE
et
Df (f −1 (y)) ◦ D(f −1 )(y) = IdF
donc Df (x) ∈ Isom(E, F ) et [Df (f −1 (y))]−1 = [Df (x)]−1 = D(f −1 )(y) = D(f −1 )(f (x)).
61
4.1. NOTION DE DIFFÉOMORPHISME
On a en particulier D(f −1 )(y) = [Df (f −1 (y))]−1 , c’est-à-dire D(f −1 ) = J ◦ Df ◦ f −1 , ce qui
permet par récurrence de terminer la démonstration.
En effet, si f est C 1 , Df est continue, J est continue et comme f −1 est continue, D(f −1 ) est
continue, d’où f −1 de classe C 1 .
Si f est de classe C k , par hypothèse de récurrence, f −1 est C k−1 , donc comme J est C ∞ et Df
est C k−1 , D(f −1 ) est C k−1 et donc f −1 est C k .
Remarque : L’existence d’un difféomorphisme de U ⊂ E sur V ⊂ F entraı̂ne que E et F sont
isomorphes. Il n’existe donc pas de difféomorphismes d’un ouvert de Rn sur un ouvert de Rp
lorsque n 6= p.
Remarque :
Si ϕ ∈ Isom(E, F ), alors ϕ est un C ∞ -difféomorphisme de E sur F .
Si f est un difféomorphisme de U ⊂ Rn sur V ⊂ Rn , alors pour tout x ∈ U ,
−1
1
.
Mf (x) ∈ GL(n, R), Mf −1 (f (x)) = Mf (x)
∈ GL(n, R) et det Mf −1 (f (x)) =
det Mf (x)
Remarque :
Le déterminant jacobien de f −1 en f (x) est l’inverse du déterminant jacobien de f en x.
Remarque :
L’exemple type du difféomorphisme est le changement de variables.
En dimension 1, les difféomorphismes d’un intervalle ouvert I de R sur un intervalle ouvert
J de R sont les fonctions strictement monotones de I dans J, dérivables sur I (et dont la dérivée
ne s’annule pas sur I, ce qui est assuré par la stricte monotonie).
En dimension 2, on a par exemple le passage en coordonnées polaires : (r, θ) 7→ (r cos θ, r sin θ).
C’est un difféomorphisme de tout ouvert du type ]0, +∞[×]θ0 , θ0 + 2π[ dans R2 privé de la
demi-droite fermée d’angle polaire θ0 et d’origine 0.
Theta
Theta 0 +2 Pi
y
U
V
Theta 0
Theta 0
0
r
0
Définition 4.1.6 Soit f : Ω → F , Ω un ouvert de E et a ∈ Ω.
On dit que f est un C k -difféomorphisme local en a s’il existe un voisinage ouvert U de a dans
Ω, un voisinage ouvert V de f (a) dans F tels que f|U soit un C k -difféomorphisme global de U
sur V .
On dit que f est un difféomorphisme local sur Ω si c’est un difféomorphisme local en chaque
point de Ω.
Remarque : Une application f qui est un difféomorphisme global sur Ω est un difféomorphisme
local sur Ω.
MAIS ATTENTION, f peut être un difféomorphisme local sur Ω, sans pour cela être un difféomorphisme global sur Ω :
x
62
CHAPITRE 4. T.I.L. ET T.F.I.
OMEGA
f
U
W
a
b
V
f(a) = f(b)
f
Remarque : La définition peut aussi s’énoncer ainsi : il existe U voisinage ouvert de a dans E
tel que f (U ) est un ouvert de F et f|U est un C k -difféomorphisme de U sur f (U ).
Remarque : Dans ce cas, une conséquence directe est que pour tout x ∈ U , Df (x) ∈ Isom(E, F ).
Proposition 4.1.7 Soit f : Ω → F , Ω un ouvert de E.
Si f est un C k -difféomorphisme local sur Ω, si f (Ω) est un ouvert de F et si f est injective sur
Ω, alors f est un C k -difféomorphisme global sur Ω.
Démonstration :
Puisque f est un C k -difféomorphisme local sur Ω, f est ck sur Ω.
Puisque f est injective sur Ω, f est bijective de Ω sur f (Ω), des ouverts de E et F respectivement.
Donc f −1 : f (Ω) → Ω est bien définie et, comme f est un difféomorphisme local sur Ω, f −1 est
différentiable sur f (Ω).
RESUME :
1. f : E → F est un isomorphisme de E sur F si elle est linéaire, bijective bicontinue.
2. f : Ω → f (Ω) est un homéomorphisme sur Ω si elle est bijective bicontinue.
3. f : Ω → f (Ω) est un difféomorphisme global sur Ω si elle est bijective bidifférentiable.
4. f : Ω → f (Ω) est un difféomorphisme local en a ∈ Ω s’il existe un voisinage ouvert U et a
dans Ω et V de f (a) dans F tel que f soit un difféomorphisme gloabl de U sur V .
5. f : Ω → f (Ω) est un difféomorphisme local sur Ω si elle est un difféomorphisme local en
chaque point de Ω.
6. Si f ∈ Isom(E, F ), alors f −1 ∈ Isom(F, E) et f est un C ∞ -difféomorphisme de E sur F .
7. Si f est un C k -difféomorphisme de U sur V , alors :
(a) f −1 est un C k -difféomorphisme de V sur U ,
(b) f est un homéomorphisme de U sur V ,
(c) f est un C k -difféomorphisme local sur U .
4.2
Théorème d’inversion locale
Théorème 4.2.1 THEOREME D’INVERSION LOCALE
Soit Ω un ouvert de E.
Soit f : Ω → F , de classe C 1 (resp C k ) et a ∈ Ω.
Si Df (a) ∈ Isom(E, F ), alors f est un C 1 -difféomorphisme local (resp : C k -difféomorphisme
local) en a.
63
4.2. THÉORÈME D’INVERSION LOCALE
Remarque : Comme Df (a) est linéaire continue et que E et F sont des Banach, il suffit, pour
que ce soit un isomorphisme de E sur F , de montrer que Df (a) est inversible, c’est-à-dire qu’il
existe une application g : F → E telle que g ◦ Df (a) = IdE et Df (a) ◦ g = IdF (voir corollaire
3.4.2).
On a donc le corollaire immédiat :
Corollaire 4.2.2 Soit Ω un ouvert de E.
Soit f : Ω → F , de classe C 1 (resp C k ) et a ∈ Ω.
Si Df (a) ∈ Lc (E, F ) est inversible, alors f est un C 1 -difféomorphisme local (resp : C k -difféomorphisme
local) en a.
Remarque :
En dimension finie, on a nécessairement, dim E = dim F, et on a le corollaire :
Corollaire 4.2.3 Soit f : Ω ⊂ E → F , de classe C 1 (resp C k ) et a ∈ Ω.
Si dim E = dim F < +∞ et si le déterminant de la matrice jacobienne de f en a est non nul
(det Mf (a) 6= 0), alors f est un C 1 (resp : C k ) difféomorphisme local en a.
C’est un conséquence du corollaire précédent : dire dans ce cas que Df (a) est inversible revient,
par identification avec Mf (a), à dire que la matrice Mf (a) est inversible, donc de déterminant
non nul.
Avant de démontrer le théorème, nous allons démontrer le lemme suivant, dont nous aurons
besoin :
Lemme 4.2.4 Si f : U ⊂ E → V ⊂ F est un homéomorphisme (c’est-à-dire f bijective et
bicontinue) différentiable tel qu’en x0 ∈ U , Df (x0 ) ∈ Isom(E, F ), alors f −1 est différentiable
en y0 = f (x0 ) et :
D(f −1 )(y0 ) = [Df (f −1 (y0 ))]−1 = [Df (x0 )]−1 .
Démonstration :
Notons L = Df (x0 ). Comme L ∈ Isom(E, F ), L−1 : F → E existe et est linéaire continue sur
F.
kf −1 (y0 + k) − f −1 (y0 ) − L−1 .kkE
Donc, si on montre que
−→ 0, on aura prouvé que f −1 est
k→0
kkkF
différentiable en y0 , de différentielle D(f −1 )(y0 ) = L−1 = [Df (x0 )]−1 .
Il existe un voisinage de 0 dans E tel que, pour tout h dans ce voisinage, on ait x0 + h ∈ U . En
notant k = f (x0 + h) − f (x0 ), on a :
k = f (x0 + h) − f (x0 ) ⇐⇒ h = f −1 (f (x0 ) + k) − x0 = f −1 (y0 + k) − f −1 (y0 )
et k tend vers 0 dans F équivaut à h tend vers 0 dans E (plus précisement, l’application h 7→ k
est bijective pour h voisin de 0 et lim k = 0, lim h = 0 par continuité de f et de f −1 ).
h→0
k→0
On peut alors écrire k = f (x0 + h) − f (x0 ) = L.h + khkE ε(h) où lim ε(h) = 0 (car f est
différentiable en x0 ). On a donc L−1 .k = h + khkE L−1 .ε(h) et :
h→0
h = f −1 (y0 + k) − f −1 (y0 ) = L−1 .k − khkE L−1 .ε(h).
Cela nous donne l’égalité :
f −1 (y0 + k) − f −1 (y0 ) − L−1 .k = −khkE L−1 .ε(h).
64
CHAPITRE 4. T.I.L. ET T.F.I.
khkE kL−1 (ε(h))kE
= 0. Or une
k→0
kkkF
Le lemme sera alors prouvé dès qu’on aura montré que lim
égalité précédente nous permet d’écrire :
khkE ≤ k|L−1 k| kkkF + khkE kL−1 (ε(h))kE
et donc
khkE (1 − kL−1 (ε(h))kE ) ≤ k|L−1 k| kkkF
avec kL−1 (ε(h))kE qui tend vers 0 quand k tend vers 0 (car L−1 est linéaire continue).
khkE
k|L−1 k|
Pour k (et donc h) proche de 0,
≤
qui est borné. En effet, comme
kkkF
1 − kL−1 (ε(h))kE
1
lim kL−1 (ε(h))kE = 0, il existe η > 0 tel que kkkF < η =⇒ 1 − kL−1 (ε(h))kE > ; alors
k→0
2
khkE
kkkF < η =⇒
≤ 2k|L−1 k|).
kkkF
khkE kL−1 (ε(h))kF
= 0.
On a donc bien lim
k→0
kkkF
En conséquence, f −1 est différentiable en y0 , de différentielle :
D(f −1 )(y0 ) = [Df (x0 )]−1 = [Df (f −1 (y0 ))]−1 .
Remarque : Dans le cas dim E = dim F < +∞, cette dernière égalité se traduit sur les matrices
jacobiennes de f et f −1 par :
−1
Mf −1 (y0 ) = Mf (f −1 (y0 ))
= [Mf (x0 )]−1 .
Nous allons maintenant pouvoir démontrer le théorème d’inversion locale.
P REU V E :
Nous allons d’abord montrer qu’il existe un voisinage U1 de a dans Ω et un voisinage V1 de f (a)
dans F tels que f soit un homéomorphisme de U1 sur V1 , puis nous en déduirons que f est un
difféomorphisme local grâce au lemme.
ETAPE 1 : Décomposition de f :
Nous allons commencer par voir qu’on peut écrire f sous la forme Ψ ◦ g, où g et Ψ sont des
homéomorphismes sur des ouverts à définir.
On pose g : Ω → E définie par g(x) = [Df (a)]−1 .(f (x) − f (a)) + a, c’est-à-dire :
g = [Df (a)]−1 ◦ f − [Df (a)]−1 .f (a) + a.
Donc on a f = Df (a) ◦ g + f (a) − Df (a).a = Ψ ◦ g où Ψ : E → F est définie par, pour tout
z ∈ E, Ψ(z) = Df (a).z + f (a) − Df (a).a.
On remarque que Ψ est affine bijective continue, donc Ψ est un homéomorphisme de E sur
F (car Df (a) ∈ Isom(E, F )).
ETAPE 2 : Résultats préliminaires sur g :
On remarque aussi que l’application g : Ω → E vérifie g(a) = a. De plus, g ∈ C 1 (Ω) car
f ∈ C 1 (Ω) et Df (a) ∈ Isom(E, F ). Pour tout x ∈ Ω, Dg(x) = [Df (a)]−1 ◦ Df (x). En particulier, Dg(a) = IdE .
65
4.2. THÉORÈME D’INVERSION LOCALE
De plus, puisque Dg est continue sur Ω, elle est continue en a, et il existe r > 0 tel que :
1
kx − akE < r =⇒ k|Dg(x) − Dg(a)k| = k|Dg(x) − IdE k| < .
2
On en déduit, grâce à l’inégalité des accroissements finis appliquée à g − IdE sur B(a, r) que,
pour tout x, x′ ∈ B(a, r),
kg(x) − x − (g(x′ ) − x′ )kE ≤
1
kx − x′ kE .
2
En particulier, pour tout x ∈ B(a, r) (en prenant x′ = a),
1
r
kg(x) − xkE ≤ kx − akE ≤ .
2
2
En fait, les deux inégalités ci-dessus sont vraies pour x et x′ dans B(a, r) (par continuité des
applications utilisées).
ETAPE 3 : Construction de U1 :
r
On va en déduire que, pour tout y ∈ B a, , il existe un unique x ∈ B(a, r) tel que g(x) = y.
2
r
Pour cela, on fixe y ∈ B a,
et on pose, pour tout x ∈ B(a, r), ϕ(x) = y + x − g(x).
2
L’application ϕ, définie sur B(a, r), est à valeurs dans B(a, r) ⊂ B(a, r) car :
kϕ(x) − akE ≤ ky − akE + kx − g(x)kE <
r r
+ = r.
2 2
L’application ϕ est strictement contractante sur B(a, r) : en effet, pour tout x, x′ ∈ B(a, r),
kϕ(x) − ϕ(x′ )kE = kx − g(x) − (x′ − g(x′ ))kE ≤
1
kx − x′ kE .
2
Comme B(a, r) est un fermé du Banach E, B(a, r) est complet et donc, d’après un théorème de
point fixe, ϕ admet un unique point fixe dans B(a, r).
Donc il existe un unique x ∈ B(a, r) tel que ϕ(x) = x. Comme ϕ est à image dans B(a, r),
x = ϕ(x) ∈ B(a, r).
De plus, ϕ(x) = x ⇐⇒ y = g(x), on a donc bien l’existence et l’unicité d’un x ∈ B(a, r) tel que
y = g(x).
r On pose maintenant U1 = B(a, r) ∩ g−1 B a,
. L’ensemble U1 est un ouvert de E car
2
r
g est continue sur Ω ; a ∈ U1 car g(a) = a et g(U1 ) ⊂ B a, .
2
ETAPE 4 : Homéomorphismes : r
r
Par construction de U1 , g(U1 ) = B a,
et e
g = g|U1 est bijective de U1 sur B a, .
2
2
r
L’application e
g est continue (comme g) sur U1 et ge−1 est continue sur B a,
car lipschit2
′
′
zienne de rapport 2. En effet, si x et x ∈ U1 , x et x ∈ B(a, r) et par une majoration précédente,
on a :
1
kx′ − x + g(x) − g(x′ )kE = kg(x) − x − (g(x′ ) − x′ )kE ≤ kx − x′ kE .
2
Donc :
1
kx − x′ kE ≤ kx′ − x + g(x) − g(x′ )kE + kg(x) − g(x′ )kE ≤ kx − x′ kE + kg(x) − g(x′ )kE
2
66
CHAPITRE 4. T.I.L. ET T.F.I.
d’où :
1
kx − x′ kE ≤ kg(x) − g(x′ )kE .
2
r
On a donc, pour tout y et y ′ ∈ B a, ,
2
ke
g−1 (y) − ge−1 (y ′ )kE ≤ 2 ky − y ′ kE .
r
Finalement, on a f|U1 = Ψ ◦ g|U1 = Ψ ◦ ge avec ge homéomorphisme de U1 sur B a,
et Ψ
2
r homéomorphisme de E sur F , donc f|U1 est un homéomorphisme de U1 sur V1 = Ψ B a,
.
2
ETAPE 5 : Conclusion :
Comme f ∈ C 1 (Ω), Df est continue sur U1 . Comme Isom(E, F ) est ouvert dans Lc (E, F ) (voir
le premier théorème du chapitre) et que Df (a) ∈ Isom(E, F ), il existe un ouvert U de U1 ,
contenant a, tel que, pour tout x ∈ U , Df (x) ∈ Isom(E, F ).
Posons V = f (U ) ; c’est un ouvert car V = (f|−1
)−1 (U ) et f|−1
est continue. De plus, f|U est
U
U
1
1
bijective de U sur V (car f|U1 est bijective de U1 sur V1 ), différentiable sur U et f|−1
est difféU
rentiable sur V (on applique le lemme précédent en tout point x0 ∈ U ).
Autrement dit, f|U est un C 1 -difféomorphisme de U sur V .
On applique pour terminer une proposition vue au début de ce chapitre pour voir que f|U
est un C 1 -difféomorphisme de U sur V et que si f ∈ C k (Ω), alors f|U est un C k -difféomorphisme
de U sur V .
On peut, à partir de ce théorème, obtenir deux corollaires bien pratiques.
Corollaire 4.2.5 Soit f ∈ C 1 (Ω, F ) telle que, pour tout x ∈ Ω, Df (x) ∈ Isom(E, F ).
Alors f (Ω) est un ouvert de F et f est un C 1 -difféomorphisme local sur Ω.
P REU V E :
D’après le T.I.L. appliqué en chaque point, f est trivialement un difféomorphisme local sur Ω.
Soit y ∈ f (Ω), il existe x ∈ Ω tel que f (x) = y et f est un C 1 -difféomorphisme local en x
(T.I.L.). Donc il existe U un ouvert de Ω contenant x et V un ouvert de F contenant y tels que
f soit un C 1 -difféomorphisme de U sur V .
En particulier, V = f (U ) ⊂ f (Ω), donc f (Ω) contient un voisinage ouvert de y, quel que soit
y ∈ f (Ω), c’est donc bien un ouvert de F .
Corollaire 4.2.6 Soit f ∈ C 1 (Ω, F ), injective sur Ω et telle que, pour tout x ∈ Ω, Df (x) ∈
Isom(E, F ).
Alors f est un C 1 -difféomorphisme global de Ω sur f (Ω).
Remarque :
Là encore, f (Ω) est automatiquement un ouvert de F (voir corollaire précédent).
P REU V E :
C’est une conséquence du corollaire précédent et de la proposition 4.1.7.
67
4.3. THÉORÈME DES FONCTIONS IMPLICITES
Revoyons l’exemple, donné au début du chapitre, des coordonnées polaires.
Soit Φ : R2 → R2 définie par Φ(r, θ) = (r cos θ, r sin θ). L’application Φ est de classe C ∞
sur R2 . Calculons son déterminant jacobien :
det MΦ (r, θ) = det
cos θ −r sin θ
sin θ r cos θ
= r.
Donc MΦ (r, θ) est inversible si r 6= 0.
On en déduit que Φ est un difféomorphisme local sur R2 \(0 × R), qui a deux composantes
connexes R∗+ × R et R∗− × R. Regardons ce qu’il se passe sur R∗+ × R.
Les seuls intervalles ouverts I ⊂ R tels que Φ soit injective sur R∗+ × I sont les intervalles
I ⊂]θ0 , θ0 + 2π[. On peut alors appliquer le corollaire précédent : Φ est un C ∞ -difféomorphisme
global de R∗+ × I sur son image. Par exemple, de Ωθ0 = R∗+ ×]θ0 , θ0 + 2π[ sur Φ(Ωθ0 ) = R2 \∆θ0 ,
où ∆θ0 est la demi-droite fermée, d’angle θ0 avec l’axe 0x et partant de l’origine.
Le théorème d’inversion locale dit que, si (x, y) ∈ R2 \∆θ0 et si on pose (x, y) = Φ(r, θ) avec
(r, θ) ∈ Ωθ0 , alors :
−1
cos θ −r sin θ
MΦ−1 (x, y) = [MΦ (r, θ)] =
sin θ r cos θ

x
p
2
1 r cos θ r sin θ
x + y2

=
=
−y
− sin θ cos θ
r
p
x2 + y 2
−1
4.3
p
p
y
−1
x2 + y 2 

x
.
x2 + y 2
Théorème des fonctions implicites
Soit f : R2 → R et E = {(x, y) ∈ R2 / f (x, y) = 0}. Comment peut-on décrire cet ensemble ?
On souhaite l’obtenir sous forme d’un graphe (pour utiliser les outils du chapitre 3 permettant
d’étudier les extrema d’une fonction numérique par exemple, ...).
Prenons, par exemple, f (x, y) = x2 + y 2 − 1 et donc E = C((0, 0), 1) le cercle unité du plan.
y
E
B
B’
J
0
I
x
68
CHAPITRE 4. T.I.L. ET T.F.I.
Si (x0 , y0 ) ∈ E et y0 > 0, il existe une boule ouverte B de (R2 , k.k∞ ) centrée en (x0 , y0 ) telle
que pour tout (x, y) ∈ B ∩ E, y > 0 ; on peut alors écrire :
p
(x, y) ∈ E ∩ B ⇐⇒ x ∈ I ⊂ R et y = 1 − x2
avec I projection orthogonale de B sur 0x.
On peut se ramener à la même situation lorsque y0 < 0.
Cela revient à décrire localement E ainsi (lorsque y0 6= 0) :
p
E ∩ B = {(x, sgn(y0 ) 1 − x2 ) / x ∈ I}
où I est un intervale de R.
Mais, si y0 = 0 (x0 = ±1), c’est impossible. En revanche, on peut trouver B ′ telle que :
p
(x, y) ∈ B ′ ∩ E ⇐⇒ y ∈ J et x = x0 1 − y 2 .
p
Et donc E ∩ B ′ = {(x0 1 − y 2 , y) / y ∈ J} où J est un intervalle de R.
∂f
∂f
(1, 0) = 2 6= 0 et
(1, 0) = 0. De même
Le statut particulier de ces points tient au fait que
∂x
∂y
∂f
∂f
(0, 1) = 2 6= 0 et
(0, 1) = 0 et on peut exprimer x en fonction de y au voisinage
en (0,1),
∂y
∂x
de (0, 1).
On va énoncer maintenant un théorème qui permet d’étudier plus généralement un tel ensemble
E localement, le théorème des fonctions implicites.
Théorème 4.3.1 THEOREME DES FONCTIONS IMPLICITES
Soit E, F et G des espaces de Banach.
Soit Ω un ouvert de E × F .
Soit f : Ω → G de classe C 1 sur Ω.
Soit (a, b) ∈ Ω tel que ∂2 f (a, b) ∈ Isom(F, G).
Alors :
1. Il existe U voisinage ouvert de (a, b) dans Ω, V voisinage ouvert de a dans E et ϕ ∈
C 1 (V, F ) tels que, pour tout (x, y) ∈ Ω,
(x, y) ∈ U et f (x, y) = f (a, b) ⇐⇒ x ∈ V et y = ϕ(x).
2. Pour tout x ∈ V ,
∂2 f (x, ϕ(x)) ∈ Isom(F, G) et Dϕ(x) = −[∂2 f (x, ϕ(x))]−1 ◦ ∂1 f (x, ϕ(x)).
3. Si f ∈ C k (Ω), alors ϕ ∈ C k (V ).
Remarque :
Il résulte du point 1 que ϕ(a) = b (car (a, b) ∈ U ).
Remarque :
Pour tout x ∈ V , ϕ(x) est l’unique élément y de F tel que (x, y) ∈ U et
f (x, y) = f (a, b).
Remarque : En conséquence, ϕ est l’unique application de V dans F vérifiant le point 1.
Si Ψ est une application définie sur V ′ ⊂ V et vérifiant pour tout x ∈ V ′ , (x, Ψ(x)) ∈ U et
f (x, Ψ(x)) = f (a, b), alors Ψ = ϕ|V ′ .
Démonstration :
4.3. THÉORÈME DES FONCTIONS IMPLICITES
69
1. Posons, pour tout (x, y) ∈ Ω, T (x, y) = (x, f (x, y)) ∈ E × G. On va appliquer le T.I.L. à
T en (a, b). Montrons que T en vérifie les hypothèses.
Puisque f ∈ C 1 (Ω, G), on a T ∈ C 1 (Ω, E × G) et, pour tout (h, k) ∈ E × F ,
DT (a, b).(h, k) = (h, Df (a, b).(h, k)) = (h, ∂1 f (a, b).h + ∂2 f (a, b).k).
Il reste à montrer que DT (a, b) ∈ Isom(E × F, E × G).
Soit (h′ , k′ ) ∈ E × G et (h, k) ∈ E × F . On a :
h = h′
′
′
DT (a, b).(h, k) = (h , k ) ⇐⇒
∂1 f (a, b).h + ∂2 f (a, b).k = k′
⇐⇒
⇐⇒
h = h′
∂2 f (a, b).k = k′ − ∂1 f (a, b).h′
h = h′
k = [∂2 f (a, b)]−1 . k′ − ∂1 f (a, b).h′
(on peut l’écrire car ∂2 f (a, b) ∈ Isom(F, G)).
Donc DT (a, b) est bien bijective de E × F sur E × G, linéaire continue sur E × F par
−1
′ ′
′ ′
définition de la différentiabilité, et,
pour tout (h , k ) ∈ E × G, [DT (a, b)] .(h , k ) =
′
−1
′
′
h , [∂2 f (a, b)] . k − ∂1 f (a, b).h .
On en déduit que [DT (a, b)]−1 est bien continue (car f est C 1 donc ∂1 f (a, b) est continue
et ∂2 f (a, b) ∈ Isom(F, G) donc [∂2 f (a, b)]−1 est linéaire continue). On peut également
utiliser le corollaire 3.4.2.
On peut alors appliquer le théorème d’inversion locale à T en (a, b) : il existe U voisinage ouvert de (a, b) dans Ω, il existe W voisinage ouvert de T (a, b) = (a, f (a, b)) dans
E × G tels que T = T|U soit un C 1 -difféomorphisme de U sur W .
Comme T (x, y) = (x, f (x, y)), on a T −1 : W → U de la forme T −1 (X, Y ) = (X, Φ(X, Y ))
(pour (X, Y ) ∈ W ) avec Φ ∈ C 1 (W ).
Posons j : E → E × G qui à x associe j(x) = (x, f (a, b)) et notons ϕ = Φ ◦ j.
Posons également V = j −1 (W ) = {x ∈ E / (x, f (a, b)) ∈ W }.
On va montrer que ϕ, U et V vérifient bien le point 1.
L’application j a une première composante linéaire continue et une seconde constante,
elle est donc C ∞ (et continue), donc V est un ouvert (qui contient a) et ϕ ∈ C 1 (V, F ).
Pour tout (x, y) ∈ Ω, on a :
(x, y) ∈ U et f (x, y) = f (a, b) ⇐⇒ (x, y) ∈ U et T (x, y) = (x, f (a, b))
⇐⇒ (x, f (a, b)) ∈ W et (x, y) = T −1 (x, f (a, b))
(car T est un C 1 −difféomorphisme de U sur W )
⇐⇒ (x, f (a, b)) ∈ W et y = Φ(x, f (a, b))
⇐⇒ x ∈ V et y = ϕ(x).
On a donc bien le résultat cherché.
2. Le théorème d’inversion locale dit aussi (voir sa démonstration) que, pour tout (x, y) ∈ U ,
DT (x, y) ∈ Isom(E × F, E × G).
Or, pour tout (h, k) ∈ E × F , DT (x, y).(h, k) = (h, ∂1 f (x, y).h + ∂2 f (x, y).k) donc, pour
tout k′ ∈ G, il existe un unique k ∈ F tel que DT (x, y).(0, k) = (0, k′ ), c’est-à-dire tel que
∂2 f (x, y).k = k′ .
70
CHAPITRE 4. T.I.L. ET T.F.I.
Donc pour tout (x, y) ∈ U , ∂2 f (x, y) ∈ Isom(F, G).
En particulier, pour tout x ∈ V , ∂2 f (x, ϕ(x)) ∈ Isom(F, G) et pour tout x ∈ V , f (x, ϕ(x)) =
f (a, b), c’est-à-dire f ◦ h(x) = f (a, b) où h(x) = (x, ϕ(x)).
Donc D(f ◦ h)(x) = 0 pour tout x ∈ V .
On en déduit que, pour tout x ∈ V , Df (h(x)) ◦ Dh(x) = 0 où Dh(x) = (IdE , Dϕ(x)).
On obtient que, pour tout x ∈ V , ∂1 f (x, ϕ(x)) + ∂2 f (x, ϕ(x)) ◦ Dϕ(x) = 0.
On en tire Dϕ(x) = −[∂2 f (x, ϕ(x))]−1 ◦ ∂1 f (x, ϕ(x)) (car ∂2 f (x, y) ∈ Isom(F, G)).
3. On a de plus :
f ∈ C k (Ω) =⇒
=⇒
=⇒
=⇒
=⇒
T ∈ C k (Ω)
T ∈ C k (U )
T|−1
∈ C k (W )
U
Φ ∈ C k (W )
ϕ = Φ ◦ j ∈ C k (V )
d’où la conclusion.
Remarque : La fin de la partie 2 de la démonstration donne une technique permettant, si on
ne se rappelle plus la formule de Dϕ(x), de la retrouver rapidement.
Remarque : Une variante de la partie 1 du théorème peut s’écrire :
Il existe V voisinage ouvert de a dans E, il existe W voisinage ouvert de b dans F , il existe
ϕ ∈ C 1 (V, W ) tels que pour tout (x, y) ∈ Ω,
(x, y) ∈ V × W et f (x, y) = f (a, b) ⇐⇒ x ∈ V et y = ϕ(x).
En fait, on peut choisir le voisinage ouvert U du théorème sous la forme V × W comme ci-dessus.
On peut regarder ce que donne le théorème dans le cas de la dimension finie. Soit E = Rn ,
F = Rp , G = Rp , car F et G doivent être isomorphes, donc ici de même dimension.
Corollaire 4.3.2 T.F.I. EN DIMENSION FINIE
Soit Ω ouvert de Rn × Rp .
Soit f : Ω → Rp , avec f (x, y) = f1 (x1 , ..., xn , y1 , ..., yp ), ..., fp (x1 , ..., xn , y1 , ..., yp ) de classe C 1
sur Ω.
Soit (a, b) ∈ Ω tel que :
∂f1
∂f1
(a,
b)
.
.
.
(a,
b)
∂y1
∂yp
D(f1 , ..., fp )
.
.
.
.
(a, b) = 6= 0.
.
.
D(y1 , ..., yp )
∂fp
∂fp
∂y1 (a, b) . . . ∂yp (a, b) C’est-à-dire tel que le déterminant de la matrice jacobienne de l’application partielle y 7→ f (a, y)
(de Rp dans Rp ) en b est non nul.
Alors :
1. Il existe U voisinage ouvert de (a, b) dans Ω, V voisinage ouvert de a dans Rn et ϕ ∈
C 1 (V, Rp ) tels que, pour tout (x, y) ∈ Ω,
(x, y) ∈ U et f (x, y) = f (a, b) ⇐⇒ x ∈ V et y = ϕ(x).
4.3. THÉORÈME DES FONCTIONS IMPLICITES
71
2. Pour tout x ∈ V ,
∂2 f (x, ϕ(x)) ∈ Isom(Rp , Rp ) et Dϕ(x) = −[∂2 f (x, ϕ(x))]−1 ◦ ∂1 f (x, ϕ(x)).
3. Si f ∈ C k (Ω), alors ϕ ∈ C k (V ).
Remarque :
Le point 1 du corollaire exprime que le système :

f1 (x1 , ..., xn , y1 , ..., yp ) = f1 (a, b)




..
..

.
.
..
..


.
.



fp (x1 , ..., xn , y1 , ..., yp ) = fp (a, b)
se résout localement au voisinage de (a, b) sous la forme :
(y1 , ..., yp ) = (ϕ1 (x1 , ..., xn ), ..., ϕp (x1 , ..., xn )).
Remarque : La formule du point 2 du corollaire reste valable si on prend les matrices jacobiennes
associées aux différentielles.
72
CHAPITRE 4. T.I.L. ET T.F.I.
Chapitre 5
Eléments d’étude locale de surfaces
de R3
5.1
Introduction
Le but de ce chapitre est d’appliquer les résultats du chapitre précédent à l’étude des surfaces
de R3 .
Tout d’abord, qu’entend-on par surface de R3 ?
Comme pour les courbes (de R2 ), on dispose de 3 points de vue : celui des graphes de fonctions,
des équations cartésiennes (implicites) ou des représentations paramétriques :
GRAPHE DE FONCTION
Courbes de R2
g:I⊂R→R
C = {(x, g(x)) / x ∈ I}
Surfaces de R3
g : U ⊂ R2 → R
S = {(x, y, g(x, y)) / (x, y) ∈ U }
y
S
y
C
0
x
U
0
I
x
z
EQUATION CARTESIENNE (IMPLICITE)
73
CHAPITRE 5. ELÉMENTS D’ÉTUDE LOCALE DE SURFACES DE R3
74
C=
f : Ω ⊂ R2 → R
= {(x, y) ∈ Ω / f (x, y) = 0}
f −1 ({0})
S=
f −1 ({0})
f : Ω ⊂ R3 → R
= {(x, y, z) ∈ Ω / f (x, y, z) = 0}
y
S
y
C
0
x
−1
0
1
x
z
REPRESENTATION PARAMETRIQUE
ϕ : I ⊂ R → R2
t 7→ ϕ1 (t), ϕ2 (t)
C = ϕ(I) = {(ϕ1 (t), ϕ2 (t)) / t ∈ I}
ϕ : U ⊂ R2 → R3
(u, v) 7→ ϕ1 (u, v), ϕ2 (u, v), ϕ3 (u, v)
S = ϕ(U ) = {(ϕ1 (u, v), ϕ2 (u, v), ϕ3 (u, v)) / (u, v) ∈ U }
Le premier point de vue apparait bien sûr comme un cas particulier de chacun des deux autres :
en effet, si on a un graphe, on peut se ramener à une équation cartésienne en posant :
Ω = U × R et f (x, y, z) = z − g(x, y)
ou à une représentation paramétrique avec :
ϕ(u, v) = (u, v, g(u, v)) pour (u, v) ∈ U.
La réciproque est-elle vraie ? Pas toujours, mais on peut parfois y arriver, localement en tout
cas, comme on le verra dans la suite.
Dans ce chapitre, nous allons d’abord rappeler quelques notions sur les droites et les plans
de R3 . Puis nous verrons, dans le cadre d’un graphe de fonction, comment étudier localement
une surface, en définissant la notion de plan tangent à une surface et de vecteur normal. Il s’agira
ensuite, dans chacun des deux autres cas, de se ramener localement (c’est-à-dire au voisinage
d’un point de la surface) à un graphe afin d’utiliser les résultats déjà vus.
Les difficultés que l’on rencontrera résulteront de deux types de problèmes :
1. Il n’est pas toujours facile de déterminer des conditions suffisantes sur f ou ϕ pour appliquer
ce programme.
2. La notion de plan tangent à une surface (ou de droite tangente à une courbe) n’est pas
définie de façon intrinsèque (i.e. uniquement à partir de l’ensemble f −1 ({0}) ou ϕ(U )).
Elle dépend de f , ou de ϕ et U . Or, il n’y a pas une manière unique d’associer une fonction
f ou un ouvert U de R2 et une fonction ϕ : U → R3 permettant de représenter une surface
(ensemble de points) donnée.
Pour gérer correctement ces questions, il faudrait faire appel à la théorie des sous-variétés différentielles de Rn (voir cours de master 1ere année).
5.2. RAPPELS SUR LES PLANS ET DROITES DE L’ESPACE
5.2
75
Rappels sur les plans et droites de l’espace
R3 est muni du produit scalaire usuel.
→
−
→ −
→ −
On notera B = ( i , j , k ) sa base canonique ; R3 est orienté par cette base B.
1. Tout plan P de R3 admet dans B une équation de type cartésienne (implicite) :
aX + bY + cZ + d = 0,
avec (a, b, c) 6= (0, 0, 0).
→
−
→
−
→ −
→
−
→ −
2. Pour une telle équation, un vecteur V est normal à P (i.e. V ⊥ U , ∀ U ∈ P ) si et seule−
→
−
→
−
→
−
→
−
→
ment si V est colinéaire au vecteur N = (a, b, c) = a i + b j + c k .
−
→
−
→
En effet, si (X, Y, Z) ∈ P, U = (Ux , Uy , Uz ) ∈ P si et seulement si (X+Ux , Y +Uy , Z+Uz ) ∈
→
−
→ −
→
−
→ −
P. Cela revient à dire que a Ux + b Uy + c Uz = 0. Donc V ⊥ U , ∀ U ∈ P si et seulement
−
→−
→
−
→
−
→
si V . U = 0, donc si et seulement si V est colinéaire à N .
−
→
3. Soit D une droite passant par M0 (x0 , y0 , z0 ) et dirigée par le vecteur U = (α, β, γ) 6=
(0, 0, 0). Alors D admet :
– la représentation paramétrique, obtenue à partir de l’équivalence M ∈ D ⇐⇒ ∃ t ∈
−−−→
−
→
R, M0 M = t U :

 X = x0 + tα
Y = y0 + tβ
, t ∈ R.

Z = z0 + tγ
−−−→
– le système d’équations cartésiennes, obtenu à partir de l’équivalence M ∈ D ⇐⇒ M0 M ∧
−
→ −
→
U = 0 :

(L1 = 0)
 γ(Y − y0 ) − β(Z − z0 ) = 0
(L2 = 0)
α(Z − z0 ) − γ(X − x0 ) = 0

β(X − x0 ) − α(Y − y0 ) = 0
(L3 = 0)
En fait, les trois équations sont liées, car αL1 + βL2 + γL3 = 0.
Comme (α, β, γ) 6= (0, 0, 0), au moins deux des équations sont des équations de plans,
linéairement indépendantes (par exemple, si γ 6= 0, L1 et L2 sont indépendantes et ce
système équivaut à L1 = 0 et L2 = 0) et D est l’intersection de ces deux plans.
5.3
Surface de R3 définie comme un graphe
Soit g : U ⊂ R2 → R, U un ouvert de R2 et g ∈ C 1 (U ).
On considère le graphe de g, ou surface d’équation z = g(x, y) (ou équation cartésienne explicite),
défini comme étant l’ensemble :
S = {(x, y, z) ∈ R3 / (x, y) ∈ U et z = g(x, y)}.
5.3.1
Plan tangent à S en un point
Soit M0 = (x0 , y0 , z0 ) ∈ S. Au voisinage de (x0 , y0 ), puisque g est de classe C 1 (donc différentiable en (x0 , y0 )), il existe une application ε définie au voisinage de (x0 , y0 ) telle que
lim
ε(x, y) = 0 et :
(x,y)→(x0 ,y0 )
g(x, y) = g(x0 , y0 ) + Dg(x0 , y0 ).(x − x0 , y − y0 ) + k(x − x0 , y − y0 )k ε(x, y)
∂g
∂g
= g(x0 , y0 ) +
(x0 , y0 ).(x − x0 ) +
(x0 , y0 ).(y − y0 ) + k(x − x0 , y − y0 )k ε(x, y)
∂x
∂y
= g0 (x, y) + k(x − x0 , y − y0 )k ε(x, y)
(∗)
CHAPITRE 5. ELÉMENTS D’ÉTUDE LOCALE DE SURFACES DE R3
76
où g0 (x, y) = a0 x + b0 y + c0 est une formule affine, avec a0 =
∂g
∂g
(x0 , y0 ), b0 =
(x0 , y0 ) et
∂x
∂y
∂g
∂g
(x0 , y0 ).x0 −
(x0 , y0 ).y0 = z0 − a0 x0 − b0 y0 .
∂x
∂y
Le graphe de g0 est donc le plan PM0 de R3 , d’équation :
c0 = g(x0 , y0 ) −
Z = a0 X + b0 Y + c0 .
On a M0 ∈ PM0 . De plus, on peut vérifier que ce plan est le plan qui approche le mieux S au
voisinage de M0 .
En effet, PM0 est le seul plan P d’équation Z = aX + bY + c, passant par M0 , et tel que, au
voisinage de (x0 , y0 ),
g(x, y) − ax − by − c = o(k(x − x0 , y − y0 )k)
(1).
C’est effectivement le cas, car, pour un tel plan, en remplaçant g par son développement (∗), on
a:
g(x, y) − ax − by − c = (a0 − a)x + (b0 − b)y + c0 − c + k(x − x0 , y − y0 )kε(x, y).
Donc P vérifie (1) si et seulement si :
(a0 − a)x + (b0 − b)y + c0 − c
= 0.
k(x − x0 , y − y0 )k
(x,y)→(x0 ,y0 )
lim
Or M0 ∈ P ∩ PM0 donc a0 x0 + b0 y0 + c0 = ax0 + by0 + c et alors c0 − c = (a0 − a)x0 + (b0 − b)y0 .
Donc la condition s’écrit :
(a0 − a)(x − x0 ) + (b0 − b)(y − y0 )
= 0.
k(x − x0 , y − y0 )k
(x,y)→(x0 ,y0 )
lim
1
En considérant la suite (x0 + , y0 ), on obtient a0 −a = 0. De la même façon, on trouve b0 −b = 0
n
et on en déduit c0 − c = 0. Donc on a bien P = PM0 .
Nous avons défini ainsi un plan particulier, que nous appelerons plan tangent à S en M0 , qui est
le plan passant par M0 le plus proche de S au voisinage de M0 (au sens de (1)) :
Définition 5.3.1 On appelle plan tangent à S en M0 le plan PM0 , d’équation cartésienne :
Z − z0 = (X − x0 )
∂g
∂g
(x0 , y0 ) + (Y − y0 )
(x0 , y0 )
∂x
∂y
qui s’écrit aussi :
Z = g(x0 , y0 ) + (X − x0 )
Remarque :
5.3.2
∂g
∂g
(x0 , y0 ) + (Y − y0 )
(x0 , y0 ).
∂x
∂y
Le plan PM0 ne dépend que des valeurs de g au voisinage de (x0 , y0 ).
Vecteur normal, droite normale à S en M0
Donnons la définition d’un vecteur et d’une droite normaux à une surface en un point.
Définition 5.3.2 On appelle vecteur normal à S en M0 tout vecteur normal à PM0 .
On appelle droite normale à S en M0 la droite DM0 orthogonale à PM0 passant par M0 .
On a alors, pour une surface S définie par un graphe g : U ⊂ R2 → R, avec g ∈ C 1 (U ), et en un
point M0 ∈ S, la proposition suivante :
5.3. SURFACE DE R3 DÉFINIE COMME UN GRAPHE
77
Proposition 5.3.3 La surface S admet pour vecteur normal en M0 le vecteur :
−
→
n =
∂g
∂g
− (x0 , y0 ), − (x0 , y0 ), 1 .
∂x
∂y
La normale à S en M0 admet :
– la représentation paramétrique :

∂g


X = x0 − t
(x0 , y0 )


∂x




∂g
Y = y0 − t
(x0 , y0 )


∂y






Z = z0 + t
t ∈ R.
– le système d’équations cartésiennes :

∂g



 (Z − z0 ) ∂y (x0 , y0 ) + Y − y0
= 0



 (Z − z0 ) ∂g (x0 , y0 ) + X − x0 = 0
∂x
Démonstration :
On a donné ci-dessus l’équation du plan PM0 tangent à S en M0 . En appliquant les résultats de
la partie 2, on en déduit un vecteur normal à PM0 et donc à S en M0 .
Ce vecteur normal et le point M0 définissent la droite normale à S en M0 , et on obtient, toujours
grâce à la partie 2, une représentation paramétrique de la droite.
On obtient également le système d’équations cartésiennes suivant :

∂g


(Z − z0 )
(x0 , y0 ) + Y − y0
= 0


∂y






∂g
(Z − z0 )
(x0 , y0 ) + X − x0
= 0

∂x






∂g
∂g



(x0 , y0 ) (X − x0 ) −
(x0 , y0 ) (Y − y0 ) = 0.
∂y
∂x
On remarque que la troisième ligne est une combinaison linéaire des deux premières ; on peut
donc la supprimer, d’où le système d’équations cartésiennes voulu.
5.3.3
Position de la surface S par rapport au plan tangent en M0
Etudier la position de S par rapport à PM0 au voisinage de M0 revient à étudier le signe de
g(x, y) − g0 (x, y) au voisinage de (x0 , y0 ).
La surface S est d’un même côté de PM0 au voisinage de M0 si et seulement si (g − g0 ) a un
signe constant au voisinage de (x0 ; y0 ). Si ce signe est positif, la surface est au-dessus du plan
tangent, sinon elle est dessous.
Puisque (x0 , y0 ) annule g − g0 , la surface S est d’un même côté de PM0 si et seulement si
78
CHAPITRE 5. ELÉMENTS D’ÉTUDE LOCALE DE SURFACES DE R3
(x0 , y0 ) est un point d’extremum local de g − g0 .
Or, on a :

∂g0


(x , y ) = a0 =

 ∂x 0 0


∂g0


(x0 , y0 ) = b0
∂y
=
∂g
(x0 , y0 )
∂x
∂g
(x0 , y0 )
∂y
Donc grad(g − g0 )(x0 , y0 ) = 0 et (x0 , y0 ) est un point critique de g − g0 .
On est alors ramené à l’étude de la nature du point critique (x0 , y0 ) de g − g0 .
Si g est deux fois différentiable en (x0 , y0 ), on a :
Hess(g − g0 )(x0 , y0 ) = Hess g(x0 , y0 )
car Hess g0 (x, y) ≡ 0. On peut alors appliquer les résultats du chapitre 3 à g − g0 au voisinage de
(x0 , y0 ) avec Hess(g − g0 )(x0 , y0 ) = Hess g(x0 , y0 ), en en étudiant le déterminant par exemple.
5.4
Surface définie par une équation cartésienne implicite
Soit Ω un ouvert de R3 et f ∈ C 1 (Ω, R).
On considère la surface d’équation cartésienne (implicite) f (x, y, z) = 0, c’est-à-dire l’ensemble
S = {(x, y, z) ∈ R3 / f (x, y, z) = 0} = f −1 ({0}).
Définition 5.4.1 Un point M0 (x0 , y0 , z0 ) de S est dit régulier (pour la représentation donnée
par f ) si grad f (x0 , y0 , z0 ) 6= 0.
Il est dit singulier dans le cas contraire.
On cherche à représenter S par un graphe au voisinage d’un point M0 (x0 , y0 , z0 ), afin d’utiliser
les résultats de la partie 3 pour étudier S au voisinage de M0 .
∂f
∂f
(x0 , y0 , z0 ),
(x0 , y0 , z0 ) ou
On suppose que M0 ∈ S est régulier ; l’un au moins des réels
∂x
∂y
∂f
(x0 , y0 , z0 ) est non nul.
∂z
∂f
Supposons par exemple que
(x0 , y0 , z0 ) 6= 0.
∂z
∂f
On a alors f : Ω → R avec Ω ⊂ R2 × R, f ∈ C 1 (Ω, R), f (x0 , y0 , z0 ) = 0 et
(x0 , y0 , z0 ) 6= 0.
∂z
On peut donc appliquer le théorème des fonctions implicites à f en M0 .
Il existe W voisinage ouvert de (x0 , y0 , z0 ) dans Ω, il existe U voisinage ouvert de (x0 , y0 ) dans
R2 et il existe g : U → R de classe C 1 tels que pour tout (x, y, z) ∈ Ω, on a :
(x, y, z) ∈ W et f (x, y, z) = 0 ⇐⇒ (x, y) ∈ U et z = g(x, y).
Autrement dit, S ∩ W est le graphe de l’application g de U dans R. On peut donc appliquer
localement en M0 les résultats de la section 3 : S admettra en M0 un plan tangent PM0 et une
droite normale DM0 .
∂g
∂g
Pour les déterminer, calculons
(x0 , y0 ) et
(x0 , y0 ) : pour tout (x, y) ∈ U , f (x, y, g(x, y)) = 0
∂x
∂y
donc :

∂f
∂f
∂g


(x , y , z ) +
(x0 , y0 , z0 ) ×
(x0 , y0 ) = 0

 ∂x 0 0 0
∂z
∂x


∂f
∂f
∂g


(x0 , y0 , z0 ) +
(x0 , y0 , z0 ) ×
(x0 , y0 ) = 0
∂y
∂z
∂y
5.5. SURFACE DE R3 DÉFINIE PAR UNE REPRÉSENTATION PARAMÉTRIQUE
79
On en tire donc :
∂f
∂g
∂x (x0 , y0 , z0 )
(x0 , y0 ) = − ∂f
∂x
(x0 , y0 , z0 )
∂z
∂f
∂g
∂y (x0 , y0 , z0 )
(x0 , y0 ) = − ∂f
.
∂y
(x0 , y0 , z0 )
∂z
D’où l’expression d’un vecteur normal à S en M0 :
∂g
∂g
− (x0 , y0 ), − (x0 , y0 ), 1 =
∂x
∂y
∂f
∂f
∂y (x0 , y0 , z0 )
∂x (x0 , y0 , z0 )
, ∂f
,
∂f
∂z (x0 , y0 , z0 )
∂z (x0 , y0 , z0 )
!
1
∂f
→
(x0 , y0 , z0 ), −
n = grad f (x0 , y0 , z0 ).
∂z
∂f
∂f
On retrouve le même résultat si
(x0 , y0 , z0 ) 6= 0 ou si
(x0 , y0 , z0 ) 6= 0.
∂x
∂y
ou, en multipliant par
Proposition 5.4.2 La surface S d’équation f (x, y, z) = 0 admet en tout point régulier M0
(x0 , y0 , z0 ) un plan tangent PM0 et une droite normale DM0 .
De plus, le vecteur grad f (x0 , y0 , z0 ) est normal à S en M0 , le plan PM0 admet donc l’équation
cartésienne :
∂f
∂f
∂f
(x0 , y0 , z0 )(x − x0 ) +
(x0 , y0 , z0 )(y − y0 ) +
(x0 , y0 , z0 )(z − z0 ) = 0.
∂x
∂y
∂z
−−−→
On en tire une représentation paramétrique de DM0 par M0 M = t grad f (x0 , y0 , z0 ) et un
−−−→
système d’équations cartésiennes par M0 M ∧ grad f (x0 , y0 , z0 ) = 0.
5.5
Surface de R3 définie par une représentation paramétrique
Soit U un ouvert de R2 , ϕ ∈ C 1 (U, R3 ). On note ϕ = (ϕ1 , ϕ2 , ϕ3 ). On considère la surface
S = ϕ(U ), d’équations paramétriques :

 x = ϕ1 (u, v)
y = ϕ2 (u, v)
(u, v) ∈ U.

z = ϕ3 (u, v)
On a donc S = {(ϕ1 (u, v), ϕ2 (u, v), ϕ3 (u, v)) / (u, v) ∈ U }.
Définition 5.5.1 Un point M0 = ϕ(u0 , v0 ) est dit point régulier de S pour cette représentation
∂ϕ
∂ϕ
si les vecteurs
(u0 , v0 ) et
(u0 , v0 ) de R3 sont linéairement indépendants.
∂u
∂v
Il est dit singulier (ou stationnaire) dans la cas contraire.
Remarque : Cette notion est en fait attachée au paramètre (u0 , v0 ) et non au point M0 ∈ R3 .
En effet, M0 peut éventuellement être atteint en différentes valeurs (u0 , v0 ) et (u1 , v1 ) du paramètre.
Proposition 5.5.2 Soit M0 = ϕ(u0 , v0 ) un point régulier de S.
Alors S admet en M0 un plan tangent P(u0 ,v0 ) (et donc une droite normale D(u0 ,v0 ) ). De plus, le
−
→ ∂ϕ
∂ϕ
vecteur N =
(u0 , v0 ) ∧
(u0 , v0 ) est un vecteur normal à S en M0 .
∂u
∂v
On peut déduire de la proposition une expression du plan tangent et de la droite normale :
−−−→ −
→
– l’équation cartésienne de P(u0 ,v0 ) en écrivant : M ∈ P(u0 ,v0 ) ⇐⇒ M0 M . N = 0,
−−−→ −
→ −
→
– l’équation cartésienne de D(u0 ,v0 ) en écrivant : M ∈ D(u0 ,v0 ) ⇐⇒ M0 M ∧ N = 0 ,
80
CHAPITRE 5. ELÉMENTS D’ÉTUDE LOCALE DE SURFACES DE R3
−−−→
−
→
– une représentation paramétrique de D(u0 ,v0 ) en écrivant M ∈ D(u0 ,v0 ) ⇐⇒ M0 M = t N ,
t ∈ R.
Démonstration :
−
→
Le vecteur N a pour composantes :
∂ϕ2
∂ϕ
2
∂u (u0 , v0 ) ∂v (u0 , v0 ) D(ϕ , ϕ )
D(ϕ3 , ϕ1 )
D(ϕ1 , ϕ2 )
2
3
(u0 , v0 );
(u0 , v0 );
(u0 , v0 ).
=
∂ϕ
D(u,
v)
D(u,
v)
D(u, v)
∂ϕ3
3
(u0 , v0 )
(u0 , v0 ) ∂u
∂u
L’une au moins de ces composantes est non nulle car ϕ(u0 , v0 ) est un point régulier de S. SupD(ϕ1 , ϕ2 )
(u0 , v0 ) et considérons Φ = (ϕ1 , ϕ2 ) : U → R2 . Alors
posons que c’est le cas pour
D(u, v)
D(ϕ1 , ϕ2 )
Φ ∈ C 1 (U ) et det MΦ (u0 , v0 ) =
(u0 , v0 ) 6= 0 donc, d’après le théorème d’inversion
D(u, v)
locale, il existe U0 voisinage ouvert de (x0 , y0 ) dans U tel que V0 = Φ(U0 ) soit ouvert et Φ|U0
soit un C 1 -difféomorphisme (global) de U0 sur V0 .
On a donc, pour tout M (x, y, z),
M ∈ ϕ(U0 ) ⇐⇒ ∃ (u, v) ∈ U0 tel que (x, y, z) = ϕ(u, v)
⇐⇒ ∃ (u, v) ∈ U0 tel que (x, y) = Φ(u, v) et z = ϕ3 (u, v)
⇐⇒ (x, y) ∈ V0 et z = ϕ3 (u, v) avec (u, v) = Φ−1
|U (x, y)
0
⇐⇒ (x, y) ∈ V0 et z = (ϕ3 ◦ Φ−1
|U )(x, y).
0
La surface ϕ(U0 ) apparait donc comme le graphe de g = ϕ3 ◦ Φ−1
|U , définie sur V0 et de classe
0
C 1.
On peut donc définir un plan tangent P(u0 ,v0 ) et une droite normale D(u0 ,v0 ) au point de paramètre (u0 , v0 ) de S.
∂g
∂g
Pour obtenir leurs équations, on doit calculer
(x0 , y0 ) et
(x0 , y0 ). Or :
∂x
∂y
∂g
∂g
(x0 , y0 ),
(x0 , y0 )
= Mg (x0 , y0 ) = Mϕ3 (u0 , v0 ) × MΦ−1 (x0 , y0 )
|U
∂x
∂y
0
−1
= Mϕ3 (u0 , v0 ) × [MΦ (u0 , v0 )]


∂ϕ1 ∂ϕ1 −1

∂v 
∂ϕ3 ∂ϕ3
 ∂u

=
,
×

∂u ∂v
 ∂ϕ

∂ϕ
2
2
∂u
∂v


∂ϕ2
−∂ϕ1

∂v 
1
∂ϕ3 ∂ϕ3
 ∂v

= D(ϕ ,ϕ )
,
×

1 2
∂u ∂v
 −∂ϕ
∂ϕ1 
2
D(u,v)
∂u
∂u
1
D(ϕ2 , ϕ3 )
D(ϕ3 , ϕ1 )
= D(ϕ ,ϕ ) −
; −
1 2
D(u, v)
D(u, v)
D(u,v)
On trouve donc pour vecteur normal tout vecteur non nul colinéaire à



D(ϕ2 ,ϕ3 )
D(ϕ3 ,ϕ1 )
D(u,v)
D(u,v)
; D(ϕ ,ϕ ) ;
D(ϕ1 ,ϕ2 )
1 2
D(u,v)
D(u,v)
1
5.5. SURFACE DE R3 DÉFINIE PAR UNE REPRÉSENTATION PARAMÉTRIQUE
81
donc en particulier :
−
→
∂ϕ
D(ϕ2 , ϕ3 ) D(ϕ3 , ϕ1 ) D(ϕ1 , ϕ2 )
∂ϕ
;
;
(u0 , v0 ) ∧
(u0 , v0 ).
N =
=
D(u, v)
D(u, v)
D(u, v)
∂u
∂v
82
CHAPITRE 5. ELÉMENTS D’ÉTUDE LOCALE DE SURFACES DE R3
Bibliographie
[CAR] Henri CARTAN, Cours de calcul différentiel, HERMANN.
[GON-TOS] Stéphane GONNORD, Nicolas TOSEL, Thèmes d’analyse pour l’agrégation : calcul
différentiel, ELLIPSES.
[GOU] Xavier GOURDON, Les maths en tête, mathématiques pour M’, Analyse, ELLIPSES.
[KOM] Vilmos KOMORNIK, Précis d’analyse réelle, ELLIPSES.
[MON] Jean-Marie MONIER, Analyse tomes 1, 3 et 4, DUNOD.
[POM] Alain POMMELLET, Agrégation de Mathématiques : Cours d’Analyse, ELLIPSES.
[ROU] François ROUVIÈRE, Petit guide de calcul différentiel à l’usage de la licence et de l’agrégation, CASSINI.
[RUD1] Walter RUDIN, Principes d’analyse mathématique, DUNOD.
[RUD2] Walter RUDIN, Analyse fonctionnelle, DUNOD.
83
Téléchargement