140
J. L.
LIONS
(i) de caractériser directement u,
(ii)
d'en déduire, si possible, le contrôle optimal, s'il existe.
C'est
la méthode de
Hamilton-Jacobi,
étendue, de façon généralement formelle, par Bellman [1] aux
cas stochastiques en particulier, et par Isaacs
[1]
au cas
des
jeux.
La fonction u satisfait formellement à une équation aux dérivées partielles non
linéaire hyperbolique
(1.5)
-
If-
- inf
01 ;
e?/,
£gi(x,X)^+f(x,t,X)
= 0,
avec la condition
"initiale"
(on intègre en
/
dans le sens rétrograde):
(1.6) u(x, T)
=
0.
On doit rajouter des
conditions
aux limites lorsqu'on l'on introduit des con-
traintes sur
l'état.
Lorsque l'on remplace (1.1) par une
équation différentielle
stochastique,
(1.7) dy =
g(y;
v)ds
H-
a dw(s)
où a > 0,
w
= processus de Wiener standard dans
Rn,
la fonction coût devient:
(1.8) J(v) =
E[\Jf(y(s,
v)9s,
v(s))
ds],
E = espérance mathématique;
la fonction
w,
encore définie par
(1.4),
satisfait alors à l'équation non linéaire para-
bolique
EgÀx,X)^-+f(x,t,X)
= 0
(1.9)
-*-*
au-M
Ol
L
teWi
avec (1.6) et d'éventuelles conditions aux limites en cas de contraintes sur
l'état.
S'appuyant alors, soit sur des méthodes
probabilistes,
soit sur des méthodes
d'équations aux dérivées partielles et d'analyse fonctionnelle, on peut
étudier—
sous des hypothèses
convenables—les
problèmes (1.5), (1.9); nous renvoyons au
livre de
W.
Fleming et R. Rishel
[1]
et à la bibliographie de cet ouvrage.
Notre objet est de donner quelques indications sur les situations suivantes
:
(i) étude des cas où le contrôle dans (1.1)
n'est
plus une varabile continue, mais
un
temps
d'arrêt
ou un
contrôle
impulsionnel;
(ii) étude des cas où l'équation
d'état
(1.1) ou (1.7) n'est plus une équation
dif-
férentielle, mais une
équation
aux dérivées
partielles déterministe ou
stochastique.
REMARQUE
1.1. Ces extensions sont motivées
par
dc
nombreuses
applications,
dont nous mentionnons
quelques-unes
(consulter aussi la bibliographie des travaux
ci-après) :
pour (i), problèmes d'économie et de gestion, cf. Bensoussan et Lions [7];
pour (ii), problèmes de contrôle de processus physiques, cf. Butkowski [1],
P.K.C.Wang
[1],
Boujot, Mercier et
Temam
[1],
Kuroda
[1],
Yvon [1];
problèmes chimiques ou biochimiques, cf. Kernevez et Thomas [1],
usage de l'énergie
des
marées,
cf. G. Duff
[1],
problèmes de mécanique (optimum design), cf. Pironneau
[1],