Actes du Congrès International des Mathématiciens
Vancouver, 1974
Sur la
Théorie
du
Contrôle
J. L. Lions
1.
Introduction. Soit un système dont
l'état
y(s) =
y(s;
v) à l'instant
s9
lorsqu'on
applique le
contrôle
v,
est un vecteur de
Rn
donné par la solution de l'équation
dif-
férentielle
:
(1.1) dy/ds =
g(y;
v)9
s > t, y(t) =
x9
x e
Ä»,
où g est une fonction continue
Lipschitzienne
donnée pour y e
Rn
et où
v
est une
fonction à valeurs dans
<%x
a
Rm.
Admettant que l'on est dans une situation
où(1.1)
définit^
de manière unique,
on considère la
fonction
coût J(v) donnée par:
(1.2)
J(v)
=
\Jf(y(s;
v), s,
v(s))ds9
T donné fini ou non,
où / est donnée; on cherche
(1.3)
inf
J(v)9
v e ensemble
^ad
des contrôles admissibles,
des fonctions à valeurs dans
%x.
Une famille classique de problèmes de contrôle consiste en (1.3) avec t
to,
x
s=
xQ
fixés et en la recherche de
Vo
(s'il existe) réalisant le minimum dans (1.3)
(le
contrôle
optimal),
Dans le cas "sans contrainte" où
qix
=
Rm,
des conditions
suflisantes
ou néces-
saires et suffisantes, sont données par le
système
d'optimalité
dfEuler9
étendu au cas
avec contraintes par L, S. Pontryagin et son école (cf. Pontryagin,
Boltjanskiï,
Gamkrelidze et Mishenko [1]), dans
le Principe du maximum
(cf. aussi Hestenes
[1]).
Une autre approche, en quelque sorte duale, consiste à considérer dans (1.3) x
et t comme
variables
et donc à introduire
(1.4)
u(x9t) =
mfJ(v)9
ve<%,
et à essayer:
© 1975, Canadian Mathematical Congress
139
140
J. L.
LIONS
(i) de caractériser directement u,
(ii)
d'en déduire, si possible, le contrôle optimal, s'il existe.
C'est
la méthode de
Hamilton-Jacobi,
étendue, de façon généralement formelle, par Bellman [1] aux
cas stochastiques en particulier, et par Isaacs
[1]
au cas
des
jeux.
La fonction u satisfait formellement à une équation aux dérivées partielles non
linéaire hyperbolique
(1.5)
-
If-
- inf
01 ;
e?/,
£gi(x,X)^+f(x,t,X)
= 0,
avec la condition
"initiale"
(on intègre en
/
dans le sens rétrograde):
(1.6) u(x, T)
=
0.
On doit rajouter des
conditions
aux limites lorsqu'on l'on introduit des con-
traintes sur
l'état.
Lorsque l'on remplace (1.1) par une
équation différentielle
stochastique,
(1.7) dy =
g(y;
v)ds
H-
a dw(s)
où a > 0,
w
= processus de Wiener standard dans
Rn,
la fonction coût devient:
(1.8) J(v) =
E[\Jf(y(s,
v)9s,
v(s))
ds],
E = espérance mathématique;
la fonction
w,
encore définie par
(1.4),
satisfait alors à l'équation non linéaire para-
bolique
EgÀx,X)^-+f(x,t,X)
= 0
(1.9)
-*-*
au-M
Ol
L
teWi
avec (1.6) et d'éventuelles conditions aux limites en cas de contraintes sur
l'état.
S'appuyant alors, soit sur des méthodes
probabilistes,
soit sur des méthodes
d'équations aux dérivées partielles et d'analyse fonctionnelle, on peut
étudier
sous des hypothèses
convenables—les
problèmes (1.5), (1.9); nous renvoyons au
livre de
W.
Fleming et R. Rishel
[1]
et à la bibliographie de cet ouvrage.
Notre objet est de donner quelques indications sur les situations suivantes
:
(i) étude des cas où le contrôle dans (1.1)
n'est
plus une varabile continue, mais
un
temps
d'arrêt
ou un
contrôle
impulsionnel;
(ii) étude des cas où l'équation
d'état
(1.1) ou (1.7) n'est plus une équation
dif-
férentielle, mais une
équation
aux dérivées
partielles déterministe ou
stochastique.
REMARQUE
1.1. Ces extensions sont motivées
par
dc
nombreuses
applications,
dont nous mentionnons
quelques-unes
(consulter aussi la bibliographie des travaux
ci-après) :
pour (i), problèmes d'économie et de gestion, cf. Bensoussan et Lions [7];
pour (ii), problèmes de contrôle de processus physiques, cf. Butkowski [1],
P.K.C.Wang
[1],
Boujot, Mercier et
Temam
[1],
Kuroda
[1],
Yvon [1];
problèmes chimiques ou biochimiques, cf. Kernevez et Thomas [1],
usage de l'énergie
des
marées,
cf. G. Duff
[1],
problèmes de mécanique (optimum design), cf. Pironneau
[1],
LA THÉORIE DU CONTROLE 141
problème de pollution, cf. W. Hullett
[1],
etc.
2.
Temps d'arrêt et inéquations variationnelles.
2.1,
Le
cas
stationnaire.
Soit
G
un ouvert de
Rn9
de frontière
T7;
Vètat
est donné
par l'équation de
Ito :
(2.1) dy = g(y)ds +
adw(s)9
y(0) =
x, x
e
0,
dont la solution est notée
y%
(s).
La fonction
coût est:
(2.2)
J(T)
=
E(lle~«*f(yx(s))ds),
cc>
09
où
T
=
variable de contrôle = temps
d'arrêt,
0
g
T
S
0(x)9
où d(x) est le temps
d'atteinte (aléatoire) de 0.
Le problème de
temps
d'arrêt
optimal
consiste en la recherche de
(2.3)
i#(*) «= inf
J(T),
O^TS
d(x)9
et de la fonction
%
(si elle existe) réalisant le minimum dans (2.3).
On démontre que la fonction
upeut être
caractérisée par
l'ensemble
des inégalités
suivantes
(Bensoussan et Lions [1], Fleming
[1]) ;
- ~-
Au -
t g
fa)
TST
+
au
- /
S
0, u
£
0,
(2.4)
,=1 '"
[-
>^-âu-
gi(x) -|^
+ au
-/W
0 dans
0,
avec la condition aux limites
(2.5) u = 0 sur T7.
2.2.
Inéquations variat\onnelles (en abrégé
I.V.).
La résolution directe du système
(2.4),
(2.5) repose sur la technique des I.V. (Lions et Stampacchia [1]); on suppose
pour simplifier que 0 est borné (sinon, cf. Bensoussan et Lions [1]).
Soit
Hl((9)
l'espace de Sobolev d'ordre
1
des fonctions v à valeurs réelles telles
que v,
dv/dxx,
•••,
dv/dxn
e
L?(@)\
pour
w,
y e
Hl((9)9
on pose
Q
afa v) =
^r-
fflgrad wgrsidvdx
(2.6) 2
-
S Jo g
fa)
^ v
dx +
alo
uv dx;
soit K l'ensemble convexe fermé non vide de
H\0)
formé des fonctions
v
telles que
(2.7) v
=
0 sur
T7,
v
^
0 p.p. dans
0.
Alors (2.4), (2.5) peut être formulé sous la forme de 1' I.V.
:
trouver u e K telle
que
(2.8)
a(u9
V-II)
^
(/,
v-w)
V
veK9
oix(f9
v)
=
\Qfvdx.
Si l'on suppose que:1
hypothèse
non indispensable.
142
J. L.
LIONS
(2.9) a +
-1 S -^ ^
0 dans
0
alors la forme
a(u,
v)
est coercive au
sens :
(2.10)
a(v9
v)
^ c I v
1^0),
c>0,VveJP,
et, d'après Lions et Stampacchia,
loc.
cit., (2.8) admet une
solution
unique.
On obtient ainsi une solution
"faible"
de (2.4); mais on peut passer de là à des
solutions
'fortes"',
c'est
le problème de la
régularité
des solutions des I.V., cf. H.
Brezis et Stampacchia
[1],
H. Brezis [1].
2.3.
Cas
d'évolution.
L'état est maintenant donné par:
(2.11)
dy = g(y)ds +
adw(s)9
y(t)
=
x9xe(99s>
t9
dont la solution est
yXtt(s)
; la fonction coût est donnée par :
(2.12)
J(z) =
E(\\e-«^f(yXti(s\
s) ds)
et l'on cherche
(2.13) ufa t) =
inf/(v),
T
temps d'arrêt inférieur au temps d'atteinte de
O..
On démontre (Bensoussan et Lions [1]) que u est
caractérisée par
l'ensemble
des
inégalités
(2 14) ''
s,
(r»-*+-t«-&
+ —fy-o
dans
Ö
x
]
tQ,
+ oo
[
(to
choisi quelconque), avec la condition aux limites analogue
à (2.5) et une condition "initiale" de type (cf. Bensoussan et Lions,
loc.cit,
pour
des énoncés précis) "w ne croît pas trop vite lorsque t
->
+ oo".
Par les
techniques
des
I.
V.
d'évolution,
on démontre
l'existence
et
l'unicité
de
u solution de (2.14) satisfaisant aux conditions aux limites et initiales.
2.4.
REMARQUES.
(1) Pour l'extension de ce qui précède au cas des jeux, cf.
Bensoussan et Friedman
[1],
(2)
Dans le cas "a
= 0", on aboutit à des I.V.
pour des opérateurs
du 1er
ordre
et
en faisant o
-
0, on obtient des résultats sur
les perturbations singulières dans
les
L
V.
(Bensoussan et Lions [2]).
(3) Pour des résultats supplémentaires, en particulier de régularité, cf. Friedman
fi]
et la bibliographie de ce travail.
3.
Surfaces libres.
3.1.
Problème
de Stefan. Considérons un cas très particulier de
(2.14):
n
1,
o
<\/2,
= 0, a = 0, et inversons le sens du temps (ce qui est losible); le
problème devient:
LA THÉORIE DU CONTROLE
143
avec les conditions aux limites et initiales.
Soit (formellement) x = s(t) la courbe séparant la région u < 0 de
continuation
de la région u
;=
0
de
saturation
;
dans la région
^
où u < 0, on
a :
(3.2)
du/dt -
d2u/dx*
*=
f9
et sur
la surface libre
x
?=
s(t),
on a:
(3.3)
u(s(t),
t)
=
0,
(3.4)
du(s(t)9
t)ldx
p=
0.2
Si
l'on
introduit alors
la fonction
(3.5)
w = 9w/3f
on voit que, dans
#;
(3.6)
dw/dt
-
32^/3*2 ^
df/dt
avec sur la surface libre x
,s(f) :
(3.7)
w(s(t),
t)
=
0,
(3.8)
dw(s(t)9t)/dx=fs'.3
La recherche de
w
solution de
(3.6),
(3.7), (3.8) est un cas particulier du problème
classique de Stefan.
La démarche suivie par, en particulier, McKean [1], Grigelionis et Shiryaev [1],
van Moerbeke
[1],
[2]
est de
ramener
les
problèmes des inégalités aux
dérivées
partiel-
les du type
(2.14) au
problème de
Stefan.
La technique des I.V. rend cette transformation inutile et
l'idée
précédente peut
au contraire être utilisée dans la direction
inverse:
Si l'on
a à
résoudre
le
problème de
Stefan (3.6), (3.7), (3.8) (et avec une condition initiale), on introduit u par (3.5),
(3.3) et
on vérifie alors que u est
caractérisé par
une
I.V.
;
cf. G. Duvaut
[1]
pour une
situation plus générale.
3.2.
Réduction
de
problèmes
de
surfaces
libres à des I.V. L'idée précédente de
réduction, par changement de fonction inconnue, de problèmes de surfaces libres
à des I.V. a été introduite (dans une situation plus délicate) par C. Baiocchi
[1],
[2]
à propos
de problèmes
d'infiltration.
Par
des
adaptations convenables, cette méthode
a été appliquée par H. Brezis et G, Stampacchia [2], H. Brezis et G. Duvaut [1],
J. F. Bourgat et G. Duvaut
[1],
à des problèmes d'hydrodynamique. Une question
générale est
alors :
Problème
1. Quels sont les problèmes de frontière libre que l'on peut réduire a
des I.V.?
4.
Contrôle
impulsionnel
et inéquations
quasi-variationnelles,
4.1.
Cas
stationnaire.
L'état
est donné dans
Rn
par
2Cela
utilise la
"régularité99
de u.
3wx
=
utx\
d'après (3.4)
uix
+
uxx
s'
-
0 et utilisant (3.2)
utx
p=
(/-
ut)sf
*=
fs'
sur la courbe
x = s(t) d'où (3.8).
1 / 16 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !