Un algorithme de sous-gradient
pour les problèmes d’optimisation multi-objectifs
stochastiques réguliers
Fabrice Poirion & Quentin Mercier
Fabrice Poirion & Quentin Mercier Un algorithme de sous-gradient pour les problèmes d’optimisation multi-objectifs stochastiques réguliers1 / 30
Optimisation sous incertitudes
Problème d’optimisation avec incertitudes
min
x{f1(x, ξ(ω)),f2(x, ξ(ω)), ..., fn(x, ξ(ω))}
x∈ K ⊂ RN,ξ(ω)Rdun vecteur aléatoire qui modélise l’ensemble des incertitudes
apparaissant dans les nfonctions objectifs.
äLes incertitudes ne portent pas sur les variables x
äPour ωfixé on peut construire le front de Pareto qui correspond à un tirage d’une surface
aléatoire.
On s’intéresse ici au problème moyen :
Problème d’optimisation moyen
min
x{E[f1(x, ξ(ω))],E[f2(x, ξ(ω))], ..., E[fn(x, ξ(ω))]}
Fabrice Poirion & Quentin Mercier Un algorithme de sous-gradient pour les problèmes d’optimisation multi-objectifs stochastiques réguliers2 / 30
Optimisation sous incertitudes
Problème d’optimisation avec incertitudes
min
x{f1(x, ξ(ω)),f2(x, ξ(ω)), ..., fn(x, ξ(ω))}
x∈ K ⊂ RN,ξ(ω)Rdun vecteur aléatoire qui modélise l’ensemble des incertitudes
apparaissant dans les nfonctions objectifs.
äLes incertitudes ne portent pas sur les variables x
äPour ωfixé on peut construire le front de Pareto qui correspond à un tirage d’une surface
aléatoire.
On s’intéresse ici au problème moyen :
Problème d’optimisation moyen
min
x{E[f1(x, ξ(ω))],E[f2(x, ξ(ω))], ..., E[fn(x, ξ(ω))]}
Fabrice Poirion & Quentin Mercier Un algorithme de sous-gradient pour les problèmes d’optimisation multi-objectifs stochastiques réguliers2 / 30
Optimisation sous incertitudes
Problème d’optimisation avec incertitudes
min
x{f1(x, ξ(ω)),f2(x, ξ(ω)), ..., fn(x, ξ(ω))}
x∈ K ⊂ RN,ξ(ω)Rdun vecteur aléatoire qui modélise l’ensemble des incertitudes
apparaissant dans les nfonctions objectifs.
äLes incertitudes ne portent pas sur les variables x
äPour ωfixé on peut construire le front de Pareto qui correspond à un tirage d’une surface
aléatoire.
On s’intéresse ici au problème moyen :
Problème d’optimisation moyen
min
x{E[f1(x, ξ(ω))],E[f2(x, ξ(ω))], ..., E[fn(x, ξ(ω))]}
Fabrice Poirion & Quentin Mercier Un algorithme de sous-gradient pour les problèmes d’optimisation multi-objectifs stochastiques réguliers2 / 30
Cas fonction objectif régulière et n=1
x=Argmin
x∈K
J(x) ; J(x) = E[f(x, ξ(ω))]
Il existe un certain nombre d’algorithmes permettant de résoudre numériquement ce problème.
La base de ces méthodes est l’algorithme du gradient stochastique.
Ne nécessite pas le calcul de J(x)ni celui de J0(x), seulement celui de f0(x, ξ(ω)).
Méthode de descente:
xk+1=xk+tkdk;f(xk+1)f(xk)(1)
dk=−∇f(xk, ξk+1)(2)
Possibilité d’introduire des contraintes déterministes ou probabilistes
Résultats de convergence presque sure (et en moyenne d’ordre 2) de la suite aléatoire xk,
Nécessite un certain nombre d’hypothèses et notamment une portant sur la suite tk:
Xtk= +;Xt2
k<+
Fabrice Poirion & Quentin Mercier Un algorithme de sous-gradient pour les problèmes d’optimisation multi-objectifs stochastiques réguliers3 / 30
1 / 34 100%