sont en général plus difficile que les problèmes d’optimisation continue lorsque ces
derniers font intervenir des fonctions lisses (fonction objectif et contraintes). En effet,
on peut avoir une information locale par la connaissance de la dérivée, ce qui n’est pas
possible dans le cas discret.
Ces problèmes d’optimisation sont parfois contraints comme dans l’exemple (1.1).
Dans cette exemple, la fonction objectif et les contraintes sont linéaires. Tout autre
problème rentre dans la catégorie programmation non-linéaire.
On ne s’intéressera dans ce cours qu’à l’optimisation continue non linéaire. De
plus, on ne s’intéressera qu’aux méthodes locales qui déterminent un minimum local,
i.e. une solution qui est un minimiseur dans un voisininage de cette solution.
Les méthodes que l’on va étudier sont les méthodes de descente qui sont basées sur
la technique suivante: Soit f:Rn7→ Rau moins C1, on dispose donc autour d’un
point x0d’une information locale
f(x) = f(x0) + h∇f(x0), x −x0i+o(kx−x0k).(1.2)
Les algorithmes de descente partent d’un point x∈Rnet itèrent le processus suivant:
•choisir une direction de descente dpour diminuer la valeur de la fonction objectif,
par exemple −∇f(x0),
•choisir un pas de descente αet mettre à jour xpar x+αd.
On appliquera ces méthodes sur différents problèmes jouets tel que l’optimisation
de portefeuilles:
Optimisation de portefeuilles: Un investisseur doit répartir ces in-
vestissements entre nactions Siqui ont un rendement riqui est aléa-
toire mais dont on connait l’espérance miet la matrice de covariance, i.e.
Q:= E[(ri−mi)(rj−mj)]. On cherche donc à optimiser un équilibre entre
le rendement du portefeuille et le risque associé (la variance du portefeuille),
ce qui conduit à l’optimisation sous contraintes de
f(x) = 1
2hx, Qxi−hx, mitel que (Pn
i=1 xi= 1
xi≥0∀i∈[1, . . . , n].
Ce modèle a été proposé par Markowitz. On peut préférer l’optimisation
suivante qui fixe un minimum de rendement pour le portefeuille et optimise
sur la variance:
f(x) = 1
2hx, Qxitel que
Pn
i=1 xi= 1,
Pn
i=1 xiri≥r ,
xi≥0∀i∈[1, . . . , n].
Ce type de problème est connu sous le nom de programmation quadratique et des
méthodes spécifiques ont été développées pour sa résolution. On s’intéressera dans
ce cours à des méthodes plus générales qui s’appliquent pour des fonctions régulières
quelconques.
Les formulations variationnelles sont souvent utilisées en traitement d’image. On
donne dans ce qui suit un exemple de régularisation H1:
Problème de zooming: Une image In,m est une matrice de taille n×m.
Il est naturel de modéliser cette image comme la représentation discrétisée
d’une fonction continue I: [0, a]×[0, b]7→ R. On considère que In,m
est donné par la projection pn,m dans L2de I: [0, a]×[0, b]7→ Rsur le
sous espace des fonctions constantes par morceaux sur une grille cartési-
enne. Etant donné l’image In,m, comment zoomer sur l’image, c’est à dire
représenter l’image par une matrice de taille N×Moù M > m et N > n?
3