Introduction
Ces notes de cours sont une introduction aux méthodes numériques de résolution de problèmes
d’optimisation. Ces problèmes d’optimisation sont omniprésents dès la modélisation dans l’essentiel
des branches des applications des mathématiques, telles que la physique (minimisation d’énergie),
l’industrie (optimisation de la qualité de production), l’économie (optimisation de plan de production
et de distribution), la finance (optimisation de portefeuille), le traitement d’image, la biologie, etc.
D’autre part, de nombreux problèmes ne se formulent pas dès la modélisation par des problèmes
d’optimisation, mais leur résolution numérique se fait souvent via la transformation du problème
en un problème d’optimisation. L’exemple le plus classique, et qui servira de base à de nombreuses
reprise dans ce cours est le suivant : si best un vecteur de Rnet A∈S+
n(R)une matrice symétrique
définie positive, alors résoudre Ax +b=0 est équivalent à minimiser 1
2hx,Axi+hb,xisur Rn.
L’objectif de ce cours est de donner un aperçu de certaines méthodes de résolution de problèmes
de minimisation continue non-linéaires. Il s’agit des méthodes dites « méthodes de descente », qui
reposent sur le principe suivant : on part d’un point x∈Rn, et on le déplace pas à pas en prenant soin
que la direction dans laquelle on se déplace à chaque étape est bien une direction de descente (dans
laquelle la fonction à minimiser diminue localement). Comme on cherche à utiliser les informations
locales au voisinage du point à chaque étape, on aura besoin de régularité sur la fonction, de pouvoir
par exemple approximer numériquement son gradient. En effet, on sait que le gradient est un vecteur
dont la norme est la plus grande pente et l’orientation est dirigée par cette pente, donc un vecteur
opposé au gradient donne une direction de descente. Suivant le type de problème que l’on cherche
à étudier, on verra que certaines méthodes sont plus efficaces que d’autres.
Il existe d’autres types de problèmes d’optimisation qui se traitent différemment et qui ne sont pas
l’objet de ce cours : problèmes d’optimisation linéaire (qui se traitent avec des méthodes différentes,
comme la méthode du simplexe), problèmes d’optimisation discrète (lorsque les variables ne sont
pas continues, qui sont en général plus difficiles).
Le plan du cours est le suivant : on commencera dans un premier chapitre par présenter des
méthodes numériques pour résoudre des problèmes d’optimisation continue à une dimension (sur un
intervalle de R). On étudiera ensuite dans le deuxième chapitre les méthodes de descente de gradient
(lorsque la direction de descente est simplement donnée par l’opposé du gradient). Le troisième
chapitre portera sur les méthodes de gradient conjugué, et s’il reste un peu de temps, on s’intéressera
à des méthodes numériques pour résoudre des problèmes d’optimisation avec contraintes.
Ces notes de cours sont inspirées du cours donné par François-Xavier Vialard les années précé-
dentes, dont les notes sont disponibles sur sa page web : http://www.ceremade.dauphine.fr/
~vialard/CoursOptimisationMai.pdf.
2