Optimisation 2012-2013, ENSEEIHT
1 Optimisation sans contraintes
Dans cette partie, nous nous int´
eressons aux algorithmes pour la r´
esolution de probl`
emes
d’optimisation sans contraintes, et en particulier aux algorithmes de recherche lin´
eaire.
L’objectif de ce TP sera de r´
ealiser un code de minimisation locale, et d’´
evaluer ses perfor-
mances sur les fonctions de tests suivantes :
–f1(x, y) = 2(x+y−2)2+ (x−y)2.
–f2(x, y) = 100(y−x2)2+ (1 −x)2.
1.1 Algorithmes de descente
Un algorithme de descente est d´
etermin´
e par les strat´
egies de choix des directions de
descente successives, puis par le pas qui sera effectu´
e dans la direction choisie. Dans la
premi`
ere partie nous allons nous concentrer sur le choix de la direction de descente, et dans
la deuxi`
eme partie nous allons voir des m´
ethodes pour le calcul du pas, qui garantissent la
convergence globale.
Directions de descente
L’id´
ee est de remplacer la fonction f par un mod`
ele local plus simple, dont la minimi-
sation nous donnera une direction de descente.
1.1.1 Algorithmes de gradient `
a pas fixe ou pas optimal
Soit xk∈Rnl’it´
er´
e courant, on remplace f au voisinage de xkpar son d´
eveloppement
de Taylor au premier ordre :
f(xk+d)∼f(xk) + ∇f(xk)Td.
Une direction de descente possible est la direction de plus profonde descente d´
efinit par :
dk=−∇f(xk).
Le choix de la direction de plus profonde descente d´
efinit une famille d’algorithmes appel´
es
algorithmes de descente de gradient dont le sch´
ema est le suivant :
Algorithm 1.1 ALGORITHME DE DESCENTE
Donn´
ees : f,x0premi`
ere approximation de la solution cherch´
ee, > 0pr´
ecision de-
mand´
ee.
Sortie : une approximation de la solution du probl`
eme : minx∈Rnf(x)
1.Tant que le test de convergence n’est pas satisfait :
a. Direction de descente : dk=−∇f(xk).
b. Recherche lin´
eare : Choisir un pas sk`
a faire dans cette direction, tel que :
f(xk+1)≤f(xk).
c. Mise `
a jour : xk+1 =xk+skdk,k=k+ 1,
2. Retourner xk.
1.1.2 M´
ethode de Newton locale
Pour construire les m´
ethodes de gradient, nous avons remplac´
e f par son approximation
lin´
eaire au voisinage de l’it´
er´
e courant. Ces m´
ethodes ne sont pas tr`
es performantes, parce
qu’elles ne prennent pas en compte la courbure de la fonction (convexit´
e, concavit´
e ...) qui
est une information au second ordre.
2