Comparaison méthodes de recherche de minimum local
Mickaël SAUVAGE Mémoire de mathématiques Page 5 sur 13
2. La méthode du gradient conjugué
La méthode du gradient conjugué utilise, comme son nom l'indique, le gradient de la
fonction pour déterminer la direction de la recherche du minimum locale. C'est une méthode
itérative tout comme la méthode du gradient, mais elle utilise un algorithme pour que la
direction de recherche soit optimisée. Cette direction est déterminée en fonction du gradient
au point Xn mais aussi en fonction du gradient du point précédent Xn-1, c'est pour cette
raison que l'on parle de gradient conjugué.
Pour la première itération, la direction choisie correspond à la valeur négative du
gradient :
Pour réduire le nombre d'itération, le point Xn+1 est choisi en trouvant le minimum de
la fonction dans la direction déterminée précédemment.
Une méthode pour trouver la valeur minimale de f(xk+1) est de calculer l'ensemble des
points décrit par l'équation ci dessus pour k [0 ; 1] avec un pas déterminé. On calcul
ensuite l'ensemble des f(xk+1). On conserve finale xk+1 permettant d'obtenir le minimum de
f(xk+1).
La direction suivante est déterminée en fonction de la direction précédente (conjugué
de l'une par rapport à l'autre). La méthode la plus courante consiste à combiner la direction
précédente avec le calcul du gradient au point xk+1 pour calculer la nouvelle direction :
Il existe plusieurs versions de la méthode du gradient conjugué, elles se distinguent par
la manière dont la constante pk est calculée.
Voici la méthode de calcul de Fletcher-Reeves :
Pk représente alors le rapport entre la norme au carré du gradient actuel et la norme au
carré du gradient précédent.
Voici la méthode de calcul de Polak-Ribiére :