Contrôle et validation des calculs numériques
Les méthodes de gradient
Examen TP noté - tous documents autorisés - durée 1h30
Les méthodes de gradient (ou méthodes de descente) désignent des algorithmes de calculs d’optimisation per-
mettant la résolution de fonctionnelles convexes. Il s’agit de trouver un minimun aussi appelé point selle d’une
fonctionnelle. L’objectif du TP consiste à mettre en place les algorithmes du gradient à pas fixe et à pas optimal.
Nous nous plaçons dans l’espace euclidien Rnoù n est supérieur ou égal à 1. Nous appelons fla fonction à
minimiser, nous avons,
f(~x) = 1
2~xtA~x −~
bt~x ∀~x ∈Rn(1)
1. Gradient à pas fixe
Algorithme
{~
dk=−∇f(~xk)
~xk+1 =~xk+ρ~
dk
(2)
~
dkest la direction de descente, il s’agit simplement de la dérivée de la fonction fcomptée négativement. ρest un
paramètre de relaxation choisi arbitrairement dans ]0,1[. L’algorithme converge sous la condition que fest deux
fois dérivable.
Application Nous considérons l’exemple de la fonction fsuivante définie de R2dans R,
f(~x) = −2x1x2−2x2+x2
1+ 2x2
2(3)
– Evaluer Aet bafin de retrouver la formulation de l’équation 1. Indication : évaluer ∇fet ∇2f,
– mettre en place l’algorithme du gradient à pas fixe afin de déterminer le minimum de f, considérer deux
critères d’arrêt, l’un sur le nombre d’itérations, l’autre sur la norme infinie de ~
dk.
– le tester avec CADNA.
2. Gradient à pas optimal
Algorithme
{~
dk=−∇f(~xk)
~xk+1 =~xk+tk~
dk
(4)
tkest ici un paramètre à évaluer permettant d’optimiser la direction de descente. Nous choisissons tk tel que,
f(~xk+tk~
dk)≤f(~xk+t~
dk)∀t > 0(5)
Le paramètre tkest évalué à chaque itération k de sorte à minimiser la fonction φ(t) = f(~xk+t~
dk), en d’autres
termes, φ0(tk) = 0. On démontre,
tk=||~
dk|2
~
dt
kA~
dk
(6)
Application
– Reprendre les questions de la première partie dans le cas du gradient à pas optimal,
– effectuer une comparaison avec le gradient conjugué, qu’en déduisez-vous ? (bonus).