où, pour tout k∈N,∇F(xk)est le gradient de Fen xk,Ak∈RN×Nest une matrice symétrique définie positive et
(γk, λk)∈]0,+∞[2. De plus, pour tout x∈RN,proxγ−1
kAk,R(x)est l’opérateur proximal de Ren xrelatif à la métrique
induite par γ−1
kAk[5], i.e. l’unique minimiseur de R+1
2 · −x2
γ−1
kAkoù, pour tout y∈RN,y2
γ−1
kAk=y⊤(γ−1
kAk)y.
On remarque que, d’une part, si R≡0, alors on retrouve un algorithme de gradient préconditionné. D’autre part, si,
pour tout k∈N,Ak= IN, où INest la matrice identité de RN, alors on retrouve l’algorithme FB. En se limitant au cas
où Fest convexe, la convergence de l’algorithme (1) a été démontrée dans [5]. Cependant, aucune méthode constructive
n’a été présentée pour choisir les matrices (Ak)k∈N.
Dans cet article, nous proposons une stratégie de construction des matrices (Ak)k∈Nbasée sur une approche MM. Ce
choix conduit à un nouveau résultat de convergence pour l’algorithme VMFB, qui reste valide dans le cas où la fonction
Fest non convexe. Nous illustrons les performances de l’approche proposée sur un exemple de reconstruction d’image.
2 Méthode proposée
Choix des métriques. Nous proposons de définir les matrices (Ak)k∈N, servant à définir la métrique variable de
l’algorithme (1), en utilisant la théorie MM. Pour tout k∈N, la matrice Akest choisie de façon à ce que la fonction
quadratique Q(·, xk) = F(xk) + (· − xk)⊤∇F(xk) + 1
2(· − xk)⊤Ak(· − xk)soit une fonction majorante de Fen xksur le
domaine de R, c’est-à-dire :
(∀x∈dom R)F(x)≤Q(x, xk)et F(xk) = Q(xk, xk).(2)
Par ailleurs, Akest supposée symétrique et bornée au sens où il existe (ν, ν)∈]0,+∞[2, avec 0< ν ≤ν, tel que, pour
tout x∈RN,νx2≤ x2
Ak≤νx2. Remarquons qu’il est toujours possible de construire de telles matrices. En
particulier, (2) est vérifiée si Ak=LIN, où Lest la constante de Lipschitz de ∇F([1, Prop. A.24]).
Théorème de convergence. La construction proposée pour les matrices (Ak)k∈Nconduit au résultat de convergence
suivant décrivant le comportement asymptotique de la suite (xk)k∈Ngénérée par l’algorithme (1) lorsque Fn’est pas
nécessairement convexe.
Théorème 1. Supposons Fde gradient L-Lipschitz sur dom Ret Rconvexe, propre, sci sur RNet continue sur
son domaine. De plus, supposons que Gest coercive et vérifie l’inégalité de Kurdyka-Łojasiewicz [7]. Si les conditions
suivantes sont vérifiées :
(i) 0<infl∈N(λlγl)et supl∈N(λlγl)<2,
(ii) pour tout k∈N,0<infl∈Nλl≤λk≤1,
(iii) il existe η∈]0,1] tel que, pour tout k∈N,G(xk+1)≤(1 −η)G(xk) + ηG(yk),
alors limk→+∞xk= ˆx, où ˆxest un point critique de G.
Remarquons que si, pour tout k∈N,xk+1 est choisi tel que G(xk+1)≤G(yk)(c’est le cas en particulier pour
λk≡η≡1), alors la condition (iii) est vérifiée. D’autre part, l’opérateur proximal n’étant pas toujours calculable de
manière explicite ([6]), le Théorème 1 est démontré dans [8] pour une version inexacte de l’algorithme (1).
3 Application au problème de reconstruction d’image
Modèle. Afin d’illustrer les performances de l’algorithme VMFB, nous considérons un problème de reconstruction
d’image en présence de bruit gaussien dépendant. Les observations sont de la forme :
(∀m∈ {1, . . . , M})z(m)= [H¯x](m)+qα(m)[H¯x](m)+β(m)w(m),(3)
où H∈[0,+∞[M×Nest une matrice de projection, [Hx](m)est la m-ème composante de Hx,(α(m))1≤m≤M∈[0,+∞[M,
(β(m))1≤m≤M∈]0,+∞[Met (w(m))1≤m≤Mest une réalisation d’un vecteur aléatoire gaussien de moyenne nulle et
de matrice de covariance IM. Le terme d’attache aux données est défini, pour tout x∈[0,+∞[N, comme étant la
log-vraisemblance des données : F(x) = 1
2PM
m=1 ([Hx](m)−z(m))2
α(m)[Hx](m)+β(m)+ log(α(m)[Hx](m)+β(m)). Les matrices (Ak)k∈N
associées sont construites suivant une approche similaire à [9]. D’autre part, une régularisation hybride est considérée :
R=ι[xmin,xmax]N+PJ
j=1 ϑ(j)|[W·](j)|, où ι[xmin,xmax]Nest la fonction indicatrice du pavé [xmin, xmax]N,W∈RJ×Net
(ϑ(j))1≤j≤J∈[0,+∞[J.