Minimisation de la variation totale
Dans ce TP, on consid`ere diff´erentes approches pour minimiser l’´energie :
ZΩ
|∇u|+1
2µkf−uk2(1)
(La notation |.|signifie la norme 2 d’un vecteur de dimension 2. On r´eserve la notation k.kpour les normes
de vecteurs de grande taille)
On rappelle que les d´efinitions des op´erateurs diff´erentiels discretis´es sont donn´ees dans le TP 3 et que vous
pouvez t´el´echarger les programmes matlab correspondants `a l’adresse http://perso.telecom-paristech.
fr/~ladjal/TPMVA/TP3/opdiff_TP3.zip
1 Fonctionnelle approch´ee : descente de gradient
Dans cette premi`ere partie, on regarde l’approximation suivante du mod`ele ROF :
ZΩp|∇u|2+2+1
2µkf−uk2(2)
Calculer le gradient de la fonctionnelle ci-dessus. Calculer le minimiseur par une m´ethode de descente de
gradient.
Pensez dans tous vos algorithmes `a calculer `a chaque ´etape l’´energie cible.
Choisir une image, la bruiter (et la sauver). D´eterminer empiriquement la vitesse de convergence de
l’algorithme.
2 Algorithmes de projection
On rappelle que la solution du mod`ele (1) est donn´ee par :
u=f−PGµ(f) (3)
Il suffit donc de savoir calculer la projection sur la boule de rayon µdans Gpour calculer u.
2.1 Algorithme d’Antonin Chambolle
On peut calculer la projection en utilisant une m´ethode de point fixe `a partir des relations de Kuhn et
Tucker.
Le probl`eme discret `a r´esoudre pour calculer la projection est le suivant :
min kµdiv (p)−fk2
X:p / |pi,j | ≤ 1∀i, j = 1, . . . , N(4)
On le r´esout par une m´ethode de point fixe : p0= 0, and
pn+1
i,j =pn
i,j +τ(∇(div (pn)−f/µ))i,j
1 + τ|(∇(div (pn)−f/µ))i,j |(5)
Si le param`etre τv´erifie τ < 1/8, alors µdiv (pn) converge vers PGµ(f) lorsque n→+∞.
En pratique, on observe la convergence pour τ < 1/4.
V´erifier num´eriquement ces assertions. Regarder la vitesse de convergence empirique.
1