Résumé - Ixarm

publicité
Optimisation variationnelle discrète
Application en traitement d’images biométriques et vision par ordinateur
Camille Couprie, 3ème année de thèse
Afin de procéder à l’identification d’individus, cette thèse contitue un premier pas vers l’exploitation de
différentes modalités biométriques à disposition, ces modalités étant par exemple le visage et la démarche.
Dans le contexte de la reconnaissance de démarche, il convient de pouvoir extraire en tout premier lieu
la silhouette de la personne avant de repérer des caractéristiques particulières. L’étape de segmentation
en analyse d’images biométriques est donc d’une importance primordiale. Une autre étape clef en analyse d’images, et particulièrement en imagerie issue de la vidéo-surveillance est celle de la restauration
d’images bruitées, ou floues.
Longtemps les méthodes de segmentation d’images ont été basées sur des critères locaux, les rendant très
sensibles aux conditions initiales ou au bruit. C’est pourquoi depuis une dizaine d’années ont été développées des méthodes d’optimisation globale, que ce soit dans le cadre des graphes ou dans le continu. Les
méthodes basées sur les graphes pondérés permettent d’exprimer les informations nécessaire à la segmentation comme des marqueurs, le gradient de l’image, ou la couleur des objets à segmenter par exemple, au
moyen de poids dans le graphe. De ce fait, ces méthodes sont très générales et permettent l’optimisation
de divers problèmes hormis la segmentation. On peut citer parmi les plus usitées les “graph-cuts”, le flot
maximum continu, le “random walker”, et les plus courts chemins.
La méthode des “graph cuts”, très utilisée en vision par ordinateur est basée sur la résolution d’un problème de flot maximum discret, mais les solutions souffrent d’un effet de blocs. Mon premier travail a
été de développer une nouvelle formulation de ce problème, basée sur le problème continu, qui permet
d’éviter l’effet de bloc. L’algorithme proposé permet d’optimiser plus rapidement le problème de flot
maximum isotrope, et contrairement à la plus rapide des méthodes existantes pour résoudre ce problème,
la convergence est garantie.
De plus, la formulation proposée a été efficacement étendue pour la restauration d’image. La méthode
proposée permet de débruiter/défloutter efficacement les images tout en préservant les contours des visages et des détails. Une approche classique pour ce problème passe par la minimisation de la variation
totale. Grâce une approche duale contrainte et a un algorithme proximal parallèle, la méthode proposée permet de restaurer (débruiter, déflouter, fusionner) des images rapidement et préserve un meilleur
contraste qu’avec la méthode de variation totale classique.
Mon second travail a consisté à mettre en évidence l’existence de liens entre les méthodes de segmentation
“graph-cuts”, le “random walker”, et les plus courts chemins avec un algorithme de segmentation par
ligne de partage des eaux (LPE), qui n’avait été jusque là uniquement utilisé en segmentation d’image.
Ces liens ont inspiré un nouvel algorithme de segmentation multi-labels rapide produisant une ligne
de partage des eaux unique, moins sensible aux fuites que la LPE classique. Nous avons nommé cet
algorithme “LPE puissance”. L’expression de la LPE sous forme d’un problème d’optimisation a ouvert
la voie à de nombreuses applications possibles de la LPE en vision par ordinateur.
Dans l’application à la diffusion anisotropique par exemple, l’algorithme LPE puissance initialement développé pour la segmentation d’images se révèle être généralisable à l’optimisation d’un problème non
convexe, qui trouve son application principale en débruitage d’images. L’algorithme LPE puissance permet d’être appliqué également au delà du traitement d’images, par exemple pour reconstruire des surfaces
délimitant des objets à partir de nuages de points bruités. La méthode proposée permet d’obtenir une surface lisse, optimalement ajustée par rapport à l’ensemble de points de façon très rapide par rapport aux
méthodes existantes. Ceci peut être utilisé dans un contexte judiciaire par exemple pour la reconstruction
3D de scenes de crime, à partir de multiples photos et/ou de données laser.
Le développement de nouvelles méthodes d’optimisation globales apportées dans cette thèse constitue
d’importantes contributions en traitement d’images et même au delà, en vision par ordinateur. La généralité des méthodes proposées pourront servir l’analyse d’images biométriques en tirant partie de données
qui n’ont pas encore été exploitées dans ce travail de thèse.
Téléchargement