Optimisation variationnelle discrète Application en traitement d’images biométriques et vision par ordinateur Camille Couprie, 3ème année de thèse Afin de procéder à l’identification d’individus, cette thèse contitue un premier pas vers l’exploitation de différentes modalités biométriques à disposition, ces modalités étant par exemple le visage et la démarche. Dans le contexte de la reconnaissance de démarche, il convient de pouvoir extraire en tout premier lieu la silhouette de la personne avant de repérer des caractéristiques particulières. L’étape de segmentation en analyse d’images biométriques est donc d’une importance primordiale. Une autre étape clef en analyse d’images, et particulièrement en imagerie issue de la vidéo-surveillance est celle de la restauration d’images bruitées, ou floues. Longtemps les méthodes de segmentation d’images ont été basées sur des critères locaux, les rendant très sensibles aux conditions initiales ou au bruit. C’est pourquoi depuis une dizaine d’années ont été développées des méthodes d’optimisation globale, que ce soit dans le cadre des graphes ou dans le continu. Les méthodes basées sur les graphes pondérés permettent d’exprimer les informations nécessaire à la segmentation comme des marqueurs, le gradient de l’image, ou la couleur des objets à segmenter par exemple, au moyen de poids dans le graphe. De ce fait, ces méthodes sont très générales et permettent l’optimisation de divers problèmes hormis la segmentation. On peut citer parmi les plus usitées les “graph-cuts”, le flot maximum continu, le “random walker”, et les plus courts chemins. La méthode des “graph cuts”, très utilisée en vision par ordinateur est basée sur la résolution d’un problème de flot maximum discret, mais les solutions souffrent d’un effet de blocs. Mon premier travail a été de développer une nouvelle formulation de ce problème, basée sur le problème continu, qui permet d’éviter l’effet de bloc. L’algorithme proposé permet d’optimiser plus rapidement le problème de flot maximum isotrope, et contrairement à la plus rapide des méthodes existantes pour résoudre ce problème, la convergence est garantie. De plus, la formulation proposée a été efficacement étendue pour la restauration d’image. La méthode proposée permet de débruiter/défloutter efficacement les images tout en préservant les contours des visages et des détails. Une approche classique pour ce problème passe par la minimisation de la variation totale. Grâce une approche duale contrainte et a un algorithme proximal parallèle, la méthode proposée permet de restaurer (débruiter, déflouter, fusionner) des images rapidement et préserve un meilleur contraste qu’avec la méthode de variation totale classique. Mon second travail a consisté à mettre en évidence l’existence de liens entre les méthodes de segmentation “graph-cuts”, le “random walker”, et les plus courts chemins avec un algorithme de segmentation par ligne de partage des eaux (LPE), qui n’avait été jusque là uniquement utilisé en segmentation d’image. Ces liens ont inspiré un nouvel algorithme de segmentation multi-labels rapide produisant une ligne de partage des eaux unique, moins sensible aux fuites que la LPE classique. Nous avons nommé cet algorithme “LPE puissance”. L’expression de la LPE sous forme d’un problème d’optimisation a ouvert la voie à de nombreuses applications possibles de la LPE en vision par ordinateur. Dans l’application à la diffusion anisotropique par exemple, l’algorithme LPE puissance initialement développé pour la segmentation d’images se révèle être généralisable à l’optimisation d’un problème non convexe, qui trouve son application principale en débruitage d’images. L’algorithme LPE puissance permet d’être appliqué également au delà du traitement d’images, par exemple pour reconstruire des surfaces délimitant des objets à partir de nuages de points bruités. La méthode proposée permet d’obtenir une surface lisse, optimalement ajustée par rapport à l’ensemble de points de façon très rapide par rapport aux méthodes existantes. Ceci peut être utilisé dans un contexte judiciaire par exemple pour la reconstruction 3D de scenes de crime, à partir de multiples photos et/ou de données laser. Le développement de nouvelles méthodes d’optimisation globales apportées dans cette thèse constitue d’importantes contributions en traitement d’images et même au delà, en vision par ordinateur. La généralité des méthodes proposées pourront servir l’analyse d’images biométriques en tirant partie de données qui n’ont pas encore été exploitées dans ce travail de thèse.