République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique UNIVERSITE DES SCIENCES ET DE LA THECHNOLOGIE D ‘ORAN MOHAMED BOUDIAF FACULTE DES MATHEMATIQUES ET D’INFORMATIQUE DEPARTEMENT D’INFORMATIQUE Option : Simulation et intelligence artificielle Mémoire présenté par : DIB Soumeya Pour l’obtention du diplôme de magister en informatique Thème IDENTIFICATION DES INDIVIDUS PAR LES TECHNIQUES MULTIMODALEs : APPLICATION SUR LES IMAGES DU VISAGE. Devant le jury composé de : Présidente Mme. BELBACHIR Hafida Professeur USTOMB Rapporteur M. BENYETTOU Mohamed Professeur USTOMB Examinatrice Mme. FIZAZI Hadria Professeur USTOMB Examinateur MCA M. BELKADI Khaled Année universitaire: 2014 / 2015 USTOMB Remerciements Tout d’abord nous remercions Dieu Tout Puissant de nous avoir donné la force, la volonté, et le privilège d’étudier et de suivre le chemin de la science ; Ce travail n'aurait certainement pas pu voir le jour sans le concours de mon directeur de thèse Pr.BENYETTOU Mohamed, qu'il me soit permis de le remercier pour sa disponibilité, ses conseils précieux ainsi que pour la confiance qu’il m’a accordée en me laissant une grande liberté de pensée et de travail. Mes plus vifs remerciements aux membres du jury, je tiens à saluer votre disponibilité et je vous remercie infiniment pour avoir accepté d'examiner et évaluer mon travail, en dépit de vos attachements et la surcharge de vos emplois du temps. Vos lectures et appréciations contribueront, à coup sûr, à l'enrichissement des idées, déjà développées dans mon travail. Je tiens à remercier chaleureusement mon chef de travail M. CHAILA Abdelkader pour sa compréhension et son soutient. Mes remerciements vont également à toutes les personnes qui ont contribué de près ou de loin à l’élaboration de ce mémoire. Dédicaces : A mes parents A mes frères et sœurs A Riad et Nadir A tous ceux dont le cœur vibre au rythme de mes succès comme de mes échecs… Soumeya, DIB Table des figures Figure.1.1 : Structure d’un système biométrique……………………………………………. ................................. 09 Figure.1.2 : courbes FAR et FRR…………………………………………………………… ............................................. 10 Figure.1.3 : Courbe ROC : Variation du taux de Faux Rejets (FRR) en fonction du taux de Fausses Acceptations (FAR)…………………………………………………………………. .......................................................... 12 Figure.1.4 : Les différentes modalités biométriques…………………………...……………. ............................... 14 Figure.1.5: Les différents systèmes multimodaux………………………………………..….................................. 23 Figure.1.6 : Architecture de fusion en parallèle………………………………...…………… .................................. 24 Figure.1.7 : Architecture de fusion en série (incrémentale ou séquentielle)………………… .................... 25 Figure.1.8 : Les différents niveaux de fusion…………………………………………..…… ..................................... 27 Figure. 2.1 : Scores de compatibilité pour différentes technologies biométriques dans un système MRTD………………………………………………………………………………. ................................................................. 31 Figure. 2.2 :Principe de fonctionnement de base d’un système de reconnaissance faciale..... ........... 32 Figure.2.3 : Exemple de grille d'appariement. (a) grille de référence, (b) grille correspondante………………………………………………………………………………................................................... 36 Figure.2.4 : Elastic Bunch Graph Matching (EBGM)………………………………………. .................................... 37 Figure. 2.5 : Formes locales typiques des régions d'images utilisées par les méthodes basées sur l'apparence locale…………………………………………………………………...……. ................................................... 38 Figure.2.6 : Exemple de variation d’éclairage………………………………………………. ..................................... 40 Figure.2.7 : Exemples de variation de poses………………………………………………… ..................................... 41 Figure.2.8 : Exemples de variation d’expressions………………………………...………… .................................. 41 Figure.2.9 : Une classification des algorithmes principaux utilisés en reconnaissance faciale………………………………………………………………………………………… ....................................................... 42 Figure.3.1 : Exemple de représentation faciale en ondelettes de Gabor : les réponses en l'amplitude (a) et en phase (b) d'un visage avec 40 noyaux de Gabor (5 échelles, 8 orientations)……………………………………………………………………………………………………………………………..……..47 Figure.3.2 : Passage d’une image vers un vecteur dans un espace vectoriel de grande dimension. Les coefficients ai,j représentent les valeurs des pixels en niveau de gris, codés de 0 à 255…………………………………………………………………………………… ...............................................................…48 Figure.3.3 : Image moyenne et les 15 eigenfaces…………………………………….................................... ……..51 Figure.3.4 : Les quatre résultats de la projection d’une image sur Ev. (il y a deux vecteurs propres (u1 et u2) et trois classes d’individus connus (1, 2, 3))……………… ................................................……………..52 Figure.4.1 : Exemple d’un réseau de type perceptron multicouche…………………… ......................... …….58 Figure.4.2: Organigramme de l’algorithme MLP……………………………………… ..................................... ……59 Figure.4.3: réseau de KOHONEN……………………………………………..…............................................. …………61 Figure.4.4 : Les différentes topologies des cartes de KOHONEN……………….............................. ………….61 Figure.4.5 : Les possibilités de voisinage…………………………………… ........................................ ………………64 Figure.4.6 : Exemples d’utilisation des cartes de KOHONEN………………… ................................ …………..66 Figure.5.1 : Exemple d’images de la base de données face94……………………… ............................ ……….72 Figure.5.2 : Exemple d’images de la base de données ORL…………………………… ............................... ……73 Figure.5.3 : Conversion d’une image vers la base RGB……………………………… ................................. …..…75 Figure.5.4 : Les filtres de Gabor appliqués sur image du visage………………………… .............................….76 Figure.5.5 : Les étapes de l’approche proposée…………………………………...…… .................................. ……77 Figure.5.6 : Combinaison du filtre de Gabor, ACP et réseaux de neurones…………… ....................... ……78 Figure.5.7 : Exemple de la phase d’apprentissage du réseau de neurones MLP sous Matlab. ............ 78 Figure.5.8 : exemple de la carte rectangulaire (7*7)……………………………..……................................. …….80 Figure.5.9 : Voisinage d’ordre 2 pour une carte rectangulaire…………………………… .............................…81 Figure.5.10 : l’erreur par rapport au nombre d’itérations……………………… ............................ ……...…….83 Figure.5.11 : Temps d’exécution en fonction du nombre de neurones avec différentes distances pour la base ORL………………..………………………………………… ...................................................................... ………85 Figure.5.12: Temps d’exécution en fonction du nombre de neurones avec différentes distances pour la base BASE94……………………………..…………………… ................................................................... …………..85 Figure.5.13 : Fenêtre principale de l’application……………………………………… ................................... …….86 Figure.5.15 : La phase de reconnaissance, exemple de la base ORL…………...........................……………..87 Figure.5.16 : Phase de reconnaissance, exemple de BASE 94…………………….............................. …………88 Liste des Tableaux : Tableau.1.1 : Inconvénients des systèmes d’authentification classiques……………… ....................... ……06 Tableau.1.2 : Principales techniques Biométriques…………………………………… .................................. ……17 Tableau.1.3 : Répartition des articles sur les techniques biométriques soumis et acceptés dans la revue IEEE PAMI…………………………………………………………………… ........................................................ ……18 Tableau. 2.1 : Comparaison des propriétés des caractéristiques locales et des caractéristiques globales………………………………………………………………………………… ...................................................... …….39 Tableau3.1 : Etats des individus sur Ev………………………………………………............................................ ……53 Tableau.4.1 : Formules pour calculer la distance………………………………………… ....................................…65 Tableau.5.1 : Résultats de la reconnaissance avec (ACP, FG et MLP) de la base de données ORL……………………………………………………………………………...........................................................…………….83 Tableau.5.2: Résultats de la reconnaissance avec (ACP, FG, MLP et AG) de la base de données BASE94……………………………………………………………………… .................................................................. …….83 Tableau.5.3: Résultats de la reconnaissance en variant le nombre de couches cachées pour la base ORL…………………………………………………………………................................................................ ………………….84 Tableau.5.4: Résultats de la reconnaissance en variant le nombre de couches cachées pour la base BASE94…………………………………………………………………………… ...............................................................…..84 Tableau.5.5: Résultats de la reconnaissance avec les cartes SOM de la base de données ORL ........... 84 Tableau.5.6: Résultats de la reconnaissance avec les cartes SOM de la base de données ORL ........... 84 TABLE DES MATIERES : Introduction générale…………………………………………………………… ..................................................……………I Chapitre1 : La biométrie………………………………………………………………… ................................................ ……1 I. Introduction………………………………………………………………… .................................................……………02 II. Biométrie : Histoire, définitions et intérêt………………………………… .................................….………….03 II. 1-Histoire………………………………………………………… .............................................………………………03 II. 2- Définitions…………………………………………………………………………. ...........................................….03 II. 3- Intérêt……………………………………………………………………… ........................................... …………..04 III. Les systèmes Biométriques………………………………………...………………… ....................................…..07 III. 1- Structure et principe de fonctionnement d’un système biométrique……...……... ........... ……07 III. 2- Performances d’un système biométrique………………………………….......… ........................ …….09 V. Catégories de la Biométrie………………………………………………………. .................................... ……….14 V. 1- La biométrie physiologique ou morphologique…………………………..……… ....................... ……14 V. 2- La biométrie comportementale…………………………………………….. ............................. .…………16 VI. Place de la reconnaissance faciale parmi les autres techniques biométriques……..…… .......... .17 VII. Applications des systèmes biométriques……………………………………….… ............................ …..…..19 VIII. Les limitations des systèmes biométriques monomodaux…………………..………… .....................…19 IX. La multimodalité…………..…………………………………………………… ........................................... ………21 X. 1- Les différentes architectures multimodales possibles………………………… ................... ………22 X. 2- Les systèmes multimodales en série VS les systèmes multimodales en parallèle…...… ... ..23 XI. Les niveaux de fusion…………………………………………………… ........................................……...….……25 XII. Conclusion ……………………………………………………………………………..............................................….28 Chapitre 2 : La reconnaissance Faciale…………………………………………………... .................................... ......29 I. Introduction…………………………………………………………… .....................................................…………….30 II. Reconnaissance du visage…………………………………………………………...............................................…31 III. Principe de fonctionnement d’un système de reconnaissance faciale………… ................... ……..32 IV. Les méthodes utilisées pour la reconnaissance du visage………………………… ...........................…33 IV. 1- Les méthodes globales……………………………………………… ................................................. ……..33 IV. 2- Les méthodes locales……………………………………………………………… .......................................... 34 IV. 2-1- Méthodes locales basées sur les caractéristiques d'intérêt……………… ..................... ………35 IV. 2-2- Les méthodes locales basées sur l'apparence du visage……………………… ........................…37 IV. 3- Les méthodes hybrides……………………………………………… ................................................. …………..38 V. Principales difficultés liées à la reconnaissance de visage………………………… ..............................…40 V. 1- Changement d’illumination…………………………….…… ........................................... …………………….40 V. 2- Variation de pose……………………………………..………………… ............................................... …………40 V. 3- Expressions faciales………………………………..…………………… ............................................... …………41 V. 4- Présence ou absence des composants structurels……………………...…… ............................. ……...41 V. 5- Occultations partielles……………………..…………………………… ............................................. …………41 VI. Conclusion………………………..……………………………………… ................................................ …………..43 Chapitre 3 : Extraction des caractéristiques…………………………………………......................................... ……44 I. Introduction…………………………………………………………………… .................................................... ……..45 II. L’image…………………………………………………………………… ....................................................... ………….46 II. 1- Définition de l’image……………………………………………………… ............................................... ………46 II. 2- Représentation des images numériques………………………………… .................................... …………46 II. 3- Traitements d’image………………………………………………… ................................................. ………….46 III. Les filtres de Gabor…………………………………………………… ..............................................…………….46 IV. L’Analyse en Composantes Principales (ACP)………………………………… ................................... ……48 V. Conclusion………………………………………………………… ...................................................... …………………54 Chapitre 4 : ............................................................................................................................................ 55 I. Introduction…………………………………………………………… ................................................ ………..……….56 II. Notion d’apprentissage…………………………………………………… ...........................................……………..57 III. MLP (Multi Layer Perceptron)………………………………………………..................................... …………..57 III. 1- Architecture de MLP………………………………………………… ..........................................……………..58 III. 2-Algorithme MLP………………………………………………………… ............................................ …………..59 IV. Les cartes de KOHONEN………………………………………………...........................................……………...60 IV. 1- La théorie de KOHONEN………………………………………………… ....................................... ………….60 IV. 2- Les différentes topologies de la carte de KOHONEN…………………… ......................... …………..61 IV. 3- Caractéristiques des cartes de KOHONEN………………………………… .............................. ………..62 IV. 4- Processus des cartes de KOHONEN…………………………………………… .................................. …….62 IV. 5- Quelques domaines d’utilisation des cartes de KOHONEN……………………… .......................….66 IV. 6- Avantages…………………………………………………………………… ............................................ ………..66 IV. 7- Limites des cartes de KOHONEN…………………………………………… .................................... ………67 V. Conclusion………………………………………………………………………… .................................................. …….68 Chapitre 5 .............................................................................................................................................. 69 I. Introduction………………………………………………………………… ..................................................... ……….70 II. Matériel et données utilisés……………………………………………………… ............................................…..70 II. 1- Environnement et Matériel…………………………………………… ........................................……………..70 II. 2- Données utilisées…………………………………………………………………… ............................................. ..70 II. 2-1- La base de données Face94…………………………………………………… ....................................…..71 II. 2-2- La base de données ORL Database…………………………………………… .................................…..72 III. Plan du travail……………………………………………………………………… ............................................…...74 III. 1- Définition du problème et identification des buts………………………………… ..........................…74 III. 2- Préparation des données…………………………………………………… .................................... ………...74 III. 3- Prétraitement des données……………………………………… ................................... ……………………74 III. 4- Extraction des caractéristiques…………………………………………………… .......................... ………….75 III. 5- Réduction de la dimension………………………………….……… .................................... ……………..….77 III. 6- Classification…………………………………………………………………...… ............................................….77 IV. Application du MLP…………………………………………………………… ............................................... ……78 V. Application des cartes auto organisatrices de KOHONEN…………….. …….… ............................. …….80 VI. Résultats expérimentaux………………………………………………………..… ....................................... ……82 VI. 1- Résultats MLP……………………………………………………………............................................. .…………83 VI. 2- Résultats SOM………………………………………………………………… ............................................. ……84 VII. Présentation du logiciel……………………………………………………………… .........................................…86 VIII. Discussion et conclusion……………………………………………………………….......................................... 89 IX. Conclusion et Perspectives…………………………………………………………………. .................................. 90 X. Références Bibliographiques……………………………………………………………….. ..................................... 92 Introduction : Le progrès technologique en informatique a permis l‟informatisation quasi-totale de tous les domaines. Cette révolution technologique implique un nouvel enjeu : la sécurisation des bases de données, dans ce sens la biométrie en est un exemple pratique. En effet, la biométrie est de plus en plus présente dans la vie quotidienne : au travail, opérations bancaires, l‟accès à certains endroits militaires ou industriels. Il y a donc un intérêt grandissant pour les systèmes d'identification et d'authentification. Leur dénominateur commun, est le besoin d'un moyen simple, pratique, fiable, pour vérifier l'identité d'une personne, sans que cette personne se présente avec un badge ou un mot de passe, d‟aillerus, il est fréquent d'oublier le code d'accès, ou de perdre un badge, pour éviter cet oubli, beaucoup de personnes écrivent ce code sur un carnet, perdant ainsi toute confidentialité ainsi les mots de passe ou les badges peuvent être utilisés par des tiers non autorisés. Cela a conduit à développer les moyens biométriques qui permettent une authentification sûre, en effet, les technologies biométriques de reconnaissance apportent une sécurité beaucoup plus efficace aux utilisateurs, elles sont applicables à un large champ d‟applications (contrôle d‟accès, paiement sur Internet, login sur ordinateur, etc). Au cours de dernières années, la biométrie est devenue l'une des tâches les plus importantes qui intéressent plusieurs chercheurs en informatique. Dans les applications de contrôle d'accès, la biométrie constitue une solution efficace, simple et surtout pas chère, qui assure de bonnes performances. La biométrie est « la reconnaissance automatique d'une personne en utilisant des traits distinctifs ». Elle regroupe aussi « toutes les caractéristiques physiques ou traits personnels automatiquement mesurables, robustes et distinctives qui peuvent être utilisées pour identifier un individu ou pour vérifier l'identité prétendue d'un individu ». Ces traits physiques sont des caractéristiques universelles et uniques pour chaque personne, par ailleurs, il existe plusieurs traits biométriques à savoir : les empreintes digitales, l‟iris, le visage, la rétine, les veines… et bien d‟autres que l‟on découvre au cours de ce travail. La biométrie regroupe deux axes principaux, en effet elle peut être une identification ou une vérification. Avec l'identification ou la reconnaissance, le système biométrique pose et essaye de répondre à la question, “qui est la personne X ? ”. Dans une application d'identification, le dispositif biométrique requit une information biométrique et la compare avec chaque information stockée dans la base de données, c‟est une comparaison un à plusieurs (1:N). Le I but des applications d'identification est d'identifier des criminels et des terroristes en utilisant les données des surveillances. Alors que pour la vérification ou l‟authentification, le système biométrique demande à l‟utilisateur son identité et essaye de répondre à la question, “est ce la personne X? ”. Dans une application de vérification l'utilisateur annonce son identité par une information biométrique, et le système compare la donnée caractéristique obtenue à partir de l‟information entrée, avec la donnée enregistrée correspondante à l‟identité prétendue, c‟est une comparaison un à un (1:1). La vérification est communément employée dans des applications de contrôle d'accès et de paiement par authentification. L‟inconvénient majeur de certaines techniques biométriques est qu‟elles peuvent être reproduites par d‟autres personnes, par exemple on peut reproduire les empreintes digitales sur du silicone, cela a conduit à développer d‟autres techniques, en effet le fait d‟introduire deux ou plusieurs traits biométriques augmente la performance du système, c‟est ce qu‟on appelle La biométrie Multimodale, elle consiste à la multiplication des modalités biométriques, des algorithmes d‟analyse ou des bases de données utilisées, elle est de plus en plus utilisée, car elle offre des systèmes de reconnaissance performants et fiables. Parmi les techniques biométriques les plus utilisées on trouve le visage, en effet, la reconnaissance basée sur le visage vérifie l‟identité, en comparant les données caractéristiques extraites des visages des différentes personnes à partir de vidéos ou d‟images fixes. La fabrication des caméras connaît actuellement d‟énormes développements, on est capable de prendre des photos de personnes distantes sans qu‟ils ne sachent qu‟ils sont observés. C‟est pour cette raison que la reconnaissance de visages est trop utilisée dans les applications de contrôle de frontières, dans la sécurité des établissements, des zones urbaines et dans l‟identification des conducteurs. C‟est une technique commune, populaire, simple et qui a beaucoup d‟avantages à savoir : l‟utilisation des visages qui sont des données publiques, la possibilité de s‟intégrer aux systèmes de surveillance existants et elle ne nécessite pas des équipements chers. La facilité et la précision avec lesquelles nous pouvons distinguer le visage d'une personne à l'autre, même dans des conditions défavorables, sont des capacités les plus étonnantes du système visuel humain. Le but des chercheurs en reconnaissance de visages est de construire des systèmes informatiques capables d'égaler les êtres humains dans ce domaine. Dans ce travail, nous avons réalisé un système multimodal, basé sur le visage en appliquant plusieurs algorithmes et en testant sur deux bases de données différentes, pour cela le travail II est réparti comme suit : un premier chapitre qui traite la biométrie et la multimodalité, un deuxième chapitre où on parle de la reconnaissance faciale, ses méthodes et ses domaines d‟application. Dans le chapitre 3, les méthodes d‟extraction des caractéristiques du visage utilisées dans notre travail sont présentées, ensuite dans le quatrième chapitre on parle des méthodes utilisées dans le module de décision à savoir les réseaux MLP et les cartes SOM. Finalement, dans le dernier chapitre les résultats expérimentaux sont présentés. III CHAPITRE 1 : La biométrie I. Introduction………………………………………………………………………………………………….…..………………............ 02 II. Biométrie : Histoire, définitions et intérêt……………………………………………..……….….…………. ............... 03 II. 1- Histoire……………………………………………….……………………………………………………….…….……… ........ 03 II. 2- Définitions…………………………………………………..………………………………………………………….…. ........ 03 II. 3- Intérêt……………………………………………………………..………………………………………………….…….. ........ 04 III. Les systèmes Biométriques…………………………………………………………………….……………….……............. 07 III. 1- Structure et principe de fonctionnement d’un système biométrique……………..…....…… ........ 07 III. 2- Performances d’un système biométrique………………………………….………………......….……. ......... 09 IV. Caractéristiques de la biométrie……………………………………………………………………………….…. ............. 12 V. Catégories de la Biométrie…………………………………………………………………….……………………................... 14 V. 1- La biométrie physiologique ou morphologique………………………….………………..…………… ......... 14 V. 2- La biométrie comportementale…………………………………………………………………..…………….......... 16 VI. Place de la reconnaissance faciale parmi les autres techniques biométriques………..……. ............ 17 VII. Applications des systèmes biométriques…………………………………………………………..………….. ........... 19 VIII. Les limitations des systèmes biométriques monomodaux………………………………………..…… ........... 19 IX. La multimodalité………………………………………………………………………………………………………... .............. 21 IX. 1- Les différentes architectures multimodales possibles……………………………………………… ........ 22 IX. 2- Les systèmes multimodales en série VS les systèmes multimodales en parallèle…….. ........ 23 X. Les niveaux de fusion……………………………………………….…………………………………………….…….................. 25 XI. Conclusion …………………………………………………………………………………………………………………. .............. 28 CHAPITRE 1 : La biométrie I. Introduction Nous entendons parler de plus en plus de la biométrie, et nous l‟utilisons chaque jour pour s‟identifier par rapport aux autres, afin d‟accéder à certaines zones ou réaliser des opérations bancaires. Plusieurs recherches ont confirmé que cette tendance est une solution fiable et rapide pour l‟identification des personnes et pour la surveillance de certains endroits sensibles. C„est une branche de la reconnaissance de formes qui suscite beaucoup d‟intérêt. Les systèmes biométriques permettent, en effet, d‟identifier automatiquement les personnes à l‟aide de leurs caractéristiques physiques ou comportementales telles que, l‟empreinte digitale, l‟iris, le visage, la signature, la frappe du clavier ou encore la démarche. Dans ce chapitre, nous allons d'abord présenter le cadre général de la biométrie, ses utilisations ainsi que la structure, les avantages et les inconvénients des systèmes biométriques ; Ensuite, nous présenterons la biométrie multimodale qui est le domaine d'étude de cette thèse. La biométrie multimodale est la combinaison de plusieurs modalités biométriques différentes, ce qui implique l'utilisation d'informations complémentaires pour une personne donnée. 2 CHAPITRE 1 : La biométrie II. Biométrie : Histoire, définitions et intérêt : II. 1- Histoire : Depuis son existence, l‟homme a toujours essayé de trouver les différences existantes entre lui-même et son entourage et les exploiter dans ses besoins quotidiens. Les chinois ont été les premiers à utiliser, il y a 1000 ans, les empreintes digitales à des fins de signature de documents. Après, c‟était le tour de l‟anatomiste MARCELLO MALPIGHI (1628-1694) qui les a étudiées avec un nouvel instrument nommé microscope. Puis le physiologiste tchèque JAN EVANGELISTA PURKINGE (1787-1869) a essayé de les catégorise selon certaines caractéristiques [27] Vers la fin du 19ème siècle, le docteur HENRY FAULDS (1843-1930), chirurgien à Tokyo, a marqué le premier pas vers l‟élaboration d‟un système d‟identification d‟individus en se basant sur des méthodes statistiques pour la classification des empreintes. En ce moment, un de ses contemporains le français ALPHONSE BERTILLON (1853-1914), était en train de tester une méthode d‟identification des prisonniers nommée anthropométrie judiciaire. BERTILLON procédait à la prise de photographies de sujets humains, mesurait certaines parties de leurs corps (tête, membres, etc.) et on notait les dimensions sur les photos et sur des fiches à des fins d‟identification ultérieure. C‟était la naissance de la première base de données contenant des informations des individus [27]. Et depuis, ces systèmes de reconnaissance ne cessent de se développer et de devenir plus performants. II. 2- Définitions : Le terme de biométrie est originaire d‟une contraction des deux anciens termes grecs : « bios » qui signifie : la vie et « metron » qui se traduit par : mesure.[33] La biométrie est apparue pour combler les manques des systèmes d‟accès classiques, et dans la littérature il existe plusieurs définitions de la biométrie : « La reconnaissance automatique d‟une personne à partir de son comportement ou d‟une caractéristique physique ». [3] 3 CHAPITRE 1 : La biométrie « La biométrie recouvre l‟ensemble des procédés tendant à identifier un individu à partir de la mesure de l‟une ou de plusieurs de ses caractéristiques physiques, physiologiques ou comportementales ». [4] La biométrie est la science d‟établir l‟identité d‟une personne basée sur les attributs physiques (empreintes digitales, visage, géométrie de la main, iris, rétine…) ou comportementaux (démarche, signature, dynamique de clavier…) liés à un individu. Un système biométrique typique utilise les sondes convenablement conçues pour capturer le trait biométrique d‟une personne et le comparer à l‟information stockée dans une base de données pour établir l‟identité. Les techniques biométriques permettent donc la mesure et la reconnaissance de ce que l’on est, à la différence d‟autres techniques de même finalités, mais permettant de mesurer ou vérifier ce que l’on possède (cadre, badge, document,…) ou ce que l’on sait (mot de passe, code pin,…). Un système biométrique peut fonctionner en deux modes distincts : en mode de vérification, le système confirme ou nie une identité réclamée, alors qu‟en mode d‟identification, il détermine l‟identité d‟un individu. La biométrie offre une solution naturelle et fiable pour certains aspects de la gestion d‟identité en utilisant des systèmes entièrement automatisés ou semi-automatisés de reconnaissance des individus [34]. II. 3- Intérêt : La biométrie est un domaine émergeant destiné à augmenter la capacité d‟identifier une personne parmi un ensemble d‟individus. L‟un des buts de la biométrie est la protection des consommateurs contre la fraude ou le vol. L‟avantage de l‟identification biométrique est l‟unicité des caractéristiques physiques, en effet chaque personne a ses propres traits biométriques qui ne peuvent être changées, perdues ou volées. La méthode d‟identification biométrique peut aussi remplacer les mots de passe. La technologie biométrique a de diverses utilisations, mais son but principal est de fournir une alternative plus sécurisée aux systèmes traditionnels de contrôle d‟accès employés pour protéger les capitaux personnels ou de corporation. Parmi les nombreux problèmes résolus 4 CHAPITRE 1 : La biométrie grâce à l‟usage des techniques biométriques, les faiblesses qui ont été décelées dans les systèmes actuels de contrôle d‟accès sont les suivantes : [9] - Mots de passe faibles : Les utilisateurs d‟ordinateur sont notoirement susceptibles d‟employer des pauvres mots de passe facilement devinés, ayant pour résultat des cambriolages où les intrus peuvent deviner les qualifications d‟un autre utilisateur et gagner l‟accès non autorisé à un système informatique. Ceci peut mener à une violation de la sécurité du personnel ou à un vol de secrets d‟affaires par un étranger. - Qualifications partagées : Dans de petits et grands organismes, nous entendons parler souvent des cas comme ceci : un utilisateur d‟ordinateur partage son mot de passe avec un collègue qui a besoin de l‟accès, quoique, dans la plupart des organismes ( et dans beaucoup de lois et de règlements liés à la sécurité), ceci est interdit par la politique. Les personnes de nature sont disposées à aider un collègue dans le besoin même si cela signifie violer la politique pour réaliser un plus grand but. - Cartes d’accès principales perdues : Beaucoup de fois dans nos carrières nous avions trouvé des cartes principales perdues dans des parkings et d‟autres endroits publics. Souvent ils ont le nom de l‟organisation sur eux, ainsi c‟est comme si on trouvait une clef avec une adresse là-dessus, permettant à la personne qui l‟a trouvée une libre incursion dans une certaine société. La biométrie peut résoudre tous ces problèmes en exigeant des crédibilités additionnellesquelque chose liée au propre corps de la personne- avant d‟accorder l‟accès à un bâtiment, à une salle des ordinateurs, ou à un système informatique. Un système de contrôle d‟accès qui utilise la biométrie inclura un appareil électronique qui mesure un certain aspect spécifique du corps ou du comportement d‟une personne qui l‟identifie positivement. Le dispositif pourrait être un lecteur d‟empreinte digitale, un appareil photo numérique pour atteindre un bon regard dans un iris, ou un lecteur de signature. En résumé, plusieurs raisons peuvent motiver l‟usage de la biométrie : [9] - Une haute sécurité : en l‟associant à d‟autres technologies comme le cryptage. - Confort : En remplaçant juste le mot de passe, exemple pour l‟ouverture d‟un système d‟exploitation, la biométrie permet de respecter les règles de base de la sécurité (ne pas inscrire son mot de passe à côté du PC, ne pas désactiver l‟écran pour éviter des saisies de mots de passe fréquentes). Et quand ces règles sont respectées, la biométrie 5 CHAPITRE 1 : La biométrie évite aux administrateurs de réseaux d‟avoir à répondre aux nombreux appels pour perte de mots de passe (que l‟on donne parfois au téléphone, donc sans sécurité). - Sécurité/ Psychologie : Dans certains cas, particulièrement pour le commerce électronique, l‟usager n‟a pas confiance. Il est important pour les acteurs de ce marché de convaincre le consommateur de faire des transactions. Un moyen d‟authentification connu comme les empreintes digitales pourrait faire changer le comportement des consommateurs. Les systèmes d‟authentification biométriques mettent fin aux problèmes liés à l‟utilisation des systèmes d‟authentification classiques tels que : La duplication. Le vol. L‟oubli. La perte. L‟usage de la technologie biométrique pour la protection des capitaux remonte à longtemps dans quelques domaines bien précis. Les forces militaires, l‟intelligence, et les organismes de police avaient employé la biométrie pour élever le niveau de sécurité des contrôles d‟accès physiques et logiques pendant des décennies. Copie Vol Oubli Perte Badge - Code - - - - - - Clé Empreinte Tableau.1.1 : Inconvénients des systèmes d‟authentification classiques. Dans ces dernières années, l‟utilisation de la biométrie dans le domaine d‟authentification et de protection a connu une hausse considérable. Les centres de traitement des données 6 CHAPITRE 1 : La biométrie emploient souvent la biométrie pour contrôler l‟accès du personnel dans l‟espace du centre de données. Les dispositifs de reconnaissance des empreintes digitales apparaissent partout, ils sont incorporés même dans les ordinateurs portables et aux téléphones. L‟identification faciale est disponible sur quelques modèles d‟ordinateur portable. Et pour la sécurité des entreprises et des résidences, des portes à verrouillage par empreintes digitales sont disponibles sur le marché. III. Les systèmes biométriques : Un système biométrique est essentiellement un système qui acquiert des données biométriques d‟un individu, extrait un ensemble de caractéristiques à partir de ces données puis le compare à un ensemble de données stocké au préalable dans une base de données pour pouvoir enfin exécuter une action ou prendre une décision à partir du résultat de cette comparaison. [3] III. 1- Structure et principe de fonctionnement d’un système biométrique : Dans la littérature, le principe de fonctionnement des systèmes biométriques comporte deux phases principales: l'enregistrement et l'authentification, et cela que l‟on soit dans un système de vérification ou d‟identification. [20] III. 1-1- Vérification : Elle permet de vérifier l‟authenticité d‟un individu. Ce dernier fournit un échantillon biométrique ainsi qu‟un identifiant et le système s‟assure que le pattern enregistré dans la base sous cet identifiant correspond bien à la signature biométrique fournie par l‟utilisateur. Le module de décision fournit une réponse oui/non selon l‟authentification/rejet de l‟identité. Dans cette phase, les systèmes biométriques effectuent une mise à jour des patterns pour les types de traits biométriques qui changent légèrement à travers le temps (reconnaissance faciale). III. 1-2- Identification : C‟est l‟étape de reconnaissance des individus. L‟échantillon présenté pour l‟identification est soumis, après traitement, à des algorithmes de comparaison avec les différents patrons stockés dans la base de données, afin de permettre au module de décision d‟établir l‟identité de l‟individu en question. 7 CHAPITRE 1 : La biométrie L'enregistrement est commun à la vérification et l'identification. C'est la phase préliminaire qui consiste en l'enregistrement des données biométriques d'une personne sur un support personnel (pour la vérification) ou dans une base de données (pour l'identification). Cette phase est très importante car elle influence ensuite tout le processus de reconnaissance. En effet, tout comme les papiers d'identité, il faut tout d'abord s'assurer de la légitimité du client. De plus la qualité de ces données d'enregistrement est fondamentale pour les phases ultérieures d'identification puisque les données d'acquisition servent de référence pour la personne. On considère souvent plusieurs échantillons de la biométrie pour pouvoir prendre en compte la variabilité de la biométrie pour la personne. Un système biométrique comprend 4 modules (Figure.1.1) dont certains sont communs à la phase d'enregistrement et à celle d'authentification : l'acquisition, l'extraction des caractéristiques, la comparaison et la décision. [20] L'acquisition et l'extraction de caractéristiques ont lieu lors de l'enregistrement et lors de l'authentification. L'extraction de caractéristiques est une représentation de la donnée (par exemple image ou signal temporel acquis) sous la forme d'un vecteur que l'on cherche à être à la fois représentatif de la donnée et discriminant vis à vis des autres données (issues d'autres personnes). Lors de l'enregistrement, le vecteur des caractéristiques extrait de l'échantillon biométrique est appelé référence et est stocké sur le support personnel ou dans une base de données selon l'application. Lors de la phase d'authentification, les modules d'acquisition et d'extraction de caractéristiques permettent d'obtenir une représentation de la donnée biométrique à tester dans l'espace des caractéristiques. [20] Le module de comparaison est utilisé lors de la phase d'authentification pour comparer les vecteurs de caractéristiques de référence et de test. Le module de décision sert ensuite à prendre une décision à partir de la sortie du module de comparaison qui correspond à un score de similarité entre les deux vecteurs de caractéristiques (souvent un nombre réel entre 0 et 1).[20] Pour les systèmes de vérification la comparaison n'est faite qu'une fois entre la référence stockée sur le support personnel et les données de test, et la décision est du type OUI/NON.[20] 8 CHAPITRE 1 : La biométrie Pour les systèmes d'identification la comparaison est faite avec toutes les références stockées dans la base de données et la décision est la réponse à la question, est-ce que cette personne est dans la base de données, et si oui qui est-elle ? Figure.1.1 : Structure d‟un système biométrique III. 2- Performances d’un système biométrique : Dans les systèmes d‟identification classiques, tels que l‟identification par mot de passe, la correspondance doit être parfaite et absolue (100% de similitude) entre l‟identifiant présenté pour la reconnaissance et celui enregistré dans la base de données (ex : dans le cas d‟identification par mot de passe, la chaine de caractère saisie par l‟utilisateur du système doit correspondre exactement à la chaine qui identifie cette personne et lui attribue les droits d‟accès appropriés). En revanche, dans les systèmes biométriques, la correspondance n‟est pas absolue. Ceci est dû à [20] : - Des conditions imparfaites lors de l‟acquisition des échantillons biométriques (ex : empreinte digitale bruitée à cause d‟un dysfonctionnement du lecteur), 9 CHAPITRE 1 : La biométrie - Des variations de la caractéristique biométrique de l‟utilisateur (ex : des problèmes respiratoires peuvent affecter l‟échantillon vocal de l‟utilisateur), - Des changements des conditions ambiantes (ex : mauvaise illumination influe sur la reconnaissance du visage), - La différence dans l‟interaction de l‟utilisateur avec les dispositifs d‟acquisition (ex : iris occlus, empreinte partielle), Cependant, il est très rare d‟obtenir un ensemble de caractéristiques exactement similaires lors de deux acquisitions d‟échantillons biométriques d‟un individu. En effet, une correspondance parfaite de deux échantillons déclenche une mise en garde du système contre une tentative de fraude par reproduction [9]. Figure.1.2 : courbes FAR et FRR. Le degré de similitude entre deux ensembles de caractéristiques est appelé : le taux de similarité (similarity score). Le taux de similarité d‟une comparaison entre deux échantillons d‟un trait biométrique du même individu est appelé : taux d‟authenticité (Genuine Score ou Authentic Score). Le taux de similarité entre deux échantillons de deux individus différents est appelé : taux d‟imposture (Impostor Score) [9]. Comme montré sur la figure 3, il est question d‟un compromis, défini par un seuil, entre le taux de fausses acceptations et le taux des faux rejets. C'est-à-dire qu‟un taux d‟authenticité 10 CHAPITRE 1 : La biométrie en dessous du seuil génère un faux rejet, tandis qu‟un taux d‟imposture qui dépasse le seuil résulte une fausse acceptation. La performance d‟un système biométrique est quantifiée par le taux de deux erreurs fondamentales définies dans [3],[9] par : - F.A.R : (False Acceptation Rate) ou F.M.R (False Match Rate) dans certains ouvrages, ces taux déterminent la probabilité pour un système de « reconnaitre » une personne qui normalement n‟aurait pas dû être reconnue. C‟est un ratio entre le nombre de personnes qui ont été acceptées alors qu‟elles n‟auraient pas dû l‟être et le nombre total de personnes non autorisées qui ont tenté de se faire accepter. - F.R.R : (False Reject Rate) ou F.N.M.R (False Non Match Rate), ces taux déterminent la probabilité pour un système donné de ne pas « reconnaitre » une personne qui normalement aurait dû être reconnue. C‟est un ratio entre le nombre de personnes légitimes dont l‟accès a été refusé et le nombre total de personnes légitimes s‟étant présentées. Cela nous ramène à dire que la variation du seuil implique la variation inversement proportionnelle des deux taux F.A.R et F.R.R cités précédemment. La courbe ROC (Receiver Operating Characteristic), donnée par la Figure.1.2, est une représentation graphique du compromis des deux taux. Dans un système biométrique, la minimisation simultanée des deux taux n‟est pas possible, or le choix de minimisation d‟un taux dépend de la qualité du système souhaitée. Pour un système de haute sécurité, par exemple, on s‟intéresse à minimiser le F.A.R, tandis que si la commodité est la préoccupation première, on minimise le F.R.R. 11 CHAPITRE 1 : La biométrie Figure.1.3 : Courbe ROC : Variation du taux de Faux Rejets (FRR) en fonction du taux de Fausses Acceptations (FAR) Outre le F.A.R et le F.R.R , il existe d‟autres types d‟erreurs dans les systèmes biométriques. Le E.E.R (Equal Error Rate) est le taux qui définit un compromis généralement retenu pour les applications civiles consistant à obtenir une égalité entre le FFR et le FAR (ou entre le FMR et le FNMR). Il y a aussi le FTE (Failure To Enrol) qui mesure la probabilité qu‟une personne ne puisse être enrôlée pour des raisons physiques tenant à la personne ou techniques liées au dispositif de capture. Mais, l‟augmentation du taux d‟échec à l‟enrôlement, lorsqu‟elle est délibérée et destinée à éliminer les images de mauvaise qualité ne pouvant servir de référence pour les comparaisons futures, peut produire une diminution des taux d‟erreurs (FM ou FNM). Ce phénomène peut aussi survenir lors de l‟identification, à ce moment on parle d‟une erreur F.T.A (Failure To Acquire). IV. Caractéristiques de la biométrie : Un certain nombre de caractéristiques sont utilisées dans diverses applications. Chaque trait biométrique a ses avantages et ses inconvénients, c‟est pourquoi, le choix de la technique pour une application dépend d‟une variété de questions en plus de sa performance. JAIN ET 12 CHAPITRE 1 : La biométrie AL [4] ont identifié sept facteurs déterminant la convenance des traits physiques ou comportementaux pour être utilisés dans une application biométrique : - Universalité : toute personne ayant accès à l‟application doit posséder le trait. - Unicité : le trait doit être suffisamment différent d‟une personne à une autre. - Permanence : le trait biométrique d‟une personne doit être suffisamment invariant au cours d‟une période de temps. - Mesurabilité : il devrait être possible d‟acquérir et de numériser les données biométriques à l‟aide d‟un dispositif approprié. - Performance : la précision de la reconnaissance et les ressources nécessaires pour atteindre la précision que doit satisfaire les contraintes imposées par l‟application. - Acceptabilité : les individus qui vont utiliser cette application doivent être disposés à présenter leurs traits biométriques au système. - Contournement : il s‟agit de la facilité avec laquelle le caractère d‟un individu peut être imité en utilisant des objets (par exemple : faux doigts dans le cas de traits physiques et le mimétisme, dans le cas de traits de comportement). Bien qu‟il existe un très grand nombre de modalités biométriques (Figure.1.3), nous pouvons distinguer deux grandes catégories : 1- L’analyse des traces biologiques : basées sur les caractéristiques biologiques des individus (ADN, salive, urine, odeur…). Ce type de biométrie est très complexe à mettre en œuvre dans un système usuel de reconnaissance et n‟est utilisé que dans un cas d‟extrême nécessité (ex : Enquête criminelle, test de paternité…etc.) 2- L’analyse des traits physiques : ce type de méthode est beaucoup plus facile à mettre en œuvre dans un système de contrôle d‟identité et ne nécessite pas autant de moyens. 13 CHAPITRE 1 : La biométrie Figure.1.4 : Les différentes modalités biométriques: a) ADN, b) Oreille, c) visage, d) visage infrarouge, e) thermo-gramme main, f) veine main, g) Empreintes digitales, h) marche, i) geste j) iris, k) empreinte de la paume, l) rétine, m) signature, n) voix. V. Catégories de la Biométrie : Comme montré dans le schéma de la Figure.1.3, nous pouvons représenter les types de biométries les plus connus et les plus utilisés dans les deux grandes classes : [33] V. 1- La biométrie physiologique ou morphologique : Utilisant les caractéristiques physiologiques de l‟individu (exemple : la forme de la main, la forme du visage, les empreintes digitales, l‟iris, la rétine…etc.) V. 1-1- L’empreinte digitale : Ce procédé est le plus répandu et le plus ancien, la donnée de base est le dessin représenté par les crêtes et sillons de l'épiderme (jonctions, terminaisons aveugles, croisements…). Une empreinte est caractérisée par une centaine de points particuliers (appelés minuties), dont seuls une douzaine suffisent pour une identification. Certains modules de reconnaissance d'empreintes vérifient la température du doigt, sa conductivité, les battements de cœur, ainsi que d'autres paramètres biologiques - pour éviter de confondre un vrai doigt avec une fausse empreinte en gélatine.[9] 14 CHAPITRE 1 : La biométrie V. 1-2- La morphologie de la main, ou « empreinte palmaire » : Quatre vingt dix (90) caractéristiques de la main sont analysées, dont la forme générale, les longueurs et largeurs des doigts, les formes des articulations… Le taux d'erreurs peut être élevé entre personnes d‟une même famille.[9] V. 1-3- L’iris : Cette technique peut être exploitable très tôt dans la vie d‟une personne car la structure de l‟iris est définitive dès la 8ième semaine de maternité, Elle est très fiable du fait qu‟il est possible de définir plus de 240 points caractéristiques. Certains systèmes d‟identification évolués permettent de contrôler que l'iris change bien de taille avec l'intensité de la lumière.[9] V. 1-4- La rétine : Les schémas des vaisseaux sanguins de la rétine sont uniques pour chaque individu. Jusqu‟à 400 points caractéristiques permettent de les différencier. La contrainte majeure de ce procédé est la proximité de l‟œil par rapport au capteur (collaboration étroite de la part du sujet). [9] V. 1-5- Identification par thermographie : Une caméra infrarouge établit une cartographie des températures des différentes régions du visage - une caractéristique biologique qui est propre à chaque individu. On peut même aller plus loin, en établissant une cartographie du système veineux. [9] V. 1-6- Les veines : Le modèle des veines dans l‟anatomie humaine est considéré unique pour chaque individu. Par conséquent, il y a eu de diverses réalisations du balayage de veine au cours des années, du balayage de main, au balayage de poignet et, plus récemment, au balayage de doigt. La plupart de ces techniques ont été utilisées sur terrain et ont montré leur efficacité dans un système biométrique, cependant sa réalisation est couteuse par rapport aux autres modalités biométriques. V. 1-7- Le visage : L‟identification par visage a été disponible comme technique biométrique pendant longtemps, elle implique la métrique des et entre caractéristiques distinctes dans le visage, se fondant 15 CHAPITRE 1 : La biométrie moins sur des facteurs d‟une nature changeante tels que la coupe des cheveux ou l‟utilisation des produits de beauté. Néanmoins, le visage humain est sujet au changement avec le temps et cette réalité demeura un défi pour les systèmes d‟identification de visage, comme le changement d‟expression, la maladie, la vieillesse et d‟autres facteurs normaux. En outre, les facteurs humains et environnementaux joueront un très grand rôle dans l‟efficacité d‟un système de reconnaissance faciale. Par conséquent, l‟identification de visage peut être moins fiable en terme d‟exactitude par rapport à d‟autres techniques comme, par exemple, la reconnaissance par la rétine, c‟est pour cette raison que la reconnaissance faciale a été parfois employée avec une autre instance biométrique en même temps, afin d‟augmenter la performance du système. Le visage et l‟empreinte digitale sont une combinaison populaire dans ce contexte. V. 2- La biométrie comportementale : Par opposition à la biométrie basée sur des caractéristiques physiques, l‟analyse comportementale est dynamique, et est plus difficile à reproduire, elle se base sur le comportement de l‟individu. (Exemple : la démarche, la voix, les mouvements…etc.), elle englobe un ensemble de modalités biométriques : V. 2-1- La signature biométrique : Elle est basée sur l‟analyse et le calcul de la dynamique d‟une signature. Ce système est basé sur des critères précis comme la pression, l‟accélération, la souplesse, les courbes et plusieurs dizaines d‟autres paramètres. [9] V. 2-2- La voix : Elle est basée essentiellement sur la tonalité, la fréquence vocale et la distance entre la formation des lettres, et dépend grandement de la qualité d‟enregistrement et de la méthode utilisée : on distingue les systèmes à texte prédéterminé où l'utilisateur doit répéter un texte qu'il ne choisit pas, et les systèmes où la personne peut parler librement. De plus, on doit tenir compte de la variabilité de la voix du locuteur dans le temps comme dans le cas de maladie (rhume,…), et des états émotionnels. Cette technique peut être utilisée sans obtenir le consentement de la personne identifiée. [9] V. 2-3- La démarche : 16 CHAPITRE 1 : La biométrie Le premier avantage de l‟identification par la démarche se situe dans la capacité d‟identifier un individu à distance. L‟idée qu‟un individu marche typiquement avec une démarche unique est intéressante. Cependant, la vie réelle est pleine de désaccords dynamiques qui rendent l‟exécution d‟un tel système particulièrement difficile. En plus des complexités de comparaison, il y a des facteurs tels que le moment de saisir l‟image mobile d‟un individu en isolement et dont le détail est suffisant pour pouvoir entreprendre une telle comparaison. L‟identification des personnes par leurs démarches représente un exemple intéressant de la recherche biométrique dans la mesure où elle peut identifier une personne à une distance où la biométrie de contact ne peut fonctionner. Il s‟agit d‟une technique biométrique attrayante pour des applications militaires et de très haute sécurité. [9] V. 2-4- La dynamique de frappe : L‟idée d‟identifier une personne par sa dynamique de frappe était très attrayante parmi les perspectives de la technologie de l‟information et des réseaux. [9] Le tableau ci-dessous présente certaines modalités biométriques avec leurs taux d‟utilisation, leurs nombres de points nécessaires à l‟analyse ainsi la fiabilité de chaque méthode. Méthode Utilisation % 50 15 Nombre de points mesurables (80) Selon la photo Empreintes digitales Reconnaissance faciale Reconnaissance de la main iris signature voix Rétine Rare Fiabilité Assez bonne Variable 10 (90) Bonne 6 <5 Peu utilisé (244) Selon la signature Dépend des bruits de fond 400 Proche de 99% Variable Peu fiable Excellente Tableau.1.2 : Principales techniques Biométriques VI. Place de la reconnaissance faciale parmi les autres techniques biométriques : L‟identification des individus via leurs empreintes digitales est la technique biométrique la plus communément utilisée. Le premier système automatique d'authentification utilisant les empreintes digitales a été commercialisé au début des années soixante. D‟autres parts, plusieurs études ont démontré que l‟iris est la caractéristique la plus 17 CHAPITRE 1 : La biométrie fiable car la texture de l‟iris reste stable au cours de la vie. Mais, ces méthodes présentent l‟inconvénient majeur d‟être intrusives, ce qui amène à adopter des techniques où le contact avec le capteur est annulé. De plus, une méthode comme l‟identification de l‟iris reste contraignante pour les utilisateurs qui n‟apprécient pas de placer leur œil devant un appareil. A l‟inverse, des systèmes d‟identification basés sur l‟analyse des images de visage ne présentent aucune contrainte pour les utilisateurs. La reconnaissance faciale est une modalité qui peut être implémentée de manière indépendante des autres modalités biométriques, elle est souvent utilisée dans des applications de surveillance. La reconnaissance faciale offre plusieurs avantages : le système de capture (les caméras) est facile à installer, il est accepté dans les lieux publics ce qui permet d‟avoir des bases de données de plus en plus grandes et ainsi d‟améliorer les performances de la reconnaissance. [37] Dans les dernières années, la reconnaissance faciale suscite un intérêt croissant auprès de la communauté scientifique, en fait, plusieurs conférences internationales spécialisées sont organisées telles que « The International Conference on Audio and Video-based Biometric Person Authentication (AVBPA) » depuis 1997, et « the International Conference on Automatic Face and Gesture Recognition (AFGR) » depuis 1995. Par ailleurs, les États-Unis ont mené depuis 1993 une série de tests de reconnaissance faciale dont les résultats sont accessibles au public. Ces tests sont désignés sous les noms de FERET [13], XM2VTS [18], et FRVT 2002 [16]. En plus, dans [17] une analyse statistique des publications sur les techniques biométriques soumises et publiées dans un numéro spécial de la revue IEEE Transaction on PAMI est présentée (Tableau.1.3). Article (%) Empreintes Visage Performance Multimodale Iris digitale Autres Evaluation Soumission 33 17 16 9 4 21 Acceptation 33 16 16 11 5 20 Tableau.1.3 : Répartition des articles sur les techniques biométriques soumis et acceptés dans la revue IEEE PAMI. 18 CHAPITRE 1 : La biométrie Nous observons que la reconnaissance faciale arrive largement en tête avec un pourcentage de 33% du nombre total de publications. Ceci démontre bien l‟intérêt scientifique pour cette technique. VII. Applications des systèmes biométriques : Les applications de la biométrie peuvent être divisées en trois groupes principaux: [9] - Applications commerciales : telles que l'ouverture de réseau informatique, la sécurité de données électroniques, l'e-commerce, l'accès Internet, la carte de crédit, le contrôle d'accès physique, le téléphone cellulaire, la gestion des registres médicaux, l'étude à distance, etc. - Applications gouvernementales : telles que la carte d'identité nationale, le permis de conduire, la sécurité sociale, le contrôle des frontières, le contrôle des passeports, etc. - Applications légales : telles que l'identification de corps, la recherche criminelle, l'identification de terroriste, etc. De nos jours les systèmes biométriques sont de plus en plus utilisés dans des applications civiles. Par exemple, le dispositif de Schiphol Privium à l'aéroport d'Amsterdam, utilise un capteur de l‟iris pour accélérer la procédure de contrôle des passeports et des visas. Les passagers insèrent leur carte dans un lecteur et se mettent en face d‟un appareil-photo ; ce dernier acquiert l'image de l'œil. Des processus de traitement d‟images sont alors lancés afin de localiser l'iris et de calculer une signature appelée « Iriscode ». Une fois l'Iriscode calculé, il est comparé aux données stockées dans la carte pour identifier le passager. Un dispositif semblable est également employé pour vérifier l'identité des employés de l‟aéroport qui travaillent dans des secteurs de haute sécurité. Un autre exemple d'utilisation à grande échelle de la reconnaissance faciale est celui de la ville de Newham, dans la banlieue de Londres. Il s'est vu décerner le trophée Big Brother Award en 1998 par l'organisation non gouvernementale Privacy International. [12] VIII. Les limitations des systèmes biométriques monomodaux : Le premier but de la biométrie est d‟établir un lien entre une personne et son identité à travers une caractéristique physique, ce qui permet, donc, d‟avoir une identification plus sûre que d'autres moyens tels que les cartes, les clés ou les mots de passe. Cependant, les systèmes 19 CHAPITRE 1 : La biométrie biométriques ont quelques limitations qui font qu'ils ne sont pas encore utilisés dans toutes les applications courantes. La principale limitation se situe dans la performance. En effet, si les badges, cartes, clés ou mots de passe posent des problèmes de sécurité liés à leur perte, vol ou falsification qui rompent le lien à la personne physique, en revanche ils sont 100% efficaces en terme de reconnaissance. Si une clé ou un mot de passe est correct, la réponse du système est OUI, sinon la réponse est NON, la correspondance est exacte à 100%. En revanche les systèmes biométriques ne permettent pas cette reconnaissance exacte car ils sont basés sur un score de similarité qui est un nombre réel entre 0 et 1 caractérisant le degré de similitude entre les deux données biométriques comparées. C'est pour cela que les systèmes biométriques comportent un module de décision car il faut fixer un seuil de décision à appliquer au score de similarité. Si le score est supérieur au seuil, les deux échantillons proviennent de la même personne, l'identité est donc vérifiée. Si le score de similarité est inférieur au seuil, les deux échantillons ne correspondent pas à la même personne est la personne est rejetée (l'identité prétendue n'a pas été vérifiée). [20] Cette absence d‟exactitude dans la correspondance et ces changements dans les données biométriques sont généralement dues à plusieurs paramètres : - La variabilité lors de la capture : Elle est due à plusieurs phénomènes : déformation physique lors de la capture (variabilité du capteur), bruit d'acquisition, erreurs lors de la numérisation. Cette variabilité n'est pas intrinsèquement liée à la biométrie mais à la numérisation de cette biométrie. [20] - La variabilité temporelle et la non-unicité des biométries : Elles sont également appelées variabilité intra-classe (variabilité d'une modalité pour un individu) et variabilité interclasse (variabilité entre les modalités de plusieurs individus). Une autre limitation de la biométrie pour des applications d'authentification est la nonuniversalité des biométries. Cela signifie que certaines modalités biométriques ne peuvent pas être utilisées par une certaine catégorie de la population. Par exemple certaines personnes ont des empreintes digitales contenant trop peu d'information pour servir de moyen d'identification. Une étude menée par le NIST (National Institute of Standards and Technology) [30] a confirmé qu'environ 2% de la population ne peut pas utiliser l'empreinte digitale comme moyen d'identification. En plus, la capture peut également être non fiable à 20 CHAPITRE 1 : La biométrie cause des conditions environnementales lors de l'acquisition. Par exemple il est impossible d'utiliser un système de reconnaissance de la voix dans un endroit très bruité ou de reconnaissance par le visage lorsqu'il fait nuit (si l'on utilise une caméra à lumière visible). [20] En outre, la possibilité de fraude est une autre limitation possible dans un système biométrique. En fait, si le fait de falsifier un iris est plus difficile que de voler une carte ou décoder un mot de passe, il est toute fois possible de reproduire certaines modalités biométriques. En effet, certaines études ont montré qu'il était possible de reproduire les empreintes digitales avec du silicone. [40] Enfin, certaines limitations de l'utilisation de la biométrie sont des limitations d'usage ou culturelles. En effet, par son passé d'outils policiers, la biométrie et particulièrement les empreintes digitales ont mauvaise réputation et sont associées à la surveillance des personnes et aux aspects criminels. Cela, en plus du fait que les empreintes digitales laissent des traces qui pourraient être récupérées et mal utilisées, en font une modalité peu aimée du grand public. [20] D'autres biométries souffrent de leur difficulté d'utilisation, par exemple l'iris, qui est une modalité très fiable, mais parfois considérée comme intrusive à cause de l'acquisition qui se fait assez proche de l'œil et qui gène certaines personnes. Pour faire face à toutes ces limitations, une autre idée est apparue et adoptée : La multimodalité, c‟est une approche très utilisée dans les applications d‟authentification, car les résultats sont beaucoup plus considérables que ceux obtenus avec les systèmes monomodaux. IX. La multimodalité : La multimodalité est l'utilisation de plusieurs systèmes biométriques. La combinaison de plusieurs systèmes a pour objectif d'en diminuer les limitations vues précédemment. En effet, l'utilisation de plusieurs systèmes a pour but premier d'améliorer les performances de reconnaissance. En augmentant la quantité d'informations discriminante de chaque personne, on souhaite augmenter le pouvoir de reconnaissance du système. De plus, le fait d'utiliser plusieurs modalités biométriques réduit le risque d'impossibilité d'enregistrement ainsi que la robustesse aux fraudes. [20] 21 CHAPITRE 1 : La biométrie IX. 1- Les différentes architectures multimodales possibles : Les systèmes biométriques multimodaux sont une architecture composée de deux ou plusieurs systèmes monomodaux, et outre leur avantage de diminuer les inconvénients des systèmes biométriques monomodaux, systèmes multimodaux peuvent être réalisés selon plusieurs architectures (Figure.1.4). En effet, un système multimodal peut être : [20] - multi-capteurs lorsqu'ils associent plusieurs capteurs pour acquérir la même modalité, par exemple un capteur optique et un capteur capacitif pour l'acquisition de l'empreinte digitale. - multi-instances lorsqu'ils associent plusieurs instances de la même biométrie, par exemple l'acquisition de plusieurs images de visage avec des changements de pose, d'expression ou d'illumination. - multi-algorithmes lorsque plusieurs algorithmes traitent la même image acquise, cette multiplicité des algorithmes peut intervenir dans le module d'extraction en considérant plusieurs ensembles de caractéristiques et/ou dans le module de comparaison en utilisant plusieurs algorithmes de comparaison. - multi-échantillons lorsqu'ils associent plusieurs échantillons différents de la même modalité, par exemple deux empreintes digitales de doigts différents ou les deux iris. Dans ce cas les données sont traitées par le même algorithme mais nécessitent des références différentes à l'enregistrement contrairement aux systèmes multi-instances qui ne nécessitent qu'une seule référence. - multi-biométries lorsque l'on considère plusieurs biométries différentes, par exemple visage et empreinte digitale. Un système multimodal peut bien sûr combiner ces différents types d'associations, par exemple l'utilisation du visage et de l'empreinte mais en utilisant plusieurs doigts. 22 CHAPITRE 1 : La biométrie Figure.1.5: Les différents systèmes multimodaux IX. 2- Les systèmes multimodales en série VS les systèmes multimodales en parallèle : Les systèmes multimodaux associent plusieurs systèmes biométriques et nécessitent donc l'acquisition et le traitement de plusieurs données. L'acquisition et le traitement peuvent se faire successivement, on parle alors d'architecture en série, ou simultanément, on parle alors d'architecture en parallèle. [20] L'architecture est en réalité surtout liée au traitement. En effet, l'acquisition des données biométriques est en général séquentielle pour des raisons pratiques. [20] Il est difficile d'acquérir en même temps une empreinte digitale et une image d'iris dans de bonnes conditions. Il existe cependant certains cas où les acquisitions peuvent être faites simultanément lorsque les différentes données utilisent le même capteur par exemple les capteurs d'empreintes multi-doigts qui permettent d'acquérir plusieurs doigts simultanément ou même les empreintes palmaires. [20] 23 CHAPITRE 1 : La biométrie L'architecture est donc en général liée au traitement et en particulier à la décision. En effet la différence entre un système multimodal en série et un système multimodal en parallèle réside dans le fait d'obtenir un score de similarité à l'issue de chaque acquisition (fusion en série) ou de procéder à l'ensemble des acquisitions avant de prendre une décision (fusion en parallèle). [20] L'architecture en parallèle (Figure.1.5) est la plus utilisée car elle permet d'utiliser toutes les informations disponibles et donc d'améliorer les performances du système. En revanche, l'acquisition et le traitement d'un grand nombre de données biométriques est coûteux en temps et en matériel, et réduit le confort d'utilisation. C'est pour cela que l'architecture en série (Figure 1.5) peut être privilégiée dans certaines applications ; par exemple si la multimodalité est utilisée pour donner une alternative pour les personnes ne pouvant pas utiliser l'empreinte digitale. Pour la majorité des individus seule l'empreinte est acquise et traitée mais pour ceux qui ne peuvent pas être ainsi authentifiés on utilise un système à base d'iris alternativement. [20] Figure.1.6 : Architecture de fusion en parallèle 24 CHAPITRE 1 : La biométrie Figure.1.7 : Architecture de fusion en série (incrémentale ou séquentielle) X. Les niveaux de fusion : La combinaison de plusieurs systèmes biométriques peut se faire à quatre niveaux différents : au niveau des données, au niveau des caractéristiques extraites, au niveau des scores issus du module de comparaison ou au niveau des décisions du module de décision (Figure.1.7). Ces quatre niveaux de fusion peuvent être classés en deux sous-ensembles : la fusion préclassification (avant comparaison) et la fusion post-classification (après la comparaison). [20] La fusion pré-classification correspond à la fusion des informations issues de plusieurs données biométriques au niveau du capteur (images brutes) ou au niveau des caractéristiques extraites par le module d'extraction de caractéristiques. [20] La fusion au niveau du capteur ou des données brutes est relativement peu utilisée car elle nécessite une homogénéité entre les données. Par exemple il est possible de combiner plusieurs images de visages dans des canaux de couleurs différents ou en visible et en infrarouge s'ils correspondent à la même scène. Il est également possible de faire une mosaïque à partir d'images prises de différents points de vue. La fusion au niveau des 25 CHAPITRE 1 : La biométrie caractéristiques est moins limitée par la nature des données biométriques. Cependant une certaine homogénéité est nécessaire pour la plupart des méthodes de fusion au niveau des caractéristiques comme par exemple la moyenne de plusieurs "templates" d'empreintes ou de visage. Un exemple de fusion au niveau des caractéristiques qui ne nécessitent pas vraiment d'homogénéité est la concaténation de plusieurs vecteurs de caractéristiques avant le traitement par l'algorithme de comparaison. Par exemple, dans [6], Jing et al. proposent une méthode de fusion de caractéristiques pour de la fusion de visage et d'empreinte palmaire. La fusion est effectuée par concaténation d'images obtenues par transformée de Gabor sur les images de visage et d'empreinte de la main. Mais la concaténation pose le problème de la dimension de l'espace de classification qui lorsqu'il augmente, rend plus difficile la tache de classification. Les méthodes de fusion pré-classification sont assez peu utilisées car elles posent un certains nombre de contraintes qui ne peuvent être remplies que dans certaines applications très spécifiques. En revanche, la fusion post-classification est très étudiée par les chercheurs. Cette fusion peut se faire au niveau des scores issus des modules de comparaison ou au niveau des décisions. Dans les deux cas, la fusion est en fait un problème bien connu de la littérature sous le nom de "Multiple Classifier systems". [20] La fusion au niveau des décisions est souvent utilisée pour sa simplicité. En effet, chaque système fournit une décision binaire sous la forme OUI ou NON que l'on peut représenter par 0 et 1, et le système de fusion de décisions consiste à prendre une décision finale en fonction de cette série de 0 et de 1. Les méthodes les plus utilisées sont des méthodes à base de votes telles que le OR (si un système a décidé 1 alors OUI), le AND (si tous les systèmes ont décidé 1 alors OUI) ou le vote à la majorité (si la majorité des systèmes ont décidé 1 alors OUI). On peut également utiliser des méthodes plus complexes qui pondèrent les décisions de chaque sous-système ou qui utilisent des classifieurs dans l'espace des décisions tels que BKS (Behaviour Knowledge Space). La fusion au niveau des scores est le type de fusion le plus utilisé car elle peut être appliquée à tous les types de systèmes (contrairement à la fusion pré-classification), dans un espace de dimension limité (un vecteur de scores dont la dimension est égale au nombre de soussystèmes), avec des méthodes relativement simples et efficaces mais traitant plus d'information que la fusion de décisions. La fusion de scores consiste donc à la classification : OUI ou NON pour la décision finale, d'un vecteur de nombres réels dont la dimension est égale au nombre de sous-systèmes. 26 CHAPITRE 1 : La biométrie Figure.1.8 : Les différents niveaux de fusion 27 CHAPITRE 1 : La biométrie Conclusions : XI. Nous avons présenté dans ce premier chapitre le cadre général de cette thèse qui est la biométrie multimodale, ainsi une introduction générale sur la biométrie, ses définitions, son Histoire, ses propriétés et ses applications est présentée. Le terme biométrie regroupe en fait ce que l‟on appelle des modalités biométriques ; contrairement à ce que l‟on possède et que l‟on peut donc perdre (une clé) ou ce que l‟on sait et que l‟on peut donc oublier (un mot de passe), les modalités biométriques représentent ce que l‟on est et permettent de prouver notre identité. Bien que les techniques de reconnaissance biométrique promettent d‟être très performantes, on ne peut garantir actuellement un excellent taux de reconnaissance avec des systèmes biométriques unimodaux, basés sur une unique signature biométrique. C‟est pour cette raison que les systèmes multimodaux ont gagné une place importante dans différents domaines, notamment dans la reconnaissance des individus qui est de plus en plus présente pour accéder à certains endroits privés. Dans, le chapitre suivant, nous allons parler de la reconnaissance faciale qui est l‟instante biométrique utilisée dans ce travail. 28 CHAPITRE 2 : La reconnaissance faciale I. Introduction………………………………………………………………………………………………................................ 30 II. Reconnaissance du visage…………………………………………………….……………………… ............................ 31 III. Principe de fonctionnement d’un système de reconnaissance faciale…..….. ................................ 32 IV. Les méthodes utilisées pour la reconnaissance du visage…………………………… .......................... 33 IV. 1- Les méthodes globales……………………………………………………………………………………….. ............. 33 IV. 2- Les méthodes locales……………………………………………………………………………….…………… ........... 34 IV. 2-1- Méthodes locales basées sur les caractéristiques d'intérêt…………..…………… ............. 35 IV. 2-2- Les méthodes locales basées sur l'apparence du visage…………………………..…………… . 37 IV. 3- Les méthodes hybrides…………………………………………………………………………………..…….. ........... 38 V. VI. Principales difficultés liées à la reconnaissance de visage……………………………… ........................... 40 V. 1- Changement d’illumination………………………………………………………………………..…………. ..... 40 V. 2- Variation de pose………………………………………………………………………………..………………........ 40 V. 3- Expressions faciales………………………………………………………………………….…………………… ..... 41 V. 4- Présence ou absence des composants structurels……………………………………………... ........ 41 V. 5- Occultations partielles……………………………………………………………………..………………………... 41 Conclusion……………………………………………………………………………………….………….. ........................ 43 CHAPITRE 2 : La reconnaissance faciale I. Introduction : La reconnaissance d‟un individu à travers son visage est une tâche facile pour l‟homme, il l‟effectue naturellement et sans effort dans sa vie quotidienne. Actuellement, on assiste à un développement considérable des systèmes informatiques et des ordinateurs en termes de puissance et de vitesse. Ce progrès technologique a suscité un énorme intérêt dans le traitement automatique des images et des vidéos numériques au sein de nombreuses applications, à savoir l‟identification biométrique, l‟interaction homme-machine, la surveillance et la gestion de données multimédia. La reconnaissance faciale, en particulier, a pris une part de plus en plus importante dans le domaine de l‟identification biométrique, ceci étant dû à la rapidité du développement des technologies, donc, un besoin grandissant de sécurité a été ressenti. En fait, l‟authentification automatique des individus devient, de nos jours, une étape capitale dans le domaine de la sécurité et de contrôle d‟accès aux zones industrielles, militaires et aux systèmes informatiques. 30 CHAPITRE 2 : La reconnaissance faciale II. Reconnaissance du visage : La problématique de la reconnaissance de visages peut être formulée comme suit : étant donné une ou plusieurs images d'un visage, la tâche est de trouver ou de vérifier l'identité d'une personne par comparaison de son visage à l'ensemble des images de visage stockées dans une base de données. Des informations supplémentaires telles que la race, l'âge, le sexe, ou la parole peuvent être utilisées pour réduire l'espace de recherche, ce qui permet d'améliorer les performances de reconnaissance. La reconnaissance faciale possède plusieurs avantages sur les autres technologies biométriques : elle est naturelle, non intrusive et facile à utiliser. Parmi les six attributs biométriques considérés par Hietmeyer [35], les caractéristiques faciales marquent un score de compatibilité le plus élevé dans un système MRTD (“Machine Readable Travel Documents”) [23], ce score étant basé sur plusieurs facteurs d’évaluation tels que l‟enrôlement, le renouvellement des données, les requis matériels et la perception des utilisateurs (Figure. 2.1). Figure. 2.1 :Scores de compatibilité pour différentes technologies biométriques dans un système MRTD. 31 CHAPITRE 2 : La reconnaissance faciale III. Principe de fonctionnement d’un système de reconnaissance faciale : Un système de reconnaissance faciale doit, donc, pouvoir identifier des visages présents dans une image ou une vidéo de manière automatique. Le système peut opérer dans les deux modes suivants : authentification ou identification ; on peut également noter qu‟il existe un autre type de scénario de reconnaissance faciale mettant en jeu une vérification sur une liste de surveillance (“watch-list”), où un individu est comparé à une liste restreinte de suspects. [23] Le principe de fonctionnement d‟un système de reconnaissance faciale (Figure. 2.2) peut être résumé en quatre étapes : La détection du visage, la normalisation du visage, l‟extraction et la comparaison des caractéristiques. Figure. 2.2 :Principe de fonctionnement de base d‟un système de reconnaissance faciale. Les deux premières étapes (la détection et la normalisation) s‟effectuent en amont du système alors que les deux dernières (l’extraction et la comparaison) représentent la reconnaissance proprement dite. Les systèmes de reconnaissance faciale ont suscité beaucoup d‟intérêt depuis les premiers travaux qui ont été menés dans les années 1960-1970 par Benton et Van Allen en 1968 pour évaluer la capacité d'identification des visages non familiers, de nombreux algorithmes de reconnaissance du visage ont été proposés depuis. Certaines méthodes se basent sur une photographie (2D) du visage tandis que d‟autres méthodes prennent en compte des informations 3D de celui-ci. Cet intérêt pour la reconnaissance de visages est sans doute dû à la multiplicité et la variété des champs d‟applications de cette approche, à savoir le contrôle d‟accès, la télésurveillance et l‟identification des criminels...). 32 CHAPITRE 2 : La reconnaissance faciale IV. Les méthodes utilisées pour la reconnaissance du visage : De nombreuses méthodes de reconnaissance de visages ont été proposées au cours des 30 dernières années. La reconnaissance faciale automatique est un domaine plein de défis et de challenges, c‟est pour cette raison qu‟il a suscité de nombreuses recherches dans diverses disciplines, notamment dans la psychologie, la neurologie, les mathématiques, la physique, et l‟informatique (reconnaissance des formes, réseaux de neurones, vision par ordinateur). C'est la raison pour laquelle la littérature sur la reconnaissance de visages est vaste et diversifiée. Dans la littérature, il existe plusieurs façons de catégoriser les systèmes de reconnaissance de visages, par exemple certains auteurs divisent les systèmes de reconnaissance en deux classes de méthodes : [28] méthodes basées sur l'apparence et méthodes basées modèle. Les méthodes basées sur l'apparence tentent de caractériser l'apparence du visage en concaténant les pixels de visage, alors que celles basées modèle créent des modèles spécifiques et identiques en utilisant les caractéristiques choisies sur les visages. Mais la classification la plus courante divise les méthodes de reconnaissance faciale en trois catégories : IV. 1- Les méthodes globales : Ces méthodes utilisent la région entière du visage comme entrée du système de reconnaissance. L'une des méthodes la plus largement utilisée pour la représentation du visage dans son ensemble est la représentation à partir de l'image de visages propres ou eigenfaces [23] basée sur une analyse en composantes principales (ACP). Le principe de ces méthodes est de représenter une image faciale par un seul vecteur de grande dimension en concaténant les niveaux de gris de tous les pixels de visage. Cette représentation, appelée description basée sur l'apparence globale, a deux avantages : [28] Premièrement, elle conserve implicitement toutes les informations de texture et de forme utiles pour différentier des visages. Deuxièmement, elle peut tenir compte des aspects d'organisation structurelle globaux du visage. Pour traiter le problème de la grande dimension des données, des techniques de réduction de dimensionnalité peuvent être utilisées. En effet, une des techniques les plus courantes pour la reconnaissance faciale est la description par visages propres [23], qui est basée sur l'analyse en composantes principales (ACP). Par la suite, et en allant du principe de base de l‟ACP, 33 CHAPITRE 2 : La reconnaissance faciale plusieurs variantes ont été développées au cours des dernières années, à savoir l'ACP à noyaux et l'ACP à deux dimensions [15], les Fisherfaces basés sur une analyse discriminante linéaire (LDA) [02], le modèle probabiliste Bayésien [07], les machines à vecteurs de support (SVMs) [31] et le visage laplacien (laplacianfaces) [42]. Ces approches ont des performances supérieures à celles de la méthode originale basée sur le visage propre. Néanmoins, elles ne fonctionnent plus dès lors qu'une seule image de référence est disponible pour chaque personne à reconnaitre. [28] IV. 2- Les méthodes locales : Typiquement, ces méthodes extraient tout d'abord des caractéristiques locales, puis utilisent leurs statistiques locales (la géométrie et/ou l'apparence) comme donnée d'entrée du classificateur. Les méthodes locales peuvent être classées en deux catégories : les méthodes basées sur les points d'intérêt et celles basées sur l'apparence du visage. Dans la première catégorie, on détecte tout d'abord les points d'intérêt et ensuite on extrait des caractéristiques localisées sur ces points d'intérêt, alors que dans la seconde, on divise le visage en petites régions (ou patchs) sur lesquelles les caractéristiques locales sont extraites directement. En comparaison avec les approches globales, les méthodes locales présentent certains avantages : [28] Tout d'abord, les approches locales peuvent fournir des informations supplémentaires basées sur les parties locales. De plus, pour chaque type de caractéristiques locales, on peut choisir le classificateur le plus adapté. Cependant, l'intégration d'informations de structure plus globale est nécessaire. En fait, il y a deux façons de faire pour atteindre cet objectif : [28] Les informations globales sont intégrées dans les algorithmes en utilisant des structures de données, telles qu'un graphe où chaque nœud représente une caractéristique locale alors qu'une arrête entre deux nœuds représente la relation spatiale entre eux. La reconnaissance de visage apparaît comme un problème de conjonction de deux graphes. La deuxième façon consiste à utiliser des techniques de fusion de scores : des classificateurs séparés sont utilisés sur chaque caractéristique locale pour calculer une similarité et ensuite les similarités obtenues sont combinées afin d'obtenir un score global pour la décision finale. 34 CHAPITRE 2 : La reconnaissance faciale IV. 2-1- Méthodes locales basées sur les caractéristiques d'intérêt : Les méthodes les plus anciennes en reconnaissance de visages appartiennent à cette catégorie. Elles s'appuient toutes sur l'extraction de caractéristiques géométriques spécifiques telles que la largeur de la tête, les distances entre les yeux, etc. Ces données sont ensuite utilisées par des classificateurs afin de reconnaitre des individus. Ces méthodes présentent les deux inconvénients suivants : [28] Les caractéristiques géométriques sont difficiles à extraire dans certains cas puisque la tâche de détection précise de points caractéristiques n'est pas facile, en particulier dans les cas où des occultations ou des variations (pose, expression) de visages sont présentes, en plus, les caractéristiques géométriques seules ne sont pas suffisantes pour représenter entièrement un visage, et d'autres informations utiles telles que les valeurs des niveaux de gris de l'image sont complètement écartées. Pour remédier à ce problème, deux directions de recherches ont été menées : La première se concentre sur les performances des détecteurs de points caractéristiques du visage. Dans [14], Brunelli et Poggio ont proposé d'utiliser un ensemble d'apprentissage pour détecter la position de l'œil dans une image. Ils ont tout d'abord calculé pour chaque point des coefficients de corrélation entre l'image de test et les images de l'ensemble d'apprentissage et ensuite ils ont cherché les valeurs maximales. Rowley et al. [13] ont utilisé plusieurs détecteurs de traits spécifiques correspondant à chaque partie du visage, telles que les yeux, le nez, la bouche, etc. Lanitis et al. [01] ont proposé de construire des modèles statistiques de la forme du visage. Dans la deuxième direction, les méthodes se concentrent sur des représentations plus élaborées des informations portées par les points caractéristiques du visage, plutôt que simplement sur des caractéristiques géométriques. Manjunath et al. [08] ont proposé des algorithmes pour détecter et représenter des caractéristiques faciales à partir d'ondelettes de Gabor. Pour chaque point détecté, deux types d'information sont stockées : sa position et ses caractéristiques (les caractéristiques sont extraites en utilisant le filtre Gabor sur le point considéré). Pour modéliser la relation entre les points caractéristiques, un graphe topologique est construit pour chaque visage. Basée sur cette idée, Lades et al. [21] ont proposé d'utiliser un graphe topologique déformable au lieu d'un graphe topologique fixe comme dans [08] afin de proposer un modèle de représentation du visage appelé Dynamic Link Architecture (DLA). Cette approche permet de faire varier le graphe en échelle et en position en fonction des variations d'apparence du 35 CHAPITRE 2 : La reconnaissance faciale visage considéré. Le graphe est une grille rectangulaire localisée sur l'image (Figure. 2.3) où les nœuds sont étiquetés avec les réponses des filtres de Gabor dans plusieurs orientations et plusieurs fréquences spatiales appelées jets. Les bords sont étiquetés par des distances, où chaque bord relie deux nœuds sur le graphe. Figure. 2. 3 : Exemple de grille d'appariement. (a) grille de référence, (b) grille correspondante. La comparaison entre deux graphes de visage est réalisée en déformant et en mettant en correspondance le graphe représentatif de l'image de test avec chacun des graphes représentatif des images de référence. Plus tard, Wiskott et al. [19] ont étendu l'utilisation de DLA à une méthode très connue appelée Elastic Bunch Graph Matching (EBGM), où les nœuds des graphes sont situés sur un certain nombre de points sélectionnés du visage (figure. 2.4). De manière similaire à la méthode de Manjunath et al. [35], Wiskott et al. ont utilisé les ondelettes de Gabor pour extraire les caractéristiques des points détectés car les filtres de Gabor sont robustes aux changements d'illumination, aux distorsions et aux variations d'échelle. 36 CHAPITRE 2 : La reconnaissance faciale Figure. 2. 4 : Elastic Bunch Graph Matching (EBGM). Enfin, de nombreuses méthodes basées sur l'extraction de points caractéristiques ont été proposées et ces méthodes peuvent être utiles et efficaces pour la reconnaissance faciale dans le cas où une seule image de référence est disponible. Cependant, leurs performances dépendent beaucoup de l'efficacité des algorithmes de localisation des points caractéristiques du visage. Et en pratique, la tâche de détection précise des points caractéristiques n'est pas facile, en particulier dans les cas où la forme ou l'apparence d'une image du visage peuvent beaucoup varier. [28] IV. 2-2- Les méthodes locales basées sur l'apparence du visage : Dans la majorité des cas, les méthodes de reconnaissance de visages basées sur l'apparence locale du visage comportent quatre étapes : [28] - Le découpage en régions de la zone du visage ; - L'extraction des caractéristiques ; - La sélection des caractéristiques ; - La classification. Ces quatre étapes ne sont pas obligatoires pour toutes les méthodes. Notamment, la troisième étape de sélection des caractéristiques, qui peut être éliminée ou combinée avec d'autres étapes. - Le découpage en régions : Les deux facteurs qui définissent une région locale sont sa forme et sa taille. La forme peut être rectangulaire, elliptique, etc. (Figure. 2.5) mais ce qui est le plus largement utilisé est le découpage rectangulaire. Les fenêtres peuvent être superposées ou non. La taille de la région a une influence directe sur le nombre de caractéristiques et la robustesse de la méthode. 37 CHAPITRE 2 : La reconnaissance faciale Figure. 2.5 : Formes locales typiques des régions d'images utilisées par les méthodes basées sur l'apparence locale. - L’extraction des caractéristiques locales : Une fois que les régions locales ont été définies, l‟étape suivante consiste à choisir la meilleure manière de représenter les informations de chaque région. Cette étape est très importante dans la mesure où elle influe sur les performances du système de reconnaissance. Les caractéristiques couramment utilisées sont les valeurs de gris, les coefficients de Gabor, les ondelettes de Harr [32], les transformées de Fourier, les caractéristiques basées sur les indices LBP (Local Binary Pattern) [39] ou SIFT (Scale Invariant Feature Transform) [38]. - Sélection des caractéristiques : Cette étape consiste à sélectionner les caractéristiques les plus pertinentes, elle sert à améliorer la rapidité du traitement. En effet, on trouve parmi les méthodes de sélection : l'ACP qui est une méthode couramment utilisée pour sélectionner des caractéristiques en garantissant une perte minimum d'informations ; LDA qui peut être utilisée pour sélectionner les caractéristiques les plus discriminantes, d'autres techniques comme l'Adaboost [38] sont également possibles pour cette tâche. - Classification : C‟est la dernière étape du processus d'identification de visage dont la stratégie la plus utilisé est de réaliser la fusion par vote à la majorité ou par somme pondérée de l'ensemble des décisions prises par chaque classificateur agissant sur une caractéristique faciale donnée. IV. 3- Les méthodes hybrides : Appelée aussi méthodes de fusion combinent les deux types de caractéristiques locales et globales. Les paramètres clés qui influent les performances des méthodes de fusion résident 38 CHAPITRE 2 : La reconnaissance faciale dans le choix des caractéristiques pour la combinaison et la manière de les combiner de telle sorte que leurs avantages soient préservés et que leurs inconvénients soient évités. Les propriétés des caractéristiques locales et celles des caractéristiques globales sont très différentes et peuvent offrir des informations complémentaires utiles à la tâche de classification. Ainsi, les méthodes locales peuvent être considérées comme des méthodes hybrides car des informations globales sont généralement prises en compte. A titre d‟exemple, l‟algorithme LogGabor PCA(LG-PCA) [30] représente un exemple d‟algorithme hybride, en fait il effectue une convolution avec des ondelettes de Gabor orientées autour de certains points caractéristiques du visage afin de créer des vecteurs contenant la localisation et la valeur d’amplitudes énergétiques locales ; ces vecteurs sont ensuite envoyés dans un algorithme ACP afin de réduire la dimension des données. Les variations des images de visages ont une influence considérable sur les caractéristiques locales et les caractéristiques globales ce qui implique une influence sur le système de reconnaissance, le tableau (2.1) résume les degrés d‟influences de ces variations sur les caractéristiques locales et globales : [28] Variations Caractéristiques locales Caractéristiques globales Petites variations Pas sensible Sensible Grandes variations Sensible Très sensible Illuminations Pas sensible Sensible Expressions Pas sensible Sensible Pose Sensible Très sensible Bruit Très sensible Sensible Occultations Pas sensible Très sensible Tableau. 2.1 : Comparaison des propriétés des caractéristiques locales et des caractéristiques globales. 39 CHAPITRE 2 : La reconnaissance faciale V. Principales difficultés liées à la reconnaissance de visage : Pour le cerveau humain, le processus de la reconnaissance de visages est une tâche visuelle de haut niveau. Bien que les êtres humains puissent détecter et identifier des visages dans une scène sans beaucoup de peine, construire un système automatique qui accomplit de telles tâches représente un sérieux défi. Ce défi est d‟autant plus grand lorsque les conditions d‟acquisition des images sont très variables. Il existe deux types de variations associées aux images de visages : [38] inter et intra sujet. La variation inter-sujet est limitée à cause de la ressemblance physique entre les individus. Par contre la variation intra-sujet est plus vaste. Elle peut être attribuée à plusieurs facteurs que nous analysons ci-dessous. V. 1- Changement d’illumination L‟apparence d‟un visage dans une image varie énormément en fonction de l‟illumination de la scène lors de la prise de vue (Figure.2.6). Les variations d‟éclairage rendent la tâche de reconnaissance de visage très difficile. En effet, le changement d‟apparence d‟un visage du à l'illumination, se révèle parfois plus critique que la différence physique entre les individus, et peut entraîner une mauvaise classification des images d'entrée. Figure.2.6 : Exemple de variation d‟éclairage. V. 2- Variation de pose : Le taux de reconnaissance de visage baisse considérablement quand des variations de pose sont présentes dans les images. La variation de pose est considérée comme un problème majeur pour les systèmes de reconnaissance faciale. Quand le visage est de profil dans le plan image (orientation < 30°), il peut être normalisé en détectant au moins deux traits faciaux (passant par les yeux). Cependant, lorsque la rotation est supérieure à 30°, la normalisation géométrique n'est plus possible. [38] (Figure.2.7). 40 CHAPITRE 2 : La reconnaissance faciale Figure.2.7 : Exemples de variation de poses. V. 3- Expressions faciales Un autre facteur qui affecte l‟apparence du visage est l‟expression faciale (Figure.2.8). La déformation du visage qui est due aux expressions faciales est localisée principalement sur la partie inférieure du visage. L'information faciale se situant dans la partie supérieure du visage reste quasi invariable. Elle est généralement suffisante pour effectuer une identification. Toutefois, étant donné que l'expression faciale modifie l'aspect du visage, elle entraîne forcément une diminution du taux de reconnaissance. Figure.2.8 : Exemples de variation d‟expressions. V. 4- Présence ou absence des composants structurels La présence des composants structurels telle que la barbe, la moustache, ou bien les lunettes peut modifier énormément les caractéristiques faciales telles que la forme, la couleur, ou la taille du visage. De plus, ces composants peuvent cacher les caractéristiques faciales de base causant ainsi une défaillance du système de reconnaissance. Par exemple, des lunettes opaques ne permettent pas de bien distinguer la forme et la couleur des yeux, et une moustache ou une barbe modifie la forme du visage. V. 5- Occultations partielles Le visage peut être partiellement masqué par des objets dans la scène, ou par le port d‟accessoire tels que lunettes, écharpe... Dans le contexte de la biométrie, les systèmes proposés doivent être non intrusifs c‟est-à-dire qu‟on ne doit pas compter sur une coopération 41 CHAPITRE 2 : La reconnaissance faciale active du sujet. Par conséquent, il est important de savoir reconnaître des visages partiellement occultés. Figure.2.9 : Une classification des algorithmes principaux utilisés en reconnaissance faciale. 42 CHAPITRE 2 : La reconnaissance faciale VI. Conclusion : La reconnaissance faciale est un domaine de recherche très actif en raison de ses nombreuses applications dans le domaine de la vision par ordinateur en général et en biométrie en particulier. Cet intérêt est motivé par plusieurs raisons. D‟abord, le visage est universel. Ensuite, il est le moyen le plus naturel par les êtres humains de s‟identifier les uns des autres. Enfin, le visage en tant que modalité biométrique est présente un caractère non intrusif, ce qui le distingue d‟autres modalités biométriques comme l‟iris ou l‟emprunte digitale. La reconnaissance faciale représente aussi des défis scientifiques importants, ce qui a conduit à l‟apparition de plusieurs approches. 43 CHAPITRE 3 : Extraction des caractéristiques I. Introduction……………………………………………………………………………..…………………….. ......................... 45 II. L’image……………………………………………………..………………………………..…………………. .......................... 46 II. 1- Définition de l’image…………………………………………………………………….….………… .......................... 46 II. 2- Représentation des images numériques………………………………..…………………….......................... 46 II. 3- Traitements d’image…………………………………………………………………….…..……. ............................. 46 III. Les filtres de Gabor……………………………………………………………………………….………. ...................... 46 IV. L’Analyse en Composantes Principales (ACP)……………………………….………...……… ...................... 48 V. Conclusion……………………………………………………………………………………………….……… ......................... 54 CHAPITRE 3 : Extraction des caractéristiques I. Introduction : Dans toutes les méthodes de reconnaissance faciale la définition et l'extraction des caractéristiques faciales sont parmi les questions les plus pertinentes, car dans cette étape les caractéristiques extraites représentent le mieux les informations portées par un visage ce qui mène à une meilleure reconnaissance, en fait, Le premier problème de l‟analyse d‟image est de ne conserver que ce qui est utile à la suite du processus. Le choix de caractéristiques locales présente plusieurs avantages par rapport à des caractéristiques globales. C'est pour cette raison que les systèmes les plus récents s'appuient sur des caractéristiques faciales locales. Plusieurs méthodes d‟extraction de caractéristiques existent dans la littérature, nous allons présenter celles qui sont les plus utilisées dans le domaine de la reconnaissance faciale. 45 CHAPITRE 3 : Extraction des caractéristiques II. L’image : II. 1- Définition de l’image : L‟image est une représentation d‟une personne ou d‟un objet par la peinture, la sculpture, le dessin, la photographie, le film, etc. C‟est aussi un ensemble structuré d‟informations qui, après affichage sur l‟écran, ont une signification pour l‟œil humain. [36] II. 2- Représentation des images numériques : Une image numérique est une matrice de pixels repérés par leur coordonnées (x,y). S'il s'agit d'une image couleur, un pixel est codé par 3 composantes (R,G,B) (chacune comprise au sens large entre 0 et 255), représentant respectivement les "doses" de rouge, vert et bleu qui caractérisent la couleur du pixel. S'il s'agit d'une image en niveau de gris, il est codé par 1 composante comprise au sens large entre 0 et 255, représentant la luminosité du pixel. [36 ] II. 3- Traitements d’image : Pour manipuler une image, on travaille sur un tableau d'entiers qui contient les composantes de chaque pixel. Les traitements s'appliquent toujours aux images en niveau gris et parfois aussi sur des images couleur. En effet, L'œil humain possède des récepteurs pour les trois couleurs primaire rouge, vert et bleu, en plus, tous les espaces couleur ont trois dimensions. [36] Il ya plusieurs espaces de couleurs disponibles, les plus connus étant RVB (Rouge-Vert-Bleu) et HSV (Hue-Saturation-Valeur). Dans notre travail, l‟image du visage est convertie vers la base RGB. III. Les filtres de Gabor : Les filtres de Gabor, défini par Dennis Gabor, sont largement utilisé dans le domaine du traitement d'images, car ils présentent deux propriétés intéressantes : la localisation fréquentielle et la sélectivité en orientation. Les représentations en fréquence et en orientation du filtre Gabor s'apparentent à celles du système visuel humain [11]. Les ondelettes en dimension deux de Gabor ont été introduites dans le domaine de la recherche biométrique par Daugman [32] pour la reconnaissance d'iris. Lades et al. [21] ont utilisé les premiers les ondelettes de Gabor en reconnaissance faciale en utilisant la Dynamic Link Architecture. 46 CHAPITRE 3 : Extraction des caractéristiques Un noyau de filtre de Gabor est le produit d'une onde complexe sinusoïdale avec une enveloppe gaussienne. Une ondelette de Gabor généralement utilisée dans la reconnaissance faciale est définie comme suit : Où z = (x; y) est le point de coordonnées (x; y) dans le plan image. Les paramètres u et v définissent l'orientation et la fréquence des noyaux de Gabor ‖.‖ est l'opérateur norme, et σ est l'écart-type de l'enveloppe gaussienne. L'intérêt d'utiliser les filtres de Gabor pour extraire des caractéristiques faciales est qu'ils permettent de capturer les informations de visage dans des orientations et des résolutions différentes. De plus, ils sont robustes aux changements d'illumination, aux distorsions et aux variations d'échelle. Figure.3.1 : Exemple de représentation faciale en ondelettes de Gabor : les réponses en l'amplitude (a) et en phase (b) d'un visage avec 40 noyaux de Gabor (5 échelles, 8 orientations). La convolution d'une image avec 40 noyaux de Gabor (5 échelles et 8 orientations) donne 40 cartes d'amplitude et 40 cartes de phase qui ont la même taille que l'image originale, comme illustrée sur la figure.3.1. Par conséquent, si on ne considère que la réponse en amplitude, chaque pixel est décrit par un vecteur de dimension 40. Ce vecteur de dimension 40 est également appelé « Jet » et il a été utilisé largement dans les systèmes les plus anciens, tels que le LDA et EGBM [37]. Notons que ce sont des méthodes basées sur des points caractéristiques qui doivent être détectés très précisément. Dans les méthodes plus récentes 47 CHAPITRE 3 : Extraction des caractéristiques telles que [73], les auteurs ont utilisé directement une image de caractéristiques contenant les 40 cartes d'amplitude comme entrée de reconnaissance. Dans [79], Mellakh utilise les réponses en phase comme indice facial. Bien entendu, des méthodes de réduction de dimension ont été utilisées, telles que le sous-échantillonnage ou l'ACP avec ses variantes. Plusieurs métriques ont été testées pour les caractéristiques basées sur les filtres de Gabor et celle qui est la plus souvent utilisée est la distance cosinus. IV. L’Analyse en Composantes Principales (ACP) : L'algorithme PCA est né des travaux de M. A. Turk et A. P. Pentland au MIT Media Lab, en 1991. Il est aussi connu sous le nom de Eigenfaces car il utilise des vecteurs propres et des valeurs propres (respectivement Eigenvectors et Eigenvalues en anglais).[29] L‟idée principale consiste à exprimer M images de départ selon une base de vecteurs orthogonaux particuliers : les vecteurs propres, contenant des informations indépendantes d‟un vecteur à l‟autre. Les données originales seront donc exprimées d‟une manière plus appropriée à la reconnaissance du visage. [29] En termes mathématiques, cela revient à trouver les vecteurs propres de la matrice de covariance formée par les différentes images de la base d‟apprentissage. Une image Ii(m,n) est traitée comme un vecteur Γi(m×n,1) dans un espace vectoriel de grande dimension (N = m × n), par concaténation des colonnes (Figure.3.2). [29] Figure.3.2 : Passage d‟une image vers un vecteur dans un espace vectoriel de grande dimension. Les coefficients ai,j représentent les valeurs des pixels en niveau de gris, codés de 0 à 255. Après avoir rassemblé les M images dans une unique matrice, nous obtenons une matrice d‟images Γ, où chaque colonne représente une image Γi : [29] 48 CHAPITRE 3 : Extraction des caractéristiques On calcule ensuite l‟image moyenne ѱ de toutes les images collectées. Cette image peut être vu comme le centre de gravité du jeu d‟images : [29] On ajuste ensuite les données par rapport à la moyenne. L‟image moyenne est alors soustraite de chaque image avec la formule suivante : [29] On calcule ensuite la matrice de covariance du jeu de données. Cette matrice peut être vue comme une matrice de moments d‟ordre 2 : [29] La prochaine étape consiste à calculer les vecteurs propres et les valeurs de cette matrice de covariance C de taille (N × N), c‟est-à-dire de l‟ordre de la résolution d‟une image. Le problème est que cela peut parfois être très difficile et très long. En effet, si N > M (si la résolution est supérieure au nombre d‟images), il y aura seulement M − 1 vecteurs propres qui contiendront de l‟information (les vecteurs propres restants auront des valeurs propres associées nulles). Par exemple, pour 100 images de résolution 320×240, nous pourrions résoudre une matrice L de 100 × 100 au lieu d‟une matrice de 76800 × 76800 pour ensuite prendre les combinaisons linéaires appropriées des images. Le gain de temps de calcul serait considérable. Typiquement, nous passerions d‟une complexité de l‟ordre du nombre de pixels dans une image à une complexité de l‟ordre du nombre d‟images. [29] Pour accélérer les calculs, on considère les vecteurs propres ei de C = AAT , associés aux valeurs propres λi : [29] 49 CHAPITRE 3 : Extraction des caractéristiques Cei = λiei Les vecteurs propres vi de L = ATA, associés aux valeurs propres μi sont tels que : Lvi = μivi En multipliant à gauche par A des deux côtés de l‟égalité, nous obtenons : Puisque C = AAT , nous pouvons simplifier : On remarque que Avi et μi sont respectivement les vecteurs propres et les valeurs propres de C: On peut, donc trouver les valeurs propres de cette énorme matrice C en trouvant les valeurs propres d‟une matrice L beaucoup plus petite. Pour trouver les vecteurs propres de C, il suffit juste de pré-multiplier les vecteurs propres de L par la matrice A. Les vecteurs propres trouvés sont ensuite ordonnés selon leurs valeurs propres correspondantes, de manière décroissante. Plus une valeur propre est grande, plus la variance capturée par le vecteur propre est importante. Cela implique que la majeure partie des informations est contenue dans les premiers vecteurs propres. Une part de la grande efficacité de l‟algorithme ACP vient de l‟étape suivante qui consiste à ne sélectionner que les k meilleurs vecteurs propres (ceux avec les k plus grandes valeurs propres). On définit alors un espace vectoriel engendré par ces k vecteurs propres, que l‟on appelle l’espace des visages Ev (“Face Space”).[29] Les images originales peuvent être reconstituées par combinaison linéaire de ces vecteurs propres, on les appelle eigenfaces (Figure.3.3). 50 CHAPITRE 3 : Extraction des caractéristiques Figure.3.3 : Image moyenne et les 15 eigenfaces. Les images de départ sont ensuite projettées sur Ev. Une image Γ i est alors transformée en ses composantes eigenfaces par une simple opération de projection vectorielle: [29] Les vecteurs ωk sont appelés poids et forment une matrice T = [ω1, ω2, ..., ωM′ ] qui décrit la contribution de chaque eigenface dans la représentation de l‟image d‟entrée. [29] La matrice T est alors utilisée pour trouver quelle est, parmi un nombre prédéfini de classes, celle qui décrit le mieux une image d‟entrée. [29] La méthode la plus simple pour déterminer quelle classe de visage fournit la meilleure description d‟une image d‟entrée est de trouver la classe de visage k qui minimise la distance euclidienne. [29] où k est un vecteur qui décrit la keme classe de visage. Un visage appartient à une classe k quand le minimum εk est en dessous d‟un certain seuil θ". Dans le cas contraire, le visage est classé comme étant inconnu et peut éventuellement être utilisé pour créer une nouvelle classe de visage. La création de la matrice de poids T est équivalent à la projection du visage original sur Ev. Puisque la distance ε entre l‟image de 51 CHAPITRE 3 : Extraction des caractéristiques visage et Ev est simplement le carré de la distance entre l‟image d‟entrée réajustée par rapport à la moyenne : [29] sa projection sur Ev est : [29] Il y a alors quatre possibilités pour une image d‟entrée d‟être reconnue ou non (Figure.3.4). Figure.3.4 : Les quatre résultats de la projection d‟une image sur Ev. (il y a deux vecteurs propres (u1 et u2) et trois classes d‟individus connus (1, 2, 3)). Dans le cas 1, un individu est reconnu et identifié. Dans le cas 2, un individu inconnu est présent. Les deux derniers cas (3 et 4) indiquent que l‟image n‟est pas une image de visage. Pour le cas 3, l‟image est éloigné de Ev mais la projection est proche d‟une classe connue, on parle alors de fausse acceptation. Ces remarques sont résumées dans le tableau.3.1. 52 CHAPITRE 3 : Extraction des caractéristiques Espaces des visages Ev Classe de visage 1 Proche Proche 2 Proche éloigné 3 éloigné Proche 4 éloigné éloigné Tableau3.1 : Etats des individus sur Ev En résumé, l‟algorithme ACP est une méthode globale utilisant en premier lieu les niveaux de gris des pixels d‟une image. Sa simplicité à mettre en œuvre contraste avec une forte sensibilité aux changements d‟éclairement, de pose et d‟expression faciale. [41] Le principe selon lequel on peut construire un sous-espace vectoriel en ne retenant que les « meilleurs »vecteurs propres, tout en conservant beaucoup d‟information utile, fait de l‟ACP un algorithme efficace et couramment utilisé en réduction de dimensionnalité. 53 CHAPITRE 3 : Extraction des caractéristiques V. Conclusion : Dans tout problème de reconnaissance de formes, l‟étape d‟extraction des caractéristiques est cruciale. En effet, elle permet de ne retenir que les informations jugées utiles pour la phase de décision, ce qui réduit considérablement le temps de réponse du système, en outre l‟extraction assure une réduction de la dimensionnalité des données en se focalisant sur la partie utile des informations. Il existe une multitude de méthodes d‟extraction, entre autre, les filtres de Gabor qui sont des outils performants et très réputés dans le domaine de reconnaissance faciale, notamment dans le module d‟extraction des caractéristiques. En plus, la réduction de la dimension est une étape nécessaire dans le processus du prétraitement des données, en fait, la méthode ACP, utilisée dans ce travail est un ancien algorithme mais encore très utilisé vu les résultats fiables qu‟il assure. 54 CHAPITRE 4 : Classification avec MLP et SOM I. Introduction……………………………………………………….……………………..………………………..………. ............ 56 II. Notion d’apprentissage……………………………………………………………………………………………….. ............ 57 III. MLP (Multi Layer Perceptron)…………………………………………………………………………………….. ......... 57 III. 1- Architecture de MLP…………………………………………………………………………………………….. ........... 58 III. 2-Algorithme MLP…………………………………………………………………………………………………….. ........... 59 IV. Les cartes de KOHONEN………………………………………………………………………………………... .............. 60 IV. 1- La théorie de KOHONEN……………………………………………………………………………………................ 60 IV. 2- Les différentes topologies de la carte de KOHONEN…………………………..………………….. ......... 61 IV. 3- Caractéristiques des cartes de KOHONEN…………………………………………….……………….. ......... 62 IV. 4- Processus des cartes de KOHONEN………………………………………………………………………….......... 62 IV. 5- Quelques domaines d’utilisation des cartes de KOHONEN………………………………………. ........ 66 IV. 6- Avantages…………………………………………………………………………………………………….……….... ........ 66 IV. 7- Limites des cartes de KOHONEN…………………………………………………………………….………… ....... 67 V. Conclusion……………………………………………………………………………………………………………..……. ............ 68 CHAPITRE 4 : Classification avec MLP et SOM I.Introduction Pour étudier, résumer, représenter des données multidimensionnelles comprenant à la fois des variables quantitatives (à valeurs continues réelles) et qualitatives (discrètes, ordinales ou nominales), il existe de nombreuses méthodes performantes, éprouvées et déjà implantées dans la plupart des logiciels statistiques. Plus récemment, depuis les années 80, de nouvelles méthodes sont apparues, connues sous le nom de méthodes neuronales. Elles proviennent de travaux pluridisciplinaires où se sont retrouvés des biologistes, des physiciens, des informaticiens, des théoriciens du signal, des cogniticiens, des mathématiciens et statisticiens. Outre le fait qu‟elles sont partiellement issues d‟une inspiration biologique ou cognitive, ces méthodes ont rencontré rapidement un certain succès en particulier à cause de leur caractère de « boîte noire », d‟outil à tout faire, ayant de très nombreux domaines d‟applications. [24] Les travaux réalisés dans le domaine des réseaux de neurones ont gagné une vaste marge dans diverses applications, notamment dans la reconnaissance de formes, cela est dû à la robustesse et la fiabilité des algorithmes, en fait il existe plusieurs types de réseaux de neurones tels que : LVQ (learning Vector Quantization), BPN (Back Propagation Network), les réseaux de Hopfield, MLP (Multi Layer Perceptron) et les cartes SOM (Self Organization Maps) de KOHONEN. Dans notre travail, nous avons utilisé dans la phase de classification des images faciales, deux types de réseaux de neurones, à savoir le réseau MLP et les cartes auto organisatrices de KOHONEN. 56 CHAPITRE 4 : Classification avec MLP et SOM II. Notion d’apprentissage L'apprentissage est vraisemblablement la propriété la plus intéressante des réseaux de neurones ; C‟est la phase du développement du réseau, durant laquelle le comportement de ce dernier est modifié jusqu'à l'obtention du comportement désiré. Durant l'apprentissage neuronal, une modification des poids du réseau est indispensable dans le but d'avoir une meilleure réponse du réseau, cette réponse est atteinte lorsque le réseau se stabilise, il est souvent impossible de décider à priori des valeurs des poids des connexions d'un réseau pour une application donnée. A l'issu de l'apprentissage, les poids sont fixés: c'est alors la phase de généralisation ; On peut distinguer deux types d'apprentissages: L‟apprentissage "supervisé" ; L‟apprentissage "non supervisé". Le premier type consiste à présenter au réseau des formes dont les catégories sont connues à l'avance, l'ensemble d'apprentissage est nécessaire pour permettre à un algorithme de jouer sur les poids et de fixer ceux-ci jusqu'à ce que la sortie du réseau s'approche le plus près possible des catégories cibles. Tandis que le deuxième type d‟apprentissage, non supervisé, consiste à détecter automatiquement des régularités qui figurent dans les exemples et à modifier les poids des connexions pour que les exemples ayant les mêmes caractéristiques de régularité et provoquent la même sortie ; La première règle d'apprentissage connexionniste non supervisée était vers la fin des années 40. Pour les réseaux à apprentissage non supervisé ( Hop-Field, Kohonen, etc ), on présente une entrée au réseau et on le laisse évoluer librement jusqu'à ce qu'il se stabilise.[36] III.MLP (Multi Layer Perceptron) : Les réseaux de neurones de type MLP (Multi Layer Perceptron) sont largement utilisés pour la décision dans le domaine de reconnaissance faciale. Le perceptron multicouche est un réseau orienté de neurones artificiels organisé en couches et où l‟information se déplace dans un seul sens, de la couche d‟entrée vers la couche de sortie. [26] 57 CHAPITRE 4 : Classification avec MLP et SOM Les perceptrons multicouches sont utilisés avec apprentissage supervisé, dans les réseaux MLP il existe une fonction d‟activation non linéaire. Le réseau MLP a également différentes couches de neurones cachés. Les neurones cachés font du réseau MLP un outil robuste pour les tâches complexes. Les couches du réseau sont reliées par des poids synaptiques. Les réseaux MLP sont généralement des réseaux entièrement connectés. Il existe différents réseaux du perceptron multicouches qui comprend l‟algorithme du Rétropropagation (BPN).[36] III. 1- Architecture de MLP: Le perceptron multi couches se compose d‟une couche d‟entrée qui contient les neurones d‟entrée du système reliés à une ou plusieurs couches cachées et d‟une couche de sortie où les neurones de cette couche constituent la réponse du système. (Figure.4.1) Les neurones sont reliés entre eux par des connexions pondérées. Ce sont les poids de ces connexions qui gouvernent le fonctionnement du réseau et programment une application de l‟espace des entrées vers l‟espace des sorties `a l‟aide d‟une transformation non linéaire. Couche d‟entrée 1ère couche cachée 2ème couche cachée couche de sortie Figure.4.1 : Exemple d‟un réseau de type perceptron multicouche. La Figure.4.1 donne l‟exemple d‟un réseau contenant une couche d‟entrée, deux couches cachées et une couche de sortie. La couche d‟entrée représente toujours une couche virtuelle associée aux entrées du système. Elle ne contient aucun neurone. Les couches suivantes sont des couches de neurones. 58 CHAPITRE 4 : Classification avec MLP et SOM III. 2- Algorithme du MLP : Début Initialisation : Régler les poids et la valeur du seuil de réseau ainsi que la valeur du Bias, le nombre total d'entrées de neurones i dans le réseau, le nombre de couches et fixer un critère d‟arrêt. Activation : Activer le réseau avec les entrées x1(t), x2(t), ..., xn(t) et les résultats y1(t), y2(t),….yn(t). Calculer les sorties de neurones dans les couches cachées et de sortie: réseaux dexiKOHONEN, yj(t)= Les sigmoïde [ ni=1 t ×wij t -θj] ou cartes auto organisatrices de KOHONEN, font partie des méthodes neuronales qui sont fondés sur des modèles qui tentent d'expliquer comment les Yk(t)= sigmoïde [ m j=1 yj t ×wjk t -θk] Où n et m sont le nombre d‟entrées du neurone j de la couche cachée k cellules du cerveau et leurs interconnexions parviennent. et sigmoïde est la fonction d‟activation. Apprentissage : mettre les poids à jour, propagation en arrière les erreurs associées avec les neurones de sortie. Itération= itération+1 Oui Nombre d‟itération atteint Fin Non Figure.4.2: Organigramme de l‟algorithme MLP Les réseaux de neurones stockent et retrouvent l'information de manière similaire au cerveau, et ils sont particulièrement adaptés aux traitements de problèmes complexes comme la reconnaissance automatique de la parole, la reconnaissance de visages ainsi classification automatique. [25] 59 que la CHAPITRE 4 : Classification avec MLP et SOM IV. Les cartes de KOHONEN Les cartes de Kohonen sont issues des travaux du professeur Teuvo Kohonen, de l‟université de technologie d‟Helsinki, qui a mis au point l‟algorithme qui porte aujourd‟hui son nom ; Cet algorithme défini en 1982 cherche à reproduire le processus de traitement des informations du cerveau. Les cartes de Kohonen servent à construire une forme particulière d‟apprentissage non supervisé, à la différence des réseaux de neurones, qui cherchent à construire un modèle entre les données cibles et des données en entrée, les cartes de Kohonen cherchent à organiser sous une forme naturelle les données en entrée. [36]. IV. 1- La théorie de Kohonen Le but de Kohonen était de trouver un modèle plus proche de la réalité, les réseaux de Kohonen sont constitués de nœuds (neurones) disposés uniformément sur une grille (ou carte), chaque nœud est connecté fonctionnellement à chacun des nœuds voisins, dans la majeure partie des cas, les grilles sont construites en deux dimensions, mais il est possible d‟élaborer des grilles multidimensionnelles, et à chaque fois qu‟un vecteur se présente, ses composantes sont reliés à chacun des nœuds de la grille, cela active les neurones de la grille, en générant un poids pour chaque connexion ; Après cette initialisation aléatoire des poids, chaque neurone est en compétition avec les autres, le neurone qui présente le meilleur ajustement est le gagnant, la qualité d‟ajustement d‟un neurone est défini par la distance entre le vecteur d‟entrée et le poids, le neurone gagnant est celui qui correspond à la distance minimale. [22] Le but est d‟utiliser la capacité des cartes auto-organisatrices de Kohonen à séparer , d‟une façon non supervisée, pour analyser aussi bien la répartition de ces états sur l‟espace de sortie que les associations qui peuvent se dégager entre ces états. Le modèle SOM est utilisé pour étudier la répartition de données dans un espace de grande dimension, basé sur des neurones artificiels, c‟est d‟un processus de classification topographique, selon ce processus, les données d‟entrées, représentables dans le cas général sous forme de vecteurs à N dimensions sont ramenées à des classes qui s‟auto-organisent selon une structure généralement, bidimensionnelle de nœuds sur laquelle les relations de voisinage sont prédéfinies. [36] 60 CHAPITRE 4 : Classification avec MLP et SOM Figure.4.3: réseau de KOHONEN IV.2- Les différentes topologies de la carte de Kohonen : Pour réaliser une carte de Kohonen, il existe plusieurs topologies ou formes, la structure topologique de la carte introduit la notion de voisinage et de distance entre les neurones de la carte : Carte unidimensionnelle ou fil. Carte bidimensionnelle (carrée, rectangle). Carte hexagonale Figure.4.4 : Les différentes topologies des cartes de KOHONEN 61 CHAPITRE 4 : Classification avec MLP et SOM IV. 3- Caractéristiques des cartes de KOHONEN : Les architectures connexionnistes s'inspirent de l'organisation neuronale du cerveau humain ; Dans les réseaux de neurones artificiels de nombreux processeurs appelés cellules ou unités, capables de réaliser des calculs élémentaires, sont structurés en couches successives capables d'échanger des informations au moyen de connexions qui les relient. On dit de ces unités qu'elles miment les neurones biologiques ; Les réseaux de neurones présentent de plus quatre caractéristiques particulièrement intéressantes, on peut les résumer comme suit [36] : Adaptatifs Les réseaux de neurones sont entraînés à partir de données incorporées au système, ainsi ils s'améliorent avec l'expérience; leur réponse sera d'autant meilleure qu'ils emmagasinent des informations. Massivement parallèles Chaque neurone est capable de réaliser une fonction bien spécifique indépendamment des neurones de la même couche ce qui rend leur fonctionnement parallèle dans certaines situations. Capables de généralisation Un réseau de neurones est capable de généraliser, à partir des exemples de l'ensemble d'apprentissage, une fonction (non linéaire) qu'un réseau de neurones peut approcher. La classification En raison de leur propriété d'approximateurs universels, les réseaux de neurones sont capables d'estimer de manière précise la probabilité d'appartenance d'un objet inconnu à une classe parmi plusieurs cas possibles. IV. 4- Processus des cartes de KOHONEN : L‟algorithme d‟apprentissage du modèle SOM est de type compétitif, non supervisé, il comprend principalement deux étapes : une étape de sélection d‟un nœud gagnant et une étape de mise à jour du profil du nœud gagnant et de ceux des nœuds appartenant à son voisinage. C‟est un algorithme qui est à la fois un algorithme de projection non linéaire et un algorithme de classification en fait , il associe à des données ( appartenant en général à un 62 CHAPITRE 4 : Classification avec MLP et SOM espace de grande dimension ) un ensemble de prototypes organisés selon une structure de faible dimension ( en général deux ) choisie a priori. Chaque prototype représente un sousensemble des données, qu‟on peut considérer comme une classe. [8] IV. 4-1- Choix de la forme et de la taille de la grille : Il est indispensable de choisir une topologie pour la grille (carte), parmi les topologies citées ci-dessus, car en précisant cette forme, on peut savoir quels nœuds sont voisins au neurone gagnant et par conséquent on aura plus d‟efficacité de résultats, il faut déterminer aussi la taille de cette grille en précisant le nombre de nœuds qui doivent être initialement placés sur la grille , cette opération est particulièrement importante car elle conditionne la pertinence des résultats ; Un nombre suffisant de nœuds garantit que ceux-ci seront attirés par des vecteurs de données suffisamment proches d‟eux ; Plus il y aura de nœuds , plus la carte sera flexible et s‟adaptera facilement à la structure des données à modéliser , mais plus le temps d‟apprentissage augmentera. Il n‟existe pas de règles d‟art pour définir la taille optimale de la carte, dans une première phase de découverte des données, il est préférable de commencer par une surface restreinte afin de limiter le temps d‟apprentissage. [36] IV. 4-2- Choix de R (le rayon de voisinage) : Après avoir choisir une forme de la carte , selon l‟une des topologies citées cidessus , le choix d‟un rayon de voisinage est nécessaire, en fait durant l‟étape d‟apprentissage, la notion de voisinage s‟impose, pour connaître quels neurones seront proche des entrées. Selon les topologies existantes, les possibilités de voisinage sont comme suit : 63 CHAPITRE 4 : Classification avec MLP et SOM Figure.4.5 : Les possibilités de voisinage IV. 4-3- Choix du nombre d’itérations ou du seuil de tolérance : Pour mettre fin au processus de KOHONEN, et vérifier les résultats obtenus ,il faut choisir un nombre fini des itérations, le réseau se stabilisera lorsque ce nombre est atteint, c‟est le critère d‟arrêt pour le processus de KOHONEN ; On peut aussi utiliser un autre critère d‟arrêt , c‟est ce qu‟on appelle le seuil de tolérance, il se varie entre [0,1] , et il se décroît avec le temps, lorsqu‟il est inférieur de zéro le réseau se stabilisera. IV. 4-4- Initialisation des poids : Ces poids sont générés d‟une façon aléatoire, ils constituent les composantes d‟un vecteur appelé vecteur des poids, ces composantes représentent la force des connexions « synaptiques » avec les neurones qui représentent les données en entrée. [36] IV. 4-5- L’apprentissage : L‟apprentissage est une caractéristique essentielle pour les réseaux de neurones, pendant le processus d‟apprentissage , tous les vecteurs sont représentés d‟une manière 64 CHAPITRE 4 : Classification avec MLP et SOM répétitive à la carte de KOHONEN ; c'est-à-dire chaque entrée est reliée à tous les neurones de la carte , cela active un neurone parmi les neurones de la carte, ainsi que ses voisins. Le but de cette opération est d‟ajuster le mieux possible la grille des nœuds à la distribution des données, aussi pour modéliser au mieux cette distribution de données. [36] IV. 4-6- Le matching : Durant cette étape, on calcule la distance (appelée également similarité ou ressemblance) entre l‟entrée et le vecteur de poids de chaque neurone. On choisit le neurone dont la distance est la plus petite, c‟est le neurone gagnant, suivant la règle d‟apprentissage compétitif « the winner take all ». Pour calculer cette similarité, on peut utiliser l‟une des distances [8] : xi yi ² Distance euclidienne i Distance euclidienne xi yi ² i carrée Distance de Manhattan Distance cosinus xi yi i (xi - yi)+(xi - yi ) Tableau.4.1 : Formules pour calculer la distance. X représente l‟entrée ; Y représente le poids. Le poids du neurone gagnant ainsi que les poids de ces voisins (selon le rayon de voisinage choisi) sont actualisés (mise à jour). 65 CHAPITRE 4 : Classification avec MLP et SOM En suite, si le seuil d‟apprentissage est supérieur à 0, ou que le nombre d‟itération n‟est pas encore atteint, on présente à nouveau le neurone gagnant ainsi que ses voisins au réseau, et on répète le processus d‟apprentissage jusqu'à stabilisation des poids. IV. 5- Quelques domaines d’utilisation des cartes de KOHONEN : Depuis leur définition par Kohonen en 1982 , les cartes auto-organisatrices ont été appliquées dans de multiples domaines ,tels que reconnaissance de formes, le traitement du Signal, traitement de la Vision et de la Parole, la robotique, l‟étude du fonctionnement du cerveau humain, le traitement d‟images, le contrôle de processus ou l‟organisation de grandes bases de données textuelles ou numériques, et la classification automatique. [36] Modélisation et Prévisions financières Reconnaissance des signatures et visages Carte autoorganisatrice de KOHONEN Le contrôle de qualité en secteur industriel Le contrôle de processus automatisé Reconnaissance de caractères manuscrits, traitement des chèques... Classification non supervisée Diagnostic de pannes Figure.4.6 : Exemples d‟utilisation des cartes de KOHONEN. IV. 6- Avantages : Classification rapide (réseau étant construit). Possibilité de combinaison avec d‟autres méthodes (ex : arbre de décision pour sélection d‟attributs). Représentation visuelle des données tout en conservant leur topologie. 66 CHAPITRE 4 : Classification avec MLP et SOM Possibilité de représenter des objets 2D (carte à deux dimensions) ou 3D(carte multidimentionnelle) IV. 7- Limites des cartes de KOHONEN : Comme toute tâche d‟apprentissage non supervisé, le clustering topographique ou les cartes de KOHONEN, pose le problème de l‟évaluation des résultats, en fait, l‟interprétation des groupes constitués par les cartes de KOHONEN se révèle complexe si ces groupes appartiennent à une base de données gigantesques, si c‟est le cas le temps de réponse sera un autre problème principalement connu dans améliorable soit si l'on parvient le clustering topographique, ce point est à réaliser l'implantation efficace de cartes auto organisatrices sur des processeurs à architecture parallèles, cette implantation nécessite un travail préliminaire de préparation des données,notamment, choix des variables pertinentes, normalisation, élimination de données aberrantes, ce qui rend la tâche plus complexe , soit en adoptant une réduction de l‟espace de représentation ; la majorité des méthodes de réduction présentent l‟inconvénient de perte d‟information. L‟information perdue quoique dérisoire pourrait être utile pour la prise de décision. Les cartes de KOHONEN souffrent d‟un autre problème : l’initialisation aléatoire des neurones qui implique évidemment la non unicité de la représentation des données sur la carte.[36] 67 CHAPITRE 4 : Classification avec MLP et SOM V. Conclusion : Les perceptrons multi couches et cartes topologiques auto-organisatrices de KOHONEN font partie des réseaux neuronaux. Comme tout algorithme de classification, ces deux approches permettent de déterminer des sous-groupes pertinents dans l‟ensemble des données. Les réseaux de neurones, permettent d'approximer des fonctions non-linéaires complexes, à partir d'exemples via des algorithmes d'apprentissage, généralement des algorithmes de descente du gradient, comme l'algorithme bien connu de la rétro-propagation du gradient. Dans le domaine de l'analyse d'images et de la vision par ordinateur, les réseaux de neurones sont généralement utilisés pour classer des signatures extraites par un algorithme d'extraction de caractéristiques, souvent choisi de manière empirique. Dans ce chapitre, nous avons présenté deux types de réseaux de neurones à savoir le réseau MLP qui fait partie des algorithmes d‟apprentissage supervisé, et les cartes auto organisatrices de KOHONEN où l‟apprentissage est non supervisé. 68 CHAPITRE 5 : Implémentation I. Introduction……………………………………………………………………………………………………………. ................. 70 II. Matériel et données utilisés………………………………………………………………….……………….. ................. 70 II. 1- Environnement et Matériel………………………………………………………………..…………….. ............ 70 II. 2- Données utilisées………………………………………………………………………………..…………….. ............ 70 II. 2-1- La base de données Face94…………………………………………………………..………………............ 71 II. 2-2- La base de données ORL Database………………………………………..………………………............ 72 III. Plan du travail………………………………………………………….……………………………………………... ............... 74 III. 1- Définition du problème et identification des buts………………………………………………........... 74 III. 2- Préparation des données……………………………………………………………………..…………... ........... 74 III. 3- Prétraitement des données……………………………………………………………….……………… ........... 74 III. 4- Extraction des caractéristiques……………………………………………..…………………………. ............ 75 III. 5- Réduction de la dimension………………………………….……………………………………………….......... 77 III. 6- Classification………………………………………………………………………………………………………. ......... 77 IV. Application du MLP………………………………………………………………………………………………….............. 78 V. Application des cartes auto organisatrices de KOHONEN………………………..…….………. .................. 80 VI. Résultats expérimentaux…………………………………………………………………………………..…… .............. 82 VI. 1- Résultats MLP………………………………………………………………………………………….………… .............. 83 VI. 2- Résultats SOM…………………………………………………………………………………………………… .............. 84 VII. Présentation du logiciel…………………………………………………………………………………………… ............ 86 VIII. Conclusion et discussion……………………………………………………………………………………….. ............... 89 CHAPITRE 5 : Implémentation I. Introduction : Les images faciales sont probablement la caractéristique biométrique la plus communément employée par l‟homme pour effectuer une identification personnelle. La reconnaissance faciale est une modalité qui peut être implémentée de manière indépendante des autres modalités biométriques mais aussi dans un système biométrique multimodal, elle est souvent utilisée dans des applications de surveillance. La reconnaissance faciale offre plusieurs avantages : le système de capture (les caméras) est facile à installer, il est accepté dans les lieux publics ce qui permet d‟avoir des bases de données de plus en plus grandes et ainsi d‟améliorer les performances de la reconnaissance. Dans ce chapitre, nous allons montrer les différentes étapes du travail ainsi que les résultats expérimentaux du système de reconnaissance que nous avons élaboré. II. Matériel et données utilisés II. 1- Environnement et matériel : L‟implémentation d‟une application consiste à gérer des informations de telle façon à réaliser une tâche ou atteindre un but précis, elle consiste aussi à sauvegarder ces informations et les traiter de diverses façons. Lorsqu‟un problème quelconque se présente, il est indispensable de bien l‟analyser avec les moindres détails. Cette analyse nous permet de formuler le problème de telle manière que nous pouvons implémenter la solution au moyen d‟un langage choisi. Notre système de reconnaissance faciale est implémenté sous l‟environnement de programmation Matlab version 7.10.0 (R2010a). Nous avant choisi cet environnement car il est performent et inclut la quasi-totalité des fonctionnalités de développement liées à aux différentes applications de calcul, classification et identification. Nous avant utilisé ce langage sous le système d‟exploitation windows7, sur un PC HP 630 muni d‟un processeur I3 de vitesse 2.40 GHz, 2Go de RAM et 320 Go de disque dur. II. 2- Données utilisées Les données utilisées dans notre application sont issues des bases de données face94 database [43] et ORL (Olivetti Research Laboratory)database [44], il s‟agit de deux ensembles différents de photos de personnes, dont les paramètres sont les suivants : 70 CHAPITRE 5 : Implémentation II. 2-1- La base de données face94 DATABASE : Les données sont organisées en quatre répertoires (faces94, faces95, faces96, grimace), par ordre croissant de variations. Faces96 et grimace sont les plus variées (variation du fond, variation extrême des expressions). Les sujets sont assis à une distance fixe de l'appareil et sont invités à prendre la parole, une séquence d'images est prise. Le discours est utilisé pour obtenir un visage avec différentes expressions. II. 2-1-1- Paramètres de la base face94 : Nombre de personnes: 153 (20 images par personnes). Résolution d'image: 180˟200 pixels (format portrait). Répertoires: féminin (20), masculin (113), malestaff (images avec changements d‟émotions) (20). Fond: Le fond est vert clair. Tour de la tête et inclinaison: variation très faible. Position de visage dans l'image: des changements mineurs. Variations d’éclairage: aucune. Variations des expressions faciales: des changements d'expressions considérables. Remarque complémentaire: il n'ya pas de variations de changements de coupes, car les images ont été prises en une seule séance. 71 CHAPITRE 5 : Implémentation II. 2-1-2- Exemples de la base de données face94 : Figure.5.1 : Exemple d‟images de la base de données face94. II. 2-2- La base de données ORL DATABASE : La base de données de visages ORL (Olivetti Research Laboratory), contient un ensemble d'images de visage prises entre Avril 1992 et Avril 1994 aux laboratoires AT&T de Cambridge. La base de données a été utilisée dans le cadre d'un projet de reconnaissance de visage réalisée en collaboration avec le groupe « Speech, Vision and Robotics » du Département d‟Engineering de l'Université de Cambridge. 72 CHAPITRE 5 : Implémentation II. 2-2-1- Paramètres de la base ORL : Il ya dix images différentes de chacun des 40 sujets distincts. Pour certains sujets, les images ont été prises à des moments différents, variant l'éclairage, les expressions du visage (yeux ouverts / fermés, souriant / pas souriant) et les détails du visage (lunettes / pas de lunettes). Toutes les images ont été prises sur un fond sombre homogène où les sujets sont dans une position frontale droite (avec une tolérance pour le mouvement). Les fichiers sont au format PGM, la taille de chaque image est 92x112 pixels, avec 256 niveaux de gris par pixel. Les images sont organisées dans 40 répertoires (un pour chaque sujet), qui ont des noms de la forme SX, où X indique le numéro de l'objet (entre 1 et 40). Dans chacun de ces répertoires, il ya dix images différentes de ce sujet, qui ont des noms de la forme Y.pgm, où Y est le nombre d'image pour ce sujet (entre 1 et 10). Elle est disponible gratuitement sur le web. II. 2-2-2- Exemples de la base de données face94 : Figure.5.2 : Exemple d‟images de la base de données ORL. 73 CHAPITRE 5 : Implémentation III. Plan du travail Notre travail est divisé en deux parties, en premier lieu nous avons appliqué dans le module d‟extraction les filtres de Gabor et l‟ACP, et pour la classification un réseau de neurones MLP est appliqué. Ensuite, dans la deuxième partie de notre travail, nous avons utilisé les cartes autoorganisatrices de Kohonen, et enfin nous avons comparé les résultats des deux approches proposées. Pour effectuer notre travail et mettre en œuvre notre système de reconnaissance nous avons suivi les étapes suivantes : III. 1- Définition du problème et identification des buts : Il s‟agit de résoudre un problème de reconnaissance faciale, en élaborant un système capable de reconnaitre une image d‟un individu présent dans la base de données, en effet le système doit afficher l‟image originale, présente dans la base de données, de l‟individu en question. Dans le cas contraire, c'est-à-dire, où l‟individu est un imposteur le système doit rejeter la demande d‟accès en affichant un message indiquant que la personne n‟existe pas dans la base de données. Une multitude d‟algorithmes est utilisée pour élaborer un système multimodal afin d‟augmenter le taux de reconnaissance. III. 2- Préparation des données : Comme tout problème de reconnaissance de formes, un système de reconnaissance faciale nécessite une étape préliminaire de préparation des données; Dans notre cas, comme cité ci-dessus, les données sont issues du web, il s‟agit de deux bases de données différentes (face94 et ORL), elles sont gratuitement téléchargeables. III. 3- Prétraitement des données : Les images présentes dans les deux bases doivent être décrites sous une autre forme, pour qu‟un algorithme de classification puisse les gérer, c‟est ce qu‟on appelle le prétraitement des données, le prétraitement atténue les effets d‟une différence des conditions lors des prises de vues. C‟est une phase importante dans un système d‟identification dans la mesure où elle augmente les performances du système. Dans notre cas cette phase se fait grâce aux centres des yeux et de la bouche, une normalisation géométrique appliquée à la zone du visage de l‟image globale permet de fournir une image réduite (128x128 pixels) du visage dans laquelle la position des yeux ((34,45) et (98,47)) et de la bouche (67,106) est prédéfinie. Ensuite, pour convertir l‟image réduite en niveau de gris, nous 74 CHAPITRE 5 : Implémentation utilisons la base RGB. La fenêtre ci-dessous montre la conversion d‟une image à la base RGB (Figure.5.3). Le prétraitement est, donc, une étape qui consiste à une première réduction des données avant d‟utiliser une deuxième étape de réduction qui est l‟analyse en composantes principales « ACP ». Figure.5.3 : Conversion d‟une image vers la base RGB III. 4- Extraction des caractéristiques : Dans cette étape nous avons appliqué, d‟abord, le filtre de Gabor connu par sa puissance d‟extraction des caractéristiques dans le domaine de la reconnaissance faciale. En fait, pour extraire des caractéristiques dans une image de visage, les filtres de Gabor sont appliqués sur l'image après la normalisation. Un filtre Gabor est un filtre linéaire dont la réponse est une fonction sinusoïde modulée par une fonction gaussienne (également appelée ondelette de Gabor) : Où : 75 CHAPITRE 5 : Implémentation Le filtre est appliqué sur chaque image de la base de données avec 5 orientations et 3 fréquences. En fait, on accorde le filtre avec une bande spécifique de la fréquence spatiale et l'orientation en choisissant de manière appropriée les paramètres du filtre; la propagation du Filtre est désignée par : σx, σy, la fréquence radiale par f, et l'orientation du filtrage par θn. La question importante dans la conception de filtres de Gabor pour reconnaissance faciale est le choix des paramètres du filtre. On π utilise ici 15 filtres de Gabor constitués de cinq paramètres d'orientation θϵ {0, 5, 2𝜋 3𝜋 4𝜋 5 , 5 , 5 } et trois des fréquences fϵ{0.06,1.0,1.4}. La représentation de Gabor d'une image de visage est calculée par convolution l'image du visage avec les filtres de Gabor. Cette convolution avec un filtre de Gabor ѱf,θ (x,y), est défini comme suit: Un exemple d‟une image en appliquant le filtre de Gabor est représenté ci-dessous : OK Choisir un fichier Figure.5.4 : Les filtres de Gabor appliqués sur une image du visage. 76 CHAPITRE 5 : Implémentation III. 5- Réduction de la dimension : Cette étape consiste à l‟application de l'analyse en composante principale (ACP) sur les sous-images pour obtenir un ensemble de vecteurs propres qui correspondent aux plus grandes valeurs propres. Finalement, les vecteurs de caractéristiques des images obtenus dans les étapes précédentes sont utilisés pour l‟apprentissage du réseau de neurones. Nous avons utilisé l‟ACP pour la réduction de l‟espace de données, c'est une technique couramment utilisée pour représenter un signal dans un espace de dimensions réduites tout en conservant le maximum de variations possibles. L‟algorithme utilisé pour calculer l‟ACP comprend les étapes suivantes : - créer la matrice des données X - calculer la matrice de covariance 𝑋 𝑋T - calculer les valeurs et vecteurs propres de la matrice de covariance - ordonner les vecteurs propres par ordre de valeur propre décroissante. III. 6- Classification : L‟ensemble de l‟approche proposée fonctionne selon le schéma suivant : Image Prétraitement Extraction de caractéristique s SOM MLP Résultats SOM Résultats MLP Figure.5.5 : Les étapes de l‟approche proposée 77 CHAPITRE 5 : Implémentation IV. Application du MLP : Les données sont maintenant sous une forme mathématique et sont prêtes pour l‟application d‟un modèle de classification, dans cette étape l‟algorithme MLP est utilisé pour la décision, les vecteurs de caractéristiques des images obtenus dans les étapes précédentes sont utilisés pour l‟apprentissage du réseau de neurones, pour cela on doit passer par certaines phases : Le filtre de Gabor ACP réseau de neurones F(x,y) Image | gf,ɸ (x,y)| Figure.5.6 : Combinaison du filtre de Gabor, ACP et réseaux de neurones Nous avons utilisé la boite à outils de Matlab pour l‟apprentissage de notre réseau MLP, voici un exemple de la phase d‟apprentissage : Figure.5.7 : Exemple de la phase d‟apprentissage du réseau de neurones MLP sous Matlab 78 CHAPITRE 5 : Implémentation Dans l‟exemple ci-dessus, nous avons suivi les étapes suivantes : 1- La phase d’initialisation : Durant laquelle un certain nombre de paramètres doit être fixé au préalable, à savoir : - Le nombre de couches : une couche d‟entrées et une couche de sorties sont utilisées, alors que pour les couches cachées nous avons essayé plusieurs possibilités, en fait nous avons utilisé de 2 à 5 couches cachées. - Le nombre de neurones cachés : nous avons testé notre réseau MLP avec 50, 100, 150 et 200 neurones cachés. - Les poids : ce nombre est choisi aléatoirement par le réseau, il varie entre]-0.5, 0.5 [. - Le nombre d’itérations : nous avons choisi : 600, 400 et 1000 itérations. 2- La phase d’apprentissage : L'apprentissage consiste à adapter les valeurs des poids afin d'obtenir le comportement désiré du MLP. Pour cela, on se crée une base d'exemples où chaque exemple est constitué d'un vecteur d'entrée et d'un vecteur de sortie approprié. Un algorithme d'apprentissage connu sous le nom d'algorithme de rétropropagation du gradient a été mis en place en 1985 par Rumelhart et Al. [6]. Dans ce que suit, wnm représente les poids reliant la couche d'entrée avec la couche cachée ; u mj représente les poids reliant la couche cachée avec celle de la sortie. Les composants du vecteur d'entrée X du MLP seront pondérés par les poids wnm et ensuite transmis à la couche cachée selon les équations suivantes : Les sorties de la couche cachée seront aussi pondérés par les poids umj et transmis ensuite à la couche de sortie selon les équations suivantes : f et g représentent respectivement les fonctions d'activations des neurones de la couche cachée et celle de la de sortie, dans notre travail, nous avons utilisé des sigmoïdes : La fonction sigmoïde est : Sa dérivée est : 79 CHAPITRE 5 : Implémentation L'adaptation des poids umj qui relient la couche cachée à celle de la sortie est comme suite : 3- La mise à jour des poids : La mise à jour des poids wnm reliant la couche d'entrée à celle cachée est comme suite : η1 et η2 sont les pas d'apprentissage. V. Application des cartes auto-organisatrices de KOHONEN : Dans cette étape nous utilisons les cartes auto-organisatrices de KOHONEN, le but est d‟exploiter la puissance de classification de cet algorithme et puis comparer les résultats avec ceux obtenus avec MLP. nous allons appliquer l‟algorithme de KOHONEN pour classifier l‟ensemble des images qui sont sous une forme mathématique et sont prêtes pour l‟application d‟un modèle de classification,. Pour cela on doit passer par certaines phases : V. 1- Phase d’initialisation Cette phase consiste à choisir les paramètres du réseau de KOHONEN tels que : la forme et la taille de la carte, les poids, le nombre d‟itération et l‟ordre de voisinage. - Choix de la forme et de la taille de la carte : Nous allons utiliser dans notre application une carte auto organisatrice rectangulaire (à deux dimensions), la taille de la carte est (7*7) (figure). Figure.5.8 : exemple de la carte rectangulaire (7*7) 80 CHAPITRE 5 : Implémentation - Initialisation des poids Les poids sont générés aléatoirement, ils sont compris entre [0,1]. - Choix du nombre d’itérations Nous allons utiliser ce nombre comme critère d‟arrêt, pour cela nous allons proposer 3 valeurs {400, 600, 1000}. - Choix de l’ordre de voisinage Nous avons utilisé le voisinage d‟ordre 2, comme le montre la figure 5.4, le neurone en rouge est le gagnant, ceux qui sont en jaune ce sont ses voisins d‟ordre 1, et ceux qui sont en bleu se sont ses voisins d‟ordre 2. Figure.5.9 : Voisinage d‟ordre 2 pour une carte rectangulaire. V. 2- Phase d’apprentissage L‟apprentissage consiste à présenter sur la couche d‟entrée du réseau, les vecteurs des images que l‟on souhaite classifier. Cette phase contient plusieurs étapes : 1. Donner le nombre d‟itérations tmax ; 2. While t< t max do 3. Calculer la réponse de chaque neurone ; 4. Le neurone avec la valeur minimale est le gagnant ; 5. Mettre à jour le poids du neurone gagnant ainsi celui de ses voisins (selon l‟ordre du voisinage choisi auparavant) ; 6. Si t<t max aller à (3) Sinon fin. 7. Afficher les résultats de l‟apprentissage. 81 CHAPITRE 5 : Implémentation - La réponse du neurone La réponse du neurone est calculée en fonction de distance entre l‟entrée et le neurone, pour ce fait nous allons utiliser deux types de distance : la distance cosinus et la distance euclidienne. Le calcul des distances s‟effectue comme suit : Xi est le vecteur d‟entrée wij est le vecteur du poids Distance cosinus : (xi- wij)+(xi-wij) Distance euclidienne : xi wij ² . i - Le neurone gagnant Le neurone gagnant est celui qui a la valeur de distance minimale. - Mise à jour du poids Les poids du neurone gagnant ainsi ceux de ces voisins sont mis à jour selon la formule suivante : wij (t+1)= wij + n (t)*(xi-wij) n (t) : coefficient d‟apprentissage compris dans [0,1]. - Affichage des résultats Les résultats de l‟apprentissage sont représentés sur la carte de KOHONEN (la carte de sortie). VI. Résultats expérimentaux : Dans cette partie, nous allons présenter quelques résultats obtenus en appliquant dans un premier temps l‟algorithme MLP, ensuite les cartes auto- organisatrices de KOHONEN, et on 82 CHAPITRE 5 : Implémentation discute l‟influence de quelques paramètres des deux modèles sur les résultats de la classification (la distance, le nombre d‟itérations…). VI. 1- Résultats MLP : Nombre Temps d‟apprentissage d‟itérations (sec) 400 Temps de test (sec) Classification (%) 64 13 85.5 600 88 19 86.75 1000 122 27 96 Tableau.5.1 : Résultats de la reconnaissance avec (ACP, FG et MLP) de la base de données ORL Nombre Temps d‟apprentissage d‟itérations (sec) 400 Temps de test (sec) Classification (%) 193 17 87 600 219 24 90 1000 284 33 98 Tableau.5.2: Résultats de la reconnaissance avec (ACP, FG, MLP et AG) de la base de données BASE94. Erreurs 1.8 1.6 1.4 1.2 1 0.8 0.6 0.4 0.2 0 0 100 200 300 400 500 600 700 800 Figure.5.10 : l‟erreur par rapport au nombre d‟itérations. 83 900 Itération CHAPITRE 5 : Implémentation On remarque que le graphe converge vers 0 vers l‟itération 809, l‟erreur donc serait nulle vers cette itération Nbr de couches cachées Taux de reconnaissance(%) Temps (sec) 2 89.60 13 3 92 18 4 95.82 21.48 5 98.67 25 Tableau.5.3: Résultats de la reconnaissance en variant le nombre de couches cachées pour la base ORL Nbr de couches cachées Taux de reconnaissance(%) Temps (sec) 2 88.43 16 3 91.12 19.36 4 97.05 24 5 98.90 28 Tableau.5.4: Résultats de la reconnaissance en variant le nombre de couches cachées pour la base BASE94. VI. 2- Résultat SOM : Nombre Temps d‟apprentissage d‟itérations (sec) 400 Temps de test (sec) Classification (%) 42.01 5.78 73.56 600 48 9.23 93.06 1000 70.98 12.36 99.44 Tableau.5.5: Résultats de la reconnaissance avec les cartes SOM de la base de données ORL Nombre Temps d‟apprentissage d‟itérations (sec) 400 Temps de test (sec) Classification (%) 53.29 1.98 70.31 600 59.76 3.87 79.16 1000 77.03 8 99.28 Tableau.5.6: Résultats de la reconnaissance avec les cartes SOM de la base de données BASE94. 84 CHAPITRE 5 : Implémentation temps d'execution en fonction de nombres des neronnes Temps d’exécution en fonction du nombre des neurones 250 temps d'execution (s) 200 150 100 50 0 0 20 40 60 80 100 120 nombres des neronnes Nombre des neurones Cosinus Ecludienne Ecludienne caré Manhattan Figure.5.11 : Temps d‟exécution en fonction du nombre de neurones avec différentes distances pour la base ORL Temps d’exécution fonction du nombre neurones temps d'execution en en fonction de nombres desdes neronnes 250 temps d'execution (s) 200 150 100 50 0 0 20 40 60 80 100 120 nombres des des neronnes Nombre neurones Cosinus Ecludienne Ecludienne caré Manhattan Figure.5.12: Temps d‟exécution en fonction du nombre de neurones avec différentes distances pour la base BASE94 85 CHAPITRE 5 : Implémentation VII. Présentation du logiciel : Dans cette partie, nous allons présenter quelques fenêtres de notre application de reconnaissance de visage : Université des Sciences et de la Technologie d’Oran (MB) Reconnaissance des individus par les techniques multimodales Présenté par : Image de test Image équivalente Encadré par : Pr. BENYETTOU Soumeya DIB Mohamed Figure.5.13 : Fenêtre principale de l‟application 86 CHAPITRE 5 : Implémentation Figure 5.14: La phase d‟apprentissage. Figure.5.15 : La phase de reconnaissance, exemple de la base ORL 87 CHAPITRE 5 : Implémentation Figure.5.16 : Phase de reconnaissance, exemple de BASE 94. 88 CHAPITRE 5 : Implémentation VIII. Discussion et conclusion : Les résultats obtenus montrent la capacité des algorithmes utilisés dans la phase d‟extraction et dans celle de décision. En effet, les filtres de Gabor sont des fonctions connues dans plusieurs domaines, notamment dans les mathématiques et la reconnaissance de formes. Dans notre travail, la complexité des filtres de Gabor était rencontrée lors du choix de paramètres, en particulier θ et f, il était donc nécessaire d‟essayer plusieurs valeurs afin d‟obtenir un résultat, plus ou moins, satisfaisant. D‟un autre côté, le choix de l‟ACP comme méthode de réduction de dimensionnalité vient après plusieurs recherches sur les méthodes de réduction, en fait il existe une multitude de méthode, néanmoins l‟ACP reste l‟algorithme jugé performant, fiable et facile à mettre en œuvre. Dans la phase de décision, nous avons utilisé, également, deux algorithmes : MLP et SOM et cela pour réaliser un système multimodal basé sur la multiplication des algorithmes, mais aussi pour exploiter la capacité des réseaux neuronaux dans la tâche de reconnaissance faciale. Le choix de ces deux algorithmes n‟était pas sans but, en effet nous avons choisi le réseau MLP où l‟apprentissage est supervisé, d‟un autre côté nous avons utilisé les SOM comme algorithme d‟apprentissage non supervisé, cela nous mène à tirer quelques différences entre les deux modes d‟apprentissage et qui sont détaillées sur les tableaux ci-dessus. Notre système de reconnaissance est capable de reconnaitre une personne à partir d‟une base de données de visages, il existe des cas où l‟image de la personne identifiée ne serait pas celle qu‟on cherche, cela est peut être du au choix des paramètres, en effet, nous comptons ajouter certains paramètres, diversifier davantage les méthodes et ajouter quelques modules à notre système dans des travaux ultérieurs. 89 IX. Conclusion et perspectives : Après avoir introduit les concepts généraux de la biométrie, nous avons présenté la biométrie multimodale, ses architectures et son principe de fonctionnement, La multimodalité est l'utilisation de plusieurs systèmes biométriques. La combinaison de plusieurs systèmes a pour objectif de diminuer les limitations des systèmes monomodaux. En effet, cette combinaison de systèmes a pour but premier d'améliorer les performances de reconnaissance : En augmentant la quantité d'informations discriminante de chaque personne, on souhaite augmenter le pouvoir de reconnaissance du système. De plus, le fait d'utiliser plusieurs modalités biométriques réduit le risque d'impossibilité d'enregistrement et assure une robustesse aux fraudes. Ensuite, une représentation de la reconnaissance faciale est jugée nécessaire, puisque nous avons utilisé le visage comme modalité biométrique. La reconnaissance faciale est une modalité qui peut être implémentée de manière indépendante des autres modalités biométriques, elle est souvent utilisée dans des applications de surveillance. La reconnaissance faciale a plusieurs avantages : le système de capture (les caméras) est facile à installer, il est accepté dans les lieux publics ce qui permet d‟avoir des bases de données de plus en plus grandes et ainsi d‟améliorer les performances de la reconnaissance. La difficulté majeure de la reconnaissance faciale réside dans l‟extraction de visage et de ses caractéristiques qui est due principalement aux variations des conditions d‟éclairage et de pose. L‟efficacité des systèmes biométriques basés sur l‟authentification de visage dépend, donc, essentiellement de la méthode utilisée pour localiser le visage dans l‟image. Dans la littérature scientifique, le problème de localisation de visages est aussi désigné par la terminologie "détection de visages". Plusieurs travaux de recherches ont été effectués dans ce domaine. Ils ont donné lieu au développement d‟une multitude de techniques allant de la simple détection du visage, à la localisation précise des régions caractéristiques du visage, tels que les yeux, le nez, les narines, les sourcils, la bouche, les lèvres, les oreilles, etc. Nous avons donc proposé une approche d‟extraction qui s‟adapte aux changements de l‟illumination et de pose. C‟est pour cette raison que nous avons utilisé deux algorithmes dans la phase d‟extraction, à savoir les filtres de Gabor et l‟ACP, le premier vise à extraire les caractéristiques du visage, alors que le deuxième consiste à une méthode de réduction de dimension des données. 90 Le module de reconnaissance exploite les caractéristiques du visage ainsi extraites pour créer une signature numérique qu‟il stocke dans une base de données. Ainsi, à chaque visage de la base est associée une signature unique qui caractérise la personne correspondante. La reconnaissance d‟un visage est obtenue par l‟extraction de la face correspondante et sa mise en correspondance avec la face la plus proche dans la base de données. Nous avons utilisé dans le module de reconnaissance deux types de réseaux de neurones : le MLP et les SOM, ces deux algorithmes sont connus par leurs performances et leurs capacités de classification. Les réseaux de neurones de type MLP (Multi Layer Perceptron) sont largement utilisés pour la décision dans le domaine de reconnaissance faciale. Ce sont des réseaux orientés de neurones artificiels organisé en couches où l‟information se déplace dans un seul sens, de la couche d‟entrée vers la couche de sortie. D‟une autre part, les cartes de Kohonen sont des réseaux de neurones d‟apprentissage non supervisé, qui sont aussi très utilisés dans le domaine de la reconnaissance de formes, le modèle SOM est utilisé pour étudier la répartition de données dans un espace de grande dimension, basé sur des neurones artificiels, c‟est d‟un processus de classification topographique. Cette démarche est appliquée sur deux bases de données différentes : la base ORL et la base Face94, l‟utilisation de deux bases dans un système biométrique offre plus de possibilités pour tester la validité des méthodes, aussi elle lui offre son caractère multimodal. Comme perspectives, et dans le but d‟améliorer le système de reconnaissance nous proposerons dans des travaux ultérieurs d‟étudier les points suivants : - Combiner une ou plusieurs modalités avec le visage, par exemple l‟iris ou la rétine, cela augmente la quantité des informations discriminante ce qui améliore le système en terme d‟exactitude ; - Utiliser des bases de données avec des variations de visage plus importantes, ce qui permet de tester et améliorer la fiabilité du système ; - Ajouter un module de détection au système où on présente une vidéo d‟une personne, et le système doit détecter le visage de celle-ci, et ensuite appliquer un ou plusieurs algorithmes de reconnaissance ; - Varier les algorithmes dans le module d‟extraction et le module de reconnaissance, par exemple l‟utilisation des algorithmes génétiques en plus des réseaux de neurones ; - Utiliser des bases de données 3D qui est une tendance actuelle très prometteuse. 91 X. Références bibliographiques: [1] A. Lanitis. «Automatic face identification system using flexible appearance models». Image and Vision Computing, 13(5) :393_401, 1995. [2] A. M. Martinez and A. C. Kak. «Pca versus lda». IEEE Trans. PAMI, 23(2) :228_233, 2001. [3] Anil. k.jain, P. Flynn, A.Ross, « Handbook of biometrics »,Springer, 2007. [4] Anil. K.Jain, R. Bolle, And S. Pankanti, «biometrics: Personal Identification In Networked Society», Kluwer Academic Publishers, 1999. [5] Anil. k.jain, Stan Z. Li, « Encyclopedia of Biometrics », Springer, 2009. [6] B. Ly Van, S. Garcia-Salicetti, and B. Dorizzi, «Using the Viterbi path along with HMM likelihood information foron-line signature verification» IEEE Trans. on Systems, Man and Cybernetics, part B, vol. 37, no. 5, October 2007. [7] B. Moghaddam and A. Pentland. «Probabilistic visual learning for object representation». IEEE Trans. PAMI, 19(7):696_710, 1997. [8] B. S. Manjunath, R. Chellappa, and C. von der Malsburg. «A feature based approach to face recognition». In CVPR, 1992. [9] BETAOUAF Talib Hicham, « Caractérisation de la rétine pour la reconnaissance biométrique des personnes », thèse de magistère, université de Tlemcen, 2011. [10] D. Blackburn, M. Bone, P. J Phillips. «Face recognition vendor test 2000». Tech. rep. http://www.frvt.org, 2001. [11] D. H. HUBEL and T. N. WIESEL, « Functional architecture of macaque monkey visual cortex», Proc. Royal Soc. B (London), vol. 198, pp.1-59, (1978). [12] D.G. Lowe. «Distinctive image features from scale-invariant keypoints». International Journal of Computer Vision, 60(2) :91_110, 2004. [13] H. A. Rowley, S. Baluja, and T. Kanade. «Neural network-based face detection». IEEE Trans. PAMI, 20(1) :23_38, 1998. [14] J. G. Daugman. «High confidence visual recognition of persons by a test of statistical independence». IEEE Trans. PAMI, 15(11) :1148_1161, Nov 1993. [15] J. Yang, D. Zhang, A.F. Frangi, and J.Y. Yang. «Two-dimensional pca : A new approach to appearance-based face representation and recognition». IEEE Trans. PAMI, 26(1):131_137, 2004. 92 [16] J.P. Phillips. «Support vector machines applied to face recognition». In NIPS, volume 11, pages 803_809, 1999. [17] Julian ASHBOURN, « Guide to biometrics for Large-Scale systems», Springer, 2011. [18] K. Messer, J. Matas, J. Kittler, J.Luettin, and G. Maitre. «XM2VTSDB: The Extended M2VTS Database». In Proceedings, International Conference on Audio- and Video-Based Person Authentication,1999. [19] L. Wiskott, J. M. Fellous, N. Kuiger, and C. von der Malsburg. «Face recognition by elastic bunch graph matching». IEEE Trans. PAMI, 19(7) :775_779, July 1997. [20] Lorène Allano, « La biométrie multimodale : stratégies de fusion de scores et mesures de dépendance appliquées aux bases de personnes virtuelles », thèse de doctorat, Institut national des Télécommunications, Université d‟Evry Val d‟Essonne, 2009. [21] M. Lades, J. C. Vorbruggen, J. Buhmann, J. Lange, C. von der Malsburg, R. P. Wurtz, and W. Konen. «Distortion invariant object recognition in the dynamic link architecture». IEEE Trans. on Computers, 42(3) :300_311, 1993. [22] M. REBBAH, S. BENDIDA, S. CHENAFI, « Application des cartes auto organisatrices de Kohonen pour le Datamining ». Proceedings CIIA‟06, Saida, 2006. [23] M. Turk and A. Pentland. «Eigenfaces for recognition». J. Cognitive Neuroscience 3, 1991. [24] Marie COTTRELL, SmaïI IBBOU, Patrick LETREMY, Patrick ROUSSET, « Cartes auto organisées pour l‟analyse exploratoire de données et la visualisation ». Projet : SAMOSMATISSE (UMR 8595), Université Paris 1, 2002. [25] Marie-Jeanne Lesot, Florence d‟Alché-Buc, Georges Siolas : « Evaluation des cartes auto-organisatrices et de leur variante à noyaux ». Université Pierre et Marie Curie Proceedings ICML‟99.Paris, 1999. [26] Masoud MAZLOOM Shohreh KASAEI, « Face Recognition using Wavelet, PCA, and Neural Networks», Proceeding of the First International Conference on Modeling, Simulation and Applied Optimization, Sharjah, U.A.E. February 1-3, 2005. [27] Max Chassé, Analyste en Informatique de la comission d‟accès à l‟information, « La Biométrie Au Québec : Les Enjeux ». P4-19, Québec, 2002. 93 [28] Ngoc Son VU, « Contributions à la reconnaissance de visages à partir d'une seule image et dans un contexte non-contrôlé », Thèse de doctorat, Institut Polytechnique De Grenoble, Universite De Grenoble, 2010. [29] Nicolas MORIZET, « Reconnaissance Biométrique par Fusion Multimodale du Visage et de l‟Iris », Thèse de doctorat, l‟Ecole Nationale Supérieure des Télécommunications (Paris), 2009. [30] NIST. «Summary of NIST standards for biometric accuracy, tamper resistance, and interoperability», 2002. [31] P. J. Phillips, P. J.Grother, R. J.Micheals, D. M. Blackbrun, E. Tabassi, and J. M. Bone. «Face recognition vendor test 2002: Evaluation report. NISTIR6965», 2003. [32] P. Viola and M.J. Jones. «Robust real-time face detection. Int Journal of Computer Vision», 57 :137_154, 2004. [33] Peter Gregory and Michael A. Simon, «Biometrics for Dummies», Cisa, Cissp, 2008. [34] Pierre ROYER, «Identification d‟architecture, ARS 2003, 2004. et authentification Bionumériques», Dossier [35] R. Hietmeyer. «Biometric identification promises fast and secure processing of airline passengers». The International Civil Aviation Organization Journal, Vol. 17, No. 9, pp. 10– 11, 2000. [36] S N SIVANANDAM, S SUMATHI, S N DEEPA, « Introduction to Neural Networks using MATLAB 6.0 »,McGraw Hill Education, 2013. [37] S. Prabhakar, J. Kittler, D. Maltoni, L. O‟Gorman, and T. Tan. «Introduction to the Special Issue on Biometrics: Progress and Directions , IEEE Transactions on Pattern Analysis and Machine Intelligence», vol. 29, no. 4, April 2007. [38] Souhila GUERFI ABABSA, « Authentification d‟individus par reconnaissance de caractéristiques biométriques liées aux visages 2D/3D », thèse de doctorat, Université Evry Val d'Essonne, 2008. [39] T. Ahonen, A. Hadid, and M. Pietikainen. «Face recognition with local binary patterns». In ECCV, pages 469_481, 2004. [40] Tsutomu Matsumoto, Hiroyuki Matsumoto, Koji Yamada, and Satoshi Hoshino. «Impact of artificial "gummy" fingers on fingerprint systems». In SPIE, vol. 4677, Optical Security and Counterfeit Deterrence Techniques IV, 2002. [41] V. PERLIBAKAS. «Face recognition using Principal Component Analysis and LogGabor Filters». March 2005. 94 [42] X. He, S. Yan, Y. Hu, P. Niyogi, and H.J. Zhang. «Face recognition using laplacianfaces». IEEE Trans. PAMI, 27(3) :328_340, 2005. Sites Web: [43] cswww.essex.ac.uk/mv/allfaces [44] www.orl.org [45] www. Mathworks.com 95