DIB Soumeya Thème IDENTIFICATION DES INDIVIDUS PAR LES

publicité
République Algérienne Démocratique et Populaire
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
UNIVERSITE DES SCIENCES ET DE LA THECHNOLOGIE D ‘ORAN MOHAMED BOUDIAF
FACULTE DES MATHEMATIQUES ET D’INFORMATIQUE
DEPARTEMENT D’INFORMATIQUE
Option : Simulation et intelligence artificielle
Mémoire présenté par :
DIB Soumeya
Pour l’obtention du diplôme de magister en informatique
Thème
IDENTIFICATION DES INDIVIDUS PAR LES TECHNIQUES
MULTIMODALEs :
APPLICATION SUR LES IMAGES DU VISAGE.
Devant le jury composé de :
Présidente
Mme. BELBACHIR Hafida
Professeur USTOMB
Rapporteur
M. BENYETTOU Mohamed
Professeur USTOMB
Examinatrice Mme. FIZAZI Hadria
Professeur USTOMB
Examinateur
MCA
M. BELKADI Khaled
Année universitaire: 2014 / 2015
USTOMB
Remerciements
Tout d’abord nous remercions Dieu Tout Puissant de nous avoir donné la force, la volonté, et
le privilège d’étudier et de suivre le chemin de la science ;
Ce travail n'aurait certainement pas pu voir le jour sans le concours de mon directeur
de thèse Pr.BENYETTOU Mohamed, qu'il me soit permis de le remercier pour sa
disponibilité, ses conseils précieux ainsi que pour la confiance qu’il m’a accordée en me
laissant une grande liberté de pensée et de travail.
Mes plus vifs remerciements aux membres du jury, je tiens à saluer votre disponibilité
et je vous remercie infiniment pour avoir accepté d'examiner et évaluer mon travail, en dépit
de vos attachements et la surcharge de vos emplois du temps. Vos lectures et appréciations
contribueront, à coup sûr, à l'enrichissement des idées, déjà développées dans mon travail.
Je tiens à remercier chaleureusement mon chef de travail M. CHAILA Abdelkader
pour sa compréhension et son soutient.
Mes remerciements vont également à toutes les personnes qui ont contribué de près ou de loin
à l’élaboration de ce mémoire.
Dédicaces :
A mes parents
A mes frères et sœurs
A Riad et Nadir
A tous ceux dont le cœur vibre au rythme de mes succès comme de mes échecs…
Soumeya, DIB
Table des figures
Figure.1.1 : Structure d’un système biométrique……………………………………………. ................................. 09
Figure.1.2 : courbes FAR et FRR…………………………………………………………… ............................................. 10
Figure.1.3 : Courbe ROC : Variation du taux de Faux Rejets (FRR) en fonction du taux de Fausses
Acceptations (FAR)…………………………………………………………………. .......................................................... 12
Figure.1.4 : Les différentes modalités biométriques…………………………...……………. ............................... 14
Figure.1.5: Les différents systèmes multimodaux………………………………………..….................................. 23
Figure.1.6 : Architecture de fusion en parallèle………………………………...…………… .................................. 24
Figure.1.7 : Architecture de fusion en série (incrémentale ou séquentielle)………………… .................... 25
Figure.1.8 : Les différents niveaux de fusion…………………………………………..…… ..................................... 27
Figure. 2.1 : Scores de compatibilité pour différentes technologies biométriques dans un système
MRTD………………………………………………………………………………. ................................................................. 31
Figure. 2.2 :Principe de fonctionnement de base d’un système de reconnaissance faciale..... ........... 32
Figure.2.3 : Exemple de grille d'appariement. (a) grille de référence, (b) grille
correspondante………………………………………………………………………………................................................... 36
Figure.2.4 : Elastic Bunch Graph Matching (EBGM)………………………………………. .................................... 37
Figure. 2.5 : Formes locales typiques des régions d'images utilisées par les méthodes basées sur
l'apparence locale…………………………………………………………………...……. ................................................... 38
Figure.2.6 : Exemple de variation d’éclairage………………………………………………. ..................................... 40
Figure.2.7 : Exemples de variation de poses………………………………………………… ..................................... 41
Figure.2.8 : Exemples de variation d’expressions………………………………...………… .................................. 41
Figure.2.9 : Une classification des algorithmes principaux utilisés en reconnaissance
faciale………………………………………………………………………………………… ....................................................... 42
Figure.3.1 : Exemple de représentation faciale en ondelettes de Gabor : les réponses
en l'amplitude (a) et en phase (b) d'un visage avec 40 noyaux de Gabor (5 échelles, 8
orientations)……………………………………………………………………………………………………………………………..……..47
Figure.3.2 : Passage d’une image vers un vecteur dans un espace vectoriel de grande dimension. Les
coefficients ai,j représentent les valeurs des pixels en niveau de gris, codés de 0 à
255…………………………………………………………………………………… ...............................................................…48
Figure.3.3 : Image moyenne et les 15 eigenfaces…………………………………….................................... ……..51
Figure.3.4 : Les quatre résultats de la projection d’une image sur Ev. (il y a deux vecteurs propres (u1
et u2) et trois classes d’individus connus (1, 2, 3))……………… ................................................……………..52
Figure.4.1 : Exemple d’un réseau de type perceptron multicouche…………………… ......................... …….58
Figure.4.2: Organigramme de l’algorithme MLP……………………………………… ..................................... ……59
Figure.4.3: réseau de KOHONEN……………………………………………..…............................................. …………61
Figure.4.4 : Les différentes topologies des cartes de KOHONEN……………….............................. ………….61
Figure.4.5 : Les possibilités de voisinage…………………………………… ........................................ ………………64
Figure.4.6 : Exemples d’utilisation des cartes de KOHONEN………………… ................................ …………..66
Figure.5.1 : Exemple d’images de la base de données face94……………………… ............................ ……….72
Figure.5.2 : Exemple d’images de la base de données ORL…………………………… ............................... ……73
Figure.5.3 : Conversion d’une image vers la base RGB……………………………… ................................. …..…75
Figure.5.4 : Les filtres de Gabor appliqués sur image du visage………………………… .............................….76
Figure.5.5 : Les étapes de l’approche proposée…………………………………...…… .................................. ……77
Figure.5.6 : Combinaison du filtre de Gabor, ACP et réseaux de neurones…………… ....................... ……78
Figure.5.7 : Exemple de la phase d’apprentissage du réseau de neurones MLP sous Matlab. ............ 78
Figure.5.8 : exemple de la carte rectangulaire (7*7)……………………………..……................................. …….80
Figure.5.9 : Voisinage d’ordre 2 pour une carte rectangulaire…………………………… .............................…81
Figure.5.10 : l’erreur par rapport au nombre d’itérations……………………… ............................ ……...…….83
Figure.5.11 : Temps d’exécution en fonction du nombre de neurones avec différentes distances pour
la base ORL………………..………………………………………… ...................................................................... ………85
Figure.5.12: Temps d’exécution en fonction du nombre de neurones avec différentes distances pour
la base BASE94……………………………..…………………… ................................................................... …………..85
Figure.5.13 : Fenêtre principale de l’application……………………………………… ................................... …….86
Figure.5.15 : La phase de reconnaissance, exemple de la base ORL…………...........................……………..87
Figure.5.16 : Phase de reconnaissance, exemple de BASE 94…………………….............................. …………88
Liste des Tableaux :
Tableau.1.1 : Inconvénients des systèmes d’authentification classiques……………… ....................... ……06
Tableau.1.2 : Principales techniques Biométriques…………………………………… .................................. ……17
Tableau.1.3 : Répartition des articles sur les techniques biométriques soumis et acceptés dans la
revue IEEE PAMI…………………………………………………………………… ........................................................ ……18
Tableau. 2.1 : Comparaison des propriétés des caractéristiques locales et des caractéristiques
globales………………………………………………………………………………… ...................................................... …….39
Tableau3.1 : Etats des individus sur Ev………………………………………………............................................ ……53
Tableau.4.1 : Formules pour calculer la distance………………………………………… ....................................…65
Tableau.5.1 : Résultats de la reconnaissance avec (ACP, FG et MLP) de la base de données
ORL……………………………………………………………………………...........................................................…………….83
Tableau.5.2: Résultats de la reconnaissance avec (ACP, FG, MLP et AG) de la base de données
BASE94……………………………………………………………………… .................................................................. …….83
Tableau.5.3: Résultats de la reconnaissance en variant le nombre de couches cachées pour la base
ORL…………………………………………………………………................................................................ ………………….84
Tableau.5.4: Résultats de la reconnaissance en variant le nombre de couches cachées pour la base
BASE94…………………………………………………………………………… ...............................................................…..84
Tableau.5.5: Résultats de la reconnaissance avec les cartes SOM de la base de données ORL ........... 84
Tableau.5.6: Résultats de la reconnaissance avec les cartes SOM de la base de données ORL ........... 84
TABLE DES MATIERES :
Introduction générale…………………………………………………………… ..................................................……………I
Chapitre1 : La biométrie………………………………………………………………… ................................................ ……1
I.
Introduction………………………………………………………………… .................................................……………02
II.
Biométrie : Histoire, définitions et intérêt………………………………… .................................….………….03
II. 1-Histoire………………………………………………………… .............................................………………………03
II. 2- Définitions…………………………………………………………………………. ...........................................….03
II. 3- Intérêt……………………………………………………………………… ........................................... …………..04
III.
Les systèmes Biométriques………………………………………...………………… ....................................…..07
III. 1- Structure et principe de fonctionnement d’un système biométrique……...……... ........... ……07
III. 2- Performances d’un système biométrique………………………………….......… ........................ …….09
V.
Catégories de la Biométrie………………………………………………………. .................................... ……….14
V. 1- La biométrie physiologique ou morphologique…………………………..……… ....................... ……14
V. 2- La biométrie comportementale…………………………………………….. ............................. .…………16
VI.
Place de la reconnaissance faciale parmi les autres techniques biométriques……..…… .......... .17
VII.
Applications des systèmes biométriques……………………………………….… ............................ …..…..19
VIII.
Les limitations des systèmes biométriques monomodaux…………………..………… .....................…19
IX.
La multimodalité…………..…………………………………………………… ........................................... ………21
X. 1- Les différentes architectures multimodales possibles………………………… ................... ………22
X. 2- Les systèmes multimodales en série VS les systèmes multimodales en parallèle…...… ... ..23
XI.
Les niveaux de fusion…………………………………………………… ........................................……...….……25
XII.
Conclusion ……………………………………………………………………………..............................................….28
Chapitre 2 : La reconnaissance Faciale…………………………………………………... .................................... ......29
I.
Introduction…………………………………………………………… .....................................................…………….30
II.
Reconnaissance du visage…………………………………………………………...............................................…31
III.
Principe de fonctionnement d’un système de reconnaissance faciale………… ................... ……..32
IV.
Les méthodes utilisées pour la reconnaissance du visage………………………… ...........................…33
IV.
1- Les méthodes globales……………………………………………… ................................................. ……..33
IV.
2- Les méthodes locales……………………………………………………………… .......................................... 34
IV.
2-1- Méthodes locales basées sur les caractéristiques d'intérêt……………… ..................... ………35
IV.
2-2- Les méthodes locales basées sur l'apparence du visage……………………… ........................…37
IV. 3- Les méthodes hybrides……………………………………………… ................................................. …………..38
V.
Principales difficultés liées à la reconnaissance de visage………………………… ..............................…40
V. 1- Changement d’illumination…………………………….…… ........................................... …………………….40
V. 2- Variation de pose……………………………………..………………… ............................................... …………40
V. 3- Expressions faciales………………………………..…………………… ............................................... …………41
V. 4- Présence ou absence des composants structurels……………………...…… ............................. ……...41
V. 5- Occultations partielles……………………..…………………………… ............................................. …………41
VI.
Conclusion………………………..……………………………………… ................................................ …………..43
Chapitre 3 : Extraction des caractéristiques…………………………………………......................................... ……44
I.
Introduction…………………………………………………………………… .................................................... ……..45
II.
L’image…………………………………………………………………… ....................................................... ………….46
II. 1- Définition de l’image……………………………………………………… ............................................... ………46
II. 2- Représentation des images numériques………………………………… .................................... …………46
II. 3- Traitements d’image………………………………………………… ................................................. ………….46
III.
Les filtres de Gabor…………………………………………………… ..............................................…………….46
IV.
L’Analyse en Composantes Principales (ACP)………………………………… ................................... ……48
V.
Conclusion………………………………………………………… ...................................................... …………………54
Chapitre 4 : ............................................................................................................................................ 55
I.
Introduction…………………………………………………………… ................................................ ………..……….56
II.
Notion d’apprentissage…………………………………………………… ...........................................……………..57
III.
MLP (Multi Layer Perceptron)………………………………………………..................................... …………..57
III. 1- Architecture de MLP………………………………………………… ..........................................……………..58
III. 2-Algorithme MLP………………………………………………………… ............................................ …………..59
IV.
Les cartes de KOHONEN………………………………………………...........................................……………...60
IV. 1- La théorie de KOHONEN………………………………………………… ....................................... ………….60
IV. 2- Les différentes topologies de la carte de KOHONEN…………………… ......................... …………..61
IV. 3- Caractéristiques des cartes de KOHONEN………………………………… .............................. ………..62
IV. 4- Processus des cartes de KOHONEN…………………………………………… .................................. …….62
IV. 5- Quelques domaines d’utilisation des cartes de KOHONEN……………………… .......................….66
IV. 6- Avantages…………………………………………………………………… ............................................ ………..66
IV. 7- Limites des cartes de KOHONEN…………………………………………… .................................... ………67
V.
Conclusion………………………………………………………………………… .................................................. …….68
Chapitre 5 .............................................................................................................................................. 69
I.
Introduction………………………………………………………………… ..................................................... ……….70
II.
Matériel et données utilisés……………………………………………………… ............................................…..70
II. 1- Environnement et Matériel…………………………………………… ........................................……………..70
II. 2- Données utilisées…………………………………………………………………… ............................................. ..70
II. 2-1- La base de données Face94…………………………………………………… ....................................…..71
II. 2-2- La base de données ORL Database…………………………………………… .................................…..72
III.
Plan du travail……………………………………………………………………… ............................................…...74
III. 1- Définition du problème et identification des buts………………………………… ..........................…74
III. 2- Préparation des données…………………………………………………… .................................... ………...74
III. 3- Prétraitement des données……………………………………… ................................... ……………………74
III. 4- Extraction des caractéristiques…………………………………………………… .......................... ………….75
III. 5- Réduction de la dimension………………………………….……… .................................... ……………..….77
III. 6- Classification…………………………………………………………………...… ............................................….77
IV.
Application du MLP…………………………………………………………… ............................................... ……78
V.
Application des cartes auto organisatrices de KOHONEN…………….. …….… ............................. …….80
VI.
Résultats expérimentaux………………………………………………………..… ....................................... ……82
VI. 1- Résultats MLP……………………………………………………………............................................. .…………83
VI. 2- Résultats SOM………………………………………………………………… ............................................. ……84
VII.
Présentation du logiciel……………………………………………………………… .........................................…86
VIII.
Discussion et conclusion……………………………………………………………….......................................... 89
IX.
Conclusion et Perspectives…………………………………………………………………. .................................. 90
X.
Références Bibliographiques……………………………………………………………….. ..................................... 92
Introduction :
Le progrès technologique en informatique a permis l‟informatisation quasi-totale de tous
les domaines. Cette révolution technologique implique un nouvel enjeu : la sécurisation des
bases de données, dans ce sens la biométrie en est un exemple pratique. En effet, la biométrie
est de plus en plus présente dans la vie quotidienne : au travail, opérations bancaires, l‟accès à
certains endroits militaires ou industriels. Il y a donc un intérêt grandissant pour les systèmes
d'identification et d'authentification. Leur dénominateur commun, est le besoin d'un moyen
simple, pratique, fiable, pour vérifier l'identité d'une personne, sans que cette personne se
présente avec un badge ou un mot de passe, d‟aillerus, il est fréquent d'oublier le code d'accès,
ou de perdre un badge, pour éviter cet oubli, beaucoup de personnes écrivent ce code sur un
carnet, perdant ainsi toute confidentialité ainsi les mots de passe ou les badges peuvent être
utilisés par des tiers non autorisés. Cela a conduit à développer les moyens biométriques qui
permettent une authentification sûre, en effet, les technologies biométriques de
reconnaissance apportent une sécurité beaucoup plus efficace aux utilisateurs, elles sont
applicables à un large champ d‟applications (contrôle d‟accès, paiement sur Internet, login sur
ordinateur, etc).
Au cours de dernières années, la biométrie est devenue l'une des tâches les plus importantes
qui intéressent plusieurs chercheurs en informatique. Dans les applications de contrôle
d'accès, la biométrie constitue une solution efficace, simple et surtout pas chère, qui assure de
bonnes performances. La biométrie est « la reconnaissance automatique d'une personne en
utilisant des traits distinctifs ». Elle regroupe aussi « toutes les caractéristiques physiques
ou traits personnels automatiquement mesurables, robustes et distinctives qui peuvent
être utilisées pour identifier un individu ou pour vérifier l'identité prétendue d'un
individu ». Ces traits physiques sont des caractéristiques universelles et uniques pour chaque
personne, par ailleurs, il existe plusieurs traits biométriques à savoir : les empreintes digitales,
l‟iris, le visage, la rétine, les veines… et bien d‟autres que l‟on découvre au cours de ce
travail.
La biométrie regroupe deux axes principaux, en effet elle peut être une identification ou une
vérification. Avec l'identification ou la reconnaissance, le système biométrique pose et essaye
de répondre à la question, “qui est la personne X ? ”. Dans une application d'identification, le
dispositif biométrique requit une information biométrique et la compare avec chaque
information stockée dans la base de données, c‟est une comparaison un à plusieurs (1:N). Le
I
but des applications d'identification est d'identifier des criminels et des terroristes en utilisant
les données des surveillances.
Alors que pour la vérification ou l‟authentification, le système biométrique demande à
l‟utilisateur son identité et essaye de répondre à la question, “est ce la personne X? ”. Dans
une application de vérification l'utilisateur annonce son identité par une information
biométrique, et le système compare la donnée caractéristique obtenue à partir de l‟information
entrée, avec la donnée enregistrée correspondante à l‟identité prétendue, c‟est une
comparaison un à un (1:1). La vérification est communément employée dans des applications
de contrôle d'accès et de paiement par authentification.
L‟inconvénient majeur de certaines techniques biométriques est qu‟elles peuvent être
reproduites par d‟autres personnes, par exemple on peut reproduire les empreintes digitales
sur du silicone, cela a conduit à développer d‟autres techniques, en effet le fait d‟introduire
deux ou plusieurs traits biométriques augmente la performance du système, c‟est ce qu‟on
appelle La biométrie Multimodale, elle consiste à la multiplication des modalités
biométriques, des algorithmes d‟analyse ou des bases de données utilisées, elle est de plus en
plus utilisée, car elle offre des systèmes de reconnaissance performants et fiables. Parmi les
techniques biométriques les plus utilisées on trouve le visage, en effet, la reconnaissance
basée sur le visage vérifie l‟identité, en comparant les données caractéristiques extraites des
visages des différentes personnes à partir de vidéos ou d‟images fixes. La fabrication des
caméras connaît actuellement d‟énormes développements, on est capable de prendre des
photos de personnes distantes sans qu‟ils ne sachent qu‟ils sont observés. C‟est pour cette
raison que la reconnaissance de visages est trop utilisée dans les applications de contrôle de
frontières, dans la sécurité des établissements, des zones urbaines et dans l‟identification des
conducteurs. C‟est une technique commune, populaire, simple et qui a beaucoup d‟avantages
à savoir : l‟utilisation des visages qui sont des données publiques, la possibilité de s‟intégrer
aux systèmes de surveillance existants et elle ne nécessite pas des équipements chers.
La facilité et la précision avec lesquelles nous pouvons distinguer le visage d'une personne à
l'autre, même dans des conditions défavorables, sont des capacités les plus étonnantes du
système visuel humain. Le but des chercheurs en reconnaissance de visages est de construire
des systèmes informatiques capables d'égaler les êtres humains dans ce domaine.
Dans ce travail, nous avons réalisé un système multimodal, basé sur le visage en appliquant
plusieurs algorithmes et en testant sur deux bases de données différentes, pour cela le travail
II
est réparti comme suit : un premier chapitre qui traite la biométrie et la multimodalité, un
deuxième chapitre où on parle de la reconnaissance faciale, ses méthodes et ses domaines
d‟application.
Dans le chapitre 3, les méthodes d‟extraction des caractéristiques du visage utilisées dans
notre travail sont présentées, ensuite dans le quatrième chapitre on parle des méthodes
utilisées dans le module de décision à savoir les réseaux MLP et les cartes SOM. Finalement,
dans le dernier chapitre les résultats expérimentaux sont présentés.
III
CHAPITRE 1 : La biométrie
I.
Introduction………………………………………………………………………………………………….…..………………............ 02
II.
Biométrie : Histoire, définitions et intérêt……………………………………………..……….….…………. ............... 03
II. 1- Histoire……………………………………………….……………………………………………………….…….……… ........ 03
II. 2- Définitions…………………………………………………..………………………………………………………….…. ........ 03
II. 3- Intérêt……………………………………………………………..………………………………………………….…….. ........ 04
III.
Les systèmes Biométriques…………………………………………………………………….……………….……............. 07
III. 1- Structure et principe de fonctionnement d’un système biométrique……………..…....…… ........ 07
III. 2- Performances d’un système biométrique………………………………….………………......….……. ......... 09
IV.
Caractéristiques de la biométrie……………………………………………………………………………….…. ............. 12
V.
Catégories de la Biométrie…………………………………………………………………….……………………................... 14
V. 1- La biométrie physiologique ou morphologique………………………….………………..…………… ......... 14
V. 2- La biométrie comportementale…………………………………………………………………..…………….......... 16
VI.
Place de la reconnaissance faciale parmi les autres techniques biométriques………..……. ............ 17
VII.
Applications des systèmes biométriques…………………………………………………………..………….. ........... 19
VIII.
Les limitations des systèmes biométriques monomodaux………………………………………..…… ........... 19
IX.
La multimodalité………………………………………………………………………………………………………... .............. 21
IX. 1- Les différentes architectures multimodales possibles……………………………………………… ........ 22
IX. 2- Les systèmes multimodales en série VS les systèmes multimodales en parallèle…….. ........ 23
X.
Les niveaux de fusion……………………………………………….…………………………………………….…….................. 25
XI.
Conclusion …………………………………………………………………………………………………………………. .............. 28
CHAPITRE 1 : La biométrie
I. Introduction
Nous entendons parler de plus en plus de la biométrie, et nous l‟utilisons chaque jour
pour s‟identifier par rapport aux autres, afin d‟accéder à certaines zones ou réaliser des
opérations bancaires. Plusieurs recherches ont confirmé que cette tendance est une solution
fiable et rapide pour l‟identification des personnes et pour la surveillance de certains endroits
sensibles. C„est une branche de la reconnaissance de formes qui suscite beaucoup d‟intérêt.
Les systèmes biométriques permettent, en effet, d‟identifier automatiquement les personnes à
l‟aide de leurs caractéristiques physiques ou comportementales telles que, l‟empreinte
digitale, l‟iris, le visage, la signature, la frappe du clavier ou encore la démarche. Dans ce
chapitre, nous allons d'abord présenter le cadre général de la biométrie, ses utilisations ainsi
que la structure, les avantages et les inconvénients des systèmes biométriques ; Ensuite, nous
présenterons la biométrie multimodale qui est le domaine d'étude de cette thèse.
La biométrie multimodale est la combinaison de plusieurs modalités biométriques
différentes, ce qui implique l'utilisation d'informations complémentaires pour une
personne donnée.
2
CHAPITRE 1 : La biométrie
II. Biométrie : Histoire, définitions et intérêt :
II. 1- Histoire :
Depuis son existence, l‟homme a toujours essayé de trouver les différences existantes
entre lui-même et son entourage et les exploiter dans ses besoins quotidiens.
Les chinois ont été les premiers à utiliser, il y a 1000 ans, les empreintes digitales à des fins
de signature de documents. Après, c‟était le tour de l‟anatomiste MARCELLO MALPIGHI
(1628-1694) qui les a étudiées avec un nouvel instrument nommé microscope. Puis le
physiologiste tchèque JAN EVANGELISTA PURKINGE (1787-1869) a essayé de les
catégorise selon certaines caractéristiques [27]
Vers la fin du 19ème siècle, le docteur HENRY FAULDS (1843-1930), chirurgien à Tokyo, a
marqué le premier pas vers l‟élaboration d‟un système d‟identification d‟individus en se
basant sur des méthodes statistiques pour la classification des empreintes.
En ce moment, un de ses contemporains le français ALPHONSE BERTILLON (1853-1914),
était en train de tester une méthode d‟identification des prisonniers nommée anthropométrie
judiciaire. BERTILLON procédait à la prise de photographies de sujets humains, mesurait
certaines parties de leurs corps (tête, membres, etc.) et on notait les dimensions sur les photos
et sur des fiches à des fins d‟identification ultérieure. C‟était la naissance de la première base
de données contenant des informations des individus [27]. Et depuis, ces systèmes de
reconnaissance ne cessent de se développer et de devenir plus performants.
II. 2- Définitions :
Le terme de biométrie est originaire d‟une contraction des deux anciens termes grecs :
« bios » qui signifie : la vie et « metron » qui se traduit par : mesure.[33]
La biométrie est apparue pour combler les manques des systèmes d‟accès classiques, et dans
la littérature il existe plusieurs définitions de la biométrie :
« La reconnaissance automatique d‟une personne à partir de son comportement ou d‟une
caractéristique physique ». [3]
3
CHAPITRE 1 : La biométrie
« La biométrie recouvre l‟ensemble des procédés tendant à identifier un individu à partir de la
mesure de l‟une ou de plusieurs de ses caractéristiques physiques, physiologiques ou
comportementales ». [4]
La biométrie est la science d‟établir l‟identité d‟une personne basée sur les attributs physiques
(empreintes digitales, visage, géométrie de la main, iris, rétine…) ou comportementaux
(démarche, signature, dynamique de clavier…) liés à un individu.
Un système biométrique typique utilise les sondes convenablement conçues pour capturer le
trait biométrique d‟une personne et le comparer à l‟information stockée dans une base de
données pour établir l‟identité.
Les techniques biométriques permettent donc la mesure et la reconnaissance de ce que l’on
est, à la différence d‟autres techniques de même finalités, mais permettant de mesurer ou
vérifier ce que l’on possède (cadre, badge, document,…) ou ce que l’on sait (mot de passe,
code pin,…).
Un système biométrique peut fonctionner en deux modes distincts : en mode de vérification,
le système confirme ou nie une identité réclamée, alors qu‟en mode d‟identification, il
détermine l‟identité d‟un individu.
La biométrie offre une solution naturelle et fiable pour certains aspects de la gestion d‟identité
en utilisant des systèmes entièrement automatisés ou semi-automatisés de reconnaissance des
individus [34].
II. 3- Intérêt :
La biométrie est un domaine émergeant destiné à augmenter la capacité d‟identifier une
personne parmi un ensemble d‟individus. L‟un des buts de la biométrie est la protection des
consommateurs contre la fraude ou le vol. L‟avantage de l‟identification biométrique est
l‟unicité des caractéristiques physiques, en effet chaque personne a ses propres traits
biométriques qui ne peuvent être changées, perdues ou volées. La méthode d‟identification
biométrique peut aussi remplacer les mots de passe.
La technologie biométrique a de diverses utilisations, mais son but principal est de fournir une
alternative plus sécurisée aux systèmes traditionnels de contrôle d‟accès employés pour
protéger les capitaux personnels ou de corporation. Parmi les nombreux problèmes résolus
4
CHAPITRE 1 : La biométrie
grâce à l‟usage des techniques biométriques, les faiblesses qui ont été décelées dans les
systèmes actuels de contrôle d‟accès sont les suivantes : [9]
-
Mots de passe faibles : Les utilisateurs d‟ordinateur sont notoirement susceptibles
d‟employer des pauvres mots de passe facilement devinés, ayant pour résultat des
cambriolages où les intrus peuvent deviner les qualifications d‟un autre utilisateur et
gagner l‟accès non autorisé à un système informatique. Ceci peut mener à une
violation de la sécurité du personnel ou à un vol de secrets d‟affaires par un étranger.
-
Qualifications partagées : Dans de petits et grands organismes, nous entendons
parler souvent des cas comme ceci : un utilisateur d‟ordinateur partage son mot de
passe avec un collègue qui a besoin de l‟accès, quoique, dans la plupart des
organismes ( et dans beaucoup de lois et de règlements liés à la sécurité), ceci est
interdit par la politique. Les personnes de nature sont disposées à aider un collègue
dans le besoin même si cela signifie violer la politique pour réaliser un plus grand but.
-
Cartes d’accès principales perdues : Beaucoup de fois dans nos carrières nous
avions trouvé des cartes principales perdues dans des parkings et d‟autres endroits
publics. Souvent ils ont le nom de l‟organisation sur eux, ainsi c‟est comme si on
trouvait une clef avec une adresse là-dessus, permettant à la personne qui l‟a trouvée
une libre incursion dans une certaine société.
La biométrie peut résoudre tous ces problèmes en exigeant des crédibilités additionnellesquelque chose liée au propre corps de la personne- avant d‟accorder l‟accès à un bâtiment, à
une salle des ordinateurs, ou à un système informatique. Un système de contrôle d‟accès qui
utilise la biométrie inclura un appareil électronique qui mesure un certain aspect spécifique du
corps ou du comportement d‟une personne qui l‟identifie positivement. Le dispositif pourrait
être un lecteur d‟empreinte digitale, un appareil photo numérique pour atteindre un bon regard
dans un iris, ou un lecteur de signature. En résumé, plusieurs raisons peuvent motiver l‟usage
de la biométrie : [9]
-
Une haute sécurité : en l‟associant à d‟autres technologies comme le cryptage.
-
Confort : En remplaçant juste le mot de passe, exemple pour l‟ouverture d‟un système
d‟exploitation, la biométrie permet de respecter les règles de base de la sécurité (ne
pas inscrire son mot de passe à côté du PC, ne pas désactiver l‟écran pour éviter des
saisies de mots de passe fréquentes). Et quand ces règles sont respectées, la biométrie
5
CHAPITRE 1 : La biométrie
évite aux administrateurs de réseaux d‟avoir à répondre aux nombreux appels pour
perte de mots de passe (que l‟on donne parfois au téléphone, donc sans sécurité).
-
Sécurité/ Psychologie : Dans certains cas, particulièrement pour le commerce
électronique, l‟usager n‟a pas confiance. Il est important pour les acteurs de ce marché
de convaincre le consommateur de faire des transactions. Un moyen d‟authentification
connu comme les empreintes digitales pourrait faire changer le comportement des
consommateurs.
Les systèmes d‟authentification biométriques mettent fin aux problèmes liés à l‟utilisation des
systèmes d‟authentification classiques tels que :
La duplication.
Le vol.
L‟oubli.
La perte.
L‟usage de la technologie biométrique pour la protection des capitaux remonte à longtemps
dans quelques domaines bien précis. Les forces militaires, l‟intelligence, et les organismes de
police avaient employé la biométrie pour élever le niveau de sécurité des contrôles d‟accès
physiques et logiques pendant des décennies.
Copie
Vol
Oubli
Perte




Badge
-



Code

-

-
-
-
-
-
Clé
Empreinte
Tableau.1.1 : Inconvénients des systèmes d‟authentification classiques.
Dans ces dernières années, l‟utilisation de la biométrie dans le domaine d‟authentification et
de protection a connu une hausse considérable. Les centres de traitement des données
6
CHAPITRE 1 : La biométrie
emploient souvent la biométrie pour contrôler l‟accès du personnel dans l‟espace du centre de
données. Les dispositifs de reconnaissance des empreintes digitales apparaissent partout, ils
sont incorporés même dans les ordinateurs portables et aux téléphones. L‟identification
faciale est disponible sur quelques modèles d‟ordinateur portable. Et pour la sécurité des
entreprises et des résidences, des portes à verrouillage par empreintes digitales sont
disponibles sur le marché.
III. Les systèmes biométriques :
Un système biométrique est essentiellement un système qui acquiert des données
biométriques d‟un individu, extrait un ensemble de caractéristiques à partir de ces données
puis le compare à un ensemble de données stocké au préalable dans une base de données pour
pouvoir enfin exécuter une action ou prendre une décision à partir du résultat de cette
comparaison. [3]
III. 1- Structure et principe de fonctionnement d’un système biométrique :
Dans la littérature, le principe de fonctionnement des systèmes biométriques comporte deux
phases principales: l'enregistrement et l'authentification, et cela que l‟on soit dans un système
de vérification ou d‟identification. [20]
III. 1-1- Vérification :
Elle permet de vérifier l‟authenticité d‟un individu. Ce dernier fournit un échantillon
biométrique ainsi qu‟un identifiant et le système s‟assure que le pattern enregistré dans la base
sous cet identifiant correspond bien à la signature biométrique fournie par l‟utilisateur. Le
module de décision fournit une réponse oui/non selon l‟authentification/rejet de l‟identité.
Dans cette phase, les systèmes biométriques effectuent une mise à jour des patterns pour les
types de traits biométriques qui changent légèrement à travers le temps (reconnaissance
faciale).
III. 1-2- Identification :
C‟est l‟étape de reconnaissance des individus. L‟échantillon présenté pour l‟identification est
soumis, après traitement, à des algorithmes de comparaison avec les différents patrons stockés
dans la base de données, afin de permettre au module de décision d‟établir l‟identité de
l‟individu en question.
7
CHAPITRE 1 : La biométrie
L'enregistrement est commun à la vérification et l'identification. C'est la phase préliminaire
qui consiste en l'enregistrement des données biométriques d'une personne sur un support
personnel (pour la vérification) ou dans une base de données (pour l'identification). Cette
phase est très importante car elle influence ensuite tout le processus de reconnaissance. En
effet, tout comme les papiers d'identité, il faut tout d'abord s'assurer de la légitimité du client.
De plus la qualité de ces données d'enregistrement est fondamentale pour les phases
ultérieures d'identification puisque les données d'acquisition servent de référence pour la
personne. On considère souvent plusieurs échantillons de la biométrie pour pouvoir prendre
en compte la variabilité de la biométrie pour la personne.
Un système biométrique comprend 4 modules (Figure.1.1) dont certains sont communs à la
phase d'enregistrement et à celle d'authentification : l'acquisition, l'extraction des
caractéristiques, la comparaison et la décision. [20]
L'acquisition et l'extraction de caractéristiques ont lieu lors de l'enregistrement et lors de
l'authentification. L'extraction de caractéristiques est une représentation de la donnée (par
exemple image ou signal temporel acquis) sous la forme d'un vecteur que l'on cherche à être à
la fois représentatif de la donnée et discriminant vis à vis des autres données (issues d'autres
personnes). Lors de l'enregistrement, le vecteur des caractéristiques extrait de l'échantillon
biométrique est appelé référence et est stocké sur le support personnel ou dans une base de
données selon l'application. Lors de la phase d'authentification, les modules d'acquisition et
d'extraction de caractéristiques permettent d'obtenir une représentation de la donnée
biométrique à tester dans l'espace des caractéristiques. [20]
Le module de comparaison est utilisé lors de la phase d'authentification pour comparer les
vecteurs de caractéristiques de référence et de test. Le module de décision sert ensuite à
prendre une décision à partir de la sortie du module de comparaison qui correspond à un score
de similarité entre les deux vecteurs de caractéristiques (souvent un nombre réel entre 0 et
1).[20]
Pour les systèmes de vérification la comparaison n'est faite qu'une fois entre la référence
stockée sur le support personnel et les données de test, et la décision est du type
OUI/NON.[20]
8
CHAPITRE 1 : La biométrie
Pour les systèmes d'identification la comparaison est faite avec toutes les références stockées
dans la base de données et la décision est la réponse à la question, est-ce que cette personne
est dans la base de données, et si oui qui est-elle ?
Figure.1.1 : Structure d‟un système biométrique
III. 2- Performances d’un système biométrique :
Dans les systèmes d‟identification classiques, tels que l‟identification par mot de passe, la
correspondance doit être parfaite et absolue (100% de similitude) entre l‟identifiant présenté
pour la reconnaissance et celui enregistré dans la base de données (ex : dans le cas
d‟identification par mot de passe, la chaine de caractère saisie par l‟utilisateur du système doit
correspondre exactement à la chaine qui identifie cette personne et lui attribue les droits
d‟accès appropriés).
En revanche, dans les systèmes biométriques, la correspondance n‟est pas absolue. Ceci est dû
à [20] :
-
Des conditions imparfaites lors de l‟acquisition des échantillons biométriques (ex :
empreinte digitale bruitée à cause d‟un dysfonctionnement du lecteur),
9
CHAPITRE 1 : La biométrie
-
Des variations de la caractéristique biométrique de l‟utilisateur (ex : des problèmes
respiratoires peuvent affecter l‟échantillon vocal de l‟utilisateur),
-
Des changements des conditions ambiantes (ex : mauvaise illumination influe sur la
reconnaissance du visage),
-
La différence dans l‟interaction de l‟utilisateur avec les dispositifs d‟acquisition (ex :
iris occlus, empreinte partielle),
Cependant, il est très rare d‟obtenir un ensemble de caractéristiques exactement similaires lors
de deux acquisitions d‟échantillons biométriques d‟un individu. En effet, une correspondance
parfaite de deux échantillons déclenche une mise en garde du système contre une tentative de
fraude par reproduction [9].
Figure.1.2 : courbes FAR et FRR.
Le degré de similitude entre deux ensembles de caractéristiques est appelé : le taux de
similarité (similarity score). Le taux de similarité d‟une comparaison entre deux échantillons
d‟un trait biométrique du même individu est appelé : taux d‟authenticité (Genuine Score ou
Authentic Score). Le taux de similarité entre deux échantillons de deux individus différents
est appelé : taux d‟imposture (Impostor Score) [9].
Comme montré sur la figure 3, il est question d‟un compromis, défini par un seuil, entre le
taux de fausses acceptations et le taux des faux rejets. C'est-à-dire qu‟un taux d‟authenticité
10
CHAPITRE 1 : La biométrie
en dessous du seuil génère un faux rejet, tandis qu‟un taux d‟imposture qui dépasse le seuil
résulte une fausse acceptation.
La performance d‟un système biométrique est quantifiée par le taux de deux erreurs
fondamentales définies dans [3],[9] par :
-
F.A.R : (False Acceptation Rate) ou F.M.R (False Match Rate) dans certains
ouvrages, ces taux déterminent la probabilité pour un système de « reconnaitre » une
personne qui normalement n‟aurait pas dû être reconnue. C‟est un ratio entre le
nombre de personnes qui ont été acceptées alors qu‟elles n‟auraient pas dû l‟être et le
nombre total de personnes non autorisées qui ont tenté de se faire accepter.
-
F.R.R : (False Reject Rate) ou F.N.M.R (False Non Match Rate), ces taux
déterminent la probabilité pour un système donné de ne pas « reconnaitre » une
personne qui normalement aurait dû être reconnue. C‟est un ratio entre le nombre de
personnes légitimes dont l‟accès a été refusé et le nombre total de personnes légitimes
s‟étant présentées.
Cela nous ramène à dire que la variation du seuil implique la variation inversement
proportionnelle des deux taux F.A.R et F.R.R cités précédemment. La courbe ROC
(Receiver Operating Characteristic), donnée par la Figure.1.2, est une représentation
graphique du compromis des deux taux. Dans un système biométrique, la minimisation
simultanée des deux taux n‟est pas possible, or le choix de minimisation d‟un taux dépend
de la qualité du système souhaitée. Pour un système de haute sécurité, par exemple, on
s‟intéresse à minimiser le F.A.R, tandis que si la commodité est la préoccupation
première, on minimise le F.R.R.
11
CHAPITRE 1 : La biométrie
Figure.1.3 : Courbe ROC : Variation du taux de Faux Rejets (FRR) en fonction du taux
de Fausses Acceptations (FAR)
Outre le F.A.R et le F.R.R , il existe d‟autres types d‟erreurs dans les systèmes
biométriques. Le E.E.R (Equal Error Rate) est le taux qui définit un compromis
généralement retenu pour les applications civiles consistant à obtenir une égalité entre le
FFR et le FAR (ou entre le FMR et le FNMR). Il y a aussi le FTE (Failure To Enrol) qui
mesure la probabilité qu‟une personne ne puisse être enrôlée pour des raisons physiques
tenant à la personne ou techniques liées au dispositif de capture. Mais, l‟augmentation du
taux d‟échec à l‟enrôlement, lorsqu‟elle est délibérée et destinée à éliminer les images de
mauvaise qualité ne pouvant servir de référence pour les comparaisons futures, peut
produire une diminution des taux d‟erreurs (FM ou FNM). Ce phénomène peut aussi
survenir lors de l‟identification, à ce moment on parle d‟une erreur F.T.A (Failure To
Acquire).
IV. Caractéristiques de la biométrie :
Un certain nombre de caractéristiques sont utilisées dans diverses applications. Chaque
trait biométrique a ses avantages et ses inconvénients, c‟est pourquoi, le choix de la technique
pour une application dépend d‟une variété de questions en plus de sa performance. JAIN ET
12
CHAPITRE 1 : La biométrie
AL [4] ont identifié sept facteurs déterminant la convenance des traits physiques ou
comportementaux pour être utilisés dans une application biométrique :
-
Universalité : toute personne ayant accès à l‟application doit posséder le trait.
-
Unicité : le trait doit être suffisamment différent d‟une personne à une autre.
-
Permanence : le trait biométrique d‟une personne doit être suffisamment invariant au
cours d‟une période de temps.
-
Mesurabilité : il devrait être possible d‟acquérir et de numériser les données
biométriques à l‟aide d‟un dispositif approprié.
-
Performance : la précision de la reconnaissance et les ressources nécessaires pour
atteindre la précision que doit satisfaire les contraintes imposées par l‟application.
-
Acceptabilité : les individus qui vont utiliser cette application doivent être disposés à
présenter leurs traits biométriques au système.
-
Contournement : il s‟agit de la facilité avec laquelle le caractère d‟un individu peut
être imité en utilisant des objets (par exemple : faux doigts dans le cas de traits
physiques et le mimétisme, dans le cas de traits de comportement).
Bien qu‟il existe un très grand nombre de modalités biométriques (Figure.1.3), nous pouvons
distinguer deux grandes catégories :
1- L’analyse des traces biologiques : basées sur les caractéristiques biologiques des
individus (ADN, salive, urine, odeur…). Ce type de biométrie est très complexe à
mettre en œuvre dans un système usuel de reconnaissance et n‟est utilisé que dans un
cas d‟extrême nécessité (ex : Enquête criminelle, test de paternité…etc.)
2- L’analyse des traits physiques : ce type de méthode est beaucoup plus facile à mettre
en œuvre dans un système de contrôle d‟identité et ne nécessite pas autant de moyens.
13
CHAPITRE 1 : La biométrie
Figure.1.4 : Les différentes modalités biométriques: a) ADN, b) Oreille, c) visage, d) visage
infrarouge, e) thermo-gramme main, f) veine main, g) Empreintes digitales, h) marche, i)
geste j) iris, k) empreinte de la paume, l) rétine, m) signature, n) voix.
V. Catégories de la Biométrie :
Comme montré dans le schéma de la Figure.1.3, nous pouvons représenter les types de
biométries les plus connus et les plus utilisés dans les deux grandes classes : [33]
V. 1- La biométrie physiologique ou morphologique :
Utilisant les caractéristiques physiologiques de l‟individu (exemple : la forme de la main, la
forme du visage, les empreintes digitales, l‟iris, la rétine…etc.)
V. 1-1- L’empreinte digitale :
Ce procédé est le plus répandu et le plus ancien, la donnée de base est le dessin représenté par
les crêtes et sillons de l'épiderme (jonctions, terminaisons aveugles, croisements…). Une
empreinte est caractérisée par une centaine de points particuliers (appelés minuties), dont
seuls une douzaine suffisent pour une identification. Certains modules de reconnaissance
d'empreintes vérifient la température du doigt, sa conductivité, les battements de cœur, ainsi
que d'autres paramètres biologiques - pour éviter de confondre un vrai doigt avec une fausse
empreinte en gélatine.[9]
14
CHAPITRE 1 : La biométrie
V. 1-2- La morphologie de la main, ou « empreinte palmaire » :
Quatre vingt dix (90) caractéristiques de la main sont analysées, dont la forme générale, les
longueurs et largeurs des doigts, les formes des articulations… Le taux d'erreurs peut être
élevé entre personnes d‟une même famille.[9]
V. 1-3- L’iris :
Cette technique peut être exploitable très tôt dans la vie d‟une personne car la structure de
l‟iris est définitive dès la 8ième semaine de maternité, Elle est très fiable du fait qu‟il est
possible de définir plus de 240 points caractéristiques. Certains systèmes d‟identification
évolués permettent de contrôler que l'iris change bien de taille avec l'intensité de la
lumière.[9]
V. 1-4- La rétine :
Les schémas des vaisseaux sanguins de la rétine sont uniques pour chaque individu. Jusqu‟à
400 points caractéristiques permettent de les différencier. La contrainte majeure de ce procédé
est la proximité de l‟œil par rapport au capteur (collaboration étroite de la part du sujet). [9]
V. 1-5- Identification par thermographie :
Une caméra infrarouge établit une cartographie des températures des différentes régions du
visage - une caractéristique biologique qui est propre à chaque individu. On peut même aller
plus loin, en établissant une cartographie du système veineux. [9]
V. 1-6- Les veines :
Le modèle des veines dans l‟anatomie humaine est considéré unique pour chaque individu.
Par conséquent, il y a eu de diverses réalisations du balayage de veine au cours des années, du
balayage de main, au balayage de poignet et, plus récemment, au balayage de doigt. La
plupart de ces techniques ont été utilisées sur terrain et ont montré leur efficacité dans un
système biométrique, cependant sa réalisation est couteuse par rapport aux autres modalités
biométriques.
V. 1-7- Le visage :
L‟identification par visage a été disponible comme technique biométrique pendant longtemps,
elle implique la métrique des et entre caractéristiques distinctes dans le visage, se fondant
15
CHAPITRE 1 : La biométrie
moins sur des facteurs d‟une nature changeante tels que la coupe des cheveux ou l‟utilisation
des produits de beauté. Néanmoins, le visage humain est sujet au changement avec le temps et
cette réalité demeura un défi pour les systèmes d‟identification de visage, comme le
changement d‟expression, la maladie, la vieillesse et d‟autres facteurs normaux. En outre, les
facteurs humains et environnementaux joueront un très grand rôle dans l‟efficacité d‟un
système de reconnaissance faciale. Par conséquent, l‟identification de visage peut être moins
fiable en terme d‟exactitude par rapport à d‟autres techniques comme, par exemple, la
reconnaissance par la rétine, c‟est pour cette raison que la reconnaissance faciale a été parfois
employée avec une autre instance biométrique en même temps, afin d‟augmenter la
performance du système. Le visage et l‟empreinte digitale sont une combinaison populaire
dans ce contexte.
V. 2- La biométrie comportementale :
Par opposition à la biométrie basée sur des caractéristiques physiques, l‟analyse
comportementale est dynamique, et est plus difficile à reproduire, elle se base sur le
comportement de l‟individu. (Exemple : la démarche, la voix, les mouvements…etc.), elle
englobe un ensemble de modalités biométriques :
V. 2-1- La signature biométrique :
Elle est basée sur l‟analyse et le calcul de la dynamique d‟une signature. Ce système est basé
sur des critères précis comme la pression, l‟accélération, la souplesse, les courbes et plusieurs
dizaines d‟autres paramètres. [9]
V. 2-2- La voix :
Elle est basée essentiellement sur la tonalité, la fréquence vocale et la distance entre la
formation des lettres, et dépend grandement de la qualité d‟enregistrement et de la méthode
utilisée : on distingue les systèmes à texte prédéterminé où l'utilisateur doit répéter un texte
qu'il ne choisit pas, et les systèmes où la personne peut parler librement. De plus, on doit tenir
compte de la variabilité de la voix du locuteur dans le temps comme dans le cas de maladie
(rhume,…), et des états émotionnels. Cette technique peut être utilisée sans obtenir le
consentement de la personne identifiée. [9]
V. 2-3- La démarche :
16
CHAPITRE 1 : La biométrie
Le premier avantage de l‟identification par la démarche se situe dans la capacité d‟identifier
un individu à distance. L‟idée qu‟un individu marche typiquement avec une démarche unique
est intéressante. Cependant, la vie réelle est pleine de désaccords dynamiques qui rendent
l‟exécution d‟un tel système particulièrement difficile. En plus des complexités de
comparaison, il y a des facteurs tels que le moment de saisir l‟image mobile d‟un individu en
isolement et dont le détail est suffisant pour pouvoir entreprendre une telle comparaison.
L‟identification des personnes par leurs démarches représente un exemple intéressant de la
recherche biométrique dans la mesure où elle peut identifier une personne à une distance où la
biométrie de contact ne peut fonctionner. Il s‟agit d‟une technique biométrique attrayante pour
des applications militaires et de très haute sécurité. [9]
V. 2-4- La dynamique de frappe :
L‟idée d‟identifier une personne par sa dynamique de frappe était très attrayante parmi les
perspectives de la technologie de l‟information et des réseaux. [9]
Le tableau ci-dessous présente certaines modalités biométriques avec leurs taux d‟utilisation,
leurs nombres de points nécessaires à l‟analyse ainsi la fiabilité de chaque méthode.
Méthode
Utilisation %
50
15
Nombre de points
mesurables
(80)
Selon la photo
Empreintes digitales
Reconnaissance
faciale
Reconnaissance de la
main
iris
signature
voix
Rétine
Rare
Fiabilité
Assez bonne
Variable
10
(90)
Bonne
6
<5
Peu utilisé
(244)
Selon la signature
Dépend des bruits de
fond
400
Proche de 99%
Variable
Peu fiable
Excellente
Tableau.1.2 : Principales techniques Biométriques
VI. Place de la reconnaissance faciale parmi les autres techniques biométriques :
L‟identification des individus via leurs empreintes digitales est la technique
biométrique
la
plus
communément
utilisée.
Le
premier
système
automatique
d'authentification utilisant les empreintes digitales a été commercialisé au début des années
soixante. D‟autres parts, plusieurs études ont démontré que l‟iris est la caractéristique la plus
17
CHAPITRE 1 : La biométrie
fiable car la texture de l‟iris reste stable au cours de la vie. Mais, ces méthodes présentent
l‟inconvénient majeur d‟être intrusives, ce qui amène à adopter des techniques où le contact
avec le capteur est annulé. De plus, une méthode comme l‟identification de l‟iris reste
contraignante pour les utilisateurs qui n‟apprécient pas de placer leur œil devant un appareil.
A l‟inverse, des systèmes d‟identification basés sur l‟analyse des images de visage ne
présentent aucune contrainte pour les utilisateurs. La reconnaissance faciale est une modalité
qui peut être implémentée de manière indépendante des autres modalités biométriques, elle
est souvent utilisée dans des applications de surveillance. La reconnaissance faciale offre
plusieurs avantages : le système de capture (les caméras) est facile à installer, il est accepté
dans les lieux publics ce qui permet d‟avoir des bases de données de plus en plus grandes et
ainsi d‟améliorer les performances de la reconnaissance. [37]
Dans les dernières années, la reconnaissance faciale suscite un intérêt croissant auprès de la
communauté scientifique, en fait, plusieurs conférences internationales spécialisées sont
organisées telles que « The International Conference on Audio and Video-based Biometric
Person Authentication (AVBPA) » depuis 1997, et « the International Conference on
Automatic Face and Gesture Recognition (AFGR) » depuis 1995. Par ailleurs, les États-Unis
ont mené depuis 1993 une série de tests de reconnaissance faciale dont les résultats sont
accessibles au public. Ces tests sont désignés sous les noms de FERET [13], XM2VTS [18],
et FRVT 2002 [16]. En plus, dans [17] une analyse statistique des publications sur les
techniques biométriques soumises et publiées dans un numéro spécial de la revue IEEE
Transaction on PAMI est présentée (Tableau.1.3).
Article (%)
Empreintes
Visage
Performance
Multimodale
Iris
digitale
Autres
Evaluation
Soumission
33
17
16
9
4
21
Acceptation
33
16
16
11
5
20
Tableau.1.3 : Répartition des articles sur les techniques biométriques soumis et acceptés dans
la revue IEEE PAMI.
18
CHAPITRE 1 : La biométrie
Nous observons que la reconnaissance faciale arrive largement en tête avec un pourcentage de
33% du nombre total de publications. Ceci démontre bien l‟intérêt scientifique pour cette
technique.
VII. Applications des systèmes biométriques :
Les applications de la biométrie peuvent être divisées en trois groupes principaux: [9]
-
Applications commerciales : telles que l'ouverture de réseau informatique, la sécurité
de données électroniques, l'e-commerce, l'accès Internet, la carte de crédit, le contrôle
d'accès physique, le téléphone cellulaire, la gestion des registres médicaux, l'étude à
distance, etc.
-
Applications gouvernementales : telles que la carte d'identité nationale, le permis de
conduire, la sécurité sociale, le contrôle des frontières, le contrôle des passeports, etc.
-
Applications légales : telles que l'identification de corps, la recherche criminelle,
l'identification de terroriste, etc.
De nos jours les systèmes biométriques sont de plus en plus utilisés dans des applications
civiles. Par exemple, le dispositif de Schiphol Privium à l'aéroport d'Amsterdam, utilise un
capteur de l‟iris pour accélérer la procédure de contrôle des passeports et des visas. Les
passagers insèrent leur carte dans un lecteur et se mettent en face d‟un appareil-photo ; ce
dernier acquiert l'image de l'œil. Des processus de traitement d‟images sont alors lancés afin
de localiser l'iris et de calculer une signature appelée « Iriscode ». Une fois l'Iriscode calculé,
il est comparé aux données stockées dans la carte pour identifier le passager. Un dispositif
semblable est également employé pour vérifier l'identité des employés de l‟aéroport qui
travaillent dans des secteurs de haute sécurité. Un autre exemple d'utilisation à grande échelle
de la reconnaissance faciale est celui de la ville de Newham, dans la banlieue de Londres. Il
s'est vu décerner le trophée Big Brother Award en 1998 par l'organisation non
gouvernementale Privacy International. [12]
VIII. Les limitations des systèmes biométriques monomodaux :
Le premier but de la biométrie est d‟établir un lien entre une personne et son identité à
travers une caractéristique physique, ce qui permet, donc, d‟avoir une identification plus sûre
que d'autres moyens tels que les cartes, les clés ou les mots de passe. Cependant, les systèmes
19
CHAPITRE 1 : La biométrie
biométriques ont quelques limitations qui font qu'ils ne sont pas encore utilisés dans toutes les
applications courantes.
La principale limitation se situe dans la performance. En effet, si les badges, cartes, clés ou
mots de passe posent des problèmes de sécurité liés à leur perte, vol ou falsification qui
rompent le lien à la personne physique, en revanche ils sont 100% efficaces en terme de
reconnaissance. Si une clé ou un mot de passe est correct, la réponse du système est OUI,
sinon la réponse est NON, la correspondance est exacte à 100%. En revanche les systèmes
biométriques ne permettent pas cette reconnaissance exacte car ils sont basés sur un score de
similarité qui est un nombre réel entre 0 et 1 caractérisant le degré de similitude entre les deux
données biométriques comparées. C'est pour cela que les systèmes biométriques comportent
un module de décision car il faut fixer un seuil de décision à appliquer au score de similarité.
Si le score est supérieur au seuil, les deux échantillons proviennent de la même personne,
l'identité est donc vérifiée. Si le score de similarité est inférieur au seuil, les deux échantillons
ne correspondent pas à la même personne est la personne est rejetée (l'identité prétendue n'a
pas été vérifiée). [20]
Cette absence d‟exactitude dans la correspondance et ces changements dans les données
biométriques sont généralement dues à plusieurs paramètres :
-
La variabilité lors de la capture : Elle est due à plusieurs phénomènes : déformation
physique lors de la capture (variabilité du capteur), bruit d'acquisition, erreurs lors de
la numérisation. Cette variabilité n'est pas intrinsèquement liée à la biométrie mais à la
numérisation de cette biométrie. [20]
-
La variabilité temporelle et la non-unicité des biométries : Elles sont également
appelées variabilité intra-classe (variabilité d'une modalité pour un individu) et
variabilité interclasse (variabilité entre les modalités de plusieurs individus).
Une autre limitation de la biométrie pour des applications d'authentification est la nonuniversalité des biométries. Cela signifie que certaines modalités biométriques ne peuvent pas
être utilisées par une certaine catégorie de la population. Par exemple certaines personnes ont
des empreintes digitales contenant trop peu d'information pour servir de moyen
d'identification. Une étude menée par le NIST (National Institute of Standards and
Technology) [30] a confirmé qu'environ 2% de la population ne peut pas utiliser l'empreinte
digitale comme moyen d'identification. En plus, la capture peut également être non fiable à
20
CHAPITRE 1 : La biométrie
cause des conditions environnementales lors de l'acquisition. Par exemple il est impossible
d'utiliser un système de reconnaissance de la voix dans un endroit très bruité ou de
reconnaissance par le visage lorsqu'il fait nuit (si l'on utilise une caméra à lumière visible).
[20]
En outre, la possibilité de fraude est une autre limitation possible dans un système
biométrique. En fait, si le fait de falsifier un iris est plus difficile que de voler une carte ou
décoder un mot de passe, il est toute fois possible de reproduire certaines modalités
biométriques. En effet, certaines études ont montré qu'il était possible de reproduire les
empreintes digitales avec du silicone. [40]
Enfin, certaines limitations de l'utilisation de la biométrie sont des limitations d'usage ou
culturelles. En effet, par son passé d'outils policiers, la biométrie et particulièrement les
empreintes digitales ont mauvaise réputation et sont associées à la surveillance des personnes
et aux aspects criminels. Cela, en plus du fait que les empreintes digitales laissent des traces
qui pourraient être récupérées et mal utilisées, en font une modalité peu aimée du grand
public. [20] D'autres biométries souffrent de leur difficulté d'utilisation, par exemple l'iris, qui
est une modalité très fiable, mais parfois considérée comme intrusive à cause de l'acquisition
qui se fait assez proche de l'œil et qui gène certaines personnes.
Pour faire face à toutes ces limitations, une autre idée est apparue et adoptée : La
multimodalité, c‟est une approche très utilisée dans les applications d‟authentification, car
les résultats sont beaucoup plus considérables que ceux obtenus avec les systèmes
monomodaux.
IX. La multimodalité :
La multimodalité est l'utilisation de plusieurs systèmes biométriques. La combinaison de
plusieurs systèmes a pour objectif d'en diminuer les limitations vues précédemment. En effet,
l'utilisation de plusieurs systèmes a pour but premier d'améliorer les performances de
reconnaissance. En augmentant la quantité d'informations discriminante de chaque personne,
on souhaite augmenter le pouvoir de reconnaissance du système. De plus, le fait d'utiliser
plusieurs modalités biométriques réduit le risque d'impossibilité d'enregistrement ainsi que la
robustesse aux fraudes. [20]
21
CHAPITRE 1 : La biométrie
IX. 1- Les différentes architectures multimodales possibles :
Les systèmes biométriques multimodaux sont une architecture composée de deux ou plusieurs
systèmes monomodaux, et outre leur avantage de diminuer les inconvénients des systèmes
biométriques monomodaux, systèmes multimodaux peuvent être réalisés selon plusieurs
architectures (Figure.1.4). En effet, un système multimodal peut être : [20]
-
multi-capteurs lorsqu'ils associent plusieurs capteurs pour acquérir la même modalité,
par exemple un capteur optique et un capteur capacitif pour l'acquisition de l'empreinte
digitale.
-
multi-instances lorsqu'ils associent plusieurs instances de la même biométrie, par
exemple l'acquisition de plusieurs images de visage avec des changements de pose,
d'expression ou d'illumination.
-
multi-algorithmes lorsque plusieurs algorithmes traitent la même image acquise, cette
multiplicité des algorithmes peut intervenir dans le module d'extraction en considérant
plusieurs ensembles de caractéristiques et/ou dans le module de comparaison en
utilisant plusieurs algorithmes de comparaison.
-
multi-échantillons lorsqu'ils associent plusieurs échantillons différents de la même
modalité, par exemple deux empreintes digitales de doigts différents ou les deux iris.
Dans ce cas les données sont traitées par le même algorithme mais nécessitent des
références différentes à l'enregistrement contrairement aux systèmes multi-instances
qui ne nécessitent qu'une seule référence.
-
multi-biométries lorsque l'on considère plusieurs biométries différentes, par exemple
visage et empreinte digitale.
Un système multimodal peut bien sûr combiner ces différents types d'associations, par
exemple l'utilisation du visage et de l'empreinte mais en utilisant plusieurs doigts.
22
CHAPITRE 1 : La biométrie
Figure.1.5: Les différents systèmes multimodaux
IX. 2- Les systèmes multimodales en série VS les systèmes multimodales en parallèle :
Les systèmes multimodaux associent plusieurs systèmes biométriques et nécessitent
donc l'acquisition et le traitement de plusieurs données. L'acquisition et le traitement peuvent
se faire successivement, on parle alors d'architecture en série, ou simultanément, on parle
alors d'architecture en parallèle. [20]
L'architecture est en réalité surtout liée au traitement. En effet, l'acquisition des données
biométriques est en général séquentielle pour des raisons pratiques. [20]
Il est difficile d'acquérir en même temps une empreinte digitale et une image d'iris dans de
bonnes conditions. Il existe cependant certains cas où les acquisitions peuvent être faites
simultanément lorsque les différentes données utilisent le même capteur par exemple les
capteurs d'empreintes multi-doigts qui permettent d'acquérir plusieurs doigts simultanément
ou même les empreintes palmaires. [20]
23
CHAPITRE 1 : La biométrie
L'architecture est donc en général liée au traitement et en particulier à la décision. En effet la
différence entre un système multimodal en série et un système multimodal en parallèle réside
dans le fait d'obtenir un score de similarité à l'issue de chaque acquisition (fusion en série) ou
de procéder à l'ensemble des acquisitions avant de prendre une décision (fusion en parallèle).
[20]
L'architecture en parallèle (Figure.1.5) est la plus utilisée car elle permet d'utiliser toutes les
informations disponibles et donc d'améliorer les performances du système. En revanche,
l'acquisition et le traitement d'un grand nombre de données biométriques est coûteux en temps
et en matériel, et réduit le confort d'utilisation. C'est pour cela que l'architecture en série
(Figure 1.5) peut être privilégiée dans certaines applications ; par exemple si la multimodalité
est utilisée pour donner une alternative pour les personnes ne pouvant pas utiliser l'empreinte
digitale. Pour la majorité des individus seule l'empreinte est acquise et traitée mais pour ceux
qui ne peuvent pas être ainsi authentifiés on utilise un système à base d'iris alternativement.
[20]
Figure.1.6 : Architecture de fusion en parallèle
24
CHAPITRE 1 : La biométrie
Figure.1.7 : Architecture de fusion en série (incrémentale ou séquentielle)
X.
Les niveaux de fusion :
La combinaison de plusieurs systèmes biométriques peut se faire à quatre niveaux
différents : au niveau des données, au niveau des caractéristiques extraites, au niveau des
scores issus du module de comparaison ou au niveau des décisions du module de décision
(Figure.1.7).
Ces quatre niveaux de fusion peuvent être classés en deux sous-ensembles : la fusion préclassification (avant comparaison) et la fusion post-classification (après la comparaison). [20]
La fusion pré-classification correspond à la fusion des informations issues de plusieurs
données biométriques au niveau du capteur (images brutes) ou au niveau des caractéristiques
extraites par le module d'extraction de caractéristiques. [20]
La fusion au niveau du capteur ou des données brutes est relativement peu utilisée car elle
nécessite une homogénéité entre les données. Par exemple il est possible de combiner
plusieurs images de visages dans des canaux de couleurs différents ou en visible et en
infrarouge s'ils correspondent à la même scène. Il est également possible de faire une
mosaïque à partir d'images prises de différents points de vue. La fusion au niveau des
25
CHAPITRE 1 : La biométrie
caractéristiques est moins limitée par la nature des données biométriques. Cependant une
certaine homogénéité est nécessaire pour la plupart des méthodes de fusion au niveau des
caractéristiques comme par exemple la moyenne de plusieurs "templates" d'empreintes ou de
visage. Un exemple de fusion au niveau des caractéristiques qui ne nécessitent pas vraiment
d'homogénéité est la concaténation de plusieurs vecteurs de caractéristiques avant le
traitement par l'algorithme de comparaison. Par exemple, dans [6], Jing et al. proposent une
méthode de fusion de caractéristiques pour de la fusion de visage et d'empreinte palmaire. La
fusion est effectuée par concaténation d'images obtenues par transformée de Gabor sur les
images de visage et d'empreinte de la main. Mais la concaténation pose le problème de la
dimension de l'espace de classification qui lorsqu'il augmente, rend plus difficile la tache de
classification. Les méthodes de fusion pré-classification sont assez peu utilisées car elles
posent un certains nombre de contraintes qui ne peuvent être remplies que dans certaines
applications très spécifiques. En revanche, la fusion post-classification est très étudiée par les
chercheurs. Cette fusion peut se faire au niveau des scores issus des modules de comparaison
ou au niveau des décisions. Dans les deux cas, la fusion est en fait un problème bien connu de
la littérature sous le nom de "Multiple Classifier systems". [20]
La fusion au niveau des décisions est souvent utilisée pour sa simplicité. En effet, chaque
système fournit une décision binaire sous la forme OUI ou NON que l'on peut représenter par
0 et 1, et le système de fusion de décisions consiste à prendre une décision finale en fonction
de cette série de 0 et de 1. Les méthodes les plus utilisées sont des méthodes à base de votes
telles que le OR (si un système a décidé 1 alors OUI), le AND (si tous les systèmes ont décidé
1 alors OUI) ou le vote à la majorité (si la majorité des systèmes ont décidé 1 alors OUI). On
peut également utiliser des méthodes plus complexes qui pondèrent les décisions de chaque
sous-système ou qui utilisent des classifieurs dans l'espace des décisions tels que BKS
(Behaviour Knowledge Space).
La fusion au niveau des scores est le type de fusion le plus utilisé car elle peut être appliquée
à tous les types de systèmes (contrairement à la fusion pré-classification), dans un espace de
dimension limité (un vecteur de scores dont la dimension est égale au nombre de soussystèmes), avec des méthodes relativement simples et efficaces mais traitant plus
d'information que la fusion de décisions. La fusion de scores consiste donc à la classification :
OUI ou NON pour la décision finale, d'un vecteur de nombres réels dont la dimension est
égale au nombre de sous-systèmes.
26
CHAPITRE 1 : La biométrie
Figure.1.8 : Les différents niveaux de fusion
27
CHAPITRE 1 : La biométrie
Conclusions :
XI.
Nous avons présenté dans ce premier chapitre le cadre général de cette thèse qui est la
biométrie multimodale, ainsi une introduction générale sur la biométrie, ses définitions, son
Histoire, ses propriétés et ses applications est présentée. Le terme biométrie regroupe en fait
ce que l‟on appelle des modalités biométriques ; contrairement à ce que l‟on possède et que
l‟on peut donc perdre (une clé) ou ce que l‟on sait et que l‟on peut donc oublier (un mot de
passe), les modalités biométriques représentent ce que l‟on est et permettent de prouver notre
identité. Bien que les techniques de reconnaissance biométrique promettent d‟être très
performantes, on ne peut garantir actuellement un excellent taux de reconnaissance avec des
systèmes biométriques unimodaux, basés sur une unique signature biométrique. C‟est pour
cette raison que les systèmes multimodaux ont gagné une place importante dans différents
domaines, notamment dans la reconnaissance des individus qui est de plus en plus présente
pour accéder à certains endroits privés. Dans, le chapitre suivant, nous allons parler de la
reconnaissance faciale qui est l‟instante biométrique utilisée dans ce travail.
28
CHAPITRE 2 : La reconnaissance faciale
I.
Introduction………………………………………………………………………………………………................................ 30
II.
Reconnaissance du visage…………………………………………………….……………………… ............................ 31
III. Principe de fonctionnement d’un système de reconnaissance faciale…..….. ................................ 32
IV.
Les méthodes utilisées pour la reconnaissance du visage…………………………… .......................... 33
IV. 1- Les méthodes globales……………………………………………………………………………………….. ............. 33
IV. 2- Les méthodes locales……………………………………………………………………………….…………… ........... 34
IV.
2-1- Méthodes locales basées sur les caractéristiques d'intérêt…………..…………… ............. 35
IV.
2-2- Les méthodes locales basées sur l'apparence du visage…………………………..…………… . 37
IV. 3- Les méthodes hybrides…………………………………………………………………………………..…….. ........... 38
V.
VI.
Principales difficultés liées à la reconnaissance de visage……………………………… ........................... 40
V.
1- Changement d’illumination………………………………………………………………………..…………. ..... 40
V.
2- Variation de pose………………………………………………………………………………..………………........ 40
V.
3- Expressions faciales………………………………………………………………………….…………………… ..... 41
V.
4- Présence ou absence des composants structurels……………………………………………... ........ 41
V.
5- Occultations partielles……………………………………………………………………..………………………... 41
Conclusion……………………………………………………………………………………….………….. ........................ 43
CHAPITRE 2 : La reconnaissance faciale
I.
Introduction :
La reconnaissance d‟un individu à travers son visage est une tâche facile pour l‟homme, il
l‟effectue naturellement et sans effort dans sa vie quotidienne. Actuellement, on assiste à un
développement considérable des systèmes informatiques et des ordinateurs en termes de
puissance et de vitesse. Ce progrès technologique a suscité un énorme intérêt dans le
traitement automatique des images et des vidéos numériques au sein de nombreuses
applications, à savoir l‟identification biométrique, l‟interaction homme-machine, la
surveillance et la gestion de données multimédia.
La reconnaissance faciale, en particulier, a pris une part de plus en plus importante dans le
domaine de l‟identification biométrique, ceci étant dû à la rapidité du développement des
technologies, donc, un besoin grandissant de sécurité a été ressenti. En fait, l‟authentification
automatique des individus devient, de nos jours, une étape capitale dans le domaine de la
sécurité et de contrôle d‟accès aux zones industrielles, militaires et aux systèmes
informatiques.
30
CHAPITRE 2 : La reconnaissance faciale
II.
Reconnaissance du visage :
La problématique de la reconnaissance de visages peut être formulée comme suit :
étant donné une ou plusieurs images d'un visage, la tâche est de trouver ou de vérifier
l'identité d'une personne par comparaison de son visage à l'ensemble des images de
visage stockées dans une base de données. Des informations supplémentaires telles que la
race, l'âge, le sexe, ou la parole peuvent être utilisées pour réduire l'espace de recherche, ce
qui permet d'améliorer les performances de reconnaissance.
La reconnaissance faciale possède plusieurs avantages sur les autres technologies
biométriques : elle est naturelle, non intrusive et facile à utiliser. Parmi les six attributs
biométriques considérés par Hietmeyer [35], les caractéristiques faciales marquent un score de
compatibilité le plus élevé dans un système MRTD (“Machine Readable Travel Documents”)
[23], ce score étant basé sur plusieurs facteurs d’évaluation tels que l‟enrôlement, le
renouvellement des données, les requis matériels et la perception des utilisateurs (Figure. 2.1).
Figure. 2.1 :Scores de compatibilité pour différentes technologies biométriques dans un
système MRTD.
31
CHAPITRE 2 : La reconnaissance faciale
III.
Principe de fonctionnement d’un système de reconnaissance faciale :
Un système de reconnaissance faciale doit, donc, pouvoir identifier des visages présents
dans une image ou une vidéo de manière automatique. Le système peut opérer dans les deux
modes suivants : authentification ou identification ; on peut également noter qu‟il existe un
autre type de scénario de reconnaissance faciale mettant en jeu une vérification sur une liste
de surveillance (“watch-list”), où un individu est comparé à une liste restreinte de suspects.
[23] Le principe de fonctionnement d‟un système de reconnaissance faciale (Figure. 2.2) peut
être résumé en quatre étapes : La détection du visage, la normalisation du visage, l‟extraction
et la comparaison des caractéristiques.
Figure. 2.2 :Principe de fonctionnement de base d‟un système de reconnaissance faciale.
Les deux premières étapes (la détection et la normalisation) s‟effectuent en amont du
système alors que les deux dernières (l’extraction et la comparaison) représentent la
reconnaissance proprement dite.
Les systèmes de reconnaissance faciale ont suscité beaucoup d‟intérêt depuis les premiers
travaux qui ont été menés dans les années 1960-1970 par Benton et Van Allen en 1968 pour
évaluer la capacité d'identification des visages non familiers, de nombreux algorithmes de
reconnaissance du visage ont été proposés depuis. Certaines méthodes se basent sur une
photographie (2D) du visage tandis que d‟autres méthodes prennent en compte des
informations 3D de celui-ci. Cet intérêt pour la reconnaissance de visages est sans doute dû à
la multiplicité et la variété des champs d‟applications de cette approche, à savoir le contrôle
d‟accès, la télésurveillance et l‟identification des criminels...).
32
CHAPITRE 2 : La reconnaissance faciale
IV.
Les méthodes utilisées pour la reconnaissance du visage :
De nombreuses méthodes de reconnaissance de visages ont été proposées au cours des
30 dernières années. La reconnaissance faciale automatique est un domaine plein de défis et
de challenges, c‟est pour cette raison qu‟il a suscité de nombreuses recherches dans diverses
disciplines, notamment dans la psychologie, la neurologie, les mathématiques, la physique, et
l‟informatique (reconnaissance des formes, réseaux de neurones, vision par ordinateur). C'est
la raison pour laquelle la littérature sur la reconnaissance de visages est vaste et diversifiée.
Dans la littérature, il existe plusieurs façons de catégoriser les systèmes de reconnaissance de
visages, par exemple certains auteurs divisent les systèmes de reconnaissance en deux classes
de méthodes : [28] méthodes basées sur l'apparence et méthodes basées modèle. Les méthodes
basées sur l'apparence tentent de caractériser l'apparence du visage en concaténant les pixels
de visage, alors que celles basées modèle créent des modèles spécifiques et identiques en
utilisant les caractéristiques choisies sur les visages.
Mais la classification la plus courante divise les méthodes de reconnaissance faciale en trois
catégories :
IV. 1- Les méthodes globales :
Ces méthodes utilisent la région entière du visage comme entrée du système de
reconnaissance. L'une des méthodes la plus largement utilisée pour la représentation du visage
dans son ensemble est la représentation à partir de l'image de visages propres ou eigenfaces
[23] basée sur une analyse en composantes principales (ACP).
Le principe de ces méthodes est de représenter une image faciale par un seul vecteur de
grande dimension en concaténant les niveaux de gris de tous les pixels de visage. Cette
représentation, appelée description basée sur l'apparence globale, a deux avantages : [28]
Premièrement, elle conserve implicitement toutes les informations de texture et de forme
utiles pour différentier des visages. Deuxièmement, elle peut tenir compte des aspects
d'organisation structurelle globaux du visage.
Pour traiter le problème de la grande dimension des données, des techniques de réduction de
dimensionnalité peuvent être utilisées. En effet, une des techniques les plus courantes pour la
reconnaissance faciale est la description par visages propres [23], qui est basée sur l'analyse
en composantes principales (ACP). Par la suite, et en allant du principe de base de l‟ACP,
33
CHAPITRE 2 : La reconnaissance faciale
plusieurs variantes ont été développées au cours des dernières années, à savoir l'ACP à
noyaux et l'ACP à deux dimensions [15], les Fisherfaces basés sur une analyse discriminante
linéaire (LDA) [02], le modèle probabiliste Bayésien [07], les machines à vecteurs de support
(SVMs) [31] et le visage laplacien (laplacianfaces) [42]. Ces approches ont des performances
supérieures à celles de la méthode originale basée sur le visage propre. Néanmoins, elles ne
fonctionnent plus dès lors qu'une seule image de référence est disponible pour chaque
personne à reconnaitre. [28]
IV. 2- Les méthodes locales :
Typiquement, ces méthodes extraient tout d'abord des caractéristiques locales, puis
utilisent leurs statistiques locales (la géométrie et/ou l'apparence) comme donnée d'entrée du
classificateur.
Les méthodes locales peuvent être classées en deux catégories : les méthodes basées sur les
points d'intérêt et celles basées sur l'apparence du visage. Dans la première catégorie, on
détecte tout d'abord les points d'intérêt et ensuite on extrait des caractéristiques localisées sur
ces points d'intérêt, alors que dans la seconde, on divise le visage en petites régions (ou
patchs) sur lesquelles les caractéristiques locales sont extraites directement. En comparaison
avec les approches globales, les méthodes locales présentent certains avantages : [28]
Tout d'abord, les approches locales peuvent fournir des informations supplémentaires basées
sur les parties locales. De plus, pour chaque type de caractéristiques locales, on peut choisir le
classificateur le plus adapté. Cependant, l'intégration d'informations de structure plus globale
est nécessaire. En fait, il y a deux façons de faire pour atteindre cet objectif : [28]
Les informations globales sont intégrées dans les algorithmes en utilisant des structures de
données, telles qu'un graphe où chaque nœud représente une caractéristique locale alors
qu'une arrête entre deux nœuds représente la relation spatiale entre eux. La reconnaissance de
visage apparaît comme un problème de conjonction de deux graphes.
La deuxième façon consiste à utiliser des techniques de fusion de scores : des classificateurs
séparés sont utilisés sur chaque caractéristique locale pour calculer une similarité et ensuite
les similarités obtenues sont combinées afin d'obtenir un score global pour la décision finale.
34
CHAPITRE 2 : La reconnaissance faciale
IV. 2-1- Méthodes locales basées sur les caractéristiques d'intérêt :
Les méthodes les plus anciennes en reconnaissance de visages appartiennent à cette catégorie.
Elles s'appuient toutes sur l'extraction de caractéristiques géométriques spécifiques telles que
la largeur de la tête, les distances entre les yeux, etc. Ces données sont ensuite utilisées par
des classificateurs afin de reconnaitre des individus. Ces méthodes présentent les deux
inconvénients suivants : [28]
Les caractéristiques géométriques sont difficiles à extraire dans certains cas puisque la tâche
de détection précise de points caractéristiques n'est pas facile, en particulier dans les cas où
des occultations ou des variations (pose, expression) de visages sont présentes, en plus, les
caractéristiques géométriques seules ne sont pas suffisantes pour représenter entièrement un
visage, et d'autres informations utiles telles que les valeurs des niveaux de gris de l'image sont
complètement écartées.
Pour remédier à ce problème, deux directions de recherches ont été menées : La première se
concentre sur les performances des détecteurs de points caractéristiques du visage. Dans [14],
Brunelli et Poggio ont proposé d'utiliser un ensemble d'apprentissage pour détecter la position
de l'œil dans une image. Ils ont tout d'abord calculé pour chaque point des coefficients de
corrélation entre l'image de test et les images de l'ensemble d'apprentissage et ensuite ils ont
cherché les valeurs maximales. Rowley et al. [13] ont utilisé plusieurs détecteurs de traits
spécifiques correspondant à chaque partie du visage, telles que les yeux, le nez, la bouche, etc.
Lanitis et al. [01] ont proposé de construire des modèles statistiques de la forme du visage.
Dans la deuxième direction, les méthodes se concentrent sur des représentations plus
élaborées des informations portées par les points caractéristiques du visage, plutôt que
simplement sur des caractéristiques géométriques. Manjunath et al. [08] ont proposé des
algorithmes pour détecter et représenter des caractéristiques faciales à partir d'ondelettes de
Gabor. Pour chaque point détecté, deux types d'information sont stockées : sa position et ses
caractéristiques (les caractéristiques sont extraites en utilisant le filtre Gabor sur le point
considéré). Pour modéliser la relation entre les points caractéristiques, un graphe topologique
est construit pour chaque visage.
Basée sur cette idée, Lades et al. [21] ont proposé d'utiliser un graphe topologique déformable
au lieu d'un graphe topologique fixe comme dans [08] afin de proposer un modèle de
représentation du visage appelé Dynamic Link Architecture (DLA). Cette approche permet de
faire varier le graphe en échelle et en position en fonction des variations d'apparence du
35
CHAPITRE 2 : La reconnaissance faciale
visage considéré. Le graphe est une grille rectangulaire localisée sur l'image (Figure. 2.3) où
les nœuds sont étiquetés avec les réponses des filtres de Gabor dans plusieurs orientations et
plusieurs fréquences spatiales appelées jets. Les bords sont étiquetés par des distances, où
chaque bord relie deux nœuds sur le graphe.
Figure. 2. 3 : Exemple de grille d'appariement. (a) grille de référence, (b) grille
correspondante.
La comparaison entre deux graphes de visage est réalisée en déformant et en mettant en
correspondance le graphe représentatif de l'image de test avec chacun des graphes
représentatif des images de référence.
Plus tard, Wiskott et al. [19] ont étendu l'utilisation de DLA à une méthode très connue
appelée Elastic Bunch Graph Matching (EBGM), où les nœuds des graphes sont situés sur un
certain nombre de points sélectionnés du visage (figure. 2.4). De manière similaire à la
méthode de Manjunath et al. [35], Wiskott et al. ont utilisé les ondelettes de Gabor pour
extraire les caractéristiques des points détectés car les filtres de Gabor sont robustes aux
changements d'illumination, aux distorsions et aux variations d'échelle.
36
CHAPITRE 2 : La reconnaissance faciale
Figure. 2. 4 : Elastic Bunch Graph Matching (EBGM).
Enfin, de nombreuses méthodes basées sur l'extraction de points caractéristiques ont été
proposées et ces méthodes peuvent être utiles et efficaces pour la reconnaissance faciale dans
le cas où une seule image de référence est disponible. Cependant, leurs performances
dépendent beaucoup de l'efficacité des algorithmes de localisation des points caractéristiques
du visage. Et en pratique, la tâche de détection précise des points caractéristiques n'est pas
facile, en particulier dans les cas où la forme ou l'apparence d'une image du visage peuvent
beaucoup varier. [28]
IV. 2-2- Les méthodes locales basées sur l'apparence du visage :
Dans la majorité des cas, les méthodes de reconnaissance de visages basées sur l'apparence
locale du visage comportent quatre étapes : [28]
-
Le découpage en régions de la zone du visage ;
-
L'extraction des caractéristiques ;
-
La sélection des caractéristiques ;
-
La classification.
Ces quatre étapes ne sont pas obligatoires pour toutes les méthodes. Notamment, la troisième
étape de sélection des caractéristiques, qui peut être éliminée ou combinée avec d'autres
étapes.
-
Le découpage en régions :
Les deux facteurs qui définissent une région locale sont sa forme et sa taille. La forme peut
être rectangulaire, elliptique, etc. (Figure. 2.5) mais ce qui est le plus largement utilisé est le
découpage rectangulaire. Les fenêtres peuvent être superposées ou non. La taille de la région
a une influence directe sur le nombre de caractéristiques et la robustesse de la méthode.
37
CHAPITRE 2 : La reconnaissance faciale
Figure. 2.5 : Formes locales typiques des régions d'images utilisées par les méthodes basées
sur l'apparence locale.
-
L’extraction des caractéristiques locales :
Une fois que les régions locales ont été définies, l‟étape suivante consiste à choisir la
meilleure manière de représenter les informations de chaque région. Cette étape est très
importante dans la mesure où elle influe sur les performances du système de reconnaissance.
Les caractéristiques couramment utilisées sont les valeurs de gris, les coefficients de Gabor,
les ondelettes de Harr [32], les transformées de Fourier, les caractéristiques basées sur les
indices LBP (Local Binary Pattern) [39] ou SIFT (Scale Invariant Feature Transform) [38].
-
Sélection des caractéristiques :
Cette étape consiste à sélectionner les caractéristiques les plus pertinentes, elle sert à
améliorer la rapidité du traitement. En effet, on trouve parmi les méthodes de sélection :
l'ACP qui est une méthode couramment utilisée pour sélectionner des caractéristiques en
garantissant une perte minimum d'informations ; LDA qui peut être utilisée pour sélectionner
les caractéristiques les plus discriminantes, d'autres techniques comme l'Adaboost [38] sont
également possibles pour cette tâche.
-
Classification :
C‟est la dernière étape du processus d'identification de visage dont la stratégie la plus utilisé
est de réaliser la fusion par vote à la majorité ou par somme pondérée de l'ensemble des
décisions prises par chaque classificateur agissant sur une caractéristique faciale donnée.
IV. 3- Les méthodes hybrides :
Appelée aussi méthodes de fusion combinent les deux types de caractéristiques locales et
globales. Les paramètres clés qui influent les performances des méthodes de fusion résident
38
CHAPITRE 2 : La reconnaissance faciale
dans le choix des caractéristiques pour la combinaison et la manière de les combiner de telle
sorte que leurs avantages soient préservés et que leurs inconvénients soient évités.
Les propriétés des caractéristiques locales et celles des caractéristiques globales sont très
différentes et peuvent offrir des informations complémentaires utiles à la tâche de
classification. Ainsi, les méthodes locales peuvent être considérées comme des méthodes
hybrides car des informations globales sont généralement prises en compte.
A titre d‟exemple, l‟algorithme LogGabor PCA(LG-PCA) [30] représente un exemple
d‟algorithme hybride, en fait il effectue une convolution avec des ondelettes de Gabor
orientées autour de certains points caractéristiques du visage afin de créer des vecteurs
contenant la localisation et la valeur d’amplitudes énergétiques locales ; ces vecteurs sont
ensuite envoyés dans un algorithme ACP afin de réduire la dimension des données.
Les variations des images de visages ont une influence considérable sur les caractéristiques
locales et les caractéristiques globales ce qui implique une influence sur le système de
reconnaissance, le tableau (2.1) résume les degrés d‟influences de ces variations sur les
caractéristiques locales et globales : [28]
Variations
Caractéristiques locales
Caractéristiques globales
Petites variations
Pas sensible
Sensible
Grandes variations
Sensible
Très sensible
Illuminations
Pas sensible
Sensible
Expressions
Pas sensible
Sensible
Pose
Sensible
Très sensible
Bruit
Très sensible
Sensible
Occultations
Pas sensible
Très sensible
Tableau. 2.1 : Comparaison des propriétés des caractéristiques locales et des caractéristiques
globales.
39
CHAPITRE 2 : La reconnaissance faciale
V. Principales difficultés liées à la reconnaissance de visage :
Pour le cerveau humain, le processus de la reconnaissance de visages est une tâche visuelle de
haut niveau. Bien que les êtres humains puissent détecter et identifier des visages dans une
scène sans beaucoup de peine, construire un système automatique qui accomplit de telles
tâches représente un sérieux défi. Ce défi est d‟autant plus grand lorsque les conditions
d‟acquisition des images sont très variables. Il existe deux types de variations associées aux
images de visages : [38] inter et intra sujet. La variation inter-sujet est limitée à cause de la
ressemblance physique entre les individus. Par contre la variation intra-sujet est plus vaste.
Elle peut être attribuée à plusieurs facteurs que nous analysons ci-dessous.
V. 1- Changement d’illumination
L‟apparence d‟un visage dans une image varie énormément en fonction de l‟illumination de la
scène lors de la prise de vue (Figure.2.6). Les variations d‟éclairage rendent la tâche de
reconnaissance de visage très difficile. En effet, le changement d‟apparence d‟un visage du à
l'illumination, se révèle parfois plus critique que la différence physique entre les individus, et
peut entraîner une mauvaise classification des images d'entrée.
Figure.2.6 : Exemple de variation d‟éclairage.
V. 2- Variation de pose :
Le taux de reconnaissance de visage baisse considérablement quand des variations de pose
sont présentes dans les images. La variation de pose est considérée comme un problème
majeur pour les systèmes de reconnaissance faciale. Quand le visage est de profil dans le plan
image (orientation < 30°), il peut être normalisé en détectant au moins deux traits faciaux
(passant par les yeux). Cependant, lorsque la rotation est supérieure à 30°, la normalisation
géométrique n'est plus possible. [38] (Figure.2.7).
40
CHAPITRE 2 : La reconnaissance faciale
Figure.2.7 : Exemples de variation de poses.
V. 3- Expressions faciales
Un autre facteur qui affecte l‟apparence du visage est l‟expression faciale (Figure.2.8). La
déformation du visage qui est due aux expressions faciales est localisée principalement sur la
partie inférieure du visage. L'information faciale se situant dans la partie supérieure du visage
reste quasi invariable. Elle est généralement suffisante pour effectuer une identification.
Toutefois, étant donné que l'expression faciale modifie l'aspect du visage, elle entraîne
forcément une diminution du taux de reconnaissance.
Figure.2.8 : Exemples de variation d‟expressions.
V. 4- Présence ou absence des composants structurels
La présence des composants structurels telle que la barbe, la moustache, ou bien les lunettes
peut modifier énormément les caractéristiques faciales telles que la forme, la couleur, ou la
taille du visage. De plus, ces composants peuvent cacher les caractéristiques faciales de base
causant ainsi une défaillance du système de reconnaissance. Par exemple, des lunettes
opaques ne permettent pas de bien distinguer la forme et la couleur des yeux, et une
moustache ou une barbe modifie la forme du visage.
V. 5- Occultations partielles
Le visage peut être partiellement masqué par des objets dans la scène, ou par le port
d‟accessoire tels que lunettes, écharpe... Dans le contexte de la biométrie, les systèmes
proposés doivent être non intrusifs c‟est-à-dire qu‟on ne doit pas compter sur une coopération
41
CHAPITRE 2 : La reconnaissance faciale
active du sujet. Par conséquent, il est important de savoir reconnaître des visages
partiellement occultés.
Figure.2.9 : Une classification des algorithmes principaux utilisés en reconnaissance faciale.
42
CHAPITRE 2 : La reconnaissance faciale
VI. Conclusion :
La reconnaissance faciale est un domaine de recherche très actif en raison de ses nombreuses
applications dans le domaine de la vision par ordinateur en général et en biométrie en
particulier. Cet intérêt est motivé par plusieurs raisons. D‟abord, le visage est universel.
Ensuite, il est le moyen le plus naturel par les êtres humains de s‟identifier les uns des autres.
Enfin, le visage en tant que modalité biométrique est présente un caractère non intrusif, ce qui
le distingue d‟autres modalités biométriques comme l‟iris ou l‟emprunte digitale. La
reconnaissance faciale représente aussi des défis scientifiques importants, ce qui a conduit à
l‟apparition de plusieurs approches.
43
CHAPITRE 3 : Extraction des caractéristiques
I.
Introduction……………………………………………………………………………..…………………….. ......................... 45
II.
L’image……………………………………………………..………………………………..…………………. .......................... 46
II. 1- Définition de l’image…………………………………………………………………….….………… .......................... 46
II. 2- Représentation des images numériques………………………………..…………………….......................... 46
II. 3- Traitements d’image…………………………………………………………………….…..……. ............................. 46
III.
Les filtres de Gabor……………………………………………………………………………….………. ...................... 46
IV.
L’Analyse en Composantes Principales (ACP)……………………………….………...……… ...................... 48
V.
Conclusion……………………………………………………………………………………………….……… ......................... 54
CHAPITRE 3 : Extraction des caractéristiques
I.
Introduction :
Dans toutes les méthodes de reconnaissance faciale la définition et l'extraction des
caractéristiques faciales sont parmi les questions les plus pertinentes, car dans cette étape les
caractéristiques extraites représentent le mieux les informations portées par un visage ce qui
mène à une meilleure reconnaissance, en fait, Le premier problème de l‟analyse d‟image est
de ne conserver que ce qui est utile à la suite du processus. Le choix de caractéristiques
locales présente plusieurs avantages par rapport à des caractéristiques globales. C'est pour
cette raison que les systèmes les plus récents s'appuient sur des caractéristiques faciales
locales.
Plusieurs méthodes d‟extraction de caractéristiques existent dans la littérature, nous allons
présenter celles qui sont les plus utilisées dans le domaine de la reconnaissance faciale.
45
CHAPITRE 3 : Extraction des caractéristiques
II. L’image :
II. 1- Définition de l’image :
L‟image est une représentation d‟une personne ou d‟un objet par la peinture, la
sculpture, le dessin, la photographie, le film, etc. C‟est aussi un ensemble structuré
d‟informations qui, après affichage sur l‟écran, ont une signification pour l‟œil humain. [36]
II. 2- Représentation des images numériques :
Une image numérique est une matrice de pixels repérés par leur coordonnées (x,y). S'il
s'agit d'une image couleur, un pixel est codé par 3 composantes (R,G,B) (chacune comprise
au sens large entre 0 et 255), représentant respectivement les "doses" de rouge, vert et bleu
qui caractérisent la couleur du pixel. S'il s'agit d'une image en niveau de gris, il est codé par 1
composante comprise au sens large entre 0 et 255, représentant la luminosité du pixel. [36 ]
II. 3- Traitements d’image :
Pour manipuler une image, on travaille sur un tableau d'entiers qui contient les
composantes de chaque pixel. Les traitements s'appliquent toujours aux images en niveau gris
et parfois aussi sur des images couleur. En effet, L'œil humain possède des récepteurs pour les
trois couleurs primaire rouge, vert et bleu, en plus, tous les espaces couleur ont trois
dimensions. [36] Il ya plusieurs espaces de couleurs disponibles, les plus connus étant RVB
(Rouge-Vert-Bleu) et HSV (Hue-Saturation-Valeur). Dans notre travail, l‟image du visage est
convertie vers la base RGB.
III. Les filtres de Gabor :
Les filtres de Gabor, défini par Dennis Gabor, sont largement utilisé dans le domaine
du traitement d'images, car ils présentent deux propriétés intéressantes : la localisation
fréquentielle et la sélectivité en orientation. Les représentations en fréquence et en
orientation du filtre Gabor s'apparentent à celles du système visuel humain [11].
Les ondelettes en dimension deux de Gabor ont été introduites dans le domaine de la
recherche biométrique par Daugman [32] pour la reconnaissance d'iris. Lades et al. [21] ont
utilisé les premiers les ondelettes de Gabor en reconnaissance faciale en utilisant la Dynamic
Link Architecture.
46
CHAPITRE 3 : Extraction des caractéristiques
Un noyau de filtre de Gabor est le produit d'une onde complexe sinusoïdale avec une
enveloppe gaussienne. Une ondelette de Gabor généralement utilisée dans la reconnaissance
faciale est définie comme suit :
Où z = (x; y) est le point de coordonnées (x; y) dans le plan image. Les paramètres u et v
définissent l'orientation et la fréquence des noyaux de Gabor ‖.‖ est l'opérateur norme, et σ
est l'écart-type de l'enveloppe gaussienne.
L'intérêt d'utiliser les filtres de Gabor pour extraire des caractéristiques faciales est qu'ils
permettent de capturer les informations de visage dans des orientations et des résolutions
différentes. De plus, ils sont robustes aux changements d'illumination, aux distorsions et aux
variations d'échelle.
Figure.3.1 : Exemple de représentation faciale en ondelettes de Gabor : les réponses
en l'amplitude (a) et en phase (b) d'un visage avec 40 noyaux de Gabor (5 échelles, 8
orientations).
La convolution d'une image avec 40 noyaux de Gabor (5 échelles et 8 orientations) donne 40
cartes d'amplitude et 40 cartes de phase qui ont la même taille que l'image originale, comme
illustrée sur la figure.3.1. Par conséquent, si on ne considère que la réponse en amplitude,
chaque pixel est décrit par un vecteur de dimension 40. Ce vecteur de dimension 40 est
également appelé « Jet » et il a été utilisé largement dans les systèmes les plus anciens, tels
que le LDA et EGBM [37]. Notons que ce sont des méthodes basées sur des points
caractéristiques qui doivent être détectés très précisément. Dans les méthodes plus récentes
47
CHAPITRE 3 : Extraction des caractéristiques
telles que [73], les auteurs ont utilisé directement une image de caractéristiques contenant les
40 cartes d'amplitude comme entrée de reconnaissance. Dans [79], Mellakh utilise les
réponses en phase comme indice facial. Bien entendu, des méthodes de réduction de
dimension ont été utilisées, telles que le sous-échantillonnage ou l'ACP avec ses variantes.
Plusieurs métriques ont été testées pour les caractéristiques basées sur les filtres de Gabor et
celle qui est la plus souvent utilisée est la distance cosinus.
IV. L’Analyse en Composantes Principales (ACP) :
L'algorithme PCA est né des travaux de M. A. Turk et A. P. Pentland au MIT Media
Lab, en 1991. Il est aussi connu sous le nom de Eigenfaces car il utilise des vecteurs propres
et des valeurs propres (respectivement Eigenvectors et Eigenvalues en anglais).[29]
L‟idée principale consiste à exprimer M images de départ selon une base de vecteurs
orthogonaux particuliers : les vecteurs propres, contenant des informations indépendantes
d‟un vecteur à l‟autre. Les données originales seront donc exprimées d‟une manière plus
appropriée à la reconnaissance du visage. [29]
En termes mathématiques, cela revient à trouver les vecteurs propres de la matrice de
covariance formée par les différentes images de la base d‟apprentissage.
Une image Ii(m,n) est traitée comme un vecteur Γi(m×n,1) dans un espace vectoriel de grande
dimension (N = m × n), par concaténation des colonnes (Figure.3.2). [29]
Figure.3.2 : Passage d‟une image vers un vecteur dans un espace vectoriel de grande
dimension. Les coefficients ai,j représentent les valeurs des pixels en niveau de gris, codés de
0 à 255.
Après avoir rassemblé les M images dans une unique matrice, nous obtenons une matrice
d‟images Γ, où chaque colonne représente une image Γi : [29]
48
CHAPITRE 3 : Extraction des caractéristiques
On calcule ensuite l‟image moyenne ѱ de toutes les images collectées. Cette image peut être
vu comme le centre de gravité du jeu d‟images : [29]
On ajuste ensuite les données par rapport à la moyenne. L‟image moyenne est alors soustraite
de chaque image avec la formule suivante : [29]
On calcule ensuite la matrice de covariance du jeu de données. Cette matrice peut être vue
comme une matrice de moments d‟ordre 2 : [29]
La prochaine étape consiste à calculer les vecteurs propres et les valeurs de cette matrice de
covariance C de taille (N × N), c‟est-à-dire de l‟ordre de la résolution d‟une image.
Le problème est que cela peut parfois être très difficile et très long. En effet, si N > M (si la
résolution est supérieure au nombre d‟images), il y aura seulement M − 1 vecteurs propres qui
contiendront de l‟information (les vecteurs propres restants auront des valeurs propres
associées nulles). Par exemple, pour 100 images de résolution 320×240, nous pourrions
résoudre une matrice L de 100 × 100 au lieu d‟une matrice de 76800 × 76800 pour ensuite
prendre les combinaisons linéaires appropriées des images. Le gain de temps de calcul serait
considérable. Typiquement, nous passerions d‟une complexité de l‟ordre du nombre de pixels
dans une image à une complexité de l‟ordre du nombre d‟images. [29]
Pour accélérer les calculs, on considère les vecteurs propres ei de C = AAT , associés aux
valeurs propres λi : [29]
49
CHAPITRE 3 : Extraction des caractéristiques
Cei = λiei
Les vecteurs propres vi de L = ATA, associés aux valeurs propres μi sont tels que :
Lvi = μivi
En multipliant à gauche par A des deux côtés de l‟égalité, nous obtenons :
Puisque C = AAT , nous pouvons simplifier :
On remarque que Avi et μi sont respectivement les vecteurs propres et les valeurs propres de
C:
On peut, donc trouver les valeurs propres de cette énorme matrice C en trouvant les valeurs
propres d‟une matrice L beaucoup plus petite. Pour trouver les vecteurs propres de C, il suffit
juste de pré-multiplier les vecteurs propres de L par la matrice A.
Les vecteurs propres trouvés sont ensuite ordonnés selon leurs valeurs propres
correspondantes, de manière décroissante. Plus une valeur propre est grande, plus la variance
capturée par le vecteur propre est importante. Cela implique que la majeure partie des
informations est contenue dans les premiers vecteurs propres.
Une part de la grande efficacité de l‟algorithme ACP vient de l‟étape suivante qui consiste à
ne sélectionner que les k meilleurs vecteurs propres (ceux avec les k plus grandes valeurs
propres). On définit alors un espace vectoriel engendré par ces k vecteurs propres, que l‟on
appelle l’espace des visages Ev (“Face Space”).[29]
Les images originales peuvent être reconstituées par combinaison linéaire de ces vecteurs
propres, on les appelle eigenfaces (Figure.3.3).
50
CHAPITRE 3 : Extraction des caractéristiques
Figure.3.3 : Image moyenne et les 15 eigenfaces.
Les images de départ sont ensuite projettées sur Ev. Une image Γ i est alors transformée en ses
composantes eigenfaces par une simple opération de projection vectorielle: [29]
Les vecteurs ωk sont appelés poids et forment une matrice T = [ω1, ω2, ..., ωM′ ] qui décrit la
contribution de chaque eigenface dans la représentation de l‟image d‟entrée. [29]
La matrice T est alors utilisée pour trouver quelle est, parmi un nombre prédéfini de classes,
celle qui décrit le mieux une image d‟entrée. [29]
La méthode la plus simple pour déterminer quelle classe de visage fournit la meilleure
description d‟une image d‟entrée est de trouver la classe de visage k qui minimise la distance
euclidienne. [29]
où k est un vecteur qui décrit la keme classe de visage.
Un visage appartient à une classe k quand le minimum εk est en dessous d‟un certain seuil θ".
Dans le cas contraire, le visage est classé comme étant inconnu et peut éventuellement être
utilisé pour créer une nouvelle classe de visage. La création de la matrice de poids T est
équivalent à la projection du visage original sur Ev. Puisque la distance ε entre l‟image de
51
CHAPITRE 3 : Extraction des caractéristiques
visage et Ev est simplement le carré de la distance entre l‟image d‟entrée réajustée par rapport
à la moyenne : [29]
sa projection sur Ev est : [29]
Il y a alors quatre possibilités pour une image d‟entrée d‟être reconnue ou non (Figure.3.4).
Figure.3.4 : Les quatre résultats de la projection
d‟une image sur Ev. (il y a deux vecteurs propres (u1 et u2) et trois classes
d‟individus connus (1, 2, 3)).
Dans le cas 1, un individu est reconnu et identifié.
Dans le cas 2, un individu inconnu est présent.
Les deux derniers cas (3 et 4) indiquent que l‟image n‟est pas une image de visage. Pour le
cas 3, l‟image est éloigné de Ev mais la projection est proche d‟une classe connue, on parle
alors de fausse acceptation. Ces remarques sont résumées dans le tableau.3.1.
52
CHAPITRE 3 : Extraction des caractéristiques
Espaces des visages Ev
Classe de visage
1
Proche
Proche
2
Proche
éloigné
3
éloigné
Proche
4
éloigné
éloigné
Tableau3.1 : Etats des individus sur Ev
En résumé, l‟algorithme ACP est une méthode globale utilisant en premier lieu les niveaux de
gris des pixels d‟une image. Sa simplicité à mettre en œuvre contraste avec une forte
sensibilité aux changements d‟éclairement, de pose et d‟expression faciale. [41]
Le principe selon lequel on peut construire un sous-espace vectoriel en ne retenant que les «
meilleurs »vecteurs propres, tout en conservant beaucoup d‟information utile, fait de l‟ACP
un algorithme efficace et couramment utilisé en réduction de dimensionnalité.
53
CHAPITRE 3 : Extraction des caractéristiques
V.
Conclusion :
Dans tout problème de reconnaissance de formes, l‟étape d‟extraction des
caractéristiques est cruciale. En effet, elle permet de ne retenir que les informations jugées
utiles pour la phase de décision, ce qui réduit considérablement le temps de réponse du
système, en outre l‟extraction assure une réduction de la dimensionnalité des données en se
focalisant sur la partie utile des informations.
Il existe une multitude de méthodes d‟extraction, entre autre, les filtres de Gabor qui sont des
outils performants et très réputés dans le domaine de reconnaissance faciale, notamment dans
le module d‟extraction des caractéristiques.
En plus, la réduction de la dimension est une étape nécessaire dans le processus du
prétraitement des données, en fait, la méthode ACP, utilisée dans ce travail est un ancien
algorithme mais encore très utilisé vu les résultats fiables qu‟il assure.
54
CHAPITRE 4 : Classification avec MLP et SOM
I.
Introduction……………………………………………………….……………………..………………………..………. ............ 56
II.
Notion d’apprentissage……………………………………………………………………………………………….. ............ 57
III.
MLP (Multi Layer Perceptron)…………………………………………………………………………………….. ......... 57
III. 1- Architecture de MLP…………………………………………………………………………………………….. ........... 58
III. 2-Algorithme MLP…………………………………………………………………………………………………….. ........... 59
IV.
Les cartes de KOHONEN………………………………………………………………………………………... .............. 60
IV. 1- La théorie de KOHONEN……………………………………………………………………………………................ 60
IV. 2- Les différentes topologies de la carte de KOHONEN…………………………..………………….. ......... 61
IV. 3- Caractéristiques des cartes de KOHONEN…………………………………………….……………….. ......... 62
IV. 4- Processus des cartes de KOHONEN………………………………………………………………………….......... 62
IV. 5- Quelques domaines d’utilisation des cartes de KOHONEN………………………………………. ........ 66
IV. 6- Avantages…………………………………………………………………………………………………….……….... ........ 66
IV. 7- Limites des cartes de KOHONEN…………………………………………………………………….………… ....... 67
V.
Conclusion……………………………………………………………………………………………………………..……. ............ 68
CHAPITRE 4 : Classification avec MLP et SOM
I.Introduction
Pour étudier, résumer, représenter des données multidimensionnelles comprenant à la
fois des variables quantitatives (à valeurs continues réelles) et qualitatives (discrètes,
ordinales ou nominales), il existe de nombreuses méthodes performantes, éprouvées et déjà
implantées dans la plupart des logiciels statistiques.
Plus récemment, depuis les années 80, de nouvelles méthodes sont apparues, connues sous le
nom de méthodes neuronales. Elles proviennent de travaux pluridisciplinaires où se sont
retrouvés des biologistes, des physiciens, des informaticiens, des théoriciens du signal, des
cogniticiens, des mathématiciens et statisticiens.
Outre le fait qu‟elles sont partiellement issues d‟une inspiration biologique ou cognitive, ces
méthodes ont rencontré rapidement un certain succès en particulier à cause de leur caractère
de « boîte noire », d‟outil à tout faire, ayant de très nombreux domaines d‟applications. [24]
Les travaux réalisés dans le domaine des réseaux de neurones ont gagné une vaste marge dans
diverses applications, notamment dans la reconnaissance de formes, cela est dû à la robustesse
et la fiabilité des algorithmes, en fait il existe plusieurs types de réseaux de neurones tels que :
LVQ (learning Vector Quantization), BPN (Back Propagation Network), les réseaux de
Hopfield, MLP (Multi Layer Perceptron) et les cartes SOM (Self Organization Maps) de
KOHONEN.
Dans notre travail, nous avons utilisé dans la phase de classification des images faciales, deux
types de réseaux de neurones, à savoir le réseau MLP et les cartes auto organisatrices de
KOHONEN.
56
CHAPITRE 4 : Classification avec MLP et SOM
II.
Notion d’apprentissage
L'apprentissage est vraisemblablement la propriété la plus intéressante des réseaux
de neurones ; C‟est la phase du développement du réseau, durant laquelle le comportement
de ce dernier est modifié jusqu'à l'obtention du comportement désiré.
Durant l'apprentissage neuronal, une modification des poids du réseau est indispensable dans
le but d'avoir une meilleure réponse du réseau, cette réponse est atteinte lorsque le réseau se
stabilise, il est souvent impossible de décider à priori des valeurs des poids des connexions
d'un réseau pour une application donnée.
A l'issu de l'apprentissage, les poids sont fixés: c'est alors la phase de généralisation ; On peut
distinguer deux types d'apprentissages:
 L‟apprentissage "supervisé" ;
 L‟apprentissage "non supervisé".
Le premier type consiste à présenter au réseau des formes dont les catégories sont connues à
l'avance, l'ensemble d'apprentissage est nécessaire pour permettre à un algorithme de jouer sur
les poids et de fixer ceux-ci jusqu'à ce que la sortie du réseau s'approche le plus près possible
des catégories cibles.
Tandis que
le deuxième type d‟apprentissage, non supervisé, consiste à détecter
automatiquement des régularités qui figurent dans les exemples et à modifier les poids des
connexions pour que les exemples ayant les mêmes caractéristiques de régularité et
provoquent la
même sortie ; La première règle d'apprentissage connexionniste non
supervisée était vers la fin des années 40.
Pour les réseaux à apprentissage non supervisé ( Hop-Field, Kohonen, etc ), on présente une
entrée au réseau et on le laisse évoluer librement jusqu'à ce qu'il se stabilise.[36]
III.MLP (Multi Layer Perceptron) :
Les réseaux de neurones de type MLP (Multi Layer Perceptron) sont largement utilisés
pour la décision dans le domaine de reconnaissance faciale. Le perceptron multicouche
est un réseau orienté de neurones artificiels organisé en couches et où l‟information se
déplace dans un seul sens, de la couche d‟entrée vers la couche de sortie. [26]
57
CHAPITRE 4 : Classification avec MLP et SOM
Les perceptrons multicouches sont utilisés avec apprentissage supervisé, dans les réseaux
MLP il existe une fonction d‟activation non linéaire. Le réseau MLP a également différentes
couches de neurones cachés. Les neurones cachés font du réseau MLP un outil robuste pour
les tâches complexes. Les couches du réseau sont reliées par des poids synaptiques. Les
réseaux MLP sont généralement des réseaux entièrement connectés. Il existe différents
réseaux du perceptron multicouches qui comprend l‟algorithme du Rétropropagation
(BPN).[36]
III. 1- Architecture de MLP:
Le perceptron multi couches se compose d‟une couche d‟entrée qui contient les
neurones d‟entrée du système reliés à une ou plusieurs couches cachées et d‟une couche de
sortie où les neurones de cette couche constituent la réponse du système. (Figure.4.1)
Les neurones sont reliés entre eux par des connexions pondérées. Ce sont les poids de ces
connexions qui gouvernent le fonctionnement du réseau et programment une application de
l‟espace des entrées vers l‟espace des sorties `a l‟aide d‟une transformation non linéaire.
Couche d‟entrée
1ère couche cachée
2ème couche cachée
couche de sortie
Figure.4.1 : Exemple d‟un réseau de type perceptron multicouche.
La Figure.4.1 donne l‟exemple d‟un réseau contenant une couche d‟entrée, deux couches
cachées et une couche de sortie. La couche d‟entrée représente toujours une couche virtuelle
associée aux entrées du système. Elle ne contient aucun neurone. Les couches suivantes sont
des couches de neurones.
58
CHAPITRE 4 : Classification avec MLP et SOM
III. 2- Algorithme du MLP :
Début
Initialisation : Régler les poids et la valeur du seuil de réseau ainsi que la valeur du Bias, le nombre total
d'entrées de neurones i dans le réseau, le nombre de couches et fixer un critère d‟arrêt.
Activation : Activer le réseau avec les entrées x1(t), x2(t), ..., xn(t) et les résultats y1(t), y2(t),….yn(t). Calculer les
sorties de neurones dans les couches cachées et de sortie:
réseaux
dexiKOHONEN,
yj(t)= Les
sigmoïde
[ ni=1
t ×wij t -θj] ou cartes auto organisatrices de KOHONEN, font partie des
méthodes neuronales qui sont fondés sur des modèles qui tentent d'expliquer comment les
Yk(t)= sigmoïde [ m
j=1 yj t ×wjk t -θk] Où n et m sont le nombre d‟entrées du neurone j de la couche cachée k
cellules
du
cerveau
et leurs interconnexions parviennent.
et sigmoïde est la fonction d‟activation.
Apprentissage : mettre les poids à jour, propagation en arrière les erreurs associées avec les neurones de sortie.
Itération= itération+1
Oui
Nombre d‟itération
atteint
Fin
Non
Figure.4.2: Organigramme de l‟algorithme MLP
Les réseaux de neurones stockent et retrouvent l'information de manière similaire au cerveau,
et ils sont particulièrement adaptés aux traitements de problèmes complexes comme la
reconnaissance automatique de la
parole, la reconnaissance de visages ainsi
classification automatique. [25]
59
que
la
CHAPITRE 4 : Classification avec MLP et SOM
IV. Les cartes de KOHONEN
Les cartes de Kohonen sont issues des travaux du professeur Teuvo Kohonen, de
l‟université de technologie d‟Helsinki, qui a mis au point l‟algorithme qui porte aujourd‟hui
son nom ; Cet algorithme défini en 1982 cherche à reproduire le processus de traitement des
informations du cerveau.
Les cartes de Kohonen servent à construire une forme particulière d‟apprentissage non
supervisé, à la différence des réseaux de neurones, qui cherchent à construire un modèle
entre les données cibles et des données en entrée, les cartes de Kohonen cherchent à organiser
sous une forme naturelle les données en entrée. [36].
IV. 1- La théorie de Kohonen
Le but de Kohonen était de trouver un modèle plus proche de la réalité, les réseaux de
Kohonen sont constitués de nœuds (neurones) disposés uniformément sur une grille (ou
carte), chaque nœud est connecté fonctionnellement à chacun des nœuds voisins, dans la
majeure partie des cas, les grilles sont construites en deux dimensions, mais il est possible
d‟élaborer des grilles multidimensionnelles, et à chaque fois qu‟un vecteur se présente, ses
composantes sont reliés à chacun des nœuds de la grille, cela active les neurones de la grille,
en générant un poids pour chaque connexion ; Après cette initialisation aléatoire des poids,
chaque neurone est en compétition avec les autres, le neurone qui présente le meilleur
ajustement est le gagnant, la qualité d‟ajustement d‟un neurone est défini par la distance entre
le vecteur d‟entrée et le poids, le neurone gagnant est celui qui correspond à la distance
minimale. [22]
Le but est d‟utiliser la capacité des cartes auto-organisatrices de Kohonen à séparer , d‟une
façon non supervisée, pour analyser aussi bien la répartition de ces états sur l‟espace de
sortie que les associations qui peuvent se dégager entre ces états.
Le modèle SOM est utilisé pour étudier la répartition de données dans un espace de grande
dimension, basé sur des neurones artificiels, c‟est d‟un processus de classification
topographique, selon ce processus, les données d‟entrées, représentables dans le cas général
sous forme de vecteurs à N dimensions sont ramenées à des classes qui s‟auto-organisent
selon une structure généralement, bidimensionnelle de nœuds sur laquelle les relations de
voisinage sont prédéfinies. [36]
60
CHAPITRE 4 : Classification avec MLP et SOM
Figure.4.3: réseau de KOHONEN
IV.2- Les différentes topologies de la carte de Kohonen :
Pour réaliser une carte de Kohonen, il existe plusieurs topologies ou formes, la
structure topologique de la carte introduit la notion de voisinage et de distance entre les
neurones de la carte :
Carte unidimensionnelle ou fil.
Carte bidimensionnelle (carrée, rectangle).
Carte hexagonale
Figure.4.4 : Les différentes topologies des cartes de KOHONEN
61
CHAPITRE 4 : Classification avec MLP et SOM
IV. 3- Caractéristiques des cartes de KOHONEN :
Les architectures connexionnistes s'inspirent de l'organisation neuronale du cerveau
humain ; Dans les réseaux de neurones artificiels de nombreux processeurs appelés cellules
ou unités, capables de réaliser des calculs élémentaires, sont structurés en couches successives
capables d'échanger des informations au moyen de connexions qui les relient. On dit de ces
unités qu'elles miment les neurones biologiques ; Les réseaux de neurones présentent de plus
quatre caractéristiques particulièrement intéressantes, on peut les résumer comme suit [36] :
 Adaptatifs
Les réseaux de neurones sont entraînés à partir de données incorporées au système, ainsi ils
s'améliorent avec l'expérience; leur réponse sera d'autant meilleure qu'ils emmagasinent des
informations.
 Massivement parallèles
Chaque neurone est capable de réaliser une fonction bien spécifique indépendamment des
neurones de la même couche ce qui rend leur fonctionnement parallèle dans certaines
situations.
 Capables de généralisation
Un réseau de neurones est capable de généraliser, à partir des exemples de l'ensemble
d'apprentissage, une fonction (non linéaire) qu'un réseau de neurones peut approcher.
 La classification
En raison de leur propriété d'approximateurs universels, les réseaux de neurones sont capables
d'estimer de manière précise la probabilité d'appartenance d'un objet inconnu à une classe
parmi plusieurs cas possibles.
IV. 4- Processus des cartes de KOHONEN :
L‟algorithme d‟apprentissage du modèle SOM est de type compétitif, non supervisé,
il comprend principalement deux étapes : une étape de sélection d‟un nœud gagnant et une
étape de mise à jour du profil du nœud gagnant et de ceux des nœuds appartenant à son
voisinage. C‟est un algorithme qui est à la fois un algorithme de projection non linéaire et un
algorithme de classification en fait , il associe à des données ( appartenant en général à un
62
CHAPITRE 4 : Classification avec MLP et SOM
espace de grande dimension ) un ensemble de prototypes organisés selon une structure de
faible dimension ( en général deux ) choisie a priori. Chaque prototype représente un sousensemble des données, qu‟on peut considérer comme une classe. [8]
IV. 4-1- Choix de la forme et de la taille de la grille :
Il est indispensable de choisir une topologie pour la grille (carte), parmi les
topologies citées ci-dessus, car en précisant cette forme, on peut savoir quels nœuds sont
voisins au neurone gagnant et par conséquent on aura plus d‟efficacité de résultats, il faut
déterminer aussi la taille de cette grille en précisant le nombre de nœuds qui doivent être
initialement placés sur la grille , cette opération est particulièrement importante car elle
conditionne la pertinence des résultats ; Un nombre suffisant de nœuds garantit que ceux-ci
seront attirés par des vecteurs de données suffisamment proches d‟eux ; Plus il y aura de
nœuds , plus la carte sera flexible et s‟adaptera facilement à la structure des données à
modéliser , mais plus le temps d‟apprentissage augmentera.
Il n‟existe pas de règles d‟art pour définir la taille optimale de la carte, dans une première
phase de découverte des données, il est préférable de commencer par une surface restreinte
afin de limiter le temps d‟apprentissage. [36]
IV. 4-2- Choix de R (le rayon de voisinage) :
Après avoir choisir une forme de la carte , selon l‟une des topologies citées cidessus , le choix d‟un rayon de voisinage est nécessaire, en fait durant l‟étape d‟apprentissage,
la notion de voisinage s‟impose, pour connaître quels neurones seront proche des entrées.
Selon les topologies existantes, les possibilités de voisinage sont comme suit :
63
CHAPITRE 4 : Classification avec MLP et SOM
Figure.4.5 : Les possibilités de voisinage
IV. 4-3- Choix du nombre d’itérations ou du seuil de tolérance :
Pour mettre fin au processus de KOHONEN, et vérifier les résultats obtenus ,il faut
choisir un nombre fini des itérations, le réseau se stabilisera lorsque ce nombre est atteint,
c‟est le critère d‟arrêt pour le processus de KOHONEN ; On peut aussi utiliser un autre
critère d‟arrêt , c‟est ce qu‟on appelle le seuil de tolérance, il se varie entre [0,1] , et il se
décroît avec le temps, lorsqu‟il est inférieur de zéro le réseau se stabilisera.
IV. 4-4- Initialisation des poids :
Ces poids sont générés d‟une façon aléatoire, ils constituent les composantes d‟un
vecteur appelé vecteur des poids, ces composantes représentent la force des connexions
« synaptiques » avec les neurones qui représentent les données en entrée. [36]
IV. 4-5- L’apprentissage :
L‟apprentissage est une caractéristique essentielle pour les réseaux de neurones,
pendant le processus d‟apprentissage , tous les vecteurs sont représentés d‟une manière
64
CHAPITRE 4 : Classification avec MLP et SOM
répétitive à la carte de KOHONEN ; c'est-à-dire chaque entrée est reliée à tous les neurones
de la carte , cela active un neurone parmi les neurones de la carte, ainsi que ses voisins. Le
but de cette opération est d‟ajuster le mieux possible la grille des nœuds à la distribution des
données, aussi pour modéliser au mieux cette distribution de données. [36]
IV. 4-6- Le matching :
Durant cette étape, on calcule la distance (appelée également similarité ou
ressemblance) entre l‟entrée et le vecteur de poids de chaque neurone. On choisit le neurone
dont la distance est la plus petite, c‟est le neurone gagnant, suivant la règle d‟apprentissage
compétitif « the winner take all ». Pour calculer cette similarité, on peut utiliser l‟une des
distances [8] :
 xi  yi ²
Distance euclidienne
i
Distance euclidienne
 xi  yi ²
i
carrée
Distance de
Manhattan
Distance cosinus
 xi  yi
i
(xi - yi)+(xi - yi )
Tableau.4.1 : Formules pour calculer la distance.
X représente l‟entrée ;
Y représente le poids.
Le poids du neurone gagnant ainsi que les poids de ces voisins (selon le rayon de voisinage
choisi) sont actualisés (mise à jour).
65
CHAPITRE 4 : Classification avec MLP et SOM
En suite, si le seuil d‟apprentissage est supérieur à 0, ou que le nombre d‟itération n‟est pas
encore atteint, on présente à nouveau le neurone gagnant ainsi que ses voisins au réseau, et on
répète le processus d‟apprentissage jusqu'à stabilisation des poids.
IV. 5- Quelques domaines d’utilisation des cartes de KOHONEN :
Depuis leur définition par Kohonen en 1982 , les cartes auto-organisatrices ont été
appliquées dans de multiples domaines ,tels que reconnaissance de formes, le traitement du
Signal, traitement de la Vision et de la Parole, la robotique, l‟étude du fonctionnement du
cerveau humain, le traitement d‟images, le contrôle de processus ou l‟organisation de grandes
bases de données textuelles ou numériques, et la classification automatique. [36]
Modélisation
et Prévisions
financières
Reconnaissance des
signatures et visages
Carte autoorganisatrice de
KOHONEN
Le contrôle de
qualité en
secteur
industriel
Le contrôle de
processus
automatisé
Reconnaissance
de caractères
manuscrits,
traitement des
chèques...
Classification
non
supervisée
Diagnostic de
pannes
Figure.4.6 : Exemples d‟utilisation des cartes de KOHONEN.
IV. 6- Avantages :
 Classification rapide (réseau étant construit).
 Possibilité de combinaison avec d‟autres méthodes (ex : arbre de décision pour
sélection d‟attributs).
 Représentation visuelle des données tout en conservant leur topologie.
66
CHAPITRE 4 : Classification avec MLP et SOM
 Possibilité de représenter des objets 2D (carte à deux dimensions) ou 3D(carte
multidimentionnelle)
IV. 7- Limites des cartes de KOHONEN :
Comme toute tâche d‟apprentissage non supervisé, le clustering topographique ou les
cartes de KOHONEN, pose le problème de l‟évaluation des résultats, en fait, l‟interprétation
des groupes constitués par les cartes de KOHONEN se révèle complexe si ces groupes
appartiennent à une base de données gigantesques, si c‟est le cas le temps de réponse sera un
autre problème principalement connu dans
améliorable soit si l'on
parvient
le clustering topographique, ce point est
à réaliser l'implantation efficace de cartes auto
organisatrices sur des processeurs à architecture parallèles, cette implantation nécessite un
travail préliminaire de préparation des données,notamment, choix des variables pertinentes,
normalisation, élimination de données aberrantes, ce qui rend la tâche plus complexe , soit en
adoptant une réduction de l‟espace de représentation ; la majorité des méthodes de réduction
présentent l‟inconvénient de perte d‟information. L‟information perdue quoique dérisoire
pourrait être utile pour la prise de décision. Les cartes de KOHONEN souffrent d‟un autre
problème : l’initialisation aléatoire des neurones qui implique évidemment la non unicité de la
représentation des données sur la carte.[36]
67
CHAPITRE 4 : Classification avec MLP et SOM
V. Conclusion :
Les perceptrons multi couches et cartes topologiques auto-organisatrices de KOHONEN
font partie des réseaux neuronaux. Comme tout
algorithme de classification, ces deux
approches permettent de déterminer des sous-groupes pertinents dans l‟ensemble des données.
Les réseaux de neurones, permettent d'approximer des fonctions non-linéaires complexes, à
partir d'exemples via des algorithmes d'apprentissage, généralement des algorithmes de
descente du gradient, comme l'algorithme bien connu de la rétro-propagation du gradient.
Dans le domaine de l'analyse d'images et de la vision par ordinateur, les réseaux de neurones
sont généralement utilisés pour classer des signatures extraites par un algorithme d'extraction
de caractéristiques, souvent choisi de manière empirique. Dans ce chapitre, nous avons
présenté deux types de réseaux de neurones à savoir le réseau MLP qui fait partie des
algorithmes d‟apprentissage supervisé, et les cartes auto organisatrices de KOHONEN où
l‟apprentissage est non supervisé.
68
CHAPITRE 5 : Implémentation
I.
Introduction……………………………………………………………………………………………………………. ................. 70
II.
Matériel et données utilisés………………………………………………………………….……………….. ................. 70
II. 1- Environnement et Matériel………………………………………………………………..…………….. ............ 70
II. 2- Données utilisées………………………………………………………………………………..…………….. ............ 70
II. 2-1- La base de données Face94…………………………………………………………..………………............ 71
II. 2-2- La base de données ORL Database………………………………………..………………………............ 72
III.
Plan du travail………………………………………………………….……………………………………………... ............... 74
III. 1- Définition du problème et identification des buts………………………………………………........... 74
III. 2- Préparation des données……………………………………………………………………..…………... ........... 74
III. 3- Prétraitement des données……………………………………………………………….……………… ........... 74
III. 4- Extraction des caractéristiques……………………………………………..…………………………. ............ 75
III. 5- Réduction de la dimension………………………………….……………………………………………….......... 77
III. 6- Classification………………………………………………………………………………………………………. ......... 77
IV.
Application du MLP………………………………………………………………………………………………….............. 78
V.
Application des cartes auto organisatrices de KOHONEN………………………..…….………. .................. 80
VI.
Résultats expérimentaux…………………………………………………………………………………..…… .............. 82
VI.
1- Résultats MLP………………………………………………………………………………………….………… .............. 83
VI.
2- Résultats SOM…………………………………………………………………………………………………… .............. 84
VII.
Présentation du logiciel…………………………………………………………………………………………… ............ 86
VIII.
Conclusion et discussion……………………………………………………………………………………….. ............... 89
CHAPITRE 5 : Implémentation
I. Introduction :
Les images faciales sont probablement la caractéristique biométrique la plus communément
employée par l‟homme pour effectuer une identification personnelle. La reconnaissance faciale est
une modalité qui peut être implémentée de manière indépendante des autres modalités biométriques
mais aussi dans un système biométrique multimodal, elle est souvent utilisée dans des applications de
surveillance. La reconnaissance faciale offre plusieurs avantages : le système de capture (les
caméras) est facile à installer, il est accepté dans les lieux publics ce qui permet d‟avoir des bases de
données de plus en plus grandes et ainsi d‟améliorer les performances de la reconnaissance.
Dans ce chapitre, nous allons montrer les différentes étapes du travail ainsi que les résultats
expérimentaux du système de reconnaissance que nous avons élaboré.
II. Matériel et données utilisés
II. 1- Environnement et matériel :
L‟implémentation d‟une application consiste à gérer des informations de telle façon à réaliser
une tâche ou atteindre un but précis, elle consiste aussi à sauvegarder ces informations et les traiter
de diverses façons.
Lorsqu‟un problème quelconque se présente, il est indispensable de bien l‟analyser avec les moindres
détails. Cette analyse nous permet de formuler le problème de telle manière que nous pouvons
implémenter la solution au moyen d‟un langage choisi.
Notre système de reconnaissance faciale est implémenté sous l‟environnement de programmation
Matlab version 7.10.0 (R2010a).
Nous avant choisi cet environnement car il est performent et inclut la quasi-totalité des
fonctionnalités de développement liées à aux différentes applications de calcul, classification et
identification.
Nous avant utilisé ce langage sous le système d‟exploitation windows7, sur un PC HP 630 muni d‟un
processeur I3 de vitesse 2.40 GHz, 2Go de RAM et 320 Go de disque dur.
II. 2- Données utilisées
Les données utilisées dans notre application sont issues des bases de données face94 database [43] et
ORL (Olivetti Research Laboratory)database [44], il s‟agit de deux ensembles différents de photos de
personnes, dont les paramètres sont les suivants :
70
CHAPITRE 5 : Implémentation
II. 2-1- La base de données face94 DATABASE :
Les données sont organisées en quatre répertoires (faces94, faces95, faces96, grimace), par ordre
croissant de variations. Faces96 et grimace sont les plus variées (variation du fond, variation extrême
des expressions).
Les sujets sont assis à une distance fixe de l'appareil et sont invités à prendre la parole, une séquence
d'images est prise. Le discours est utilisé pour obtenir un visage avec différentes expressions.
II. 2-1-1- Paramètres de la base face94 :
Nombre de personnes: 153 (20 images par personnes).
Résolution d'image: 180˟200 pixels (format portrait).
Répertoires: féminin (20), masculin (113), malestaff (images avec changements d‟émotions) (20).
Fond: Le fond est vert clair.
Tour de la tête et inclinaison: variation très faible.
Position de visage dans l'image: des changements mineurs.
Variations d’éclairage: aucune.
Variations des expressions faciales: des changements d'expressions considérables.
Remarque complémentaire: il n'ya pas de variations de changements de coupes, car les images ont été
prises en une seule séance.
71
CHAPITRE 5 : Implémentation
II. 2-1-2- Exemples de la base de données face94 :
Figure.5.1 : Exemple d‟images de la base de données face94.
II. 2-2- La base de données ORL DATABASE :
La base de données de visages ORL (Olivetti Research Laboratory), contient un ensemble d'images
de visage prises entre Avril 1992 et Avril 1994 aux laboratoires AT&T de Cambridge. La base de
données a été utilisée dans le cadre d'un projet de reconnaissance de visage réalisée en collaboration
avec le groupe « Speech, Vision and Robotics » du Département d‟Engineering de l'Université de
Cambridge.
72
CHAPITRE 5 : Implémentation
II. 2-2-1- Paramètres de la base ORL :
Il ya dix images différentes de chacun des 40 sujets distincts. Pour certains sujets, les images ont été
prises à des moments différents, variant l'éclairage, les expressions du visage (yeux ouverts / fermés,
souriant / pas souriant) et les détails du visage (lunettes / pas de lunettes). Toutes les images ont été
prises sur un fond sombre homogène où les sujets sont dans une position frontale droite (avec une
tolérance pour le mouvement).
Les fichiers sont au format PGM, la taille de chaque image est 92x112 pixels, avec 256 niveaux de
gris par pixel. Les images sont organisées dans 40 répertoires (un pour chaque sujet), qui ont des
noms de la forme SX, où X indique le numéro de l'objet (entre 1 et 40). Dans chacun de ces
répertoires, il ya dix images différentes de ce sujet, qui ont des noms de la forme Y.pgm, où Y est le
nombre d'image pour ce sujet (entre 1 et 10). Elle est disponible gratuitement sur le web.
II. 2-2-2- Exemples de la base de données face94 :
Figure.5.2 : Exemple d‟images de la base de données ORL.
73
CHAPITRE 5 : Implémentation
III. Plan du travail
Notre travail est divisé en deux parties, en premier lieu nous avons appliqué dans le module
d‟extraction les filtres de Gabor et l‟ACP, et pour la classification un réseau de neurones MLP est
appliqué. Ensuite, dans la deuxième partie de notre travail, nous avons utilisé les cartes autoorganisatrices de Kohonen, et enfin nous avons comparé les résultats des deux approches proposées.
Pour effectuer notre travail et mettre en œuvre notre système de reconnaissance nous avons suivi les étapes
suivantes :
III. 1- Définition du problème et identification des buts :
Il s‟agit de résoudre un problème de reconnaissance faciale, en élaborant un système capable de
reconnaitre une image d‟un individu présent dans la base de données, en effet le système doit afficher
l‟image originale, présente dans la base de données, de l‟individu en question. Dans le cas contraire,
c'est-à-dire, où l‟individu est un imposteur le système doit rejeter la demande d‟accès en affichant un
message indiquant que la personne n‟existe pas dans la base de données. Une multitude
d‟algorithmes est utilisée pour élaborer un système multimodal afin d‟augmenter le taux de
reconnaissance.
III. 2- Préparation des données :
Comme tout problème de reconnaissance de formes, un système de reconnaissance faciale
nécessite une étape préliminaire de préparation des données; Dans notre cas, comme cité ci-dessus,
les données sont issues du web, il s‟agit de deux bases de données différentes (face94 et ORL), elles
sont gratuitement téléchargeables.
III. 3- Prétraitement des données :
Les images présentes dans les deux bases doivent être décrites sous une autre forme, pour qu‟un
algorithme de classification puisse les gérer, c‟est ce qu‟on appelle le prétraitement des données, le
prétraitement atténue les effets d‟une différence des conditions lors des prises de vues. C‟est une
phase importante dans un système d‟identification dans la mesure où elle augmente les performances
du système. Dans notre cas cette phase se fait grâce aux centres des yeux et de la bouche, une
normalisation géométrique appliquée à la zone du visage de l‟image globale permet de fournir une
image réduite (128x128 pixels) du visage dans laquelle la position des yeux ((34,45) et (98,47)) et de
la bouche (67,106) est prédéfinie. Ensuite, pour convertir l‟image réduite en niveau de gris, nous
74
CHAPITRE 5 : Implémentation
utilisons la base RGB. La fenêtre ci-dessous montre la conversion d‟une image à la base RGB
(Figure.5.3).
Le prétraitement est, donc, une étape qui consiste à une première réduction des données avant
d‟utiliser une deuxième étape de réduction qui est l‟analyse en composantes principales « ACP ».
Figure.5.3 : Conversion d‟une image vers la base RGB
III. 4- Extraction des caractéristiques :
Dans cette étape nous avons appliqué, d‟abord, le filtre de Gabor connu par sa puissance d‟extraction
des caractéristiques dans le domaine de la reconnaissance faciale. En fait, pour extraire des
caractéristiques dans une image de visage, les filtres de Gabor sont appliqués sur l'image après la
normalisation. Un filtre Gabor est un filtre linéaire dont la réponse est une fonction sinusoïde
modulée par une fonction gaussienne (également appelée ondelette de Gabor) :
Où :
75
CHAPITRE 5 : Implémentation
Le filtre est appliqué sur chaque image de la base de données avec 5 orientations et 3 fréquences. En
fait, on accorde le filtre avec une bande spécifique de la fréquence spatiale et l'orientation en
choisissant de manière appropriée les paramètres du filtre; la propagation du Filtre est désignée par :
σx, σy, la fréquence radiale par f, et l'orientation du filtrage par θn. La question importante dans la
conception de filtres de Gabor pour reconnaissance faciale est le choix des paramètres du filtre. On
π
utilise ici 15 filtres de Gabor constitués de cinq paramètres d'orientation θϵ {0, 5,
2𝜋 3𝜋 4𝜋
5
,
5
,
5
} et trois
des fréquences fϵ{0.06,1.0,1.4}. La représentation de Gabor d'une image de visage est calculée par
convolution l'image du visage avec les filtres de Gabor. Cette convolution avec un filtre de Gabor
ѱf,θ (x,y), est défini comme suit:
Un exemple d‟une image en appliquant le filtre de Gabor est représenté ci-dessous :
OK
Choisir un fichier
Figure.5.4 : Les filtres de Gabor appliqués sur une image du visage.
76
CHAPITRE 5 : Implémentation
III. 5- Réduction de la dimension :
Cette étape consiste à l‟application de l'analyse en composante principale (ACP)
sur
les sous-images pour obtenir un ensemble de vecteurs propres qui correspondent aux plus grandes
valeurs propres. Finalement, les vecteurs de caractéristiques des images obtenus dans les étapes
précédentes sont utilisés pour l‟apprentissage du réseau de neurones. Nous avons utilisé l‟ACP pour
la réduction de l‟espace de données, c'est une technique couramment utilisée pour représenter un
signal dans un espace de dimensions réduites tout en conservant le maximum de variations possibles.
L‟algorithme utilisé pour calculer l‟ACP comprend les étapes suivantes :
-
créer la matrice des données X
-
calculer la matrice de covariance 𝑋 𝑋T
-
calculer les valeurs et vecteurs propres de la matrice de covariance
-
ordonner les vecteurs propres par ordre de valeur propre décroissante.
III. 6- Classification :
L‟ensemble de l‟approche proposée fonctionne selon le schéma suivant :
Image
Prétraitement
Extraction de
caractéristique
s
SOM
MLP
Résultats SOM
Résultats MLP
Figure.5.5 : Les étapes de l‟approche proposée
77
CHAPITRE 5 : Implémentation
IV. Application du MLP :
Les données sont maintenant sous une forme mathématique et sont prêtes pour l‟application
d‟un modèle de classification, dans cette étape l‟algorithme MLP est utilisé pour la décision, les
vecteurs de caractéristiques des images obtenus dans les étapes précédentes sont utilisés pour
l‟apprentissage du réseau de neurones, pour cela on doit passer par certaines phases :
Le filtre de Gabor
ACP
réseau de neurones
F(x,y)
Image
| gf,ɸ (x,y)|
Figure.5.6 : Combinaison du filtre de Gabor, ACP et réseaux de neurones
Nous avons utilisé la boite à outils de Matlab pour l‟apprentissage de notre réseau MLP, voici un
exemple de la phase d‟apprentissage :
Figure.5.7 : Exemple de la phase d‟apprentissage du réseau de neurones MLP sous Matlab
78
CHAPITRE 5 : Implémentation
Dans l‟exemple ci-dessus, nous avons suivi les étapes suivantes :
1- La phase d’initialisation :
Durant laquelle un certain nombre de paramètres doit être fixé au préalable, à savoir :
-
Le nombre de couches : une couche d‟entrées et une couche de sorties sont utilisées, alors
que pour les couches cachées nous avons essayé plusieurs possibilités, en fait nous avons
utilisé de 2 à 5 couches cachées.
-
Le nombre de neurones cachés : nous avons testé notre réseau MLP avec 50, 100, 150 et
200 neurones cachés.
-
Les poids : ce nombre est choisi aléatoirement par le réseau, il varie entre]-0.5, 0.5 [.
-
Le nombre d’itérations : nous avons choisi : 600, 400 et 1000 itérations.
2- La phase d’apprentissage :
L'apprentissage consiste à adapter les valeurs des poids afin d'obtenir le comportement désiré du
MLP. Pour cela, on se crée une base d'exemples où chaque exemple est constitué d'un vecteur
d'entrée et d'un vecteur de sortie approprié. Un algorithme d'apprentissage connu sous le nom
d'algorithme de rétropropagation du gradient a été mis en place en 1985 par Rumelhart et Al. [6].
Dans ce que suit, wnm représente les poids reliant la couche d'entrée avec la couche cachée ; u mj
représente les poids reliant la couche cachée avec celle de la sortie.
Les composants du vecteur d'entrée X du MLP seront pondérés par les poids wnm et ensuite transmis
à la couche cachée selon les équations suivantes :
Les sorties de la couche cachée seront aussi pondérés par les poids umj et transmis ensuite à la couche
de sortie selon les équations suivantes :
f et g représentent respectivement les fonctions d'activations des neurones de la couche cachée et
celle de la de sortie, dans notre travail, nous avons utilisé des sigmoïdes :
La fonction sigmoïde est :
Sa dérivée est :
79
CHAPITRE 5 : Implémentation
L'adaptation des poids umj qui relient la couche cachée à celle de la sortie est comme suite :
3- La mise à jour des poids :
La mise à jour des poids wnm reliant la couche d'entrée à celle cachée est comme suite :
η1 et η2 sont les pas d'apprentissage.
V. Application des cartes auto-organisatrices de KOHONEN :
Dans cette étape nous utilisons les cartes auto-organisatrices de KOHONEN, le but est
d‟exploiter la puissance de classification de cet algorithme et puis comparer les résultats avec ceux
obtenus avec MLP. nous allons appliquer l‟algorithme de KOHONEN pour classifier l‟ensemble des images
qui sont sous une forme mathématique et sont prêtes pour l‟application d‟un modèle de classification,. Pour
cela on doit passer par certaines phases :
V. 1- Phase d’initialisation
Cette phase consiste à choisir les paramètres du réseau de KOHONEN tels que : la forme et
la taille de la carte, les poids, le nombre d‟itération et l‟ordre de voisinage.
-
Choix de la forme et de la taille de la carte :
Nous allons utiliser dans notre application une carte auto organisatrice rectangulaire (à deux
dimensions), la taille de la carte est (7*7) (figure).
Figure.5.8 : exemple de la carte rectangulaire (7*7)
80
CHAPITRE 5 : Implémentation
-
Initialisation des poids
Les poids sont générés aléatoirement, ils sont compris entre [0,1].
-
Choix du nombre d’itérations
Nous allons utiliser ce nombre comme critère d‟arrêt, pour cela nous allons proposer 3 valeurs
{400, 600, 1000}.
-
Choix de l’ordre de voisinage
Nous avons utilisé le voisinage d‟ordre 2, comme le montre la figure 5.4, le neurone en
rouge est le gagnant, ceux qui sont en jaune ce sont ses voisins d‟ordre 1, et ceux qui sont en bleu se
sont ses voisins d‟ordre 2.
Figure.5.9 : Voisinage d‟ordre 2 pour une carte rectangulaire.
V. 2- Phase d’apprentissage
L‟apprentissage consiste à présenter sur la couche d‟entrée du réseau, les vecteurs des images que
l‟on souhaite classifier. Cette phase contient plusieurs étapes :
1.
Donner le nombre d‟itérations tmax ;
2.
While t< t max do
3.
Calculer la réponse de chaque neurone ;
4.
Le neurone avec la valeur minimale est le gagnant ;
5.
Mettre à jour le poids du neurone gagnant ainsi celui de ses voisins (selon l‟ordre du
voisinage choisi auparavant) ;
6. Si t<t max aller à (3)
Sinon fin.
7. Afficher les résultats de l‟apprentissage.
81
CHAPITRE 5 : Implémentation
-
La réponse du neurone
La réponse du neurone est calculée en fonction de distance entre l‟entrée et le neurone, pour
ce fait nous allons utiliser deux types de distance : la distance cosinus et la distance euclidienne.
Le calcul des distances s‟effectue comme suit :
Xi est le vecteur d‟entrée
wij est le vecteur du poids
Distance cosinus : (xi- wij)+(xi-wij)
Distance euclidienne :
 xi  wij ² .
i
-
Le neurone gagnant
Le neurone gagnant est celui qui a la valeur de distance minimale.
-
Mise à jour du poids
Les poids du neurone gagnant ainsi ceux de ces voisins sont mis à jour selon la formule suivante :
wij (t+1)= wij + n (t)*(xi-wij)
n (t) : coefficient d‟apprentissage compris dans [0,1].
-
Affichage des résultats
Les résultats de l‟apprentissage sont représentés sur la carte de KOHONEN (la carte de
sortie).
VI. Résultats expérimentaux :
Dans cette partie, nous allons présenter quelques résultats obtenus en appliquant dans un
premier temps l‟algorithme MLP, ensuite les cartes auto- organisatrices de KOHONEN, et on
82
CHAPITRE 5 : Implémentation
discute l‟influence de quelques paramètres des deux modèles sur les résultats de la classification
(la distance, le nombre d‟itérations…).
VI. 1- Résultats MLP :
Nombre
Temps d‟apprentissage
d‟itérations
(sec)
400
Temps de test (sec)
Classification (%)
64
13
85.5
600
88
19
86.75
1000
122
27
96
Tableau.5.1 : Résultats de la reconnaissance avec (ACP, FG et MLP) de la base de données ORL
Nombre
Temps d‟apprentissage
d‟itérations
(sec)
400
Temps de test (sec)
Classification (%)
193
17
87
600
219
24
90
1000
284
33
98
Tableau.5.2: Résultats de la reconnaissance avec (ACP, FG, MLP et AG) de la base de données
BASE94.
Erreurs
1.8
1.6
1.4
1.2
1
0.8
0.6
0.4
0.2
0
0
100
200
300
400
500
600
700
800
Figure.5.10 : l‟erreur par rapport au nombre d‟itérations.
83
900
Itération
CHAPITRE 5 : Implémentation
On remarque que le graphe converge vers 0 vers l‟itération 809, l‟erreur donc serait nulle vers cette
itération
Nbr de couches cachées
Taux de reconnaissance(%)
Temps (sec)
2
89.60
13
3
92
18
4
95.82
21.48
5
98.67
25
Tableau.5.3: Résultats de la reconnaissance en variant le nombre de couches cachées pour la base
ORL
Nbr de couches cachées
Taux de reconnaissance(%)
Temps (sec)
2
88.43
16
3
91.12
19.36
4
97.05
24
5
98.90
28
Tableau.5.4: Résultats de la reconnaissance en variant le nombre de couches cachées pour la base
BASE94.
VI. 2- Résultat SOM :
Nombre
Temps d‟apprentissage
d‟itérations
(sec)
400
Temps de test (sec)
Classification (%)
42.01
5.78
73.56
600
48
9.23
93.06
1000
70.98
12.36
99.44
Tableau.5.5: Résultats de la reconnaissance avec les cartes SOM de la base de données ORL
Nombre
Temps d‟apprentissage
d‟itérations
(sec)
400
Temps de test (sec)
Classification (%)
53.29
1.98
70.31
600
59.76
3.87
79.16
1000
77.03
8
99.28
Tableau.5.6: Résultats de la reconnaissance avec les cartes SOM de la base de données BASE94.
84
CHAPITRE 5 : Implémentation
temps d'execution
en fonction
de nombres
des neronnes
Temps d’exécution
en fonction
du nombre
des neurones
250
temps d'execution (s)
200
150
100
50
0
0
20
40
60
80
100
120
nombres
des neronnes
Nombre
des neurones
Cosinus
Ecludienne
Ecludienne caré
Manhattan
Figure.5.11 : Temps d‟exécution en fonction du nombre de neurones avec différentes distances pour
la base ORL
Temps
d’exécution
fonction
du nombre
neurones
temps
d'execution
en en
fonction
de nombres
desdes
neronnes
250
temps d'execution (s)
200
150
100
50
0
0
20
40
60
80
100
120
nombres
des des
neronnes
Nombre
neurones
Cosinus
Ecludienne
Ecludienne caré
Manhattan
Figure.5.12: Temps d‟exécution en fonction du nombre de neurones avec différentes distances pour
la base BASE94
85
CHAPITRE 5 : Implémentation
VII. Présentation du logiciel :
Dans cette partie, nous allons présenter quelques fenêtres de notre application de reconnaissance
de visage :
Université des Sciences et de la Technologie d’Oran (MB)
Reconnaissance des individus
par les techniques multimodales
Présenté par :
Image de test
Image équivalente
Encadré par :
Pr. BENYETTOU
Soumeya DIB
Mohamed
Figure.5.13 : Fenêtre principale de l‟application
86
CHAPITRE 5 : Implémentation
Figure 5.14: La phase d‟apprentissage.
Figure.5.15 : La phase de reconnaissance, exemple de la base ORL
87
CHAPITRE 5 : Implémentation
Figure.5.16 : Phase de reconnaissance, exemple de BASE 94.
88
CHAPITRE 5 : Implémentation
VIII. Discussion et conclusion :
Les résultats obtenus montrent la capacité des algorithmes utilisés dans la phase d‟extraction et
dans celle de décision. En effet, les filtres de Gabor sont des fonctions connues dans plusieurs
domaines, notamment dans les mathématiques et la reconnaissance de formes. Dans notre travail, la
complexité des filtres de Gabor était rencontrée lors du choix de paramètres, en particulier θ et f, il
était donc nécessaire d‟essayer plusieurs valeurs afin d‟obtenir un résultat, plus ou moins,
satisfaisant. D‟un autre côté, le choix de l‟ACP comme méthode de réduction de dimensionnalité
vient après plusieurs recherches sur les méthodes de réduction, en fait il existe une multitude de
méthode, néanmoins l‟ACP reste l‟algorithme jugé performant, fiable et facile à mettre en œuvre.
Dans la phase de décision, nous avons utilisé, également, deux algorithmes : MLP et SOM et
cela pour réaliser un système multimodal basé sur la multiplication des algorithmes, mais aussi pour
exploiter la capacité des réseaux neuronaux dans la tâche de reconnaissance faciale. Le choix de ces
deux algorithmes n‟était pas sans but, en effet nous avons choisi le réseau MLP où l‟apprentissage est
supervisé, d‟un autre côté nous avons utilisé les SOM comme algorithme d‟apprentissage non
supervisé, cela nous mène à tirer quelques différences entre les deux modes d‟apprentissage et qui
sont détaillées sur les tableaux ci-dessus.
Notre système de reconnaissance est capable de reconnaitre une personne à partir d‟une base de
données de visages, il existe des cas où l‟image de la personne identifiée ne serait pas celle qu‟on
cherche, cela est peut être du au choix des paramètres, en effet, nous comptons ajouter certains
paramètres, diversifier davantage les méthodes et ajouter quelques modules à notre système dans des
travaux ultérieurs.
89
IX.
Conclusion et perspectives :
Après avoir introduit les concepts généraux de la biométrie, nous avons présenté la
biométrie multimodale, ses architectures et son principe de fonctionnement, La multimodalité
est l'utilisation de plusieurs systèmes biométriques. La combinaison de plusieurs systèmes a
pour objectif de diminuer les limitations des systèmes monomodaux. En effet, cette
combinaison de systèmes a pour but premier d'améliorer les performances de
reconnaissance : En augmentant la quantité d'informations discriminante de chaque
personne, on souhaite augmenter le pouvoir de reconnaissance du système. De plus, le
fait
d'utiliser
plusieurs
modalités
biométriques
réduit
le
risque
d'impossibilité
d'enregistrement et assure une robustesse aux fraudes.
Ensuite, une représentation de la reconnaissance faciale est jugée nécessaire, puisque nous
avons utilisé le visage comme modalité biométrique. La reconnaissance faciale est une
modalité qui peut être implémentée de manière indépendante des autres modalités
biométriques, elle est souvent utilisée dans des applications de surveillance. La
reconnaissance faciale a plusieurs avantages : le système de capture (les caméras) est facile à
installer, il est accepté dans les lieux publics ce qui permet d‟avoir des bases de données de
plus en plus grandes et ainsi d‟améliorer les performances de la reconnaissance. La difficulté
majeure de la reconnaissance faciale réside
dans l‟extraction de visage et de ses
caractéristiques qui est due principalement aux variations des conditions d‟éclairage et de
pose. L‟efficacité des systèmes biométriques basés sur l‟authentification de visage dépend,
donc, essentiellement de la méthode utilisée pour localiser le visage dans l‟image. Dans la
littérature scientifique, le problème de localisation de visages est aussi désigné par la
terminologie "détection de visages". Plusieurs travaux de recherches ont été effectués dans ce
domaine. Ils ont donné lieu au développement d‟une multitude de techniques allant de la
simple détection du visage, à la localisation précise des régions caractéristiques du visage,
tels que les yeux, le nez, les narines, les sourcils, la bouche, les lèvres, les oreilles, etc.
Nous avons donc proposé une approche d‟extraction qui s‟adapte aux changements de
l‟illumination et de pose. C‟est pour cette raison que nous avons utilisé deux algorithmes
dans la phase d‟extraction, à savoir les filtres de Gabor et l‟ACP, le premier vise à extraire les
caractéristiques du visage, alors que le deuxième consiste à une méthode de réduction de
dimension des données.
90
Le module de reconnaissance exploite les caractéristiques du visage ainsi extraites pour créer
une signature numérique qu‟il stocke dans une base de données. Ainsi, à chaque visage de la
base est associée une signature unique qui caractérise la personne correspondante. La
reconnaissance d‟un visage est obtenue par l‟extraction de la face correspondante et sa mise
en correspondance avec la face la plus proche dans la base de données.
Nous avons utilisé dans le module de reconnaissance deux types de réseaux de neurones : le
MLP et les SOM, ces deux algorithmes sont connus par leurs performances et leurs capacités
de classification. Les réseaux de neurones de type MLP (Multi Layer Perceptron) sont
largement utilisés pour la décision dans le domaine de reconnaissance faciale. Ce sont des
réseaux orientés de neurones artificiels organisé en couches où l‟information se déplace dans
un seul sens, de la couche d‟entrée vers la couche de sortie. D‟une autre part, les cartes de
Kohonen sont des réseaux de neurones d‟apprentissage non supervisé, qui sont aussi très
utilisés dans le domaine de la reconnaissance de formes, le modèle SOM est utilisé pour
étudier la répartition de données dans un espace de grande dimension, basé sur des neurones
artificiels, c‟est d‟un processus de classification topographique.
Cette démarche est appliquée sur deux bases de données différentes : la base ORL et la base
Face94, l‟utilisation de deux bases dans un système biométrique offre plus de possibilités
pour tester la validité des méthodes, aussi elle lui offre son caractère multimodal.
Comme perspectives, et dans le but d‟améliorer le système de reconnaissance nous
proposerons dans des travaux ultérieurs d‟étudier les points suivants :
-
Combiner une ou plusieurs modalités avec le visage, par exemple l‟iris ou la rétine,
cela augmente la quantité des informations discriminante ce qui améliore le système
en terme d‟exactitude ;
-
Utiliser des bases de données avec des variations de visage plus importantes, ce qui
permet de tester et améliorer la fiabilité du système ;
-
Ajouter un module de détection au système où on présente une vidéo d‟une personne,
et le système doit détecter le visage de celle-ci, et ensuite appliquer un ou plusieurs
algorithmes de reconnaissance ;
-
Varier les algorithmes dans le module d‟extraction et le module de reconnaissance,
par exemple l‟utilisation des algorithmes génétiques en plus des réseaux de neurones ;
-
Utiliser des bases de données 3D qui est une tendance actuelle très prometteuse.
91
X.
Références bibliographiques:
[1] A. Lanitis. «Automatic face identification system using flexible appearance models».
Image and Vision Computing, 13(5) :393_401, 1995.
[2] A. M. Martinez and A. C. Kak. «Pca versus lda». IEEE Trans. PAMI, 23(2) :228_233,
2001.
[3] Anil. k.jain, P. Flynn, A.Ross, « Handbook of biometrics »,Springer, 2007.
[4] Anil. K.Jain, R. Bolle, And S. Pankanti, «biometrics: Personal Identification In
Networked Society», Kluwer Academic Publishers, 1999.
[5] Anil. k.jain, Stan Z. Li, « Encyclopedia of Biometrics », Springer, 2009.
[6] B. Ly Van, S. Garcia-Salicetti, and B. Dorizzi, «Using the Viterbi path along with HMM
likelihood information foron-line signature verification» IEEE Trans. on Systems, Man and
Cybernetics, part B, vol. 37, no. 5, October 2007.
[7] B. Moghaddam and A. Pentland. «Probabilistic visual learning for object representation».
IEEE Trans. PAMI, 19(7):696_710, 1997.
[8] B. S. Manjunath, R. Chellappa, and C. von der Malsburg. «A feature based approach to
face recognition». In CVPR, 1992.
[9] BETAOUAF Talib Hicham, « Caractérisation de la rétine pour la reconnaissance
biométrique des personnes », thèse de magistère, université de Tlemcen, 2011.
[10] D. Blackburn, M. Bone, P. J Phillips. «Face recognition vendor test 2000». Tech. rep.
http://www.frvt.org, 2001.
[11] D. H. HUBEL and T. N. WIESEL, « Functional architecture of macaque monkey visual
cortex», Proc. Royal Soc. B (London), vol. 198, pp.1-59, (1978).
[12] D.G. Lowe. «Distinctive image features from scale-invariant keypoints». International
Journal of Computer Vision, 60(2) :91_110, 2004.
[13] H. A. Rowley, S. Baluja, and T. Kanade. «Neural network-based face detection». IEEE
Trans. PAMI, 20(1) :23_38, 1998.
[14] J. G. Daugman. «High confidence visual recognition of persons by a test of statistical
independence». IEEE Trans. PAMI, 15(11) :1148_1161, Nov 1993.
[15] J. Yang, D. Zhang, A.F. Frangi, and J.Y. Yang. «Two-dimensional pca : A new
approach to appearance-based face representation and recognition». IEEE Trans. PAMI,
26(1):131_137, 2004.
92
[16] J.P. Phillips. «Support vector machines applied to face recognition». In NIPS, volume
11, pages 803_809, 1999.
[17] Julian ASHBOURN, « Guide to biometrics for Large-Scale systems», Springer, 2011.
[18] K. Messer, J. Matas, J. Kittler, J.Luettin, and G. Maitre. «XM2VTSDB: The Extended
M2VTS Database». In Proceedings, International Conference on Audio- and Video-Based
Person Authentication,1999.
[19] L. Wiskott, J. M. Fellous, N. Kuiger, and C. von der Malsburg. «Face recognition by
elastic bunch graph matching». IEEE Trans. PAMI, 19(7) :775_779, July 1997.
[20] Lorène Allano, « La biométrie multimodale : stratégies de fusion de scores et mesures de
dépendance appliquées aux bases de personnes virtuelles », thèse de doctorat, Institut
national des Télécommunications, Université d‟Evry Val d‟Essonne, 2009.
[21] M. Lades, J. C. Vorbruggen, J. Buhmann, J. Lange, C. von der Malsburg, R. P. Wurtz,
and W. Konen. «Distortion invariant object recognition in the dynamic link architecture».
IEEE Trans. on Computers, 42(3) :300_311, 1993.
[22] M. REBBAH, S. BENDIDA, S. CHENAFI, « Application des cartes auto organisatrices
de Kohonen pour le Datamining ». Proceedings CIIA‟06, Saida, 2006.
[23] M. Turk and A. Pentland. «Eigenfaces for recognition». J. Cognitive Neuroscience 3,
1991.
[24] Marie COTTRELL, SmaïI IBBOU, Patrick LETREMY, Patrick ROUSSET, « Cartes
auto organisées pour l‟analyse exploratoire de données et la visualisation ». Projet : SAMOSMATISSE (UMR 8595), Université Paris 1, 2002.
[25] Marie-Jeanne Lesot, Florence d‟Alché-Buc, Georges Siolas : « Evaluation des cartes
auto-organisatrices et de leur variante à noyaux ». Université Pierre et Marie Curie
Proceedings ICML‟99.Paris, 1999.
[26] Masoud MAZLOOM Shohreh KASAEI, « Face Recognition using Wavelet, PCA, and
Neural Networks», Proceeding of the First International Conference on Modeling, Simulation
and Applied Optimization, Sharjah, U.A.E. February 1-3, 2005.
[27] Max Chassé, Analyste en Informatique de la comission d‟accès à l‟information, « La
Biométrie Au Québec : Les Enjeux ». P4-19, Québec, 2002.
93
[28] Ngoc Son VU, « Contributions à la reconnaissance de visages à partir d'une seule image
et dans un contexte non-contrôlé », Thèse de doctorat, Institut Polytechnique De Grenoble,
Universite De Grenoble, 2010.
[29] Nicolas MORIZET, « Reconnaissance Biométrique par Fusion Multimodale du Visage
et de l‟Iris », Thèse de doctorat, l‟Ecole Nationale Supérieure des Télécommunications
(Paris), 2009.
[30] NIST. «Summary of NIST standards for biometric accuracy, tamper resistance, and
interoperability», 2002.
[31] P. J. Phillips, P. J.Grother, R. J.Micheals, D. M. Blackbrun, E. Tabassi, and J. M. Bone.
«Face recognition vendor test 2002: Evaluation report. NISTIR6965», 2003.
[32] P. Viola and M.J. Jones. «Robust real-time face detection. Int Journal of Computer
Vision», 57 :137_154, 2004.
[33] Peter Gregory and Michael A. Simon, «Biometrics for Dummies», Cisa, Cissp, 2008.
[34] Pierre ROYER, «Identification
d‟architecture, ARS 2003, 2004.
et
authentification
Bionumériques»,
Dossier
[35] R. Hietmeyer. «Biometric identification promises fast and secure processing of airline
passengers». The International Civil Aviation Organization Journal, Vol. 17, No. 9, pp. 10–
11, 2000.
[36] S N SIVANANDAM, S SUMATHI, S N DEEPA, « Introduction to Neural Networks
using MATLAB 6.0 »,McGraw Hill Education, 2013.
[37] S. Prabhakar, J. Kittler, D. Maltoni, L. O‟Gorman, and T. Tan. «Introduction to the
Special Issue on Biometrics: Progress and Directions , IEEE Transactions on Pattern
Analysis and Machine Intelligence», vol. 29, no. 4, April 2007.
[38] Souhila GUERFI ABABSA, « Authentification d‟individus par reconnaissance de
caractéristiques biométriques liées aux visages 2D/3D », thèse de doctorat, Université Evry
Val d'Essonne, 2008.
[39] T. Ahonen, A. Hadid, and M. Pietikainen. «Face recognition with local binary patterns».
In ECCV, pages 469_481, 2004.
[40] Tsutomu Matsumoto, Hiroyuki Matsumoto, Koji Yamada, and Satoshi Hoshino.
«Impact of artificial "gummy" fingers on fingerprint systems». In SPIE, vol. 4677, Optical
Security and Counterfeit Deterrence Techniques IV, 2002.
[41] V. PERLIBAKAS. «Face recognition using Principal Component Analysis and LogGabor Filters». March 2005.
94
[42] X. He, S. Yan, Y. Hu, P. Niyogi, and H.J. Zhang. «Face recognition using
laplacianfaces». IEEE Trans. PAMI, 27(3) :328_340, 2005.
Sites Web:
[43] cswww.essex.ac.uk/mv/allfaces
[44] www.orl.org
[45] www. Mathworks.com
95
Téléchargement