
1 INTRODUCTION 5
Minsky et S. Papert publient une critique des propri´et´es du Perceptron. Cela va avoir une
grande incidence sur la recherche dans ce domaine. Elle va fortement diminuer jusqu’en
1972, o`u T. Kohonen pr´esente ses travaux sur les m´emoires associatives et propose des
applications `a la reconnaissance de formes.
Les premi`eres tentatives de “copies” des fonctions simples du cerveau apparaissent dans
les ann´ees 60. Elles aboutissent notamment `a l’´elaboration de m´ecanismes d’apprentissage
s’appliquant `a un neurone ou `a des petits r´eseaux de quelques neurones. Les recherches se
ralentissent ensuite `a cause de la difficult´e `a concevoir des outils permettant d’´etudier des
r´eseaux de neurones de plus grandes dimensions.
Un changement de perspective intervient dans les ann´ees 80, quand plusieurs physi-
ciens, et en particulier le professeur californien John Hopfield, sugg`erent d’´etudier le cerveau
comme un syst`eme complexe pouvant relever des m´ethodes de la physique statistique. Dans
le mˆeme temps, les chercheurs peuvent simuler le fonctionnement de mod`eles de r´eseaux `a
plusieurs centaines de neurones grˆace `a des calculateurs extrˆemement puissants.
En 1982 J. Hopfield montre qu’un r´eseau massif de neurones interconnect´e peut ˆetre
analyser en le consid´erant comme syst`eme dynamique poss´edant une ´energie. Le processus
de rappels associatifs, o`u le r´eseau d´emarre avec un ´etat al´eatoire pour terminer dans un
´etat final stable, est parall`ele au fait que le syst`eme tend vers un ´etat d’´energie minimal.
Cette nouvelle approche de traitement du r´eseau compl`etement reboucl´e(“recurrent nets”),
s’avers ˆetre tr`es productive (elle a ´egalement conduit `a une ´evolution en physique dans
le traitement de ph´enom`ene magn´etique). Dans le mˆeme courant l’algorithme d’apprentis-
sage par r´etro-propagation dans les r´eseaux non-recurrent (feedforward) fut propos´e pour
la premi`ere fois par Werbos, ensuite remanier un certains nombre de fois (Parker), il est
finalement popularis´e par RumelHart et al.
Ces travaux aboutissent `a des r´esultats encourageants, d´emontrant, sur le plan th´eorique,
que des r´eseaux de neurones artificiels seraient `a mˆeme de r´ealiser des tˆaches que des moyens
plus conventionnels n’effectueraient que difficilement.
Applications
En effet, les r´eseaux de neurones proposent une alternative aux limites des ordinateurs
existants ; Si ces derniers sont extrˆemement efficaces pour effectuer `a grande vitesse des
calculs et d’une mani`ere g´en´erale des tˆaches m´ecaniques, ils sont beaucoup moins adapt´es
que le cerveau pour r´esoudre certains types de probl`emes, comme par exemple : reconnaˆıtre
un visage sous diff´erents angles (mˆeme si une partie en est masqu´ee), suivre une conver-
sation dans une ambiance sonore, r´eduire un texte en le r´esumant ou autres probl`emes
NP-complets tel que celui du voyageurs de commerce par exemple.
Toutes ces tˆaches, apparemment si diff´erentes, ont en fait une caract´eristique commune,
il s’agit de trouver une “bonne” solution parmi un tr`es grand ensemble de solutions possibles.
Le mod`ele qu’on se propose de d´evelopper peut pr´esenter un grand nombre d’applica-
tions dans les domaines suivants :
– Intelligence Artificielle