Sommaire
Ces dernières années, en parallèle avec l’accroissement rapide de la puissance des ordinateurs, de
nombreuses techniques d’intelligence artificielle ont bourgeonné. Les méthodes statistiques et les réseaux
de neurones artificiels (et très souvent un mélange des deux) ont gagné l’intérêt des chercheurs pour une
seule et bonne raison: les réseaux de neurones, loin d’être une solution illusoire, ont démontré des
capacités inégalées dans certains domaines, comme en particulier la reconnaissance de caractères
manuscrits, de la voix, et des séries temporelles en général. Le seul problème des réseaux de neurones,
c’est qu’ils sont très voraces! Ils demandent beaucoup de puissance de calcul et les stations de travail
actuellement disponibles sont loin d’offrir des performances intéressantes pour des applications concrètes.
La nature essentiellement parallèle des réseaux de neurones peut faire paraître les ordinateurs massivement
parallèles comme étant une solution miracle.
Cependant, la plupart des gens ne disposent toujours que de machines séquentielles ou faiblement
parallèles comme outil de travail principal et les ordinateurs massivement parallèles demeurent encore hors
de portée. Que ce soit par leur prix, la difficulté de la programmation ou par leurs réseaux de
communication encore trop peu efficace par rapport à la puissance des processeurs, les ordinateurs
massivement parallèles ne sont pas aussi accessibles que les stations de travail (qu’il s’agisse de Sun, SGI
ou même de PC) qui forment l’habituel outil du chercheur en informatique. Il s’impose donc d’explorer
deux avenues qui ne sont pas obligatoirement disjointes. Premièrement, l’aspect logiciel des réseaux de
neurones. Il convient de se poser des questions fondamentales sur les propriétés de stabilité numérique, tels
que le nombre de bits nécessaire pour représenter un « poids » et une « activation », et comment on peut
iv