
Trois types d’architectures de réseau:
o « Le chapeau mexicain »
o Les cartes auto-organisatrices (« Self-Organizing Maps » ou SOM)
o La quantification vectorielle par apprentissage (« Learning Vector
Quantization » ou LVQ)
Le chapeau mexicain et le SOM utilisent un apprentissage non supervisé, le LVQ
un apprentissage supervisé.
Le LVQ est destiné à des applications de classification, alors que les deux premiers
servent aussi bien à des fins d’association que de classification. Ils sont
particulièrement adaptés aux applications ou les données montrent une cohésion
spatiale ou temporelle.
Apprentissage
La mise à jours des poids synaptiques se fait de manière à rapprocher le vecteur des
poids du prototype à apprendre, ou l’en éloigner dans LVQ.
La distance
entre un vecteur d’apprentissage
et un vecteur poids
décide des neurones à mettre à jour. À la fin de l’apprentissage cette distance est
idéalement réduite à zéro pour le ou les neurones qui reconnaissent le vecteur
.
On a la règle d’apprentissage suivante pour un neurones j, à une itération donnée :
.)(1
.)(.)(.)(
précwx
précwxprécwnouvw
j
jjj
Donc, l’écart entre
et
sert à l’adaptation des poids synaptiques. La sélection du
neurone j se fait en prenant celui qui a la plus petite distance (euclidienne au autre)
entre le vecteur des poids et le vecteur d’apprentissage.
Si les vecteurs
et
sont normés et que le carré de la distance euclidienne est utilisé pour
mesurer la distance qui les sépare, on peut remplacer la distance par le produit scalaire des
vecteurs. En effet, on a :
xwwxwx t 2|||||||||||| 222
On peut voir d’après cette équation que si on les vecteurs
et
sont de longueurs constantes,
l’évaluation de la distance entre eux revient à calculer leur produit scalaire. Noter que dans ce cas,
le calcul de la distance est une forme de calcul du niveau d’activation d’un neurone, où le terme
joue le rôle d’un biais ajouté.