Algorithme des k-PPV en apprentissage non-supervis´e
Entr´ee :xj, j = 1,···,n +M.
Initialisation Dictionnaire D1={x1,···,xn},m←1
Tant que m≤MR´ep´eter
D´eterminer les kplus proches voisins de xn+mdans Dm;
attribuer `a xn+mla classe majoritaire
m←m+ 1
Sortie : classification des xj, j =n+ 1,···,n +M
Critique de la m´ethode des k−PPV :
Il y a beaucoup d’arbitraire ; en particulier les classements d´ependent de
l’ordre dans lequel les nouveaux objets arrivent.
La valeur de kne peut pas ˆetre prise tr`es grande, sinon la m´ethode ne
s’appliquerait qu’aux tr`es grandes bases d’objets ; or, si kest petit, la classi-
fication est tr`es sensible au bruit (c-`a-d qu’une faible modification des objets
pourrait modifier profond´ement les classements).
2 La quantification vectorielle
2.1 Introduction
La quantification vectorielle, en abr´eg´e VQ (Vector Quantization, en
anglais), op`ere sur des objets pouvant prendre des valeurs tr`es diverses, par
exemple des vecteurs quelconques de Rd
+, et ram`ene chacun d’eux `a celui
des objets d’une liste restreinte (les prototypes) qui en est le plus proche.
Dans un magasin de chaussures, on ne prend pas en compte la longueur
exacte de votre pied, mais seulement votre pointure, qui en donne une id´ee
approximative, chaque pointure correspondant id´ealement `a une longueur
du pied pr´ecise. Cette simplification des donn´ees est fondamentale dans plu-
sieurs domaines, dont la compression d’images.
La VQ est donc `a la base une technique de regroupement mais peut aussi
ˆetre consid´er´ee comme une m´ethode de classification, assimiler un objet `a
un prototype donn´e revenant `a le ranger dans une classe donn´ee (associ´ee `a
ce prototype).
L’utilisation la plus int´eressante de la VQ est en apprentissage non-
supervis´e et avec des prototypes qui ne sont pas fixes et vont ´evoluer au
cours de l’algorithme.
Une phase d’initialisation est cependant n´ecessaire pour choisir des pro-
totypes initiaux. Une possibilit´e est d’utiliser un algorithme`a seuil.
4