Convergence de l’algorithme du perceptron
On considère un perceptron correspondant à une fonction
déterminée par
1 1
1
( , , ) 1 sinon
p p
p
f x x
=
−
…
Rq : La fonction est à valeurs dans
au lieu de
pour faciliter l’exposé, mais cela ne change rien
au fond de l’étude…
On se donne un ensemble d’apprentissage
1 1
N N
A x y x y=…
avec pour chaque
,
1
( , , )
p
et
la réponse attendue par le perceptron.
Déf : On dit que la base d’apprentissage
est linéairement séparable s’il existe des coefficients
1
p
et
tel que
1 1
p p
en posant
x x
x
Pour alléger les notations, on va poser
et convenir
0
pour chaque
de sorte que les
expressions
1 1 p p
s’écrivent plus légèrement
0 0 1 1
La définition du perceptron se ramène alors la détermination d’un vecteur synaptique
0 1
( , , , )
p
L’algorithme d’apprentissage du perceptron est alors le suivant :
On choisit arbitrairement un vecteur synaptique
.
Tant que les réponses produites ne sont pas toutes correctes :
on choisit un exemple
dans la base d’apprentissage.
Si la réponse produite par le perceptron sur cet exemple est incorrecte Alors
on modifie chaque poids synaptiques par la relation :
1
:
Fin Si
Fin Tant que