
5
Dans l'entranement des rseaux de neurones, nous avons plusieurs
choix possibles pour le type d'entranement :
1. Entranement par lot complet (batch learning) : On utilise tous
les exemples du jeu de donnes chaque itration. Cela peut tre
trs coteux en termes de calcul, surtout pour les grands ensembles
de donnes.
2. Entranement par minibatch : Une approche plus courante o l'on
divise les donnes en plusieurs petits lots (minibatches), et chaque
minibatch est utilis pour mettre jour les paramtres.
3. Entranement en ligne (stochastic learning) : Dans ce cas, chaque
exemple est utilis individuellement pour mettre jour les
paramtres du modle, un par un. Cela peut tre trs bruyant
(beaucoup de variance dans les mises jour).
La taille du minibatch est donc un compromis entre
l'ecacit du calcul et la stabilit de l'optimisation.
La taille du minibatch a un impact direct sur la vitesse
d'entranement, la prcision des mises jour et la stabilit de
l'optimisation.
Une petite taille de minibatch entrane des mises jour plus
frquentes, mais moins stables et bruyantes.
Une grande taille de minibatch est plus stable et ncessite
plus de ressources en calcul et en mmoire.
Choisir la bonne taille dpend des ressources, de la nature du
problme et des compromis que on prt faire.
Une poque (epoch) dans l'entranement d'un modle de machine
learning reprsente un passage complet de l'ensemble des donnes
d'entranement travers le modle. chaque poque, les poids du
modle sont ajusts pour minimiser l'erreur (ou la fonction de
perte) sur l'ensemble de donnes.
Le nombre d'poques est crucial pour l'entranement du modle :
Trop peu d'poques = undertting (modle pas assez appris).
perd sa capacit de gnralisation).