
5 
 
Dans l'entranement des rseaux de neurones, nous avons plusieurs 
choix possibles pour le type d'entranement : 
1. Entranement par lot complet (batch learning) : On utilise tous 
les exemples du jeu de donnes  chaque itration. Cela peut tre 
trs coteux en termes de calcul, surtout pour les grands ensembles 
de donnes. 
2. Entranement par minibatch : Une approche plus courante o l'on 
divise les donnes en plusieurs petits lots (minibatches), et chaque 
minibatch est utilis pour mettre  jour les paramtres. 
3. Entranement en ligne (stochastic learning) : Dans ce cas, chaque 
exemple est utilis individuellement pour mettre  jour les 
paramtres du modle, un par un. Cela peut tre trs bruyant 
(beaucoup de variance dans les mises  jour). 
 La taille du minibatch est donc un compromis entre 
l'ecacit du calcul et la stabilit de l'optimisation. 
 La taille du minibatch a un impact direct sur la vitesse 
d'entranement, la prcision des mises  jour et la stabilit de 
l'optimisation. 
 Une petite taille de minibatch entrane des mises  jour plus 
frquentes, mais moins stables et bruyantes. 
 Une grande taille de minibatch est plus stable et ncessite 
plus de ressources en calcul et en mmoire. 
Choisir la bonne taille dpend des ressources, de la nature du 
problme et des compromis que on prt  faire. 
Une poque (epoch) dans l'entranement d'un modle de machine 
learning reprsente un passage complet de l'ensemble des donnes 
d'entranement  travers le modle.  chaque poque, les poids du 
modle sont ajusts pour minimiser l'erreur (ou la fonction de 
perte) sur l'ensemble de donnes. 
Le nombre d'poques est crucial pour l'entranement du modle : 
Trop peu d'poques = undertting (modle pas assez appris). 
perd sa capacit de gnralisation).