L’article qui fait l’objet de mon résumé est le suivant : Réseaux de neurones
récurrents et mémoire : application à la musique, écrit par Tristan Sterin. Cet
article propose d’étudier la modélisation et la génération de partitions musicales
par apprentissage. A cette fin, nous trouverons des explications sur les enjeux
théoriques, musicologiques et mathématiques de cette discipline.
Il part du principe que Les réseaux de neurones récurrents sont des modèles
aptes à apprendre et à générer des séquences temporelles.et il étudie ce modèle
en utilisant deux variantes pour pouvoir les comparer et voir le modèle le plus
performant. L’article est devisé en trois parties, une première qui est théorique
puisque nous trouverons des définitions des réseaux neurones, des Réseaux de
neurones récurrents (RNNs) en exposant les deux variantes Vanilla RNNs et
LSTM, GRU, puis il explique le mode d’apprentissage de séquences et le
modèle génératif.
Dans la deuxième partie il jette la lumière sur les RNNs et les mémoires, il
signale que dans les RNNs il y a deux types de mémoires, mémoire à court
terme et mémoire à long terme. Et que la première est celle qui évolue au court
du traitement, sa couche de contexte informe sur le passé récent qu’il vient de
traiter, et La seconde est celle issue de l’apprentissage, ancrée dans les poids du
réseau. la mémoire étudiée dans ce projet est la mémoire à court terme,
puisqu’elle détient les éléments de contexte.
Il a évalué les deux modèles sur différentes grammaires artificielles (grammaire
de Reber et ses variations) au niveau de l’apprentissage, de leurs capacités de
généralisation de celui-ci et leur gestion de dépendances séquentielles.
Finalement,