Introduction Réseau de neurones artificiel? • Abstraction du système nerveux humain – Traitement parallèle de l’information • Par opposition à un automate sériel comme un ordinateur – Capacité d’apprentissage et d’adaptation • Principe de traitement très simples et identiques pour tous les éléments • Mais comportement de groupe complexe! • Applications – Résolution de problèmes difficiles – Modélisation biologique Réseau de neurones biologique • Quand un pigeon devient expert en art! (Watanabe et al. 1995) – Experience : • Pigeon dans une boîte de Skinner • Exposition aux tableaux de deux artistes (Chagall / Van Gogh) • Récompense pour bec à la vue d’un tableau de l’un des artistes (e.g. Van Gogh) • Les pigeons utilisés ont pu distinguer Van Gogh de Chagall avec 95% de précision pour les tableaux d’entraînement • Précision de 85% pour les tableaux non vus auparavant! • Mémoire oui, mais aussi – Identification de traits essentiels et/ou généralisation – Pas d’usage apparent d’un processus réfléchi – Force majeure des réseaux de neurones! (artificiels et biologiques) Les réseaux de neurones artificiels • Opèrent par apprentissage et non programmation • Une fois présentés avec des stéréotypes de comportement à apprendre, peuvent généraliser. – Ex: Reconnaître des images partielles après avoir appris des images complètes. • Troquent le traitement séquentiel familier pour un traitement parallèle de l’information Quelques domaines d’application • Reconnaissance de formes – (ex. : détection de cellules cancéreuses) • Régulation de processus industriels – (ex. : dosage d’ingrédients) • Pilotage automatique de véhicules automobiles • Reconnaissance de la voix et de l’écriture manuscrite • Interprétation de la parole et du texte écrit • Prédiction boursière/environnementale • Amélioration des moyens de trucider le voisin! Catégorisation des domaines • • • • • • • Classification Regroupement/Catégorisation Approximation de fonctions Prévision/prédiction Optimisation (plus court chemin, routage, etc.) Mémoires adressables par contenu Automatique Niveaux de traitement dans le système nerveux central humain 1m SNC 10cm Sous-Systèmes 1cm Régions 1mm Réseaux locaux 100mm Neurones 1mm Synapses 0.1mm Molécules RNA 101 • Un réseau de neurones artificiels (RNA) incorpore Les deux composants fondamentaux d’un rèseau de neurones biologique: 1. Neurones (noeuds) 2. Synapses (poids) Circuits locaux dans le cortex visuel LGN inputs Cell types Neurone biologique Sortie impulsive : 1 – Le neurone répond 0 – Le neurone ne répond pas (Sans nécessairement être inactif) Synapse biologique Agent principal du comportement neuronal Connexion typique le long d’un arbre dendritique Force de connexion variable + ou Plasticité à court terme Utilisation de mécanismes électrochimiques Origine corrélationnelle? Types de synapses Électrique (rare) • 3.5 nm pré-post distance • Continuité cytoplasmique (e.g. muscle cardiaque, capteurs sensoriels) • Courant ionique • Propagation instantanée • Transmission bidirectionnelle Chimique • 20-40 nm pré-post distance • Discontinuité cytoplasmique • Vésicules présynoptiques et récepteurs postsynaptiques • Transmetteur chimique • Délai synaptique .3 ms • Transmission unidirectionnelle Synapse dendritique Synapse dendritique Neurotransmetteurs Transmitter Transmitter Channel-typ Channel-typ Ion-current Ion-current Action Action Acetylecholin nicotin. Receptor Na+ and K+ excitateur Glutamate AMPA / Kainate Na+ and K+ excitateur GABA GABAA-Receptor Cl- inhibiteur Cl- inhibiteur Glycine Acetylecholin muscarin. Rec. - metabotropic, Ca2+ Release Glutamate NMDA Na+, K+, Ca2+ Dépend de la tension bloqué au potentiel de repos Synaptic Plasticity Neurotransmetteurs • Plusieurs types – – – – Amino Acides : Glutamate, GABA Amines biogéniques : Dopamine, Histamine Neuropeptides … LHRH, Proctolin Endorphines, acetylcholine, etc. • NMDA, GABAA sonr frèquents au niveau des récepteurs • Certains sont excitateurs et d`autres inhibiteurs Synapse excitatrice vs. inhibitrice Exemples de sommations dendritiques 0V 20 [mV] -20 V [mV] 0 -20 -40 -40 -60 -60 50 0 100 150 0 t [ms] 0V 20 [mV] 10 20 t [ms] 0 V [mV] -20 0 -20 -20 -40 -40 -60 -60 -40 -60 0 0 20 50 100 150 20 0 0 -20 -20 -40 -40 -60 -60 0 10 20 10 20 t [ms] V [mV] t [ms] 0 t [ms] 20 40 60 0 V [mV] 0 V [mV] 80 t [ms] V [mV] -20 -40 -60 10 20 t [ms] 0 20 40 60 80 t [ms] De l’entité biologique au modèle Neurone -> Nœud Synapse -> Arc pondéré Modélisation simplifiée x0 = +1 Biais w0 m v wj xj j 0 x1 Entrée w1 x2 w2 xm Poids synaptiques wm w0 b État interne v Sommateur linéaire Hypothèses : • Synapses synchrones • Pas de pertes • Sortie non impulsive Fonction d’activation () Sortie y Fonctions d’activation communes • Simplifications des séquences d’impulsions • La fréquence des impulsions remplace l’information individuelle • L’information de phase est perdue • Plusieurs fonctions existent • L’efficacité dépend de l’application 24 Fréquence des impulsions biologiques • La valeur moyenne dépend de plusieurs facteurs – Pertes (leakage), saturation, sources de bruit • Généralement modelé avec une fonction sigmoïde savoir du réseau • Réside dans la présence et la force des connexions inter-neuronales (synapses), mais : – Différents types de neurones – Différents types de topologies de réseaux Comment trouver les bons poids? Plasticité synaptique Plasticité synaptique Les facteurs clès sont l‘activitè prèsynaptique, la depolarisation post synaptique et l‘entree de calcium à travers des récepteurs specialisés Plasticité synaptique Potentiation et dépression à long term (LTP et LTD) Stimulation de 1 s à haute fréquence (100Hz) (montre aussi l.effect de l’endroit de stimulation sur l’arbre dendritique) Stimulation de 15 min à basse fréquence (1 Hz) • Modèle simplifié à un produit de sorties dans les RNA w x pre x post • Cependant, ne rend pas compte de la causalité temporelle des événements pré et post synaptiques. Spike-timing Dependent Synaptic Plasticity (STDP) • La précédence des impulsions pré et post synaptiques influe sur la plasticité synaptique. • Plus conforme à la règle de Hebb (ajout de la causalité temporelle) From Bi and Poo J. Neurosci. 18, 10464 (1998) • Popularité ascendante dans les modèles artificiels Topologies de base Unités de Sortie Unités cachées Unités d’entrée Unités d’entrée xj=Ajiyi i i Aij j yj=f(xj) • En général, les réseaux récurrents utilisent des règles d’apprentissage d’inspiration biologique et les réseaux multicouches des règles tirées de l’ingénierie Taxonomie +BSB, BAM, etc. Capacité de classification d’un PMC Pourquoi aller aussi loin ? • Un modèle simple de mémoire associative : 1. On part de/forme un ensemble orthogonal de vecteurs {xi} à mémoriser 2. On définit l’ensemble des vecteur-réponses désirés {yi} 3. On calcule la matrice A = yi xit i 4. La fonction de rappel d’un stimulus quelconque x est alors: y = A x • Ça fonctionne, non? Oui, mais que se passe-t-il lorsque les entrées sont corrélées, bruitées ou non linéairement séparables ?