Document

publicité
Auto-organisation et
Quantification vectorielle
IV
B. Gas - V 0.6 (2014)
UE 5AI02/5AK03 - ISIR/UPMC
Auto-organisation
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
•  Auto-­‐organisa.on chez les vertébrés •  Cartes auto organisantes de Kohonen •  Algorithmes LVQ MLP : classification
MLP : généralisation
Auto-organisation
DEA IARFA, DEA RESIN
2003
Certaines parties de ce document (auto-organisation
chez les vertébrés) proviennent du projet bibliographique
réalisé par Nicolas DEBRAY.
DEA IARFA, DEA RESIN (2003)
Apprentissage non supervisé
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Les découvertes récentes à propos du cortex cérébral, rendues possible
grâce aux progrès de l’imagerie médicale et des techniques de mesure
électrique, ont permis de mettre à jour un mécanisme d’auto-organisation
des neurones corticaux.
Les systèmes auto-organisateurs sont des systèmes qui s’organisent à l’aide
d’algorithmes d’apprentissage non supervisés.
Un apprentissage non supervisé est un apprentissage qui s’effectue
sans professeur. On ne dispose donc plus des « sorties désirées ». La
tâche d’apprentissage consiste alors à découvrir les catégories et les
règles de catégorisation.
Apprentissage non supervisé
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Le cortex cérébral possède une structure
macroscopique uniforme d’un individu à un
autre.
Il est organisé en aires spécifiques aux
traitements de signaux particuliers. On
distingue 2 types d’aires :
-  les aires sensorielles primaires qui
perçoivent les sensations élémentaires
telles que la vision, l’ouie, le toucher, le
goût.
-  les aires sensorielles secondaires situées
à la périphérie des aires sensorielles
primaires qui réalisent la construction de
l’imagerie mentale.
Aires sensorielles primaires Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Une des caractéristiques fondamentales de l'organisation des voies
sensorielles primaires est l'existence d'une correspondance topique, c'est à
dire point par point, entre le récepteur périphérique et son aire de projection
corticale.
Aires sensorielles primaires Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
De cette constatation découlent plusieurs remarques importantes :
1) l’aire de projection corticale est proportionnelle à la richesse des
signaux émis par les récepteurs.
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
On peux ainsi illustrer l’importance des aires
corticales dédiées au toucher chez l’homme par
l’homonculus sensitif, on remarque en particulier
la proéminence des mains pour lesquelles ce sens
est particulièrement développé.
Tonotopie Le neurone biologique
Le neurone formel
2) On peux dresser des cartes neuronales mettant en avant une projection
linéaire des signaux des récepteurs vers l’aire associée.
Le perceptron
élémentaire
La partie grisée
représente l’aire auditive
Mémoires associatives
du cerveau d’un chat et
celle de droite un gros plan
Le perceptron
sur l’organisation de ses
Multi-couches (MLP)
neurones.
MLP : optimisation
Chaque point correspond à
MLP : classification
un neurone et le chiffre
associé indique la
MLP : généralisation
fréquence reçue par le
Auto-organisation
système auditif (en KHz)
-  Apprentissage non
pour laquelle le neurone
supervisé
est excité.
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Carte tonotopique du chat
On remarque alors que les neurones correspondants aux basses fréquences sont
situés à droite alors que les hautes fréquences sont situées à l’autre extrémité
du cortex auditif. De plus, deux neurones sensibles à des fréquences voisines
seront spatialement proches dans l’aire corticale auditive.
Il existe donc une propriété de préservation topologique entre l’espace des
signaux et l’espace de projection corticale. C’est la propriété de Tonotopie.
Plasticité du cortex Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
On appelle plasticité, le phénomène d’adaptation du cerveau aux signaux
qu’il reçoit.
Illustration :
Patient atteint de syndactylie (doigts attachés dès la naissance)
Avant l’opération, le patient a
trois doigts collés.
par magnéto-encéphalographie
on peut dresser la carte
somatotopique correspondant
à la représentation corticale
des doigts.
On constate alors que les aires
de projection corticale des
doigts sont très rapprochées
spatialement.
Plasticité du cortex
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Après une opération visant à
séparer le doigt 4 du doigt 5,
on remarque, en observant la
distance de séparation des
aires de projection corticale
de ces doigts, que le cerveau
s’adapte rapidement (6
jours) à la modification
établie.
La courbe indique la distance
de séparation des aires de
projection corticale entre les
doigts 4 et 5 depuis le début
de l’opération.
Les cartes de Kohonen Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
[1] Ch. von der Maslburg, 1973. Self-­‐organiza-on of Orienta-on Sensi-ve Cells in the striate cortex , Kyberne.cs, 14, pp.85-­‐100 (1943). [2] T. Kohonen, 1982. Self-­‐organized Forma-on of Topologically Correct Features Maps, Biological Cyberne.cs, 43, pp. 59-­‐69 (1982). Des modèles d’auto-organisation, inspirés par l’organisation corticale des
vertébrés, ont été proposés dès les années 70 (Von der Malburg) puis par
Kohonen.
En sciences de l’ingénieur, ces modèles ont pour but de représenter des données
complexes, souvent bruitées, souvent de grande dimension, dans un espace
discret dont la topologie est limitée à 1, 2 voire 3 dimensions.
Ils s’agit donc en fait de modèles de << quantification vectorielle (VQ) >> dotés
de
propriétés topologiques particulières.
Kohonen a proposé en 1982 un modèle très intéressant mais resté longtemps
ignoré : les << cartes de Kohonen >>.
Dans les années 90 le même hauteur a proposé plusieurs variantes supervisées
pour la classification : les algorithmes de quantification vectorielle à
apprentissage ou LVQ (Learning Vector Quantization).
Les cartes de Kohonen Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Les réseaux de Kohonen sont directement inspirés des concepts vus dans la
partie précédente, ils doivent donc avoir les propriétés suivantes :
Mémoires associatives
Le perceptron
Multi-couches (MLP)
•  L’apprentissage est non-supervisé, ce sont les signaux d’entrée qui
organisent le réseau.
MLP : optimisation
MLP : classification
MLP : généralisation
•  Le réseau doit avoir une structure topologique afin d’introduire le concept
de voisinage.
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
•  Il doit prendre en compte le mécanisme d’interaction latérale.
•  Deux signaux proches en entrée doivent activer deux neurones proches en
sortie (tonotopie).
Intéraction latérale
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
L’interaction latérale (Kohonen) désigne le fait qu’il existe une relation entre
l’activité d’un neurone du cortex et celle de ses voisins en fonction de la
distance les séparant.
Cette dépendance est représentée par la fonction du « chapeau mexicain ».
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
•  Les neurones excités excitent
à leur tour les neurones voisins
situés entre 50 et 100
micromètres qui leurs sont
connectés.
•  Pour des voisins plus lointains,
200 à 500 micromètres,
l’action est inhibitrice.
•  Pour des neurones encore plus
lointains, l’action est
négligeable.
Fonction du « chapeau mexicain »
Structure des cartes
Le neurone biologique
Le neurone formel
Un réseau à une couche de N entrées et M cellules
Le perceptron
élémentaire
Les N entrées sont totalement connectées aux N neurones
Mémoires associatives
Les neurones sont placés dans un espace à 1 ou 2 dimensions :
chaque neurone possède donc des voisins dans cet espace
Le perceptron
Multi-couches (MLP)
MLP : optimisation
Chaque neurone possède des connexions latérales récurrentes
Avec son voisinage selon la noyau de convolution du chapeau mexicain
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Connexions
modifiables
⎡ x1 ⎤
⎢ x ⎥
⎢ 2 ⎥
⎢ x3 ⎥
⎢ ⎥
⎢... ⎥
⎢ xN ⎥
⎣ ⎦
Connexions
récurrentes
⎡ y1 ⎤
⎢ y ⎥
⎢ 2 ⎥
⎢ y3 ⎥
⎢ ⎥
⎢... ⎥
⎢⎣ yM ⎥⎦
Exemple de structure
Le neurone biologique
Le neurone formel
Exemple d’une structure de réseau de Kohonen : N=2, M=9
Le perceptron
élémentaire
Les connexions récurrentes ne sont pas représentées
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
Valeur de sortie Poids synaptique d'un neurone de sortie Couche de sortie avec topologie rectangulaire MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Vecteur d'entrée à deux dimensions
Algorithme initial
Le neurone biologique
Les poids sont initialisés aléatoirement
Le neurone formel
Chaque cellule calcule sa sortie selon :
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
N
yi = ∑ ωij x j = X TWi
j =1
Selon le vecteur d’ entrée et la configuration initiale des poids, il existe
un neurone dont la sortie est la plus grande. On l’appelle <<neurone gagnant>>
L’effet des connexions latérales récurrentes est une augmentation du contraste
dans le réseau : l’activité des neurones voisins est facilitée, celle des neurones
éloignés est inhibée. C’est le mécanisme de compétition.
A l’équilibre, la sortie du réseau fait apparaître une zone d’activité prépondérante autour du neurone gagnant, entouré de zones inactives, ou faiblement
actives.
Les connexions modifiables sont ensuite ajustées selon la règle :
Δωij = α yi ( X − Wi )
La modification tend à rendre le neurone gagnant plus sélectif à la donnée X
Algorithme initial (suite)
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Explication :
Si pour le neurone i0 la sortie yi0 est la plus forte :
∀i ≠ i0 , yi0 = X TWi0 > yi = X TWi
Après correction, on a :
yi = X T (Wi + ΔWi ) = X T (Wi + α X TWi ( X − Wi ))
= X T Wi (1 + α X T ( X − Wi ))
T
Si le produit scalaire X ( X − Wi ) est positif, la sélectivité du neurone au
vecteur X est augmentée après correction :
Auto-organisation
Wi − 2
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Wi
Wi − 2
X
Wi −1
Wi
X
Wi −1
Wi +1
Wi +1
Avant apprentissage
(vecteurs normalisés à 1)
Après apprentissage
(et re-normalisation à 1)
Les poids sont
modifiés par
une variation
pondérée par
l’activité y du
neurone
Interprétation géométrique
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Explication géométrique :
X − Wi
X
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
α yi ( X − Wi )
Wi + ΔWi
Wi
Le problème posé par le produit scalaire est que l’on n’a pas forcément :
X T (Wi + ΔWi ) > X TWi
D’où la nécessité de normer les vecteurs.
Algorithme simplifié
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
L’algorithme d’apprentissage précédent souffre d’au moins 2 défauts :
•  Le calcul du neurone gagnant repose sur un concept de produit scalaire
ce qui n’est intéressant que si les poids sont normés
•  Le calcul des sorties, en raison des connexions récurrentes, demande une
procédure itérative coûteuse en temps de calcul
Neurones « distance » : la sortie est une fonction décroissante
de la distance d ( X , Wi ) , ce qui évite de normer les poids
WTA : on recherche le neurone le plus actif. Les voisins sont également
Actifs. Au delà du voisinage, les neurones sont inactifs. Ce dispositif
évite les connexions récurrentes en simplifiant le mécanisme de compétition.
Dans ces conditions, la règle d’apprentissage est simplifiée :
ΔWi = α G(i, i0 ) ( X − Wi )
La fonction G (i, i0 )définit le voisinage sur lequel s’applique la modification
des poids. Dans le cas le plus simple G (i, i0 ) = δ i ,i0 . Plus souvent il évolue
en 1/t avec une initialisation couvrant 30 à 50% du réseau.
Le pas d’adaptation évolue également en 1/t :α (t )
= 1/ t
Topologies de la carte
Le neurone biologique
Le neurone formel
Voisinage à une dimension (peu utile) :
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
Le neurone gagnant est marqué par une croix, le chiffre indique la
distance relative à ses voisins.
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Voisinage rectangulaire
2D (le plus utilisé) :
Voisinage hexagonal 2D
Exemple
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Soit un ensemble de 10000 vecteurs à 2 composantes possédant une densité de
probabilité uniforme à valeur dans [0..10], [0..10].
Considérons une couche de sortie de 100 neurones avec une topologie
hexagonale.
Les poids synaptiques sont initialisés avec des valeurs comprises entre 5 et 5,1 .
Exemple (évolution de la carte)
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Règle de Ritter et Shulten (1986)
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Il s’agit d’une modification de l’algorithme de Kohonen : au lieu de considérer
un ensemble fini de neurones (fonction de voisinage G à valeurs discrètes),
utiliser une fonction de voisinage à valeurs continues (typiquement une
gaussienne).
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
⎧
G(i, i0 ) = exp ⎪⎨
⎪
⎩
−d (i, i0 )2 ⎫⎪
⎬
2.σ (t )2 ⎪⎭
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
La variance σ (t ) représente l’étendue du voisinage à l’instant t. C’est une
fonction décroissante du temps, en 1/t par exemple.
Il a été démontré (Lo et Bavarian 1991) que l’utilisation d’une fonction
de voisinage plutôt que d’un ensemble fini de voisins permettait
d’améliorer la vitesse de convergence de l’algorithme, de plus elle se
rapproche plus fidèlement de l’interaction latérale initiale.
La règle d’adaptation reste la même :
ΔWi = α (t )G(i, i0 , t ) ( X − Wi )
L’algorithme
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Définir les relation de voisinage ainsi que le nombre de neurones M de la couche de sortie.
Initialiser les poids synaptiques W en fonction des données de la base d’apprentissage ou
i
bien aléatoirement.
Faire
•  Présentation d’un vecteur d’entrée X (t ) choisi aléatoirement
Le perceptron
Multi-couches (MLP)
•  Chercher le neurone gagnant :
MLP : optimisation
•  Modifier les poids du gagnant et de son voisinage :
i0 = arg min i∈[1..M ] || X (t ) - Wi ||
MLP : classification
MLP : généralisation
ΔWi = α (t )G(i, i0 , t ) ( X (t ) − Wi )
•  Décroître le pas d’apprentissage et l’étendue du voisinage :
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
α (t ) → α (t + 1) et σ (t ) → σ (t + 1)
Tant que critère d’arrêt non atteint
Note : on peut faire décroître les deux paramètres de la manière suivante : Valeur finale
Valeur initiale
t
⎛ α
α t = αi . ⎜⎜ f
⎝ αi
⎞ tmax
⎟⎟
⎠
Itération finale
Conclusion
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
Comme pour tous les algorithmes provenant d’adaptation de
constatations neurobiologiques, la démarche a été d’implémenter et
de tester d’abord puis ensuite de prouver mathématiquement son
efficacité.
Actuellement la connaissance des propriétés mathématiques de cet
algorithme est incomplète. Kohonen optimise-t’il un critère, le
réseau converge-t’il?
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Remarque importante :
La sélection du gagnant se fait à partir d’une distance mais il faut
qu’elle soit adaptée aux données. Si toutes les composantes des
vecteurs d’entrée ont la même variance alors la distance euclidienne
est adaptée, sinon il faudra procéder à une normalisation ou prendre
une distance euclidienne pondérée.
Quantification vectorielle Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Principe de la quantification vectorielle (VQ) :
L’objectif est de segmenter (« clustering ») l’espace des données d’entrées.
Cette quantification permet après apprentissage :
- de compresser les données : au lieu de stocker un nouveau vecteur d’entrée en
entier, il suffit de stocker le numéro du neurone gagnant. L’ensemble des
prototypes associés à leurs poids synaptiques est appelé « codebook ». Cette
compression n’est pas réversible car elle est « destructrice ».
- de faire une classification sans-supervision puisque chaque prototype code
pour un ensemble de vecteurs (situé dans le nuage associé) ayant des
propriétés communes.
L’algorithme LVQ
Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Plus récemment, pour la classification, Kohonen a proposé une classe
d’algorithmes nommée LVQ pour Learning Vector Quantization. Les règles
d’adaptation sont des versions supervisées des cartes topologiques.
La règle d’adaptation des poids s’effectue toujours sur les poids des
neurones appartenant au voisinage du gagnant, mais elle est modifiée :
ΔWi = ±α G(i, i0 ) ( X − Wi )
On utilise le signe « + » lorsque le gagnant est de la même classe que
l’exemple présenté. Le signe « - » dans le cas contraire.
La méthode LVQ extrait d’un ensemble de vecteurs un noyau de
représentants quasi optimaux.
Algorithme, méthode itérative:
–  Initialisation aléatoire des centres (noyau)
–  Pour chaque vecteur x, trouver le centre c le plus proche
–  Si c et x sont de la même classe, rappocher c de x, sinon,
éloigner c de x
–  Quand les centres ne bougent plus STOP
Exemple Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
1.2
1.2
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
Déplaceme
nt:
-0.2
-0.2
0
0.2
0.4
0.6
0.8
1
1.2
-0.2
-0.2
1.2
1.2
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
-0.2
-0.2
0
0.2
0.4
0.6
0.8
1
1.2
-0.2
-0.2
0
0
0.2
0.2
0.4
0.6
0.8
1
1.2
0.4
0.6
0.8
1
1.2
Exemple (2) Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
1.2
1
0.8
0.6
0.4
0.2
0
-0.2
-0.2
0
0.2
0.4
0.6
0.8
1
1ère itération et 17ème itération.
Le taux d’erreur passe de 14.2% à
5.2%
1.2
1.2
1
0.8
0.6
0.4
0.2
0
-0.2
-0.2
0
0.2
0.4
0.6
0.8
1
1.2
Exemple (3) Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
Taux
d’erreur
varie de
13% à 0.5%:
1.2
1.2
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
-0.2
-0.2
0
0.2
0.4
0.6
0.8
1
1.2
-0.2
-0.2
1.2
1.2
1
1
0.8
0.8
0.6
0.6
0.2
0.4
0.6
0.8
1
1.2
0.6
0.8
1
1.2
0.4
0.4
0.2
0.2
0
0
-0.2
-0.2
0
0
0.2
0.4
0.6
0.8
1
1.2
-0.2
-0.2
0
0.2
0.4
Exemple (4) Le neurone biologique
Le neurone formel
Le perceptron
élémentaire
Mémoires associatives
Le perceptron
Multi-couches (MLP)
MLP : optimisation
MLP : classification
1.2
1
0.8
0.6
0.4
0.2
0
-0.2
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
MLP : généralisation
Auto-organisation
-  Apprentissage non
supervisé
- Chez les vertébrés
- Les cartes de Kohonen
- Algorithmes LVQ
1
1.1
1.2
Seulement 4 noyaux alors qu’il en
faudrait au moins 6: l’erreur ne
descend pas plus bas que 21%
Un seul noyau représente tous les
« rouges »
1
0.8
0.6
0.4
0.2
0
-0.2
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
1.1
Téléchargement