3
J.Korczak, ULP 13
Qu’est-ce qu’un réseau de neurones ?
RN est un réseau d’automates finis partiellement ou totalement
connectés entre eux, en interaction locale ou globale. Il est
entièrement caractérisé par son architecture et les fonctions de
transition d’état des neurones.
Deux grands classes de RN :
• RN dont l’apprentissage est supervisé
Une méthode d’apprentissage supervisé est une méthode qui
utilise directement les connaissances d’un expert et essaye de
reproduire ces connaissances.
• RN dont l’apprentissage est non supervisé
Une méthode d’apprentissage non supervisé est une méthode qui
essaye de dériver des généralisations à partir des données, de
segmenter l’espace de données.
J.Korczak, ULP 14
R
RR
Ré
éé
éseaux neuronaux :
seaux neuronaux : seaux neuronaux :
seaux neuronaux :
‘
‘‘
‘bonnes applications
bonnes applicationsbonnes applications
bonnes applications’
’’
’
Des caractéristiques d’une bonne application :
•Problèmes très difficiles à expliciter ou à formaliser
•On dispose d’un ensemble d’exemples
•Le problème fait intervenir des données bruitées
•Le problème peut évoluer
•Le problème nécessite une grande rapidité de
traitement
•Il n’existe pas de solutions technologiques
courantes
J.Korczak, ULP 15
Le Perceptron Multi-Couche (MLP)
Le MLP est composé de couches successives : une couche
d’entrée (où sont présentées les entrées), une ou plusieurs
couches cachées, et une couche de sortie (où sont
présentées les sorties calculées par le MLP).
L’apprentissage des MLP :
- algorithme de rétro-propagation du gradient
- algorithme de gradient conjugué
- méthodes de second ordre, …
Les MLP sont des approximateurs universels.
J.Korczak, ULP 16
Réseau de neurones - MLP
couche
d ’entrée
couche de sortie
couches cachées
•Un réseau (suffisamment complexe) de neurones formels peut représenter
•n'importe quelle fonction booléenne ou n'importe quelle partition de Rn.
J.Korczak, ULP 17
Fonctionnement d’un neurone
Σ
ΣΣ
Σxi*wi
Entrées Sorties
Σ
F
Fonction d’activation (ou de transfert)
1
0
w1
w2
wi
wk
Σ
ΣΣ
Σ
Σ
ΣΣ
Σ
X1
X2
X3
Y1
Y2
Y3
J.Korczak, ULP 18
Fonction d’activation
Fonction non linéaire
- choix typiques : fonction logistique, tangente hyperbolique
F(x) = 1/(1+e-x) F(x)= tanh(x)
- propriétés importantes :
- continue, dérivable