OBJECTIFS

publicité
RESEAUX NEURONAUX
.
OBJECTIFS

.
LES RESEAUX DE NEURONES




HISTORIQUE
LE MODELE BIOLOGIQUE
LES MODELES INFORMATIQUES
APPLICATIONS
LES TECHNIQUES
D'INTELLIGENCE
ARTIFICIELLE




LES GENERATEURS DE PROGRAMME
LES SYSTEMES EXPERTS
LES SYSTEMES BASES SUR LA
CONTRAINTES
LA LOGIQUE FLOUE
HISTORIQUE
1930-1950 LA GENESE


BOUCLES DE RETROACTION
AUTOMATES
– CYBERNETIQUE WIENER

NEURONE FORMEL
– MAC CULLOCH ET PICH

AUTOMATE CELLULAIRE
– VON NEUMANN
– PARADIGME DE MACHINE AUTOREPRODUISANTE
– MACHINE DE TURING
HISTORIQUE
1950 - 1970 L'EUPHORIE



AUTOMATES NEURONAUX
RECONNAISSANCE DE FORMES
NEURONES FORMELS
– ADALINE WIDROW
– PERCEPTRON ROSENBLUTT


CALCULS ANALOGIQUES
APPRENTISSAGE SANS RETROACTION
HISTORIQUE
1970 - 1980 LA TRAVERSEE DU
DESERT
HISTORIQUE
1980 - ... LE RENOUVEAU


82/85 HOPFIELD, RETROACTION,
OPTIMISATION
85-88
–
–
–
–
–
–

RETROPROPAGATION,
MACHINE DE BOLTZMANN,
APPRENTISSAGE COMPETITIF,
CARTES TOPOLOGIQUES
SIMULATEURS,
PLAN ETATIQUES (USA JAPON CEE)
88-91
– APPROFONDISSEMENT, APPLICATIONS, ATTENTES
RESEAUX NEURONAUX
LES ATOUTS

PROGRAMMATION
– PAR APPRENTISSAGE
– SANS ALGORITHME

PARALLELISME
– CALCULS INDEPENDANT SUR CHAQUE NEURONE
– UTILISANT DES CIRCUITS SPECIALISES

GENERALISATION
– TRAITEMENT DES EXEMPLES NOUVEAUX A PARTIR
D'UNE GENERALISATION DES CARACTERISTIQUES DES
EXEMPLES PRECEDANTS
RESEAUX NEURONAUX
INCONVENIENTS



PAS DE GARANTIE DE RESULTAT
INSTABILITES
QUALITE DE L'APPRENTISSAGE
LE NEURONE BIOLOGIQUE
DIAGRAMME
CORPS CELLULAIRE
SYNAPSE
AXONE
NOYAU
DENDRITES
NEURO-TRANSMETTEURS
- excitateurs
- inhibiteurs
LE NEURONE BIOLOGIQUE
LES TAILLES

DENDRITES
– 0.N MICRONS

CORPS CELLULAIRE
– N MICRONS
– ASSURANT LA VIE DU NEURONE

L'AXONE
– 1 millimètre-> 1 mètre

LA SYNAPSE
– 0.01 microns
LE MODELE BIOLOGIQUE

ELECTRIQUE
– AMPLITUDE CONSTANTE
– VALEUR INFORMATION = FREQUENCE

CHIMIQUE
LE MODELE BIOLOGIQUE
SCHEMATISATION
SYNAPSE
DENDRITES
E1
W1
E2
W2
EN
WN
CORPS
+
S
AXONE
LA VISION
CHEZ L'HOMME

RETINE = CELLULES PHOTO-SENSIBLES :
– LES CELLULES BATONNETS, SENSIBLES A LA LUMIERE
– LES CELLULES CONES, SENSIBLES AUX FORMES ET
AUX COULEURS


NERF OPTIQUE
CORTEX VISUEL
– ORGANISE EN COLONNES
LA GRENOUILLE


CELLULES D'ANALYSE DERRIERE L'OEIL
CHAMP DE VISION
–
–
–
–
UN OBJET MOUVANT PENETRE
UN OBJET MOUVANT PENETRE ET S'ARRETE
BAISSE GLOBALE ET SUBITE DE LA LUMINOSITE
UN PETIT OBJET SOMBRE ET ARRONDI
S'Y DEPLACE DE MANIERE ERRATIQUE.
FUITE
ATTAQUE
LES MAMMIFERES
CORTEX VISUEL
CELLULES
COMPLEXES
CELLULES
SIMPLES
CELLULES
GANGLIONAIRES
CHAMP VISUEL
EXPERIENCES SUR LES CHATS
ETATS CONNEXIONS


LA COMMUNICATION RENFORCE LA
CONNEXION
ETATS DES
NEURO-TRANSMETTEURS
– LABILE, POUVANT DIFFUSER,
– STABLE, NE DIFFUSANT PAS,
– DEGENERE, NE POUVANT PLUS DIFFUSE
DEFINITIVEMENT.
LABILE
STABLE
DEGENERE
RESEAUX DE NEURONES
COMPLEXITE
ABEILLE
interconnexions/s
SURVEILLANCE
INFRA-ROUGE
R 109
A
P
I
6
D 10
I
T
E 103
RECONNAISSANCE
DE LA PAROLE
MOUCHE
89
SANSUE
SURVEILLANCE
RADAR
DETECTION
DE CIBLE
ROBOTIQUE
SONAR
89
103
STOCKAGE
106
(DARPA 89)
109 interconnexions
LE NEURONE FORMEL
ENTREES
- binaires
- entières E1
- réelles
E2
EN
 WiEi
I 1, N
SORTIE
- binaires
- entières
- réelles
F
S
LE NEURONE FORMEL
AUTOMATES

BOOLEEN
– MODELE DE MAC CULLOCH ET PITTS (194X)
– ENTREES, SORTIES, ET FONCTIONS BOOLEENNE

A SEUIL
– SORTIE BINAIRE
– FONCTION DE SORTIE
» HEAVISIDE
» SIGNE
1
Heaviside
1
Signe
0
-1
LE NEURONE FORMEL
AUTOMATES

LINEAIRES
– ENTREES SORTIES REELLES

A SATURATION
– ENTREES SORTIES REELLES OU ENTIERES
– FONCTION LINEAIRE A SATURATION
Multi-linéaire
LE NEURONE FORMEL
LES AUTOMATES

CONTINUS
– ENTREES SORTIES REELLES
– FONCTION SOMMATRICE LINEAIRE
– FONCTION DE CALCUL SIGMOIDE

PROBABILISTES
– LES SORTIES SONT BINAIRES,
– CALCULEES PAR UNE FONCTION STOCHASTIQUE
APPRENTISSAGE

SOUMETTRE LE RESEAU A UN JEUX D'ESSAIS
– REGLES MATHEMATIQUES
– REGLE DE HEBB
W
actif
actif
W
actif
W
inactif
W
inactif
REGLE DE HEBB
inactif
actif
inactif
LE PERCEPTRON
MODELE DE ROSENBLATT
RETINE
ASSOCIATION
DECISION
E1
F
F
S1
E2
F

S2
E3
F
F
S3
F
F
SN
EN
F
PERCEPTRON
MODELE D'ETUDE
RETINE
ASSOCIATION
0/1
E1 0/1
Bool
E2 0/1
Bool
0/1
Bool
0/1
E3 0/1
E4 0/1
Bool
0/1
DECISION

0/1

0/1
S1
S2

0/1

0/1
S3
SN
PERCEPTRON
APPRENTISSAGE

Wi = Wi + k(sortie désirée - sortie obtenue)*ei
W
0
1
W
SORTIE
0
0
W
1
1
W
1
0
DESIRE
LE PERCEPTRON
CARACTERISTIQUES

SI SOLUTION
– CONVERGEANCE
– EXISTANCE TAILLE MINIMUM POUR UN PROBLEME

LIMITATIONS -> ABANDON
– LES PERCEPTRONS A CHAMP LIMITE NE PEUT
RECONNAITRE DES FORMES CONNEXES
– IMPOSSIBLE DE TRAITER LES FONCTIONS NON
LINEAIREMENT SEPARABLES ex : XOR
– TROUVE LA PREMIERE SOLUTION
– NE TROUVE PAS LA MEILLEURE
REGLE DE WIDROW ET HOFF


NE PAS UTILISER DE SEUIL EN APPRENTISSAGE
TROUVE LA MEILLEURE SOLUTION
PERCEPTRON
WIDROW-HOFF
RESEAU MULTI-COUCHES
COUCHE
D'ENTREE
COUCHES CACHEES INTERNES
COUCHE
DE SORTIE
E1
F
F
F
S1
E2
F
F
F
S2
E3
F
F
F
S3
EN
F
F
F
SN
LE MODELE EN COUCHES


CLASSIFICATIONS NON SEPARABLES
LINEAIREMENT
RETRO-PROPAGATION DU GRADIANT
– EXTENSION DE LA REGLE DE WIDROW-HOFF

FONCTION SIGMOIDE

e  1
f ( x)  a 

e  1
a
 kx
 kx
-a
RETRO-PROPAGATION
DU GRADIENT

MINIMISER
  
E W  i 1,m Yi  Sj
X
RESEAU
2
Y
désiré
S
RETRO-PROPAGATION
DU GRADIENT
Wij ( n)  Wij ( n  1)  e( n) Di  Oj
OU
 

Di  2 Si  Yi  f  li


Di   Dk  Wki f  li
k
i
j
Wil
Wki
li Oi
k
PAS ESSAI N
RESEAU
ENTIEREMENT CONNECTE








LE MODELE DE HOPFIELD
STRUCTURE

MONO-COUCHE TOTALEMENT CONNECTE
– NEURONES A DEUX ETAT (-1/1)
– FONCTION DE CALCUL SIGNE

MEMORISE UN CERTAIN NOMBRE D'ETATS
– MEMOIRE ASSOCIATIVE
– PAR CALCUL PREALABLE

MISE A JOUR
– ASYNCHRONE ALEATOIRE (HOPFIELD)
– ASYNCHRONE
– SYNCHRONE
LE MODELE DE HOPFIELD
APPRENTISSAGE


FORCER LE RESEAU AUX VALEURS DES
DIFFERENTS ETATS A MEMORISER.
COMPARAISON NEURONES
– MEME ETAT => AUGMENTER LE POID
– SINON => DIMINUER LE POID
LE MODELE DE HOPFIELD
UTILISATION



INITIALISE LE RESEAU AVEC L'ETAT
D'ENTREE,
EN PRINCIPE IL CONVERGERA VERS L'ETAT
STABLE LE PLUS PROCHE
LE RESEAU SE COMPORTE DONC COMME
UNE MEMOIRE ASSOCIATIVE ADRESSEE
PAR SON CONTENU.
MODELE DE HOPFIELD
DESAVANTAGES

ETATS STABLES SUPPLEMENTAIRES
– LES RECHERCHER ALEATOIREMENT
– APPLIQUER LA REGLE INVERSE POUR LES
DESTABILISER


ORTHOGONALISATION NECESSAIRE
OUBLI CATASTROPHIQUE
– AJOUT D'UN SEUL ETAT
– DES METHODES D'OUBLI PROGRESSIF PEUVENT
CORRIGER CE PROBLEME.
MACHINE DE BOLTZMANN


1985 AMELIORATION DU MODELE HOPFIELD
CORRECTIF DECROISSANT POUR EVITER
LES MINIMUMS LOCAUX
point de départ
minimum
local
minimum
global
MACHINE DE BOLTZMANN

NEURONES SUPPLEMENTAIRES POUR
DISTINGUER LES ETATS PROCHES
– N NEURONES VISIBLES
– M NEURONES CACHES.

FONCTIONNEMENT
– LIBRE : TOUS LES NEURONES EVOLUES
– FORCE : SEULS LES NEURONES CACHES EVOLUENT.
LE MODELE DE KOHONEN

AUTO ADAPTATIF
– TYPER ET LOCALISER LES NEURONES
– CREATION/DESTRUCTION DE NEURONES

PROJECTION
– COMPRESSION DE DONNEES
– MEILLEURE ADAPTATION AU BRUIT

APPLICATION
– MINIMISER LES CHEMINS
– FILTRES
– RECONNAISSANCES DE FORMES
APPLICATIONS
RESEAU
RETRO
HOPFIELD BOLZMANN KOHONEN
APPLICATIONS PROPAGATION
CLASSIFI
-CATION
TRAITEMENT
IMAGES
AIDE A LA
DECISION
OPTIMISATION
*
*
*
*
*
*
*
*
*
*
*
*
CONDITIONS D'APPLICATION

NE PAS CONNAITRE
– DE SOLUTION ALGORITHMIQUE
– DE SOLUTION ASSEZ RAPIDE



DONNEES BRUITEES
PROBLEMES DONT LES CONDITIONS
VARIENT
DISPOSER D'UN JEUX D'EXEMPLES
RECONNAISSANCE DE
FORMES

OCR : CARACTERES
– NESTOR : RECONNAISSANCE DE CODES POSTAUX 97,7%

OCR/90 CODES POSTAUX US (BELL)
–
–
–
–
–

6 couches 4635 neurones
98442 interconnexions (2578 paramètres)
7300 exemples
90 % correctement classés , 9% rejetés
1% incorrectement classés
EasyReader Classic (93)
– basé sur OCR NeuronEye
– 12 langue prix <1500
RECONNAISSANCE
DE CARACTERES

FORMSCAN DE ITESOFT
– ANALYSE DE FORMULAIRE
– OCR RESEAUX NEURONAUX
– CORRECTION SYNTAXIQUE PAR DESCRIPTION DES
CHAMPS
– CORRECTION MANUELLE
– 55 KF SUR P.C.
RECONNAISSANCE DE FORME

Appledjjn : Apple+France telecom
– modem-fax avec OCR intégré
– OCR Mimetics

CIRCUIT ASIC
–
–
–
–
–
–
MIMETICS / INNOVATIC
FONDEUR : SGS THOMSON
1500 CARACTERES/SECONDE
40000 connexions
3000 frs
30 fois plus rapide qu'un processeur ALPHA
TRAITEMENT DU SIGNAL

MAINTIENT D'UN BALANCIER
VISION/PAROLE

NETTalk : SYNTHESE VOCALE DE TEXTE
– 300 NEURONES
– REUSSITE 95%
– GENERALISATION 80%
PREVISION / MODELISATION

PREVISION D'UTILISATION D'OPTIONS
D'ACHATS
– 23 neurones. 90 % GENERALISATION 80%
OPTIMISATION

RECHERCHE DU MEILLEUR ITINERAIRE
CONCLUSION

AVANTAGES
– PARALLELISATION
– PAS DE PROGRAMMATION
– GENERALISATION

MAIS
– ABSENCE DE CIRCUITS EN GRANDE DIFFUSION
– DIFFICULTE DE L'APPRENTISSAGE
– PAS FIABLE A 100%

DONC
– PEU D'APPLICATIONS HORS PROTOTYPES
– PERFORMANCES COMPARABLES A D'AUTRES
SOLUTIONS
Téléchargement