A k

publicité
Systèmes hybrides
Adapté de Michael Negnevitsky
Comparaison de modèles
• Critères de comparaison
proposées par Negnevitsky (2002)
Caractéristique
Description
Compréhensibilité des
représentations
Facilité de compréhension des connaissances représentées
Tolérance à l’incertitude
Robustesse face aux données manquantes
Tolérance à l’imprécision
Robustesse face aux données imprécises
Adaptabilité
Support pour de nouveaux types de données et de nouveaux
domaines
Capacité d’apprentissage
Support pour l’apprentissage automatique des connaissances
Capacité de
découverte/fouille
Support pour découvrir des connaissances parmi beaucoup
de données
Capacité d’explication
Support pour le traçage du raisonnement
Facilité de développement
Simplicité et rapidité du développement
Maintenabilité
Simplicité de la maintenance
Support de connaissances
complexes
Support pour représenter des connaissances complexes
Adaptè de M. Negnèvistrsky et Benoit Lavoie.
Comparaison de modèles
• Approches et évaluations possibles
Décrtis par Negnevitsky (2002)
Types d’approches
SE: système expert
RN: réseau de neurones artificiels
LC: logique classique
AG: algorithme génétique
LF: logique floue
RB: réseau bayésien
AD: arbres de décisions
ON: ontologies
SC: schémas
BC: système à base de cas
Évaluation
- -: mauvais
- : plutôt mauvais
+: plutôt bon
++: bon
Adaptè de M. Negnèvistrsky et Benoit Lavoie.
+/- : variable selon variantes
Comparaison de modèles
• Avantages et limites de chaque approche …
évaluation proposée par
Negnevitsky
Caractéristiques
Approches
symboliques
Approches
soussymboliques
SE
LC
LF
AD
ON
SC
BC
RN
AG
RB
Compréhensibilité des
Représentations
+
++
++
++
++
+
+
--
-
-
Tolérance à l’incertitude
+
++
++
+
+
+
+
++
++
++
Tolérance à l’imprécision
+/-
--
++
+
-
-
+
++
++
+
Adaptabilité
--
-
-
+
-
--
+/-
++
++
+
Capacité d’apprentissage
--
--
--
++
+/-
--
+
++
++
++
Capacité de découverte/fouille
--
-
-
+/-
+
-
--
++
+
+/-
Capacité d’explication
++
++
++
+
+
+
+
--
-
+
Facilité de développement
--
-
-
++
-
--
--
-
-
+
Maintenabilité
--
+
+
++
+/-
-
-
++
+
+
Support de connaissances
complexes
+
+
+
-
++
++
+
--
--
--
Adaptè de M. Negnèvistrsky et Benoit Lavoie.
Comparaison de modèles
• Avantages et limites de chaque approche …
Approches
symboliques
points forts démarquant les
approches symb. / sous-symb.
Caractéristiques
Approches
soussymboliques
SE
LC
LF
AD
ON
SC
BC
RN
AG
RB
Compréhensibilité des
Représentations
+
++
++
++
++
+
+
--
-
-
Tolérance à l’incertitude
+
++
++
+
+
+
+
++
++
++
Tolérance à l’imprécision
+/-
--
++
+
-
-
+
++
++
+
Adaptabilité
--
-
-
+
-
--
+/-
++
++
+
Capacité d’apprentissage
--
--
--
++
+/-
--
+
++
++
++
Capacité de découverte/fouille
--
-
-
+/-
+
-
--
++
+
+/-
Capacité d’explication
++
++
++
+
+
+
+
--
-
+
Facilité de développement
--
-
-
++
-
--
--
-
-
+
Maintenabilité
--
+
+
++
+/-
-
-
++
+
+
Support de connaissances
complexes
+
+
+
+
++
++
+
--
--
--
Adaptè de M. Negnèvistrsky et Benoit Lavoie.
Comparaison de modèles
• Évaluations globales
Caractéristiques
Approches
symboliques
Approches
sous-symboliques
Compréhensibilité des
représentations
Bonne ou plutôt bonne
Plutôt mauvaise ou
mauvaise
Tolérance à l’incertitude
Plutôt bonne ou bonne
Bonne
Tolérance à l’imprécision
Variant de bonne (LF,AD) à mauvaise (LC)
Bonne ou plutôt bonne
Adaptabilité
Variant de mauvaise (SE, SC) à plutôt
bonne (AD, BC?)
Bonne
Capacité d’apprentissage
Variant de mauvaise (SE, LC, LF, SC) à
bonne (AD)
Bonne
Capacité de
découverte/fouille
Généralement mauvaise ou plutôt
mauvaise (exception: AD et ON plutôt
bonne)
Plutôt bonne ou bonne
(RB non spécifiée)
Capacité d’explication
Plutôt bonne ou bonne
Variant de mauvaise
(RN) à plutôt bonne (RB)
Facilité de développement
Généralement mauvaise ou plutôt
mauvaise (exception: AD bonne)
Plutôt mauvaise (RN,AG)
ou bonne (RB)
Maintenabilité
Variant de bonne (AD) à mauvaise (SE)
Plutôt bonne ou bonne
Support de connaissances
Généralement bonne ou plutôt bonne
Mauvaise
complexes
(exception: AD plutôt mauvaise)
Adaptè de M. Negnèvistrsky et Benoit Lavoie.
Les systèmes hybrides


Exploitent les avantages respectifs de plusieurs
paradigmes en combinant leurs algorithmes
suivant une approche synergétique.
Exemples de modèles pouvant être combinés :






Systèmes experts
Raisonnement à base de cas
Arbres de décision
Algorithmes et programmation
génétique
Réseaux de neurones
Techniques de régression






Techniques statistiques
Systèmes à logique floue
Algorithmes de groupement
Vie artificielle
Techniques de simulation
…
Les systèmes hybrides ne sont pas tous égaux




Un système hybride peut être bon ou mauvais, selon le
choix et les rôles de ses composantes
Lotfi Zadeh est réputé avoir dit qu’un bon système
hybride combine les qualité de la police britannique, de
la mécanique allemande, de la cuisine française, du
système bancaire suisse, et de l’amour italien.
Par contre, la cuisine britannique, la police française, la
mécanique suisse, l’amour allemand et les finances
italiennes seraient un mauvais choix !
Hybridations populaires



Systèmes experts neuronaux
Systèmes neuro-flous, neuro-génétiques, flous-génétiques
On peut aussi sauter du bateau : neuro-HMM, HMM-flou,
neuro-bayesien…
Types d’hybridation

Modèles séquentiels




Modèles à auxiliaire




Entrée  Paradigme 1  Sortie

Paradigme 2 (appelé par 1)
Ex. : AG qui règlant les poids d’un RNA.
Forme d’hybridation plus poussée
Modèles imbriqués




Entrée  Paradigme 1  Paradigme 2  sortie
Ex. : un module statistique passe ses résultats à un RNA.
Forme la plus faible d’hybridation
Entrée  Paradigme 1 + Paradigme 2  sortie
Ex. : un système neuro-flou où le RNA est imbriqué dans le
système flou.
Forme absolue d’hybridation
Les modèles peuvent être combinés pour créer des
paradigmes plus complexes.
Systèmes experts connexionistes



Les systèmes experts reposent sur l’inférence logique et les
arbres de décision pour modeler le raisonnement humain ; le
savoir réside dans des règles individuelles qui sont visibles et
compréhensibles pour l’usager. Le problème est de les trouver
et de s’assurer de leur généralité s’application.
Les réseaux de neurones modèlent le cerveau lui-même par
une architecture parallèle de traitement de l’information ; le
savoir est distribué et réside dans des poids synaptiques que
l’on sait calculer. Le problème est d’expliquer le processus
cognitif sous jacent.
Pourquoi ne pas compenser les faiblesses de l’un par les
qualités de l’autres ?
Le raisonnement approximatif



Dans un système expert classique, le moteur d’inférence
applique l’antécédent de chaque règle aux données de sa
base de connaissances. Lorsqu’il y a appariement, le
conséquent est exécuté. L’appariement doit être exact.
Dans un système expert connexionniste, le moteur d’inférence
utilise une base de connaissances neuronale pour arriver à un
appariement approximatif
Le résultat est que les données d’entrée n’ont plus à
correspondre exactement aux données d’apprentissage pour
que les règles soient activées, d’où un raisonnement
approximatif.
Structure d’un système expert connexionniste
Données d’apprentissage
Base de connaissances neuronale
Données
d’entrée
Extraction de règles
Règle: IF - THEN
Moteur d’inférence
Facilités explicatives
Interface usager
Usager
La base de connaissances neuronale
Ailes
+1
-0.8
Queue
0
Règle 1
Oiseau
1.0
-1.6 -0.7
+1
-0.2
Bec
-1.1
-0.1
Règle 2
2.2
+1
Avion
1.0
0.0
1
-1.0
Plumes
2.8
+1
-1.6
-2.9
1
Moteur
-1.1 1.9
Règle 3
Aéroplaneur
1.0
1
-1.3
• Les poids déterminent la force/l’importance des neurones associés au règles
• Valeurs d’entrée = +1 (vrai), 1 (faux), or 0 (indéterminé),


Avec les valeurs d’entrée +1 (vrai), 1 (faux), ou 0 (indéterminé),
il est possible de donner une interprétation sémantique à
l’activation de tout neurone de sortie.
Ex. : Si l’objet d’entrée possède des ailes (+1), un bec (+1) et des
plumes (+1), mais pas de moteur (1), nous pouvons conclure q’il
s’agit d’un oiseau (+1) :
X Règle1  1  ( 0.8 )  0  ( 0.2 )  1  2.2  1  2.8  ( 1 )  ( 1.1 )  5.3  0
YRègle1  YOiseau  1
Nous pouvons conclure de manière similaire qu’il ne s’agit pas d’un
avion :
X Règle 2  1  ( 0.7 )  0  ( 0.1 )  1  0.0  1  ( 1.6 )  ( 1 )  1.9  4.2  0
YRègle 2  YAvion  1
Ou d’un aéroplane :
X Rule 3  1 (0.6)  0  (1.1)  1 (1.0)  1 (2.9)  (1)  (1.3)  4.2  0
YRègle 3  YAeroplaneur  1
• Importance de chaque lien synaptique
• Heuristique : inférence positive si l’activation d’un neurone de
sortie due aux entrées connues est plus importante que la
somme des valeurs absolues des poids rattachés aux entrées
inconnues :
n
n
 xi wi   w j
i 1
j 1
i  entrées connues, j  entrées connues et n = nombre d’entrées
•
Exemple :
Entrer la valeur de l’entrée Plumes :
 +1
CONNU = 12.8 = 2.8
UNCONNU = 0.8+0.2+2.2+1.1= 4.3  CONNU  INCONNU
Entrer la valeur de l’entrée Bec :
 +1
CONNU = 12.8 + 12.2 = 5.0
UNCONNU = 0.8+0.2+1.1= 2.1  CONNU  INCONNU
CONCLUSION: OISEAU est VRAI
Comment trouver les poids ?
• Il faut d’abord définir la topologie correspondante aux règles
• Ensuite on applique un algorithme d’apprentissage approprié
(e.g. retropropagation)
Rule 1:
IF a1 AND a3 THEN b1 (0.8)
Rule 5:
IF a5 THEN b3 (0.6)
Rule 2:
IF a1 AND a4 THEN b1 (0.2)
Rule 6:
IF b1 AND b3 THEN c1 (0.7)
Rule 3:
IF a2 AND a5 THEN b2 (-0.1)
Rule 7:
IF b2 THEN c1 (0.1)
Rule 4:
IF a3 AND a4 THEN b3 (0.9)
Rule 8:
IF b2 AND b3 THEN c2 (0.9)
Input
Layer
a1
Conjunction
Layer
1.0
R1
1.0
a2
1.0
R2
Disjunction
Layer
Conjunction
Layer
0.8
0.2
b1
1.0
R6
1.0
a3
1.0
R3
-0.1
b2
1.0
a4
1.0
R4
0.9
R5
0.6
1.0
a5
1.0
Disjunction
Layer
b3
1.0
1.0
1.0
1.0
0.7
0.1
c1
R7
0.9
R8
c2
Comment trouver les règles minimales ?
• Trouver et ordonner les poids contributeurs (ceux qui ne
diminuent pas le résultat)
• Identifier les antécédents en partant du poids le plus fort
Ailes
+1
-0.8
Queue
0
Règle 1
Oiseau
1.0
-1.6 -0.7
+1
-0.2
Bec
-1.1
-0.1
Règle 2
2.2
+1
Avion
1.0
0.0
1
-1.0
Plumes
2.8
+1
-1.6
-2.9
1
Moteur
Plumes : 2.8 (1 2.8=2.8)
Bec : 2.2
(1 2.2=2.2)
Moteur : 1.1 (-1 -2.1=2.1)
Queue : 0.2 (0 -0.2=0)
Ailes : 0.8 (1 -0.8= - 0.8)
-1.1 1.9
Règle 3
Aéroplaneur
1.0
1
-1.3
Entrer la valeur de l’entrée Plumes :
 +1
CONNU = 12.8 = 2.8 UNCONNU =0.8+0.2+2.2+1.1= 4.3
 CONNU  INCONNU
Entrer la valeur de l’entrée Bec :
 +1
CONNU = 12.8+12.2=5.0 UNCONNU=0.8+0.2+1.1=2.1 CONNU  INCONNU
CONCLUSION: SI plumes ET bec ALORS oiseau
Système neuro-flous


Combine les traitement parallèle et les capacités d’apprentissage
des réseaux de neurones avec les raisonnement anthropomorphique et les capacités d’explication des systèmes flous : Les
RNA deviennent plus transparents, les systèmes flou acquièrent la
capacité d’apprendre.
La topologie du RNA est fonctionnellement équivalente à celle
d’un modèle d’inférence flou, et on peut l’entraîner à :




développer des règles floues SI-ALORS
trouver les fonctions d’appartenance de variables d’entrées/sorties
en partant d’un ensemble de données représentatives.
On peut aussi y inclure les connaissances d’un expert.
Structure similaire à un PMC : 1 couche d’entrée, 1 couche de
sortie et 3 couches cachées pour les fonctions d’appartenance et
les règles.
Architecture d’un système neuro-flou
Couche 1
Entrée
Couche 2
Flouïfication
x1
x1
x1
x1
Couche 3
Conjonction
A1 A1
R1
A2 
A2
R2
Couche 4
Disjonction
R1
R2
wR3
A3 A3
B1 B1
R3 R3
R4 R4
x2
x2
x2
B2
B2
R5
R5
x2
B3
B3
Couche 5
Déflouïfication
(sortie)
R6
R6
C1
wR6
C1

wR1
wR2
wR4
wR5
C2
C2
y
Couche 1 : Agit comme un tampon qui transmet simplement les
données d’entrée à la couche de flouïfication. On a :
yi(1)  xi(1)
Couche 2 : Les neurones de cette couche réalisent chacun un
ensemble flou qui servira dans les antécédents des règles. Chaque
neurone reçoit une valeur d’entrée précise et génère son degré
d’appartenance à l’ensemble flou représenté par le neurone.
Dans le cas d’ensembles flous triangulaires, on peut utiliser des
fonctions d’appartenance de même forme qui sont définies par deux
paramètres {a, b} :

if xi( 2)
0,

 2 xi( 2)  a
b
b

 1 
, if a   xi( 2)  a 
b
2
2

b

( 2)
0
,
if
x

a

i

2

b
a
2
yi( 2)


1
1
a = 4, b =6
a = 4.5, b =6
a = 4, b =6
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
1
2
3
4
5
6
7
(a) Effect of parameter a.
8
X
a = 4, b =4
0
0
1
2
3
4
5
6
7
(b) Effect of parameter b.
8
X
Couche 3 : Elle réalise les conjonctions des antécédents de règles
floues. Chaque neurone dans la couche reçoit comme entrée les
degrés d’appartenance définis dans la couche 2. L’intersection floue
est réalisée avec l’opérateur produit :
yi(3)  x1(i3)  x2(3i )    xk(3i )
(3)
yR
1   A1   B1   R1
Couche 4 : Elle réalise les disjonctions des antécédents de règles
floues. Chaque neurone dans cette couche reçoit comme entrée les
degrés d’appartenance définis dans la couche 3. L’union floue est
réalisé à l’aide de l’opérateur ou probabiliste :
yi( 4)  x1(i4)  x2( 4i )    xli( 4)
(4)
yC
1   R3   R6  C1
C1 représente la force combinée des conjonctions implémentées par
les neurones R3 et R6.
Couche 5 : Chaque neurone dans cette couche prend les ensembles
flous précédent, écrêtés par la force des règles correspondantes, et
les combine en un seul ensemble flou. Ce dernier est alors déflouïfié
par une méthode standard.
Entraînement d’un système neuro-flou
• On utilise un algorithme de RNA (e.g. retropropagation)
• Exemple :
1
Y
0
1
1
0
0
Mise en oeuvre avec un système neuro-flou à 5 règles
S
x2
1
1
0.99
wR5
0.8
2
0
S
3
S
x2
4

0.72
0.61
L
y
Weight
L
wR1
0.6
wR3
wR4
0.4
wR2
0.2
0.79
L
5
0
0
10
20
30
40
Epoch
(a) Five-rule system.
(b) Training for 50 epochs.
Noter que le système a seulement retenu 4 règles !
50
Inclusion de connaissance a priori




L’inclusion de connaissances du domaine (e.g.
intervention d’un expert) peut améliorer
considérablement l’apprentissage, surtout lorsque les
données sont rares et peu représentatives.
Cependant, un expert peut se tromper, ou encore fournir
des règles redondantes !
Le système devrait être capable d’identifier les
mauvaises règles et corriger la situation.
Exemple du ou-exclusif


Un expert distrait suggère 8 règles avec des poids initiaux de 0.5
pour les couches 3 et 4.
Après l’apprentissage, on élimine les règles dont le poids de
sortie (facteur de certitude) est < 0.1.
Solution du problème du ou-exclusif avec 8 règles
S
x1
L
1
2
0.78
3
0.69
4
5
S
x2
6
7
L
8
0.8
0
wR2 wR8
0.7

0
0.62
wR3
0.6
S
y
0.5
0.4
0.3
0
0
0.80
L
wR5
wR6 & wR7
0.2
0.1
0
0
wR1
wR4
10
20
30
40
50
Epoch
(a) Eight-rule system.
(b) Training for 50 epochs.
Comme seulement 4 règles sont requises normalement, le système élimine
les règles excédentaires.
ANFIS: Adaptive Neuro-Fuzzy Inference System

Modèle de génération automatique de règles floues basé
sur le modèle d’inférence de Sugeno :
IF x1 is A1 AND x2 is A2 . . . AND xm is Am
THEN y = f (x1, x2, . . . , xm)

où x1, x2, . . . , xm sont des variables d’entrée et A1, A2, . . . ,
Am sont des ensembles flous.
Lorsque :


y= constante, on obtient un modèle de Sugeno d’ordre zéro. Le
conséquent d’une règle est un singleton.
y est une combinaison linéaire des entrées :
y = k0 + k1 x1 + k2 x 2 + . . . + km xm
on obtient un modèle de Sugeno de premier ordre.
Architecture du réseau ANFIS
Couche 1
Entrée
Couche 2
Flouïfication
Couche 3
Règles floues
Couche 4
Normalisation
x1
Couche 6
Couche 5
Déflouïfication Sommation
x2
(sortie)
A1
1
N1
1
A2
2
N2
2
x1

B1
3
N3
3
B2
4
N4
4
x2
y
Couche 1 : Tampon pour les données d’entrée
Couche 2 : Neurones de flouïfication pour les
antécédents des règles. Dans le modèle de Jang, les
fonctions d’appartenance sont des gaussiennes.
Couche 3 : Chaque neurone correspond à une règle floue
de Sugeno. il reçoit les sorties des neurones de
flouïfication et calcule son activation. La conjonction
des antécédents est réalisée avec l’opérateur produit.
Ainsi, la sortie du neurone i de la couche 3 est donnée
par
k
yi(3)   x (ji3)
j 1
et
y(3) = A1  B1 = 1,
1
où 1 represente le degré de vérité de Règle 1.
Couche 4 : Chaque neurone calcule le degré de vérité
normalisé d’une règle floue donnée. La valeur obtenue
représente la contribution de la règle floue au résultat
final. Ainsi la sortie du neurone i de la couche 4 est :
yi( 4) 
xii( 4)
n

x (ji4)
j 1

i
n
 j
 i
( 4)
yN
1 
1
 1
1   2  3   4
j 1
Couche 5 : Chaque neurone i de cette couche est relié à
un neurone de normalisation correspondant et aux
entrées initiales du réseau. Il calcule le conséquent
pondéré de la règle sous jacente comme étant
yi(5)  xi(5) ki 0  ki1 x1  ki 2 x 2  i ki 0  ki1 x1  ki 2 x 2
où les Xi sont les entrées, et ki0, ki1 et ki2 sont des
paramètres du conséquent de la règle i.
Couche 6 : Comprend un seul neurone qui fournit la sortie
de ANFIS en calculant la somme des sorties de tous les
neurones de déflouïfication.
n
n
i 1
i 1
y   xi(6)   i ki 0  ki1 x1  ki 2 x 2
Entraînement d’un réseau ANFIS



Algorithme à deux temps où on estime d’abord les
paramètres des conséquents par une technique de
moindres carrés et ensuite les poids du réseau par une
descente de gradient.
Chaque époque d’entraînement comprend une passe avant
et une passe arrière. Durant la passe avant, les patrons
d’entrée servent à déterminer les sorties des neurones
couche par couche, permettant de déterminer les valeurs
des paramètres de conséquents en bout de compte.
Durant la passe arrière, l’algorithme de retropropagation
d’erreur est appliqué pour régler les poids des différentes
couches.
Détermination des paramètres des conséquents

Partant de P paires d’apprentissage, on peut former P
équations linéaires en fonction des paramètres des
conséquents :
 yd (1)  (1) f(1)  (1) f(1) 

 yd (2)  (2) f(2)  (2) f(2) 



 yd (p)  (p) f(p)  (p) f(p) 



 y (P)   (P) f (P)   (P) f (P) 




 d
  n(1) fn(1)
  n(2) fn(2)
  n(p) fn(p)
  n(P) fn(P)
où  i est la valeur moyenne de i, et fi() est la fonction de
sortie dont on veut déterminer les paramètres.

On peut écrire l’équation précédente sous la forme yd = A k,
où yd est un vecteur désiré de dimension P  1 :
 yd (1) 


 yd (2) 


yd     ,
y (p) 
 d 
  
yd (P)
(1)

(2)

A   
(p)
 

 (P)
 
(1) x(1)  (1) xm(1)  n(1)  n (1) x(1)   n (1) xm(1) 


(1) x(2) (2) xm(2)  n(2)  n (2) x(2)   n (2) xm(2) 


 







(p) x(p) (p) xm(p)  n(p)  n (p) x(p)   n (p) xm(p) 


 






n(P)  n (P) x(P)  n (P) xm(P)
(P) x(P) (P) xm(P)
et k est le vecteur des paramètres de conséquent inconnus
de dimension n (1 + m)  1 :
k = [k10 k11 k12 … k1m k20 k21 k22 … k2m … kn0 kn1 kn2 … kn m]T
 On a donc :
k = A-1 yd (en pratique k=(AtA)-1At yd )



Une fois le vecteur k déterminé, le vecteur de sortie du
réseau y peut être calculé ainsi que le vecteur d’erreur
associé, e :
e = yd  y
Lors de la passe arrière, l’algorithme de
retropropagation d’erreur est appliqué pour mettre à jour
les poids des antécédents des règles.
Dans l’algorithme ANFIS de Jang, on optimise aussi
bien les paramètres de antécédents que ceux des
conséquents. Durant la passe avant, les paramètres des
conséquents sont adaptés alors que les paramètres des
antécédents sont maintenus constants ; durant la passe
arrière, les rôles sont échangés.
Approximation de fonctions avec ANFIS

Ex. : suivre la trajectoire définie par la fonction
non-linéaire définie par
y


cos( 2 x1)
e x2
Détermination de l’architecture :
 Deux entrées, x1 and x2, et une sortie, y.
 Chaque entrée possède deux valeurs
linguistiques
Donc le réseau ANFIS possède quatre règles.
Modèle ANFIS avec quatre règles
Layer 1
Layer 2
Layer 3
Layer 4
A1
1
N1
1
A2
2
N2
2
x1 x2
Layer 5
Layer 6
x1

B1
3
N3
3
B2
4
N4
4
x2
y
Apprentissage du réseau




L’ensemble d’apprentissage comprend 101
échantillons représentés par 101 triplets
[x1 x2 yd]
X1 va de 0 à 10 par pas de 0.1
X2 = sin(x1) pour donner des paires [x1 x2] qui
sont raisonnablement distribuées
yd, est déterminé en solvant l’équation.
Apprentissage sur 1 période
y
Training Data
ANFIS Output
2
1
0
-1
-2
-3
1
0.5
10
8
0
6
4
-0.5
x2
-1
2
0
x1
Apprentissage sur 100 périodes
y
Training Data
ANFIS Output
2
1
0
-1
-2
-3
1
0.5
10
8
0
6
4
-0.5
x2
-1
2
0
x1
On peut améliorer la précision d’approximation en
augmentant le nombre de valeurs linguisitques
par entrée. Par exemple, pour 3 valeurs on
obtient un réseau ANFIS à 9 règles :
x1 x2
A1
x1
A2
A3
B1
x2
B2
B3
1
N1
1
2
N2
2
3
N3
3
4
N4
4
5
N5
5
6
N6
6
7
N7
7
8
N8
8
9
N9
9

y
Apprentissage sur 1 période en utilisant 3
fonctions d’appartenance par variable d’entrée
y
Training Data
ANFIS Output
2
1
0
-1
-2
-3
1
0.5
10
8
0
6
4
-0.5
x2
-1
2
0
x1
Apprentissage sur 100 périodes en utilisant 3
fonctions d’appartenance par variable d’entrée
y
Training Data
ANFIS Output
2
1
0
-1
-2
-3
1
0.5
10
8
0
6
4
-0.5
x2
-1
2
0
x1
Fonctions d’appartenance initiales et finales
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
1
2
3
4
5
6
7
8
9
10
0
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
x1
1
x2
(a) Initial membership functions.
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
1
2
3
4
5
6
7
8
9
10
0
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
x1
(b) Membership functions after 100 epochs of training.
0.8
1
x2
Et pourquoi pas « neuroniser » un arbre de
décision flou ?

Arbre de classification/régression neuro-flou
A1
…
An
RNA de Flouïfication
…
DIT grand
Arbre de
décision flou
0.65
0.35
NOM grand
CLD petit
0.2
0.8
0
0.2
0.7
1
0.65
0.3
1
0.35
0
0.3
RNA de Déflouïfication
Valeur/classe prédite
Flouïfication
• Processus en deux étapes :
• Trier les données par catégories (grand- petit) :
Carte de Kohonen
• Décider de la forme et des points remarquables
des fonctions d’apparenance : Morphologie
mathématique
Données
d’entrée
SOM
Classification
symbolique
Filtre à
morphologie
mathématique
Fonctions
d’appartenance
Déflouïfication
• Perceptron
Téléchargement