Telechargé par Sonia Guehria

1.Classificateurs basés sur un ensemble ML

publicité
Classificateurs basés sur un ensemble
Première connexion: 10 août 2016
Abstrait
Les méthodes de classification fondées sur la formation de plusieurs modèles avec un certain degré
d'hétérogénéité, puis l'agrégation de leurs prédictions selon une stratégie particulière ont tendance à être
une solution très efficace. Les ensembles ont également été utilisés pour surmonter certains obstacles
spécifiques, tels que la répartition déséquilibrée des classes. L'objectif de ce chapitre est de présenter
plusieurs solutions basées sur des ensembles multi-étiquettes.
La section 6.1 présente cette approche.
Des ensembles de classificateurs binaires sont décrits dans Sect. 6.2 ,
tandis que celles basées sur des méthodes multiclasses sont décrites dans la section. 6.3 .
D'autres types d'ensembles seront brièvement décrits dans Sect. 6.4 .
Certaines de ces solutions sont testées expérimentalement dans Sect. 6.5, analysant leurs performances
prédictives et leur durée de fonctionnement.
Enfin, Sect. 6.6 résume le chapitre.
Mots clés : Méthode d'ensemble Classificateur binaire Classificateur Chaîne de classification Paire
d' étiquettes Classement des étiquettes
6.1 Introduction
La conception d'ensembles de classificateurs, qu'ils soient fondés sur des modèles de classification
binaires, multiclasses ou hétérogènes, est l'une des approches les plus courantes pour faire face aux tâches
de classification multi-étiquettes. L'utilisation d'ensembles de classificateurs, ainsi qu'une stratégie pour
joindre leurs prédictions individuelles, s'est avérée très efficace dans la classification traditionnelle, c'était
donc une autre voie claire à explorer pour classer les données multi-étiquettes.
Certaines des méthodes basées sur la transformation et sur l'adaptation discutées dans les chapitres
précédents sont des ensembles en soi. Par exemple, la transformation de base de BR pourrait être
considérée comme un simple ensemble de classificateurs binaires avec une stratégie très simple pour
fusionner leurs prédictions individuelles.
En plus des ensembles simples mentionnés dans les chapitres précédents, dans celui-ci, un examen des
ensembles plus avancés basés sur des classificateurs binaires, des classificateurs multiclasses et d'autres
types de combinaisons est fourni. Près d'une douzaine de propositions trouvées dans la littérature seront
présentées. Quatre d'entre eux seront testés et comparés expérimentalement.
6.2 Ensembles de classificateurs binaires
La transformation de base des données BR qui forme un classificateur binaire indépendant pour chaque
étiquette et colle ensuite les prédictions pour produire le jeu d'étiquettes prévu (voir la section 4.3 ) est
peut-être l'ensemble MLC le plus simple. Il existe de nombreux autres ensembles également basés sur des
classificateurs binaires, suivant parfois une stratégie OVA et d'autres recourant aux techniques OVO.
Dans Sect. 4.3.2 , une fois la transformation de base BR décrite, quelques ensembles simples basés sur
des classificateurs binaires, tels que 2BR [ 1 ], BR + [ 2 ] et CC [ 3 ], ont également été introduits. Le but
de cette section est de compléter l'aperçu des méthodes MLC basées sur des ensembles de classificateurs
binaires.
6.2.1 Ensemble de chaînes de classificateurs, ECC
L'une des faiblesses de CC, déjà mentionnée au chap. 4 , est le fait que les classificateurs qui font la
chaîne sont choisis dans un ordre spécifique. Étant donné que la disposition de la chaîne influence les
informations fournies à chaque classificateur, toute modification de l'ordre peut également avoir un
impact important sur les résultats finaux. C'est la raison pour laquelle les auteurs proposent dans le même
article [ 3 ] la méthode ECC ( Ensemble of Classifier Chains ), un ensemble de classificateurs CC
utilisant un tri différent des modèles binaires dans chacun d'eux.
Étant donné que CC est un ensemble en soi, ECC peut être considéré comme un ensemble d'ensembles. Si
toutes les données de formation étaient utilisées dans chaque unité CC, la construction du modèle ECC
complet prendrait très longtemps pour les MLD de grande taille. Par conséquent, seul un sous-ensemble
aléatoire des échantillons d'apprentissage est utilisé dans chaque CC, et l'ordre des étiquettes dans chacun
d'eux est également établi de manière aléatoire. Bien que CC soit intrinsèquement un algorithme
séquentiel, puisque chaque classificateur binaire a besoin des sorties des précédents de la chaîne, ECC
peut être facilement parallélisé.
La classification d'une nouvelle instance avec ECC implique de passer par tous les classificateurs CC,
d'obtenir un ensemble de prédictions pour chaque étiquette. Ceux-ci sont pris comme votes pour chaque
étiquette, produisant un classement d'étiquette. Enfin, un seuil est appliqué pour obtenir la prédiction
multilabel finale.
6.2.2 Classement par comparaison par paires, RPC
Contrairement à CC / ECC, l'approche suivie par RPC ( Classement par comparaison par paires ) [ 4 ] est
OVO au lieu d'OVA. Cela signifie qu'un modèle binaire est créé pour chaque paire d'étiquettes,
augmentant ainsi le nombre total de classificateurs à former à . Des perceptrons linéaires ont été utilisés
comme classificateurs de base pour chaque paire d'étiquettes. Chaque classificateur détermine si une
certaine étiquette est au-dessus ou en dessous de l'autre, en les apprenant comme préférences pour chaque
échantillon de données. En joignant les résultats de tous ces prédicteurs, un classement global des
étiquettes est généré.k ( k - 1 ) / 2k(k−1)/2
Les auteurs proposent également dans le même article une amélioration du RPC nommée CMLPC
(Calibulated Pairwise Multilabel Perceptron ). Cet algorithme est basé sur une méthode précédente
appelée MLPC, qui s'appuie sur un perceptron pour effectuer des comparaisons par paires entre les
étiquettes.
6.2.3 Classement des étiquettes calibrées, CLR
CLR ( Calibulated Label Ranking ) est un ensemble de classificateurs binaires proposés dans [ 5 ]. C'est
une extension de RPC; par conséquent, il suit également l'approche OVO, apprenant à différencier la
pertinence des paires d'étiquettes.
En plus des véritables étiquettes définies dans chaque MLD, CLR introduit dans le processus une
étiquette virtuelle. Il est pris comme point de référence qui vise à calibrer le classificateur final, en
séparant les étiquettes pertinentes des étiquettes non pertinentes. Ces étiquettes apparaissant dans le
classement au-dessus de l'étiquette fictive seront dans la prédiction finale, tandis que les autres ne le
seront pas. De cette façon, CLR est une solution MLC complète, capable de produire une bipartition avec
le jeu d'étiquettes prévu. Par comparaison, RPC ne produit qu'un classement d'étiquette, auquel un certain
seuil doit être appliqué pour produire la prédiction finale.
6.3 Ensembles de classificateurs multiclasses
La deuxième approche principale de transformation des données est LP, et elle a également servi de base
à plusieurs méthodes d'ensemble MLC. LP par lui-même transforme n'importe quel MLD en un ensemble
de données multiclasses, de sorte que le problème peut être confronté à un seul classificateur et il n'est pas
nécessaire d'avoir un ensemble, comme dans BR. Cependant, l'approche LP de base doit faire face à
d'autres types de problèmes, tels que le grand nombre de combinaisons potentielles et, par conséquent, la
rareté des échantillons représentant chaque classe produite.
Afin d'atténuer l'explosion combinatoire lorsque le LP est appliqué aux MLD ayant de grands ensembles
d'étiquettes, la méthode PS (voir la section 4.4.1 ) propose une stratégie d'élagage qui élimine les
combinaisons peu fréquentes. La plupart des ensembles MLC basés sur des classificateurs multiclasses
suivent une approche similaire, obtenant des sous-ensembles d'étiquettes pour réduire le nombre de
combinaisons obtenues.
6.3.1 Ensemble d'ensembles taillés, EPS
La méthode Ensemble of Pruned Sets [ 6 ] est basée sur l'algorithme PS décrit dans Sect. 4.4.1 . Il
forme m (un paramètre définissable par l'utilisateur) classificateurs PS indépendants, en utilisant un sousensemble aléatoire des données d'apprentissage, généralement 63% des échantillons disponibles, pour
chacun.
La nouveauté la plus remarquable de l'EPS est l'introduction d'un système de vote qui permet de prédire
de nouvelles combinaisons d'étiquettes, même si elles n'apparaissent pas dans les données de
formation. Les prédictions de chaque classificateur PS sont combinées et un seuil est appliqué pour
décider quelles étiquettes seront pertinentes dans le jeu d'étiquettes final. Par conséquent, EPS atteint
l'exhaustivité qui manque LP et PS.
6.3.2 K-Labelsets aléatoires, RAkEL
Random k-Labelsets [ 7 ] est une méthode qui génère des sous-ensembles aléatoires d'étiquettes,
entraînant un classificateur multiclasse pour chaque sous-ensemble. De cette façon, les problèmes décrits
dans Sect. 4.4.1 pour l'approche LP sont généralement évités, faisant face à moins de combinaisons
potentielles tout en conservant les informations de corrélation des étiquettes.
RAkEL prend deux paramètres essentiels, m et k . Le premier définit le nombre de classificateurs à former
et le second la longueur des jeux d'étiquettes à générer. Avec et , RAkEL fonctionne comme la
transformation BR. De l'autre côté, avec et le modèle obtenu sera équivalent à LP. Les valeurs
intermédiaires pour les deux paramètres sont les plus intéressantes, produisant un ensemble de votes pour
chaque étiquette qui produit un classement d'étiquette.k = 1k=1m = | L |m=|L|m = 1m=1k = | L |k=|L|
6.3.3 Hiérarchie des classificateurs à étiquettes multiples, HOMER
Introduit dans [ 8 ], Hierarchy Of Multilabel classifiERs est un algorithme conçu pour traiter les MLD
ayant un grand nombre d'étiquettes. La méthode forme un classificateur LP avec les instances disponibles,
puis les sépare en plusieurs groupes s'appuyant sur un algorithme de clustering. Chaque groupe, avec un
sous-ensemble des étiquettes, produit un nouveau classificateur plus spécialisé.
L'étape précédente est répétée de manière itérative, de sorte que chaque groupe est divisé en plusieurs
sous-groupes plus petits. Le nombre d'itérations dans ce processus est un paramètre défini par l'utilisateur
donné en entrée à l'algorithme. Lorsqu'un échantillon de test arrive, il traverse la hiérarchie depuis sa
racine, où le classificateur le plus général fait son travail, jusqu'aux feuilles, en passant par les nœuds
intermédiaires activés par la prédiction donnée par le niveau immédiatement supérieur.
6.4 Autres ensembles
En plus des ensembles purement basés sur des classificateurs binaires ou multiclasses, avec différentes
variations des transformations de données BR et LP comme cela a été montré, dans la littérature, on
trouve d'autres stratégies d'ensemble MLC. Plusieurs d'entre eux sont décrits ci-dessous:
CDE : Les auteurs de l'algorithme ChiDep [ 9 ], décrits dans Sect. 4.4.2 , a également proposé
CDE ( ChiDep Ensemble ), un ensemble MLC basé sur les classificateurs ChiDep. La méthode
commence par générer un grand ensemble de combinaisons d'étiquettes aléatoires; ensuite, le est calculé

pour chacun d'eux. Un paramètre m établit le nombre de ces labelsets qui seront utilisés pour former les
classificateurs individuels de l'ensemble, chacun suivant l'approche ChiDep. χ2χ2
RF-PCT : Cette méthode, introduite dans [ 10 ], repose sur des arbres de décision multiobjectifs
comme classificateur de base. Chaque arbre est capable de prédire plusieurs sorties à la fois, étant une
variante des PCT ( Predictive Clustering Trees ). L'ensemble est construit selon la stratégie de la forêt
aléatoire, d'où la dénomination RF-PCT ( Random Forest of Predictive Clustering Trees ). Comme
d'habitude dans la forêt aléatoire, les techniques d'ensachage sont utilisées pour augmenter la diversité
parmi les classificateurs obtenus, en utilisant différents sous-ensembles des attributs d'entrée pour chaque
arbre.


EML : Contrairement à d'autres ensembles MLC, la proposition EML ( Ensemble of Multilabel
Learners ) [ 11 ] repose sur un ensemble hétérogène de classificateurs MLC, au lieu d'un groupe
homogène de binaires, multiclasses ou d'autres types de classificateurs. MLC utilise les données de
formation pour préparer cinq modèles différents, tels que ECC, ML-kNN, IBLR-ML, RAkEL et
CLR. Ensuite, leurs résultats sont combinés en utilisant différentes stratégies de vote. Le principal
inconvénient d'EML est sa complexité de calcul, car plusieurs de ses classificateurs sous-jacents, tels que
ECC, RAkEL et CLR, sont des ensembles en eux-mêmes.
CT : Bien que des propositions telles que ECC et BCC, toutes deux basées sur des chaînes de
classificateurs, atteignent une bonne performance prédictive, le processus pour découvrir la meilleure
structure pour les chaînes prend du temps. La méthode proposée dans [ 12 ], nommée CT ( Classifier
Trellis ), définit un treillis comme structure a priori pour l'ensemble, au lieu de le déduire des
données. Sur cette structure fixe, l'ordre des étiquettes est ajusté en se basant sur une heuristique simple
qui évalue la fréquence entre les paires d'étiquettes. L'objectif était d'améliorer l'évolutivité des méthodes
basées sur la chaîne tout en maintenant leurs performances.

En prenant comme base certains des ensembles susmentionnés, certains ajustements dans le processus de
vote ont également été proposés. C'est le cas du DLVM ( Dual Layer Voting Method ) [ 13 ] et du QCLR
( QWeighted CLR ) [ 14 ], tous deux visant à améliorer les résultats de la classification grâce à une
meilleure stratégie pour fusionner les prédictions individuelles. De même, certaines études se sont
concentrées sur les méthodes pour améliorer la fixation du seuil appliqué aux classements des labels,
telles que publiées dans [ 15 ].
6.5 Méthodes d'ensemble en pratique
Une fois que la plupart des méthodes d'ensemble multimarques actuellement disponibles ont été
introduites, l'objectif de cette section est de mettre en pratique certaines d'entre elles. Les quatre suivants,
peut-être les plus populaires, ont été sélectionnés. Tous sont disponibles dans les progiciels MULAN ou
MEKA décrits au Chap. 9 .
ECC : C'est l'un des premiers ensembles multi-étiquettes binaires qui prend en compte les
dépendances des étiquettes, et il a été le fondement de quelques autres.
 EPS : Cet ensemble basé sur un jeu d'étiquettes, fondé sur la méthode de transformation PS, est
capable de prédire des combinaisons d'étiquettes qui n'ont pas été vues dans les données d'apprentissage.
 RAkEL : Un algorithme d'ensemble classique pour faire face à la classification multi-étiquettes en
utilisant des sous-ensembles aléatoires d'étiquettes.
 HOMER : Il s'agit d'un ensemble multi-étiquettes spécialement conçu pour fonctionner avec des MLD
ayant de grands ensembles d'étiquettes.

Ces quatre ensembles multi-étiquettes ont été testés en utilisant la configuration expérimentale expliquée
dans la section suivante. Les résultats obtenus sont présentés et discutés dans Sectes. 6.5.2 et 6.5.3 .
6.5.1 Configuration expérimentale
Les quatre méthodes d'ensemble multimarques sélectionnées pour cette expérimentation sont basées sur la
transformation, elles ont donc besoin d'un classificateur sous-jacent pour accomplir chaque tâche de
classification binaire ou multiclasse. Comme nous l'avons fait pour tester les méthodes basées sur la
transformation multi-étiquettes décrites au Chap. 4 , l' algorithme d'induction d'arbre C4.5 [ 16 ] a été
choisi pour ce travail. Des valeurs par défaut ou recommandées ont été utilisées pour tous les paramètres
des méthodes.
Chaque méthode d'ensemble multimarque a été exécutée en utilisant cinq MLD. Ce
sont corel16k , reuters , 1 scène , slashdot et levure . Les principaux traits de ces ensembles de données se
trouvent dans les tableaux fournis au Chap. 3 . Les plus basiques sont fournis dans le tableau 6.1 . Selon
leurs valeurs TCS (voir la liste complète dans le tableau 3.5 ), la scène serait le MLD le plus simple de ce
groupe, tandis que corel16k serait le plus complexe.
Tableau 6.1 Traits de base des MLD utilisés dans l'expérimentation
Base de données
n
F
k
Carte
Dens
TCS
corel16k
13 766
500
153
2,885
0,019
19,722
reuters
6 000
500
103
1,462
0,014
17,548
scène
2 407
294
6
1.074
0,179
10.183
slashdot
3 782
1 079
22
1.181
0,054
15.125
Levure
2 417
103
14
4.237
0,303
12,562
Comme dans les chapitres précédents, chaque MLD a été partitionné avec un schéma de validation
croisée . Afin d'évaluer les performances de classification de chaque ensemble, trois mesures basées sur
des exemples ont été utilisées, HLoss (perte de Hamming), F-measure et SubsetAcc (Subset
precision). Les détails sur ces mesures peuvent également être trouvés dans le Chap. 3 . Des valeurs
moyennes ont été obtenues pour chaque métrique à travers les séries pour chaque MLD /
algorithme.2 × 52×5
En plus des mesures de performance prédictives, les temps de formation et de test pour chaque méthode
ont également été obtenus. Cela permettra de comparer les ensembles d'un autre point de vue, le temps
passé à les générer et la vitesse avec laquelle ils sont capables de fournir des prédictions pour de
nouvelles données.
6.5.2 Résultats de la classification
L'analyse des résultats de classification commence par la métrique HLoss , comme
d'habitude. Les valeurs HLoss pour chaque ensemble et MLD ont été tracées sous forme de barres sur la
figure 6.1 . N'oubliez pas que pour HLoss , étant une mesure à minimiser, plus la barre est haute et plus la
performance du classificateur est mauvaise.
Ouvrir l'image dans une nouvelle fenêtre
Fig. 6.1 Résultats de classification évalués avec la perte de Hamming (plus c'est bas, mieux c'est)
À première vue, il semble que les pires résultats correspondent à la scène et à la levure , les deux MLD les
moins complexes, alors qu'avec le corel16k , qui a la plus grande complexité (selon sa valeur TCS ),
apparemment tous les ensembles se comportent assez bien. Cependant, il faut tenir compte du fait
que HLoss est également fortement influencé par le nombre d'étiquettes, et corel16k a bien plus que
des scènes ou des levures . C'est la raison de ces résultats. Néanmoins, HLossles valeurs appartenant au
même MLD mais à un classifieur différent peuvent être comparées. Cela permet de déduire que l'EPS est
toujours plus performant que les autres ensembles. Au contraire, les résultats de l'ECC le placent comme
l'ensemble le plus faible.
Tableau 6.2 Résultats évalués avec Hamming Loss (plus c'est bas, mieux c'est)
Base de données
ECC
EPS
HOMÈRE
RAkEL
corel16k
0,0387
0,0196
0,0271
0,0206
reuters
0,0198
0,0112
0,0146
0,0121
Scène
0,1958
0,0908
0,1407
0.1363
Slashdot
0,0728
0,0440
0,0483
0,0434
Levure
0,3594
0,2042
0,2601
0,2494
Fig. 6.2 Résultats de la classification évalués avec la mesure F (plus il vaut mieux)
Les valeurs exactes de HLoss sont celles indiquées dans le tableau 6.2 . Comme toujours, les meilleures
valeurs ont été mises en évidence en gras. Que l'EPS réalise les meilleurs résultats peut être confirmé, à la
seule exception de slashdot par une petite marge à RAkEL.
La mesure F est une mesure d' évaluation basée sur des exemples qui fournit un bon indicateur global du
comportement du classificateur, car c'est la moyenne harmonique de la précision et du rappel . Les
résultats de la classification évalués avec cette métrique sont présentés sur la figure 6.2 . En regardant les
résultats globaux par ensemble de données, on peut voir que les meilleures performances sont obtenues
avec la scène , tandis que le pire comportement est observé lors du travail avec corel16k . Le premier est
le MLD le plus simple et le second le plus complexe selon le TCSmétrique de caractérisation. En ce qui
concerne les classificateurs, l'EPS est à nouveau le plus performant peut être déduit. Au contraire, l'ECC
semble être celle qui obtient les résultats les plus médiocres. Ainsi, les conclusions seraient les mêmes
tirées des valeurs HLoss .
Les valeurs exactes de la mesure F sont présentées dans le tableau 6.3 . Comme indiqué, toutes les
meilleures valeurs mises en évidence proviennent de l'ensemble EPS. RAkEL et HOMER fonctionnent à
un niveau similaire, avec un léger avantage pour l'un ou l'autre selon le MLD. En général, ECC obtient
les valeurs de mesure F les plus faibles. Par conséquent, en accord avec ces résultats d'expérimentation
limités, la métrique de mesure F indique que l'EPS serait l'ensemble préféré de l'ensemble des quatre
algorithmes testés.
Tableau 6.3 Résultats évalués avec la mesure F (plus c'est élevé, mieux c'est)
Base de données
ECC
EPS
HOMÈRE
RAkEL
corel16k
0,3885
0,5638
0,4440
0,5202
reuters
0,7311
0,8931
0,8048
0,8452
scène
0,7247
0,9656
0,8808
0,8756
slashdot
0,7668
0,9347
0,8940
0,9096
Levure
0,6041
0,6097
0,6149
0,6875
Ouvrir l'image dans une nouvelle fenêtre
Fig. 6.3 Résultats de classification évalués avec une précision de sous-ensemble (plus c'est élevé, mieux c'est)
Comme nous le savons déjà, SubsetAcc est l'une des mesures d'évaluation multi-étiquettes les plus
strictes. Il ne rend compte que des prédictions correctes dans lesquelles le jeu d'étiquettes complet
coïncide avec le vrai. Pour cette raison, SubsetAcc valeurs ont tendance à être assez faible par rapport à
d' autres paramètres, comme mesure F . C'est un fait facilement déductible de la figure 6.3 , où les
valeurs pour corel16k sont presque négligeables. Les résultats pour l'EPS se distinguent avec les reuters ,
la scène et la levure . Les valeurs avec slashdot sont assez similaires pour les quatre méthodes.
En examinant les valeurs brutes de SubsetAcc , fournies dans le tableau 6.4 , on peut comprendre que les
résultats ne sont pas aussi concluants qu'ils l'étaient avec la mesure F. EPS est toujours l'ensemble que les
meilleures valeurs atteignent, mais ECC fonctionne mieux avec slashdot et RAkEL avec corel16k . Il faut
tenir compte du fait que, par la nature de la métrique SubsetAcc , le nombre d'étiquettes sur chaque MLD
a un impact remarquable sur ces résultats.
Tableau 6.4 Résultats évalués avec une précision de sous-ensemble (plus c'est élevé, mieux c'est)
Base de données
ECC
EPS
HOMÈRE
RAkEL
corel16k
0,0059
0,0084
0,0102
0,0112
reuters
0,2720
0,3284
0,2770
0,2868
scène
0,2952
0,6006
0,4260
0,4225
slashdot
0,3105
0,2970
0,2931
0,3012
Levure
0,0536
0.1676
0,0614
0,0689
6.5.3 Temps de formation et de test
Les méthodes d'ensemble nécessitent généralement beaucoup plus de temps de formation que les
algorithmes de classification standard, car elles doivent former plusieurs modèles. Leur structure
influence également le temps passé à élaborer les prévisions pour de nouveaux échantillons de données,
en passant par chaque classificateur individuel et en rassemblant les votes pour obtenir une sortie
unie. Pour ces raisons, il serait intéressant d'analyser les temps de formation et de test pour chaque cas.
Fig. 6.4 Temps d'entraînement en secondes
La figure 6.4 montre les temps d'entraînement pour chaque MLD et ensemble, mesurés en secondes. Le
temps de formation pour les ensembles de données avec moins d'échantillons de données, de scène et
de levure , est presque imperceptible dans cette représentation graphique. Pour les autres arborescences
MLD, RAkEL et EPS apparaissent comme les méthodes qui ont nécessité plus de temps pour être
formées. D'un autre côté, HOMER semble être l'algorithme le plus efficace. Ce fait peut être vérifié en
examinant les valeurs exactes indiquées dans le tableau 6.5 . On peut observer que pour certains MLD,
tels que slashdot , HOMER n'a besoin que d'une fraction du temps utilisé par les autres ensembles. Cela
est cohérent avec la conception de HOMER, dont les auteurs visaient à construire un ensemble capable de
traiter de grandes MLD.
Tableau 6.5 Temps d'entraînement en secondes (plus c'est bas, mieux c'est)
Base de données
ECC
EPS
HOMÈRE
RAkEL
corel16k
3 919
51 761
14 751
57 632
reuters
2 269
29 660
850
17 402
scène
387
514
85
545
slashdot
27 739
33 363
2 851
47 874
Levure
545
463
99
543
En ce qui concerne les temps de test, ils sont bien inférieurs à ceux de formation comme on pourrait s'y
attendre. En fait, ceux correspondant à certains MLD sont presque indétectables sur la figure 6.5 .
Fig. 6.5 Temps de test en secondes
Le tableau 6.6 fournit les valeurs brutes pour chaque combinaison MLD / classifieur. La conclusion qui
peut être tirée de ces chiffres est que HOMER est l'ensemble le plus rapide, à la fois pour la formation et
les tests. Cependant, il n'atteint jamais les meilleurs résultats de classification dans l'expérimentation
succincte menée dans ce chapitre. D'un autre côté, l'EPS produit toujours de bonnes performances de
classement, mais ses temps d'entraînement et de test sont parmi les pires. Dans ce cas, l'efficacité et la
performance prédictive semblent être des objectifs contradictoires.
Tableau 6.6 Temps de test en secondes (plus c'est bas, mieux c'est)
Base de données
ECC
EPS
HOMÈRE
RAkEL
corel16k
510
216
47
128
reuters
43
66
13
36
scène
2
2
2
2
slashdot
24
33
4
24
Base de données
ECC
EPS
HOMÈRE
RAkEL
Levure
3
3
3
2
6.6 Résumé des commentaires
L'une des voies les plus populaires pour faire face à la classification multi-étiquettes consiste à former un
ensemble de classificateurs relativement simples, puis à joindre leurs prédictions pour obtenir le résultat
final. Plusieurs solutions basées sur un ensemble MLC ont été décrites dans les sections précédentes de ce
chapitre. Celles-ci peuvent être considérées comme des propositions plus avancées que les ensembles
référencés dans les chapitres précédents.
Le diagramme de la figure 6.6 résume ces méthodes basées sur un ensemble, en les regroupant selon le
type de classificateur sous-jacent sur lequel elles s'appuient, binaire, multiclasse et d'autres approches. Il
existe même des ensembles composés par d'autres ensembles, comme c'est le cas d'EML qui combine
ECC, CLR et RAkEL entre d'autres méthodes MLC.
Dans la seconde moitié du chapitre, quatre des méthodes d'ensemble référencées ont été testées
expérimentalement. Deux conclusions générales peuvent être tirées de l'analyse des résultats. Le premier
est que, en moyenne, l'EPS est l'ensemble le plus performant en matière de performances prédictives. La
seconde est que l'ensemble le plus rapide, à la fois pour former les classificateurs de base et pour faire la
prédiction finale, est HOMER. Cependant, ces jugements doivent être pris avec un grain de sel, car un
nombre limité de méthodes et de MLD ont été inclus dans les expériences.
Fig. 6.6 Aperçu des méthodes basées sur des ensembles multi-étiquettes
Notes de bas de page
1 .La version de ce MLD ayant les 500 fonctionnalités les plus pertinentes sélectionnées a été utilisée.
Téléchargement
Explore flashcards