Classification d`objets 3D par extraction aléatoire de

publicité
Classification d’objets 3D par extraction aléatoire de
sous-parties discriminantes
pour l’étude du sous-sol en prospection pétrolière
François Meunier∗,∗∗ Christophe Marsala∗ Laurent Castanié∗∗ Bruno Conche∗∗
∗
Sorbonne Universités, UPMC Univ Paris 06,
CNRS, LIP6 UMR 7606, 4 place Jussieu 75005 Paris
∗∗
Total Exploration-Production,
Tour Coupole, La Défense, 2 Place Jean Millier, 92078 Paris
Résumé. Dans cet article, nous proposons une nouvelle approche de classification d’objets 3D inspirée des Time Series Shapelets de Ye et Keogh (2009).
L’idée est d’utiliser des sous-surfaces discriminantes pour la classification concernée afin de prendre en compte la nature locale des éléments pertinents. Cela
permet à l’utilisateur d’avoir connaissance des sous-parties qui ont été utiles
pour déterminer l’appartenance d’un objet à une classe. Les résultats obtenus
confirment l’intérêt de la sélection aléatoire de caractéristiques candidates pour
la pré-sélection d’attributs en classification supervisée.
1 Introduction
Lors du traitement d’éléments complexes, les classifieurs ne donnent généralement pas
de justification permettant de comprendre leurs résultats. Dans le cadre de la classification
supervisée d’objets 3D, cette dernière est très souvent réalisée manuellement par les industriels,
soucieux de comprendre les tenants et aboutissants de leurs études. Cela représente une charge
de travail conséquente, qu’une automatisation de la classification de ces objets 3D faciliterait
grandement, à condition de remplir les contraintes posées par les industriels en termes de
compréhensibilité.
Notre travail se propose de mettre en place un système de classification supervisée d’objets
3D avec justification explicite du résultat fourni. Au sein de ce domaine, les méthodes actuelles
ne permettent pas, sans connaissance préalable, de comprendre quelles sous-parties d’un objet
pourraient être discriminantes dans le cadre de la présence du phénomène étudié, et pourquoi
elles le seraient. Ce problème revient fréquemment en apprentissage, pour lequel la résolution
est perçue du point de vue de l’utilisateur comme une "boite noire" dans laquelle la confiance
ne peut être attribuée que selon ses performances passées. L’intérêt est donc de chercher à
expliquer le résultat de la classification à l’utilisateur afin que celui-ci puisse réellement valider
le modèle et donc l’apport de ce dernier.
Les contraintes du système et donc les conditions d’application de la méthode proposée
sont triples : les éléments d’apprentissage sont des surfaces 3D de maillages triangulaires irréguliers ; la classification est basée sur la présence de phénomènes / ensembles de phénomènes
- 225 -
Classification d’objets 3D par extraction de sous-parties discriminantes
locaux ; on se place en apprentissage supervisé dit traditionnel, sans changement de loi de
répartition des classes dans l’ensemble étudié.
Dans cet article, après un état de l’art présenté en Section 2, la méthode proposée est décrite
en Section 3, avant que la Section 4 ne donne les expérimentations réalisées et la Section 5 les
perspectives de cette méthode.
2 Etat de l’art
Avec les méthodes existantes en classification supervisée d’objets 3D, il n’est aujourd’hui
pas possible de catégoriser des objets 3D sur la présence de phénomènes locaux, tout en justifiant le processus et les prédictions.
Des méthodes issues de domaines aussi variés que le traitement d’images ou de séries temporelles présentent des possibilités encore inexploitées dans l’extraction de sous-parties discriminantes, en utilisant des descripteurs d’objets 3D de la littérature permettant de les caractériser.
2.1 Les descripteurs d’objets 3D
Dans le cas de séries temporelles ou d’images, il est possible de comparer directement
les données des sous-parties extraites (avec la distance euclidienne, par exemple). Pour ce qui
est des objets 3D, comparer directement 2 entités de ce type n’est pas envisageable car, en
plus de devoir établir un alignement selon la translation, la rotation, l’échelle et la réflexion,
il est indispensable de prendre en compte le fait que l’échantillonnage ne correspond pas forcément d’un extrait à l’autre. Le calcul de la distance minimale entre chaque point du premier
extrait avec la structure du second n’est possible qu’en présence d’éléments de mêmes étendues. L’étude d’objets 3D, décrits par des maillages non réguliers, nécessite donc d’extraire
d’abord des descripteurs qui ont pour but de convertir les données en une forme exploitable
pour l’apprentissage et la comparaison. Les approches à base de descripteurs de volumes ou
de squelettes d’objets ne s’appliquent pas aux surfaces non fermées (Alexandre (2012)).
Il existe à l’heure actuelle de nombreuses méthodes visant à extraire des descripteurs d’objets 3D (Dang (2014)). Outre celles de passage de la 3D à la 2D par coupe ou projection,
qui ne s’adaptent pas à notre problème à cause de la trop grande perte de données qui en
découle, la distinction se fait généralement entre les descripteurs locaux et globaux. Les descripteurs globaux ne sont pas adaptés à notre étude, car sur l’ensemble de la structure, ils
perdent les caractéristiques purement locales des sous-parties que Tabia (2011) résume. Les
descripteurs locaux, quant à eux, peuvent être de bons moyens de comparaison entre différents
extraits récupérés car ils s’appliquent à de petites surfaces qui correspondent potentiellement
aux sous-parties discriminantes décrites dans la Section 1. En effet, on ne considère alors que
les tendances dans le voisinage d’un point du maillage, ce qui qui pousse généralement à utiliser un histogramme de répartition de valeurs comme Dang (2014) si l’on souhaite décrire toute
une surface comme ont pu le faire Ankerst et al. (1999) avec le Shape Histogram, et Rusu et al.
(2008) avec le PFH (Point Feature Histogram).
Bien que différentes, ces deux ensembles de méthodes, globales et locales, peuvent servir à
définir une surface 3D non fermée, et pour notre étude, elles doivent respecter les conditions
suivantes : une bonne capacité à représenter un prototype de la classe concernée (donc du
- 226 -
François Meunier et al.
phénomène local détécté) ; une robustesse par rapport aux principales transformations géométriques (rotation, translation, passage à l’échelle, ...) ; permettre de caractériser une zone
particulière au sein de l’objet 3D, et de s’en servir pour justifier la classification finale.
2.2 La distance / similarité entre histogrammes de répartition de valeurs
Afin de comparer deux sous-surfaces extraites, l’utilisation d’un descripteur local requiert
l’utilisation d’une distance. Le calcul du descripteur fournit un ensemble de données rassemblées dans un histogramme de répartition de valeurs correspondant à chaque point de la surface
retenue. Plusieurs types de distances entre histogrammes peuvent alors être utilisées : la mesure de Bhattacharyya (1943), la distance de Matusita (1955), la mesure de Hellinger, du chi2 ,
ou la divergence de Kullback et Leibler (1951).
2.3 Les "time series shapelets"
Proposée par Refregier (2001), la notion de "shapelets" était initialement appliquée aux
images. La méthode est alors basée sur une décomposition linéaire de chaque image en une
série de fonctions élémentaires décrivant des sous-parties forcément locales ; ces fonctions sont
appelées "shapelets". Concrètement, cela permet, à partir de données complexes, d’obtenir une
version simplifiée de ces données en les décomposant en entités plus simples à étudier.
Cette méthode a par la suite été adaptée aux séries temporelles pour la classification supervisée par Ye et Keogh (2009). Le principe est d’extraire l’ensemble des sous-parties possibles
de chaque élément de l’ensemble d’apprentissage, puis de déterminer lesquelles scindent le
mieux l’ensemble des éléments, dans le but de maximiser un certain indicateur permettant de
juger de la capacité de discrimination. La méthode classique de maximisation d’entropie retenue par Ye et Keogh (2009), consiste à calculer la distance minimale entre chaque attribut
candidat et chaque objet ; puis, pour chaque candidat, ordonner les objets selon la distance les
séparant de ce dernier ; enfin, évaluer la capacité de discrimination du candidat dont les plus
discriminants servent à scinder l’ensemble des séries temporelles entre les classes.
Cet indicateur, issu des méthodes de selection d’attributs dont Chandrashekar et Sahin (2014)
étudie le domaine et Renard et al. (2016) en applique certaines méthodes aux séries temporelles, permet de déterminer les plus pertinentes des sous-parties. Cette évaluation est réalisée
par le gain d’information (Mutual Information) qui vise à mesurer la dépendance entre 2 variables. Lines et al. (2012) et Hills et al. (2014) utilisent les shapelets (les plus discriminantes)
en calculant la distance minimale qui permet de correspondre au mieux avec les nouveaux éléments à classifier, c’est-à-dire les séries temporelles encore non labellisées. Par la suite, ces
distances deviennent les attributs utilisés pour l’apprentissage et non plus l’arbre de décision
directement. Il devient ainsi possible de ramener le problème à de l’apprentissage supervisé
classique, et donc utiliser d’autres méthodes plus efficaces que les arbres de décision d’origine. L’avantage évident de la méthode des shapelets appliquée aux séries temporelles est de
pouvoir comparer des éléments de tailles très variées et dont on ne possède pas de connaissance a priori (comme le seraient les fonctions élémentaires de la méthode d’origine). Ce ne
sont en effet plus les éléments dans leur globalité qui peuvent être utiles, mais la juxtaposition
de certaines des sous-parties de ces derniers, aux caractéristiques diverses, qui mises ensemble
permettent de déduire les classes d’appartenance.
Parmi les nombreuses optimisations en terme de temps de calcul réalisées dans ce domaine,
- 227 -
Classification d’objets 3D par extraction de sous-parties discriminantes
Renard et al. (2015) utilise une extraction aléatoire de ces sous-parties dans le cadre de la
classification de séries temporelles. En raison de la redondance des sous-parties discriminantes
dans les données ciblées, les performances en termes de classification restent très bonnes.
3 Méthode proposée
La méthode proposée pour la classification d’objets 3D est à la croisée des différents domaines présentés dans la section précédente :
1. les shapelets, notamment la classification supervisée de séries temporelles de Ye et
Keogh (2009) ;
2. les calculs de similarité de surfaces 3D par l’extraction de descripteurs d’objets 3D.
Ces techniques apparaissent comme étant potentiellement complémentaires. En effet, le balayage par fenêtrage de Lozano Vega (2015) d’une image (sous forme d’un rectangle ou d’un
carré extrait de cette image) permet de déterminer quelle partie est la plus intéressante à relever
dans le cadre d’une classification particulière. L’idée initiale de Refregier (2001) permet elle
aussi de tester puis d’extraire les sous-parties les plus discriminantes d’un ensemble cohérent
de données, dans le cadre de la classification souhaitée. Néanmoins, ce qui est envisageable
face à un maillage dont on pouvait établir la liste exhaustive des candidats possibles, car de
forme rectangulaire, et dans un ensemble de tailles possibles prédéfini, pose problème pour
des maillages 3D irréguliers. En effet, nous sommes confrontés à une explosion du temps de
calcul nécessaire à l’extraction et l’évaluation des très nombreux candidats.
Lorsque Renard et al. (2015) propose une recherche aléatoire de sous-parties potentiellement
discriminantes pour la classification de séries temporelles, ses résultats ne sont quasiment pas
dégradés. En effet, en raison de grandes quantités de données, la redondance des extraits discriminants permet de ne pas diminuer la performance de la prédiction, si on la compare au
modèle exhaustif. Cette idée a été adaptée à notre problème, même si dans notre cas une bien
plus faible part des candidats au titre de sous-partie discriminante (l’ordre de grandeur est d’environ 10−6 % de l’ensemble, contre 10−1 % pour les séries temporelles de Renard et al. (2015))
a été conservée.
Ainsi, nous proposons d’adapter aux objets 3D ce qui a été fait avec les séries temporelles
en classification supervisée, la sélection des sous-parties discriminantes utilisées pour calculer
les attributs d’apprentissage étant réalisée aléatoirement en ne sélectionnant qu’un extrait de
l’ensemble des possibilités.
Soient O1 , ..., On l’ensemble des objets labellisés qui constitue la base d’apprentissage.
— ∀Oi=1,...,n , on extrait aléatoirement m sous-surfaces (pour chaque objet Oi ) que sont
Si,1 , ...Si,m .
— On considère un descripteur d’objet 3D particulier Desc, et une distance Dist. ∀i ∈
(1, ..., n) et ∀j ∈ (1, ..., m), on calcule le descripteur Desc(Si,j ) de la sous-surface
Si,j .
Puis, pour chaque sous-surface Si,j à évaluer :
— ∀i′ ∈ (1, ..., n)\i et ∀j ′ ∈ (1, ..., m), on calcule la proximité P rox(Si,j , Si′ ,j ′ ) =
Dist(Desc(Si,j ), Desc(Si′ ,j ′ )).
- 228 -
François Meunier et al.
— Les degrés correspondant à ses valeurs d’imbrication dans chacun des objets O1 , ..., On
valent : ∀i′ ∈ (1, ..., n),
Degre(Si,j , Oi′ ) =
inf
l=1,...,m
(P rox(Si,j , Si′ ,l ))
.
Ce degré de matchage ou d’appartenance d’une sous-surface à un objet permet d’établir une
forme de proximité entre la sous-surface étudiée et chaque objet. C’est à partir de ces valeurs
que le score de pertinence de chacune des sous-surfaces est évalué, afin de ne sélectionner que
les plus discriminantes.
Pour l’évaluation de la pertinence de la sous-surface à partir des degrés, et bien que Ye et
Keogh (2009) utilise la méthode du gain d’information pour évaluer les shapelets candidats, il
s’avère qu’une autre méthode de selection d’attributs soit mieux adaptée.
Lines et al. (2012) propose l’utilisation de la formule f-stat, plus performante pour évaluer
le caractère discriminant d’une sous-partie que la méthode classique. Si l’on ajoute à cela un
temps de calcul plus faible, cette formule semble être plus appropriée. Pour une certaine soussurface Si,j , dans un problème à C classes, on a :
C
1 X ¯
(Dcl − D̄)2
C −1
f-stat(Si,j ) =
cl=1
1
m−C
C
X
X
(1)
(d − D¯cl )
2
cl=1 d∈Dcl
avec C > 1 le nombre de classes, m le nombre de sous-parties (m > C), D̄i la moyenne des
degrés entre les surfaces de classe cl et Si,j , et D̄ la moyenne des degrés entre les objets 3D de
toutes les classes et Si,j .
Par la suite, les k premiers candidats selon ce critère seront utilisés pour le calcul des attributs,
k valant expérimentalement environ 10% du nombre total d’extraits.
Il est logique (et les résultats le confirment) de ne pas mettre plus d’attributs que la moitié du
nombre de sous-parties extraites par objet 3D. Cela peut s’expliquer assez aisément par le fait
que si l’on met autant de sous-parties attributs que d’extraits d’un objet 3D, alors les attributs
manqueront de choix dans la sélection de l’extrait le plus proche lors du calcul de distance
entre objet et shapelet candidat.
Une fois les sous-surfaces les plus pertinentes extraites, elles sont utilisées pour, d’une part,
réaliser l’apprentissage sur un modèle de classification supervisé traditionnel (les degrés entre
l’élément d’apprentissage, et chacune des sous-surfaces donnent le vecteur d’attributs), et
d’autre part réaliser le même procédé pour la prédiction de nouveaux objets.
4 Expérimentations
L’algorithme étant adapté à un contexte de classification de grandes structures 3D dont
les éléments permettant cette dernière ne sont que des sous-parties, il est assez compliqué de
trouver un jeu de données correspondant à nos besoins. En effet, la classification supervisée
d’objets 3D répond généralement au besoin de classifier des objets fermés dont l’objet dans son
- 229 -
Classification d’objets 3D par extraction de sous-parties discriminantes
ensemble appartient à une classe, alors que notre objectif consistait à détecter des phénomènes
locaux, sans que l’on n’en connaisse leur forme ou leur position au sein des structures 3D.
Ensuite, le choix du calcul de similarité entre sous-parties (afin de calculer la distance entre un
candidat et un objet 3D) est assez gourmand en temps de calcul. Encore à l’état expérimental,
il n’a pour l’heure pas été optimisé mais cela fera l’objet d’un développement futur. Enfin,
et sans doute le point essentiel, notre méthode vise à pouvoir aider l’utilisateur à comprendre
la classification : l’élément central n’est donc plus la classification en elle-même (et donc le
taux de prédiction l’objectif ultime), mais la capacité à fournir une explication à la classification donnée. Sa performance réelle, bien qu’importante, n’est utile que dans le cadre de la
justification qui en découle.
4.1 Résultats
Nous avons testé notre algorithme avec des données libres du Princeton Shape Benchmark 1 (PSB), dont l’avantage principal est de provenir de crawlers ayant récupéré des objets
de multiples jeux de données déjà existants. Le classifieur utilisé une fois les attributs récupérés est celui des forêts aléatoires du package Python scikit-learn. Les tests sont effectués sur
un processeur Intel Core i7 vPro avec 16 Go de RAM. L’échantillon comprend 40, 60 ou 100
objets selon l’expérience, répartis en 2 classes de même taille. Les objets en eux-même ont des
tailles très variables, allant de 250 points à 5000 points environ. Aucune normalisation n’ayant
été faite, le faible nombre d’objets sélectionnés et le fort écart-type de taille d’objet (1946) fait
logiquement baisser les résultats de la prédiction.
Les expériences réalisées avec des descripteurs de la littérature sont effectuées dans les mêmes
conditions que celles utilisées pour la méthode proposée, à savoir les mêmes librairies et la
même extraction de descripteurs (selon que l’on en extrait de sous-parties ou de l’objet dans
son ensemble).
4.1.1 Le choix du descripteur et du calcul de similarité
En partant de descripteurs locaux, qui donnent la tendance locale autour de chaque point, on
récupère un histogramme de répartition de valeurs. C’est à partir de cet histogramme normalisé,
dont la taille est constante quelle que soit celle de la sous-surface d’origine, que la distance est
calculée.
1
On obtient, en extrayant à chaque fois 200 sous-surfaces de tailles approximatives de 20
de chaque objet, par validation croisée (en apprenant sur 75% et en testant sur 25% à chaque
itération) sur 60 objets (subdivisés en 2 classes de mêmes tailles), les résultats comparatifs
entre les descripteurs d’objets 3D de la Tab. 1, que sont le Heat Kernel Signature (HKS), le
Point Feature Histogram (PFH), et le Unique Shape Context (USC).
En colonnes de la Tab. 1, on retrouve la méthode utilisée pour le calcul de distance entre
les sous-parties, ainsi que le temps de calcul, et en lignes les descripteurs à partir desquelles
ces distances sont calculées.
Au taux de bonne classification, on y mentionne aussi l’écart-type de la validation croisée.
Les légères différences en temps de calcul ne dépendent que de l’implémentation des algorithmes de descripteurs, et l’ordre de grandeur reste le même.
1. http ://shape.cs.princeton.edu/benchmark/ consulté le 29/09/2016
- 230 -
François Meunier et al.
Descripteur
d’objets
3D
HKS
PFH
USC
Divergence
de KullbackLeibler
0.89 ± 0.13
0.79 ± 0.16
0.86 ± 0.11
Mesure
de
Bhattacharyya
0.85 ± 0.13
0.75 ± 0.14
0.85 ± 0.15
Distance
de
Hellinger
0.86 ± 0.07
0.60 ± 0.08
0.84 ± 0.13
Distance
de
Matusita
0.90 ± 0.12
0.71 ± 0.12
0.87 ± 0.11
Temps de
calcul
(secondes)
1208
1098
1152
TAB . 1 – Performances comparées entre descripteurs d’objets 3D
Les meilleurs résultats trouvés sont ceux du HKS, bien que le USC le talonne. Avec le jeu
de données qui est le notre, il est apparu que la distance de Matusita, combiné à ce même HKS,
semble former la meilleure combinaison.
Pour nos expériences futures, on choisit donc comme descripteur d’objet 3D le HKS et comme
distance entre ces descripteurs la distance de Matusita.
On remarque néanmoins que n’importe quel descripteur d’objet 3D peu être utilisé pour décrire
les sous-surfaces extraites, et donc que la vraie comparaison doit avoir lieu entre un descripteur
global et notre méthode utilisant ce même descripteur pour les extraits.
4.1.2 Le choix du nombre d’extraits
En réutilisant le descripteur HKS choisi précédemment, on obtient, par validation croisée
en quatre parties un jeu d’apprentissage de 40 et 100 objets, de deux classes de mêmes tailles
mais tirées aléatoirement du PSB, les résultats donnés dans la Tab. 2.
Nombre
d’objets
3D
40
100
Nombre de
sous-parties
extraites
(par objet)
25
50
100
200
300
400
HKS global
25
50
100
200
300
400
HKS global
Taux de
bonne
classification
Temps de
calcul
(secondes)
0.65 ± 0.15
0.75 ± 0.16
0.81 ± 0.14
0.87 ± 0.10
0.89 ± 0.11
0.92 ± 0.08
0.85 ± 0.08
0.59 ± 0.28
0.71 ± 0.29
0.78 ± 0.18
0.87 ± 0.16
0.90 ± 0.14
0.91 ± 0.13
0.82 ± 0.11
122
237
468
831
1469
2160
1020
230
396
902
1728
2645
3587
2285
TAB . 2 – Performances comparées : précision pour 40 et 100 objets
- 231 -
Classification d’objets 3D par extraction de sous-parties discriminantes
F IG . 1 – Comparaison de taux de bonne classification en fonction du nombre d’extraits
La première colonne de la Tab. 2 indique le nombre de sous-surfaces extraites et les tailles
de ces différents extraits. Par exemple, pour la première ligne, 40 sous-surfaces ont été extraites, avec des tailles de 20, 40, 60 et 80 points reliés. Comme pour la comparaison de descripteurs, les taux de bonne classification de la 2ème colonne, sont complétés par l’écart-type
de la validation croisée. La dernière ligne présente les résultats d’une méthode de classification
globale en utilisant les histogrammes des HKS de l’ensemble des points comme attributs.
A première vue, et cela paraît logique, on remarque que plus les tailles d’extraits sont variées,
et plus le nombre de ces extraits augmente, meilleure sera la classification. La confiance dans
les prédictions est assez limitée, cela est du à la sélection aléatoire des sous-parties qui rend la
méthode légèrement moins stable qu’une qui serait déterministe. Pourtant, la méthode proposée est plus rapide que la globale, cela venant du fait qu’elle ne considère que certaines parties
de l’objet. Qui plus est, la comparaison peut être reproduite avec n’importe quel descripteur,
dans la mesure où une technique visant à définir un objet 3D peut être adaptée à notre contexte.
Le choix n’est donc pas le descripteur choisi, mais la comparaison entre la performance d’un
descripteur global et ce même descripteur utilisé pour méthode.
4.1.3 Comparaison avec d’autres méthodes de classification supervisée d’objets 3D
A titre indicatif, voici un comparatif des méthodes les plus utilisées avec la nôtre, bien que
les techniques actuelles ne permettent pas l’explication à l’utilisateur du résultat (Tab. 3).
Cette fois-ci, les tests sont réalisés avec 60 objets de deux classes de mêmes tailles du PSB.
On a choisi d’utiliser 200 extraits par objet, ce qui était un bon compromis entre le temps
d’exécution et la précision de la classification, si l’on se réfère à la Fig. 1.
On remarque que notre méthode obtient des résultats globalement équivalents à ceux de
la littérature, pour un temps de calcul du même ordre de grandeur, bien qu’il ne s’agisse que
d’une classification simple (2 classes) sur un nombre restreint d’objets 3D (60).
- 232 -
François Meunier et al.
Méthode de classification d’objets 3D
Harmoniques sphériques
Shape Histogram Ankerst et al. (1999)
Extended Gaussian image Horn (1984)
Gaussian Euclidean Distance Transform
Kazhdan et al. (2003)
Hough 3D et SURF Knopp et al. (2010)
USC global
PFH global
HKS global
Notre approche
Précision de
la classification
0.71 ± 0.09
0.74 ± 0.07
0.83 ± 0.10
0.88 ± 0.08
Temps de calcul
moyen (secondes)
1205
952
1452
1356
0.87 ± 0.06
0.83 ± 0.08
0.78 ± 0.10
0.84 ± 0.07
0.89 ± 0.12
1325
1244
1546
1253
1152
TAB . 3 – Performances comparées entre méthodes de classification supervisée d’objets 3D
F IG . 2 – objets 3D à classifier : les 2 premiers sont de la 1re classe, et les 2 derniers de l’autre
4.1.4 Interprétation des sous-parties discriminantes
Le principal apport de notre méthode, dans la mesure où ses résultats sont globalement
équivalents à ceux de la littérature, est de pouvoir permettre la compréhension de la classification proposée par l’exhibition des sous-parties qui ont été choisie comme étant les plus
pertinentes. Dans notre exemple, il s’agissait de classer des objets 3D en 2 catégories, qui
étaient d’un côté des objets inanimés et de l’autre des parties (tête ou buste) du corps humain.
On récupère des extraits tels que ceux de la Fig. 3 qui correspondent à de l’anatomie humaine (probablement la partie courbée de l’arrière d’une tête). Ces éléments permettent d’exhiber certaines des sous-parties ayant permis de créer les attributs de l’objet et donc les extraits
qui sont les plus représentatifs de la classification.
4.2 Discussion
Les résultats obtenus lors de la comparaison à d’autres techniques ne correspondent qu’à
une partie du véritable objectif de cet algorithme (exhiber à l’utilisateur des sous-parties discriminantes pour l’aider à la compréhension de la classification). Pourtant, la méthode que nous
proposons s’avère au moins aussi bonne (voir légèrement meilleure) que les méthodes plus
- 233 -
Classification d’objets 3D par extraction de sous-parties discriminantes
F IG . 3 – extraits discriminants d’objets 3D
traditionnelles, bien que l’aléatoire semble en diminuer légèrement la stabilité. Les premières
expériences de visualisation sont prometteuses, mais nécessitent pour être confirmées une mise
en pré-production au sein du métier ciblé afin de se confronter aux besoins des géologues.
Qui plus est, certains choix des paramètres de l’algorithme, c’est-à-dire : le nombre de sousparties par objet ; la taille de ces sous-parties ; le nombre de sous-parties retenues pour l’apprentissage ; n’ont été choisis que par tests empiriques successifs sur différents ensembles de
données, et en accordant notre confiance à des publications antérieures. A terme, il s’agira bien
entendu de chercher à automatiser ces choix de paramètres.
5 Conclusion et perspectives
Nous avons, dans cet article, proposé une nouvelle méthode de classification d’objets 3D
avec, chose inédite, justification de cette dernière par exhibition des éléments les plus discriminants.
Poursuivre sur cet axe de recherche implique de remettre en cause l’ensemble des valeurs données aux paramètres. En effet, les données réelles auxquelles sera confronté l’algorithme vont
tendre à reconsidérer des décisions parfois arbitraires, comme le choix de la taille des sousparties extraites (appliqué au problème) et leur nombre. Il pourrait s’agir ici de la connaissance
initiale nécessaire à la classification, bien qu’une automatisation soit à moyen terme envisageable.
A la croisée des techniques employées pour les séries temporelles et le traitement d’image,
notre méthode vise à aider un expert à mieux appréhender les zones clefs d’un objet 3D pour
comprendre l’ensemble étudié.
En plus de cette application directe, on peut aisément entrevoir la possibilité de réutiliser la
méthode qui est proposée dans cet article pour le traitement automatisé de nuages de points
afin d’aider, par exemple, un robot à reconnaitre des objets.
Qui plus est, afin de pouvoir adapter ce modèle à des situations plus courantes de classification
de structures 3D, il serait opportun de chercher à l’adapter à des cas d’objets partiellement
occultés, permettant ainsi de l’utiliser aussi en vision par ordinateur.
- 234 -
François Meunier et al.
Références
Alexandre, L. A. (2012). 3D Descriptors for Object and Category Recognition : a Comparative Evaluation. In Workshop on Color-Depth Camera Fusion in Robotics at the IEEE/RSJ
International Conference on Intelligent Robots and Systems (IROS), Vilamoura, Portugal.
Ankerst, M., G. Kastenmüller, H.-P. Kriegel, et T. Seidl (1999). 3d shape histograms for similarity search and classification in spatial databases. In Proceedings of the 6th International Symposium on Advances in Spatial Databases, SSD ’99, London, UK, pp. 207–226.
Springer-Verlag.
Bhattacharyya, A. (1943). On a measure of divergence between two statistical populations
defined by their probability distributions. Bulletin of Cal. Math. Soc. 35(1), 99–109.
Chandrashekar, G. et F. Sahin (2014). A survey on feature selection methods. Computers and
Electrical Engineering, 16–28.
Dang, Q. V. (2014). Similarités dans des modèles BRep paramétriques : detection et applications. Ph. D. thesis, Université de Toulouse.
Hills, J., J. Lines, E. Baranauskas, J. Mapp, et A. Bagnall (2014). Classification of time series
by shapelet transformation. Data Min. Knowl. Discov. 28(4), 851–881.
Horn, B. K. P. (1984). Extended gaussian images. Proceedings of the IEEE 72(2), 1671–1686.
Kazhdan, M., T. Funkhouser, et S. Rusinkiewicz (2003). Rotation invariant spherical harmonic
representation of 3d shape descriptors. In Proceedings of the 2003 Eurographics/ACM SIGGRAPH Symposium on Geometry Processing, SGP ’03, Aire-la-Ville, Switzerland, Switzerland, pp. 156–164. Eurographics Association.
Knopp, J., M. Prasad, G. Willems, R. Timofte, et L. J. V. Gool (2010). Hough transform
and 3d surf for robust three dimensional classification. In K. Daniilidis, P. Maragos, et
N. Paragios (Eds.), ECCV (6), Volume 6316 of Lecture Notes in Computer Science, pp.
589–602. Springer.
Kullback, S. et R. A. Leibler (1951). On information and sufficiency. Ann. Math. Statist. 22(1),
79–86.
Lines, J., L. M. Davis, J. Hills, et A. Bagnall (2012). A Shapelet Transform for Time Series
Classification. KDD ’12. New York, NY, USA : ACM.
Lozano Vega, G. (2015). Image-based detection and classification of allergenic pollen. Theses,
Université de Bourgogne.
Matusita, K. (1955). Decision rules, based on the distance, for problems of fit, two samples,
and estimation. Annals of Mathematical Statistics 26(4), 631–640.
Refregier, A. (2001). Shapelets : I. a method for image analysis. Mon. Not. Roy. Astron.
Soc. 338, 35.
Renard, X., M. Rifqi, et M. Detyniecki (2015). Random-shapelet : an algorithm for fast shapelet discovery. In Proceedings of the IEEE International Conference on Data Science and
Advanced Analytics (DSAA’2015).
Renard, X., M. Rifqi, G. Fricout, et M. Detyniecki (2016). EAST representation : fast discovery
of discriminant temporal patterns from time series. In ECML/PKDD Workshop on Advanced
Analytics and Learning on Temporal Data, Riva Del Garda, Italy.
- 235 -
Classification d’objets 3D par extraction de sous-parties discriminantes
Rusu, R. B., N. Blodow, Z. C. Marton, et M. Beetz (2008). Aligning Point Cloud Views
using Persistent Feature Histograms. In Proceedings of the 21st IEEE/RSJ International
Conference on Intelligent Robots and Systems (IROS), Nice, France, September 22-26.
Tabia, H. (2011). Contributions to 3D-shape matching retrieval and classification. Ph. D.
thesis, Université Lille 1.
Ye, L. et E. Keogh (2009). Time Series Shapelets : A New Primitive for Data Mining. In
Proceedings of the 15th ACM SIGKDD International Conference on Knowledge Discovery
and Data Mining, KDD ’09, New York, NY, USA, pp. 947–956. ACM.
Summary
In this article, we propose a new approach for 3D object classification, based on the Time
Series Shapelets of Ye et Keogh (2009). The main idea is to use discriminants sub-parts for
the supervised classification in order to take care of the local nature of pertinent elements.
This allows the user to be aware of these sub-parts which have been useful to determine the
corresponding class of the object. Final results confirm the interest of random feature selection
for pre-selection of attributes in supervised classification.
- 236 -
Téléchargement