Classification d’objets 3D par extraction aléatoire de sous-parties discriminantes pour l’étude du sous-sol en prospection pétrolière François Meunier∗,∗∗ Christophe Marsala∗ Laurent Castanié∗∗ Bruno Conche∗∗ ∗ Sorbonne Universités, UPMC Univ Paris 06, CNRS, LIP6 UMR 7606, 4 place Jussieu 75005 Paris ∗∗ Total Exploration-Production, Tour Coupole, La Défense, 2 Place Jean Millier, 92078 Paris Résumé. Dans cet article, nous proposons une nouvelle approche de classification d’objets 3D inspirée des Time Series Shapelets de Ye et Keogh (2009). L’idée est d’utiliser des sous-surfaces discriminantes pour la classification concernée afin de prendre en compte la nature locale des éléments pertinents. Cela permet à l’utilisateur d’avoir connaissance des sous-parties qui ont été utiles pour déterminer l’appartenance d’un objet à une classe. Les résultats obtenus confirment l’intérêt de la sélection aléatoire de caractéristiques candidates pour la pré-sélection d’attributs en classification supervisée. 1 Introduction Lors du traitement d’éléments complexes, les classifieurs ne donnent généralement pas de justification permettant de comprendre leurs résultats. Dans le cadre de la classification supervisée d’objets 3D, cette dernière est très souvent réalisée manuellement par les industriels, soucieux de comprendre les tenants et aboutissants de leurs études. Cela représente une charge de travail conséquente, qu’une automatisation de la classification de ces objets 3D faciliterait grandement, à condition de remplir les contraintes posées par les industriels en termes de compréhensibilité. Notre travail se propose de mettre en place un système de classification supervisée d’objets 3D avec justification explicite du résultat fourni. Au sein de ce domaine, les méthodes actuelles ne permettent pas, sans connaissance préalable, de comprendre quelles sous-parties d’un objet pourraient être discriminantes dans le cadre de la présence du phénomène étudié, et pourquoi elles le seraient. Ce problème revient fréquemment en apprentissage, pour lequel la résolution est perçue du point de vue de l’utilisateur comme une "boite noire" dans laquelle la confiance ne peut être attribuée que selon ses performances passées. L’intérêt est donc de chercher à expliquer le résultat de la classification à l’utilisateur afin que celui-ci puisse réellement valider le modèle et donc l’apport de ce dernier. Les contraintes du système et donc les conditions d’application de la méthode proposée sont triples : les éléments d’apprentissage sont des surfaces 3D de maillages triangulaires irréguliers ; la classification est basée sur la présence de phénomènes / ensembles de phénomènes - 225 - Classification d’objets 3D par extraction de sous-parties discriminantes locaux ; on se place en apprentissage supervisé dit traditionnel, sans changement de loi de répartition des classes dans l’ensemble étudié. Dans cet article, après un état de l’art présenté en Section 2, la méthode proposée est décrite en Section 3, avant que la Section 4 ne donne les expérimentations réalisées et la Section 5 les perspectives de cette méthode. 2 Etat de l’art Avec les méthodes existantes en classification supervisée d’objets 3D, il n’est aujourd’hui pas possible de catégoriser des objets 3D sur la présence de phénomènes locaux, tout en justifiant le processus et les prédictions. Des méthodes issues de domaines aussi variés que le traitement d’images ou de séries temporelles présentent des possibilités encore inexploitées dans l’extraction de sous-parties discriminantes, en utilisant des descripteurs d’objets 3D de la littérature permettant de les caractériser. 2.1 Les descripteurs d’objets 3D Dans le cas de séries temporelles ou d’images, il est possible de comparer directement les données des sous-parties extraites (avec la distance euclidienne, par exemple). Pour ce qui est des objets 3D, comparer directement 2 entités de ce type n’est pas envisageable car, en plus de devoir établir un alignement selon la translation, la rotation, l’échelle et la réflexion, il est indispensable de prendre en compte le fait que l’échantillonnage ne correspond pas forcément d’un extrait à l’autre. Le calcul de la distance minimale entre chaque point du premier extrait avec la structure du second n’est possible qu’en présence d’éléments de mêmes étendues. L’étude d’objets 3D, décrits par des maillages non réguliers, nécessite donc d’extraire d’abord des descripteurs qui ont pour but de convertir les données en une forme exploitable pour l’apprentissage et la comparaison. Les approches à base de descripteurs de volumes ou de squelettes d’objets ne s’appliquent pas aux surfaces non fermées (Alexandre (2012)). Il existe à l’heure actuelle de nombreuses méthodes visant à extraire des descripteurs d’objets 3D (Dang (2014)). Outre celles de passage de la 3D à la 2D par coupe ou projection, qui ne s’adaptent pas à notre problème à cause de la trop grande perte de données qui en découle, la distinction se fait généralement entre les descripteurs locaux et globaux. Les descripteurs globaux ne sont pas adaptés à notre étude, car sur l’ensemble de la structure, ils perdent les caractéristiques purement locales des sous-parties que Tabia (2011) résume. Les descripteurs locaux, quant à eux, peuvent être de bons moyens de comparaison entre différents extraits récupérés car ils s’appliquent à de petites surfaces qui correspondent potentiellement aux sous-parties discriminantes décrites dans la Section 1. En effet, on ne considère alors que les tendances dans le voisinage d’un point du maillage, ce qui qui pousse généralement à utiliser un histogramme de répartition de valeurs comme Dang (2014) si l’on souhaite décrire toute une surface comme ont pu le faire Ankerst et al. (1999) avec le Shape Histogram, et Rusu et al. (2008) avec le PFH (Point Feature Histogram). Bien que différentes, ces deux ensembles de méthodes, globales et locales, peuvent servir à définir une surface 3D non fermée, et pour notre étude, elles doivent respecter les conditions suivantes : une bonne capacité à représenter un prototype de la classe concernée (donc du - 226 - François Meunier et al. phénomène local détécté) ; une robustesse par rapport aux principales transformations géométriques (rotation, translation, passage à l’échelle, ...) ; permettre de caractériser une zone particulière au sein de l’objet 3D, et de s’en servir pour justifier la classification finale. 2.2 La distance / similarité entre histogrammes de répartition de valeurs Afin de comparer deux sous-surfaces extraites, l’utilisation d’un descripteur local requiert l’utilisation d’une distance. Le calcul du descripteur fournit un ensemble de données rassemblées dans un histogramme de répartition de valeurs correspondant à chaque point de la surface retenue. Plusieurs types de distances entre histogrammes peuvent alors être utilisées : la mesure de Bhattacharyya (1943), la distance de Matusita (1955), la mesure de Hellinger, du chi2 , ou la divergence de Kullback et Leibler (1951). 2.3 Les "time series shapelets" Proposée par Refregier (2001), la notion de "shapelets" était initialement appliquée aux images. La méthode est alors basée sur une décomposition linéaire de chaque image en une série de fonctions élémentaires décrivant des sous-parties forcément locales ; ces fonctions sont appelées "shapelets". Concrètement, cela permet, à partir de données complexes, d’obtenir une version simplifiée de ces données en les décomposant en entités plus simples à étudier. Cette méthode a par la suite été adaptée aux séries temporelles pour la classification supervisée par Ye et Keogh (2009). Le principe est d’extraire l’ensemble des sous-parties possibles de chaque élément de l’ensemble d’apprentissage, puis de déterminer lesquelles scindent le mieux l’ensemble des éléments, dans le but de maximiser un certain indicateur permettant de juger de la capacité de discrimination. La méthode classique de maximisation d’entropie retenue par Ye et Keogh (2009), consiste à calculer la distance minimale entre chaque attribut candidat et chaque objet ; puis, pour chaque candidat, ordonner les objets selon la distance les séparant de ce dernier ; enfin, évaluer la capacité de discrimination du candidat dont les plus discriminants servent à scinder l’ensemble des séries temporelles entre les classes. Cet indicateur, issu des méthodes de selection d’attributs dont Chandrashekar et Sahin (2014) étudie le domaine et Renard et al. (2016) en applique certaines méthodes aux séries temporelles, permet de déterminer les plus pertinentes des sous-parties. Cette évaluation est réalisée par le gain d’information (Mutual Information) qui vise à mesurer la dépendance entre 2 variables. Lines et al. (2012) et Hills et al. (2014) utilisent les shapelets (les plus discriminantes) en calculant la distance minimale qui permet de correspondre au mieux avec les nouveaux éléments à classifier, c’est-à-dire les séries temporelles encore non labellisées. Par la suite, ces distances deviennent les attributs utilisés pour l’apprentissage et non plus l’arbre de décision directement. Il devient ainsi possible de ramener le problème à de l’apprentissage supervisé classique, et donc utiliser d’autres méthodes plus efficaces que les arbres de décision d’origine. L’avantage évident de la méthode des shapelets appliquée aux séries temporelles est de pouvoir comparer des éléments de tailles très variées et dont on ne possède pas de connaissance a priori (comme le seraient les fonctions élémentaires de la méthode d’origine). Ce ne sont en effet plus les éléments dans leur globalité qui peuvent être utiles, mais la juxtaposition de certaines des sous-parties de ces derniers, aux caractéristiques diverses, qui mises ensemble permettent de déduire les classes d’appartenance. Parmi les nombreuses optimisations en terme de temps de calcul réalisées dans ce domaine, - 227 - Classification d’objets 3D par extraction de sous-parties discriminantes Renard et al. (2015) utilise une extraction aléatoire de ces sous-parties dans le cadre de la classification de séries temporelles. En raison de la redondance des sous-parties discriminantes dans les données ciblées, les performances en termes de classification restent très bonnes. 3 Méthode proposée La méthode proposée pour la classification d’objets 3D est à la croisée des différents domaines présentés dans la section précédente : 1. les shapelets, notamment la classification supervisée de séries temporelles de Ye et Keogh (2009) ; 2. les calculs de similarité de surfaces 3D par l’extraction de descripteurs d’objets 3D. Ces techniques apparaissent comme étant potentiellement complémentaires. En effet, le balayage par fenêtrage de Lozano Vega (2015) d’une image (sous forme d’un rectangle ou d’un carré extrait de cette image) permet de déterminer quelle partie est la plus intéressante à relever dans le cadre d’une classification particulière. L’idée initiale de Refregier (2001) permet elle aussi de tester puis d’extraire les sous-parties les plus discriminantes d’un ensemble cohérent de données, dans le cadre de la classification souhaitée. Néanmoins, ce qui est envisageable face à un maillage dont on pouvait établir la liste exhaustive des candidats possibles, car de forme rectangulaire, et dans un ensemble de tailles possibles prédéfini, pose problème pour des maillages 3D irréguliers. En effet, nous sommes confrontés à une explosion du temps de calcul nécessaire à l’extraction et l’évaluation des très nombreux candidats. Lorsque Renard et al. (2015) propose une recherche aléatoire de sous-parties potentiellement discriminantes pour la classification de séries temporelles, ses résultats ne sont quasiment pas dégradés. En effet, en raison de grandes quantités de données, la redondance des extraits discriminants permet de ne pas diminuer la performance de la prédiction, si on la compare au modèle exhaustif. Cette idée a été adaptée à notre problème, même si dans notre cas une bien plus faible part des candidats au titre de sous-partie discriminante (l’ordre de grandeur est d’environ 10−6 % de l’ensemble, contre 10−1 % pour les séries temporelles de Renard et al. (2015)) a été conservée. Ainsi, nous proposons d’adapter aux objets 3D ce qui a été fait avec les séries temporelles en classification supervisée, la sélection des sous-parties discriminantes utilisées pour calculer les attributs d’apprentissage étant réalisée aléatoirement en ne sélectionnant qu’un extrait de l’ensemble des possibilités. Soient O1 , ..., On l’ensemble des objets labellisés qui constitue la base d’apprentissage. — ∀Oi=1,...,n , on extrait aléatoirement m sous-surfaces (pour chaque objet Oi ) que sont Si,1 , ...Si,m . — On considère un descripteur d’objet 3D particulier Desc, et une distance Dist. ∀i ∈ (1, ..., n) et ∀j ∈ (1, ..., m), on calcule le descripteur Desc(Si,j ) de la sous-surface Si,j . Puis, pour chaque sous-surface Si,j à évaluer : — ∀i′ ∈ (1, ..., n)\i et ∀j ′ ∈ (1, ..., m), on calcule la proximité P rox(Si,j , Si′ ,j ′ ) = Dist(Desc(Si,j ), Desc(Si′ ,j ′ )). - 228 - François Meunier et al. — Les degrés correspondant à ses valeurs d’imbrication dans chacun des objets O1 , ..., On valent : ∀i′ ∈ (1, ..., n), Degre(Si,j , Oi′ ) = inf l=1,...,m (P rox(Si,j , Si′ ,l )) . Ce degré de matchage ou d’appartenance d’une sous-surface à un objet permet d’établir une forme de proximité entre la sous-surface étudiée et chaque objet. C’est à partir de ces valeurs que le score de pertinence de chacune des sous-surfaces est évalué, afin de ne sélectionner que les plus discriminantes. Pour l’évaluation de la pertinence de la sous-surface à partir des degrés, et bien que Ye et Keogh (2009) utilise la méthode du gain d’information pour évaluer les shapelets candidats, il s’avère qu’une autre méthode de selection d’attributs soit mieux adaptée. Lines et al. (2012) propose l’utilisation de la formule f-stat, plus performante pour évaluer le caractère discriminant d’une sous-partie que la méthode classique. Si l’on ajoute à cela un temps de calcul plus faible, cette formule semble être plus appropriée. Pour une certaine soussurface Si,j , dans un problème à C classes, on a : C 1 X ¯ (Dcl − D̄)2 C −1 f-stat(Si,j ) = cl=1 1 m−C C X X (1) (d − D¯cl ) 2 cl=1 d∈Dcl avec C > 1 le nombre de classes, m le nombre de sous-parties (m > C), D̄i la moyenne des degrés entre les surfaces de classe cl et Si,j , et D̄ la moyenne des degrés entre les objets 3D de toutes les classes et Si,j . Par la suite, les k premiers candidats selon ce critère seront utilisés pour le calcul des attributs, k valant expérimentalement environ 10% du nombre total d’extraits. Il est logique (et les résultats le confirment) de ne pas mettre plus d’attributs que la moitié du nombre de sous-parties extraites par objet 3D. Cela peut s’expliquer assez aisément par le fait que si l’on met autant de sous-parties attributs que d’extraits d’un objet 3D, alors les attributs manqueront de choix dans la sélection de l’extrait le plus proche lors du calcul de distance entre objet et shapelet candidat. Une fois les sous-surfaces les plus pertinentes extraites, elles sont utilisées pour, d’une part, réaliser l’apprentissage sur un modèle de classification supervisé traditionnel (les degrés entre l’élément d’apprentissage, et chacune des sous-surfaces donnent le vecteur d’attributs), et d’autre part réaliser le même procédé pour la prédiction de nouveaux objets. 4 Expérimentations L’algorithme étant adapté à un contexte de classification de grandes structures 3D dont les éléments permettant cette dernière ne sont que des sous-parties, il est assez compliqué de trouver un jeu de données correspondant à nos besoins. En effet, la classification supervisée d’objets 3D répond généralement au besoin de classifier des objets fermés dont l’objet dans son - 229 - Classification d’objets 3D par extraction de sous-parties discriminantes ensemble appartient à une classe, alors que notre objectif consistait à détecter des phénomènes locaux, sans que l’on n’en connaisse leur forme ou leur position au sein des structures 3D. Ensuite, le choix du calcul de similarité entre sous-parties (afin de calculer la distance entre un candidat et un objet 3D) est assez gourmand en temps de calcul. Encore à l’état expérimental, il n’a pour l’heure pas été optimisé mais cela fera l’objet d’un développement futur. Enfin, et sans doute le point essentiel, notre méthode vise à pouvoir aider l’utilisateur à comprendre la classification : l’élément central n’est donc plus la classification en elle-même (et donc le taux de prédiction l’objectif ultime), mais la capacité à fournir une explication à la classification donnée. Sa performance réelle, bien qu’importante, n’est utile que dans le cadre de la justification qui en découle. 4.1 Résultats Nous avons testé notre algorithme avec des données libres du Princeton Shape Benchmark 1 (PSB), dont l’avantage principal est de provenir de crawlers ayant récupéré des objets de multiples jeux de données déjà existants. Le classifieur utilisé une fois les attributs récupérés est celui des forêts aléatoires du package Python scikit-learn. Les tests sont effectués sur un processeur Intel Core i7 vPro avec 16 Go de RAM. L’échantillon comprend 40, 60 ou 100 objets selon l’expérience, répartis en 2 classes de même taille. Les objets en eux-même ont des tailles très variables, allant de 250 points à 5000 points environ. Aucune normalisation n’ayant été faite, le faible nombre d’objets sélectionnés et le fort écart-type de taille d’objet (1946) fait logiquement baisser les résultats de la prédiction. Les expériences réalisées avec des descripteurs de la littérature sont effectuées dans les mêmes conditions que celles utilisées pour la méthode proposée, à savoir les mêmes librairies et la même extraction de descripteurs (selon que l’on en extrait de sous-parties ou de l’objet dans son ensemble). 4.1.1 Le choix du descripteur et du calcul de similarité En partant de descripteurs locaux, qui donnent la tendance locale autour de chaque point, on récupère un histogramme de répartition de valeurs. C’est à partir de cet histogramme normalisé, dont la taille est constante quelle que soit celle de la sous-surface d’origine, que la distance est calculée. 1 On obtient, en extrayant à chaque fois 200 sous-surfaces de tailles approximatives de 20 de chaque objet, par validation croisée (en apprenant sur 75% et en testant sur 25% à chaque itération) sur 60 objets (subdivisés en 2 classes de mêmes tailles), les résultats comparatifs entre les descripteurs d’objets 3D de la Tab. 1, que sont le Heat Kernel Signature (HKS), le Point Feature Histogram (PFH), et le Unique Shape Context (USC). En colonnes de la Tab. 1, on retrouve la méthode utilisée pour le calcul de distance entre les sous-parties, ainsi que le temps de calcul, et en lignes les descripteurs à partir desquelles ces distances sont calculées. Au taux de bonne classification, on y mentionne aussi l’écart-type de la validation croisée. Les légères différences en temps de calcul ne dépendent que de l’implémentation des algorithmes de descripteurs, et l’ordre de grandeur reste le même. 1. http ://shape.cs.princeton.edu/benchmark/ consulté le 29/09/2016 - 230 - François Meunier et al. Descripteur d’objets 3D HKS PFH USC Divergence de KullbackLeibler 0.89 ± 0.13 0.79 ± 0.16 0.86 ± 0.11 Mesure de Bhattacharyya 0.85 ± 0.13 0.75 ± 0.14 0.85 ± 0.15 Distance de Hellinger 0.86 ± 0.07 0.60 ± 0.08 0.84 ± 0.13 Distance de Matusita 0.90 ± 0.12 0.71 ± 0.12 0.87 ± 0.11 Temps de calcul (secondes) 1208 1098 1152 TAB . 1 – Performances comparées entre descripteurs d’objets 3D Les meilleurs résultats trouvés sont ceux du HKS, bien que le USC le talonne. Avec le jeu de données qui est le notre, il est apparu que la distance de Matusita, combiné à ce même HKS, semble former la meilleure combinaison. Pour nos expériences futures, on choisit donc comme descripteur d’objet 3D le HKS et comme distance entre ces descripteurs la distance de Matusita. On remarque néanmoins que n’importe quel descripteur d’objet 3D peu être utilisé pour décrire les sous-surfaces extraites, et donc que la vraie comparaison doit avoir lieu entre un descripteur global et notre méthode utilisant ce même descripteur pour les extraits. 4.1.2 Le choix du nombre d’extraits En réutilisant le descripteur HKS choisi précédemment, on obtient, par validation croisée en quatre parties un jeu d’apprentissage de 40 et 100 objets, de deux classes de mêmes tailles mais tirées aléatoirement du PSB, les résultats donnés dans la Tab. 2. Nombre d’objets 3D 40 100 Nombre de sous-parties extraites (par objet) 25 50 100 200 300 400 HKS global 25 50 100 200 300 400 HKS global Taux de bonne classification Temps de calcul (secondes) 0.65 ± 0.15 0.75 ± 0.16 0.81 ± 0.14 0.87 ± 0.10 0.89 ± 0.11 0.92 ± 0.08 0.85 ± 0.08 0.59 ± 0.28 0.71 ± 0.29 0.78 ± 0.18 0.87 ± 0.16 0.90 ± 0.14 0.91 ± 0.13 0.82 ± 0.11 122 237 468 831 1469 2160 1020 230 396 902 1728 2645 3587 2285 TAB . 2 – Performances comparées : précision pour 40 et 100 objets - 231 - Classification d’objets 3D par extraction de sous-parties discriminantes F IG . 1 – Comparaison de taux de bonne classification en fonction du nombre d’extraits La première colonne de la Tab. 2 indique le nombre de sous-surfaces extraites et les tailles de ces différents extraits. Par exemple, pour la première ligne, 40 sous-surfaces ont été extraites, avec des tailles de 20, 40, 60 et 80 points reliés. Comme pour la comparaison de descripteurs, les taux de bonne classification de la 2ème colonne, sont complétés par l’écart-type de la validation croisée. La dernière ligne présente les résultats d’une méthode de classification globale en utilisant les histogrammes des HKS de l’ensemble des points comme attributs. A première vue, et cela paraît logique, on remarque que plus les tailles d’extraits sont variées, et plus le nombre de ces extraits augmente, meilleure sera la classification. La confiance dans les prédictions est assez limitée, cela est du à la sélection aléatoire des sous-parties qui rend la méthode légèrement moins stable qu’une qui serait déterministe. Pourtant, la méthode proposée est plus rapide que la globale, cela venant du fait qu’elle ne considère que certaines parties de l’objet. Qui plus est, la comparaison peut être reproduite avec n’importe quel descripteur, dans la mesure où une technique visant à définir un objet 3D peut être adaptée à notre contexte. Le choix n’est donc pas le descripteur choisi, mais la comparaison entre la performance d’un descripteur global et ce même descripteur utilisé pour méthode. 4.1.3 Comparaison avec d’autres méthodes de classification supervisée d’objets 3D A titre indicatif, voici un comparatif des méthodes les plus utilisées avec la nôtre, bien que les techniques actuelles ne permettent pas l’explication à l’utilisateur du résultat (Tab. 3). Cette fois-ci, les tests sont réalisés avec 60 objets de deux classes de mêmes tailles du PSB. On a choisi d’utiliser 200 extraits par objet, ce qui était un bon compromis entre le temps d’exécution et la précision de la classification, si l’on se réfère à la Fig. 1. On remarque que notre méthode obtient des résultats globalement équivalents à ceux de la littérature, pour un temps de calcul du même ordre de grandeur, bien qu’il ne s’agisse que d’une classification simple (2 classes) sur un nombre restreint d’objets 3D (60). - 232 - François Meunier et al. Méthode de classification d’objets 3D Harmoniques sphériques Shape Histogram Ankerst et al. (1999) Extended Gaussian image Horn (1984) Gaussian Euclidean Distance Transform Kazhdan et al. (2003) Hough 3D et SURF Knopp et al. (2010) USC global PFH global HKS global Notre approche Précision de la classification 0.71 ± 0.09 0.74 ± 0.07 0.83 ± 0.10 0.88 ± 0.08 Temps de calcul moyen (secondes) 1205 952 1452 1356 0.87 ± 0.06 0.83 ± 0.08 0.78 ± 0.10 0.84 ± 0.07 0.89 ± 0.12 1325 1244 1546 1253 1152 TAB . 3 – Performances comparées entre méthodes de classification supervisée d’objets 3D F IG . 2 – objets 3D à classifier : les 2 premiers sont de la 1re classe, et les 2 derniers de l’autre 4.1.4 Interprétation des sous-parties discriminantes Le principal apport de notre méthode, dans la mesure où ses résultats sont globalement équivalents à ceux de la littérature, est de pouvoir permettre la compréhension de la classification proposée par l’exhibition des sous-parties qui ont été choisie comme étant les plus pertinentes. Dans notre exemple, il s’agissait de classer des objets 3D en 2 catégories, qui étaient d’un côté des objets inanimés et de l’autre des parties (tête ou buste) du corps humain. On récupère des extraits tels que ceux de la Fig. 3 qui correspondent à de l’anatomie humaine (probablement la partie courbée de l’arrière d’une tête). Ces éléments permettent d’exhiber certaines des sous-parties ayant permis de créer les attributs de l’objet et donc les extraits qui sont les plus représentatifs de la classification. 4.2 Discussion Les résultats obtenus lors de la comparaison à d’autres techniques ne correspondent qu’à une partie du véritable objectif de cet algorithme (exhiber à l’utilisateur des sous-parties discriminantes pour l’aider à la compréhension de la classification). Pourtant, la méthode que nous proposons s’avère au moins aussi bonne (voir légèrement meilleure) que les méthodes plus - 233 - Classification d’objets 3D par extraction de sous-parties discriminantes F IG . 3 – extraits discriminants d’objets 3D traditionnelles, bien que l’aléatoire semble en diminuer légèrement la stabilité. Les premières expériences de visualisation sont prometteuses, mais nécessitent pour être confirmées une mise en pré-production au sein du métier ciblé afin de se confronter aux besoins des géologues. Qui plus est, certains choix des paramètres de l’algorithme, c’est-à-dire : le nombre de sousparties par objet ; la taille de ces sous-parties ; le nombre de sous-parties retenues pour l’apprentissage ; n’ont été choisis que par tests empiriques successifs sur différents ensembles de données, et en accordant notre confiance à des publications antérieures. A terme, il s’agira bien entendu de chercher à automatiser ces choix de paramètres. 5 Conclusion et perspectives Nous avons, dans cet article, proposé une nouvelle méthode de classification d’objets 3D avec, chose inédite, justification de cette dernière par exhibition des éléments les plus discriminants. Poursuivre sur cet axe de recherche implique de remettre en cause l’ensemble des valeurs données aux paramètres. En effet, les données réelles auxquelles sera confronté l’algorithme vont tendre à reconsidérer des décisions parfois arbitraires, comme le choix de la taille des sousparties extraites (appliqué au problème) et leur nombre. Il pourrait s’agir ici de la connaissance initiale nécessaire à la classification, bien qu’une automatisation soit à moyen terme envisageable. A la croisée des techniques employées pour les séries temporelles et le traitement d’image, notre méthode vise à aider un expert à mieux appréhender les zones clefs d’un objet 3D pour comprendre l’ensemble étudié. En plus de cette application directe, on peut aisément entrevoir la possibilité de réutiliser la méthode qui est proposée dans cet article pour le traitement automatisé de nuages de points afin d’aider, par exemple, un robot à reconnaitre des objets. Qui plus est, afin de pouvoir adapter ce modèle à des situations plus courantes de classification de structures 3D, il serait opportun de chercher à l’adapter à des cas d’objets partiellement occultés, permettant ainsi de l’utiliser aussi en vision par ordinateur. - 234 - François Meunier et al. Références Alexandre, L. A. (2012). 3D Descriptors for Object and Category Recognition : a Comparative Evaluation. In Workshop on Color-Depth Camera Fusion in Robotics at the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Vilamoura, Portugal. Ankerst, M., G. Kastenmüller, H.-P. Kriegel, et T. Seidl (1999). 3d shape histograms for similarity search and classification in spatial databases. In Proceedings of the 6th International Symposium on Advances in Spatial Databases, SSD ’99, London, UK, pp. 207–226. Springer-Verlag. Bhattacharyya, A. (1943). On a measure of divergence between two statistical populations defined by their probability distributions. Bulletin of Cal. Math. Soc. 35(1), 99–109. Chandrashekar, G. et F. Sahin (2014). A survey on feature selection methods. Computers and Electrical Engineering, 16–28. Dang, Q. V. (2014). Similarités dans des modèles BRep paramétriques : detection et applications. Ph. D. thesis, Université de Toulouse. Hills, J., J. Lines, E. Baranauskas, J. Mapp, et A. Bagnall (2014). Classification of time series by shapelet transformation. Data Min. Knowl. Discov. 28(4), 851–881. Horn, B. K. P. (1984). Extended gaussian images. Proceedings of the IEEE 72(2), 1671–1686. Kazhdan, M., T. Funkhouser, et S. Rusinkiewicz (2003). Rotation invariant spherical harmonic representation of 3d shape descriptors. In Proceedings of the 2003 Eurographics/ACM SIGGRAPH Symposium on Geometry Processing, SGP ’03, Aire-la-Ville, Switzerland, Switzerland, pp. 156–164. Eurographics Association. Knopp, J., M. Prasad, G. Willems, R. Timofte, et L. J. V. Gool (2010). Hough transform and 3d surf for robust three dimensional classification. In K. Daniilidis, P. Maragos, et N. Paragios (Eds.), ECCV (6), Volume 6316 of Lecture Notes in Computer Science, pp. 589–602. Springer. Kullback, S. et R. A. Leibler (1951). On information and sufficiency. Ann. Math. Statist. 22(1), 79–86. Lines, J., L. M. Davis, J. Hills, et A. Bagnall (2012). A Shapelet Transform for Time Series Classification. KDD ’12. New York, NY, USA : ACM. Lozano Vega, G. (2015). Image-based detection and classification of allergenic pollen. Theses, Université de Bourgogne. Matusita, K. (1955). Decision rules, based on the distance, for problems of fit, two samples, and estimation. Annals of Mathematical Statistics 26(4), 631–640. Refregier, A. (2001). Shapelets : I. a method for image analysis. Mon. Not. Roy. Astron. Soc. 338, 35. Renard, X., M. Rifqi, et M. Detyniecki (2015). Random-shapelet : an algorithm for fast shapelet discovery. In Proceedings of the IEEE International Conference on Data Science and Advanced Analytics (DSAA’2015). Renard, X., M. Rifqi, G. Fricout, et M. Detyniecki (2016). EAST representation : fast discovery of discriminant temporal patterns from time series. In ECML/PKDD Workshop on Advanced Analytics and Learning on Temporal Data, Riva Del Garda, Italy. - 235 - Classification d’objets 3D par extraction de sous-parties discriminantes Rusu, R. B., N. Blodow, Z. C. Marton, et M. Beetz (2008). Aligning Point Cloud Views using Persistent Feature Histograms. In Proceedings of the 21st IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Nice, France, September 22-26. Tabia, H. (2011). Contributions to 3D-shape matching retrieval and classification. Ph. D. thesis, Université Lille 1. Ye, L. et E. Keogh (2009). Time Series Shapelets : A New Primitive for Data Mining. In Proceedings of the 15th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD ’09, New York, NY, USA, pp. 947–956. ACM. Summary In this article, we propose a new approach for 3D object classification, based on the Time Series Shapelets of Ye et Keogh (2009). The main idea is to use discriminants sub-parts for the supervised classification in order to take care of the local nature of pertinent elements. This allows the user to be aware of these sub-parts which have been useful to determine the corresponding class of the object. Final results confirm the interest of random feature selection for pre-selection of attributes in supervised classification. - 236 -