3
certaine maturité. Bien qu'il existe un bon nombre de
variantes du FCM, qui s'avèrent plus précises et plus
spécifiques que l'algorithme des C-moyennes floues [4].
le FCM nous paraît le plus approprié dans le cadre de
cette étude, répondant assez bien aux objectifs visés. En
effet ces derniers sont simples à implémenter et
convergent rapidement avec une solution localement
optimale. Cependant leurs majeurs inconvénients est
qu’ils nécessitent de fournir en entrée une partition
initiale de bonne qualité ainsi que le nombre possible de
classes.
Pour remédier à ce problème, nous avons eu recours à des
stratégies sous-optimales ou à des heuristiques sujettes aux
minima locaux. Les résultats obtenus dépendent bien
évidemment de la configuration initiale choisie. Le choix
des paramètres initiaux est un problème vaste de la
recherche opérationnelle et de nombreuses méthodes sont
possibles dans le cas de la classification.
L’introduction d’une recherche stochastique à la place d’une
recherche déterministe peut aussi améliorer les résultats, par
exemple avec un algorithme génétique (Jones and Beltrano,
1991 dans [5]; Cucchiara, 1993 dans [6]) ou une population
de fourmis. L’utilisation de fourmis artificielles pour la
classification, à la place d’un AG par exemple, est pertinente
dans le sens où les fourmis réelles ont ce genre de problèmes
à résoudre. Dans un certain sens, le modèle de fourmis
artificielles pour la classification est certainement plus
proche du problème de la classification que le modèle
génétique. Cependant le majeur inconvénient de ces
algorithmes est la détermination des paramètres de
l'algorithme et le temps d'exécution.
Pour pallier à ce problème, et améliorer la robustesse de
notre approche nous proposons une hybridation du FCM
avec l'algorithme AntClust proposé par différents auteurs:
Labroche et al , Kanade et al dans [7] et Batouche et
Ouadfel dans [8]. Ce dernier possédant l'avantage de fournir
une segmentation d’une image en des classes pertinentes
sans disposer d’une partition de départ et sans connaître le
nombre de classes nécessaires. De ce fait AntClust sera
lancé en premier avec un nombre limité d'itération qui
permettra de déterminer le nombre de classes initiales,
fournissant ainsi une bonne initialisation au FCM, lequel
devrait corriger des erreurs d’AntCust qui aurait mis
beaucoup plus de temps à les corriger.
B. Fusion des données
La fusion envisagée est une fusion entre deux types de
données hétérogènes, d’un coté l’image IRM et de l’autre
une donnée issue de dossier médical, ces deux sources sont
considérées complémentaires, car en fusionnant on cherche
à apporter des informations supplémentaires sur l’existence
éventuelle d’une pathologie, pour cette raison la fusion
envisagée sera appliquée à l’ensemble de l’image.
• Niveau de fusion : La fusion envisagée porte sur le
niveau des données, elle concerne l’agrégation entre
une image de modalité IRM et une information issue du
dossier médical.
• Cadre théorique de fusion : De nombreuses théories ont
été proposées pour représenter et gérer l'incertain et
l'imprécis dans les informations, notamment les théories
de l’incertain telles que les approches bayésiennes, la
théorie des possibilités et des sous-ensembles flous et
enfin la théorie des fonctions de croyance.
Si la théorie probabiliste repose sur une base mathématique
solide, elle présente cependant un inconvénient qui la
discrimine de nos choix, car même si elle représente bien
l'incertain qui entache l'information, elle ne permet pas
aisément de représenter son imprécision, conduisant ainsi
souvent à confondre ces deux notions [1]. La théorie des
ensembles flous quant à elle s’avère plus intéressante mais
reste inadapté dans le cadre de cette étude, car elle
représente essentiellement le caractère imprécis des
informations, l'incertitude étant représentée de manière
implicite et n'étant accessible que par déduction à partir des
différentes fonctions d'appartenance [1]. Il reste à choisir
entre la théorie possibiliste et évidentielle, notre choix s’est
porté sur la théorie possibiliste pour les raisons suivantes:
La richesse de l’étape de modélisation des données en
théorie des croyances est indéniable. Cependant elle
demeure rigide quant à la combinaison des informations [1],
et se résume la plupart du temps à l’application de
l’opérateur orthogonal de Dempster contrairement à la
théorie des possibilités qui offre quant a elle une grande
variété d’opérateurs ayant des comportements différents
suivant la situation présentée.
• Opérateur de fusion
Parmi les différents opérateurs présentés dans la
littérature, nous avons choisi d’utiliser un opérateur à
comportement constant et indépendant du contexte, notre
choix s’est porté sur la moyenne, qui forme un opérateur
prudent agissant comme un compromis entre les deux
sources. Les deux sources (image et la donnée issue du
dossier médical) présentent toutes les deux des sources
fiables mais à des degrés différents. Un degré de fiabilité
(une pondération) est attribué à chacune des deux sources,
soit respectivement t1 et t2, tel que :
t1+ t2=1 et (1)
Apres l’introduction d’une pondération, on ne parle plus
de moyenne, mais plutôt de moyenne pondérée appelée
aussi OWA (Ordered Weighted Average). Ce dernier
opérateur est considéré comme l’un des plus directs pour
effectuer la fusion d’images [19], et il est souvent
sélectionné dans le cas où les contributions des différentes
sources ne sont pas de même importance vis à vis de
l’application ce qui est le cas de cette étude.
Dans les OWA les poids ti sont définis par le rang des
valeurs à combiner.
Soient s1,s2,…,sn ses valeurs. Elles sont ordonnées en une
suite sj1, sj2,...,sjn telle que :
sj1 sj2... sjn