4thInternationalConferenceonComputerIntegratedManufacturingCIP’2007 03-04 November 2007
Algorithmes Neuro-Flous de Segmentation d'Images
IRM
Abdelouaheb MOUSSAOUI (1), Nabila FRAHTA(2)
(1) Département d’Informatique - Université Ferhat Abbas de Sétif Algérie
(2) Département de Technologie - Université Ferhat Abbas de Sétif Algérie
Résumé- Les méthodes de segmentation existantes sont
généralement fondées sur des principes très différents comme par
exemple les processus de classification, l’utilisation de modèles de
contours déformables ou encore de modèles de connaissance. Mais
ces dernières n'utilisent en générale qu'un seul volume d'image ce
qui cause dans la plupart des cas une perte considérable
d'informations. De plus ces méthodes ont tendance à être
dépendantes de certains paramètres à savoir le nombre de classes,
les fonctions de similarités qui sont souvent imposés ce qui rend
l'application de ces techniques aux images médicales
multimodales non appropriées.
Le but de notre travail est de montrer qu’il est possible de
définir un cadre commun de travail pour permettre la mise en
œuvre de coopération entre des approches hétérogènes. L’intérêt
d’une telle approche est de pouvoir exploiter la complémentarité
d’informations qui résultent de l’application de plusieurs
méthodes afin de proposer un système complet de segmentation.
Mots clefs- Diagnostic flou; Images médicales Multimodales;
Algorithme C-moyennes Possibiliste; Algorithme de
Maximalisation d'entropie, classification automatique,
Segmentation.
I. INTRODUCTION
La segmentation peut être décrite comme la définition de
groupements, dans l'espace paramétrique multimodal [8, 14],
où les points sont associés aux différents ensembles de valeurs
d'intensités similaires dans les images différentes. Comme
conséquence, dans cette approche, le processus de groupement
est le pas principal dans la procédure de segmentation
[5,20,15,21,10], et les techniques basées sur le groupement
automatique sont réputés être plus robuste pour la séparation
des différents tissus, en présence de bruit et de données
imprécises, par rapport aux techniques de détections de
contours [2,3,5].
De plus, l'incertitude est en grande partie présente dans les
images médicales à cause du bruit (pendant l'acquisition) et des
effets de volumes partiels. Cela veut dire que les valeurs des
voxels, surtout aux frontières entre volumes d'intérêt,
correspondent aux mélanges de tissus anatomiques différents, à
cause de la basse résolution des capteurs. Comme
conséquence, les frontières entre tissus ne sont pas définies
correctement et les adhésions dans les limites des régions sont
intrinsèquement floues.
A travers toutes ces considérations, notre choix pour la
segmentation des tissus anatomiques s'est porté sur les
méthodes d'analyse de données dont le principe est fondé
principalement sur le groupement automatique flou par
affinage progressif et interactif en utilisant des outils puissants
comme les bases de connaissances.
Dans la prochaine section, le problème de segmentation
d'images multimodales par classification automatique est
discuté. Dans les sections 3, 4 et 5, nous décrivons
respectivement le principe de l'algorithme CENN utilisé
comme bootstrap et les deux algorithmes de classification
neuro-floue développés. Dans la section 6, les résultats
obtenus sur des images médiales multimodales sont montrés et
discutés.
II. DE LA CLASSIFICATION A LA SEGMENTATION
Nous considérons un volume multimodal résultant d'un
ensemble de s différents volumes d'images. Leurs voxels sont
associés à un tableau de s valeurs, chacune représente
l'intensité d'un seul volume d'image. Autrement dit, les
sdifférentes valeurs d'intensités sont reliées à tous les voxels
dans lequel chaque volume multimodal peut être vue comme
les coordonnées des voxels dans un espace paramétrique de
dimension soù une analyse multimodale peut être faite.
Deux espaces différentiels sont cependant considérés pour la
suite dans la description du problème de segmentation:
un espace image (généralement 3D) défini à partir des
coordonnées spatiales de l'ensemble de données, et;
un espace paramétrique multimodal, qui est décrit
ultérieurement.
A part l'algorithme des C-moyennes classique (CM) [6] et
l'algorithme basé sur les réseaux de neurones appelé réseaux de
neurones à effet de capture (CENN) [7], on a fait plusieurs
expériences avec un nombre d'approches de classification
automatique floues pour la segmentation d'images
multimodales. Ces méthodes semblent donner de bons résultats
de classification automatique et elles ne sont pas affectées par
la dimension de l'espace paramétrique.
Cependant, les méthodes de classification automatique
floues produisent une classification de voxels, liée à la fonction
d'appartenance des différentes classes et peuvent apporter un
effet de lissage à la classification de voxels. Cela peut conduire
à une définition plus nette des surfaces des objets anatomiques
par la segmentation.
4thInternationalConferenceonComputerIntegratedManufacturingCIP’2007 03-04 November 2007
La première méthode floue étudiée concerne l'algorithme
des C-moyennes flou (FCM) par J. Bezdek [4,12].
L'algorithme FCM nécessite une définition à priori du nombre
de classes et ses résultas dépendent de ce nombre. L'application
de cet algorithme à la segmentation d'images médicales
multimodales est décrite dans [15].
La seconde est la méthode de classification automatique
floue basée sur le maximum d'entropie (MEP) [9,18,19]. Elle
ne nécessite aucune supposition à priori à propos du nombre de
classes. La méthodologie et les résultats de l'implémentation de
cet algorithme, concernant la segmentation d'images médicales
multimodales, sont décrits dans [16,15].
En fin, une étude expérimentale avec une version de
l'algorithme possibiliste C-moyennes (PCM) [12,13] décrit en
détails dans la section 4, et qui relâche la contrainte
probabiliste de la méthode précédente et donne des valeurs
absolues des degrés d'appartenance (ou typicalité) pour les
points dans l'ensemble flou (ou groupement). Cependant, en
démarrant à partir d'un nombre de classes assez grand,
l'algorithme PCM, comme l'algorithme MEP, peut retrouver le
nombre naturel des classes dans l'ensemble de données.
Dans notre expérience, la seconde version de l'algorithme
possibiliste C-moyennes (PCM-II) [13],[17], utilisé comme
étape de raffinement des résultats de CENN, a produit les
meilleurs résultats de segmentation. Ainsi, l'algorithme
NFPCM est défini en ajoutant une étape heuristique finale pour
la fusion des classes redondantes. Le même algorithme CENN
est utilisé également pour déterminer le nombre de classes dans
une version combiné au principe du maximum d'entropie
introduit par Rose, Gurewitz et Fox [18, 19]. Ce deuxième
algorithme st baptisé NFMEP (Neuro Fuzzy Maximum
Entropy Principle)
Dans la section suivante, l'algorithme CENN est décrit et ses
résultats sont utilisés pour lancer les deux algorithmes
développés.
III. ALGORITHME CENN
Le CENN [7] Le CENN [7] est un réseau neural auto-
organisant capable de prendre en considération les
caractéristiques locales des distributions des points
(groupement par résolution adaptative). CENN combine l'auto-
organisation compétitive standard des vecteurs de poids [11]
avec le mécanisme non-linéaire de la modulation local
adaptative des champs réceptifs (RFs) des neurones (Capture
Effect). La phase d'apprentissage du CENN consiste en un pas
d'apprentissage, en calculant un vecteur de quantification
vectoriel de données, et le pas d'étiquetage, où les prototypes,
obtenus en déroulant l'étape précédente, sont groupés afin
d'obtenir des classes robustes.
Dans la phase d'apprentissage, un ensemble de neurones
{
}
,
iii
nwr=est initialisé avec des vecteurs poids aléatoires
i
w(représentant les centres des sub-classes), et avec un large
rayon i
r(0i
rR=) des champs réceptifs i
RF (modélisé par une
fonction Gaussienne
γ
). Après cela, l'ensemble des données est
présenté au CENN et la formule d'apprentissage suivante est
appliquée : (())
()
(())
jk
iwk j k
dx
wxw dx
γ
ηγ
∆=
(1)
(
)
(
)
(
)
(
)
()
i
i0
dexp/
0 if d
rki ik
i
k
x
rdxp
rxR
η
−−
∆=
⎩⎭
(2)
w
η
et r
η
sont les vitesses d'apprentissage,
(
)
ik k i
dx x w=−est la distance Euclidienne des points aux
vecteurs poids, et le paramètre pest définie comme :
(
)
,
ln10
ik
dx
pD
(3)
sachant que Dest la dimension de l'espace d'attributs.
Le pas de l'étiquetage abandonne tout neurone q
navec
0q
nR
=
(i.e. neurone ne faisant pas partis des éléments de
l'ensemble d'apprentissage) et leurs paires de neurones,
net
q
n, doivent recevoir la même étiquette (i.e. leur classes
associées sont fusionnées) si :
(
)
(
)
, 0,1 ,
pq pq
ww rr
σσ
−<+ (4)
IV. ALGORITHME NFPCM :
Dans [12,13], Krishnapuram et Keller pressentent deux
version de l'algorithme probabiliste C-moyennes (PCM) qui
relâchent la contrainte probabiliste, pour permettre s'assimilé
l'interprétation possibiliste de la fonction d'appartenance à un
degré de typicalité.
Soit
{
}
/1,,
k
Xxk n==l'ensemble de données à classer;
{
}
/1,,
j
Yyj c==l'ensemble des centres de classes (ou
prototypes); et jk
Uu
=
la matrice des degrés d'appartenance.
Dans l'algorithme PCM, les éléments de Uremplis les
conditions suivantes :
[
]
0,1 , ;
jk
ujk∈∀
(1)
1
0n ;
n
jk
kuj
=
<
<∀
(5)
0 .
jk
juk>∀
(3)
PCM-II [13] est basé sur la modification de la fonction
objective de CM [6] afin de d'éviter le détermination du
paramètre de flou. La fonction objective de PCM-II contient
deux termes, le premier est la fonction objective de CM [6],
alors que le second est le terme régulateur. Les points qui
possèdent des degrés de typicalité élevés ont une valeur de
jk
uimportante, et les points non représentatifs ont une valeur
jk
umoins importante dans toutes les classes :
4thInternationalConferenceonComputerIntegratedManufacturingCIP’2007 03-04 November 2007
() ()
()
11
11
,
log ,
cn
mjkjk
jk
cn
jjkjkjk
jk
JUY uEx
uuu
ξ
==
==
=
+−
∑∑
∑∑ (6)
()
2
j
kkj
Ex x y=− est le carré de la distance
Euclidienne, et le paramètre j
ξ
dépend de la distribution des
points dans la jème classe, et doit être assigné avant le procédure
de classification.
Comme déjà démontré par Krishnapuram et Keller [13], la
pair (,)UV minimise m
J
, sous les contraintes (1-3) si et
seulement si :
(
)
exp j,k,
jk
jk j
Ex
u
ξ
⎧⎫
⎪⎪
=∀
⎨⎬
⎪⎪
⎩⎭
(7)
et 1
1
j.
n
kjk
k
jn
jk
k
xu
yu
=
=
=∀
(8)
Un algorithme de classification de bootstrap peut être
exécuté avant de lancer le PCM, afin d'obtenir une distribution
initiale des prototypes dans l'espace paramétrique et estimer
ainsi quelques paramètres utilisés dans cet algorithme. En
considérant le CENN comme bootsrap pour le PCM [1,12,13],
la définition suivante de j
ξ
est initialement utilisée :
()
1
1
() ,
()
nm
jk j k
k
jnm
jk
k
uEx
u
ξ
=
=
=
(9)
(
)
1,m∈+
est le paramètre de flou utilisé par FCM et
kest un paramètre de normalisation. Cette définition fait que
j
ξ
soit proportionnel à la valeur moyenne de l'écart entre les
classes et dépend fortement du choix de k (dans [12] on
suggère que 1k=).
Dans le pas de l'affinage facultatif suivant, une deuxième
définition de j
ξ
est utilisée:
(
)
() ,
()
jjk
xk
j
j
Ex
πα
ξπα
= (10)
()
j
α
π
est l'ensemble des points de la jième classe dont la
fonction d'appartenance est supérieur à un seuil donnée
α
(α-
coupe).
V. ALGORITHME NFPCM ( NEURO-FUZZY POSSIBILIST C-
MEANS):
CENN Bootstarp
- Lancer et étiquetter le CENN et obtenirc, 0
j
y et
j
ξ
;
- Calculer (0)
U (eq. 5) ;
- Initialiser le compteur d'itération ( 0
) et le
seuil
ε
pour le test d'arrêt;
Itération de Base PCM-II
Répéter
- Mettre à jour les prototypes (1)
j
y+ (eq. 7 et 8)
- Calculer (1)
U
+
(eq. 5);
- Incrémenter ( 1←+);
Jusqu'à
1
kk
kyy
ε
+

;
Fusionner les classes redondantes
- Grouper les calasses dont la distances des poids
(eq. 9, 10) est inférieur à 10
ε
.
VI. ALGORITHME NFMEP
Le principe de la maximisation d'entropie proposé par Jaynes
[9] a été récemment appliqué au regroupement flou par Rose,
Gurewitz et Fox [13,14].
Soit jk
pla distribution de probabilité du kième attribut de
l'ensemble d'apprentissage
à la jème classe et l'entropie de
Shannon de l'ensemble
.
En maximisant
H
sous les contraintes de l'eqs (6) et (2), les
fonctions d'appartenance résultantes des échantillons des
classes sont des distributions de Gibbs [9] :
()
jk
Ex
jk k
e
uZ
β
= (11)
()
1
lk
c
E
x
kl
Ze
β
=
= (12)
est un facteur de normalisation nommé Fonction de
Partition. Du point de vu de a mécanique statistique le
multiplicateur de Lagrange
β
est interprété comme l'inverse
de la température T 1
T
β
⎛⎞
=
⎜⎟
⎝⎠
. (13)
De plus, il peut être interprété comme un paramètre de
contrôle de flou. Quand
β
croit, les associations des
échantillons avec leurs classes respectives deviennent de moins
en moins floues.
Les cas limites sont :
pour 0
β
+
on a 1
jk c
µ
= pour tout j,k, i.e., chaque
échantillon est associé d'une manière équitable à chaque
groupe;
pour
β
→∞ on a 1
jk
µ
= si l'échantillon appartient au
groupe j, et 0
jk
µ
=
pour tout le ij,
[
]
1,ic, i.e., caque
échantillon est associé à seulement un groupe (limite dure).
Nous définissons l'Erreur Effective (aussi appelée l'Énergie
Libre, par analogie à la Mécanique statistique) par :
1ln
F
Z
β
=− (14)
k
k
Z
Z=
(15)
4thInternationalConferenceonComputerIntegratedManufacturingCIP’2007 03-04 November 2007
est appelé Fonction de Partition Totale.
On peut facilement démontré que max
1
F
HE
β
=− + (16)
et de là lim FE
β
→∞ =² (17)
Cette limite nous permet de trouver la solution de la
minimisation sous contraintes de E en déroulant
l'algorithme du recuit déterministe sur F proposé par Rose,
Gurewitz et Fox [18, 19]. Cette méthode que nous nommons
Groupement Flou par le Principe de l'Entropie Maximal (MEP-
FC), débute en minimisant F à une haute température T, pour
laquelle il existe une solution unique 1
jk c
µ
= pou tout j,k, et
on réduit progressivement T jusqu'à ce que a limite dure soit
atteinte.
Dans l'algorithme utilisé ici, on considère, comme proposé
dans [18, 19],
()
2
j
kkj
Ex x y=− et pour chaque valeur de
β
on calcule la minimisation de F en considérant Y par itération
de la formule suivante :
1
1
n
jk k
k
jn
jk
k
ux
yu
=
=
=
(18)
VII. RESULTATS ET DISCUSSION
Nous avons implémenté les deux algorithmes NFPCM et
NFMEP comme deux modules de classification automatique
en vue de la segmentation d'images médicales multimodales.
Dans cette section on discute l'application de cet algorithme à
deux ensembles de données multimodales. Ces données sont
composées de trois volumes IRM (pondéré en T1, T2 et en
densité de proton).
Le premier ensemble de données représente une coupe
cérébrale d'un individu normal et le but est de séparer la
substance blanche, la substance grise, le liquide cérébro-
spinale, l'encéphale et autre structures afin de déceler les
éventuelles anomalies morphologiques.
Le second ensemble de données représente la coupe d'un
cerveau humain d'un individu atteint d'un méningiome et le but
est de délimiter par contour la tumeur localisée dans le lobe
frontal droit et cela en vu de séparer correctement la tumeur
des tissus seins.
Dans tous les cas la fusion des différents volumes produit un
ensemble de données de dimension trois (multimodale).
Chaque triplet d'intensité de voxel dans les données
multimodales est représenté par un point dans un espace
d'attribut de dimension trois où les différentes coordonnées
représentent les intensités respectives à chaque axe.
Pour l'individu normal, les images originales ont une
dimension de 171x220 pixels de 256 niveaux de gris. La
segmentation non supervisée avec FNPCM et FNMEP est
montrée à la Fig. 2. L'algorithme CENN trouve
automatiquement cinq classes avec en général une bonne
performance mais avec une nette surestimation de la substance
blanche.
En comparaison avec l'algorithme PCM et MEP, sur les
mes images (Table 1 et Fig. 1), une large et mauvaise
classification des structures (près des yeux) est bien visible, par
contre on remarque bien une très bonne séparation de la
matière grise et blanche.
Les algorithmes FNPCM et FNMEP tirent profit de
l'algorithme de CENN utilisé comme bootstrap ce qui donne
une très bonne classification notamment des structures
cérébrales par rapport aux PCM et MEP (Table 1).
Dans la Fig.2 nous montrons l'efficacité de l'application du
FNPCM et FNMEP par rapport au PCM et MEP dans
différentes conditions sur des images anatomiques d'un
individu atteint d'un méningiome.
Afin de valider les résultats et avons d’avoir une
comparaison objective, nous avons utilisé deux métriques de
mesures de similarité une quantitative et l’autre qualitative, il
s’agit respectivement de la mesure de similarité kappa et du
taux de recouvrement souvent appelé la mesure de similarité de
Vinet [22]. Les résultats sont très intéressants et ils sont
représentés dans la Table 2.
PCM MEP NFPCM NFMEP
Tumeur 0.09 0.44 0.59 0.74
SB 0.77 0.5 0.83 0.94
SG 0.53 0.69 0.76 0.63
LCR 0.76 0.79 0.79 0.95
Table 1 : Comparaison des résultats obtenus par différents algorithmes
Kappa
T.R
Coupes PCM NFPCM NFMEP
Sagittales 0.85 0.90 0.93
95.01 96.43 98.78
Coronales 0.63 0.68 0.79
96.99 97.39 97.39
Axiales 0.49 0.86 0.81
94.39 95.45 97.07
Table 2 : Mesures de la segmentation selon les deux directions sagittale et
coronale : utilisation de la mesure de Kappa et du taux de recouvrement (%).
4thInternationalConferenceonComputerIntegratedManufacturingCIP’2007 03-04 November 2007
(a) (b)
(c) (d)
Fig. 1 : Segmentation obtenues (a) PCM; (b) MEP; (c) NFPCM et (d) NFMEP
(patient normal)
(a) (b)
(c) (d)
Fig. 2: Segmentation d'images obtenue par (a) PCM; (b) MEP; (c) NFPCM et
(d) NFMEP (patient avec méningiome).
VIII. CONCLUSION
Pour le diagnostic de pathologies à travers le traitement
d'images médicale, les approches basées sur les techniques de
classification automatique (clustering) [5,10,15,20,21]
montrent une robustesse quant à la discrimination des régions
par rapport aux techniques basées sur la détection des contours
[5], à cause du faible ratio signal/bruit qui caractérise la
majorité des données d'images médicales. En outre, les
approches de classification automatique floues à semblent être
particulièrement intéressantes parce que, dû à l'effet du volume
partiel pendant l'acquisition, la valeur du voxel aux frontières
entre volumes d'intérêt correspond aux mélanges de tissus
anatomiques différents.
L'approche probabiliste pour la classification automatique
[12,13], traitant le degré d'appartenance d'un voxel à un tissu
particulier comme degré de typicalité est particulièrement utile.
Dans l'implémentation décrite dans ce papier par les algorithme
PNPCM et FNMEP, on combine un bootstap basé sur
l'algorithme CENN [7] avec la seconde version du PCM-II
[13], avec une simple heuristique de fusion de classes
redondantes, et l'algorithme MEP avec une initialisation de T
très grande [18].
Les algorithmes ont été appliqués sur différents types
d'images médicales (IRM) et les résultats prouvent leur
efficacité quant à la segmentation des tissus cérébraux (Fig. 1)
et/ou des tissus tumoraux (Fig. 2).
REFERENCES
[1] Barni M, Capellini V, Mecocci A., “Comments on a possibilistic
approach to clustering”, IEEE Trans Fuzzy Syst, 1996;49:385–93.
[2] Beni G, Liu X., “A least biased fuzzy clustering method”, IEEE Trans
Pattern Anal Mach Intell., 1994;16:954–60.
[3] Bensaid AM, Hall LO, Clarke LP, Velthuizen RP., “MRI segmentation
using supervised and unsupervised methods”, In: Nagel JH and Smith
WM, editors. Proceedings of the Thirteenth IEEE Engineering in
Medicine and Biology Soc. Conference. New York: IEEE, 1991:483–489.
[4] Bezdek JC., Pattern Recognition with Fuzzy Objective Function
Algorithms”, New York: Plenum Press, 1981.
[5] Bezdek JC, Hall LO, Clarke LP., “Review of MR image segmentation
techniques using pattern recognition”, Med Phys 1993;20:1033–48.
[6] Duda RO, Hart PE., “Pattern Classification and Scene Analysis”, New
York: Wiley, 1973.
[7] Firenze F, Morasso P., “The capture effect model: a new approach to
self-organized clustering”, In: Proceedings of the Sixth International
Conference on Neural Networks and their Industrial and Cognitive
Applications and Exhibition Catalog, NEURO-NIMES 93 Conference.
Nimes (France),1993:45–54.
[8] Gerig G, Martin J, Kikinis R, Kubler O, Shenton FA, Jolesz M.,
“Unsupervised tissue type segmentation of 3D dual-echo MR head data”,
Im Vis Comput 1992;10:349–60.
[9] Jaynes ET., “Information theory and statistical mechanics”, Phys Rev,
1957;106:620–30.
[10] Karayiannis NB. A., “Methodology for construction of fuzzy algorithms
for learning vector quantization”, IEEE Trans Neural Netw 1997;8:505–
18.
[11] Kohonen T., “Self-Organizing Maps”, Berlin: Springer–Verlag, 1995.
[12] Krishnapuram R, Keller JM., “A possibilistic approach to clustering”,
IEEE Trans Fuzzy Syst 1993;1:98–110.
1 / 6 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !