4thInternationalConferenceonComputerIntegratedManufacturingCIP’200703-04 November 2007
contours déformables ou encore de modèles de
connaissance…etc.
A. Méthodes basées sur les mesures de Similarités
(Approches Région)
Les approches de segmentation régions visent à créer une
partition de l’image en un ensemble de régions homogènes au
sens d’un ou plusieurs critères. On recherche donc à rassembler
les pixels par critères de similarité. On peut distinguer les
méthodes par seuillages, croissance de régions…
Tout comme les méthodes à base de seuillages, les
segmentations par croissance de régions sont simples à mettre
en œuvre, mais parfois coûteuses en temps de calcul. Leurs
avantage réside dans la prise en compte des informations
contextuelles par le mécanisme de croissance et dans la
possibilité d’introduire des informations de plus haut niveau.
Néanmoins, leur inconvénient est lié à la disposition des
germes initiaux. En effet, celle-ci nécessite l’intervention d’un
opérateur. Enfin, nous notons leur utilisation restreinte au
contexte monomodal [3].
B. Méthodes de Détection des Discontinuités (Approches
Contours)
Contrairement aux approches régions, qui cherchent à
former des zones homogènes, les approches contours se basent
sur les discontinuités des images pour déterminer les contours
des régions. On peut distinguer les méthodes dérivatives et les
méthodes fondées sur les modèles déformables.
Les méthodes dérivatives permettent de détecter de manière
simple les ruptures dans une image ou un volume. Les contours
(ou surfaces en 3D) sont assimilés à des points de forts
gradients ou de dérivées secondes nulles. On retrouvera alors
des opérateurs tels que les filtres de Roberts, Sobel, Prewitt,
Deriche [4].
Les méthodes dérivatives, employées pour la segmentation
des images IRM cérébrales, sont relativement peu nombreuses
dans la littérature. Bien que rapides et ne nécessitant pas
d’information a priori, elles ne permettent pas, en général,
d’obtenir des contours fermés. Elles sont en effet très sensibles
au bruit et à la dérive du champ radiofréquence. Leurs
efficacités reposent sur l’existence de contrastes entre les
structures recherchées. Enfin, ces méthodes fournissent
fréquemment de la sous-segmentation ou de la sur-
segmentation [3].
Les algorithmes de segmentation fondés sur les modèles
déformables dérivent des méthodes de contours dynamiques
introduites par Terzopoulos [5], ils ont l’avantage, par rapport
aux méthodes dérivatives, de fournir des contours ou surfaces
fermés.
III. SEGMENTATION PAR CLASSIFICATION
Pour cette famille de méthodes, la segmentation d’une image
est vue comme une subdivision de cette dernière en
différentes classes de telle manière que : les éléments d’une
même classe soient les plus similaires possibles (minimisation
de la variance intra-classe), et les éléments de deux classes
distinctes soient les plus différents possibles (maximisation de
la variance inter-classe). On peut distinguer deux types de
méthodes : les méthodes supervisées et les méthodes non
supervisées (automatiques)
A. Méthodes Supervisées
Les méthodes supervisées nécessitent un ensemble d’images
ou de régions d’intérêt dans l’image déjà étiquetée. Soit, les
données à analyser
,1
p
j
XxR jN=∈ ≤≤, où
est un
vecteur forme représentant le pixel j. Cet ensemble de données
est décomposé en deux sous ensembles : un ensemble
d’apprentissage et un ensemble de test. L’ensemble
d’apprentissage est construit par étiquetage manuel des images
ou des régions d’intérêt en Cclasses de tissus
1,..., c
CC
par
un ou plusieurs experts. Chaque classe i
Cse voit donc affecter
un ensemble d’apprentissage i
E, et les données de l’ensemble
de test sont segmentées en fonction des i
E. Parmi ces
méthodes on peut citer : la segmentation Bayésienne, la
segmentation par les champs de Markov [6], réseaux de
neurones [7] …etc.
Pour notre cas, puisqu’il s’agit de segmenter des images
médicales IRM cérébrales, la classification supervisée de ces
images nécessite donc la création d’une base d’apprentissage
pour chaque classe et pour chaque patient ce qui est en elle
même une tâche très fastidieuse pour les experts [3]. C’est
pour cette raison qu’on s’intéresse aux méthodes non
supervisées.
B. Méthodes Non Supervisées (Automatiques)
L’intérêt des méthodes non supervisées (automatiques) est
qu’elles ne nécessitent aucune base d’apprentissage et aucune
tâche préalable d’étiquetage manuel. La seule intervention de
l’expert se situe à la fin du processus pour identifier les tissus
en comparant les classes calculées avec les classes biologiques.
Les algorithmes non supervisés les plus répandus tendent à
minimiser une fonction coût, dépendant de la distance de
chaque pixel aux prototypes (ou noyaux) des classes. Le
prototype d’une classe étant un point connu dont
l’appartenance à la classe est garantie et où chaque pixel est
assigné à la classe qui lui est la plus proche. Selon la certitude
de la classification que nous voulons obtenir, et la relation
entre les classes, nous pourrons distinguer plusieurs méthodes
de classification :
• Classification HCM (Hard C -Means)
Notons
, 1..
j
Xxj N==
l’ensemble des vecteurs forme
de
, avec 12
, ,..., T
jjj jp
xxx x
⎤
=
⎦, et
1,..., c
Bb b=un
ensemble de vecteurs prototypes inconnus, où i
b caractérise la
classei. Dans la méthode HCM un élément de
est attribué
à une classe et une seule parmi les C proposées. Dans ce cas,
la fonctionnelle à minimiser est :
2
11
(, , ) ( ,)
CN
ij j i
ij
BU X ud x b
==
=∑∑ (1)
Et les solutions au problème s’écrivent :