Ch. Jégou, A. Bonmartin
Médecine Nucléaire - Imagerie fonctionnelle et métabolique - 2004 - vol.28 - n°11 555
de la distance moyenne (euclidienne,
de Chanfrein) entre les points à met-
tre en correspondance [7]. L’utilisa-
tion de points de repère est le plus
souvent couplée à une transforma-
tion linéaire [8].
Les repères utilisés peuvent être ex-
ternes au sujet ou intrinsèques.
Les rLes r
Les rLes r
Les repèrepèr
epèrepèr
epères ees e
es ees e
es exterxter
xterxter
xternesnes
nesnes
nes
On se sert de marqueurs qui peuvent
être remplis de liquide pour assurer
leur visibilité dans les différentes
modalités [9]. En neurochirurgie, les
marqueurs sont attachés à des cadres
stéréotaxiques fixés dans l’os. Ces
cadres étant nécessaires pour l’opé-
ration, les marqueurs, utiles pour la
localisation et le guidage, ne consti-
tuent pas une charge supplémentaire
pour le patient [7, 8]. La chirurgie du
cerveau utilise également des mar-
queurs directement vissés dans l’os,
technique employée pour le posi-
tionnement en radiothérapie et pour
l’orthopédie. Par contre, l’utilisation
de marqueurs collés sur la peau est
non invasive, mais diminue la préci-
sion du fait des mouvements possi-
bles de la peau. Cet écueil est con-
tourné pour les applications en radio-
thérapie par l’utilisation de moules
uniques de contention, employés sur
chaque système d’imagerie (IRM,
TDM, TEP) et sur le système de traite-
ment.
Les rLes r
Les rLes r
Les repèrepèr
epèrepèr
epères intres intr
es intres intr
es intrinsèquesinsèques
insèquesinsèques
insèques
Ils sont constitués de caractéristiques
particulières extraites des données,
caractéristiques qui peuvent être ana-
tomiques : on utilise alors des points
de la morphologie que l’on peut si-
tuer avec précision et qui sont le plus
souvent identifiés interactivement par
l’utilisateur. On peut se servir égale-
ment de données géométriques, con-
sistant à extraire automatiquement
des optima de fonctions géométri-
ques comme le maximum d’un rayon
de courbure. Enfin, on peut se servir
de l’intensité des voxels : dans ce cas
les images subissent d’abord une
étape de segmentation pour en ex-
traire des courbes, des surfaces ou
des volumes.
Ces méthodes ont prouvé leur effica-
cité et leur robustesse dans le
recalage multimodalité intra-sujet en
utilisant, par exemple, la surface de
la peau, facilement identifiable dans
les images d’IRM, TDM ou TEP, et suf-
fisante pour contraindre le calcul
d’une transformation rigide [1, 10].
Mesure de l’alignement utilisantMesure de l’alignement utilisant
Mesure de l’alignement utilisantMesure de l’alignement utilisant
Mesure de l’alignement utilisant
l’image dans sa totalitél’image dans sa totalité
l’image dans sa totalitél’image dans sa totalité
l’image dans sa totalité
Dans ce type de mesure, basée sur
les propriétés des voxels (“voxel
property based”), les données ne su-
bissent aucune réduction, aucune
segmentation. Ce type d’information
est préféré lorsqu’il est difficile d’ex-
traire des structures communes des
jeux de données. Elle permet aussi
de faciliter l’automatisation du
recalage.
Il existe deux approches distinctes :
l’image peut subir un pré-traitement
pour transformer les intensités en un
ensemble de valeurs associées à une
orientation par la détermination des
axes principaux et le calcul des mo-
ments, ou être utilisée telle quelle. La
première approche ne fournit pas, en
général, de résultats très précis, mais
elle est rapide, automatique, et facile
à implémenter [8]. Dans le dernier cas,
on utilise la distribution des intensi-
tés de l’image pour calculer une me-
sure de similarité ou dépendance sta-
tistique. Parmi celles-ci, le coefficient
de corrélation mesure une dépen-
dance linéaire entre les distributions
en intensité des données, tandis que
le rapport de corrélation mesure une
dépendance fonctionnelle [11, 12]. Le
critère de Woods, lui, est fondé sur
une hypothèse d’uniformité : une ré-
gion d’intensité homogène dans un
jeu de données correspond à une
région d’intensité également homo-
gène dans l’autre jeu de données.
Cette hypothèse à été proposée ori-
ginellement pour répondre au pro-
blème du recalage TEP-IRM [12]. En-
fin, l’information mutuelle utilise le
calcul de l’entropie des images, qui
est une mesure du “désordre” dans la
distribution de la densité de proba-
bilité des intensités des pixels [7, 13,
14, 15]. L’information mutuelle sera
choisie dans les cas où l’on dispose
de peu de connaissances sur la dé-
pendance statistique des données, ce
qui est le cas pour le recalage IRM-
TEMP par exemple.
L’optimisation
!La partie optimisation est un algo-
rithme itératif qui recherche la valeur
maximale de la mesure de qualité
d’alignement, correspondant à la
transformation qui conduit au
meilleur résultat pour le recalage. Le
choix de l’algorithme d’optimisation
a une grande influence sur le résul-
tat du recalage, particulièrement en
ce qui concerne la robustesse de la
technique employée par rapport à la
transformation initiale. On distingue
quatre approches de l’optimisation
[16] :
- Les approches quadratiques ou semi-
quadratiques comprennent la des-
cente de gradient, les méthodes de
Powell, de Newton-Raphson, du
Simplex, ou l’Iterative Closest Point
(ICP) [17]. Une grande partie de ces
techniques est documentée dans [18].
Ces méthodes sont peu robustes et
donc bien adaptées aux problèmes
contraints.
- Les approches stochastiques ou ba-
sées statistiques comme le recuit si-
mulé ou les algorithmes génétiques
sont plus robustes que les premiè-
res mais leurs temps de calculs sont
plus longs.
- Les approches structurelles sont
basées sur l’utilisation d’arbres ou de
graphes. Elles sont bien adaptées aux
cas où les mesures de similarité peu-
vent être formalisées par une struc-
ture hiérarchique.
- Enfin, la recherche de l’optimum
peut se faire interactivement avec
l’utilisateur, par inspection visuelle.
Dans ce cas, on parle d’approche heu-
ristique.
Pour éviter les extrema locaux qui
conduisent à un mauvais alignement
des images, et/ou pour réduire le
temps de calcul, on complète parfois
le processus d’optimisation par une
stratégie particulière. La multi-résolu-
tion, par exemple, consiste à sous-
échantillonner les images et à effec-
tuer ensuite des recalages successifs
en augmentant la résolution pour af-
finer progressivement l’alignement
[19, 20, 21]. Pour éviter les erreurs
de recalage, on peut également asso-
cier des mesures de similarité com-