PDF(3,93Mo) - Collection mémoires et thèses électroniques

publicité
Implantation d’un algorithme de reconstruction
itératif 4D en tomodensitométrie à faisceau conique
Mémoire
Julia Mascolo-Fortin
Maîtrise en physique médicale
Maître ès sciences (M.Sc.)
Québec, Canada
© Julia Mascolo-Fortin, 2017
Implantation d’un algorithme de reconstruction
itératif 4D en tomodensitométrie à faisceau conique
Mémoire
Julia Mascolo-Fortin
Sous la direction de:
Philippe Després, directeur de recherche
Résumé
La tomodensitométrie avec faisceau conique (CBCT) est actuellement utilisée en radiothérapie externe pour visualiser le patient dans la salle de traitement. Le mouvement respiratoire
des patients y est encore difficilement pris en compte et des avancées sur le sujet pourraient
améliorer la précision des traitements. En ce sens, l’obtention d’une séquence imageant les
mouvements dans la région d’intérêt serait souhaitable. Ce mémoire présente le développement d’un algorithme de reconstruction 4D pour CBCT qui tente de répondre à certains
besoins cliniques, soit l’obtention d’une qualité d’image suffisante, une facilité de mise en
place clinique et une rapidité de calcul. L’algorithme 4D développé se base sur l’algorithme
itératif convexe avec sous-ensembles ordonnés et régularisation de variation totale. Cette méthode a été choisie pour sa rapidité d’exécution, procurée par l’utilisation de sous-ensembles et
la parallélisation des calculs sur carte graphique, et pour sa capacité à diminuer les artéfacts
de rayons, communs en imagerie 4D, procurée par la régularisation de variation totale. La
méthode développée pour obtenir une image 4D à partir d’acquisitions CBCT standards a fait
appel à l’algorithme Amsterdam Shroud pour déduire le mouvement respiratoire de l’ensemble
de projections CBCT. Elle a été validée sur un fantôme numérique et sur des acquisitions cliniques. Les résultats obtenus démontrent le potentiel de l’algorithme, puisqu’une image de
résolution spatiale et temporelle satisfaisante a été reconstruite en moins de 5 minutes. Un
tel temps de calcul se compare avantageusement à d’autres méthodes disponibles et ouvre la
porte à une visualisation rapide du mouvement respiratoire en salle de traitement.
iii
Abstract
Cone beam computed tomography (CBCT) is currently used to visualize patients directly in
the treatment room. However, the respiratory movement is still hardly taken into account
and new developments could improve the precision of treatment. To this end, obtaining a
film imaging movements in the region of interest would be beneficial. This master’s thesis
presents the development of a reconstruction algorithm for 4D CBCT which seeks to respond
to particular clinical needs, namely sufficient image quality, clinical implementation simplicity
and high computational speed. The developed 4D algorithm is based on the ordered subsets
convex iterative algorithm combined with the total variation minimization regularization technique. This method was chosen for its fast execution time, enabled by the use of subsets and
the parallelization on GPU, and for its capability to reduce streaking artifacts, common on 4D
imaging, enabled by the total variation regularization. The method developed to reconstruct
a 4D image from standard CBCT scans employed the Amsterdam Shroud algorithm to deduce
respiratory movement of a CBCT projections’ set. Its validation was performed on a numerical phantom and on clinical datasets. Results demonstrate the potential of the algorithm,
since an image with sufficient spatial and temporal resolution was reconstructed in less than 5
minutes. Such computational times can be compared favorably with other available methods
and could allow for online applications.
iv
Table des matières
Résumé
iii
Abstract
iv
Table des matières
v
Liste des tableaux
vii
Liste des figures
viii
Liste des acronymes et des unités utilisés
x
Remerciements
xii
Avant-propos
xiii
1 Introduction
1.1 Tomodensitométrie . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Rétroprojection filtrée . . . . . . . . . . . . . . . .
1.1.2 TDM dans le contexte de la radiothérapie externe
1.2 Algorithme OSC-TV . . . . . . . . . . . . . . . . . . . . .
1.2.1 Principe général de la reconstruction itérative . . .
1.2.2 Algorithme d’espérance-maximisation . . . . . . .
1.2.3 Utilisation de l’algorithme EM en TDM . . . . . .
1.2.4 Algorithme EM de type convexe . . . . . . . . . .
1.2.5 Utilisation de sous-ensembles ordonnés . . . . . . .
1.2.6 Régularisation de variation totale . . . . . . . . . .
1.3 Imagerie 4D . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Obtention du signal respiratoire . . . . . . . . . . .
1.3.2 Regroupement des sous-ensembles . . . . . . . . .
1.3.3 Reconstruction 4D . . . . . . . . . . . . . . . . . .
1.4 Objectif du projet . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
2
3
4
6
6
7
9
11
11
12
14
14
16
16
19
2 Étude du mouvement respiratoire
2.1 Algorithme Amsterdam Shroud . . . . . .
2.2 Données d’essai . . . . . . . . . . . . . . .
2.3 Application de l’algorithme AS . . . . . .
2.4 Traitement du signal respiratoire . . . . .
2.5 Séparation en sous-ensembles respiratoires
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
22
22
25
26
v
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2.6
2.7
Temps de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
29
3 A fast 4D cone beam CT reconstruction method based on the OSC-TV
algorithm
3.1 Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Materials and methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1 OSC-TV algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.2 Adaptation to 4D reconstruction . . . . . . . . . . . . . . . . . . . .
3.4.3 GPU implementation and hardware . . . . . . . . . . . . . . . . . .
3.4.4 Projection data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.5 Comparative evaluation . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Results and Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.1 Simulated data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.2 Clinical data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.3 Reconstruction times . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
31
31
32
34
34
35
36
37
38
39
39
47
49
50
4 Conclusion
52
Bibliographie
54
vi
Liste des tableaux
1.1
Résumé des temps de calcul et des caractéristiques l’influençant pour différents
algorithmes de reconstruction 4D . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.1
Statistiques sur les différences entre les sous-ensembles obtenus par l’algorithme
AS et par la méthode manuelle (pour les données cliniques) ou selon le signal
réel (pour le fantôme numérique). . . . . . . . . . . . . . . . . . . . . . . . . . .
29
Reconstruction times of the XCAT phantom by the different 4D algorithms (for
all 8 respiratory phases). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
3.1
vii
Liste des figures
1.1
1.2
1.3
1.4
1.5
1.6
1.7
Schéma d’un faisceau en éventail en TDM . . . . . . . . . . . . . . . . . . . . .
Filtres utilisés en rétroprojection filtrée . . . . . . . . . . . . . . . . . . . . . . .
Accélérateur linéaire Clinac iX de Varian avec système d’imagerie CBCT . . . .
Schéma de la reconstruction itérative . . . . . . . . . . . . . . . . . . . . . . . .
Magnitude de gradient d’un fantôme numérique anthropomorphique . . . . . .
Schéma de la reconstruction 4D. . . . . . . . . . . . . . . . . . . . . . . . . . .
Exemple d’un signal respiratoire regroupé selon la phase ou selon le déplacement
absolu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
4
5
6
13
15
2.1
2.2
2.3
2.4
Image Amsterdam Shroud obtenue à partir du fantôme XCAT. . . .
Signaux respiratoires directement extrait de l’image AS . . . . . . .
Signaux respiratoires après l’application d’un filtre passe-bande . . .
Signaux respiratoires avec juxtaposition des extrema détectés par la
de persistance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Numéros des sous-ensembles obtenus pour chaque projection . . . . .
23
24
26
2.5
3.1
3.2
3.3
3.4
3.5
. . . . . .
. . . . . .
. . . . . .
méthode
. . . . . .
. . . . . .
Flowchart of the different proposed methods to adapt the OSC-TV algorithm
to 4D reconstruction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3D reconstruction of the XCAT phantom in movement using the FDK algorithm
and the OSC-TV algorithm. Both reconstructions display notable motion blurring and artifacts. µ range of [0, 0.3] cm−1 shown. . . . . . . . . . . . . . . . .
NRMSD as a function of completed iterations for different iterative methods
(3D OSC, 4D OSC, 3D OSC+4D OSC, FDK+4D OSC and ASD-POCS) for
phase 0%. The four 4D methods yield a lower error than 3D OSC-TV, but
the methods with a prior reconstruction yield the lowest error estimator and
converged faster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
NRMSD as a function of the reconstructed phase for different methods (3D
OSC, 4D OSC, 3D OSC+4D OSC, FDK+4D OSC, MKB and ASD-POCS). The
NRMSD is measured for (a) the entire FOV and (b) a ROI of 30×30×30 voxels
around the 1-cm lesion. The four iterative methods yield a lower estimation error
than MKB, while FDK+4D OSC and 3D OSC+4D OSC yield the lowest NRMSD.
XCAT phantom and its 4D reconstructions for respiratory phase 0% (endexpiration). The use of a prior image initialization considerably improved image
quality. µ range of [0, 0.3] cm−1 shown. For the phantom, colored lines indicate
where the attenuation profiles of Fig. 3.7 (red) and Fig. 3.8 (blue and yellow)
were measured. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
viii
17
27
28
36
40
41
42
43
3.6
3.7
3.8
3.9
XCAT phantom and its 4D reconstructions for respiratory phase 43% (central
respiration phase). Iterative methods provide comparable results, while MKB
reconstruction shows both important artifacts and motion blurring. µ range of
[0, 0.3] cm−1 shown. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Attenuation profiles for phase 0% (a) and 100% (b) as measured across the
diaphragm in the longitudinal axis for different 3D volumes. . . . . . . . . . . .
Attenuation profiles for phase 0% (top row) and 100% (bottom row), as measured where the 1 cm diameter soft tissue sphere is located during phase 0% (left
column) and phase 100% (right column). Profiles are plotted in the anteriorposterior axis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Reconstruction of a clinical dataset (a) with the FDK algorithm (b) with various
4D algorithms for phases 0% and 100%. µ range of [0, 0.3] cm−1 shown. . . . .
ix
44
45
46
48
Liste des acronymes et des unités
utilisés
Acronymes
AI
Méthode d’analyse d’intensité
ART
Technique de reconstruction algébrique
AS
Amsterdam Shroud
CBCT
Cone beam computed tomography (tomodensitomètre avec faisceau conique en français)
CPU
Central Processing Unit (processeur central en français)
CUDA
Compute Unified Device Architecture
EM
Algorithme d’espérance-maximisation
FDK
Algorithme développé par Feldkamp, David et Kress
GPU
Graphics Processing Unit (processeur graphique en français)
GRPM
Groupe de recherche en physique médicale
IGRT
IMRT
Image-guided radiation therapy(radiothérapie guidée par image en
français)
Intensity-modulated radiotherapy(radiothérapie par modulation d’intensité en français)
ITK
Insight Toolkit
µ
Coefficient d’atténuation
MKB
Algorithme McKinnon-Bates
NIST
National Institute of Standards and Technology
NRMSD
Normalized root-mean-square deviation
NURBS
OSC
Non-Uniform Rational Basis Splines (B-spline rationnelle non uniforme en français)
Ordered subsets convex algorithm (algorithme convexe avec sousensembles ordonnées en français)
PICCS
prior image constrained compressed sensing
RPM
Real-time Position Management
x
RTK
Reconstruction Toolkit
TDM
Tomodensitométrie
TV
Cariation totale
XCAT
4D extended cardiac-torso phantom
Unités
cm
centimètre
keV
kilo électron-volt
GiB
gigabytes
m
mètre
mm
millimètre
min
minute
s
seconde
xi
Remerciements
Le travail ici présenté n’aurait été possible sans l’aide et le soutien de multiples personnes. J’aimerais d’abord remercier mon directeur de thèse Philippe Després de m’avoir offert l’occasion
de faire cette maîtrise en physique médicale. La liberté offerte m’aura permis de découvrir et
d’explorer le merveilleux monde de la recherche. Je dois également remercier Dmitri Matenine,
qui a pris le temps de répondre à mes nombreuses questions et dont les commentaires tout
au long du processus ont été d’une grande aide. Les autres étudiants du groupe de recherche
en physique médicale ont également apporté un soutien moral et scientifique très important.
La présence des physiciens du département de radio-oncologie de l’Hôtel-Dieu de Québec m’a
permis d’obtenir une formation complète en physique médicale qui sera très précieuse dans
mes projets futurs. Sur une note plus personnelle, un remerciement s’impose à mes parents,
grands-parents, soeurs et amis qui m’ont permis de me rendre jusqu’ici. Merci de m’avoir
supportée et divertie durant les hauts et les bas de ces deux années. Merci à mon conjoint qui
saura toujours me faire rire.
xii
Avant-propos
Le présent mémoire inclut un article soumis le 1er octobre à la revue scientifique Medical
Physics sous le titre «A fast 4D cone beam CT reconstruction method based on the OSC-TV
algorithm». Julia Mascolo-Fortin y fait figure de premier auteur, ayant développé l’algorithme
étudié, analysé les résultats obtenus et rédigé l’article. Le travail des coauteurs Dmitri Matenine, Louis Archambault et Philippe Després est évidemment à souligner pour leurs commentaires et assistance tout au long du processus. Dmitri Matenine a également participé au
développement de l’algorithme informatique évalué dans l’article.
xiii
Chapitre 1
Introduction
L’imagerie est un élément essentiel du processus de traitement du cancer. Les différentes modalités comme la tomodensitométrie (TDM) ou l’imagerie par résonance magnétique permettent
à la fois le diagnostic, la planification et le suivi de tumeurs. Elles sont indispensables aux traitements de radiothérapie, ces derniers faisant appel à un faisceau de radiation qui doit cibler
le mieux possible la région à traiter tout en épargnant les tissus sains avoisinants. L’augmentation de la dose administrée à la tumeur par rapport à celle donnée à l’ensemble du corps,
et plus particulièrement aux organes à risque, motive le développement de nouveaux procédés
en radiothérapie.
Dans les 10 dernières années, des avancées ont notamment été apportées au suivi des changements anatomiques durant un traitement de radiothérapie externe. Des appareils de tomodensitométrie avec faisceau conique (CBCT) sont maintenant fixés directement sur les accélérateurs
linéaires pour permettre de visualiser l’anatomie du patient le jour du traitement. Contrairement aux TDM, les CBCT embarqués sur accélérateur sont limités à une vitesse de rotation
d’un tour par minute pour des raisons de sécurité. Certains mouvements du patient sont donc
inévitables durant le scan (principalement les mouvements cardiaques et respiratoires) et provoquent des artéfacts importants sur les images obtenues. Considérer ces mouvements par une
méthode d’imagerie 4D permettrait non seulement de diminuer ces artéfacts, mais également
de visualiser le déplacement des tissus. Ultimement, un cancer en mouvement pourrait ainsi
être mieux suivi durant son déplacement et les marges d’incertitude réduites, entraînant une
diminution de la radiation aux tissus avoisinants et un meilleur taux de succès du traitement.
Dans ce contexte, le présent projet a porté sur le développement d’un algorithme de reconstruction 4D pour CBCT visant à répondre à certains besoins cliniques. La compréhension de
la recherche effectuée demande toutefois une certaine mise en contexte, expliquant à la fois les
enjeux cliniques et les bases physiques, mathématiques et informatiques nécessaires à l’appréciation du projet. Plus précisément, les thèmes de la tomodensitométrie, de la reconstruction
itérative et de l’imagerie 4D seront abordés avant que l’objectif du projet puisse être détaillé.
1
1.1
Tomodensitométrie
La tomodensitométrie est une technique d’imagerie communément utilisée dans les hôpitaux
à des fins de diagnostic et permettant d’obtenir une image tridimensionnelle de l’atténuation
des rayons X à l’intérieur de l’élément étudié. Tel que montré sur la figure 1.1, un faisceau
de rayons X est généré, traverse un patient ou un fantôme, puis est mesuré par une série de
détecteurs. Pour obtenir une image tridimensionnelle, ces mesures d’atténuation doivent être
reprises à différents angles, ce qui nécessite la rotation simultanée de la source et des détecteurs.
L’ensemble des lectures de détecteurs effectuées à un angle donné est appelé projection.
Source
Patient
Grille de
reconstruction
Rayons
Détecteurs
Figure 1.1 – Schéma d’un faisceau de rayons X en éventail traversant un patient et mesuré
par une série de détecteurs (adapté de Bushberg et al. [1]).
La connaissance de la fluence de photons générée N0 et mesurée N permet de connaître le
coefficient d’atténuation linéaire moyen µmoy de la matière traversée par chaque rayon sur une
distance x. Ce coefficient moyen peut être divisé en un ensemble de coefficients rencontrés sur
une distance infinitésimale, tel que :
N = N0 e−µmoy x = N0 e−
R
µ(x)dx
.
(1.1)
En TDM, l’image reconstruite est constituée de voxels j, de taille finie, dont on cherche le
coefficient d’atténuation µj . Un rayon mesuré par un détecteur donné sera donc atténué en
fonction de son parcours dj dans chaque voxel :
2
N = N0 e−
P
j
µj d j
.
(1.2)
La résolution de cette équation pour chaque mesure de détecteur et chaque voxel de l’image
passe par l’utilisation d’un algorithme de reconstruction. Deux types d’algorithmes se côtoient :
les algorithmes analytiques, faisant appel à la rétroprojection filtrée, et les algorithmes itératifs,
tentant d’améliorer la qualité d’image par une succession de projections et de rétro-projections.
Les algorithmes analytiques sont plus rapides et permettent d’obtenir des résultats satisfaisants
dans des conditions standards, mais les algorithmes itératifs permettent d’intégrer divers a
priori physiques qui peuvent augmenter la qualité d’image tout en diminuant la dose de
radiation reçue par le patient.
1.1.1
Rétroprojection filtrée
La rétroprojection filtrée est la méthode de reconstruction la plus utilisée en TDM. La rétroprojection correspond au processus d’additionner pour chaque voxel du volume reconstruit les
lectures d’intensité des rayons ayant traversés ce voxel. Toutefois, en procédant de la sorte,
même si un seul voxel d’un rayon contient un objet atténuant, tous les voxels du rayon se verront ajouter une lecture d’intensité plus faible, générant ainsi un flou tout autour de l’objet en
question qui diminue selon l’inverse de la distance entre l’objet et le voxel étudié. Pour contrer
ce flou, un filtre est appliqué sur les données brutes avant le processus de rétroprojection.
Le filtrage des données de projections correspond à une convolution avec la fonction filtre. Mathématiquement, une opération de convolution dans le domaine spatial équivaut à multiplier
dans le domaine fréquentiel la transformée de Fourier de chaque fonction, puis à calculer la
transformée inverse de ce produit. Ce processus est résumé par l’équation 1.3, où f (x) et F (f )
représente respectivement le filtre dans le domaine spatiale et dans le domaine des fréquences
et I(x) et If iltre (x) la fonction d’intensité avant et après l’application du filtre.
If iltre (x) = I(x) ⊗ f (x) = F T −1 {F T {I(x)} × F (f )}.
(1.3)
Le filtre F(x) à appliquer à un ensemble de projections idéal est un filtre en rampe, qui
atténue les fréquences plus basses de manière à compenser pour le flou en 1/r. Toutefois, les
projections expérimentales comportent un bruit poissonnien inhérent et un filtre en rampe
amplifie ce bruit de haute fréquence. Dans la plupart des applications cliniques, le filtre utilisé
atténue également les hautes fréquences de manière à diminuer ce bruit, mais, ce faisant,
diminue également la résolution spatiale de l’image. La figure 1.2 image la différence entre un
simple filtre en rampe et un filtre atténuant les hautes fréquences. En clinique, le choix du
filtre est donc un compromis entre résolution spatiale et rapport signal sur bruit en fonction
de l’application spécifique.
3
Figure 1.2 – Représentation graphique de deux filtres utilisés en TDM : le filtre en rampe et
un exemple de filtre atténuant les hautes fréquences. Figure tiré de Bushberg et al. [1].
1.1.2
TDM dans le contexte de la radiothérapie externe
Le succès d’un traitement de radiothérapie dépend principalement de la maximisation de la
dose aux tissus tumoraux, de manière à éradiquer la tumeur, et de la minimisation de la dose
aux tissus sains, de manière à diminuer les effets secondaires et les risques de cancers induits.
Différentes techniques permettent de diminuer cette dose aux tissus sains, allant de la radiothérapie par modulation d’intensité (IMRT) par collimateur multi-lames aux traitements en
arc. Il est ainsi possible de cibler avec précision une région à traiter et d’épargner significativement les tissus voisins, mais la bonne visualisation de la localisation de la tumeur devient dès
lors primordiale. L’examen de TDM est donc essentiel pour calculer la dose reçue et optimiser
le plan de traitement.
Cet examen a toutefois le défaut d’être effectué plusieurs jours, voire semaines avant le début
du traitement, traitement qui peut lui-même s’échelonner sur plus d’un mois. L’anatomie du
patient peut donc évoluer entre le moment de l’acquisition du TDM et chacune des séances
de radiothérapie externe, que ce soit en raison du mouvement interne des organes ou d’un
changement du poids du patient. Le jour du traitement, le patient doit également être positionné avec précision sur la table de traitement pour que la région à traiter soit bien celle
irradiée. Or, des techniques comme l’IMRT, qui permettent un fort gradient de dose autour
de la région à traiter, sont très sensibles à des changements anatomiques et des erreurs de
positionnement. Pour détecter ces changements, l’utilisation d’un système d’imagerie dans la
salle de l’accélérateur linéaire est particulièrement pertinente et efficace.
Différentes modalités sont disponibles sur le marché, chacune ayant avantages et inconvénients.
Historiquement, le premier système d’imagerie en salle de traitement utilisait le faisceau MV
4
de traitement pour obtenir des radiographies 2D [2]. De nos jours, l’imagerie MV-TDM est
toujours plus facile d’installation et moins exigeante en terme d’équipement supplémentaire
par rapport à l’imagerie kV, mais son contraste plus faible et sa dose plus élevée sont restrictifs.
Des TDM kV sur rails peuvent aussi être disponibles en salle de traitement, mais demandent
d’avantage d’espace et ne peuvent donc pas être installés dans des salles pré-existantes [2].
Le tomodensitomètre avec faisceau conique, panneau plat et embarqué sur accélérateur linéaire
(voir figure 1.3) permet un compromis intéressant entre qualité d’image et facilité d’utilisation
clinique. Le fait d’être fixé directement sur l’accélérateur linéaire en fait un élément beaucoup
plus compact dans un salle de traitement qu’un TDM sur rail. La forme conique du faisceau
a l’avantage de couvrir un plus large volume de tissus sans nécessiter de déplacement latéral, mais l’augmentation de la diffusion, proportionnelle au volume irradiée [3], empêche la
différentiation de certains tissus mous. La durée du scan, limitée par la vitesse de rotation
maximale de l’accélérateur linéaire d’un tour par minute, peut également être source d’artéfacts de mouvement.
Figure 1.3 – Accélérateur linaire Clinac iX de Varian avec système d’imagerie CBCT [4]. Le
faisceau du CBCT est représenté en vert, quittant la source située à gauche pour se diriger
vers le détecteur à droite.
La reconstructions d’images CBCT demande des algorithmes qui tiennent compte de la géométrie particulière du problème. L’algorithme utilisé en clinique est celui développé par Feldkamp,
David et Kress (FDK) [5], qui adapte le processus de rétroprojection filtrée à un faisceau de
forme conique.
5
1.2
1.2.1
Algorithme OSC-TV
Principe général de la reconstruction itérative
Les différents algorithmes itératifs utilisés en TDM ont tous en commun la recherche d’une
solution exacte par une suite d’itérations. Chaque itération débute par une reconstruction du
volume 3D, puis ce volume est reprojeté pour obtenir un estimé des projections. La différence
entre les projections initiales et celles estimées permet d’ajuster la reconstruction lors de
l’itération suivante. Cette boucle arrête lorsqu’un critère de fin est atteint, que ce soit un
nombre d’itérations ou un seuil de différence minimale entre deux itérations. La figure 1.4
schématise le principe de la reconstruction itérative.
Projections
exprétimentales
Itération
tru
cons ction
Re
Critère de fin
Comparaison
satisfait?
Volume 3D final
yo
n
s
Estimation du
volume 3D
Tracé
de
ra
Estimations
des projections
Figure 1.4 – Représentation graphique de la reconstruction itérative.
Les algorithmes itératifs en TDM se divisent essentiellement en deux classes : ceux se basant sur les principes de l’espérance-maximisation (EM) [6] et ceux inspirés de la technique
de reconstruction algébrique (ART) [7]. Bien que chaque itération correspond à un nombre
similaire de reconstruction et de tracé de rayons, des différences significatives séparent les
différents algorithmes, notamment en termes des propriétés de convergence, de la rapidité de
cette convergence et de la robustesse face au bruit.
Dans le cadre de la reconstruction CBCT 4D, une implémentation sur carte graphique de
l’algorithme d’espérance-maximisation convexe avec sous-ensembles ordonnés (OSC) et régularisation de variation totale (TV) a été choisie pour sa rapidité et sa performance lors
de reconstruction d’un petit nombre de projections [8]. Une brève mise en contexte mathématique de chacune de ces composantes est nécessaire pour comprendre l’algorithme et, par
6
conséquent, le projet de recherche.
1.2.2
Algorithme d’espérance-maximisation
L’algorithme d’espérance-maximisation est une classe d’algorithmes itératifs basée sur la successions d’une étape d’espérance (E) et d’une étape de maximisation (M). L’étape E permet
d’estimer les données manquantes en fonction d’un ensemble de paramètres, puis l’étape M
maximise la fonction de probabilité en supposant que les données manquantes sont connues,
de manière à générer les paramètres qui seront utilisés lors de l’étape E suivante.
La compréhension de l’algorithme EM nécessite tout d’abord la définition de trois variables :
X, le vecteur de données connues, Z, le vecteur d’estimations de données inconnues, et θ,
l’ensemble de paramètres ayant générés ces données [9]. Le but de l’algorithme est de trouver
le θ le plus probable et donc, en termes mathématiques, de maximiser P (X | θ). Pour avoir un
algorithme le plus efficace possible, la différence de θ entre deux itérations doit également être
maximisée. L’introduction de Z permet à la fois de tenir compte de connaissances préalables
et d’estimer directement certaines données manquantes lors du calcul de θ .
De manière à faciliter l’estimation de θ, le logarithme de la vraisemblance est introduit comme :
L(θ) = ln P (X | θ).
(1.4)
Puisque la fonction logarithmique est toujours croissante, le but devient alors de maximiser
L(θ). Pour que l’algorithme converge, le logarithme de la vraisemblance L(θn ) doit augmenter
en fonction du nombre d’itérations n effectués, tel que :
L(θn ) > L(θn−1 ).
(1.5)
De la même manière, pour avoir une convergence la plus rapide possible, la différence de θ
entre deux itérations doit également être maximisée. L’introduction de la différence de vraisemblance ∆(θn+1 | θn ), entre l’itération en cours n+1 et l’itération précédente n, qui devra
être maximisée, simplifie les calculs futurs :
∆(θn+1 | θn ) ≡ L(θn+1 ) − L(θn ).
(1.6)
Ces différentes équations peuvent être difficiles à résoudre à partir des seules informations X et
c’est pourquoi Z, le vecteur d’estimations de données inconnues, et z, une instance particulière
de ce vecteur d’estimation, sont introduits. Il est permet d’écrire :
7
P (X | θ) =
X
(1.7)
P (X | Z, θ)P (Z | θ).
Z
En combinant les équations 1.4, 1.6 et 1.7, on obtient :
∆(θn+1 | θn ) = ln P (X | θn+1 ) − ln P (X | θn )
!
X
= ln
P (X | Z, θn+1 )P (Z | θn+1 ) − ln P (X | θn ).
(1.8)
Z
La preuve mathématique est au-delà du champ d’intérêt du présent mémoire, mais il est
possible de prouver [9] que l’équation 1.8 peut être réécrite telle que :
∆(θn+1 | θn ) =
X
P (z | X, θn ) ln
z
P (X | z, θn+1 )P (z | θn+1 )
P (z | X, θn )P (X | θn )
(1.9)
.
À chaque itération, un algorithme efficace tente de maximiser cette différence de vraisemblance
en optimisant θn+1 . Les termes ne dépendant pas de θn+1 peuvent donc être ignorés et on
obtient :
θn+1 = arg max
θn+1
= arg max
θn+1
(
X
)
P (z | X, θn ) ln (P (X | z, θn+1 )P (z | θn+1 ))
z
(
X
)
P (z | X, θn ) ln P (X, z | θn+1 )
z
= arg max EZ|X,θn {ln P (X, z | θn+1 )} .
(1.10)
θn+1
Les deux étapes de l’algorithme EM apparaissent dès lors très clairement :
1. Étape E : Évaluation de l’espérance conditionnelle EZ|X,θn {ln P (X, z | θn+1 )}.
2. Étape M : Optimisation de θn+1 pour maximiser cette espérance conditionnelle.
Cette équation signifie que l’algorithme EM évalue l’espérance, selon les paramètres Z sachant
X et θn , du logarithme de P (X, z | θn+1 ). Puis, cette espérance est maximisée par l’optimisation de l’ensemble de paramètres θ pour la prochaine itération. Ces deux étapes présentent
ainsi une structure pour obtenir la valeur la plus probable des paramètres θ, mais les spécificités
du calcul demeurent à adapter au cas à l’étude.
8
1.2.3
Utilisation de l’algorithme EM en TDM
L’algorithme EM peut être utilisé pour la reconstruction d’images en TDM. Il s’agit d’un
cas où nous disposons de données connues X (le nombre de photons Y mesurés par chaque
détecteur pour chaque angle de projection, les distances d parcourues par chaque rayon dans
chaque voxel et l’intensité N0 de la source à chaque position angulaire) et d’un ensemble de
paramètres ayant généré les données recherchées θ (les coefficients d’atténuation µ de chaque
voxel j de l’image à reconstruire). Comme il sera vu, le vecteur de données inconnues Z peut
être défini de différentes façons.
L’algorithme EM développé pour la TDM par Lange et al. [6] propose de poser comme données
inconnues le nombre de photons entrants Uij de chaque voxels j pour un rayon donné i.
La preuve mathématique complète peut être trouvée dans l’article original, mais il demeure
intéressant d’en ressortir les principales étapes et assises physiques.
On cherche l’espérance de l’ensemble des Uij en connaissant Yi et les estimés actuels µnj . Or,
comme ces nombres de photons suivent une distribution de Poisson, on peut exprimer cette
espérance telle que :
(1.11)
E(Uij | Yi , µn ) = Yi + E(Uij ) − E(Yi ),
L’évaluation de cette équation correspond à l’étape E de l’algorithme EM, tandis que l’étape
M demandera de maximiser la même équation. Il est facile de voir que le nombre de photons
entrant le voxel Ui,j dépend uniquement de Ui,j−1 et de l’atténuation ayant lieu dans j − 1,
soit dij µj . Si on remonte jusqu’à la source N0,i , on obtient que :
E(Uij ) = N0,i e−
Pj−1
k=1
dik µk
(1.12)
.
où k varie pour représenter tous les pixels entre la source et le pixel j −1. De la même manière,
Yi suit une distribution de Poisson et chaque photon a une probabilité e−
P
j
dij µj
d’atteindre
le détecteur. Son espérance peut donc être notée par l’équation suivante :
E(Yi ) = N0,i e−
P
j
dij µn
j
(1.13)
.
La mise en commun des équations 1.11 à 1.13 permet de représenter l’espérance de Uij , essentielle à l’étape E de l’algorithme, de manière plus explicite :
E(Uij | Yi , µn ) = Yi + N0,i e−
Pj−1
k=1
9
dk µk
− N0,i e−
P
j
dij µn
j
.
(1.14)
Pour simplifier la suite du problème, les espérances conditionnelles du nombre de photons
entrant et sortant du voxel j, respectivement Mij et Nij , seront définies tel que :
Mij = E(Uij | Yi , µn ) = Yi + N0,i e−
Nij = E(Ui,j+1 | Yi , µn ) = Yi + N0,i e−
Pj−1
k=1
Pj
k=1
dik µk
− N0,i e−
− N0,i e−
dik µk
P
P
j
j
dij µn
j
dij µn
j
.
(1.15)
En se basant sur la théorie statistique, Lange et al. [6] prouvent que le logarithme de la
vraisemblance L(µ) peut être définie tel que :
o
XXn
Nij ln(e−dij µj ) + (Mij − Nij )ln(1 − e−dij µj ) .
i
(1.16)
j
Le maximum de l’équation 1.16 est trouvé en dérivant l’équation par rapport à µk :
X
X
0=
−Nik dik +
(Mik − Nik )
i
dik
edik µk − 1
.
(1.17)
Cette équation est transcendante, mais il est connu qu’elle est monotone et a une solution
unique positive. Comme dik µk sera très petit, une série de Taylor approximera bien la division
par l’exponentiel. En effet, on a que :
ex
1 1
x
1
= − +
+ O(x3 ).
−1
x 2 12
(1.18)
Différentes solutions sont alors possibles, en fonction du nombre de terme de l’équation 1.18
qui seront retenus. Les solutions 1.19 et 1.20 sont obtenues en retenant respectivement un et
deux termes de l’expansion en série de Taylor.
(n+1)
µj
(n+1)
µj
P
i Nij
d
(M
ij + Nij )
i ij
=P
P
(Mij − Nij )
= 2P i
.
i dij (Mij + Nij )
(1.19)
(1.20)
Ces deux solutions fournissent une approximation intéressante des coefficients d’atténuations
recherchés. Toutefois, dans les faits, l’équation 1.19 surestimera la solution réelle, tandis que
l’équation 1.20 la sous-estimera. Pour de meilleurs résultats, l’algorithme peut donc alterner
l’utilisation des deux équations pour aboutir à une meilleure estimation de l’image reconstruite.
10
1.2.4
Algorithme EM de type convexe
À la différence de l’algorithme EM standard, l’algorithme convexe ne fait pas référence à la
notion de données manquantes. Il se base sur le fait que, comme les lectures des détecteurs Yi
suivent une distribution de Poisson, le logarithme de la vraisemblance peut être exprimé par
l’équation suivante [10] :
L(µ) = P (Y | µ)


P
X
X
N0,i e− j µj dij + Yi
= −
µj dij .
i
(1.21)
j
où N0,i est le nombre de photons quittant la source pour un rayon donné. On note que l’intérieur de la sommation est une fonction strictement convexe, d’où l’appellation d’algorithme
EM de type convexe.
L’algorithme convexe tente de maximiser l’estimation locale de la vraisemblance l(µ | µ(n) ) en
localisant le point où sa dérivée est nulle :
∂
l(µ | µ(n) )
∂µj
X
(n) P
= −
dij N0,i e−(µj /µj ) j µj dij +Yi .
0 =
(1.22)
i
Cette équation transcendante peut être résolue par la méthode de Newton, qui propose qu’une
approximation x d’une fonction f (x) soit calculée itérativement tel que :
xn+1 = xn −
f (xn )
.
f 0 (xn )
(1.23)
L’application de la méthode de Newton à l’éq.1.22 permet d’obtenir les approximations des µ
pour l’itération suivante :
h
i
(n)
d
y
−
Y
i
i ij
i
.
P
(n) (n)
d
t
y
ij
i
i
i
P
(n+1)
µj
1.2.5
(n)
= µj
(n)
+ µj
(1.24)
Utilisation de sous-ensembles ordonnés
L’algorithme convexe peut être accéléré par l’utilisation de sous-ensembles ordonnés de projections [11]. L’équation 1.24 est appliqué en utilisant un premier sous-ensemble de projection
et les nouveaux coefficients d’atténuation ainsi calculés sont utilisés pour débuter le calcul à
11
l’aide du deuxième sous-ensemble. Une itération est complétée lorsque toutes les projections
sont considérées.
Cette mise à jour plus fréquente des coefficients d’atténuation de l’image permet d’accélérer la
convergence de l’algorithme de manière significative. L’article original de Kamphuis et al. [11]
évoque une diminution du nombre d’itérations nécessaire pour obtenir une qualité d’image
similaire proportionnelle au nombre de sous-ensembles. Cette diminution du temps de calcul
introduit toutefois un léger biais dans l’image reconstruite.
Pour diminuer ce biais, il est possible de varier le nombre de sous-ensembles en fonction
de l’itération effectuée. Ainsi, les premières itérations bénéficieraient d’un nombre de sousensembles plus élevé, pour converger plus rapidement, et les dernières d’un nombre plus faible,
pour obtenir un résultat plus exact. C’est cette approche qu’a proposé Matenine et al. [8], en
adaptant la méthode de gradient progressif développé par Bertsekas [12]. Le nombre de sousensembles varie alors en fonction de l’itération n, entre une valeur initiale Si pour l’itération
1 et une valeur finale Sf pour la dernière itération nm ax :
S
(n)
Si − Sf
P
= arrondi
(nmax − 1 − n) + Sf .
(nmax − 1)P
(1.25)
Dans l’équation 3.4, la constante P contrôle la rapidité de convergence du nombre de sousensemble vers Sf et peut varier entre 0 et 1. Une valeur de P = 0.5 semblait permettre la
meilleure réduction de biais [8].
1.2.6
Régularisation de variation totale
La régularisation de variation totale (TV) [13] est une technique de traitement d’image qui
permet de diminuer le bruit sur une image. Elle se base sur le principe que l’image idéale
devrait être composée de différentes régions de pixels d’une valeur µ constante entre lesquelles
se trouvent de forts gradients. Ce principe est particulièrement adaptée à l’imagerie du corps
humain, celui-ci étant constitué d’organes dont la constitution est relativement constante. La
figure 1.5 illustre bien cette réalité.
La régularisation TV essaie de diminuer la variation totale ||µ||T V de l’image, définie comme
la somme de la norme des gradients locaux. Pour une image 2D, la somme des gradients locaux
est définie comme tel :
||µ||T V
=
X
~ x,y |
|∇µ
x,y
Xq
=
(µx,y − µx−1,y )2 + (µx,y − µx,y−1 )2 .
x,y
12
(1.26)
Figure 1.5 – Le fantôme numérique anthropomorphique XCAT [14] (gauche) et sa magnitude
de gradient de variance (droite). L’image de droite met en évidence le fait que le gradient est
nul dans la plupart des régions. La diminution du gradient lors de la reconstruction pourrait
donc permettre d’obtenir une représentation plus exacte de l’objet d’étude.
Cette équation se généralise également à des cas à plus de deux dimensions. Sidky et al. [15]
ont proposé une méthode itérative pour diminuer la variation totale en TDM par descente de
gradient. Ainsi, à chaque itération q, la matrice du gradient local de TV est calculé tel que :
vx,y =
δ||µ||T V
.
δµx,y
(1.27)
Cette matrice est ensuite soustraite de manière pondérée à la matrice image :
cdA
(q)
µ(q+1)
= µ(q)
x,y
x,y − vx,y qP
2
x,y vx,y
où dA ≡
qP
x,y
(n−1) 2
)
(µnx,y − µx,y
,
(1.28)
représente la norme de la différence entre deux itérations n
de l’algorithme de reconstruction et c une constante empirique. La régularisation TV peut
ainsi être utilisée en combinaison avec différents algorithmes itératifs en ajoutant une étape
après chaque itération. On note que, comme le calcul de dA nécessite une itération précédente
n, l’équation 1.28 ne peut pas être appliquée après la première itération de l’algorithme de
reconstruction. De la même façon, le gradient ne peut être calculé pour les pixels aux frontières
de l’image. Comme les limites de l’image reconstruite représentent généralement de l’air, la
solution la plus simple et représentative de la réalité est de considérer le gradient local comme
étant nul aux frontières de l’image.
Deux paramètres permettent de contrôler la rapidité et le poids de la régularisation TV :
le nombre d’itérations q et la constante c. Après différents tests, Sidky et al. proposaient
d’effectuer 20 itérations avec un coefficient c = 0.2 [15].
13
1.3
Imagerie 4D
En imagerie 4D, plusieurs images 3D représentant chacune une phase particulière sont reconstruites, permettant ainsi d’obtenir une visualisation des structures en mouvement. Les
mouvements cardiaques et respiratoires peuvent tous deux être étudiés, mais le présent mémoire se concentrera sur l’étude du mouvement respiratoire, celui-ci ayant un impact plus
significatif en radiothérapie. Son amplitude pouvant aller jusqu’à 4 cm en fait la principale
source d’incertitude intra-fraction dans la région du thorax [16]. Or, le profil respiratoire est
sujet à changer entre les différentes sessions de traitement [17]. Son suivi quotidien est donc
recommandé.
L’étude du mouvement respiratoire peut être basée sur différentes modalités d’imagerie médicale et les techniques dont il sera question dans la présente section pourraient généralement
s’appliquer à d’autres de ces modalités, mais ce sera la question des CBCT 4D qui sera
principalement étudiée. La longue durée du scan CBCT en fait un candidat particulier aux
artéfacts de mouvement respiratoire. De plus, le fait d’être disponible en salle de traitement
lui permettrait de détecter le mouvement respiratoire du patient directement avant le début
du traitement.
Pour obtenir une image 4D à partir d’un scan CBCT, les projections doivent être regroupées
en fonction de la position du système respiratoire du patient lors de leur acquisition. Chacun de
ces sous-ensembles peut ensuite être reconstruit pour obtenir une visualisation 4D de l’objet
d’étude. La figure 1.6 illustre ce processus. Les différentes parties essentielles au processus
sont donc l’obtention du signal respiratoire, la méthode de regroupement des sous-ensembles
et l’algorithme de reconstruction.
1.3.1
Obtention du signal respiratoire
Nécessaire au processus d’imagerie CBCT 4D, le signal respiratoire peut être obtenu d’une
multitude de manières, chacune supposant un certain compromis entre robustesse, précision
et facilité d’utilisation. Mesurant directement le mouvement de la tumeur, l’implantation d’un
marqueur radio-opaque directement sur le site tumoral est généralement considérée comme
la méthode la plus précise et fiable [18]. Le processus est toutefois invasif pour le patient
et la migration des marqueurs peut poser des problèmes de sécurité [19]. Des capteurs de
position externes corrigent ces défauts, mais ne détectent pas spécifiquement le mouvement de
la tumeur et certaines questions se posent quant à la corrélation entre le mouvement détecté
et celui de la tumeur. Par exemple, le système Real-time Position Management (RPM) de
Varian (Palo Alto, CA) [20], utilisé au CHU de Québec, fait appel à un marqueur réflectif
placé sur l’abdomen du patient et dont le déplacement est mesuré par une caméra infrarouge.
Or, certaines études font état de différences allant jusqu’à 9 mm pour certains patients entre
ces deux mouvements [18].
14
Signal respiratoire
Ensemble de
projections initial
Sous-ensembles de
projections
Reconstruction de
chaque sous-ensemble
Figure 1.6 – Schéma représentant le processus de reconstruction 4D pour CBCT
Les méthodes d’analyse des projections, de leur côté, ont l’avantage de ne requérir aucun
matériel supplémentaire et de mesurer spécifiquement le mouvement interne du patient. La
méthode Amsterdam Shroud (AS) [21], par exemple, met en évidence le diaphragme par une
série d’étapes de traitement d’image et réaligne ensuite chaque projection pour déduire le
mouvement respiratoire. Bien que plus précise que d’autres méthodes d’analyse [19], l’algorithme AS n’est utilisable que lorsque le diaphragme est visible sur l’ensemble des projections
(ce qui correspond approximativement à la moitié des scans [22]). La méthode d’analyse d’intensité (AI) [23] est également souvent mentionnée dans la littérature et est choisie pour sa
robustesse : elle ne nécessite pas la présence sur toutes les projections d’une large structure
oscillante comme le diaphragme, mais serait moins précise que l’algorithme AS [19].
Il est toutefois à noter que certaines recherches [24] tendent à démonter que le choix de la
méthode d’obtention du signal aurait un impact non significatif sur la qualité d’image finale.
Ainsi, des inexactitudes dans le signal obtenu, comme un déplacement de quelques projections
de la position d’un extrema, peuvent amener certaines projections à être classées dans un
sous-ensemble représentant une position adjacente, mais cela affecterait peu la qualité finale
d’image. Bien qu’il soit essentiel d’acquérir un signal respiratoire d’une certaine façon, le
choix de la méthode spécifique serait beaucoup moins crucial que le choix de l’algorithme de
reconstruction ou de la méthode de regroupement en sous-ensemble.
15
1.3.2
Regroupement des sous-ensembles
Une fois un signal respiratoire acquis, les projections sont regroupées selon le moment de leur
acquisition, que ce soit en fonction de la phase du cycle respiratoire ou en fonction du déplacement absolu. Ces deux méthodes sont illustrées à la figure 1.7. Un regroupement selon la phase
respiratoire permet une répartition angulaire plus uniforme, mais des projections imageant
des positions différentes risquent de se retrouver dans le même sous-ensemble si l’amplitude
de chaque cycle varie. Ce mouvement respiratoire résiduel peut provoquer un flou autour de
certains objets en mouvement. À l’inverse, une séparation selon le déplacement ne garanti
pas que chaque sous-ensemble comportera des projections dans chaque cycle respiratoire. À
l’extrême, une longue plage angulaire peut ne pas être représentée dans un sous-ensemble,
complexifiant la tâche de l’algorithme de reconstruction. La figure 1.7 montre ce phénomène
par l’absence de projections dans le sous-ensemble vert entre les projections numéro 392 et
517. De manière générale, il a été montré qu’un regroupement basé sur le déplacement diminuerait le flou respiratoire [24]. Toutefois, les méthodes d’analyse de projections comme AS et
AI ne peuvent détecter la position absolue, la rotation de l’accélérateur affectant le signal et
ne pouvant être complètement supprimé [24].
Lors du regroupement, le nombre de sous-ensembles peut également varier en affectant la
qualité d’image finale. Il est commun de séparer les projections en 10 sous-ensembles, mais
ce nombre peut varier entre 6 [25] et 20 [26]. Si le nombre de sous-ensembles est trop petit,
un déplacement résiduel à l’intérieur d’un même sous-ensemble provoquerait flou et artéfacts,
tandis qu’un nombre de sous-ensembles très grand diminue la quantité d’information disponible
dans chaque sous-ensemble.
1.3.3
Reconstruction 4D
L’algorithme choisi pour reconstruire les sous-ensembles de projections est un élément essentiel
à la visualisation du mouvement. En effet, après étude de l’impact sur la qualité d’image des
méthodes d’obtention du signal respiratoire, de regroupement et de reconstruction, Shieh et
al. [24] ont conclu que le développement de nouveaux algorithmes de reconstruction serait la
manière la plus efficace d’améliorer l’imagerie 4D CBCT.
Or, ce type d’imagerie comporte des défis particuliers pour l’algorithme de reconstruction :
chaque sous-ensemble respiratoire contient un nombre restreint de projections et celles-ci ne
sont pas uniformément répartis angulairement. Ces deux particularités rendent les images reconstruites par les algorithmes standards peu lisibles, des défauts d’image comme des artéfacts
de rayons rendant l’identification des différents organes difficile. La régularisation TV (voir
section 1.2.6) et la méthode de détection comprimée (CS, de l’anglais compressed sensing) [27]
sont deux méthodes souvent utilisées pour diminuer ces artéfacts en utilisant le fait que seul
les contours des organes sont considérés comme significatifs. Plus spécifiquement, la technique
16
Déplacement
0
100
200
300
400
500
600
Projections
Déplacement
(a) Regroupement selon la phase du cycle respiratoire
0
100
200
300
400
500
600
Projections
(b) Regroupement selon le déplacement absolu
Figure 1.7 – Exemple d’un signal respiratoire séparé en 4 sous-ensembles selon la phase (a)
ou selon le déplacement absolu (b). Les quatre couleurs représentent le sous-ensemble dans
lequel chaque projection est regroupée.
CS se base sur le fait qu’une image de taille N × N peut être obtenue à partir d’un échantillon
de données S ln N , où S est le nombre de pixels significatifs. Déjà communes en imagerie 3D
TDM lorsqu’un nombre restreint de projections est disponible [28], ces deux techniques réussissent à diminuer la présence d’artéfacts de rayons par la supposition que l’image finale sera
relativement uniforme.
Pour améliorer la qualité d’image en CBCT 4D, il est également possible de tirer profit de la
forte ressemblance entre chacune des phases reconstruites : même si certaines structures sont
17
mobiles, une forte proportion de l’image sera identique entre chacune des positions imagées.
Cela peut être fait en appliquant à la quatrième dimension la régularisation TV, de manière à
diminuer les différences entre les phases adjacentes [29]. D’autres algorithmes utilisent plutôt
une reconstruction 3D préalable, de manière à utiliser de l’information de toutes les projections.
L’algorithme MKB, initialement développé par McKinnon et Bates pour la visualisation du
mouvement cardiaque en TDM [30], puis adapté à l’imagerie respiratoire en CBCT [31], se
base sur ce principe. Une image 3D est corrigée par une reconstruction de phase de la différence
entre les projections initiales et des projections reprojetées à partir de l’image 3D reconstruite.
La méthode PICCS (de l’anglais prior image constrained compressed sensing) [32] est un autre
exemple d’algorithme qui utilise une image 3D pour contraindre la reconstruction 4D par la
méthode CS. L’utilisation de cette méthode en imagerie CBCT [26] a permis d’augmenter le
nombre de sous-ensemble jusqu’à 20 pour atteindre une résolution temporelle particulièrement
intéressante pour le mouvement respiratoire d’environ 100 ms. Une autre stratégie pour obtenir
des images de CBCT 4D de haute qualité utilise les images 4D obtenues précédemment par
CT. Cette technique a notamment été utilisée pour adapter le modèle du mouvement 4D CT
aux mesures CBCT prises en salle de traitement [33] ou pour recaler de manière déformable
le CT sur le CBCT du jour [34].
Les temps de reconstructions de ces différents algorithmes sont généralement assez longs,
faisant appel à des techniques itératives coûteuses en opérations mathématiques. Plusieurs
articles détaillant le développement de méthodes de reconstruction 4D ne mentionnent pas de
temps de calcul, mais ceux qui le font notent des temps pouvant atteindre plusieurs heures.
Ainsi, un algorithme utilisant le recalage entre chaque phase reconstruite demande 6h de
calcul pour obtenir une image finale de 256 × 256 × 160 voxels [35]. Un autre algorithme
pour CT 4D, qui régularise la moyenne temporelle non-locale, reconstruit une seule tranche
axiale en environ 65 s [36], mais un temps de reconstruction significativement plus important
est supposé pour obtenir un volume complet. La méthode développée par Gao et al. [37],
quant à elle, demande moins de 10 min pour représenter un volume de 256 × 256 × 64 voxels.
Une méthode particulièrement rapide, adaptée de l’algorithme MKB [30], obtient une image
de 400 × 400 × 158 pixels seulement 20 s après la fin de l’acquisition des projections [38].
Une autre méthode déformant le modèle de mouvement obtenu par CT sur une acquisition
CBCT obtient une image en environ 13 min [39]. L’algorithme de Park et al. [40], de son côté,
reconstruit un volume de 256 × 256 × 256 pixels en environ 8 min. Finalement, une évaluation
maison de l’algorithme 4D ROOSTER [41] permettait d’obtenir un volume de 192 × 192 × 94
pixels en 23 min. On note que ces différents articles utilisent tous une parallélisation sur carte
graphique pour accélérer le temps de calcul. Le tableau 1.1 présente un résumé des temps
de calcul et des caractéristiques l’influençant pour les différents algorithmes précédemment
mentionnés.
De manière générale, il en ressort qu’il est difficile de comparer rigoureusement ces temps de
18
Tableau 1.1 – Résumé des temps de calcul et des caractéristiques l’influençant pour différents
algorithmes de reconstruction 4D
Auteur
Christoffersen
et al. [35]
Tian et
al. [36]
Gao et
al. [37]
Zheng et
al. [38]
Yan et
al. [39]
Park et
al. [40]
Mory et
al. [41]
Nombre de
voxels
reconstruits
(voxels)
Temps de
calcul
Taille des
projections
6h
672 projections de
512×384 pixels
65 s
500 projections
Moins de 10
min
20 s après la
fin de
l’acquisition
400 projections de
256×64 pixels
256 × 256 × 64
Projections de
504×376 pixels
400 × 400 × 158
13 min
8 min
23 min
Projections de
512×384 pixels
670 projections de
512×512 pixels
672 projections de
512×384 pixels
256 × 256 × 160
(Une tranche
axiale)
(Non
mentionné)
256 × 256 × 256
192 × 192 × 94
Carte graphique
Nvidia GeForce
GTX 480
Nvidia Tesla
C1060
Nvidia Tesla
C2070
Nvidia GeForce
GTX 480
Nvidia GeForce
GTX590
Nvidia GeForce
GTX 780 Ti
Nvidia Tesla K20
calcul, comme ils dépendent énormément du matériel informatique et de la taille des projections et des images reconstruites, informations qui varient grandement et ne sont pas toujours
spécifiées. Un ordre de grandeur peut tout de même être déduit de ces temps de reconstruction,
facilitant l’évaluation de la rapidité d’un algorithme.
1.4
Objectif du projet
Cette mise en contexte souligne l’apport de l’imagerie CBCT à la qualité des traitements
en radiothérapie externe. Or, le mouvement respiratoire y est encore difficilement pris en
compte et des progrès demeurent pertinents dans le domaine de la reconstruction 4D de
projections CBCT. Il apparaît clair que certains besoins cliniques ne sont toujours pas comblés.
Le développement de nouveaux algorithmes de reconstruction est une façon particulièrement
efficace d’améliorer la qualité d’image pour mieux répondre à ces besoins.
Si certains algorithmes de reconstruction permettent l’obtention d’images de qualité satisfaisantes, très peu sont assez rapides pour être utilisés directement lorsque le patient se trouve en
salle en traitement. Certains algorithmes arrivent à une image quadridimensionnelle en moins
de 30 minutes [37, 39–41], mais il est rare que ce temps de calcul soit de l’ordre de quelques
minutes [38].
19
Plusieurs algorithmes font également appel à des protocoles d’acquisition modifiés, que ce soit
par la diminution de la vitesse de rotation de l’appareil ou par l’augmentation du nombre de
projections acquises [42–44]. De tels changements permettent effectivement de corriger partiellement la problématique de la non-uniformité angulaire des projections et du peu d’information
sur chaque position imagée. Or, une vitesse de rotation plus lente diminue la rapidité de traitement et demande au patient de rester dans la même position pendant une période de temps
accrue, ce qui accentue les risques de mouvement accidentel. L’augmentation du nombre de
projections acquises augmente également le temps d’acquisition et se fait au prix d’une plus
grande dose au patient. Une diminution du courant du tube à rayons X a été suggérée [45]
pour contrer cette augmentation de dose, mais se fait au prix d’une diminution du rapport
signal sur bruit [46]. De manière globale, un algorithme de reconstruction qui nécessite un
changement de protocole complexifie son application clinique et n’est pas une solution idéale.
Comme en imagerie 3D, la reconstruction itérative apparaît comme la meilleure façon de tirer
pleinement profit des connaissances physiques du problème pour optimiser à la fois la qualité
d’image et la dose reçue par le patient [47].
L’objectif du projet de maîtrise ici présenté sera donc de développer une méthode de reconstruction 4D qui répond aux besoins cliniques de rapidité de calcul et de facilité d’implantation
clinique, tout en permettant une visualisation adéquate de l’anatomie et du mouvement. La
facilité d’implantation fait spécifiquement référence à l’utilisation d’un protocole d’acquisition
standard et à l’automatisation complète du processus. Pour répondre à cet objectif, l’algorithme de reconstruction OSC-TV 3D [8], parallélisé sur carte graphique, a un potentiel intéressant qui mérite d’être approfondi. La capacité de la régularisation TV de diminuer les
artéfacts de rayons communs en imagerie 4D a déjà été démontrée, tout comme l’accélération
de calcul permise par l’utilisation de sous-ensembles ordonnés et par la parallélisation sur carte
graphique. Dans un tel contexte, il est souhaité de reconstruire des images 4D permettant une
visualisation précise des éléments en mouvement et ce, le plus rapidement possible (préférablement en deçà de la minute). Une parallélisation sur plusieurs cartes graphiques pourrait
permettre d’atteindre cet objectif.
Pour évaluer l’efficacité de cet algorithme, les étapes précédant la reconstruction proprement
dite (l’obtention du signal respiratoire et le regroupement en sous-ensembles) seront évidemment nécessaires. L’obtention du signal respiratoire, particulièrement, est une étape non triviale qui affecte les images reconstruites de manière significative. Le prochain chapitre présente
ce sujet d’étude. Le second chapitre porte plus spécifiquement sur le développement et les résultats de l’algorithme OSC-TV 4D. Ce sujet, central au projet de maîtrise, est présenté par
l’inclusion d’un article soumis à la revue scientifique Medical Physics. Finalement, le dernier
chapitre conclura le mémoire faisant un bref retour sur le projet et en ouvrant le questionnement sur les perspectives d’avenir.
20
Chapitre 2
Étude du mouvement respiratoire
2.1
Algorithme Amsterdam Shroud
Le projet présenté dans ce mémoire utilise l’algorithme AS pour déduire le signal respiratoire.
Tout d’abord, cette méthode avait l’avantage de pouvoir être appliquée a posteriori sur un
ensemble de projections cliniques. Il était donc facile d’évaluer l’efficacité de l’algorithme de
reconstruction 4D sur des données réelles de patients sans changer la routine clinique établie.
Par rapport à d’autres algorithmes d’analyse de projections, la méthode AS avait également
l’avantage d’être disponible par le biais de la bibliothèque logiciel libre RTK [48]. Le temps
consacré à la programmation et la validation de cet algorithme était donc minimisé.
Pour connaître le déplacement du diaphragme lors de l’acquisition, l’algorithme AS effectue
tout d’abord un pré-traitement des projections pour mettre en évidence le mouvement du
diaphragme. Un logarithme est appliquée à l’image de manière à obtenir des valeurs de pixels
proportionnelles à l’épaisseur radiologique du tissu imagé. Un seuillage met ensuite en évidence
le patient par rapport à l’air, puis l’application d’une dérivée selon l’axe tête-pied souligne les
changements ayant lieu dans cette direction. Chaque ligne de pixels est finalement sommée
pour que chaque projection soit représentée par une rangée de pixels selon l’axe tête-pied.
Les rangées de chaque projection sont juxtaposées pour produire l’image Amsterdam Shroud,
dont on peut voir un exemple à la figure 2.1. Des mouvements périodiques y sont bien visibles,
celui du diaphragme étant le plus notable vers le bas de l’image.
L’obtention d’un signal respiratoire à partir de l’image AS passe par l’application d’une dérivée
selon l’axe temporel (l’axe horizontal sur la figure 2.1), qui met en évidence les changements
entre les différentes projections. Par la suite, le signal est obtenu en alignant chaque colonne
de manière à minimiser la valeur moyenne quadratique de la différence entre les colonnes de
pixels.
21
2.2
Données d’essai
Comme l’obtention du mouvement respiratoire est une étape primordiale en imagerie 4D, il
était nécessaire de valider le signal obtenu par l’algorithme AS avant le développement d’un
nouvel algorithme de reconstruction. Pour ce faire, le fantôme numérique XCAT [14] et des
ensembles de projections cliniques ont été utilisées.
Le fantôme XCAT se base sur le Visible Human Project [49] pour représenter de manière
réaliste l’anatomie humaine. Le logiciel utilisé a été développé par Segars et al. [14] et permet
de contrôler différents paramètres du fantôme imagé (vitesse et amplitude des mouvements
respiratoires et cardiaques, dimensions et positions de différents organes, présence de lésions
supplémentaires, etc.) et de l’acquisition (spectre énergétique, dimension et résolution du détecteur, nombre de projections, etc.). Il se base sur des acquisitions réelles résonance magnétique et de tomodensitométrie pour modéliser les mouvements cardiaques et respiratoires.
Chaque organe est représenté par une courbe B-spline rationnelle non uniforme (NURBS,
de l’acronyme anglais) et peut être déformé pour représenter ce mouvement respiratoire. Les
projections utilisées pour le projet actuel provenaient d’une acquisition sans bruit à partir
d’un spectre mono-énergétique de 70 keV. 56 fantômes ont été générés pour représenter différentes phases d’un mouvement respiratoire simplifié, d’une amplitude constante de 1,2 cm
dans la direction antérieur-postérieur et de 2 cm dans la direction longitudinale et d’une période constante de 5 secondes, dont 3 d’inspiration et 2 d’expiration. Le mouvement cardiaque
n’a pas été simulé. Une sphère de tissu mou de 1 cm de diamètre, également représentée par
une courbe déformable NURBS, a également été ajoutée au poumon droit pour simuler une
tumeur pulmonaire.
Les projections cliniques étudiées, quant à elle, ont été acquises par un On-Board Imager de
Varian [4] sur des patients traités au CHU de Québec avec une géométrie de type demi-éventail.
Sur les six ensembles de projections recueillis, trois possédaient un diaphragme continuellement
visible. Considérant les limitations de l’algorithme AS, ce sont ces trois scans qui ont été utilisés
lors de l’étude de l’obtention du signal respiratoire.
2.3
Application de l’algorithme AS
Le programme développé utilise l’algorithme AS [21], tel qu’implémenté dans la bibliothèque
logicielle libre RTK [48]. Une première fonction est appelée pour obtenir l’image 2D Amsterdam
Shroud, sur laquelle le mouvement du diaphragme est mis en évidence (voir fig. 2.1). Cette
fonction demande l’ajustement de la taille du filtre de renforcement de netteté (UMS, de
l’anglais Unsharp Mask Size), qui contrôle le nombre de pixels le long de l’axe temporel
sur laquelle l’image est moyennée. Ce filtre permet de focaliser sur les caractéristiques du
mouvement rapide, comme celles de la respiration, par rapport aux artéfacts du mouvement
lent, comme ceux de la rotation du bras de l’accélérateur.
22
Figure 2.1 – Image Amsterdam Shroud obtenue à partir du fantôme XCAT. Chaque colonne
représente les données pour une projection et l’axe des ordonnées représente la direction têtepied. Le mouvement du diaphragme est mis en évidence vers le bas de l’image. Le filtre de
renforcement avait une taille de 100 pixels.
Une deuxième fonction permet ensuite d’extraire le signal respiratoire de l’image AS en réalignant chaque colonne. La figure 2.2 présente les signaux obtenus pour le fantôme numérique
et les données cliniques pour deux valeurs différentes de UMS : la valeur par défaut de 17
pixels est comparée à la valeur choisie de 100 pixels.
Dans le cas du XCAT, il est facile de confirmer la justesse du signal, puisque les paramètres
ayant générés les projections sont connus. Pour les données cliniques, il a été choisi, comme
méthode de validation, de localiser manuellement les positions extrêmes du diaphragme sur
les projections. On note toutefois que cette méthode ne permet pas de valider l’amplitude
du mouvement. L’incertitude sur ces positions dépend beaucoup de la durée du plateau du
pic. Ainsi, la positions des minima des trois patients et des maxima du patient 3 avaient une
incertitude estimée à une projection, tandis que les maxima des patients 1 et 2 avaient une
incertitude pouvant aller jusqu’à trois projections. Cette incertitude accrue est due à une pause
observée à la fin de l’expiration qui complexifiait le positionnement précis du pic. Ces mesures
manuelles, de même que la positions des pics du signal connu du XCAT, sont présentées sur
les figures subséquentes analysant les signaux respiratoires (soit les figures 2.2, 2.3 et 2.4).
Sur la figure 2.2, les signaux respiratoires des patients 1 et 3 mettent en évidence qu’un paramètre UMS de 17 pixels n’est pas approprié. Pour ces deux patients, des régions importantes
du signal sont inutilisables. Même lorsque les pics sont bien visibles sur le signal, un plateau
y est souvent observé, ce qui complexifie la localisation précise de l’extremum. La valeur de
100, choisie après une brève optimisation, a été utilisée pour le paramètre UMS pour la suite
du travail.
Toutefois, on note que, même avec une valeur UMS de 100, le caractère constant de l’amplitude
23
UMS 17
Extrema
Extrema
Signal
UMS 100
UMS 17
Signal
UMS 100
100
200
300
400
500
600
0
100
200
300
400
Projections
Projections
(a) Fantôme numérique XCAT
(b) Patient 1
500
600
UMS 100
Signal
Signal
0
UMS 17
Extrema
UMS 100
UMS 17
Extrema
0
100 200 300 400 500 600
0
100 200 300 400 500 600 700
Projections
Projections
(c) Patient 2
(d) Patient 3
Figure 2.2 – Signaux respiratoires directement extraits de l’image AS pour un fantôme
numérique et des scans de trois patients différents, pour un paramètre UMS de 17 ou de 100
pixels et avec comparaison aux extrema détectés manuellement. Le changement d’amplitude
est bien visible même pour le fantôme numérique.
du mouvement du XCAT est mal reproduit, bien que la position des extrema soit bien détectée.
En ce qui a trait aux projections de patients, les pics positionnés manuellement correspondent
bien aux pics du signal déduit par l’algorithme AS. Le nombre de cycles ayant lieu durant
l’acquisition d’une minute, variant entre 15 et 23, correspond également à des fréquences de
respiration humaine (soit entre 12 et 20 cycles par minutes [50]). Les amplitudes de chaque
cycle respiratoire des trois patients sont inconnues, mais il apparait improbable que cette
amplitude varie autant que ce qui est observé pour le patient 1, par exemple. La nécessité
24
d’une dernière étape de traitement de signal y apparaît clairement, qu’il soit question de
normalisation, d’application d’un filtre ou d’une simple détection adéquate des extrema.
2.4
Traitement du signal respiratoire
Dans l’article présentant l’algorithme AS [21], un filtre passe-haut est appliqué au signal
respiratoire initialement obtenu. L’impact des changements lents, comme celui de la rotation du
bras de l’accélérateur, serait réduit par ce filtrage. La bibliothèque ITK [51] a été utilisée pour
multiplier par un filtre binaire la transformée de Fourier rapide (FFT, de l’anglais Fast Fourier
Transform) du signal, puis calculer la FFT inverse de ce résultat. Les meilleurs résultats ont
été obtenus avec un filtre passe-bande entre 5 et 70 cycles par minute. Les signaux obtenus sont
présentés à la figure 2.3. Même si une certaine amélioration de la constance de l’amplitude est
visible, notamment pour le patient 1, un algorithme de détection des extrema serait toujours
nécessaire pour normaliser adéquatement le signal.
En ce sens, il a été choisi de faire appel à un algorithme utilisant la persistance des extrema
[52]. Les minima et maxima locaux sont détectés et associés avec une persistance entre 0 et
1, qui quantifie l’importance de l’extremum par rapport au reste des variations du signal.
L’application d’un seuillage sur cette persistance permet ensuite de conserver uniquement les
extrema significatifs. Le code, disponible sur le site du développeur, a pu être testé et le niveau
du seuil adapté au problème étudié. Les extrema, détectés avec un seuil de persistance optimisé
par essais et erreurs à une valeur de 0.6, sont présentés à la figure 2.4.
Il a été trouvé que l’application d’un filtre passe-bande, préalablement au calcul de persistance,
ne modifiaient pas les extrema détectés. L’algorithme de détections des extrema par persistance
était suffisant et il a donc été choisi de n’appliquer aucun filtre supplémentaire au signal détecté
sur l’image AS.
Bien que l’algorithme de persistance détecte efficacement la plupart des extremum, certains
sont omis (voir patient 1, vers la projection 550), tandis que de faux extrema sont détectés
(voir patient 2, vers la projection 220). Il en demeure que, pour les trois cas cliniques à l’étude,
les taux de détection (96,6% des extrema détectés) et de faux positifs (1,7% de fausses détections) sont satisfaisants. Le cas du fantôme numérique démontrent même un taux de détection
de 100%, sans faux positifs, avec une erreur maximum sur la position d’une projection. La
différence moyenne entre la position des extrema détectés manuellement et automatiquement
est de 1,6 projection pour le patient 1, de 2,3 projections pour le patient 2 et de 1,2 projection
pour le patient 3, mais cette différence peut également être due à l’inexactitude de la méthode
manuelle.
25
Signal
Extrema
Signal
Extrema
100
200
300
400
500
600
0
100
200
300
400
Projections
(a) Fantôme numérique XCAT
(b) Patient 1
500
600
Signal
Projections
Signal
0
Extrema
0
Extrema
100 200 300 400 500 600
0
100 200 300 400 500 600 700
Projections
Projections
(c) Patient 2
(d) Patient 3
Figure 2.3 – Signaux respiratoires extraits de l’image AS après l’application d’un filtre passebande autour des fréquences de 5 à 70 cycles par minute, pour un fantôme numérique et des
scans de trois patients différents et avec comparaison aux extrema détectés manuellement.
2.5
Séparation en sous-ensembles respiratoires
Comme le but premier du présent projet est de développer un algorithme de reconstruction 4D,
il est pertinent de valider la séparation adéquate des projections en sous-ensembles respiratoires
à partir des extrema détectés. Pour ce faire, on suppose une séparation en 8 sous-ensembles
qui ignore le fait que les projections soient acquises pendant l’inspiration ou l’expiration.
Les projections avant le premier extremum ou après le dernier extremum ont été classées en
extrapolant la demi-période moyenne (de l’inspiration ou de l’expiration, selon le cas) mesurée
26
Détection automatique
Valeurs réelles
Détection automatique
Signal
Signal
Détection manuelle
0
100
200
300
400
500
600
0
100
200
300
400
(a) Fantôme numérique XCAT
(b) Patient 1
600
Signal
Projections
Signal
Projections
500
0
Détection automatique
Détection automatique
Détection manuelle
Détection manuelle
100 200 300 400 500 600
0
100 200 300 400 500 600 700
Projections
Projections
(c) Patient 2
(d) Patient 3
Figure 2.4 – Signaux respiratoires extraits de l’image AS avec juxtaposition des extrema
détectés par la méthode de persistance, pour un fantôme numérique et des scans de trois
patients différents. Pour le XCAT, ces extrema sont comparés aux valeurs réelles, tandis que,
pour les patients, ils sont comparés à ceux sélectionnés manuellement.
durant l’acquisition. La figure 2.5 montre les numéros de sous-ensembles obtenus pour les deux
types d’extrema présentés précédemment à la figure 2.4, en plus de la différence entre ces deux
courbes.
Le tableau 2.1 présente les statistiques les plus pertinentes sur les différences entre la séparation en sous-ensembles selon la méthode de détection. La différence moyenne représente
l’exactitude globale de la séparation en sous-ensembles, tandis que le pourcentage des projections pour lesquelles la différence est supérieure à un sous-ensemble a été choisi pour évaluer
27
AS
Valeurs réelles
Différence
7
6
5
4
3
2
1
0
0
AS
8
Numéro du sous-ensemble
Numéro du sous-ensemble
8
6
5
4
3
2
1
0
100 200 300 400 500 600
Projections
Projections
(a) Fantôme numérique XCAT
AS
Manuellement
(b) Patient 1
Différence
7
6
5
4
3
2
1
0
0
AS
8
Numéro du sous-ensemble
Numéro du sous-ensemble
8
Différence
7
0
100 200 300 400 500 600
Manuellement
Projections
Différence
7
6
5
4
3
2
1
0
100 200 300 400 500 600
Manuellement
0
100 200 300 400 500 600 700
Projections
(c) Patient 2
(d) Patient 3
Figure 2.5 – Numéros des sous-ensembles obtenus pour chaque projection selon la méthode
d’obtention des extrema (par l’algorithme AS, manuellement pour les données cliniques ou par
connaissance des valeurs réelles pour le XCAT). Pour chaque méthode, la différences entre les
résultats obtenus par les deux méthodes est mise en évidence.
l’impact sur les reconstructions 4D. En effet, ce sont surtout ces erreurs qui pourraient diminuer la visualisation adéquate des régions en mouvement, car ces projections non correctement
regroupées imagent une position plus éloignée de celle du reste du sous-ensemble.
La très faible différence moyenne (0,09) entre le sous-ensemble alloué par l’algorithme AS et
celui alloué en connaissant le signal réel nous indique que le mouvement du XCAT est très
bien détecté. Les projections du XCAT sont toutes regroupées dans le sous-ensemble idéal ou
dans un sous-ensemble adjacent. Dans le cas des acquisitions de patients, la différence moyenne
28
Tableau 2.1 – Statistiques sur les différences entre les sous-ensembles obtenus par l’algorithme
AS et par la méthode manuelle (pour les données cliniques) ou selon le signal réel (pour le
fantôme numérique).
Différence moyenne de
sous-ensemble
Fantôme numérique
Patient 1
Patient 2
Patient 3
0,09
0,84
0,50
0,42
Pourcentage des projections pour
lesquelles cette différence est
supérieure à un sous-ensemble
0%
14,7%
2,9%
1,0%
inférieure à un sous-ensemble est également un point positif. On note toutefois que, dans le
cas du patient 1, la non détection de certains extrema a des conséquences significatives sur la
séparation en sous-ensembles. Ainsi, les projections acquises sur 50,6° se voient mal assignées,
résultant en 14,7% des projections totales qui sont classées dans un sous-ensemble différent de
plus 1 à celui assigné par la méthode manuelle. Pour le patient 2, l’impact de fausses détections
est très faible : seulement 2 projections sont affectées. Comme les faux positifs sont situés à
proximité d’extrema réels, ils occasionnent peu d’erreurs pour la séparation en sous-ensembles
et il serait donc plus important d’augmenter le taux de détection que de diminuer le taux de
faux positifs.
2.6
Temps de calcul
Les temps de calculs des étapes menant à l’obtention du signal respiratoire sont dignes de
mention. Ainsi, 5 essais ont révélé des temps de calcul pour l’algorithme AS de 1, 83 ± 0, 08
s pour les projections ayant une résolution de 512 × 384 pixels et de 9, 3 ± 0, 5 s pour les
projections ayant une résolution de 1024 × 768 pixels. Le temps de la détection des extrema
par calcul de persistance et de séparation en sous-ensembles était négligeable (moins de 0,1 ms),
peu importe la taille des projections.
2.7
Discussion
De manière générale, il apparait que les mouvements respiratoires détectés par l’algorithme AS
conviennent à une première validation d’une méthode de reconstruction. Les extrema détectés
automatiquement correspondent assez bien à ceux positionnés manuellement. Les résultats
pour le fantôme numérique sont particulièrement intéressants avec une erreur minime sur le
numéro du sous-ensemble attitré à chaque projection.
Des améliorations pourraient toutefois être faites pour augmenter le taux de détection, car la
présence d’extrema non détectés affecte significativement la justesse du regroupement en sous-
29
ensembles respiratoires. Or, cela peut compromettre la visualisation adéquate du mouvement
sur les reconstructions 4D subséquentes.
Pour approfondir l’étude du mouvement respiratoire, il serait nécessaire de comparer les signaux cliniquement obtenus à ceux provenant d’une méthode validée. En ce sens, le mouvement
détecté par un capteur externe comme le RPM de Varian [20] pourrait servir de comparaison.
Une telle comparaison serait plus précise et plus facile à appliquer à un nombre étendu d’acquisitions. Une meilleure connaissance des signaux réels et un échantillon plus important de
patients permettraient de mieux calibrer les algorithmes AS et de détection des extrema, par
le biais de l’ajustement des paramètres de la taille du filtre de renforcement de netteté et du
seuil de persistance des extrema.
30
Chapitre 3
A fast 4D cone beam CT
reconstruction method based on the
OSC-TV algorithm
3.1
Résumé
Cet article traite de l’adaptation de l’algorithme OSC-TV à l’imagerie CBCT 4D et les résultats
obtenus. Trois méthodes d’initialisation des reconstructions de phases sont étudiées : à partir
d’une image vide, à partir d’une reconstruction 3D de l’algorithme de rétroprojection filtrée
FDK et à partir d’une reconstruction 3D de l’algorithme itératif OSC-TV. Ces méthodes sont
évaluées sur le fantôme numérique XCAT et sur des acquisitions cliniques de trois patients et
comparées à l’algorithme McKinnon-Bates. Le programme est parallélisé sur une grappe de
8 GPU pour diminuer le temps de calcul. Les images obtenues permettent une visualisation
adéquate du mouvement respiratoire en des temps de reconstruction aussi bas que 4,5 minutes.
3.2
Abstract
Purpose : Four-dimensional cone beam computed tomography (4D-CBCT) allows for temporally resolved imaging with useful applications in radiotherapy. However, it is also subject to
prominent reconstruction artifacts when performed using standard reconstruction algorithms,
while iterative algorithms are time consuming and prevent online applications. The purpose of
this work is to develop a fast and accurate 4D algorithm by adapting a GPU-accelerated ordered subsets convex algorithm (OSC), combined with the total variation minimization (TV)
regularization technique.
Methods : Three methods were studied to adapt the OSC-TV algorithm to 4D reconstruction. In the first two methods, the reconstruction of each phase was initialized with a 3D
31
reconstruction (from OSC-TV or FDK algorithms), while in the third one, a blank image was
used. After a separation in phases based on the respiratory signal detected by the Amsterdam
Shroud method, reconstruction algorithms were tested on a dynamic numerical phantom and
on a clinical dataset. 4D iterations were implemented for a cluster of 8 GPUs.
Results : All developed methods allowed for an adequate visualization of the respiratory movement and compared favorably to the McKinnon-Bates (MKB) and adaptive steepest descent
projection onto convex sets (ASD-POCS) algorithms, while the 4D reconstructions initialized
from a prior 3D reconstruction led to better overall image quality. The proposed algorithm
outperformed ASD-POCS in terms of reconstruction error for simulated data. Reconstruction
times of 3.8 to 9.4 minutes were obtained for 672 projections of 512×384 pixels, a reconstruction grid of 384×384×188 voxels and 8 respiratory phases.
Conclusion : The initialization of a 4D OSC-TV algorithm implemented on multiple GPUs by
a prior FDK reconstruction was found to be the most suitable adaptation of OSC-TV to 4D
CBCT, and a valuable alternative to ASD-POCS. Thanks to relatively short reconstruction
times, this method could facilitate the adaptation of the radiotherapy treatment to the dayto-day patient’s movement.
3.3
Introduction
External beam radiotherapy in the thoracic region presents the particular problematic of a
substantial target displacement during the treatment due to respiratory motion [53]. To reduce
the irradiation of healthy tissues, image-guided radiation therapy (IGRT) should consider this
temporal displacement by using a 4D representation of the patient’s body. While computed
tomography (CT) -based 4D imaging is now routinely used in the clinic to better define the
treatment target, 4D imaging is not yet commonly used at the time of treatment for IGRT.
Being acquired over a relatively long period, cone beam computed tomography (CBCT) projections contain information about this displacement on a day-to-day basis. A 4D reconstruction
algorithm aims to recover this information and use it to improve the general quality of the
reconstructed image and, eventually, the accuracy of IGRT.
A straightforward approach to achieve a time correlated CBCT would be to simply sort projections according to the respiratory phase during which they were acquired before reconstructing
each phase independently. However, the low number of projections from each phase and their
uneven spacing would lead to major artifacts, particularly if the reconstruction is performed
by a conventional filtered backprojection algorithm such as FDK [5]. To reduce these artifacts,
the McKinnon-Bates (MKB) [30] algorithm offers to correct the 3D FDK image using phase
reconstructions of the difference between the initial raw data and the forward projected data.
The vast field of iterative reconstruction, enabling the use of physics modeling and a priori
32
knowledge of image properties, offers many promising possibilities in 4D imaging. Total variation (TV) regularization [15] is particularly suitable to partially correct the streaking artifacts
and notably improve the global image quality [22, 29]. Considering that many image regions
remain static during respiratory movement, the use of information from all projections to
reconstruct each phase can also improve image quality. To this end, different strategies have
been explored, such as optical flow based registration [35] or auto-adaptive phase correlation
algorithm [43]. The use of a prior 3D reconstruction had also been considered to constrain
the convergence of an iterative reconstruction algorithm, using for example compressed sensing [26, 32]. The adaptive steepest descent projection onto sets (ASD-POCS) algorithm [54]
is another popular method in 4D CBCT which uses compressed sensing.
Beyond reconstruction algorithms alone, compound task-driven image acquisition and reconstruction have been recently proposed by Gang et al. [55]. This method optimizes the acquisition
parameters of each projection view and its subsequent filtering, while relying on a mathematical model of task-based image quality criteria. This approach yields promising results, while
heavily relying on exceptional flexibility of the imaging equipment (C-arm CT with custom
scanning protocol), which is not always clinically accessible.
The present work studies a novel method designed to improve image quality and ease of clinical
implementation of 4D CBCT by combining different approaches. To be easy to use in clinic,
a 4D CBCT algorithm should use a standard set of projections (no slower rotating gantry or
larger number of projections acquired), should not require additional steps from the operators,
such as manual delimitation of mobile regions. Reconstruction should be as fast as possible,
ideally in real-time, to allow for treatment plan correction while the patient is in the treatment
position. Real-time 4D CBCT reconstruction appears unlikely in the short term, and typical
reconstruction times are reported in the 5 min - 30 min interval [38–41]. The current paper is
focused on offering reasonable reconstruction times of a few minutes.
The selected reconstruction algorithm, OSC-TV [8], combines a modified ordered subsets
convex algorithm (OSC) [11] and a total variation minimization regularization technique.
The OSC algorithm is particularly fast, which would facilitate a clinical use. The TV regularization reduces noise and undersampling artifacts, which could help to obtain sufficient
image quality without a slower gantry rotation or a multiple revolutions protocol. To adapt
the OSC-TV algorithm to 4D imaging, the introduction of knowledge from all projections
through the initialization of each phase’s reconstruction by a prior 3D reconstruction was studied. This alternative initialization scheme is compared to a standard initialization by a blank
image using reconstructions of a numerical phantom and of clinical datasets. The different
methods of adapting OSC-TV to 4D imaging are compared to a filtered backprojection approach, MKB, and an iterative one, ASD-POCS. In order to improve computation time, the
parallelization of the phases’ reconstruction using several GPUs was also studied. Two main
objectives are pursued in this study : the adaptation of the OSC-TV algorithm to 4D CBCT
33
and the comparison of the aforementioned initialization schemes.
3.4
Materials and methods
3.4.1
OSC-TV algorithm
The selected reconstruction method, the OSC-TV technique [8], is an expectation-maximization
algorithm with promising properties for a fast 4D CBCT reconstruction of conventionally acquired 3D CBCT. Such an iterative algorithm should be able to reconstruct an image of better
quality than an analytic approach like MKB without the computational cost of, for example,
sophisticated compressed sensing [32]. Its mathematical and physical bases have already been
described in previous work, but it is still relevant to outline some of the theory supporting the
algorithm. It has to be noted that this optimization assumes a mono-energetic photon beam
and detector readings following a Poisson distribution.
The OSC step is performed first and attempts to maximize the Poisson log-likelihood L(µ) of
the image estimate defined as follows :
L(µ) = −
X
(di e−ti + Yi ti ),
(3.1)
i
where µ refers to the voxels’ attenuation coefficient, i to a particular detector reading index,
di to its incident photon count, Yi to its detected photon count and ti to the total attenuation
along the ray path from the source to that detector. The dependency of L(µ) to µ is more
straightforward when the mathematical definition of ti is explicit :
X
ti =
lij µj ,
(3.2)
j
where lij represents the discrete length path in each voxel j. To maximize Eq.3.1, the convex
algorithm [10] suggest to update µj at each iteration n according to the following equation :
h
i
P
(n)
l
y
−
Y
ij
i
i
i
(n+1)
(n)
(n)
µj
= µ j + µj
,
(3.3)
P
(n) (n)
i lij ti y i
(n)
where y i
(n)
= di e−ti
represents the expected photon count for a given detector and iteration.
To accelerate the reconstruction, Kamphuis et al. [11] suggested to organize projections in
subsets and to update the attenuation coefficients after each subset is considered. The more
frequent update of µ does introduce a slight bias, but this bias is reduced by diminishing
the number of subsets at the end of the reconstruction [56]. In the OSC-TV technique, the
number of subsets is rather updated gradually. The number of subsets S for each iteration n
is determined by Eq. 3.4 and depends of the initial number of subsets Si , the final number of
subsets and a reduction exponent p [8].
"
#
|S|
−
|S|
i
f
|S|(n) = round
(nmax − 1 − n)p + |S|f
(nmax − 1)p
34
(3.4)
Each subset contains more or less regularly spaced projection views. The subsets are selected
in a way that maximizes the angular distance between the starting projection view of two
consecutive subsets. Once the attenuation of each voxel is estimated by the OSC step, the
TV step attempts to minimize ||µ||T V , defined as the sum of the magnitudes of the discrete
gradients of the image :
||µ||T V =
X
(3.5)
~
|∇µ|,
TV regularization is performed iteratively by subtracting the local gradient for each voxel :
(q+1)
µj
cdA
(q)
(q)
= µj − vj qP
,
2
j vj
(3.6)
TV
where q represents the TV iteration number, vj = δ||µ||
the local value of the TV gradient for
δµj
qP
(n−1) 2
n
each voxel, dA ≡
) the norm of the difference between two OSC iterations,
j (µj − µj
and c an empirical constant [15]. In the present work, 20 TV iterations were completed after
each OSC iteration (with the exception of the first OSC iteration, for which dA is not defined
and therefore TV regularization is impracticable). A value of c = 0.2 was experimentally found
to be suitable for 4D reconstructions, for both numerical phantom and clinical datasets.
The distance elements for the re-projection and backprojection were obtained via the Siddon’s
method [57].
3.4.2
Adaptation to 4D reconstruction
The Amsterdam Shroud (AS) algorithm [21], as implemented in the Reconstruction Toolkit
library (RTK) [48], was used to characterize the respiratory movement from a full cone beam
CT acquisition. Though not as robust as the use of an external surrogate, the AS algorithm
allows for 4D reconstruction without the need of additional apparatus for the patient. This
signal was used for the identification of respiratory cycles and the following separation of the
projections set into 8 respiratory subsets, each containing about 85 projections. In this work,
the end expiration and end inspiration will respectively be defined as the 0% and 100% phases.
The tumor movement was assumed to be hysteresis-free and projections were sorted only according to the diaphragm relative displacement. Thus, projections acquired during inhalation
and exhalation were grouped together given that they add the same diaphragm position. This
type of separation could be source of position’s imprecisions for some patients, considering
that tumor trajectory shows hysteresis for about 50% of the patients and that this hysteresis
is superior to 2 mm for about 20% [50]. However, it is believed that such a phase separation
method would allow for a better image quality for most patients. The reconstruction algorithm
could also be applied to other types of respiratory subsets, but it was not investigated in the
present study.
35
Three methods have been developed to adapt the OSC-TV algorithm to 4D reconstruction,
each method having a different way of initializing the reconstructed image or, in mathematical
(0)
terms, the attenuation coefficients of each voxel for the first iteration (µj
in Eq.(3.3)). In the
first method (4D OSC), a standard initialization of the volume grid is performed with a blank
image. Each respiratory subset is therefore reconstructed completely separately from the other
ones. In the second and third methods (3D OSC + 4D OSC and FDK + 4D OSC), the 4D
reconstruction images are initialized from a prior 3D reconstruction, which can be performed
by the OSC or FDK algorithm.
This prior reconstruction enables the use of information from the whole projections set, which
could potentially reduce streaking artifacts in the final image. However, motion artifacts
present in the initial 3D reconstruction could affect the final 4D image. We conjectured that
those artifacts will be reduced by limiting the number of 3D iterations : while being blurrier,
the initialization image is expected to be less prone to streaking artifacts after fewer iterations.
Fig. 3.1 resumes the followed steps of the different methods for a 4D OSC-TV reconstruction.
Figure 3.1 – Flowchart of the different proposed methods to adapt the OSC-TV algorithm
to 4D reconstruction.
3.4.3
GPU implementation and hardware
The GPU’s parallel computing architecture is particularly suitable for massively parallel problems. Most of the different steps previously mentioned (raytracing, forward projection, back
36
projection and TV regularization) can be separated in small tasks repeated multiple times
(for example, for each voxel or each ray) and can therefore take advantage of a GPU implementation. The CUDA architecture (NVIDIA, Santa Clara, CA) was used to that end.
Both reconstruction algorithms (FDK and OSC-TV) were implemented on GPU. The FDK
implementation supplied by the RTK library was used [48].
In addition, the independent nature of each phase’s reconstruction facilitates the use of multiple GPUs. Considering the design constraints limiting the performance of a single GPU,
multi-GPU computing clusters have recently emerged as leading supercomputing platforms,
notably in the medical physics field [58]. Multi-GPU acceleration is particularly suitable for
easily separable problems which require minimal inter-GPU communication. Indeed, once the
optional prior 3D reconstruction and the respiratory signal are computed, respiratory subsets
are reconstructed separately from each other, from different projections and a slightly different
geometry. The 4D portion of the algorithm was therefore easy to implement on multiple GPUs,
requiring no communication or synchronization between devices. It should be noted that the
3D portion of the algorithm was performed on a single GPU.
The reconstructions were performed on a node of 8 K20 GPUs (NVIDIA, Santa-Clara, CA) and
2 Intel Xeon processors (Intel, Santa Clara, CA). Testla K20s are fitted with 2496 computing
cores and have a global random access memory (RAM) size of 5 GiB for each GPU.
3.4.4
Projection data
The proposed algorithm was assessed both on the anthropomorphic numerical phantom XCAT [14]
and on a series of clinical datasets.
The use of a numerical phantom was necessary to simulate a fully controllable acquisition,
while the choice of this particular phantom was motivated by its accurate representation of
human anatomy and respiratory movement. A total of 56 3D phantoms were generated to
sample the respiratory movement, which had a period of 5 seconds (3 seconds of inspiration
and 2 seconds of expiration), an amplitude of 1.2 cm in the anterior-posterior axis and of 2 cm
in the longitudinal axis. The tested period and amplitude were respectively slightly longer and
larger than most clinical data [22], but the ability to perform a valid reconstruction in such
conditions would demonstrate a robustness to variable inter-patient’s movement patterns. A
sphere of soft tissue of 1 cm diameter was also added in the right lung to simulate a lung tumor
and to study the movement of small objects. Cardiac motion and noise were not simulated.
The projections were obtained using the XCAT projector with parameters inspired from those
of a Varian on-board imager (Palo Alto, CA) low-dose thorax scan. Attenuation of 70 keV
photons was simulated for a half-fan detector of 397×298 mm2 , to obtain 672 projections on a
fine grid of 1024×768 pixels. In order to reduce reconstruction time, the simulated projections
were brought to 512×384 pixels via averaging of 2×2 pixel groups. The reconstruction grid
37
consisted of 384×384×188 voxels of 1.2×1.2×1.5 mm3 .
The clinical CBCT projection data of a patient, acquired by the on-board imager of Varian
Clinac iX accelerators, were also used to investigate the performance of the different proposed
methods. The selected scan had a visible diaphragm to facilitate the detection of the respiratory
signal by the AS algorithm. Scans where the diagram is not visible at all times could be
reconstructed with the proposed algorithm, but would necessitate other projections sorting
methods, such as image intensity analysis [23] or the use of an external motion tracking
system.
The clinical projections set contained 699 projections, acquired in half-fan mode, and was
directly reconstructed with full resolution (1024×768 pixels). Due to GPU memory limitations,
the 3D OSC-TV reconstruction was performed from half the projections (350 projections
covering a full angular range). It was found that such a reconstruction demonstrated sufficient
image quality, which was corroborated by a previous study [8].
3.4.5
Comparative evaluation
The 4D OSC-TV-based methods were compared to two well-known reconstruction algorithms
in 4D CBCT : the MKB algorithm and the ASD-POCS algorithm. The MKB algorithm is a 4D
algorithm developed in the 1980s for the imaging of cardiac movement [30] and then adapted
more recently for thoracic 4D CBCT [31]. A FDK reconstruction was first performed and used
to obtain forward projections including motion. As suggested by Leng et al. [31], a median
filter was then applied to the difference between initial projections and forward projected data
to reduce streaking artifacts. Its radius was of 3×3 for 512×384 projections and of 5×5 for
1024×768 projections. This difference image was finally reconstructed and this reconstruction
subtracted from the original reconstruction to obtain the final MKB image.
The ASD-POCS algorithm [54], on the other hand, is an iterative algorithm based on the minimization of the total variation of the image. It includes an algebraic reconstruction technique
step with a positivity constraint and a reduction of the total variation by a gradient descent
step. As proposed by Bergner et al. [44] and in a similar way to FDK + 4D OSC, a prior FDK
reconstruction was used to initialize the respiratory reconstructions. For a fair comparison and
a similar computational cost, the same number of iterations (projections-backprojections) was
performed for the ASD-POCS reconstruction and for the 4D OSC-TV. The algorithm parameters for the numerical phantom were based on the adaptation for 4D CBCT described by
Bergner et al. [44], while those for the clinical data were based on a clinical study performed
by Shieh et al. [24].
The error of each reconstruction algorithm was estimated by the normalized root-mean-square
38
deviation (NRMSD), defined as follows :
NRMSD ≡
1
µp,max − µp,min
sP
j
(µj,p − µj,r )2
jmax
,
(3.7)
where µp denotes phantom voxel values and µr reconstructed voxel values. The normalization
was performed with respect to the phantom voxel values extrema. NRMSD was computed in
3D for all the slices completely within the field of view (FOV). This metric may appear rather
simple ; nevertheless, it is of critical importance for prospective treatment techniques. In fact,
4D treatment planning could benefit from 4D CBCT [59, 60], where the target volume and the
organs at risk should be segmented and registered to produce an accurate dynamic treatment
plan. Therefore, the errors over the entire FOV should be considered in the reconstruction
quality metric. In addition, this metric was computed for a 30 × 30 × 30 voxels region of
interest (ROI) containing the lesion for all phases, to observe reconstruction error on the
lesion movement trajectory.
For the clinical reconstructions, patient data was used, therefore, no reference measurements
were available for the geometry or µ values. Patient images were analyzed from a qualitative
standpoint, by observing noise, streaking artifacts and structure boundaries.
3.5
3.5.1
Results and Discussion
Simulated data
Projections of the moving phantom were first reconstructed by the two 3D algorithms, the
OSC-TV iterative algorithm and the conventional FDK method (Fig. 3.2). For all reconstructed images (Fig. 3.2, Fig. 3.5 and Fig. 3.6), the same slice is shown with a µ range of
[0, 0.3] cm−1 . In Fig. 3.2, both images display notable motion blurring and artifacts, which
would compromise clinical use. These reconstructions are shown for comparison and to reaffirm
the usefulness of a phase-correlated algorithm.
To optimize the FDK+4D OSC method, different backprojection filters were tested for the
initializing 3D reconstruction. It was found that this parameter had little impact on the final
4D images, the subsequent OSC-TV iterations reducing efficiently the possible noise. For
example, relative cutoff frequencies for the cosine-windowed ramp filter of 0.5, 0.75 and 1 were
tested and yielded NRMSD values of 0.0467, 0.0471 and 0.0472 respectively, after 12 OSC-TV
iterations for phase 0%. The cosine filter with a cutoff frequency of 1 was therefore selected
for all the prior FDK reconstructions.
Fig. 3.3 shows the progression of NRMSD as a function of the number of iterations of the
different iterative algorithms. Phase 0% was selected to show the accuracy of reconstruction
methods for a peak phase, which, as will be shown in Fig. 3.4, were more prone to artifacts.
39
3D OSC-TV
Coronal
Axial
FDK
Figure 3.2 – 3D reconstruction of the XCAT phantom in movement using the FDK algorithm and the OSC-TV algorithm. Both reconstructions display notable motion blurring and
artifacts. µ range of [0, 0.3] cm−1 shown.
Results of Fig. 3.3 were used to determine the number of iterations for each method. For the
3D OSC-TV reconstruction, NRMSD did not notably decrease after 2 iterations (NRMSD improvement inferior to 1%). Based on this result and after a few trials, it was decided to perform
2 iterations for the 3D part of the 3D OSC+4D OSC method. For the 4D OSC only method,
a threshold of NRMSD improvement superior to 1% was selected as the best compromise between speed and accuracy. 12 iterations were therefore completed for this method. Considering
the advantage provided by a prior image, the prior-initialized methods (3D OSC+4D OSC,
FDK+4D OSC and ASD-POCS) were set to perform 10 respiratory-correlated iterations, whether it be performed by the OSC-TV or the ASD-POCS algorithms. In so doing, the different
iterative methods perform a similar number of numerical operations.
Fig. 3.4 presents the evolution of NRMSD with respect to the reconstructed phase for two
different ROIs : the entire FOV (Fig. 3.4 (a)) and a ROI of 30 × 30 × 30 voxels around the
1-cm lesion (Fig.3.4) (b)). This second ROI was selected to study the visualization of moving
object more specifically. The different adaptations of the OSC-TV algorithm for 4D imaging
can be compared between each other and with the MKB and ASD-POCS algorithms. It is
clear that the OSC-TV methods yield a lower estimation error than the MKB method for all
studied phases. The use of a prior 3D reconstruction also helps to slightly reduce the error
estimate, especially for end-movement phases. ASD-POCS yields results similar to the other
iterative algorithms for the full FOV, but represents the lesion ROI region less accurately. It
is also worth noting that MKB yields a higher NRMSD than the 3D reconstruction performed
40
! "
#
$%
Figure 3.3 – NRMSD as a function of completed iterations for different iterative methods (3D
OSC, 4D OSC, 3D OSC+4D OSC, FDK+4D OSC and ASD-POCS) for phase 0%. The four
4D methods yield a lower error than 3D OSC-TV, but the methods with a prior reconstruction
yield the lowest error estimator and converged faster.
by FDK for the full FOV, which can seem surprising. In fact, MKB is a method designed to
visualize the movement, but also introduces artifacts in motionless regions and, in doing so,
degrades the general image quality.
For all reconstruction methods, a lower NRMSD can be observed for the central phases. This
decrease is attributable to the more even angular distribution of the projections used for those
reconstructions. Indeed, projections identified as belonging to extremal movement phases, such
as peak inhaled and peak exhaled, are bundled in one position of the respiratory cycle, while
projections belonging to the middle movement phases appeared at two positions of the cycle,
leading to a better angular coverage for middle phases.
Fig. 3.5 and Fig. 3.6 show, for phases 0% and 43%, the visual comparison between the different
4D reconstructions and the original phantom representing the central position of the studied
phases. It can be observed that the use of a prior 3D reconstruction for initialization of the
4D reconstruction substantially increases image quality for an end phase such as phase 0%,
41
!"
"
!"
"
!#
!
$
!#
!
%
$
(a) Entire FOV
%
(b) ROI around the 1-cm lesion
Figure 3.4 – NRMSD as a function of the reconstructed phase for different methods (3D
OSC, 4D OSC, 3D OSC+4D OSC, FDK+4D OSC, MKB and ASD-POCS). The NRMSD is
measured for (a) the entire FOV and (b) a ROI of 30 × 30 × 30 voxels around the 1-cm lesion.
The four iterative methods yield a lower estimation error than MKB, while FDK+4D OSC
and 3D OSC+4D OSC yield the lowest NRMSD.
while, for a central phase such as phase 43%, the three OSC-TV adaptations provide similar
results.
Qualitatively, 3D OSC+4D OSC and FDK+4D OSC reconstructions contain less undersampling artifacts in motionless regions (back and the exterior of the chest cavity) than the simple
4D OSC version, but some motion artifacts present in the 3D reconstruction are still visible,
mostly in the sternum and heart regions. The ASD-POCS reconstructions, also initialized by
a 3D image, are similar in that way to the 3D OSC+4D OSC and FDK+4D OSC reconstructions, but contain more noise and streaking in the uniform regions. On the other hand, the
MKB reconstruction shows both important noise and motion blurring. If the displacement of
a large object such as the diaphragm is noticeable, the visualization of the motion of small
elements such as the tumor is much harder.
The temporal resolution and reduction of motion blurring were evaluated by the position’s
detection of the simulated tumor and of the diaphragm. A separation in 8 respiratory subsets, assuming a hysteresis-free movement, allows for a theoretical average temporal resolution
around 0.3 s (the half-period of 2.5 divided by the number of phases). Considering the amplitude of 1.2 cm in the anterior-posterior axis and of 2 cm in the longitudinal axis, a maximum
theoretical residual movement about 0.15 cm (1.2 cm divided by the number of phases) in
42
Phantom
Axial
Coronal
Sagittal
Axial - Difference
4D OSC
FDK + 4D OSC
3D OSC + 4D OSC
MKB
ASD-POCS
Figure 3.5 – XCAT phantom and its 4D reconstructions for respiratory phase 0% (endexpiration). The use of a prior image initialization considerably improved image quality. µ
range of [0, 0.3] cm−1 shown. For the phantom, colored lines indicate where the attenuation
profiles of Fig. 3.7 (red) and Fig. 3.8 (blue and yellow) were measured.
43
Phantom
Axial
Coronal
Sagittal
Axial - Difference
4D OSC
FDK + 4D OSC
3D OSC + 4D OSC
MKB
ASD-POCS
Figure 3.6 – XCAT phantom and its 4D reconstructions for respiratory phase 43% (central
respiration phase). Iterative methods provide comparable results, while MKB reconstruction
shows both important artifacts and motion blurring. µ range of [0, 0.3] cm−1 shown.
44
the anterior-posterior axis and about 0.25 cm (2 cm divided by the number of phases) in the
longitudinal axis is expected. For both peak phases (phases 0% and 100%) and moving object
(diaphragm in Fig. 3.8 and simulated tumor in Fig. 3.7), a profile was plotted, sampling the
3D volume with a line width of 3 pixels, along the anterior-posterior axis for the tumor and
along the longitudinal axis for the diaphragm. As the tumor also moved in the longitudinal
axis, its attenuation was studied in central slices of both peak phases. Position 0 approximately
represents the center of the movement range. Fig. 3.5 shows the lines along which the profiles
were plotted : the diaphragm was plotted along the red line visible in the coronal view. The
tumor for phase 0% was plotted along the blue line crossing the center of the tumor, visible
on the axial and sagittal views. The tumor for phase 100% was plotted along the yellow line
visible in the sagittal view.
!
!
(a) Phase 0%
(b) Phase 100%
Figure 3.7 – Attenuation profiles for phase 0% (a) and 100% (b) as measured across the
diaphragm in the longitudinal axis for different 3D volumes.
Fig. 3.7 and 3.8 both show that motion blurring is largely reduced by the iterative methods.
The study of the diaphragm movement demonstrates an accurate detection of its position and
very low blurring around its edge. Attenuation coefficient matches sufficiently well those of the
XCAT phantom. In terms of the tumor’s position, the three OSC-TV adaptations methods and
ASD-POCS also provide similar results. The MKB reconstruction is the only reconstruction
to show a clear contamination between phases : for the other methods, the simulated tumor
is only visible on the expected slice. It should also be noted that FDK+4D OSC and 3D
OSC+4D OSC demonstrate an attenuation coefficient which is more stable and the closer to
its actual value for both studied phases in the tumor region. Such attributes could facilitate a
tumor delimitation process in a clinical context.
45
Central slice of tumor for phase 0%
Central slice of tumor for phase 100%
!
Phase 100%
Phase 0%
!
!
!
Figure 3.8 – Attenuation profiles for phase 0% (top row) and 100% (bottom row), as measured where the 1 cm diameter soft tissue sphere is located during phase 0% (left column) and
phase 100% (right column). Profiles are plotted in the anterior-posterior axis.
46
It has to be noted that the reconstructions tend to underestimate the tumor size in the
posterior direction, of 0.12 cm for phase 0% and 0.24 cm for phase 100%. Such a slight offset
can also be observed on the difference image presented in Fig. 3.5 and Fig. 3.6, which suggest
a geometrical misalignment unrelated to the detection of movement. It could be explained by
a possible small discrepancy between the continuous version of the XCAT phantom used to
obtain projections and its voxelized version used to perform image quality analysis. However,
for phase 100%, this could be exacerbated by a contamination from other respiratory phases.
The low tumor edge blurring and relatively precise tumor position detection suppose an adequate temporal resolution. However, detection of some of the real tumors could be complexified
by their eventual proximity to artifacts. Since the initialization from a prior reconstruction reduces artifacts for end movement phases, detection of small objects’ motion could be facilitated
by this initialization scheme.
From a more general perspective, it is understood that, by its simple movement (i.e., a respiratory movement of constant frequency and amplitude and no cardiac movement) and by
the absence of noise in the data, the numeric phantom was a simplified model. Nevertheless,
these conditions were already somewhat challenging and demonstrated the impact of the initialization image on convergence. The study of the 4D OSC-TV algorithm on clinical datasets
is essential to demonstrate its interest.
3.5.2
Clinical data
A clinical acquisition was reconstructed successfully with the 4D OSC-TV methods. The 4D
image allowed for the detection of a movement’s amplitude of 1.6 cm in the longitudinal axis,
while no movement was observed in the anterior-posterior axis. Reconstructions of this patient
with different algorithms are shown in Fig. 3.9.
The four reconstruction methods show clearly the diaphragm movement in Fig. 3.9. A movement of smaller structures in the heart region is also visible on the OSC-TV-based reconstruction, but, in general, smaller structures seemed to be too regularized by the TV method for the
clinical dataset. For example, the apparent lesion located in the lower region of the left lung
(right side of the picture), suffers from loss of detail on small structures. In addition to sparse
angular sampling, it should be taken into consideration that the clinical dataset is quite illconditioned due to noise, scattered radiation, beam-hardening and gantry orbit irregularities
typical to on-board CBCT. In consequence, iterative reconstruction mostly eliminates noise
and high-frequency artifacts ; in return, it suffers from high-frequency information loss, which
is a limitation of the proposed technique consistent with other TV-based methods. Beyond
the results presented here, smaller values of the TV regularization coefficient were also tested,
but streaking artifacts due to irregular phase sampling were more prominent and the general
image quality was not improved. The MKB clinical reconstruction is sharper, at the cost of
47
ASD-POCS
MKB
FDK +
4D OSC
3D OSC
+ 4D OSC
4D OSC
(a) FDK reconstruction
Phase 0%
(b) 4D reconstructions
Phase 100%
Figure 3.9 – Reconstruction of a clinical dataset (a) with the FDK algorithm (b) with various
4D algorithms for phases 0% and 100%. µ range of [0, 0.3] cm−1 shown.
48
added noise, which affects uniform structures as well as structure boundaries. For ASD-POCS,
the streaking and noise levels were very sensitive to the value of regularization parameters and
difficult to eliminate. These findings are consistent with the high-frequency noise visible in the
4D ASD-POCS reconstructions performed by Bergner et al. [44] and the persistent streaking
reported by Matenine et al. [8] with respect to the 3D TV-regularized POCS method.
It appears clear that the image quality of reconstructions based on simulated data is noticeably
better than the one of the clinical reconstruction. It is mainly attributed to the properties
of simulated data : absence of noise and cardiac movement, as well as the consistency of
the respiratory movement, which all facilitated the task of the reconstruction algorithms.
Furthermore, with respect to iterative reconstruction methods, the empirical parameters of
the OSC-TV and ASD-POCS algorithms, such as the magnitude of the TV regularization,
were straightforward to adjust for simulated data. For clinical data affected by noise and
other movements, parameters became quite difficult to adjust and even there, the uncertainties
which affect the acquisition were transferred to the reconstructed images.
3.5.3
Reconstruction times
To evaluate the execution time of the XCAT phantom, 5 repetitions of each reconstruction
were performed to obtain a mean execution time and the corresponding standard deviation.
For the 3D initialization images obtained using 3D OSC-TV, each iteration completed with
the full data set took 168.9±0.3 seconds. It is to be noted that 3D OSC-TV was performed
on a single GPU. In contrast, the 4D reconstruction has two accelerating factors : the set of
projections is about 8× smaller for each phase and the reconstruction of phases is performed
concurrently on 8 GPUs. An iteration for the reconstruction of the the 8 phases concurrently
on the 8 GPUs took 22.37±0.08 seconds on average. ASD-POCS iterations were slightly faster
with an average computation time of 21.6±0.2 seconds per iteration. For its part, the FDK
reconstruction took about 14±2 seconds. The total reconstruction times are shown in Table 3.1.
It should be noted that the clinical data were about four times longer to reconstruct, due to
the larger projections’ size. It is also worth noting that the MKB algorithm was not optimized
and that most of its long computation time can be explained by the use of a median filter
applied via CPU computations (10 min 8 sec).
It has to be noted that the 3D OSC+4D OSC adaptation is disadvantaged, in terms of computation time, by its use of a single GPU for the 3D OSC portion. Parallelization on multiple
GPUs of the standard 3D OSC-TV code could reduce the computation time of 3D iterations
up to a factor 8, making the total reconstruction time of 3D OSC + 4D OSC comparable
to the 4D OSC method. However, FDK would remain faster than the iterative algorithm.
Another advantage of the FDK initialization is the fact that, in a clinical context, the FDK
reconstruction could begin during the scan acquisition. In such a case, the reconstruction time
of the FDK + 4D OSC approach would only consist of its 4D portion.
49
Tableau 3.1 – Reconstruction times of the XCAT phantom by the different 4D algorithms (for
all 8 respiratory phases).
Methods
4D OSC
FDK + 4D OSC
3D OSC + 4D OSC
MKB
ASD-POCS
Computation times (s)
3D portion 4D portion
Total
298±11 298±11
14±2
259±10 272±12
337.9±0.7
248±9
586±9
≈789
≈789
14±2
216±2
230±4
Table 3.1 also shows that the ASD-POCS is slightly faster than the OSC-TV adaptations :
for example, FDK+4D OSC take 15% more time to perform a 4D reconstruction than ASDPOCS. Both algorithms can therefore be interesting to use in an environment requiring a
fast solution. However, it is important to remember that ASD-POCS has more parameters to
adjust, which can complicate clinical software calibration.
Computations times in the order of a few minutes are particularly interesting for clinical
applications. To our knowledge, even if some 4D reconstruction algorithms achieve acceptable
results in less than 30 minutes [39–41] by parallelizing the computation on GPU, very few are
faster than the 5 minutes mark [38]. It is evident that the implementation on multiple GPUs
greatly reduced reconstruction times and such an approach could be used to accelerate other
algorithms. However, parallelization on multiple GPUs would be more complex for algorithms
requiring frequent communication between devices. The initialization by an analytical 3D
reconstruction appears like a fast and simple way of increasing image quality by the use of
knowledge from the full set of projections without compromising the ease of parallelization
of each phase’s reconstruction. Without being real-time in the current form, the proposed
solution can easily keep pace with the clinical patients flow and may be successfully used to
visualize the patient’s anatomy.
3.6
Conclusion
In the present study, the ability of the OSC-TV algorithm to perform 4D reconstructions on
cone beam CT projection datasets obtained via the Amsterdam Shroud algorithm has been
investigated. It was shown that the initialization reconstruction of each phase by a prior 3D
reconstruction improved overall image quality. The 3D + 4D approaches were more robust,
being able to reconstruct end movement phases with less artifacts in motionless regions, but
showed slightly more streaking artifacts than the simple 4D approach. Both prior 3D initializations showed similar results, but the FDK initialization was significantly faster, with a total
computation time of 272 s. Compared to the 4D ASD-POCS algorithm, the FDK+4D OSC
method was shown to reconstruct a moving object more accurately, at the cost of 15% of
50
added reconstruction time.
Compared to other 4D algorithms, the main interest of the FDK + 4D OSC-TV algorithm
would be its low computation time, enabled via implementation on multiple GPUs. One of the
purposes of using CBCT imaging for IGRT is to accurately and precisely identify the tumor
position of the day as well as its trajectory during breathing. In this context, it is important to
reduce motion blurring as much as possible. 4D CBCT can be used for that purpose, but only
if image reconstruction can be performed rapidly. Our work shows that this is indeed feasible
to achieve without large compromises on image quality nor spatial resolution. In addition,
results were obtained from a CBCT acquisition with a standard rotation speed and number of
projections, which would also facilitate a clinical implementation. It implies that the algorithm
could be applied a posteriori on pre-existing scans if necessary.
Further work is focused on obtaining a better compromise between image quality and speed.
The number of iterations, the importance of regularization and the reconstruction grid size
could be optimized to correspond appropriately to clinical needs. For example, due to a very
small movement in a certain direction, reconstruction’s voxels could be expanded in this direction to reduce computation time. The use of a 4D TV regularization could also improve
image quality with a low computational cost, if adapted adequately to multiple GPUs.
Acknowledgements
The authors acknowledge partial support by the CREATE Medical Physics Research Training
Network grant of the Natural Sciences and Engineering Research Council of Canada (Grant
number : 432290).
Computations were made on the supercomputer Helios from Université Laval, managed by
Calcul Québec and Compute Canada. The operation of this supercomputer is funded by the
Canada Foundation for Innovation (CFI), the Ministère de l’Économie, de la science et de
l’innovation du Québec (MESI) and the Fonds de recherche du Québec - Nature et technologies
(FRQ-NT).
Disclosure of Conflicts of Interest
The authors have no relevant conflicts of interest to disclose.
51
Chapitre 4
Conclusion
Ce mémoire a présenté le développement d’une méthode utilisant un ensemble de projections
CBCT standard pour déduire, puis visualiser le mouvement respiratoire du patient ou fantôme
imagé. Tout d’abord, l’algorithme d’analyse de projection Amsterdam Shroud, combiné à la
méthode de détections des extrema par évaluation de la persistance, a permis d’obtenir un
signal respiratoire représentant adéquatement le mouvement d’un fantôme numérique. Les
essais effectués sur des projections cliniques semblaient également prometteurs, mais le manque
de comparatif ne permet pas de validation finale.
De manière générale, un des principaux avantages de cette méthode d’obtention de signal respiratoire réside dans sa facilité d’utilisation. Il est cliniquement plus simple et moins coûteux
de faire appel à un algorithme de détection du mouvement, plutôt qu’à un capteur de position
externe. La disponibilité des codes informatiques utilisée (gratuits et facilement modifiables)
participe également à cette facilité d’utilisation. Toutefois, on note que certaines acquisitions
cliniques n’ont pu être analysés par l’algorithme AS en raison de l’exclusion du diaphragme
de la région imagée. Même s’il serait possible d’adapter le choix la région imagée à cette
réalité, cette restriction complexifie une utilisation clinique de l’algorithme AS. D’autres algorithmes, comme la méthode d’analyse d’intensité, pourraient être étudiés et préférés pour leur
robustesse. L’utilisation d’un capteur de position externe pourrait également être envisagée,
surtout dans un contexte où plusieurs salles de traitement en sont déjà équipé pour mesurer
le mouvement du patient pendant un traitement.
Une fois la méthode d’obtention du signal respiratoire validée, le projet de recherche a pu se focaliser sur l’adaptation de l’algorithme OSC-TV à l’imagerie CBCT 4D. Différentes méthodes
d’initialisation des images de sous-ensembles respiratoires ont été explorées : il a été trouvé que
l’utilisation d’une reconstruction 3D pour initialiser chaque sous-ensemble permettait de reconstruire un fantôme numérique plus fidèlement, particulièrement dans les régions immobiles.
Par rapport à une reconstruction 3D faite à l’aide de l’algorithme OSC-TV, la reconstruction
FDK était plus rapide et de qualité d’image comparable. La rapidité d’exécution de la portion
52
4D de la reconstruction a été favorisée par la parallélisation des calculs sur plusieurs cartes
graphiques. Ainsi, chacun des 8 sous-ensembles respiratoires a été reconstruit sur une carte
graphique différente, ce qui a permis l’obtention de résultats en 4,5 minutes.
Une telle rapidité de calcul a un potentiel intéressant pour visualiser le mouvement respiratoire
pendant qu’un patient est encore en salle de traitement. La plupart des algorithmes actuels
demande des temps de calcul de l’ordre des dizaines de minutes, voire d’heures. Toutefois,
un temps de calcul de près de 5 minutes demeure relativement long. Par exemple, au CHU
de Québec, une plage horaire de 15 minutes est généralement prévue pour un traitement de
radiothérapie externe. Une attente de 5 minutes est donc significative et des améliorations au
temps de calcul seraient encore souhaitables. En ce sens, il est pertinent de mentionner que la
parallélisation sur plusieurs cartes graphiques n’a pas été optimisée et pourrait bénéficier d’une
meilleure synchronisation du transferts des données. De plus, certains paramètres, comme
le nombre d’itérations et la résolution spatiale, pourraient être spécifiquement adaptés aux
besoins cliniques de manière à diminuer le temps de calcul.
En terme de qualité d’image, l’adaptation 4D de OSC-TV est également parvenue à des résultats intéressants, mais qu’il serait encore pertinent d’améliorer. Les contours des structures
mobiles, comme la sphère de tissu mou ou le diaphragme du fantôme numérique, étaient bien
définis, ce qui suppose une résolution temporelle satisfaisante. Dans le cas des reconstructions
de données cliniques, le diaphragme était également bien défini et son mouvement clairement
visible, mais les plus petites structures étaient trop régularisées pour que leur mouvement soit
être facilement distinguable. Or, une diminution du coefficient de régularisation TV résultait
en une augmentation des artéfacts de rayons spécifiques à l’imagerie 4D et n’améliorait pas la
visibilité du mouvement. L’application de la régularisation TV entre les phases respiratoires
pourraient corriger cette problématique en permettant de diminuer le coefficient de régularisation sans provoquer d’artéfacts de rayons. On note que la régularisation TV en 4D a déjà été
étudiée [29] et s’est trouvée être une méthode permettant une qualité d’image intéressante.
Sa combinaison avec la rapidité de calcul permise par l’algorithme convexe, l’utilisation de
sous-ensembles ordonnés et la parallélisation sur plusieurs GPU serait prometteuse.
53
Bibliographie
[1] Jerrold T. Bushberg, J. Anthony Seibert, Edwin M. Leidholdt Jr. et John M.
Boone : The essential physics of medical imaging, 3rd edition. Lippincott Williams and
Wilkins, 2012.
[2] Fang-Fang Yin, Jonh Wong, James Balter, Stanley Benedict, Jean-Pierre Bissonnette, Timothy Craig, Lei Dong, David Jaffray, Steve Jiang, Siyong Kim, C.-M.
Charlie Ma, Martin Murphy, Peter Munro, Timothy Solberg et Q. Jackie Wu :
The role of in-room kV X-Ray imaging for patient setup and target localization. Rapport
technique, AAPM, 2009. AAPM Report No. 104.
[3] J. H. Siewerdsen et D. A. Jaffray : Cone-beam computed tomography with a flatpanel imager : Magnitude and effects of X-Ray scatter. Medical physics, 28(2):220–231,
2001.
[4] Varian Medical Systems : On-Board Imager (OBI), 2015. URL www.varian.com/
oncology/products/imaging/on-board-imager-obi.
[5] L. A. Feldkamp, L. C. Davis et J. W. Kress : Practical cone-beam algorithm. J. Opt.
Soc. Amer. A, 1:612–619, 1984.
[6] Kenneth Lange et R. Carson : EM reconstruction algorithms for emission and transmission tomography. Journal of Computer Assisted Tomography, 8(2):306, 1984.
[7] Richard Gordon, Robert Bender et Gabor T. Herman : Algebraic reconstruction techniques (ART) for three-dimensional electron microscopy and X-ray photography. Journal
of Theoretical Biology, 29(3):471 – 481, 1970.
[8] Dmitri Matenine, Yves Goussard et Philippe Després : GPU-accelerated regularized
iterative reconstruction for few-view cone beam CT. Medical Physics, 42(4):1505–1517,
2015.
[9] Sean Borman : The expectation maximization algorithm – a short tutorial. 2004.
54
[10] Kenneth Lange et Jeffrey A. Fessler : Globally convergent algorithms for maximum a
posteriori transmission tomography. IEEE Transactions on Image Processing, 4(10):1430–
1438, 1995.
[11] C. Kamphuis et F. J. Beekman : Accelerated iterative transmission CT reconstruction
using an ordered subsets convex algorithm. IEEE Transactions on Medical Imaging, 17
(6):1101–1105, 1998.
[12] D. Bertsekas : A new class of incremental gradient methods for least squares problems.
SIAM Journal on Optimization, 7(4):913–926, 1997.
[13] Leonid I. Rudin, Stanley Osher et Emad Fatemi : Nonlinear total variation based noise
removal algorithms. Physica D : Nonlinear Phenomena, 60(1):259 – 268, 1992.
[14] W. P. Segars, M. Mahesh, T. J. Beck, E. C. Frey et B. M. W. Tsui : Realistic CT
simulation using the 4D XCAT phantom. Medical Physics, 35(8):3800–3808, 2008.
[15] Emil Y Sidky, C.-M. Kao et Xiaochuan Pan : Accurate image reconstruction from
few-views and limited-angle data in divergent-beam CT. X-ray Sci. Tech., 14(2):119–139,
2006.
[16] Lei Xing, B Thorndyke, E Schreibmann, Ying Yang, TF Li, GY Kim, Gary Luxton
et A Koong : Overview of image-guided radiation therapy. Medical Dosimetry, 31(2):91–
112, 2006.
[17] PJ Keall, Gig Mageras, J. Balter, R.S. Emery, Kenneth Forster, Steve B Jiang,
J. Kapatoes, Daniel A. Low, Martin Murphy, Bisakha Ray et al. : The management of
respiratory motion in radiation oncology report of aapm task group 76. Medical Physics,
33:3874, 2006.
[18] David P Gierga, Johanna Brewer, Gregory C Sharp, Margrit Betke, Christopher G
Willett et George TY Chen : The correlation between internal and external markers
for abdominal tumors : implications for respiratory gating. International Journal of
Radiation Oncology* Biology* Physics, 61(5):1551–1558, 2005.
[19] Hao Yan, Xiaochun Wang, W. Yin, Tinsu Pan, M. Ahmad, X. Mou, L. Cerviño,
Xun Jia et Steve B. Jiang : Extracting respiratory signals from thoracic cone beam ct
projections. Physics in Medicine and Biology, 58(5):1447–1464, 2013.
[20] Varian
Medical
Systems
:
Real-time
Position
manager,
2015.
URL
www.varian.com/oncology/products/real-time-tracking-motion-management/
real-time-position-management-rpm.
55
[21] Lambert Zijp, Jan-Jakob Sonke et Marcel van Herk : Extraction of the respiratory
signal from sequential thorax cone-beam x-ray images. Proceedings of ICCR, Seoul, Korea,
pages 507–509, 2004.
[22] M. L. Schmidt, P. R. Poulsen, J. Toftegaard, L. Hoffmann, David C Hansen
et T. S. Sorensen : Clinical use of iterative 4D-cone beam computed tomography
reconstructions to investigate respiratory tumor motion in lung cancer patients. Acta
Oncologica, 53(8):1107–1113, 2014.
[23] A. Kavanagh, P. M. Evans, V. N. Hansen et S. Webb : Obtaining breathing patterns
from any sequential thoracic x-ray image set. Physics in Medicine and Biology, 54(16):
4879–4888, 2009.
[24] C. . Shieh, J. Kipritidis, R. T. O’Brien, Z. Kuncic et P. J. Keall : Image quality in
thoracic 4D cone-beam CT : A sensitivity analysis of respiratory signal, binning method,
reconstruction algorithm, and projection angular spacing. Medical physics, 41(4), 2014.
[25] Geoffrey D. Hugo et Mihaela Rosu : Advances in 4D radiation therapy for managing
respiration : Part i - 4D imaging. Zeitschrift für Medizinische Physik, 22(4):258 – 271,
2012. Schwerpunkt : Multimodale Bildgebung und Therapie ISSN 0939-3889.
[26] Shuai Leng, Jie Tang, Joseph Zambelli, Brian Nett, Ranjini Tolakanahalli et
Guang-Hong Chen : High temporal resolution and streak-free four-dimensional conebeam computed tomography. Physics in Medicine and Biology, 53(20):5653–5673, 2008.
[27] D.L. Donoho : Compressed sensing. Information Theory, IEEE Transactions on,, 52
(4):1289 –1306, 2006.
[28] Hengyong Yu et Ge Wang : Compressed sensing based interior tomography. Physics in
medicine and biology, 54(9):2791–2805, 2009.
[29] Ludwig Ritschl, Stefan Sawall, Michael Knaup, Andreas Hess et Marc Kachelriess : Iterative 4D cardiac micro-CT image reconstruction using an adaptive spatiotemporal sparsity prior. Physics in Medicine and Biology, 57(6):1517, 2012.
[30] G. C. McKinnon et R. H. T. Bates : Towards imaging the beating heart usefully with a
conventional CT scanner. IEEE Transactions on Biomedical Engineering, 28(2):123–127,
1981.
[31] S. Leng, J. Zambelli, R. Tolakanahalli, B. Nett, P. Munro, J. Star-Lack, B. Paliwal et G. Chen : Streaking artifacts reduction in four-dimensional cone-beam computed tomography. Medical physics, 35(10):4649–4659, 2008.
56
[32] Guang-Hong Chen, Jie Tang et Shuai Leng : Prior image constrained compressed
sensing (PICCS) : A method to accurately reconstruct dynamic CT images from highly
undersampled projection data sets. Medical physics, 35(2):660–663, 2008.
[33] T Li, E Schreibmann, Y Yang et L Xing : Motion correction for improved target
localization with on-board cone-beam computed tomography. Physics in Medicine and
Biology, 51(2):253, 2006.
[34] J. Wang et Xuejun Gu : High-quality four-dimensional cone-beam ct by deforming prior
images. Physics in Medicine and Biology, 58(2):231–246, 2013.
[35] Christian P. V. Christoffersen, David Hansen, Per Poulsen et Thomas Sangild
Sorensen : Registration-based reconstruction of four-dimensional cone beam computed
tomography. IEEE Transactions on Medical Imaging, 32(11):2064–2077, 2013.
[36] Zhen Tian, Xun Jia, Bin Dong, Yifei Lou et Steve B. Jiang : Low-dose 4DCT reconstruction via temporal nonlocal means. Medical Physics, 38(3):1359–1365, 2011.
[37] Hewei Gao, Ravi K. Guntupalli, Yi-An Lin et Lei Xing : 4D cone beam CT via
spatiotemporal tensor framelet. Medical physics, 39(11):6943–6946, 2012.
[38] Ziyi Zheng, Mingshan Sun, John Pavkovich et Josh Star-Lack : Fast 4D cone-beam
reconstruction using the McKinnon-Bates algorithm with truncation correction and non
linear filtering. In SPIE Medical Imaging, pages 79612–79612. International Society for
Optics and Photonics, 2011.
[39] Hao Yan, Xin Zhen, Michael Folkerts, Yongbao Li, Tinsu Pan, Laura Cervino,
Steve B. Jiang et Xun Jia : A hybrid reconstruction algorithm for fast and accurate 4D
cone-beam CT imaging. Medical Physics, 41(7), 2014.
[40] Justin C Park, Hao Zhang, Yunmei Chen, Qiyong Fan, Jonathan G Li, Chihray Liu
et Bo Lu : Common-mask guided image reconstruction (c-MGIR) for enhanced 4D conebeam computed tomography. Physics in Medicine and Biology, 60(23):9157, 2015.
[41] Cyril Mory, Vincent Auvray, Bo Zhang, Michael Grass, Dirk Schaefer, Shifeng
Chen, John D. Carroll, Simon Rit, Francoise Peyrin, Philippe Douek et Loic Boussel : Cardiac C-arm computed tomography using a 3D+time ROI reconstruction method
with spatial and temporal regularization. Medical Physics, 41(2), 2014.
[42] Jan-Jakob Sonke, L. Zijp, Peter Remeijer et Marcel van Herk : Respiratory correlated
cone beam CT. Medical Physics, 32:1176, 2005.
[43] Frank Bergner, Timo Berkus, Markus Oelhafen, Patrik Kunz, Tinsu Pan et Marc
Kachelriess : Autoadaptive phase-correlated (AAPC) reconstruction for 4D CBCT.
Medical Physics, 36(12):5695–5706, 2009.
57
[44] Frank Bergner, Timo Berkus, Markus Oelhafen, Patrik Kunz, Tinsu Pan, Rainer
Grimmer, Ludwig Ritschl et Marc Kachelriess : An investigation of 4D cone-beam
CT algorithms for slowly rotating scanners. Medical Physics, 37(9):5044–5053, 2010.
[45] Tianfang Li et Lei Xing : Optimizing 4d cone-beam ct acquisition protocol for external
beam radiotherapy. International Journal of Radiation Oncology Biology Physics, 67
(4):1211–1219, 2007.
[46] Xun Jia, Zhen Tian, Yifei Lou, Jan-Jakob Sonke et B. Jiang : Four-dimensional
cone beam ct reconstruction and enhancement using a temporal nonlocal means method.
Medical Physics, 39(9):5592–5602, September 2012.
[47] Xiaochuan Pan, Emil Y Sidky et Michael Vannier : Why do commercial ct scanners still
employ traditional, filtered back-projection for image reconstruction ? Inverse Problems,
25(12):123009, 2009. URL http://stacks.iop.org/0266-5611/25/i=12/a=123009.
[48] S Rit, M Vila Oliva, S Brousmiche, R Labarbe, D Sarrut et G C Sharp : The
Reconstruction Toolkit (RTK), an open-source cone-beam CT reconstruction toolkit based on the Insight Toolkit (ITK). Journal of Physics : Conference Series, 489(1):012079,
2014.
[49] U.S. National Library of Medicine : Visible Human Male and Female Datasets, 2016.
URL www.nlm.nih.gov/research/visible/visible_human.html.
[50] Yvette Seppenwoolde, Hiroki Shirato, Kei Kitamura, Shinichi Shimizu, Marcel van
Herk, Joos V. Lebesque et Kazuo Miyasaka : Precise and real-time measurement of
3D tumor motion in lung due to breathing and heartbeat, measured during radiotherapy.
International Journal of Radiation Oncology* Biology* Physics, 53(4):822–834, 2002.
[51] L. Ibanez, W. Schroeder, L. Ng et J. Cates : The ITK Software Guide. Kitware,
Inc., first édition, 2003. URL www.itk.org/ItkSoftwareGuide.pdf.
[52] Yeara Kozlov et Tino Weinkauf : Extracting and filtering minima and maxima
of 1D functions, 2016.
URL https://people.mpi-inf.mpg.de/weinkauf/notes/
persistence1d.html.
[53] James M. Balter, Randall K. Ten Haken, Theodore S. Lawrence, Kwok L. Lam et
John M. Robertson : Uncertainties in CT-based radiation therapy treatment planning
associated with patient breathing. 36(1):167–174, 1996.
[54] Emil Y Sidky et Xiaochuan Pan : Image reconstruction in circular cone-beam computed tomography by constrained, total-variation minimization. Physics in Medicine and
Biology, 53(17):4777, 2008.
58
[55] Grace J Gang, J Webster Stayman, Tina Ehtiati et Jeffrey H Siewerdsen : Taskdriven image acquisition and reconstruction in cone-beam ct. Physics in Medicine and
Biology, 60(8):3129, 2015.
[56] Freek J. Beekman et Chris Kamphuis : Ordered subset reconstruction for x-ray CT.
Physics in medicine and biology, 46(7):1835–1844, 2001.
[57] Robert L. Siddon : Fast calculation of the exact radiological path for a three-dimensional
CT array. Medical Physics, 12(2):252–255, 1985.
[58] Xun Jia et Steve B Jiang : Graphics Processing Unit-Based High Performance Computing in Radiation Therapy. CRC Press, 2015.
[59] K. Wijesooriya, E. Weiss, V. Dill, Lei Dong, Radhe Mohan, S. Joshi et P.J.
Keall : Quantifying the accuracy of automated structure segmentation in 4d ct images
using a deformable image registration algorithm. Medical Physics, 35(4):1251 – 60, 2008.
[60] Reinhart A. Sweeney, Benedikt Seubert, Silke Stark, Vanessa Homann, Gerd Mueller, Michael Flentje et Matthias Guckenberger : Accuracy and inter-observer variability of 3d versus 4d cone-beam ct based image-guidance in sbrt for lung tumors.
Radiation Oncology, 7(1):81, 2012.
59
Téléchargement