La première partie du travail consistera à mettre en œuvre des architectures profondes simples sur cette
tâche en exploitant une librairie existante pour le deep learning : tensorflow ou torch.
Dans un second temps on s’intéressera à proposer des solutions au problème de variabilité. Certaines
pistes sont assez naturelles et consistent à détourner des solutions qui ont été proposées dans d’autres
situations. Par exemple on peut facilement apprendre un espace de représentation commune pour les
données de tous les sujets en projetant toutes leurs données dans un espace commun à partir duquel
une tâche supervisée, ce qui a été proposé pour le traitement de données mutlimodales [Srivastava et al.,
2014]). On peut apprendre la transformation des données d'un sujet à un autre sujet en s’appuyant sur
des autoencodeurs profondes ou sur des versions profondes d'outils d'analyse de données telles que
l’analyse canonique des corrélations et sa version profonde [Andrew et al., 2013]. D’autres
architectures profondes peuvent être imaginées pour capturer la variabilité sujet. Par exemple on peut
supposer que les spécificités cérébrales d'un sujet pourraient être caractérisés par quelques variables
latentes et apprendre et s’appuyer sur des modèles profonds à variables latentes pour modéliser
globalement toutes les données de tous les sujets.
Certaines des méthodes évoquées ci-dessus reposent sur un alignement de deux espaces de description
(les voxels) correspondant à deux sujets. L’exploitation d’outils classiques ne permet d'aligner les
données (les voxels d’un espace et les voxels d’un autre espace) que globalement sans prendre en
compte la plausibilité de cet alignement. Pourtant, si une question de neurosciences doit être attaquée
sur la base de ces modèles de transformation leur comportement doit intégrer de telles contraintes de
plausibilité. Cela peut être fait par l'adoption de schémas spécifiques de régularisation par blocs.
Références
[Andrew et al., 2013] Galen Andrew and Raman Arora and Karen Livescu and Jeff Bilmes, Deep Canonical Correlation
Analysis, International Conference on Machine Learning (ICML), 2013
[Bengio, 2009] Y Bengio, Learning Deep Architectures for AI, Foundations and Trends in Machine Learning, 2 :1-127,
2009.
[Deng et al, 2013] L Deng, J Li, JT Huang, K Yao, D Yu, F Seide, ML Seltzer, G Zweig, X He, J Williams, Y Gong & A
Acero. Recent advances in deep learning for speech research at Microsoft, ICASSP 2013.
[Do et al., 2010] T.M.T. Do & T. Artieres, Neural conditional random fields, Thirteenth International Conference on
Artificial Intelligence and Statistics (AISTAT), 2010.
[Farabet et al, 2013] C Farabet, C Couprie, L Najman & Y LeCun. Learning Hierarchical Features for Scene Labeling, IEEE
Transactions on Pattern Analysis and Machine Intelligence, August 2013.
[Kriegeskorte et al, 2009] N. Kriegeskorte, M. Mur, P. Bandettini. Representational similarity analysis – connecting the
branches of systems neuroscience. Front Syst Neurosci 2 : 1-28, 2009.
[Palatucci et al., 2009] Zero-Shot Learning with Semantic Output Codes, M. Palatucci, D. Pomerleau, G. Hinton, T. Mitchell
Neural Information Processing Systems (NIPS), 2009.
[Pipanmaekaporn et al., 2015] Luepol Pipanmaekaporn, Ludmilla Tajtelbom, Vincent Guigue, Thierry Artières, Designing
semantic feature spaces for brain-reading, ESANN 2015.
[Guclu et al., 2015] Umut Güçlü and Marcel A. J. van Gerven, Deep Neural Networks Reveal a Gradient in the Complexity
of Neural Representations across the Ventral Stream, The Journal of Neuroscience, 8 July 2015, 35(27).
[Srivastava et al., 2014] Nitish Srivastava and Ruslan Salakhutdinov, Multimodal Learning with Deep Boltzmann Machines,
Journal of Machine Learning Research, 2014, volume 15, pp 2949-2980.
Encadrants : T. Artières (LIF), S. Takerkart (Institut de Neurosciences de la
Timone, INT)
Poursuite en thèse : possibilité mais pas certitude
Indemnités de stages : standard