Algorithmes parallèles proximaux pour la reconstruction d'images acquises par échantillonnage compressif en IRM. Applications en imagerie à très hauts champ magnétique.

par Loubna El Gueddari

Projet de thèse en Imagerie et physique médicale

Sous la direction de Nicolas Boulant et de Philippe Ciuciu.

Thèses en préparation à Paris Saclay , dans le cadre de Electrical,Optical,Bio: PHYSICS_AND_ENGINEERING , en partenariat avec Unité d'analyse et de traitement de l'information (laboratoire) et de Université Paris-Sud (établissement de préparation de la thèse) depuis le 01-10-2016 .


  • Résumé

    L'imagerie par résonance magnétique (IRM) est la modalité d'imagerie médicale de référence pour sonder in vivo et de façon non invasive les tissus mous dans le corps humain, et en particulier le cerveau. L'amélioration de la résolution des images IRM dans un temps d'examen constant (e.g., 200 µm en 15 min) est un enjeu majeur pour permettre aux médecins d'améliorer significativement leur diagnostic et la prise en charge des patients. L'avènement, il y a 10 ans, de nouvelles théories d'échantillonnage, comme l'échantillonnage compressif [1-2], a révolutionné la façon de collecter des données dans plusieurs disciplines scientifiques (e.g., en ultrasons, en imagerie astronomique) en dépassant le théorème de Shannon-Nyquist. Cette percée repose sur trois piliers complémentaires: i) l'usage de schémas d'acquisition pseudo-aléatoires, ii) la parcimonie ou compressibilité des images dans une représentation adaptée (e.g., ondelettes ou trames) et iii) l'utilisation d'un algorithme de reconstruction non-linéaire qui promeut la parcimonie. En utilisant ces trois piliers conjointement, l'échantillonnage compressif permet de sous-échantillonner massivement les données, d'un facteur R, tout en garantissant des conditions pour une reconstruction exacte de l'image. Son utilisation en IRM est apparue en 2007 [3] et très vite, un certain nombre de travaux se sont multipliés (cf e.g., [4-6]). Toutefois, les facteurs d'accélération atteints n'ont jamais dépassé R=10. Dans ce contexte, les efforts de NeuroSpin (UNATI, thèse de Nicolas Chauffert 2012-15) ont porté jusqu'à présent sur le pilier i) pour proposer de nouvelles trajectoires compressées compatibles avec les contraintes de l'IRM (gradients, temps d 'écho, …) qui réalisent un échantillonnage à densité variable [7-9]. Des facteurs d'accélération allant jusqu'à R=40 ont pu être atteint d'abord en simulation [10], puis plus récemment sur données réelles sur l'imageur clinique à 7 Tesla (résolution isotrope de 100 µm) [11]. La problématique de ce sujet de thèse porte désormais sur les deux autres piliers ii)-iii) avec l'objectif d'accélérer considérablement l'étape de reconstruction d'image pour différents contextes applicatifs (imagerie anatomique, fonctionnelle et quantitative multi-paramétrique i.e., T1, T2, densité de protons, coefficient de diffusion …). Sur le plan mathématique, il s'agira d'une part de proposer de nouveaux algorithmes de reconstruction (pilier iii)) issus de l'optimisation convexe, en particulier des méthodes proximales [12] et primales-duales [13] qui visent à minimiser un problème convexe mais non différentiable. Des contributions sont attendues dans la parallélisation de ce type d'algorithmes afin d'accélérer l'étape de reconstruction, notamment dans le contexte des acquisitions non-cartésiennes où la transformée de Fourier non-uniforme se substitue à la FFT. Cette parallélisation peut aboutir à changer le cœur des algorithmes existants et donc à revisiter les preuves de convergence. On s'appuiera pour cela sur les travaux récents de Jean-Christophe Pesquet et Emilie Chouzenoux (LIGM UMR CNRS 8049, Univ. Paris-Est) [14-16]. D'autre part, afin d'opérer la reconstruction en ligne sans attendre la fin de l'acquisition, une version stochastique de ces algorithmes sera développée, à l'instar des récents travaux proposés pour la restauration d'images ou le débruitage de maillages 3D [17-19]. Cette version permettra de gérer le cas des données incomplètes et donc des erreurs sur le terme d'attache aux données dans le critère à minimiser. Outre le développement de nouveaux algorithmes, la thèse portera également sur le choix des représentations parcimonieuses (pilier ii)) les plus adaptées pour modéliser les images IRM. Jusqu'alors, nous avons privilégié des bases d'ondelettes mais l'usage de décompositions redondantes comme des trames ajustées (e.g., union de bases) ou de décomposition intégrant des informations géométriques (ridgelets, curvelets, shearlets) pourraient permettre d'atteindre une meilleure qualité d'image. Il s'agira donc de proposer la meilleure représentation et les pénalisations adaptées à injecter dans le critère à optimiser. Dans le contexte de l'imagerie quantitative multi-paramétrique, une régularisation matricielle par tenseur de structure, à l'instar de [20], pourra être envisagée. Dans un troisième temps, on étudiera la possibilité d'étendre les algorithmes proposés dans un contexte mono-canal, au cadre de l'imagerie multi-canaux (IRM parallèle en réception) afin de tenir compte de la complémentarité spatiale des informations fournies par les différents canaux, à l'instar de travaux préalables menés conjointement par les deux équipes [21-23]. Dans ce domaine, nous pourrons proposer une extension visant à estimer de façon autodidacte les matrices de sensibilité des différents canaux. Enfin, une part importante du travail consistera à implanter et valider les algorithmes sur un cluster de calcul, typiquement une machine massivement multi-coeurs dotée par ailleurs de cartes graphiques GPU, et d'étudier leur passage à l'échelle (gain de temps lorsqu'on augmente le nombre d'unités de calcul disponibles). Pour la validation, ces approches seront d'abord testées dans le contexte de l'imagerie anatomique à haute résolution à 7 Tesla (pondération T2*). Puis, deux applications plus ambitieuses seront ciblées : l'IRM fonctionnelle dans laquelle une série de volumes sont acquis toutes les 2 sec. environ, typiquement pendant 5 à 10 min. Le problème de reconstruction 3D+temps peut alors être formulé soit comme une succession de problèmes 3D soit comme un problème 4D [22]. Dans ce contexte, les algorithmes stochastiques [17-19] pourront jouer leur rôle. Enfin, le problème de reconstruction en IRM quantitative multi-paramétrique sera investi car les algorithmes disponibles actuellement sont très pauvres : ils se limitent au regridding de l'espace de Fourier. Pour rendre ces recherches visibles et accessibles à la communauté internationale, les développements seront intégrés à l'initiative Gadgetron (https://gadgetron.github.io/).

  • Titre traduit

    Parallel proximal algorithms for compressed sensing MRI reconstruction. Applications in ultra-high magnetic field imaging..


  • Résumé

    Magnetic resonance imaging (MRI) is the reference medical imaging technique for probing in vivo and non-invasively soft tissues in the human body, notably the brain. MR image resolution improvement in a standard scanning time (e.g., 200µm isotropic in 15 min) would allow medical doctors to significantly improve both their diagnosis and patients' follow-up. This could be achieved thanks to the recent Compressed Sensing (CS) theory [1-2], which has revolutionized the way of acquiring data in several fields (e.g., ultrasounds, astronomy) by overcoming the Shannon-Nyquist theorem. This breakthrough has been accomplished by combining three key pillars: (i) pseudo-random acquisitions, (ii) image compressibility using well-matched sparse decompositions (e.g., wavelets, frames) and (iii) nonlinear image reconstruction promoting sparsity. Using CS, data can then be massively under-sampled by a given acceleration factor “R” while ensuring conditions for optimal image recovery. Its first usage in MRI has been proposed in [3] and then a large amount of contributions have been published in this field (cf. e.g., [4-6]). However, the reported acceleration factors never exceeded R=10. In this context, NeuroSpin's research track (UNATI, PhD thesis of Nicolas Chauffert during 2012-15) has consisted of contributing to Pillar i) through the design of new feasible (i.e. compatible with the hardware constraints such as the gradient system) k-space trajectories for compressed sensing. Such trajectories have permitted to achieve variable density sampling with (R=40)-fold acceleration [7-9], first on simulated MR images [10], and then on real data collected at 7 Tesla (100 µm isotropic resolution) [11]. The main topic of this PhD project focuses on the other two pillars (ii)-(iii) with the ultimate goal of dramatically speeding up the reconstruction step for different applications (anatomical, functional and multi-parametric quantitative imaging i.e., T1, T2, proton density, diffusion coefficient …). On the mathematical side, new reconstruction algorithms based on convex optimization will be proposed. Proximal methods [12] and primal-dual formulations [13] will be considered since the variational formulation of the inverse problem to be solved consists of minimizing a convex but non-smooth criterion. In this thesis, contributions in the parallelization of such algorithms are expected to speed up reconstruction, notably in the context of non-Cartesian acquisition scenarios where the non-uniform Fourier transform replaces the FFT. This parallelization can lead to thoroughly change the core of existing algorithms and then to revisit convergence proofs. For this reason, we will rely on recent works conducted by Jean-Christophe Pesquet and Emilie Chouzenoux (LIGM UMR CNRS 8049, Univ. Paris-Est) [14-16]. Moreover, on-line reconstruction will also be targeted, hence a stochastic version of such algorithms will be developed akin to what has been recently proposed in image restoration and 3D mesh denoising [17-19]. This version will permit to handle situations where the reconstruction is launched on incomplete data, hence in presence of errors or approximations on the data consistency term in the loss function to be minimized. Beyond the development of such algorithms, the PhD topic will also address the optimal choice of sparse representations (Pillar (ii)) for modeling MR images. So far we have considered wavelet bases even though more redundant decompositions, such as tight frames or representations embedding geometric informations (ridgelets, curvelets, shearlets), might allow us to reach improve image quality. Hence, attention will be paid to assess such alternatives and select the best compromise between image quality and computational efficiency. The corresponding penalization terms will then be injected in the loss function to be minimized. In the multi-parametric quantitative imaging context, matrix-based regularization using a tensor-based approach [20] will be envisioned. In a third time, the proposed algorithms will be extended to situations where parallel (multi-channel or parallel MRI) imaging is combined with compressed sensing, in order to account for complementarity of spatial information delivered by the different channels. For doing so, we will rest on previous works jointly conducted by both teams [21-23]. In this field, we will propose a new approach for estimating the sensibility matrices associated with the different channels in an automated manner. Last, a significant amount of work will consist of deploying and validating algorithms on parallel computing facilities located at NeuroSpin, typically a many-core architecture boosted by double GPU motherboard. Specific attention will be paid to scalability (i.e., the gain in computation time when the number of computing unit is increased). For validation purposes, all methods will be first tested on anatomical images in the context of high-resolution imaging at 7 Tesla (T2* weighting). Second, two more ambitious applications will be targeted: on the one hand, functional MRI in which a sequence of scans (MRI volumes) are collected every 2 s for about 5 to 10 min. The reconstruction issue of such 3D+time dataset can be cast either into a series of independent 3D reconstruction steps or as a full 4D problem [22]. In the latter situation, the stochastic version of the proposed algorithms might play a significant role [17-19]. On the other hand, reconstruction of multi-parametric quantitative MRI will be investigated since the currently available algorithms are restricted to crude regridding techniques in the Fourier domain. In order to make these research outcomes visible and broadly accessible to the international MRI community, all software developments will be integrated to the Gadgetron initiative (https://gadgetron.github.io/).