E-infrastructure, segmentation du cortex, environnement de contrôle qualité : un fil rouge pour les neuroscientifiques

par Alberto Redolfi

Thèse de doctorat en Imagerie et physique médicale

Sous la direction de Jean-François Mangin.


  • Résumé

    Les neurosciences sont entrées dans l'ère des « big data ». Les ordinateurs de bureau individuels ne sont plus adaptés à l'analyse des téraoctets et potentiellement des pétaoctets qu'impliquent les images cérébrales. Pour combler le gouffre qui existe entre la taille des données et les possibilités standard d'extraction des informations, on développe actuellement des infrastructures virtuelles en Amérique du Nord, au Canada et également en Europe. Ces infrastructures dématérialisées permettent d'effectuer des expériences en imagerie médicale à l'aide de ressources informatiques dédiées telles que des grilles, des systèmes de calcul haute performance (HPC) et des clouds publics ou privés. Les infrastructures virtuelles sont aujourd'hui les systèmes les plus avancés et les mieux équipés pour soutenir la création de modèles multimodaux et multi-échelles avancés du cerveau atteint par la maladie d'Alzheimer (chapitre 2) ou pour valider des biomarqueurs d'imagerie prometteurs, tels que l'épaisseur corticale, grâce à des pipelines sophistiqués (chapitre 3). En effet, les analyses d'imagerie, telles que celles décrites dans les chapitres 2 et 3, multiplient de manière exponentielle la quantité de données post-traitées qui atteignent, à la fin, des téraoctets de résultats pour une seule étude. Afin de faire face à l'énorme quantité de données de post-traitement générées par les infrastructures électroniques, un environnement de contrôle qualité automatique (ECQ) des maillages de la surface corticale (chapitre 4) a été proposé. L'ECQ est un classifieur par apprentissage automatique (AA) avec une approche par apprentissage supervisé basée sur les forêts d'arbres décisionnels (RF) et des estimations par séparateurs à vaste marge (SVM). Compte tenu de son évolutivité et de son efficacité, l'ECQ s'inscrit bien dans les infrastructures électroniques en cours de développement, où ce type de service de vérification élémentaire manque toujours. L'ECQ représente une occasion unique de traiter les données plus facilement et plus rapidement, ce qui permettra aux neuroscientifiques de passer leur temps précieux à effectuer des analyses de données au lieu de le dépenser dans des tâches manuelles et laborieuses de contrôle qualité.

  • Titre traduit

    E-infrastructure, cortical mesh segmentation, quality control environment : a red thread for neuroscientists


  • Résumé

    Neuroscience entered the “big data” era. Individual desktop computers are no longer suitable to analyse terabyte, and potentially petabytes, of brain images. To fill in the gap between data acquisition and information extraction, e-infrastructures are being developing in North America, Canada, and Europe. E-infrastructures allow neuroscientists to conduct neuroimaging experiments using dedicated computational resources such as grids, high-performance computing (HPC) systems, and public/private clouds. Today, e-infrastructures are the most advanced and the best equipped systems to support the creation of advanced multimodal and multiscale models of the AD brain (chapter 2) or to validate promising imaging biomarkers with sophisticated pipelines, as for cortical thickness, (chapter 3). Indeed, imaging analyses such as those described in chapter 2 and 3 expand the amount of post-processed data per single study. In order to cope with the huge amount of post-processing data generated via e-infrastructures, an automatic quality control environment (QCE) of the cortical delineation algorithms is proposed (chapter 4). QCE is a machine learning (ML) classifier with a supervised learning approach based on Random Forest (RF) and Support Vector Machine (SVM) estimators. Given its scalability and efficacy, QCE fits well in the e-infrastructures under development, where this kind of sanity check service is still lacking. QCE represents a unique opportunity to process data more easily and quickly, allowing neuroscientists to spend their valuable time do data analysis instead of using their resources in manual quality control work.


Il est disponible au sein de la bibliothèque de l'établissement de soutenance.

Consulter en bibliothèque

La version de soutenance existe

Où se trouve cette thèse\u00a0?

  • Bibliothèque : Université Paris-Sud. Service commun de la documentation. Bibliothèque électronique.
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.