Evaluation automatique de visualisations abstraites avec des techniques d'apprentissage automatique.

par Loann Giovannangeli

Projet de thèse en Informatique

Sous la direction de Romain Bourqui.

Thèses en préparation à Bordeaux , dans le cadre de École doctorale de mathématiques et informatique (Talence, Gironde) , en partenariat avec Laboratoire bordelais de recherche en informatique (laboratoire) et de Bench to Knowledge and Beyond (BKB) (equipe de recherche) depuis le 01-10-2020 .


  • Résumé

    Description de la problématique de recherche - Project description La visualisation de l'information s'est maintenant établie comme une stratégie fructueuse dans divers domaines d'application pour l'exploration de données importantes et/ou complexes. Lors de la conception d'une nouvelle technique de visualisation, il est nécessaire d'évaluer son efficacité par rapport aux techniques existantes. S'il est facile d'évaluer les performances informatiques, l'évaluation des performances de l'utilisateur est plus complexe. On y parvient généralement en procédant à une évaluation de l'utilisateur qui compare les techniques sur une ou plusieurs tâches (par exemple[Ghoniem M., 2004], OJK18]). Au cours d'une telle étude, on demande à une population d'utilisateurs de résoudre plusieurs fois la même tâche en utilisant différentes données d'entrée présentées avec différentes techniques de visualisation ou différentes variations d'une technique. Les résultats expérimentaux (p. ex. exactitude ou temps de réalisation) sont ensuite validés statistiquement pour confirmer ou réfuter certaines hypothèses préliminaires. L'évaluation d'un utilisateur peut prendre beaucoup de temps à mesure que le nombre de techniques, l'ensemble de données considéré et le nombre de tâches augmentent. Cela peut biaiser les résultats expérimentaux (p. ex. en raison d'une perte d'attention ou de fatigue). Il est donc nécessaire de maintenir un temps de réalisation raisonnable pour l'ensemble de l'évaluation. À cette fin, on essaie habituellement de garder raisonnable le nombre d'essais expérimentaux[Pur12] en réduisant le nombre de techniques évaluées, le nombre de tâches et/ou l'ensemble de données. C'est l'un des goulets d'étranglement de l'évaluation des utilisateurs car les concepteurs de visualisation doivent réduire l'espace de conception exploré à quelques techniques de visualisation sans aucune preuve solide.

  • Titre traduit

    Automatic evaluation of abstract visualizations with machine learning techniques.


  • Résumé

    Information visualization has now been established as fruitful strategy in various application domains for exploration of large and/or complex data. When designing a new visualization technique, it is necessary to assess its efficiency compared to existing ones. While computational performances can be easily evaluated, assessing user performance is more complicated. This is usually achieved by carrying out a user evaluation that compares the techniques on one or several tasks (e.g. [ (Ghoniem M., 2004),OJK18]). During such a study, a population of users is asked to solve several times the same task using different input data presented with different visualization techniques or different variations of a technique. Experimental results (e.g., accuracy or completion time) are then statistically validated to confirm or refute some preliminary hypothesis. Completing a user evaluation can become time-consuming as the number of techniques, the considered dataset, and the number of tasks increase. That may bias the experimental results (e.g., due to loss of attention or fatigue). It is therefore necessary to maintain reasonable the completion time of the entire evaluation. To that end, one usually tries to keep reasonable the number of experimental trials [Pur12] by reducing the number of evaluated techniques, the number of tasks and/or the dataset. This is one of the bottlenecks of user evaluations as visualization designers have to reduce the explored design space to a few visualization techniques without any strong evidence.