Thèse soutenue

Génération automatique de sujets d'évaluation individuels en contexte universitaire

FR  |  
EN
Auteur / Autrice : Richardson Ciguene
Direction : Gilles DequenBen-Manson Toussaint
Type : Thèse de doctorat
Discipline(s) : Informatique
Date : Soutenance le 14/11/2019
Etablissement(s) : Amiens
Ecole(s) doctorale(s) : École doctorale Sciences, technologie et santé (Amiens)
Partenaire(s) de recherche : Laboratoire : Modélisation, Information et Systèmes (Amiens ; 2008-....)
Jury : Président / Présidente : Evens Emmanuel
Examinateurs / Examinatrices : Gilles Dequen, Ben-Manson Toussaint, Dominique Lenne, Serge Garlatti, Céline Joiron, Laure Brisoux Devendeville, Dominique Groux-Leclet
Rapporteurs / Rapporteuses : Dominique Lenne, Serge Garlatti

Résumé

FR  |  
EN

Ce travail de thèse s'intéresse à l'évaluation des apprentissages et notamment à la génération automatique de sujets d'évaluations dans les universités. Nous nous appuyons sur une base de questions sources pour créer les questions des sujets grâce à des algorithmes qui sont en mesure de construire des tests d'évaluation différenciés. Ces recherches ont permis d'élaborer une métrique qui mesure cette différenciation et de proposer des algorithmes visant à maximiser la différenciation totale sur des collections de tests, tout en minimisant le nombre de patterns nécessaires. Les performances en moyenne de ces derniers dépendent du nombre de patterns disponibles dans la base source (en regard du nombre d'items souhaités dans les tests), et de la taille des collections générées. On s'est focalisé sur la différenciation possible dans de très petites collections de sujets, et propose des pistes méthodologiques pour optimiser la distribution de ces sujets différenciés à des cohortes d'étudiants en respectant les contraintes de l'enseignant. La suite de ce travail sera éventuellement de prendre en compte le niveau de difficulté d'un Test comme nouvelle contrainte, en s'appuyant en partie sur les données statistiques et sémantiques récoltées après chaque Épreuve. Le but est de pouvoir maximiser la différenciation en gardant l'équité entre les Tests d'une Collection, pour une distribution optimisée lors des Épreuves