Génération automatique de sujets d'évaluation individuels en contexte universitaire
Auteur / Autrice : | Richardson Ciguene |
Direction : | Gilles Dequen, Ben-Manson Toussaint |
Type : | Thèse de doctorat |
Discipline(s) : | Informatique |
Date : | Soutenance le 14/11/2019 |
Etablissement(s) : | Amiens |
Ecole(s) doctorale(s) : | École doctorale Sciences, technologie et santé (Amiens) |
Partenaire(s) de recherche : | Laboratoire : Modélisation, Information et Systèmes (Amiens ; 2008-....) |
Jury : | Président / Présidente : Evens Emmanuel |
Examinateurs / Examinatrices : Gilles Dequen, Ben-Manson Toussaint, Dominique Lenne, Serge Garlatti, Céline Joiron, Laure Brisoux Devendeville, Dominique Groux-Leclet | |
Rapporteurs / Rapporteuses : Dominique Lenne, Serge Garlatti |
Mots clés
Résumé
Ce travail de thèse s'intéresse à l'évaluation des apprentissages et notamment à la génération automatique de sujets d'évaluations dans les universités. Nous nous appuyons sur une base de questions sources pour créer les questions des sujets grâce à des algorithmes qui sont en mesure de construire des tests d'évaluation différenciés. Ces recherches ont permis d'élaborer une métrique qui mesure cette différenciation et de proposer des algorithmes visant à maximiser la différenciation totale sur des collections de tests, tout en minimisant le nombre de patterns nécessaires. Les performances en moyenne de ces derniers dépendent du nombre de patterns disponibles dans la base source (en regard du nombre d'items souhaités dans les tests), et de la taille des collections générées. On s'est focalisé sur la différenciation possible dans de très petites collections de sujets, et propose des pistes méthodologiques pour optimiser la distribution de ces sujets différenciés à des cohortes d'étudiants en respectant les contraintes de l'enseignant. La suite de ce travail sera éventuellement de prendre en compte le niveau de difficulté d'un Test comme nouvelle contrainte, en s'appuyant en partie sur les données statistiques et sémantiques récoltées après chaque Épreuve. Le but est de pouvoir maximiser la différenciation en gardant l'équité entre les Tests d'une Collection, pour une distribution optimisée lors des Épreuves