Intelligence artificielle (IA) et transparence : prédictibilité, sentiment de contrôle et confiance.
Auteur / Autrice : | Marine Pagliari |
Direction : | Valérian Chambon, Bruno Berberian |
Type : | Projet de thèse |
Discipline(s) : | Sciences cognitives |
Date : | Inscription en doctorat le Soutenance le 12/12/2023 |
Etablissement(s) : | Université Paris sciences et lettres |
Ecole(s) doctorale(s) : | École doctorale Cerveau, cognition, comportement |
Partenaire(s) de recherche : | Laboratoire : Institut Jean-Nicod (Paris) (2002-....) |
Equipe de recherche : ACTION - Action, Intention, Rationalité : de lIndividuel au Collectif | |
établissement opérateur d'inscription : École normale supérieure (Paris ; 1985-....) | |
Jury : | Président / Présidente : Elisabeth Pacherie |
Examinateurs / Examinatrices : Valérian Chambon, Sophie Bouton, Lionel Brunel, Emilie Caspar, Bert Timmermans | |
Rapporteurs / Rapporteuses : Emilie Caspar, Bert Timmermans |
Mots clés
Résumé
Lémergence de systèmes autonomes a considérablement transformé notre manière d'interagir avec le monde qui nous entoure et les prévisions pour l'avenir indiquent que cette tendance va continuer à se développer, en particulier avec l'avènement de l'Intelligence Artificielle (IA). Les systèmes autonomes avec lesquels nous collaborons exigent une adaptation de nos compétences cognitives et comportementales afin de nous synchroniser efficacement avec eux. Par conséquent, il devient essentiel de comprendre comment notre cognition sest adaptée, et continue de s'adapter, aux caractéristiques de cette automatisation accrue. L'une des questions centrales de cette thèse sarticule autour des fonctions cognitives mobilisées par les nouvelles formes d'interactions entre opérateurs humains et systèmes autonomes. Dans ce travail de thèse, nous nous sommes intéressés à linfluence de ces nouvelles formes dinteraction sur lexpérience subjective de contrôle des opérateurs humains, i.e. le sentiment d'agentivité. Le sentiment d'agentivité fait référence au sentiment de contrôler les actions que nous effectuons et les conséquences de ces actions dans le monde (Haggard & Chambon, 2012). Lobjectif de cette thèse était de (i) caractériser limpact de lIA sur la cognition humaine, en particulier sur le sentiment d'agentivité des opérateurs humains, et de (ii) définir et implémenter de nouveaux formats d « explication », afin de compenser linfluence de lopacité des systèmes sur lémergence du sentiment dagentivité des opérateurs. Pour ce faire, nous avons mené quatre études expérimentales. Nos résultats indiquent que plus lautonomie de l'IA est élevée, plus le sentiment de contrôle et de responsabilité des opérateurs diminuent. La communication dexplications permet toutefois ladaptation des opérateurs humains à la tâche en cours, ainsi que laugmentation concomitante de leur sentiment dagentivité (Études 1 et 2). En outre, nous montrons que lorsque l'IA fournit des explications, les opérateurs humains leur attribuent une responsabilité accrue (Étude 3), et que ces explications permettent daccéder à des indices supplémentaires qui favorisent lémergence dun sentiment de contrôle plus fiable (Étude 4). Enfin, nos résultats soulignent l'importance de maintenir l'engagement de lopérateur humain dans la tâche à réaliser, afin de préserver son sentiment de responsabilité dans linteraction avec le système artificiel. Cette thèse souligne l'importance d'intégrer la cognition humaine dans le développement des partenaires artificiels à venir. Les modèles de cognition humaine peuvent en effet contribuer à une caractérisation plus fine des informations sur lesquelles repose le développement dinteractions qualitatives, de manière à proposer des solutions qui garantissent une meilleure collaboration entre opérateurs humains et systèmes artificiels autonomes.