Agentivité conjointe lors des interactions Homme-machine: comment concevoir des agents plus coopératifs?

par Aïsha SahaÏ

Projet de thèse en Sciences cognitives

Sous la direction de Elisabeth Pacherie.

Thèses en préparation à Paris Sciences et Lettres , dans le cadre de École doctorale Cerveau, cognition, comportement (Paris) , en partenariat avec Institut Jean-Nicod (Paris) (laboratoire) et de École normale supérieure (Paris ; 1985-....) (établissement de préparation de la thèse) depuis le 01-10-2015 .


  • Résumé

    L'usage des technologies automatiques dans l'industrie tend à augmenter car les systèmes automatisés nous assurent une efficacité tout en rendant le travail de l'opérateur moins contraignant. Cependant, les données issues de la littérature scientifique concernant la relation entre l'Homme et la technologie suggèrent que les systèmes automatisés traditionnels ont beaucoup de conséquences négatives en termes de performance et de sécurité (par exemple une perte de sensibilité aux signaux de la part de l'opérateur (Billings, Mollov,& Singh, 1993), une confiance exégérée en la machine etc (Endsley & Kiris, 1995)...). Bien que ces difficultés ont été identifiées depuis longtemps, il manque aujourd'hui des solutions claires pour les contourner (Norman, 2010). Ainsi, réaliser des systèmes automatisés consistitue un enjeu majeur (Klein & al, 2004). L' objectif général de la thèse est de comprendre comment les humains comprennent et contrôlent une action conjointe. En effet, nous pouvons penser que les opérateurs interprètent les intentions et les sorties des actions d'un système automatisé au travers de leur propre "cognitive toolkit". De ce fait, comprendre comment fonctionnent les interactions Homme-machine est pertinent pour concevoir des systèmes contrôlables et collaboratifs. De la même manière que l'Hommme agit lors de ses interactions avec des congénères, l'opérateur d'un système automatisé doit être capable de prédire les actions du système et leurs conséquences pour faciliter la coopération entre les deux agents et construire une agentivité conjointe (c'est à dire un contrôle mutuel et interdépendant de l'environnement). Cependant, les données existantes (Wohlschläger, Haggard, Gesierich, & Prinz, 2003; Obhi & Hall, 2011) semblent indiquer que l'agentivité conjointe est plus difficile à établir lorsque l'on interagit avec des machines que lors de nos interactions avec les Hommes. Expliquer ces difficultés et proposer des recommandations pour le design des machines apparait ainsi comme un enjeu intéressant et majeur. En ce sens, nous nous attacheront à: Essayer de comprendre (1) comment notre sens d'agentivité pour des actions conjointes avec des machines diffère par rapport aux actions conjointes avec les humains, (2) comment concevoir des agents artificiels qui permettent cette agentivité conjointe (humanisation de la machine au travers l'usage de l'avatar, feedback en fonction de l'intention de la machine, implementation de mouvements biologiques ...), (3) quels sont les changements impliqués par l'agentivité conjointe du point de vue de l'opérateur ( performance, acceptabilité, confiance...).

  • Titre traduit

    Joint agency in human-machine interaction: How to design more cooperative agent?


  • Résumé

    The use of automation technology in process industries tends to increase since automation technology offers efficiency and stable control at the same time as it makes the control room operators' job easier in many ways. However, empirical data on the relationship of people and technology suggest that traditional automation has also many negative performance and safety consequences including lack of operator sensitivity to signals (Billings, 1991), over trust in highly reliable computer control (Parasuraman, Molloy, Singh, 1993) and loss of operator situation awareness (Endsley & Kiris, 1995). Although difficulties with automated systems have been identified for a long time, clear solutions are still missing to overcome them (Norman, 2010). Where designers really need guidance today is how to support the coordination between people and automation in foreseeable situations but also during unexpected circumstances. Making automation a collaborative agent becomes a first concern (Klein & al, 2004). The first goal of this project is to help automation designers to achieve this goal by introducing recent insight about how humans understand and control joint action. Indeed, we can assume that operators interpret the intentions and the outcomes' actions of a system with their own "cognitive toolkit". Thus, understanding how it works could be relevant to propose design principles for potentially controllable/collaborative systems.We can imagine that in the same manner as two people working together, the supervisors must be able to predict automated systems' actions and their outcomes in order to facilitate the cooperation between them and built a joint agency (i.e. a mutually interdependent control of the environment). This proposition echoes that of Norman (1990) when he assumed that what is needed is continual feedback about the state of the system, in a normal natural way, much in the manner that human participants in a joint problem-solving activity will discuss the issues among themselves. However, empirical data (Wohlschläger, Haggard, Gesierich, & Prinz, 2003; Obhi & Hall, 2011) seems indicate that joint agency is more difficult to develop when we interact with computers. Explaining this difficulty and propose design recommendation to overcome them is a major and exciting issue. In this sense, the goal of this project is to explore how design automation technology to make it a joint agent. We will try to understand (1) how our sense of agency for actions differs when collaborating with computer vs. human partners, (2) how design artificial agent which allow the “we-agency” to develop (humanness of the artificial agent with the use of avatar, feedback regarding artificial agent's intention, implementation of biological law of movement in artificial agent), (3) what are the change involved by the “we-agency” from human operator point of view (performance, acceptability, confidence, …).