Présentation opportuniste et multimodale d'informations dans le cadre de l'intelligence ambiante

par Christophe Jacquet

Thèse de doctorat en Informatique

Sous la direction de Jean-Paul Sansonnet.


  • Résumé

    Ce travail se place dans le domaine de l'interaction homme-machine et en particulier dans celui de la multimodalité et des systèmes ambiants. Il vise à concevoir un modèle théorique et une plate-forme pour la spécification et l'implémentation de services d'assistance à des utilisateurs mobiles. Nous introduisons le modèle KUP, dans lequel le noyau fonctionnel du système, les utilisateurs et les dispositifs de présentation (écrans, haut-parleurs, etc. ) sont représentés par des entités logiques. Ce modèle permet un découplage spatial et temporel entre d'une part la fourniture d'une information par le noyau fonctionnel à l'entité utilisateur, et d'autre part, la présentation de cette information par un dispositif adéquat, sur demande de l'entité utilisateur. Ces deux phases sont opportunistes: elles surviennent au gré des déplacements des utilisateurs. Lorsqu'un utilisateur se trouve à proximité de dispositifs de présentation, il faut déterminer quel dispositif et quelle modalité utiliser. Un premier algorithme, conçu de façon incrémentale, permet de choisir le dispositif tout en respectant trois contraintes ergonomiques: complétude, stabilité, optimisation de l'espace. Un second algorithme permet de sélectionner et d'instancier les modalités, en essayant de donner satisfaction aux utilisateurs concernés. Le modèle KUP et les algorithmes correspondants ont été implémentés dans la plate-forme PRIAM (PRésentation des Informations dans l'AMbiant), qui a permis de réaliser des évaluations en laboratoire. Celles-ci ont montré que des systèmes d'affichage dynamiques permettent à des utilisateurs de retrouver leurs informations bien plus rapidement que des affichages statiques.

  • Titre traduit

    Opportunistic and multimodal presentation of information in ambient intelligence


  • Résumé

    This research work takes place in the domain of human-computer interaction, and particularly multimodal interaction and ambient intelligence. It aims at specifying a theoretical model and a platform for the design and implementation of mobile users assistance systems. We introduce the KUP model, in which the system's functional core, the users and the presentation devices (screens, loudspeakers, etc. ) are represented by logical entities. This model is original because it imposes no spatial nor temporal coupling between information providing by the functional core to the user entity on the one hand, and information presentation by a suitable device on the other hand. Both phases are opportunistic: they happen fortuitously, as (physical) users move around. When a user is located at proximity of a number of presentation devices, the system must determine which device and which modality shall be used to convey information. First, an incremental algorithm is responsible for choosing a device while abiding by three ergonomic constraints: completeness, stability and display space optimization. Second, a tree-based algorithm selects and instantiates a modality while satisfying users' preferences. The KUP model and the algorithms have been implemented in the PRIAM platform (PResentation of Information in AMbient Intelligence), which has enabled us to carry out evaluations in mock-up environments. The evaluations have shown that dynamic display systems enable users to look up their information far more quickly than static displays.

Consulter en bibliothèque

La version de soutenance existe sous forme papier

Informations

  • Détails : 1 vol. (262 p.)
  • Notes : Publication autorisée par le jury
  • Annexes : Bibliogr. p. 239-251. Index

Où se trouve cette thèse ?

  • Bibliothèque : Université Paris-Sud (Orsay, Essonne). Service Commun de la Documentation. Section Sciences.
  • Disponible pour le PEB
  • Cote : 0g ORSAY(2006)267
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.