Study on relations between visual and haptic perceptions of textile products

par Zhebin Xue

Thèse de doctorat en Automatique, Génie Informatique, Traitement du Signal et des Images

Sous la direction de Xianyi Zeng et de Ludovic Koehl.

Soutenue le 20-12-2012

à Lille 1 , dans le cadre de École doctorale Sciences pour l'Ingénieur (Lille) , en partenariat avec Laboratoire de génie et matériaux textiles (Roubaix, Nord) (laboratoire) .

  • Titre traduit

    Etude de relations entre les perceptions visuelles et haptiques des produits textiles


  • Résumé

    Pour ces travaux de thèse, nous proposons pour la première fois une méthodologie systématique pour étudier les propriétés tactiles de tissu au travers de perceptions visuelles. Tout d’abord, nous étudions les bases physiologiques et cognitives des perceptions visuelles et haptiques des propriétés tactiles des tissus. Ensuite, une hypothèse fondamentale est proposée pour que les propriétés tactiles des tissus puissent être interprétées à travers nos yeux. Afin de vérifier cette hypothèse, des expériences sensorielles ont été conduites sur un nombre important de produits textiles selon trois différents scénarii : vidéo, image et toucher réel. Une nouvelle approche basée sur le concept de degré d’inclusion est développée pour étudier les relations entre les données tactiles obtenues à partir des différentes modalités sensorielles. De cette manière, nous concluons qu’il est tout à fait possible de percevoir les propriétés tactiles des tissus à travers des représentations visuelles. Ceci confirme l’hypothèse proposée précédemment. En nous appuyant sur ces résultats, afin d’explorer le mécanisme interprétatif de la vision, nous effectuons de nouvelles expériences sensorielles, permettant d’évaluer respectivement les caractéristiques visuelles et les propriétés tactiles des échantillons. Ensuite, nous modifions l’approche mathématique proposée précédemment afin de mesurer les relations de type un à plusieurs, de manière à extraire pour chaque propriété tactile d’un ensemble de caractéristiques visuelles les plus pertinentes. Enfin, ANFIS (un réseau neuronal combinant les techniques floues) est utilisé pour modéliser et interpréter quantitativement ces relations.


  • Résumé

    In the current thesis, we propose for the first time a systematic methodology to study fabric tactile properties through visual perceptions. First of all, we investigate the physiological and cognitive basis of visual and haptic perceptions of fabric tactile properties. Next, we propose a fundamental hypothesis that fabric tactile properties can be, to a big extent, interpreted through our eyes. In order to verify this hypothesis, sensory experiments are carried out on a number of textile products in video, image and real-touch scenarios. A novel approach based on the concept of inclusion degree is developed to study the relations between the tactile data obtained from different sensory modalities. From this study, we conclude that it is possible to perceive fabric tactile properties through visual representations, which confirms the previously proposed hypothesis. On this basis, in order to further explore the visual interpretative mechanism, new sensory experiments are organized to evaluate samples’ visual features and tactile properties, respectively. The previously proposed mathematical approach is modified to be able to measure multiple-to-single relations so as to extract for each tactile property a set of relevant visual features on it. Finally, a fuzzy neural network (Adaptive network-based fuzzy inference system, in short ANFIS) is developed to model the obtained interpretative relationships.


Il est disponible au sein de la bibliothèque de l'établissement de soutenance.

Consulter en bibliothèque

La version de soutenance existe

Où se trouve cette thèse ?

  • Bibliothèque : Université des sciences et technologies de Lille. Service commun de la documentation. Bibliothèque virtuelle.
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.