Aspects de la sémantique formelle/pragmatique des gestes concomitants avec la parole

par Amir ahmad Anvari

Projet de thèse en Sciences cognitives

Sous la direction de Morgane Thomas-chollier.

Thèses en préparation à Paris Sciences et Lettres , dans le cadre de Cerveau, cognition, comportement , en partenariat avec INSTITUT JEAN NICOD (laboratoire) et de Ecole normale supérieure (établissement de préparation de la thèse) depuis le 01-09-2016 .


  • Résumé

    Il existe une typologie d'inférences dans le langage naturel. Cette typologie est construite en étudiant la façon dont les différentes parties du sens intéragissent avec certains opérateurs logiques. Les trois types principaux du sens dans le langage naturel sont les implications, les présuppositions et les suppléments. Nous avons deux directions théoriques pour expliquer cette typologie: option 1: cas par cas avec les stipulations lexiques option 2: avec un algorithme pragmatique général Nous voudrons démontrer que les gestes concomitants avec la parole ont la même typologie d'inférences. Comme l'option 1 n'est pas très naturelle pour les gestes, il doit y avoir un algorithme général. Cela nous mène à affirmer que le même algorithme est à la base de la typologie d'inférences en général. De plus, nous pensons que cette recherche aura un impact sur les questions fondamentales dans la sémantique de langage de signes : est-ce que la parole est une version iconiquement appauvri de langage de signes, ou est-ce que les deux sont également expressives si on prend en considération les gestes ?

  • Titre traduit

    Aspects of formal semantics/pragmatics of co-speech gestures


  • Résumé

    There is a typology of inferences in natural language. This typology is built based on how various bits of meaning interact with logical operators. Three main types of meaning in natural language are: entailments, presupposition, supplements. We have two theoretical directions in accounting for this typology: Option 1: Case by case lexical stipulation Option 2: General pragmatic algorithm We argue that speech-accompanying gestures can reproduce the same inference typology. Option 1 is not very plausible for gestures, therefore there must be a general algorithm. We then claim that this is the very same algorithm that is in charge of generating the typology in general. On top this, we argue that this enterprise bears on some foundational questions pertaining to sign language semantics: is speech the iconically deficient version of sign language, or are the two equally expressive once gestures are taken into account?