Explicabilité dans les systèmes de recommendations multicritères à base de points de référence

par Pegdwendé Minoungou

Projet de thèse en Informatique

Sous la direction de Vincent Mousseau et de Wassila Ouerdane.

Thèses en préparation à Paris Saclay , dans le cadre de École doctorale INTERFACES : approches interdisciplinaires / fondements, applications et innovation (Palaiseau, Essonne ; 2015-....) , en partenariat avec Mathématiques et Informatique pour la Complexité et les Systèmes - EA 4037 (laboratoire) et de CentraleSupélec (2015-....) (établissement de préparation de la thèse) depuis le 18-03-2019 .


  • Résumé

    Des premiers systèmes experts aux systèmes de recommandation récents qui se développent sur les sites Web commerciaux, l'aide à la décision a été une préoccupation centrale de l'Intelligence Artificielle. Très vite, il est apparu clairement que la formulation de recommandations n'était qu'une partie du défi: à mesure que les outils d'aide à la décision deviennent de plus en plus populaires et sophistiqués, il est de la plus haute importance de développer leurs capacités explicatives. En conséquence, "Pourquoi devrais-je te faire confiance?" C'est une question à laquelle chaque système devrait être prêt à répondre, surtout lorsque les enjeux sont importants. Plus précisément, les institutions et les citoyens exigent de plus en plus de prendre des décisions algorithmiques transparentes et dignes de confiance. En effet, le récent règlement général sur la protection des données (RPG) adopté par le Parlement européen va plus loin en ajoutant un «droit d'explication» [1]. Dans de telles perspectives, notre projet aborde les problèmes de recommandations, le but d'un "conseiller en agents artificiels" étant d'aider un utilisateur humain (un décideur) à élaborer et à comprendre les recommandations d'un problème de décision particulier. L'aide à la décision est donc une situation impliquant deux parties: un utilisateur, avec des préférences qui peuvent être très incomplètement définies ou difficiles à communiquer, et un agent, qui aura la capacité de représenter de manière explicite et responsable les raisons pour lesquelles il recommande une solution à un problème. utilisateur. Plus précisément, nous sommes intéressés par les problèmes de décision impliquant des données ordinales soigneusement conçues et élaborées sur des ensembles de données humaines. Toutefois, ces données (préférences, valeurs, etc.) peuvent être incomplètes, imprécises, issues de différentes sources potentiellement conflictuelles. Les recommandations sont basées sur des modèles d'aide à la décision multicritères qui sont fondés du point de vue de la théorie de la décision [2]. En particulier, nous nous intéressons au modèle non compensatoire (NCS) [3] et au classement simplifié avec points multiples (S-RMP) [4]. En bref, le premier modèle permet de classer un ensemble d'options dans une catégorie prédéfinie ordonnée, alors que le second a pour objectif de construire un classement parmi un ensemble d'options. Ces deux modèles ont l'avantage d'être interprétables en ce sens que les règles de décision sont simples et faciles à comprendre par un décideur [5, 6]. De plus, ces modèles ont des intérêts et des représentations dans la théorie du choix social (voir par exemple [7]). En particulier, NCS (avec deux catégories) peut être interprété comme un vote approuvé par un comité. Dans ce contexte, une première activité difficile est «l'élaboration de préférences», qui vise à saisir les préférences de l'utilisateur afin de spécifier avec précision les paramètres du modèle de décision. Le défi est lié à la nature des préférences exprimées par l'utilisateur, qui peuvent être imprécises, contradictoires, etc. pourtant, ils devraient être structurés et synthétisés. Différentes stratégies d'apprentissage des paramètres sont possibles, par exemple: SAT [8], Métaheuristiques [9]. Le second est la capacité de fournir des explications avec les décisions recommandées [10, 11]. Notre ambition est de proposer un ensemble de patterns pour différents types d'explications (en fonction du modèle de décision utilisé et du profil de l'utilisateur) permettant d'adapter les réponses à l'utilisateur [12]. Avec cette fonction d'explication, nous visons à améliorer la capacité de l'agent à formuler des recommandations plus transparentes, plus fiables et plus «responsables». Enfin, alors que dans le flux classique envisagé dans les systèmes d'aide à la décision, trois phases sont identifiées de manière séquentielle: élicitation, recommandation et enfin explication. Notre objectif est de fournir un modèle intégré dans lequel des explications peuvent être fournies pendant le processus d'élicitation. Ces explications peuvent être partielles et peuvent être utilisées pour guider l'élicitation, à condition que l'utilisateur soit convaincu par la justification du système. Références [1] B. Goodman and S. Flaxman, European Union regulations on algorithmic decision-making and a “right to explanation”., ArXiv eprints: 1606.08813, 2016. [2] D. Bouyssou, T. Marchant, M. Pirlot, A. Tsoukiàs and P. Vincke, Evaluation and Decision models: stepping stones for the analyst, Berlin: Springer Verlag, 2006. [3] D. Bouyssou and T. Marchant, An axiomatic approach to Non compensatoty sorting methods in mcdm I : the case of two categories, vol. 1, EJOR, 2007, pp. 217-245. [4] A. Rolland, Reference-BAsed preference aggregation procedure in multi-criteria decision making., vol. 225, European Journal of Operation Research, 2013, pp. 479-486. [5] V. Ferreti, J. Liu, V. Mousseau and W. Ouerdane, Reference-based ranking procedure for environmental decision making: Insights from an ex-post analysis, vol. 99, In Environmental Modelling & Software, 2018, pp. 11-24. [6] O. Sobrie, M. Lazouni, S. Mahmoudi, V. Mousseau and M. Pirlot, A new decision support model for preanesthetic evaluation, Computer Methods and Programs in Biomedicine, 2016, pp. 183-196. [7] N. Barrot, "sur les aspects computationnel du vote par approbation," PhD Thesis, 2016. [8] K. Belahcène, C. Labreuche, N. Maudet, V. Mousseau and W. Ouerdane, An efficient SAT formulation for learning Multicriteria Non-Compensatory Sorting Models, Luxembourg.: Algortihmic Decision Theory, 2017. [9] O. Sobrie, V. Mousseau and M. Pirlot, Learning the Parameters of a Non Compensatory Sorting Model, Lexington, USA.: Algortihmic Decision Theory , 2015. [10] K. Belahcène, C. Labreuche, N. Maudet, V. Mousseau and W. Ouerdane, "A model for accountale Ordinal Sorting," Australie, IJCAI, 2017, pp. 814-820. [11] K. Belahcène, C. Labreuche, N. Maudet, V. Mousseau and W. Ouerdane, "Explaning robust additive utility models by sequences of preferences swaps," Theory and Decision, 2017. [12] C. Labreuche, N. Maudet and W. Ouerdane, Justifying Dominating Options when preferential information is incomplete, ECAI, 2012, pp. 486-491.

  • Titre traduit

    Explainability in reference based Recommender Systems with multiple criteria


  • Résumé

    From the first expert systems to the recent recommender systems which flourish on commercial websites, decision-aiding has been a central concern in Artificial Intelligence. Very soon, it has become clear that providing recommendations was only part of the challenge: as decision-aiding tools become everyday more popular and more sophisticated, it is of utmost importance to develop their explanatory capabilities. Consequently, "Why should I trust you?" is a question every system should be prepared to answer - especially when the stakes are high. More precisely, there is a growing demand of institutions and citizens to make algorithmic decisions transparent and trustworthy. Indeed, the recent General Data Protection Regulation (GDPR) adopted by the European Parliament goes further by adding a “right to explanation” [1]. Under such perspectives, our project addresses the problems of recommendations, where the aim for an “artificial agent adviser” is to help a human user (a decision maker) in building and understanding the recommendations of a particular decision problem. Decision aiding is thus a situation involving two parties: a user, with preferences which may be very incompletely defined or difficult to convey, and an agent, which will have the capabilities of representing explicitly and accountably the reasons for which it recommends a solution to a user. More precisely, we are interested by decision problems involving ordinal data carefully designed and elaborated on human data sets. However, such data (e.g. preferences, values, etc.) could be incomplete, imprecise, issued from different potentially conflicting sources. The recommendations are based on Multiple Criteria Decision Aiding models that are well founded from the point of view of Decision Theory [2]. In particular, we are interested by the Non-Compensatory model (NCS) [3] and the Simplified Ranking with Multiple Points (S-RMP) [4]. In short, the first model allows to classify a set of options into an ordered predefined categories, while the second one has the aim to construct a ranking among a set of options. These two models have the advantage to be interpretable in the sense that the decision rules are simple and easy to grasp by a decision maker [5, 6]. In addition, such models have interests and representations in Social Choice theory (see for instance [7]). In particular NCS (with two categories) can be interpreted as a voting by approval by a committee. Within such context, a first challenging activity is “preference elicitation”, which aims to capture the user's preferences in order to accurately specify the decision model parameters. The challenge is linked to the nature of the preferences expressed by the user, which can be imprecise, conflicting, etc.; yet they should be structured and synthesized. Different strategies for learning the parameters are possible, e.g. SAT [8], Metaheuristics [9]. The second one is the ability to provide explanations with recommended decisions [10, 11]. Our ambition is to offer a set of patterns for different types of explanations (depending on the decision model under use and the user's profile) allowing tailoring answers to the user [12]. With this explanation feature, we aim to enhance the capability of the agent to make recommendations more transparent and trustworthy and more generally “accountable”. Finally, while in the classical flow envisioned in decision-support systems, three phases are sequentially identified: elicitation, recommendation, and finally explanation. Our aim is to provide an integrated model where explanations can be provided during the elicitation process. Such explanations may be partial, and may be used to guide the elicitation, provided the user is convinced by the justification of the system. References [1] B. Goodman and S. Flaxman, European Union regulations on algorithmic decision-making and a “right to explanation”., ArXiv eprints: 1606.08813, 2016. [2] D. Bouyssou, T. Marchant, M. Pirlot, A. Tsoukiàs and P. Vincke, Evaluation and Decision models: stepping stones for the analyst, Berlin: Springer Verlag, 2006. [3] D. Bouyssou and T. Marchant, An axiomatic approach to Non compensatoty sorting methods in mcdm I : the case of two categories, vol. 1, EJOR, 2007, pp. 217-245. [4] A. Rolland, Reference-BAsed preference aggregation procedure in multi-criteria decision making., vol. 225, European Journal of Operation Research, 2013, pp. 479-486. [5] V. Ferreti, J. Liu, V. Mousseau and W. Ouerdane, Reference-based ranking procedure for environmental decision making: Insights from an ex-post analysis, vol. 99, In Environmental Modelling & Software, 2018, pp. 11-24. [6] O. Sobrie, M. Lazouni, S. Mahmoudi, V. Mousseau and M. Pirlot, A new decision support model for preanesthetic evaluation, Computer Methods and Programs in Biomedicine, 2016, pp. 183-196. [7] N. Barrot, "sur les aspects computationnel du vote par approbation," PhD Thesis, 2016. [8] K. Belahcène, C. Labreuche, N. Maudet, V. Mousseau and W. Ouerdane, An efficient SAT formulation for learning Multicriteria Non-Compensatory Sorting Models, Luxembourg.: Algortihmic Decision Theory, 2017. [9] O. Sobrie, V. Mousseau and M. Pirlot, Learning the Parameters of a Non Compensatory Sorting Model, Lexington, USA.: Algortihmic Decision Theory , 2015. [10] K. Belahcène, C. Labreuche, N. Maudet, V. Mousseau and W. Ouerdane, "A model for accountale Ordinal Sorting," Australie, IJCAI, 2017, pp. 814-820. [11] K. Belahcène, C. Labreuche, N. Maudet, V. Mousseau and W. Ouerdane, "Explaning robust additive utility models by sequences of preferences swaps," Theory and Decision, 2017. [12] C. Labreuche, N. Maudet and W. Ouerdane, Justifying Dominating Options when preferential information is incomplete, ECAI, 2012, pp. 486-491.