Loïs Vanhée
Umeå University
Tuesday, July 15th, 2025, 15:00
Room 406, bâtiment IMAG, Saint-Martin d'Hères
entrée libre
Abstract
In a context where artificial intelligence (AI) is at the heart of essential societal issues, debates on the use of AI systems to model human emotions (whether to imitate and/or identify and respond to them) often rely on dogma instead of scientific consensus, with societal implications that may raise questions, for example, through the legal protection provided by the AI Act.
This presentation aims to provide a broader conceptual framework, based on interdisciplinary crossover, to capture the ins and outs of AI models of human emotions. Using examples of successful work, we will cover the development chain of these systems, from psychological theories for understanding emotions, to their formalization, to their implementation through several AI methods, and conclude with practical examples of models and the many forms they can take in society. At the end of this presentation, participants will have a clear idea of how other disciplines can be inspired to develop AI models of human behavior and emotions in particular, as well as broader ideas about what these models could be. A common response I receive is: "I thought I had a clear idea, but actually, there are many other ways to think about it."
A discussion space will then be open to exchange views on these topics, whether to explore specific questions in more depth or to discuss future collaborations.
Résumé
Dans un contexte où l'intelligence artificielle (IA) est au coeur de questions essentielles de société, les débats sur l'utilisation des systèmes d'IA pour modéliser les émotions humaines (que cela soit pour les imiter et/ou les identifier et y répondre) relèvent souvent plus du dogme que du consensus scientifique, avec des implications sociétales qui peuvent poser question, par exemple à travers de la couverture légale déployée par l'AI Act.
Cette présentation est dédiée à offrir un cadre conceptuel plus large, basé sur des croisement interdisciplinaires, pour capturer les tenants et aboutissants des modèles d'IA d'émotions humaines. A l'aide d'exemples de travaux aboutis, nous couvrirons la chaine de développement de ces systèmes, depuis les théories de psychologie pour comprendre les émotions, à leur formalisation, à leur implémentation à travers plusieurs méthodes d'IA, et pour conclure à des exemples pratiques de modèles et aux nombreuses formes qu'ils peuvent prendre en société.
A l'issue de cette présentation, le participant aura une idée précise de la manière dont on peut s'inspirer d'autres disciplines pour développer des modèles d'IA de comportement humains et émotionnels en particulier, ainsi que des idées plus larges sur ce que ces modèles peuvent être.
Un retour que je reçois fréquemment est "je croyais que j'en avais une idée précise, mais en fait, il y a bien d'autres manière d'y penser."
Un espace de discussion sera alors ouvert pour échanger sur ces sujets, que cela soit pour approfondir certaines questions ou discuter de futures collaborations.
Bio
Loïs Vanhée is associate professor in ethical and responsible AI at Umeå University, Sweden, and invited professor at the University of Tromsø, Norway. He co-leads TAIGA, the Centre for Transdisciplinary AI of Umeå University and develop several projects funded by the Swedish agency for research on modeling human anxiety and the use of AI systems for psycho-therapeutic purposes. He takes advantage of various AI models, either in natural language processing, Markov decision processes and social system simulation. Loïs coordinates a Special Interest Group on Models of Human Decision.
Loïs Vanhée est Maître de Conférence en IA éthique et responsable à l'Université d'Umeå, en Suède et invité à l'université de Tromsø, en Norvège. Il co-dirige TAIGA, le centre transdisciplinaire d'IA pour le bien commun de l'université d'Umeå et dévelope plusieurs projets financés par l'agence Suédoise de la recherche, sur les modèles de l'anxiété humaine et sur l'utilisation de systèmes d'IA à des fins psycho-thérapeutiques. Il s'appuie sur de nombreux modèles à base d'IA, que cela soit du traitement naturel des langues, aux processus décisionnels Markoviens et à la simulation de systèmes sociaux, où il dirige un groupe de travail sur les modèles de la décision humaine (SIG-MOOD).