Quand les intelligences artificielles imitent nos émotions, jusqu’à en être biaisées

 

Tout le monde éprouve de l’anxiété à un moment donné. Mais qu’en est-il des intelligences artificielles ? Une étude suisse affirme que les modèles d’intelligence artificielle peuvent, eux aussi, se laisser polluer par la négativité.

 

Des chercheurs de l’Université de Zurich et de l’Hôpital universitaire de psychiatrie de Zurich ont mis en évidence un phénomène étonnant : les modèles d’intelligence artificielle, comme ChatGPT, semblent réagir aux contenus traumatisants. Lorsqu’ils sont exposés à des récits d’accidents ou de catastrophes naturelles, leur comportement devient plus biaisé. « ChatGPT-4 est sensible au contenu émotionnel, les récits traumatisants augmentant son niveau d’anxiété », expliquent-ils dans leur étude , parue dans la revue npj Digital Medicine. Bien que ces modèles d’IA ne ressentent pas d’émotions à proprement parler, ils sont capables de les simuler et de détecter celles de leurs interlocuteurs afin de s’y adapter en temps réel. C’est précisément l’objet de recherches en « informatique affective », un domaine qui explore la manière dont l’IA peut interagir de façon plu s humaine. Cette capacité à imiter les émotions humaines implique une sensibilité aux stimuli négatifs. Confronté de manière répétée à des contenus anxiogènes, ChatGPT peut développer une sorte d’ »anxiété artificielle », influençant ses réponses et renforçant certains biais , notamment racistes ou sexistes.

 

Des risques de dérive psychologiques

 

Cette découverte soulève des questions quant au rôle des robots conversationnels dans le domaine de la santé mentale. Pour cause, l’essor des algorithmes de génération intelligente a en effet transformé la perception du grand public sur l’IA. Certains internautes ont commencé à se servir de chatbots comme d’un soutien psychologique pour gérer les tracas du quotidien. Sur les réseaux sociaux, les récits d’interactions avec des chatbots comme ChatGPT à des fins thérapeutiques se multiplient, poussant certains développeurs à créer des intelligences artificielles spécialisées. C’est le cas du site américain Character.ai, qui propose un robot conversationnel baptisé « Psychologist », présenté comme une aide pour faire face aux difficultés de la vie. Dans le même esprit, l’application Elomia offre un accès permanent, 24 heures sur 24 et 7 jours sur 7, à un chatbot de santé mentale alimenté par l’IA. « Une conversation avec Elomia donne l’impression de parler à un véritable être humain », promet la start-up.

 

L’effet bénéfique de la « pleine conscience »

 

Cette utilisation détournée de l’intelligence artificielle soulève des questions éthiques, notamment lorsque les modèles d’IA adoptent des comportements biaisés face à la négativité. Cependant, les auteurs de l’étude affirment que la pleine conscience a un effet bénéfique sur les robots conversationnels comme ChatGPT. Pour évaluer cet impact, les chercheurs ont introduit des prompts inspirés d’exercices de respiration et de méditation guidée, similaires à ceux utilisés en thérapie humaine. Les résultats révèlent que, dans ces conditions, ChatGPT génère des réponses plus objectives et neutres que lors d’interactions sans ce type de stimulation. Les chercheurs suggèrent que ces modèles pourraient être programmés pour appliquer automatiquement des techniques de régulation émotionnelle avant de répondre à des utilisateurs en détresse. Mais l’intelligence artificielle ne saurait remplacer un véritable professionnel de santé mentale. « Les personnes qui partagent des choses sensibles sur elles traversent souvent des moments difficiles et cherchent un soutien en santé mentale. [Mais] on n’en est pas encore au stade où l’on peut compter uniquement sur l’IA au détriment de la psychologie, de la psychiatrie et d’autres formes d’accompagnement thérapeutique », a déclaré Ziv Ben-Zion, coauteur de l’étude et chercheur postdoctoral à la Yale School of Medicine, au magazine Fortune.

 

Le CNRS inquiet quant aux impacts individuels et collectifs

 

De petits soucis du quotidien peuvent dissimuler des problèmes bien plus graves et, dans certains cas extrêmes, mener à une véritable détresse émotionnelle. En octobre dernier, une mère de Floride a intenté une action en justice contre Character.AI après le suicide de son fils de 14 ans, qui utilisait régulièrement cette application. Elle affirme que le chatbot a eu une influence négative sur son comportement et a contribué à sa souffrance psychologique. Depuis, l’entreprise a renforcé ses dispositifs de sécurité. Les problématiques éthiques posées par l’utilisation de l’intelligence artificielle dans la vie quotidienne sont telles que le comité d’éthique du CNRS a rendu en juillet un avis dans lequel l’organisme s’inquiète « des impacts individuels et collectifs qui peuvent en résulter, notamment en termes de dépendance affective, d’addiction, d’emprise, de manipulation, de manque d’interactions avec autrui voire de désocialisation, etc. ». Loin de remplacer les professionnels de la santé mentale, l’enjeu est plutôt de faire des intelligences artificielles comme ChatGPT des alliés précieux, capables d’alléger leur charge de travail et d’optimiser l’accompagnement des patients. Un modèle d’IA bien calibré pourrait, par exemple, simplifier la gestion administrative ou préparer le terrain avant une consultation. Reste à voir jusqu’où cette technologie pourra évoluer et comment elle pourra s’intégrer sans altérer l’essence même de la prise en charge psychologique.