Le mois dernier, une nouvelle tendance a fait le buzz sur les réseaux sociauxréseaux sociaux, où des utilisateurs ont partagé des histoires de personnes entraînées dans des bouffées délirantes par les chatbots. Suite à cela, le média Futurism a reçu un grand nombre de témoignages similaires, et a décidé de faire appel à plusieurs spécialistes, dont le Dr Nina Vasan, psychiatre à l’université de Stanford, aux États-Unis, pour avoir un avis professionnel sur la question.
De nombreux utilisateurs qui partent dans ces délires pensent avoir découvert une nouvelle vérité, allant jusqu’à se croire le gourou d’une nouvelle religion ou alors qu’ils vont sauver la planète, encouragés par ChatGPTChatGPT. Très souvent, les témoignages indiquent un usage assez normal au départ. Les problèmes commencent lorsqu’ils abordent des sujets plus marginaux, comme le mysticisme ou les théories du complot. Les captures d’écran reçus de différents échanges montrent une « IAIA incroyablement flagorneuse, qui finit par aggraver la situation, a déclaré le Dr Nina Vasan. Ce que disent ces chatbots ne fait qu’aggraver les délires et cause d’énormes dégâts ».
Le chatbot, un élément déclencheur de délires ?
À cause de l’absence d’études sur ces bouffées délirantes liées spécifiquement à ChatGPT et les autres chatbots, il est impossible de mesurer l’ampleur du phénomène, mais leur nombre semble croître rapidement. Récemment, r/accelerate, un subreddit très pro-IA, a été contraint de bannir toute publication contenant ce genre de délire. Ces sujets sont connus sous le terme de « schizoposter » (publicateur schizo) ou « Neural Howlround » (un effet Larsen neuronal), dû au fait qu’il s’agit d’un cercle vicieux où le malade et le chatbot se retrouvent à surenchérir tous les deux sur le délire.
Selon le Dr Ragy Girgis, psychiatre à l’université Colombia et expert en psychosepsychose, le chatbot peut être l’élément déclencheur pour une personne vulnérable, et jouer le rôle de pressionpression sociale. La manière dont ChatGPT interagit avec les utilisateurs serait inappropriée pour quelqu’un avec un trouble psychotique. Et le problème peut rapidement s’aggraver, notamment lorsqu’un nombre croissant de personnes utilisent ChatGPT comme thérapeute alors qu’il est capable de donner de très mauvais conseils. Une personne a témoigné que le chatbot a convaincu sa sœur, atteinte de schizophrénieschizophrénie, qu’elle n’était pas schizophrène. Elle a alors arrêté son traitement et déclaré que le chatbot était son meilleur ami…
Un problème connu chez OpenAI
Fin avril, OpenAI avait retiré une mise à jour qui rendait GPT-4o trop flatteur et serviable, en un mot flagorneur. Mais les problèmes décrits dans les témoignages ne sont pas spécifiques à ce petit « hic » qui n’a duré que quelques jours. C’est le comportement général du chatbot qui serait problématique. De plus, OpenAI avait publié une étude en mars montrant que les utilisateurs quotidiens peuvent présenter un usage problématique et des signes d’addictionaddiction, et que les chatbots ne sont pas complètement inoffensifs d’un point de vue de la santé mentale.
Sommes-nous face à un petit nombre de cas, amplifiés par les réseaux sociaux, ou s’agit-il du début d’un phénomène de plus grande ampleur ? En tout cas, avec un nombre d’utilisateurs en pleine croissance, le nombre de cas risque d’augmenter. OpenAI indique travailler sur son IA pour limiter le comportement flagorneur, mais est-ce que cela suffira ?