Les réseaux sociaux ont ouvert la boîte de Pandore de la manipulation de masse avec, sous couvert d’une grande liberté d’expression, un confusionnisme qui met tout au même plan, que ce soit les faits et ce qui est faux. Certains États en profitent pour mener des campagnes d’influence. Elles servent à orienter les électeurs des démocraties vers le parti qui les arrange le plus géopolitiquement. La Russie est experte en la matière avec une longue expérience issue de la mise en place de fermes à trolls. Elle cible principalement l’Europe en cherchant la division des nations qui composent l’Union européenne pour affaiblir l’institution. Et cela fonctionne plutôt bien. Les États-Unis, avec la publication récente de leur nouvelle stratégie de sécurité nationale, empruntent sans aucun voile, un chemin convergeant.
La principale arme pour orienter les voix repose sur la personnalisation extrême du discours politique. Outre les fermes à trolls et autres méthodes, elle est déjà à l’œuvre sur les réseaux sociaux via le microciblage publicitaire automatisé. Le phénomène est également amplifié par l’IA générative. Alors, que cela soit aux États-Unis ou ailleurs, les prochaines campagnes électorales pourraient entrer dans une nouvelle ère : celle des chatbots d’influence politique. C’est plutôt inquiétant et c’est pourtant ce qui ressort de plusieurs travaux conséquents résumés dans un rapport global publié par la Cornell University.
La nouveauté tient au caractère interactif, quasi intime, de ces conversations qui imitent un échange humain plutôt qu’un message de masse. © SB, IA ChatGPT
Des chatbots influenceurs qui vous connaissent trop bien
Concrètement, ces systèmes sont capables de reformuler les préoccupations de l’utilisateur, de les relier à des éléments de programme politique et de produire un argumentaire sur mesure. Et le côté chatbot est d’autant plus puissant, qu’il vient renforcer le sentiment d’écoute et rend le message plus crédible. Les chercheurs cités constatent que même de courtes interactions suffisent à provoquer un déplacement mesurable de l’intention de vote, notamment chez les indécis. Ainsi, une étude publiée dans Nature, qui porte sur 2 300 électeurs américains pour la présidentielle de 2024, montre qu’un bref échange politique avec un chatbot peut faire bouger les préférences électorales de 2 à 4 points sur une échelle de 100.
D’autres enquêtes dévoilent des effets encore plus marqués lors d’expériences menées au Canada et en Pologne. Dans leurs conclusions, elles soulignent que l’impact est plusieurs fois supérieur à celui mesuré pour les publicités politiques menées lors des scrutins précédents. Dans ces échanges, le chatbot pousse l’utilisateur à expliciter ses doutes, puis exploite ces failles pour mettre en avant les arguments les plus susceptibles de faire basculer son choix.
Dans une étude portant sur l’électorat polonais, discuter avec un chatbot d’IA a modifié le niveau de soutien des participants à l’étude pour les deux candidats à l’élection présidentielle de 2025. L’IA s’est montrée tout aussi persuasive lorsqu’elle n’utilisait pas d’informations démographiques pour adapter ses arguments (non-personalized) et lorsqu’elle ne recevait pas d’instructions sur la manière de persuader (non-specific). En revanche, son influence sur les préférences des participants a diminué lorsqu’elle était explicitement invitée à ne pas utiliser de faits ni de preuves (No facts). © Nature
Accélérateur du changement d’opinion
Une autre étude associée, publiée dans Science, explore ce qui rend ces chatbots persuasifs. Lors de celle-ci, 19 modèles d’IA ont été testés auprès d’environ 77 000 participants au Royaume-Uni : 700 enjeux politiques étaient listés. Elle conclut que les bots sont d’autant plus efficaces lorsqu’ils saturent leurs arguments de faits et d’éléments d’information. Et surtout, le format conversationnel du Chatbot joue un rôle clé dans le changement d’opinion. Un chatbot partisan peut, par exemple, sélectionner les faits qui arrangent un camp, minimiser les scandales ou amplifier les peurs, sans offrir de véritable contradiction ni transparence sur ses sources.
Dans tous les cas, l’IA sait dialoguer et répondre aux objections. Elle est aussi capable d’adapter ses arguments en temps réel au profil de chaque personne. Et si jamais un contrôle était mis en place – ce qui est loin d’être le cas – la personnalisation fine des arguments compliquerait également la détection des dérives. De fait, chaque électeur reçoit une « version » différente du discours, ce qui brouille d’autant une analyse globale. Cette fragmentation de l’information pourrait donc accentuer la polarisation et fragiliser encore davantage la confiance dans le processus électoral.
Manipulation de masse
Ce pouvoir de persuasion ouvre un champ immense à la manipulation, d’autant que les garde-fous juridiques et techniques restent balbutiants, ou contrés par une ligne politique. C’est exactement l’expression du comportement du patron de X, Elon Musk, dernièrement. Totalement débridé depuis la fin de Twitter, le réseau social est désormais imbriqué avec son IA maison Grok. Celle-ci est alimentée par tout ce qui est publié sur le réseau et peut être facilement orientée.
Lire l’article
Il y a quelques jours, le truculent patron de X a été vexé par l’amende colossale que vient de lui notifier l’Union européenne pour non-respect de la réglementation. Il s’en est pris directement à l’institution en demandant sa suppression et le retour à des nations indépendantes. Un message qui a reçu un écho favorable de la Russie, du gouvernement américain et du président hongrois Viktor Orban. Ce genre de discours politique devrait être utilisé pour alimenter des chatbots conçus pour influencer le choix des électeurs lors de prochaines élections en Europe.
Étant donné la tendance du moment et puisque ces IA sont essentiellement américaines, rien ne dit qu’une législation se mette en place pour encadrer l’usage de ces chatbots influenceurs, capables de mettre à mal un débat démocratique éclairé.