C’est la nouvelle menace que ces scientifiques jugent imminente : comment l’IA pourrait bientôt fabriquer l’opinion publique

Author:

Paris, printemps 2028. Sur le fil d’actualité d’un réseau social, une vidéo d’un militant politique fait scandale. Ce dernier accuse un candidat majeur à une importante élection d’avoir détourné des fonds publics. Le clip est convaincant, les commentaires abondants, applaudissant la « révélation ». Les influenceurs « politiques » relaient cette affaire. En quelques heures, la rumeur se propage dans plusieurs langues, influençant conversations politiques et débats. La presse s’empare du sujet, car il est devenu incontournable. Le doute est instillé, la corruption devient le sujet n° 1 du moment. Problème : ce militant n’existe pas. L’affaire de détournement non plus. Le sujet de la corruption prend de l’ampleur alors qu’il n’y en a plutôt moins qu’auparavant.

En réalité, cette vidéo et les messages en commentaire sont générés par un groupe d’IA coordonné. Un essaim d’agents intelligents qui fabrique l’illusion d’un large consensus. Personne ne se rend compte que ces centaines de comptes ne sont que des voix artificielles programmées pour convaincre, diviser et modeler l’opinion.

Lire l’article

Mais une fois la supercherie démontrée, le mal est fait. Le bruit de fond a été tel qu’il est désormais impossible de rétablir la vérité. Le faux sujet en devient un et tous les politiques ont dû s’exprimer sur un sujet qui ne devait pas en être un.

Quand les IA influencent en meute

Des essaims d’IA pilotés pour générer des consensus afin d’influencer l’avis des électeurs et faire pencher des élections d’un côté ou d’un autre : c’est la nouvelle menace que des scientifiques jugent imminente.

Ces chercheurs, qui ont publié un article dans la revue Science, expliquent comment la fusion de grands modèles de langage (LLM) avec des systèmes multi-agents pourrait permettre la création de ces essaims d’IA malveillants. Des agents IA capables d’imiter de véritables dynamiques sociales pour réorienter le débat démocratique. Leur mission serait clairement de créer l’amorce d’un fort consensus sur un sujet polarisant.

Lire l’article

Pour pousser cette impression de consentement, ces IA pourraient tirer facilement profit des algorithmes des réseaux sociaux et notamment X. La raison ? Les algorithmes privilégient l’engagement à la fiabilité. De fait, alors que selon le MIT, les fausses informations sont repostées sur X 70 % de fois plus que les faits, la désinformation et la manipulation sont permanents et on ne distingue plus le vrai du faux.

S’il est difficile de lutter contre une fausse information, c’est parce que les algorithmes des réseaux sociaux privilégient l’engagement aux faits. Les émotions qui poussent à publier et commenter comptent plus que la réalité. © France Diplo

Danger sur la démocratie

Sur les réseaux sociaux dominants, cela fait longtemps que les campagnes de désinformation utilisent des « bots », ces comptes automatisés qui republient le même message ou des variantes. Mais aujourd’hui, avec cette nouvelle génération de systèmes, la manipulation promet d’être bien plus dangereuse et subtile.

En effet, le danger viendra de ces essaims d’agents IA qui sauront coopérer entre eux. Il sauront adopter des identités individuelles et surtout interagir avec de vrais utilisateurs. Ce qui change fondamentalement, c’est la capacité de ces agents à apprendre, s’adapter en temps réel aux discussions et simuler une diversité de points de vue, tout en poursuivant un objectif unifié : fabriquer un « consensus synthétique ». Dans ces conditions, il devient d’autant plus difficile de distinguer ce qui est vrai de ce qui est simplement très convaincant.

Cela n’a pas encore commencé

Les chercheurs n’ont pas précisément déniché ce type de meutes d’IA en activité sur les réseaux sociaux. En revanche, des expérimentations ont déjà été réalisées en ce sens. Ainsi, des IA manipulant ou influençant des conversations en ligne ont été testées sur Reddit. Pour le moment, il ne s’agit donc essentiellement que de sujets de recherches isolées ou de versions primitives de ces essaims IA. Ils ne constituent pas encore des campagnes massives, autonomes et totalement auto-organisées comme celles envisagées par les auteurs de l’étude.

Si tout cela ne reste qu’anticipation, il y a malheureusement des précédents qui montrent que les responsables d’ingérences dans les démocraties sont prêts à tout pour parvenir à leurs fins. Ces agents IA seraient un sacré coup de pouce pour cela.

Essaims d’IA : la prochaine arme invisible de la désinformation. © SB, IA ChatGPT

Les réseaux sociaux sont depuis longtemps utilisés pour influencer les personnes indécises, en raison de leur capacité à générer des bulles informationnelles sur mesure. L’un des premiers cas relevés fut celui du scandale de Cambridge Analytica via Facebook. Le réseau social avait facilité des campagnes de désinformation menées par une puissance étrangère (la Russie), en laissant circuler des infox qui ont influencé des scrutins, tel que le Brexit.

Une affaire qui a engendré des contrôles et une meilleure modération. Mais, depuis quelques années et notamment l’arrivée de l’administration Trump au pouvoir et du rachat de Twitter par Elon Musk, la modération et le fact-checking se sont atténués sous prétexte de « libérer » l’expression personnelle. Il n’y a donc qu’un pas pour que ces armées d’agents IA s’implantent pour devenir des armes de perturbation massives des processus démocratiques.

Se faire berner par des IA

Ce qui est navrant, c’est que ces IA pourraient façonner l’avenir des démocraties, sans que la majorité des électeurs ne sache qu’ils ont été influencés artificiellement. Mais comment se préparer à lutter contre ce phénomène qui semble inéluctable ? Les chercheurs imaginent déjà différentes réponses, avec l’intégration d’outils de détection qui identifient non seulement le contenu, mais les comportements coordonnés des agents artificiels.

Lire l’article

Autre solution : le renforcement de la vérification de l’identité sur ces plateformes. Mais il y a ce que l’on pourrait faire et la réalité face à des réseaux sociaux retors à respecter une réglementation. De fait, ces technologies ont toutes les chances de prospérer dans les angles morts du droit.

Dans ce contexte, la question n’est peut‑être plus de savoir si ces manipulations fonctionneront, mais si un retour vers un consensus réel et non manipulé pourra exister dans l’avenir.

Leave a Reply

Your email address will not be published. Required fields are marked *