Vous avez sans doute déjà vu passer ces images sur vos fils d’actualité : un faux Jésus aux crevettes, une fillette dans un bateau serrant un chiot pendant une inondation, ou encore des clips de musique générés par des artistes qui n’existent pas. Ces productions relèvent toutes du « AI slop », littéralement une « bouillie d’IA ».
Ce concept, analysé par le chercheur américain Adam Nemeroff de l’université Quinnipiac, décrit l’explosion de contenus numériques de faible qualité (images, vidéos, textes, musiques) créés automatiquement par des outils d’intelligence artificielle, puis diffusés en masse sur Internet.
Une économie de l’attention exploitée par les algorithmes
Produire du contenu avec l’IA n’a jamais été aussi simple. En quelques clics, n’importe qui peut générer une vidéo, une chanson ou un article entier. Ce phénomène, combiné à la recherche du clic et du profit, alimente un écosystème de contenus superficiels destinés à capter l’attention plus qu’à informer.
Selon The Guardian, neuf des cent chaînes YouTube à la croissance la plus rapide en 2025 diffusent déjà des vidéos entièrement créées par intelligence artificielle : matchs de football de zombies, feuilletons pour chats ou bandes sonores d’artistes fictifs.
Sur Spotify, par exemple, un groupe appelé The Velvet Sundown a gagné en popularité avant que l’on découvre qu’il n’existait pas : ses morceaux avaient été composés et interprétés par une IA.
L’« AI slop » ne se contente pas de polluer les fils d’actualité : il fragilise la création humaine et son discernement. © Kenneth Cheung, iStock
Une menace pour la qualité de l’information
Le problème ne se limite pas aux divertissements. Les plateformes d’information et même Wikipedia doivent désormais lutter contre un afflux massif d’articles générés automatiquement, souvent remplis d’erreurs ou de plagiats.
En 2024, le magazine de science-fiction Clarkesworld a dû suspendre temporairement les soumissions de manuscrits, submergé par les textes produits par IA.
Pendant l’ouragan Helene en 2024, de fausses images d’enfants victimes de la catastrophe ont circulé sur les réseaux, utilisées pour manipuler l’opinion publique. Ces contenus, même manifestement artificiels, parviennent à influencer les perceptions, surtout lorsqu’ils sont partagés rapidement sans vérification.
Des conséquences sociales et économiques réelles
L’« AI slop » ne se contente pas de polluer nos fils d’actualité : il fragilise les créateurs humains. Les algorithmes de recommandation ne distinguent pas toujours le contenu original de celui généré par machine, ce qui réduit la visibilité des artistes, journalistes ou photographes.
À terme, ce flot de productions automatisées risque de dégrader la qualité globale du paysage médiatique et d’éroder la confiance du public dans les sources d’information.
Peut-on y remédier ?
Certaines plateformes expérimentent des outils de signalement ou de contextualisation, comme les notes communautaires sur X (ex-Twitter), permettant d’ajouter des précisions aux publications trompeuses. D’autres testent des systèmes d’étiquetage des contenus générés par IA.
Mais le vrai défi reste collectif : apprendre à identifier, vérifier et contextualiser les images et textes que nous consommons chaque jour.
Entre fascination et pollution numérique
L’intelligence artificielle ouvre des perspectives créatives fascinantes, mais son usage sans discernement produit aussi un océan de « bruit » numérique. Comme le résume Adam Nemeroff, « l’IA ne se contente plus de créer des œuvres : elle remplit désormais Internet d’un flot continu de médiocrité ». Un rappel salutaire qu’à l’ère des algorithmes, la vigilance critique est devenue notre meilleur filtre.