On le sait, l’IA générative est de plus en plus couramment utilisée par les élèves dans les lycées ou les universités. Mais ce type d’usage textuel se répand aussi, semble-t-il, dans la recherche. Une nouvelle étude parue dans Science Advances indique que les travaux publiés dans le domaine des sciences biomédicales ont une syntaxe qui laisse planer le doute.
Les chercheurs, issus de l’Université de Tübingen, en Allemagne, ont passé au crible pas moins de 15 millions d’abstracts, les courts résumés qui présentent une étude, et qui sont écrits par les scientifiques, pour déceler des anomalies entre 2010 et 2024.
Un usage masqué de l’IA ?
Leurs résultats montrent que depuis l’émergenceémergence des outils génératifs comme ChatGPT, certains mots reviennent beaucoup plus souvent. Parmi eux, delves (fouille), showcasing (met en valeur), underscores (souligne) potential (potentiel), findings (découvertes) et critical (critique).
Voir aussi
Cette IA a écrit un article scientifique sur elle-même et il va être publié !
Vu comme ça, rien de bien spectaculaire, mais les chercheurs ont noté quelques petits problèmes. Pour commencer, ces mots en apparence assez courants sont étonnamment parmi les préférés des modèles de langage qui les emploient à tort et à travers. De plus, s’il est normal que le vocabulaire évolue au fil du temps, ce changement est drastique : même la crise du Covid n’avait pas bouleversé le mode d’écriture des chercheurs à ce point. Enfin, les mots présentés ici sont avant tout stylistiques, et ne se raccrochent pas à une actualité particulière qui pourrait justifier leur usage.
Quinze millions d’abstracts ont été étudiés, notamment dans le domaine des sciences biomédicales, faisant ressortir des anomalies de langage, telles que l’utilisation récurrente de certains mots. © Tetiana, Adobe Stock
Autant d’indices qui poussent les auteurs à évaluer qu’environ 13,5 % des abstracts publiés en 2024 pourraient avoir bénéficié d’un coup de pouce de la part de ChatGPTChatGPT ou d’un de ses concurrents. Et ce, même si aucune mention d’une quelconque aide n’est faite dans les études.
« Nous avons montré que l’effet de l’usage des modèles de langage dans l’écriture scientifique est sans précédent […], écrivent les auteurs dans leur étude. Cet effet va très certainement devenir de plus en plus prononcé dans le futur, et nous pourrons analyser davantage de publications. Mais dans le même temps, l’usage des modèles de langage peut devenir mieux maîtrisé et plus difficile à détecter, ce qui signifie que la part réelle d’abstracts concernée est sans doute sous-estimée ».
Oui pour les abstracts, mais non pour le reste
La communauté scientifique elle-même est partagée sur cet usage. Certains chercheurs disent l’utiliser, d’autres craignent une émergence de plagiat et soulèvent des enjeux éthiques. Dans un sondage mené en mai 2025 par la revue Nature, sur 5 000 scientifiques interrogés, 90 % se disaient favorables à l’usage de l’IAIA pour corriger ou traduire des articles.
Voir aussi
Faux relecteurs : la plaie des revues scientifiques
Pour ce qui est de la rédaction des abstracts, 23 % n’y voyait aucun problème, et 45 % pouvaient le tolérer si l’usage était inscrit directement dans l’étude. Des pourcentages qui baissent drastiquement lorsqu’il s’agit d’autres parties de l’article, comme la description des méthodes, des résultats et la conclusion.
En revanche, les avis sont beaucoup plus tranchés lorsqu’il s’agit des examens par les pairs, des étapes obligées pour la recherche, dans lequel les experts doivent relire le travail de leurs collègues. Ici, les personnes interrogées sont en majorité hostiles à toute intervention d’une IA.