L’intelligence artificielle générale (IAG), une IA qui serait capable d’égaler l’intelligence humaine, représente le Graal pour les chercheurs. C’est l’objectif affiché par les grandes firmes d’IA comme OpenAI, certains affirmant depuis plusieurs années que nous allons atteindre ce niveau dans moins de dix ans, voire dans un an ou deux. Si la plupart parient sur les grands modèles de langage (LLM), d’autres spécialistes pensent que cette architecture est trop limitée. Yann LeCun a notamment quitté Meta pour se consacrer aux modèles de monde, ou world models, qui seraient plus prometteurs.
Et si tous les spécialistes se trompaient ? Dans une tribune publiée dans Nature, Eddy Keming Chen, professeur de philosophie, et ses collègues à l’université de Californie spécialisés dans la linguistique, l’informatique et les sciences des données, soutiennent l’idée que l’IAG serait déjà atteinte. Les chatbots actuels passent désormais le test de Turing. Ce test, imaginé par le mathématicien Alan Turing en 1950, met un humain face à un humain et une IA, et en discutant à l’écrit il doit décider lequel est l’IA. ChatGPT est désormais vu comme humain plus souvent que de véritables humains. Il y a quelques années, ce test aurait pu, à lui seul, suffire à qualifier un chatbot d’IAG.
Redéfinir l’intelligence : l’IAG vs Superintelligence
Il n’y a aucune définition précise de l’IAG qui fasse l’unanimité. Les auteurs soutiennent que l’intelligence artificielle doit inclure les humains aussi, ce qui exclut toute exigence de perfection ou d’universalité. Aucun humain n’est capable de tout faire au niveau d’un spécialiste. Les auteurs distinguent notamment l’IAG, où les LLM ont des performances au niveau d’experts dans les différents domaines, ce qui est déjà le cas, de la superintelligence, où ils dépassent largement les humains dans tous les domaines.
Ils réfutent ensuite dix objections courantes, notamment qu’ils ne seraient que des « perroquets stochastiques » (ils ne font que répéter les données d’entraînement). Le fait qu’ils soient capables de résoudre de nouveaux problèmes de mathématiques, et de transférer des compétences sur différents domaines, contredirait cette affirmation. De plus, s’attendre à des découvertes révolutionnaires ne serait pas raisonnable. Les LLM manqueraient de représentation physique du monde, mais ce serait contredit par le fait qu’ils sont capables de prédire des conséquences d’actions, ou de résoudre des problèmes de physique.
Les IA ne sont plus limitées aux simples mots et comprennent désormais images, audio et vidéo. Les LLM n’ont pas de corps, mais une intelligence n’a pas besoin de corps. De plus, avec les progrès de la robotique, l’ère de la « Physical AI » ou IA matérielle, a déjà commencé. De même, les auteurs soutiennent que l’autonomie et une mémoire autobiographique persistante ne sont pas nécessaires pour une intelligence générale. Les IA ont besoin de beaucoup plus de données pour apprendre, et ne peuvent pas, par exemple, apprendre à conduire une voiture avec 20 heures de conduite. Mais l’important serait le résultat final, et non le temps nécessaire pour y parvenir.
Et les hallucinations ?
Ils passent toutefois un peu rapidement sur les hallucinations des chatbots. Le taux d’hallucinations aurait été réduit avec les dernières générations des différents modèles, et les humains sont aussi sujets à des biais cognitifs ou de faux souvenirs. Toutefois, les hallucinations sont encore très fréquentes, et selon certaines études auraient même tendance à augmenter. Selon OpenAI, même avec GPT-5, une réponse sur dix contiendrait une hallucination.
Au final, les auteurs affirment que nous avons déjà atteint l’intelligence artificielle générale, et que c’est notre conception de l’intelligence qui est trop étroite. Notre anthropocentrisme nous empêcherait de reconnaître la naissance d’une nouvelle intelligence, très différente de la nôtre. Cela pourrait aussi expliquer pourquoi certains, comme Mark Zuckerberg, préfèrent désormais parler de superintelligence.