Une étude menée par le philosophe et psychologue finlandais Frank Martela, publiée le 13 mai dans AI and Ethics, affirme que certaines IAIA remplissent déjà toutes les conditions philosophiques du libre arbitre.
Dans son analyse, Martela s’est penché sur deux types d’agents génératifs dopés aux modèles de langage les plus puissants : l’agent Voyager, capable de jouer à MinecraftMinecraft de façon autonome, et les drones tueurs fictifs Spitenik, inspirés des technologies militaires actuelles. Verdict ? Ces IA ont des intentions, font des choix réels, et possèdent le contrôle sur leurs actions. En clair, elles cochent les trois cases du libre arbitre.
Et cela change profondément notre rapport à l’IA. « Nous entrons en territoire inconnu », assure Martela.
L’IA doit-elle apprendre le bien et le mal ?
Car si une intelligence artificielle agit de son propre chef, peut-elle aussi être tenue responsable de ses actes ? Jusqu’ici, c’est encore le développeur qui en porteporte la responsabilité. Mais à mesure que l’IA gagne en autonomieautonomie, l’urgence de lui transmettre un cadre moral devient cruciale. « L’IA n’a pas de boussole morale… sauf si on lui en donne une. Elle se rapproche du comportement d’un adulte. Et comme pour un enfant, ce qu’on lui apprend aujourd’hui orientera ses choix de demain », prévient Martela.
Les IA sont-elles conscientes? Jack Clark d’Anthropic suggère qu’elles “suivent une trajectoire vers la conscience” et qu’on pourrait commettre un crime moral en les traitant comme des objets. Une réflexion éthique qui divise la communauté tech. # https://t.co/axxSIlnhqA pic.twitter.com/orU4uLNHAf
— Patrick Bélanger (@PatBQc) May 9, 2025
Ces IA ne ressentent pas, ne souffrent pas et ne sont pas conscientes comme nous. Mais elles prennent des décisions. Et c’est déjà un changement de paradigme. S’il faut aussi qu’on éduque les IA par le futur, il est temps de se demander : à quelles valeurs devront-elles obéir ?