L’intelligence artificielle peut-elle devenir consciente ? Selon Mustafa Suleyman, la réponse est non. Dans une interview avec CNBC, le cofondateur de DeepMind et désormais chef de l’IA chez Microsoft depuis l’année dernière s’est exprimé sur sa vision de cette technologie.
« Si vous posez la mauvaise question, vous obtenez la mauvaise réponse. Je pense que c’est vraiment la mauvaise question ». Pour lui, les chercheurs qui tentent de créer une intelligence artificielle qui serait consciente se trompent. « Nous devons développer l’IA pour les êtres humains, et non pour qu’elle devienne une personne », affirme-t-il dans un texte publié cet été sur son blog.
La conscience nécessite-elle des émotions ?
Il ne nie pas la possibilité de l’émergence de l’intelligence artificielle générale (IAG, ou AGI) ou de la superintelligence, une IA qui dépasserait les capacités humaines. Toutefois, pour lui il faut séparer l’amélioration des performances des machines et leur capacité à ressentir des émotions. Il est partisan de la théorie du naturalisme biologique de John Searle, qui, dans le cadre de l’IA, signifie que la conscience nécessite un cerveau vivant. « La raison pour laquelle nous accordons des droits aux gens aujourd’hui est que nous ne voulons pas leur faire de mal, parce qu’ils souffrent. Ils possèdent un système nerveux capable de ressentir la douleur et des préférences qui les poussent à l’éviter. Ces modèles n’ont pas cela. Ce n’est qu’une simulation », dit-il.
Sous la direction de Mustafa Suleyman, Microsoft développe des services conçus pour reconnaître qu’ils sont des IA. « En termes simples, nous créons des IA qui œuvrent constamment au service de l’humain », indique-t-il, et que l’important est non pas d’atteindre la conscience, mais de créer une personnalité qui reflète ses valeurs. Microsoft vient d’ailleurs de lancer un mode « Real Talk » pour Copilot qui a davantage tendance à contredire l’utilisateur, contrairement aux chatbots habituels qui sont trop flatteurs et serviles.