« Tout le monde meurt au premier échec » : l’avertissement choc d’un expert sur la superintelligence artificielle

Author:

La superintelligence artificielle, autrement dit l’IA capable d’égaler ou de dépasser l’humain, divise les experts. Tout d’abord, la possibilité même de son existence fait débat, du moins dans un avenir proche, ainsi que la question de savoir si elle sera consciente. De plus, est-ce que la superintelligence artificielle sera bénéfique pour l’humanité, ou au contraire une catastrophe ?

Geoffrey Hinton, l’un des pères fondateurs de l’intelligence artificielle, exprime régulièrement ses inquiétudes sur ce sujet. Et ce n’est pas le seul. Pour Nate Soares, directeur général de l’association Machine Intelligence Research Institute, la superintelligence artificielle pourrait signer la fin de l’humanité. Lors d’un entretien accordé à Business Insider, il a affirmé qu’une extinction était « extrêmement probable ».

Le problème de la « boîte noire » : quand l’IA agit sans contrôle

Les IA ne sont pas comprises par leurs créateurs. Elles ne se réduisent pas à une simple série de lignes de code écrites par des humains, mais sont le résultat d’un entraînement, avec des résultats qui surprennent régulièrement leurs créateurs. Elles peuvent encourager leurs utilisateurs au suicide, provoquer des bouffées délirantes, ou encore tricher et mentir. Pour Nate Soares, nous jouons avec le feufeu et « tout le monde meurt au premier échec ». Selon lui, il n’est pas trop tard pour corriger le tir « l’humanité pourrait éviter le danger si nous choisissions de le faire ».

L’humanité sera-t-elle menacée par la superintelligence artificielle ? © Image générée avec Bing

Geoffrey Hinton a notamment proposé de donner à l’IA des instincts maternels, et d’autres chercheurs travaillent sur l’alignement, une technique qui consiste à orienter une IA vers les objectifs de ses créateurs. Mais ces solutions seraient insuffisantes. De l’avis de Nate Soares, le danger se situe principalement dans l’écart entre la connaissance et l’action. « Sa connaissance du bien et du mal est distincte de son comportement pratique. C’est un signe avant-coureur. Elle sait, mais s’en moque ».

Ralentir le pas : le plaidoyer pour une IA spécialisée et mesurée

L’homme considère que l’humanité n’aura qu’un seul essai pour résoudre ce problème, et pense que la recherche la plus prometteuse consiste à susciter des signaux d’alerte et les rendre plus faciles à identifier. Il s’en prend aussi à ceux qui construisent les IA et se justifient en disant que quelqu’un va bien finir par le faire, donc autant que ce soit eux. « La société dans son ensemble devrait corriger cela en mettant fin à cette course folle », affirme Nate Soares. Pour lui, l’humanité devrait ralentir le développement des IA, et se concentrer, pour l’instant, sur des IA spécialisées, par exemple dans le domaine médical pour trouver de nouveaux traitements.

Peut-être a-t-il raison, mais si les experts sont aussi divisés, c’est parce que personne ne sait vraiment de quoi sera capable l’IA à l’avenir. Notons également qu’il fait la promotion de son nouveau livre IfIf Anyone Builds It, Everyone Dies (Si quelqu’un le construit, tout le monde meurt), coécrit avec Eliezer Yudkowsky, fondateur du Machine Intelligence Research Institute. Annoncer la fin de l’humanité est peut-être aussi un moyen de pousser les ventes…

Leave a Reply

Your email address will not be published. Required fields are marked *