« Moralement répugnants », les « robots tueurs » vont avoir le temps de proliférer sans aucune contrainte

Author:

Ukraine. Sur le front, le drone est désormais l’arme la plus redoutable pour les deux parties du conflit. Côté russe, les drones quadricoptères suicides Veter-8, 10 et 13 engagent des cibles de façon totalement autonome ou peuvent poursuivre leur funeste mission tout seul, si la liaison avec l’opérateur est brouillée par les systèmes de guerre électronique. Les « signatures » des cibles sont préchargées dans le drone et ses équipements optiques et infrarougesinfrarouges servent à les pointer. La Russie en dispose déjà de 3 000 sur le front et l’entreprise Veter en produirait autour de 6 000 par mois. Côté ukrainien, on jure n’utiliser que des drones aux capacités semi-autonomes. Autrement dit, un opérateur a toujours la main pour neutraliser la cible. Au Proche-Orient, Israël ne se cache pas d’utiliser des IA (intelligence artificielle) sur ses armements pour identifier et détruire des cibles de façon autonome à Gaza.

Les conflits du moment généralisent l’utilisation de ce que l’on appelle les SALA en France, pour « systèmes d’armes létales autonomes ». Ce sont ce l’on nomme autrement les « robots tueurs ». Or, leur développement et leur utilisation se sont radicalement amplifiés ces trois dernières années, en partie en raison de l’évolution rapide de l’intelligence artificielle.

Autre nouveauté, comme le prouve la production de massemasse chez Veter, ils deviennent de moins en moins coûteux à fabriquer. Ce dernier point soulève d’autant plus d’inquiétudes quant à leur prolifération parmi les acteurs étatiques et non étatiques. Et pourtant, cela fait depuis 2014 que l’Organisation des Nations Unies (ONU) envisage une réglementation pour ces SALA. Malgré des consultations régulières pour instaurer un cadre international légal sur ces machines, rien n’avance.

Il est loin d’avoir l’allure d’un robot Terminator, mais ce petit drone russe utilisé en Ukraine prend de lui-même l’initiative de voler vers sa cible pour s’y écraser avec sa charge explosive. © RuAviation

Des décisions de vie ou de mort prises par des robots

Aujourd’hui, plus qu’hier, Antonio Guterres, le secrétaire général de l’ONU considère que le moment est devenu critique. Lundi, lors d’une réunion informelle de l’ONU à New York, axée sur l’utilisation et l’impact de ces armes, il a déclaré qu’il « n’y a pas de place pour les systèmes d’armes autonomes létaux dans notre monde » et a ajouté que « les machines qui ont le pouvoir et la discrétion de prendre des vies humaines sans contrôle humain devraient être interdites par le droit international ». Un vœu sans doute pieu. Et pourtant, la majorité des membres de l’organisation s’accordent sur le principe pour une réglementation internationale depuis des années et ils le confirment régulièrement lors des différentes discussions sur ce sujet précis. Mais, jusqu’à présent, il n’y a eu que des consultations et les négociations n’ont pas encore débuté.

L’idée préliminaire consistait à interdire tout simplement ces systèmes d’armes autonomes. Cela n’arrivera pas. Les États qui pèsent lourd militairement traînent les pieds, avec en premier lieu, la Russie, Israël, les États-Unis, l’Inde et la Chine. Lors des discussions, ces pays cherchent non pas à les interdire totalement, mais éventuellement à limiter leur emploi. À titre d’exemple, sur les consultations en cours, ils cherchent à remplacer certaines expressions qui pourraient entraver l’utilisation de SALA pour leurs propres besoins. C’est notamment le cas de l’expression « contrôle humain » des propositions en cours, qu’ils souhaitent réorienter en « niveaux appropriés de jugement humain ». Des termes bien plus vaguesvagues, qui leur permettraient d’employer ces systèmes létaux selon leurs propres considérations. Car ces pays soutiennent en général que leurs propres directives nationales sont amplement suffisantes pour garantir l’utilisation d’armes autonomes de façon éthique. Interrogé par Reuters, le Pentagone souligne que les armes autonomes présentent moins de risques pour les civils que les conventionnelles.

Une révolution comme celle des armes nucléaires

Comme le consensus sur l’encadrement de ces robots tueurs est loin d’aboutir, alors le secrétaire général de l’ONU, ajoute un peu de pressionpression. Il fixe à 2026 une échéance pour que les États établissent des règles claires sur l’utilisation de ces armes animées par des IA. En attendant, il n’y a aucune contrainte et la réalité du terrain montre bien que les puissances réticentes n’ont pas vraiment l’intention de freiner leur développement.

Les industriels de l’armement voient cette absence de réglementation comme une aubaine et accélèrent leurs projets de développement pour ces armes autonomes. Ce n’est donc pas de leur côté qu’il faudra attendre la moindre avancée de l’aspect éthique. Au mieux, ils proposeront des solutions hybrideshybrides, permettant d’activer un contrôle humain au besoin.

Drôle de consensus

Le seul point qui pourrait conduire à un accord sur une réglementation commune serait l’utilisation de ces armes autonomes par des acteurs non étatiques. Autrement dit, des groupes armés généralement assimilés à des terroristes par les États. Dans tous les cas, si une réglementation, même peu contraignante, est adoptée, elle pourrait inciter les États à atténuer l’usage de ces machines sur les champs de bataille, mais ce serait bien tout. Le fait qu’elles soient susceptibles d’erreurs et parfois imprévisibles pourrait accidentellement engendrer un conflit entre la Russie et les alliés de l’Otan, par exemple. Mais il n’est même pas certain que les États qui freinent une réglementation soient sensibles à cet argument.

Ce laisser-faire concernant le développement et l’utilisation des armes autonomes létales rappelle celui de la mise en place des arsenaux nucléaires dans le monde avant qu’une réglementation internationale ne soit établie. Et encore, l’histoire récente montre que les pays qui disposent de cette arme reculent sur les accords internationauxaccords internationaux qui l’encadrent.

Leave a Reply

Your email address will not be published. Required fields are marked *