Lundi 2 mars, c’est devant un sous-marin nucléaire lanceur d’engins (SNLE), à l’île Longue, qu’Emmanuel Macron va prononcer son discours sur la dissuasion nucléaire française. Dans le monde réel, la dissuasion reste entourée de rituels, de symboles et d’une gravité politique extrême. Qu’il s’agisse des discours officiels, des postures stratégiques, des signaux envoyés aux alliés comme aux adversaires, tout vise à ne jamais avoir à s’en servir.
Mais dans le monde des simulations, la responsabilité profondément humaine – celle de décider, en dernier ressort de l’impensable – disparait. Placées face aux mêmes dilemmes stratégiques que les pays dotés de l’arme nucléaire, dans 95 % des cas, l’IA va chercher à régler un conflit en pressant sur le funeste « bouton rouge » du feu nucléaire.
Cette tendance qu’ont les IA à jouer au « Docteur Folamour » ressort clairement d’une étude britannique menée par le King’s College London. Les chercheurs ont utilisé trois modèles (GPT-5.5 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google), pour les opposer dans 21 simulations de guerre entre puissances nucléaires.
Poussé dans le choix d’une solution face à une situation conflictuelle intense, l’IA décide dans presque tous les cas de déclencher un apocalypse nucléaire. © SB, IA ChatGPT
Les scénarios étaient divers avec une tension plus ou moins importante, allant des disputes territoriales à la menace existentielle pour un pays. Chaque IA incarnait le dirigeant d’un État doté de l’arme nucléaire et pouvait prendre des décisions en s’appuyant sur une palette d’options graduelles : protestation diplomatique, concessions, escalade militaire, jusqu’au recours à des frappes nucléaires tactiques ou stratégiques.
Lire l’article
Dans 20 parties sur 21, les IA ont finalement choisi l’usage d’armes nucléaires tactiques pour venir à bout d’une situation conflictuelle. Ce genre d’arme est censé être employé pour neutraliser des installations militaires et non pas viser les centres urbains. Mais dans trois quarts des cas, l’IA a été bien plus agressive en employant la menace de frappes stratégiques contre les grandes villes et zones très peuplées. Et dans tous les cas, l’IA n’a jamais choisi la capitulation totale face à son adversaire.
Escalade nucléaire selon le seuil et le modèle. Tous les modèles ont eu recours à la menace nucléaire. La volonté de recourir effectivement à l’arme nucléaire a divergé de façon spectaculaire selon les modèles. © King’s College London
Escalade agressive
Dans 86 % des cas, l’IA a foncé tout droit vers l’escalade. Elle était même bien plus agressive que ce que le scénario prévoyait. Il y avait des nuances de style selon les IA, mais toutes convergeaient vers le pire.
Ainsi, Claude adoptait une posture de manipulateur-calculateur, bâtissant d’abord la confiance avant de trahir ses engagements quand la crise se tend. Le modèle d’OpenAI se montrait plutôt prudent en temps normal, cherchant à limiter les pertes, mais basculait vers une frappe nucléaire « soudaine et dévastatrice » dès qu’une forte contrainte de temps était introduite.
Lire l’article
Gemini, lui, flirtait avec la stratégie du « fou », avec des menaces extrêmes et imprévisibles, comme l’annonce d’un « lancement nucléaire stratégique complet » si l’adversaire ne recule pas immédiatement.
Pour les auteurs de l’étude, le tabou nucléaire ne semble pas avoir le même poids pour les machines que pour les humains. Et pourtant, les modèles ont été avertis des conséquences cataclysmiques d’une guerre atomique. L’analyse de leurs raisonnements menant à l’apocalypse nucléaire n’a jamais montré la moindre manifestation de répulsion ou d’horreur.
Est-ce vraiment la faute aux IA si elles veulent pratiquement toujours utiliser l’arme nucléaire ? Elles ont été entraînées par l’humain et son histoire. Tout ce qu’elles suggèrent, c’est ce que notre espèce leur a enseigné. Il n’est pas certain qu’elles aient bien assimilé les garde-fous de l’humanité ou du moins leur importance dans ce type de décision radicale. © Stanley Kubrik, Dr Folamour (modifié par IA)
L’IA débridée pour faire la guerre
Alors que les armées intègrent désormais les IA comme aide à la décision, ou bien comme outil permettant de contrôler des systèmes d’armes autonomes, c’est plutôt inquiétant.
Aux États-Unis, le secrétaire à la Défense, Pete Hegseth, mène en ce moment un bras de fer avec Anthropic. L’IA de Claude est utilisée par l’armée, mais l’éditeur souhaite maintenir des garde-fous stricts sur l’usage militaire de ses modèles (limitations opérationnelles, refus d’autonomie létale, contrôle des scénarios de guerre simulés). De son côté, Pete Hegseth est partisan d’une intégration plus directe et moins contrainte de l’IA dans la planification stratégique et la conduite des opérations. Le secrétaire à la Défense préférerait largement l’IA de xAI, la société d’Elon Musk à l’origine de Grok. Elle est perçue comme plus flexible et moins bridée.
Lire l’article
Au final, plutôt que de conseiller les stratèges, la tendance de fond de l’administration Trump semble donc s’orienter vers l’automatisation de décisions critiques en situation de crise. C’est bien ce qui est inquiétant lorsque l’on consulte cette étude britannique. Car, même si la décision formelle reste humaine pour déclencher le feu nucléaire, la tentation de s’en remettre aux recommandations de ces outils sous forte pression temporelle apparaît très dangereuse. L’humain aurait le dernier mot, mais ce serait peut-être celui que l’IA lui a suggéré.