Trump a ordonné de virer cette IA sous contrat avec le Pentagone, mais l’armée ne peut pas s’en passer…

Author:

C’est la guerre ! Pas uniquement au Moyen-Orient, mais aussi entre les ténors des IA et l’administration Trump. La semaine dernière, aux États-Unis, le bras de fer entre le P.-D.G. d’Anthropic, Dario Amodei, et Pete Hegseth, le secrétaire à la Défense, s’est terminé dans une impasse.

L’IA Claude est utilisée par les militaires depuis quelques années et Anthropic refuse que ses modèles d’IA soient exploités pour la surveillance de masse des Américains et pour des armes autonomes mortelles. En réponse, le secrétaire à la Défense a répliqué en accusant Anthropic de tenter de « s’arroger un droit de veto sur les décisions opérationnelles de l’armée américaine ».


Lire l’article



Avec sa brutalité habituelle, Pete Hegseth a suggéré de retirer Claude immédiatement des systèmes du Pentagone. Il a également assumé une certaine forme de vengeance pour affaiblir au maximum Anthropic en précisant : « À compter de ce jour, aucun entrepreneur, fournisseur ou partenaire faisant affaire avec l’armée américaine ne peut mener aucune activité commerciale » avec Anthropic. Dans la foulée, Donald Trump a ordonné aux agences de l’administration fédérale de cesser d’utiliser immédiatement l’IA. Conscient que cela ne se fait pas d’une pression sur un bouton, il a été finalement décidé que ce retrait se déroulerait progressivement au cours des six prochains mois.

Palantir garantit que chaque pixel de chaque image vidéo du terrain est associé à des coordonnées géographiques réelles. Problème, l’IA qui anime le système est celle d’Anthropic. Difficile de s’en passer pour le moment. © Palantir

L’IA Claude fortement intégrée à Palantir

Les industriels de la défense utilisant Claude sont plutôt ennuyés par cette décision. Dénouer les liens avec un fournisseur d’IA profondément intégré est loin d’être évident et encore moins rapide. Surtout, la société la plus impactée reste Palantir. Son système d’IA Maven est utilisé activement par l’armée américaine pour mener actuellement son offensive en Iran.


Lire l’article



Problème, cela fait deux ans que l’IA Claude est intégrée dans Maven. L’outil sert à sélectionner des cibles d’attaque en Iran et fournit des coordonnées GPS précises pour mener les frappes de missiles. Parmi ses atouts, il permet de classer les cibles par ordre de priorité.

Maven a aussi été exploité lors du raid au Venezuela conduisant à l’enlèvement de son président, Nicolás Maduro. De fait, comme il est impossible de respecter cette interdiction de l’utilisation de Claude immédiatement, le Pentagone continuera d’utiliser la technologie d’Anthropic, quitte à contredire l’ordre du président de ne pas le faire. Elle le fera jusqu’à ce qu’une solution de remplacement viable soit trouvée.

Interdire brutalement Claude d’Anthropic n’arrange personne, sauf l’égo martial du secrétaire américain de la Défense qui veut avoir le dernier mot. © SB, IA LeChat

OpenAI en embuscade

La solution commence à se dessiner depuis qu’OpenAI a profité de l’opportunité de cette rupture pour signer un contrat massif avec le département de la Défense. Une signature qui signifie pour ses utilisateurs que la firme accepte de traiter massivement les données des populations américaines pour mieux les surveiller ou décider de la vie ou de la mort de façon autonome. Dans la foulée, une nuée d’utilisateurs a quitté ChatGPT au profit de Claude. Belle ironie.

Les données militaires dans la nature ?

Reste que l’utilisation d’une IA pour conduire la guerre laisse toujours circonspect. Jusqu’à maintenant et même pour les frappes menées en Iran, l’IA Claude utilisée au quotidien chez Palantir n’a pas le pouvoir de décider de la vie ou de la mort. Elle permet surtout à l’armée de développer des process de ciblage à la vitesse de la machine plutôt qu’à la vitesse humaine.

Mais, comme l’IA se trompe parfois, les opérateurs humains continuent de veiller au grain, plutôt que de presser un bouton mortifère. Or, il semble bien que l’administration Trump souhaite passer à la vitesse supérieure en s’appuyant totalement sur les IA les plus débridées au sens moral pour mener ses opérations militaires. Une décision plutôt dangereuse alors que les chatbots les plus performants continuent à halluciner et qu’il faut sans cesse contrôler leur réflexion.


Lire l’article



Faire confiance à ces IA pour prendre des décisions létales à la place de l’humain pose donc de sacrées questions éthiques. Des questions sur lesquelles l’administration Trump ne souhaite pas s’attarder.

Une autre question subsiste. Que l’armée se passe de Claude, c’est une chose, mais cette IA a englouti des quantités colossales de données militaires parfois confidentielles pour se former. Que vont devenir ces données ? Lorsqu’un acteur privé comme Elon Musk dispose d’un pouvoir géostratégique avec ses satellites, alors une IA – même éthique comme Claude – pourrait aussi devenir intentionnellement ou non une IA mercenaire au service de la guerre.

Leave a Reply

Your email address will not be published. Required fields are marked *