La Chronique Agora

Guerre, IA et coercition : le bras de fer entre le Pentagone et Anthropic

À l’heure où Washington se prépare à une possible confrontation majeure avec l’Iran, l’armée américaine exige un accès total aux modèles d’intelligence artificielle les plus avancés. Tous ont cédé. Sauf un : Anthropic. Son refus d’autoriser la surveillance de masse et les armes autonomes place l’entreprise dans le viseur du pouvoir.

Alors qu’une attaque américaine de grande ampleur sur l’Iran semble imminente (sous 24 ou 48h), que la plus puissante armada américaine depuis 2003 (l’invasion de l’Irak) se déploie à portée de missile ou de raid aérien de Téhéran et des principaux sites nucléaires perses, le Pentagone veut s’assurer de disposer de la quintessence des capacités d’analyse des données permettant de remporter des guerres.

Pratiquement tous les géants du cloud et de l’IA collaborent ouvertement avec le Pentagone, la CIA, la NSA… et des tas d’agences dont les acronymes vous sont inconnus mais qui fouillent les moindres recoins de votre intimité, tracent votre argent, analysent vos moindres dépenses, transferts de fonds (via SWIFT notamment).

La firme la plus impliquée dans un projet de type « Big Brother », parce que financée initialement par la CIA puis co-développée par la NSA, collaborant avec le Pentagone, s’appelle Palantir. Aucune entreprise ne traite un plus grand volume de data hétérogène sur la planète Terre.

C’est l’intelligence artificielle au summum de sa capacité intrusive, mais c’est loin de refléter son objectif ultime.

Lequel est de prédire l’avenir, dans pratiquement tous les domaines stratégiques qui intéressent les dirigeants d’un pays, façon Minority Report, mais sans les « Précogs » en combinaison argentée avec casques à électrodes, baignant dans une eau fluorescente.

Mais un seul Palantir, c’est peut-être s’en remettre de façon trop univoque à un seul opérateur, fût-il le plus avancé dans son domaine. Le Pentagone ne peut se permettre de négliger aucune piste pouvant renforcer son efficacité opérationnelle, c’est pourquoi il tente de s’attacher les services des dernières entreprises américaines spécialisées dans l’intelligence artificielle qu’il n’a pas encore ralliées à sa cause.

Après l’échec d’une opération séduction, le Pentagone passe au plan B : la coercition. Et la victime n’est pas chinoise (il s’agit bien d’une entité 100 % américaine), mais risque de subir le même boycott que Huawei. Parce qu’elle refuse que le Pentagone et la NSA utilisent son IA pour la surveillance de masse des Américains et pour développer des systèmes d’armes de nouvelle génération, entièrement autonomes.

Le suspense a assez duré : c’est Anthropic qui est sur le « hot seat ». Le secrétaire à la Défense (rebaptisé ministère de la Guerre par Donald Trump), Pete Hegseth, a convoqué son PDG, Dario Amodei, au Pentagone, afin de discuter des multiples usages potentiels de Claude et de l’évolution de son modèle d’IA qui fonctionne déjà au sein des « systèmes classifiés » du Pentagone.

Il s’agit du modèle le plus performant pour les missions sensibles de défense et de renseignement. Il a été utilisé via Palantir lors du raid sur Caracas ayant permis la capture de Nicolás Maduro et de son épouse en janvier.

C’est la première utilisation confirmée d’une IA commerciale dans une opération militaire classifiée, et le PDG d’Anthropic n’a pas eu son mot à dire.

Le Pentagone souhaite désormais la levée de toutes les restrictions aux usages civils et militaires de Claude afin de compléter et renforcer le potentiel de Palantir dans le domaine de la surveillance permanente des réseaux sociaux grâce à l’intelligence artificielle. Il s’agit également de recouper les données concernant les inscriptions sur les listes électorales, les permis de port d’armes (vrais ou faux), les activités telles que la participation à des manifestations de chaque citoyen américain.

Mais Dario Amodei continue de refuser qu’Anthropic serve à la surveillance de masse des Américains à la Minority Report et à la gestion de systèmes d’armes entièrement autonomes à la Terminator.

Le Pentagone menace maintenant de désigner Anthropic comme un « risque pour la chaîne d’approvisionnement ». Cette désignation a conduit au boycott de Huawei et d’autres firmes chinoises désignées.

Un virage à 180° de la Maison-Blanche au sujet de Claude obligerait tous les sous-traitants de la défense américains à certifier qu’ils n’utilisent pas Claude. Or, 8 des 10 plus grandes entreprises du classement Fortune utilisent justement l’IA d’Anthropic. Y renoncer bouleverserait l’ensemble du secteur de la défense.

Dario Amodei est le seul qui campe fermement sur ses principes éthiques ; Sam Altman et OpenAI, Google et Elon Musk avec xAI ont déjà accepté de lever les restrictions d’utilisation à des fins militaires.

OpenAI a carrément déployé ChatGPT auprès des 3 millions de militaires du département de la Défense via GenAI.mil ; xAI bénéficie d’un contrat de 200 millions de dollars pour développer des applications qui s’étendent au domaine spatial (et qui vont transiter par Starlink).

Le responsable de la sécurité d’Anthropic a démissionné début février, avertissant que « le monde est en danger ». Le modèle le plus avancé de Claude a été sciemment utilisé par le Pentagone dans la recherche sur les armes chimiques pour analyser les résultats lors des phases d’essais.

Le Pentagone admet avoir utilisé des modèles concurrents pour des « opérations classifiées », mais Claude s’est avéré le plus performant.

Mais le Pentagone et la Maison-Blanche sont prêts à signer l’arrêt de mort d’Anthropic plutôt que d’accepter deux restrictions qui protègent les citoyens américains de leur propre gouvernement.

Il ne fait guère de doute que l’armée américaine va tenter de contraindre Dario Amodei à lever ses restrictions de sécurité sur des technologies qui pourraient engendrer un monde constituant un mix de 1984 et de Terminator… un peu comme celui qu’imagine Alex Karp – le PDG de Palantir – transhumaniste, adepte du contrôle total des foules par une élite immortelle, tout en souhaitant une dépopulation qui soulagerait la planète des « inutiles ».

Paradoxalement – hélas – ce n’est pas Alex Karp qui voit son entreprise désignée comme une menace pour la sécurité nationale, au même titre que la Chine… mais celui qui a encore assez de principes pour refuser d’emprunter le même chemin menant notre monde droit vers l’enfer.

Nous n’allons pas tarder à être fixés avec l’Iran. Si le pire survient, nous aurons la satisfaction de savoir qu’Anthropic n’a pas souhaité y collaborer.

Recevez la Chronique Agora directement dans votre boîte mail

Quitter la version mobile