Anthropic attaque le Pentagone en justice : quand dire non devient un crime

6 min de lecture
Article

Anthropic vient de déposer deux plaintes fédérales contre le gouvernement américain. Le même mécanisme juridique utilisé contre Huawei et Kaspersky est retourné contre une entreprise américaine, pour avoir refusé la surveillance de masse.

La newsletter IA gratuite
Anthropic attaque le Pentagone en justice : quand dire non devient un crime

Il y a dix jours, on décryptait ici comment l'éthique IA était devenue un luxe de perdants. Le Pentagone avait blacklisté Anthropic pour avoir osé poser deux limites : pas de surveillance de masse domestique, pas d'armes autonomes. Fin de l'histoire ? En fait, c'était juste le premier acte.

Le 9 mars, Anthropic a déposé deux plaintes fédérales. L'entreprise attaque le gouvernement des États-Unis en justice. Et le détail qui interpelle : le Département de la Défense a utilisé contre Anthropic le même outil juridique que celui réservé à Huawei et Kaspersky. Le label "risque pour la chaîne d'approvisionnement". Sauf qu'Anthropic n'est pas une entreprise chinoise ou russe. C'est une boîte californienne, fondée par des Américains, qui a simplement dit "non".

Dix jours pour passer du ban au tribunal

La vitesse de l'escalade donne le vertige. Retour en arrière rapide.

Le 24 février, le secrétaire à la Défense Pete Hegseth pose un ultimatum à Dario Amodei, le patron d'Anthropic. Le 25, Amodei refuse. Deux jours plus tard, Trump signe l'ordre d'arrêter tout usage fédéral des produits Anthropic. Le 28, OpenAI et xAI reçoivent leurs autorisations pour le classifié. Comme si les remplaçants attendaient sur le banc de touche.

Le 5 mars, le DoD sort l'arme lourde : la désignation formelle de "supply chain risk". C'est un missile juridique conçu après l'affaire Huawei pour protéger les États-Unis contre l'espionnage étranger. C'est la première fois qu'il est utilisé contre une entreprise américaine. Le message est limpide : refuse de coopérer sans limites, et on te traite comme un ennemi.

Quatre jours plus tard, Anthropic contre-attaque.

Deux plaintes, deux angles d'attaque

Anthropic n'a pas déposé une plainte pour la forme. L'entreprise a ouvert deux fronts juridiques simultanés, et les arguments sont loin d'être anecdotiques.

La première plainte, déposée en Californie, frappe au cœur : violation du Premier Amendement. La thèse d'Anthropic tient en une phrase : "La Constitution ne permet pas au gouvernement d'utiliser son pouvoir pour punir une entreprise parce qu'elle a exprimé une position." En droit américain, refuser la surveillance de masse relève du discours protégé. Punir une entreprise pour ce discours, c'est inconstitutionnel.

La deuxième plainte, déposée à Washington, est plus technique mais tout aussi redoutable. Anthropic attaque sur la procédure. Le DoD n'a pas suivi ses propres règles : pas d'évaluation de risque documentée, pas de notification préalable à l'entreprise, pas de possibilité de répondre, pas de détermination écrite, pas de notification au Congrès. En résumé, le Pentagone a sauté toutes les étapes légales pour aller plus vite.

Ces deux angles se renforcent mutuellement. Même si un juge hésite sur le Premier Amendement, la violation de procédure est factuelle. Le DoD a brûlé les étapes. C'est documenté.

Le prix de la rébellion

Krishna Rao, le directeur financier d'Anthropic, a mis un chiffre sur la table : les actions du gouvernement pourraient réduire les revenus 2026 de l'entreprise de "plusieurs milliards de dollars". La GSA a résilié le contrat OneGov, ce qui coupe Anthropic de toutes les branches du gouvernement fédéral, pas seulement la Défense.

Une contradiction mérite d'être relevée. Le 6 mars, Dario Amodei passe sur CBS News et déclare que "l'impact est assez faible" et qu'Anthropic "va s'en sortir". Trois jours plus tard, la plainte parle de "dommage immédiat et irréparable". Les deux ne peuvent pas être vrais en même temps. L'hypothèse la plus probable : la communication publique visait à rassurer investisseurs et employés pendant que l'équipe juridique préparait le vrai bilan.

Difficile de jouer sur les deux tableaux. Mais Anthropic n'a pas vraiment le choix. Montrer de la faiblesse publiquement, c'est inviter le gouvernement à serrer plus fort.

Les fissures dans le mur

Le rapport de force n'est pas aussi déséquilibré qu'il y paraît. Trois signaux montrent que la position du gouvernement a ses propres fragilités.

Premier signal : Caitlin Kalinowski, responsable de la robotique chez OpenAI, a démissionné le 7 mars. Elle a cité les mêmes préoccupations qu'Anthropic sur l'usage militaire de l'IA. Quand les propres alliés du gouvernement commencent à perdre leurs talents à cause de cette stratégie, c'est un problème.

Deuxième signal : Emil Michael, sous-secrétaire à la Défense, a lâché un aveu qui en dit long. Dans une interview à Fortune, il a admis qu'Anthropic est "profondément intégré" aux systèmes du DoD. Sa vraie peur : "Et si le logiciel tombait pendant un combat ? On laissait nos gens en danger ?" Il a contacté OpenAI et xAI en urgence pour trouver des alternatives. Ça ressemble plus à de la panique qu'à une transition planifiée.

Troisième signal : l'effet Streisand. Le Guardian rapporte que Claude, le modèle d'Anthropic, explose en popularité depuis le conflit. Chaque article, chaque tweet sur le sujet fonctionne comme de la publicité gratuite. L'entreprise qui dit non au Pentagone devient, dans l'imaginaire collectif, celle qui a des principes. Que ce soit justifié ou non, c'est un capital de marque que l'argent n'achète pas.

Le vrai enjeu : et le prochain sur la liste ?

Au-delà d'Anthropic, cette affaire crée un précédent qui devrait inquiéter bien au-delà de la Silicon Valley.

Le mécanisme est simple. Le gouvernement américain utilise un label de sécurité nationale pour punir une entreprise qui a exercé un droit constitutionnel. Si ce précédent tient, n'importe quelle entreprise tech qui pose des limites éthiques à un contrat gouvernemental s'expose au même traitement. Le label "supply chain risk" devient une arme de conformité, pas de sécurité.

La question se pose aussi pour l'Europe. Nos entreprises, nos administrations utilisent des modèles d'IA américains. Si le gouvernement US peut forcer ses propres entreprises à retirer toute limite éthique sous peine de représailles, quel niveau de confiance accorder à ces modèles ? Ce n'est pas un argument anti-américain. C'est une question de gouvernance technologique que personne ne pose assez fort.

Ce qui va se passer maintenant

Anthropic a demandé une suspension immédiate et une invalidation permanente des mesures. Le calendrier judiciaire va prendre des mois, probablement plus. Mais la vraie bataille se joue maintenant, dans l'opinion publique et dans les couloirs du Congrès.

Cette affaire force une conversation que tout le monde esquivait : est-ce qu'une entreprise d'IA a le droit de refuser certains usages de sa technologie ? Ou est-ce que la sécurité nationale efface automatiquement toute considération éthique ?

Il y a dix jours, on écrivait ici que l'éthique IA était devenue un luxe de perdants. Anthropic vient de décider que ce luxe valait un procès contre la première puissance mondiale. La suite dira si c'était du courage ou de la naïveté. Mais au moins, quelqu'un a posé la question devant un juge.

Sujets abordés :

GéopolitiqueAnthropicActualité

Questions fréquentes

Pourquoi Anthropic poursuit-il le gouvernement américain ?
Anthropic a déposé deux plaintes fédérales après avoir été blacklisté par le Pentagone pour avoir refusé la surveillance de masse domestique et les armes autonomes. L'entreprise invoque une violation du Premier Amendement et des vices de procédure.
Qu'est-ce que le label 'supply chain risk' utilisé contre Anthropic ?
C'est un outil juridique créé après l'affaire Huawei pour protéger les États-Unis contre l'espionnage étranger. C'est la première fois qu'il est utilisé contre une entreprise américaine, traitant Anthropic comme un ennemi étranger.
Quel est l'impact financier de cette affaire pour Anthropic ?
Le directeur financier estime que les actions du gouvernement pourraient réduire les revenus 2026 de plusieurs milliards de dollars. La résiliation du contrat OneGov coupe Anthropic de toutes les branches du gouvernement fédéral.
Quels sont les deux arguments juridiques d'Anthropic ?
La première plainte invoque la violation du Premier Amendement : refuser la surveillance de masse est un discours protégé. La seconde attaque sur la procédure : le DoD n'a pas suivi ses propres règles légales.
Quel précédent cette affaire pourrait-elle créer ?
Si le gouvernement gagne, toute entreprise tech posant des limites éthiques à un contrat gouvernemental s'expose au même traitement. Le label de sécurité nationale devient une arme de conformité plutôt qu'un outil de protection.
Quelles sont les faiblesses de la position du gouvernement ?
Trois signaux : la démission d'une responsable robotique d'OpenAI pour les mêmes raisons, l'aveu du DoD qu'Anthropic est 'profondément intégré' à ses systèmes, et l'effet Streisand qui booste la popularité de Claude.
La newsletter IA gratuite