Le jour où l'éthique IA est devenue un luxe de perdants

6 min de lecture
Article

Anthropic refuse la surveillance de masse et les armes autonomes. Trump les bannit. OpenAI signe le même jour avec les « mêmes garde-fous ». Retour sur une journée qui a redéfini les règles du jeu.

La newsletter IA gratuite
Le jour où l'éthique IA est devenue un luxe de perdants

Le 27 février 2026, deux entreprises d'intelligence artificielle ont signé des accords avec le Pentagone. L'une a été désignée « risque pour la chaîne d'approvisionnement de la sécurité nationale ». L'autre a été applaudie. Les deux promettaient exactement les mêmes garde-fous éthiques.

Bienvenue dans le nouveau monde de l'IA américaine, où les principes ont de la valeur tant qu'ils ne coûtent rien.

Un refus qui ne passe pas

Tout commence en juillet 2025. Anthropic, la startup valorisée 380 milliards de dollars et fondée par d'anciens dirigeants d'OpenAI sur la promesse d'une IA « sûre et responsable », signe un contrat de 200 millions de dollars avec le Pentagone. Objectif affiché : prototyper des capacités IA de pointe pour la sécurité nationale. En parallèle, un partenariat avec Palantir permet de déployer Claude, leur modèle phare, sur les réseaux classifiés du gouvernement.

Mais début 2026, le ton change. Le Pentagone exige un accès « pour tous usages légaux » sans restriction. Dario Amodei, CEO d'Anthropic, refuse. Deux lignes rouges : pas de surveillance de masse domestique des Américains, pas d'armes autonomes sans contrôle humain.

Le 24 février, Pete Hegseth, secrétaire à la Guerre de l'administration Trump, donne un ultimatum à Amodei. La menace : invoquer le Defense Production Act, une loi de la Guerre de Corée qui permet au gouvernement de réquisitionner des entreprises privées. Et plus inquiétant encore, désigner Anthropic comme « risque pour la chaîne d'approvisionnement » de la sécurité nationale.

Le 25, Amodei publie un communiqué sobre : « Je ne peux pas, en toute conscience, accéder à la demande du Pentagone. »

Le vendredi 27 février à 17h01, le délai expire.

L'explosion

Quelques heures plus tard, Donald Trump frappe sur Truth Social : « Les cinglés de gauche chez Anthropic ont commis une ERREUR DÉSASTREUSE en essayant de forcer le Département de la Guerre à obéir à leurs conditions d'utilisation plutôt qu'à notre Constitution. » Il ordonne l'arrêt immédiat de tout usage d'Anthropic par les agences fédérales, avec un phase-out de six mois.

Hegseth, sur X, confirme la désignation officielle : Anthropic est désormais un « risque pour la chaîne d'approvisionnement de la sécurité nationale ». Traduction concrète : tout contractant ou fournisseur du Pentagone est interdit de travailler avec Anthropic. Pour une entreprise en préparation d'IPO, c'est un coup potentiellement fatal.

« Les combattants américains ne seront jamais pris en otage par les caprices idéologiques de la Big Tech », tonne Hegseth. « Cette décision est définitive. »

Le même jour, Emil Michael, sous-secrétaire à la Défense, traite Amodei de « menteur » avec un « complexe de Dieu » sur les réseaux sociaux.

OpenAI s'engouffre

Quelques heures après le bannissement d'Anthropic, Sam Altman, CEO d'OpenAI, annonce sur X un nouvel accord avec le département de la Guerre pour déployer ses modèles sur les réseaux classifiés.

Et voici le moment savoureux : Altman affirme que l'accord inclut exactement les mêmes garde-fous qu'Anthropic réclamait. « Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse domestique et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes », écrit-il. « Le département de la Guerre adhère à ces principes, les inscrit dans la loi et la politique, et nous les avons intégrés à notre accord. »

Lisez bien : OpenAI obtient les protections qu'Anthropic demandait. Le Pentagone, qui menaçait d'invoquer une loi de guerre contre une entreprise refusant de céder sur ces points, accepte soudain ces mêmes points. Et Sam Altman salue le « profond respect pour la sécurité » du département de la Guerre.

Sauf un détail : le gouvernement américain vient de prouver, dans les heures précédentes, qu'il détruira toute entreprise osant négocier fermement ces principes.

Le précédent qui glace

Désigner une entreprise comme « risque pour la chaîne d'approvisionnement » n'est pas un outil administratif banal. C'est une arme habituellement réservée aux adversaires étrangers : Huawei, ZTE, les entreprises chinoises soupçonnées d'espionnage. L'utiliser contre une entreprise américaine, fondée par des citoyens américains, pour avoir refusé de modifier un contrat commercial, c'est inédit.

Dean Ball, ancien conseiller IA de Trump, ne mâche pas ses mots : « C'est tout simplement une tentative d'assassinat d'entreprise. »

Une lettre ouverte signée par 11 employés d'OpenAI (l'entreprise concurrente qui vient de rafler le contrat), le CEO de Waymark et d'autres figures tech, dénonce : « Nous sommes convaincus que le gouvernement fédéral ne devrait pas exercer de représailles contre une entreprise privée pour avoir refusé des modifications à un contrat. »

Les sénateurs Ed Markey et Chris Van Hollen écrivent à Hegseth pour dénoncer un « abus glaçant du pouvoir gouvernemental ».

La leçon est limpide : vous pouvez avoir des principes éthiques, à condition qu'ils soient compatibles avec ce que le gouvernement vous demande. Sinon, vous êtes un risque pour la sécurité nationale.

Des garde-fous en papier

Quelle est la valeur d'un garde-fou quand le contexte prouve qu'y tenir coûte la survie de votre entreprise ?

Le jour où le Pentagone demandera à OpenAI d'assouplir l'une de ces clauses, Sam Altman saura exactement ce qui arrive aux entreprises qui disent non. Les garde-fous contractuels n'ont de valeur que si les deux parties négocient en position d'égalité. Quand l'une peut vous désigner « risque national » pour désaccord commercial, il n'y a plus de négociation. Il y a une façade.

L'histoire récente le confirme. En 2013, les révélations d'Edward Snowden ont montré que la NSA accédait directement aux serveurs de Google, Facebook, Microsoft, Apple et Yahoo via le programme PRISM, pendant que ces mêmes entreprises niaient publiquement toute coopération et affichaient des engagements stricts de confidentialité envers leurs utilisateurs. Les garde-fous existaient sur le papier. Derrière, les données circulaient.

Treize ans plus tard, le mécanisme change mais la dynamique reste la même : quand le gouvernement américain veut accéder à une technologie, les conditions d'utilisation des entreprises privées ne pèsent pas lourd.

L'ironie d'Anthropic

Il y a une ironie cruelle dans cette histoire. Anthropic, fondée en 2021 par des transfuges d'OpenAI inquiets de la direction prise par leur ancienne maison, s'est construit sur la promesse d'une IA « responsable ».

Mais la même semaine du conflit avec le Pentagone, Anthropic a discrètement retiré de sa documentation un engagement clé : la promesse de ne jamais déployer un modèle si les mesures de sécurité sont inadéquates. Et Dario Amodei note, avec un certain détachement, que la valorisation d'Anthropic a augmenté depuis le début du conflit.

Alors, Anthropic défend-il vraiment des principes, ou joue-t-il une partition marketing bien rodée ? La question est légitime. Mais elle ne change rien au précédent.

Ce qui reste

Anthropic a annoncé qu'il contestera en justice la désignation « supply-chain risk ». L'issue est incertaine. Ce qui est sûr, c'est qu'avant le 27 février, on pouvait croire que les entreprises tech américaines avaient un espace pour négocier des limites éthiques avec le gouvernement. Après, cet espace s'est révélé conditionnel.

L'éthique en IA n'est pas morte le 27 février. Elle est juste devenue un luxe que seuls les perdants peuvent se permettre.

Sujets abordés :

ÉthiqueGéopolitiqueDécryptage

Questions fréquentes

Pourquoi Anthropic a-t-il été banni par le gouvernement américain ?
Anthropic a refusé de retirer deux restrictions de son contrat avec le Pentagone : l'interdiction d'utiliser Claude pour la surveillance de masse domestique et pour des armes entièrement autonomes. Trump a ordonné l'arrêt de tout usage fédéral d'Anthropic en réponse.
OpenAI a-t-il les mêmes garde-fous qu'Anthropic dans son contrat militaire ?
Sam Altman affirme que l'accord d'OpenAI avec le Pentagone inclut les mêmes principes : interdiction de la surveillance de masse domestique et responsabilité humaine pour l'usage de la force. Mais ces garde-fous ont été obtenus après que le gouvernement a prouvé qu'il pouvait détruire une entreprise pour les avoir défendus.
Qu'est-ce que la désignation 'supply chain risk' ?
C'est un mécanisme habituellement réservé aux adversaires étrangers (comme Huawei) qui interdit à tout contractant militaire de travailler avec l'entreprise désignée. Son utilisation contre une entreprise américaine est sans précédent.
La newsletter IA gratuite