Anthropic auf der Pentagon-Blacklist: KI-Ethik trifft militärische Realpolitik

4 Min. Lesezeit
Artikel

Ein Berufungsgericht bestätigt die Aufnahme von Anthropic auf die Pentagon-Schwarze Liste. Zum ersten Mal wird ein Anti-China-Gesetz gegen ein amerikanisches Unternehmen eingesetzt.

Der kostenlose KI-Newsletter
Anthropic auf der Pentagon-Blacklist: KI-Ethik trifft militärische Realpolitik

Das Paradox des 8. April

Am 8. April 2026 verlor Anthropic seine Berufung vor einem föderalen Berufungsgericht in Washington. Das Urteil bestätigt, dass das Pentagon die Einstufung als "Supply-Chain-Risiko" gegenüber dem kalifornischen Unternehmen aufrechterhalten kann.

Was dieses Urteil besonders macht: Noch vor weniger als einem Jahr war Anthropic das erste KI-Unternehmen, das seine Modelle auf den klassifizierten Netzwerken des Pentagons einsetzt. Im Juli 2025 wurde Claude das erste große Sprachmodell, das in hochgesicherten militärischen Umgebungen betrieben werden durfte. Heute steht dasselbe Unternehmen auf derselben Liste wie Huawei.

Man darf sich fragen, was zwischen diesen beiden Momenten schiefgelaufen ist.

200 Millionen Dollar und eine entscheidende Klausel

Am Anfang steht ein im Juli 2025 unterzeichneter Vertrag über 200 Millionen Dollar. Anthropic integriert Claude in klassifizierte operative Arbeitsabläufe. Das Pentagon akzeptiert im Gegenzug eine "Acceptable Use Policy": Claude darf nicht für vollständig autonome Waffensysteme oder zur Massenüberwachung amerikanischer Bürger eingesetzt werden.

Das ist keine nebensächliche Klausel. Es ist der Unterschied zwischen der Bereitstellung eines Werkzeugs und der Bereitstellung eines Werkzeugs zu eigenen Bedingungen. Anthropic hat seine Bedingungen durchgesetzt, und das DOD hat sie akzeptiert.

Anfang 2026 ändert sich die Lage. Die Trump-Administration drängt auf Nachverhandlung. Das Pentagon möchte Claude nun "für alle rechtmäßigen Zwecke" ohne Einschränkungen nutzen. Anthropic lehnt ab. Keine Garantien bei autonomen Waffen, kein Vertrag.

Daraufhin holt Pete Hegseth schweres Geschütz heraus.

Ein Gesetz für Huawei

10 U.S.C. § 3252 ist eine Bestimmung des US-amerikanischen Rechts, die geschaffen wurde, um militärische Lieferketten vor feindlichen ausländischen Akteuren zu schützen. In der Praxis diente sie hauptsächlich dazu, chinesische Telekommunikationsausrüster von amerikanischen Staatsaufträgen auszuschließen.

Anthropic ist das erste amerikanische Unternehmen, das davon betroffen ist. Laut der Rechtsexpertin Tess Bridgeman von Just Security stellt die Einstufung eines amerikanischen Unternehmens unter dieser Rechtsgrundlage einen beispiellosen Präzedenzfall dar. Zudem sei der tatsächliche Geltungsbereich des Gesetzes enger als von Hegseth behauptet: Es verbiete die Nutzung in nationalen Sicherheitssystemen, nicht in der gesamten kommerziellen Tätigkeit.

Das Berufungsgericht seinerseits hat nicht über die inhaltlichen Fragen entschieden. Es hat lediglich die Aussetzung der Einstufung während des laufenden Verfahrens abgelehnt. Die Begründung: "Auf der einen Seite das Risiko eines finanziellen Schadens für ein einzelnes Unternehmen. Auf der anderen die richterliche Steuerung der KI-Beschaffung, die für das Militär in einem aktiven Konflikt entscheidend ist."

Kurzum: Im Zweifel profitiert das Pentagon, nicht Anthropic.

Die Ironie des gespaltenen Ergebnisses

Die aktuelle Lage ist schizophren. Das Washingtoner Berufungsgericht lässt die Blacklist passieren. Ein Bundesrichter in San Francisco hat in einem parallelen Verfahren Anthropic eine einstweilige Verfügung gewährt, die das Verbot von Claude bei anderen Bundesbehörden blockiert.

Das konkrete Ergebnis: Anthropic kann nicht für das Pentagon arbeiten. Aber die CIA, das Außenministerium oder jede andere Bundesbehörde können Claude weiterhin nutzen. Auftragnehmer, die für das DOD tätig sind, müssen bescheinigen, dass sie die Modelle von Anthropic in diesem spezifischen Rahmen nicht verwenden.

Es ist, als würde man aus der Fleischabteilung eines Supermarkts verbannt, darf aber überall sonst im Laden einkaufen. Unangenehm, aber nicht fatal.

Der amtierende Generalstaatsanwalt Todd Blanche begrüßte "einen entscheidenden Sieg für die militärische Bereitschaft" und fügte hinzu, dass "die militärische Autorität dem Oberbefehlshaber gehört, nicht einem Technologieunternehmen." Das ist nicht falsch. Es umgeht nur sorgfältig die eigentliche Frage.

Die eigentliche Frage, die man vermeidet

Anthropic versucht nicht, die amerikanische Militärpolitik zu diktieren. Das Unternehmen hat zwei Bedingungen gestellt: keine vollständig autonomen Waffen, keine Massenüberwachung amerikanischer Bürger. Zwei Linien, die sich in den Debatten des europäischen KI-Gesetzes, in den ethischen Grundsätzen eines Dutzends von Regierungen und in den Empfehlungen der UN wiederfinden.

Das Pentagon hat diese Bedingungen im Juli 2025 akzeptiert. Anthropic ist nicht die Partei, die ihre Position geändert hat.

Die konkrete Frage, die dieser Fall der KI-Branche stellt: Kann man einem staatlichen Kunden vertragliche Nutzungsbeschränkungen auferlegen und politisch überleben, wenn sich die Administration ändert?

Die Antwort lautet derzeit: nein. Oder zumindest: nicht ohne einen Preis zu zahlen.

Was als nächstes kommt

Diese Entscheidung ist nicht endgültig. Das Berufungsgericht hat nur die vorläufige Aussetzung abgelehnt. Der eigentliche Fall - einschließlich Anthropics Verfassungsargumenten zum ersten und fünften Zusatzartikel - ist noch nicht entschieden.

Anthropic hat erklärt, "zuversichtlich zu sein, dass die Gerichte diese Einstufungen als rechtswidrig erkennen werden." Das ist die Position, die man in einem solchen Kontext öffentlich vertreten muss. Was sie wert ist, werden wir erfahren, wenn das Urteil in der Sache ergeht.

Bis dahin beobachtet jedes KI-Unternehmen, das eine Zusammenarbeit mit Regierungen erwägt, diesen Fall genau. Denn der eigentliche Präzedenzfall, der hier entsteht, ist nicht nur rechtlicher, sondern auch politischer Natur. Und er wird definieren, was "KI-Ethik" noch bedeuten kann, wenn der Kunde das Pentagon heißt.

Behandelte Themen:

GeopolitikAnthropicNachrichten

Häufig gestellte Fragen

Warum hat das Pentagon Anthropic auf die Blacklist gesetzt?
Das Pentagon hat Anthropic als Risiko für die Lieferkette eingestuft, nachdem das Unternehmen sich geweigert hatte, seine ethischen Nutzungsbeschränkungen aufzuheben (insbesondere zu autonomen Waffen und Massenüberwachung). Die Trump-Administration wollte Claude ohne Bedingungen nutzen.
Was ist 10 U.S.C. § 3252?
Es handelt sich um ein US-Gesetz, das geschaffen wurde, um feindliche ausländische Lieferanten (wie Huawei) vom Militäreinkauf auszuschließen. Anthropic ist das erste amerikanische Unternehmen, das davon betroffen ist - ein rechtlicher Präzedenzfall ohne Gleichgewicht.
Kann Anthropic noch mit der US-Regierung zusammenarbeiten?
Ja, teilweise. Die Blacklist betrifft nur das Pentagon. Ein Bundesrichter in San Francisco hat eine einstweilige Verfügung erlassen, die Anthropic den Zugang zu anderen Bundesbehörden (CIA, Außenministerium usw.) schützt.
Ist diese Entscheidung endgültig?
Nein. Das Berufungsgericht hat lediglich die vorläufige Aussetzung der Einstufung abgelehnt. Der eigentliche Fall - einschließlich Anthropics Verfassungsargumenten zum ersten und fünften Zusatzartikel - ist noch nicht entschieden.
Was bedeutet das für andere KI-Unternehmen?
Dieser Fall schafft einen politischen Präzedenzfall: Ein KI-Unternehmen, das einem Regierungskunden vertragliche Nutzungsbeschränkungen auferlegt, riskiert Sanktionen, wenn die Regierung wechselt. Alle Unternehmen, die mit Regierungen zusammenarbeiten, beobachten diesen Fall genau.
Der kostenlose KI-Newsletter