Zurück zum Blog
Branche

Anthropic gegen das Pentagon: Was passiert, wenn ein KI-Unternehmen Nein sagt

13. März 20268 Min.
Philip Blatter
Philip Blatter
Gründer & Geschäftsführer

Das Pentagon hat Anthropic zur nationalen Sicherheitsbedrohung erklärt – weil das Unternehmen Grenzen gezogen hat. Was das für europäische KI-Gründer bedeutet.

Was ist passiert?

Das Pentagon — unter Verteidigungsminister Pete Hegseth intern inzwischen "Department of War" genannt — hat Anthropic auf Basis von 10 U.S.C. § 3252 als "Supply Chain Risk to National Security" eingestuft. Das Gesetz wurde geschaffen, um chinesische Telekommunikationsausrüster aus militärischen Systemen fernzuhalten, die möglicherweise Backdoors eingebaut haben. Es wurde noch nie zuvor gegen ein amerikanisches Unternehmen eingesetzt.

Der Auslöser: Anthropic verweigerte in Vertragsverhandlungen die Entfernung zweier Nutzungsrichtlinien aus seinem Claude-Modell. Konkret: das Unternehmen lehnte es ab, Claude für massenhafte Inlandsüberwachung von US-Bürgern ohne richterliche Kontrolle sowie für letale autonome Waffensysteme ohne menschliche Entscheidungshoheit freizugeben. Hegseth forderte "all lawful uses" ohne jegliche vom Auftragnehmer auferlegte Beschränkung. Anthropic sagte Nein.

Die Konsequenz war drakonisch. Trump ordnete gleichzeitig an, dass alle Bundesbehörden Claude nicht mehr verwenden dürfen. Das Pentagon erhielt sechs Monate zur Abwicklung — eine seltsame Gnadenfrist für eine echte Sicherheitsbedrohung. Auf dem Spiel: ein Vertrag im Wert von bis zu 200 Millionen Dollar, Anthropics einzige Zulassung für klassifizierte Militärsysteme, abgewickelt über Palantir und AWS FedRAMP. Am 9. März reichte Anthropic zwei simultane Klagen ein — in Kalifornien gegen die Anordnung Trumps, vor dem D.C. Federal Appeals Court gegen die Supply-Chain-Einstufung selbst.

Klingt interessant?

Die Industrie-Reaktion

Was folgte, war bemerkenswert. Mehr als 30 führende KI-Forscher von OpenAI und Google DeepMind reichten im persönlichen Namen eine Amicus-Brief beim Gericht ein — darunter Jeff Dean, Chief Scientist bei Google DeepMind und einer der einflussreichsten KI-Wissenschaftler der Welt. Ihre Botschaft war klar: "The government's designation of Anthropic as a supply chain risk was an improper and arbitrary use of power that has serious ramifications for our industry.""The government's designation of Anthropic as a supply chain risk was an improper and arbitrary use of power that has serious ramifications for our industry." Und weiter: "National security is not served by reckless designations of the military's American technology partners as a 'supply chain risk' or the suppression of public discourse on AI safety.""National security is not served by reckless designations of the military's American technology partners as a 'supply chain risk' or the suppression of public discourse on AI safety."

OpenAI-CEO Sam Altman schlug derweil einen anderen Weg ein: Sein Unternehmen unterzeichnete noch am selben Tag einen eigenen Pentagon-Deal — und erntete dafür sofort Kritik. Altman gestand später öffentlich ein: "We shouldn't have rushed to get this out on Friday. We were genuinely trying to de-escalate things, but I think it just looked opportunistic and sloppy.""We shouldn't have rushed to get this out on Friday. We were genuinely trying to de-escalate things, but I think it just looked opportunistic and sloppy."

Die Konsequenzen waren intern gravierend. Caitlin Kalinowski, Leiterin Hardware & Robotics bei OpenAI, trat zurück. Ihre Begründung: "AI has an important role in national security. But surveillance of Americans without judicial oversight and lethal autonomy without human authorization are lines that deserved more deliberation than they got.""AI has an important role in national security. But surveillance of Americans without judicial oversight and lethal autonomy without human authorization are lines that deserved more deliberation than they got."

Auf Konsumentenseite kippte die Stimmung ebenfalls: Claude stieg laut Sensor Tower erstmals auf Platz 1 der US-iPhone-App-Charts — und die 1-Stern-Bewertungen für ChatGPT stiegen am Samstag, dem 28. Februar 2026 um 775 Prozent.

Warum das wichtiger ist, als es klingt

Zwei Präzedenzfälle helfen beim Einordnen — und beide zeigen, warum dieser Fall sie in den Schatten stellt.

Apple gegen FBI, 2016: Apple weigerte sich, eine iOS-Backdoor für das gesperrte iPhone des San-Bernardino-Attentäters zu bauen. Das FBI erstritt eine Gerichtsverfügung, fand am Ende aber selbst einen Weg. Apple hielt die ethische Linie — und zahlte dafür keinen substantiellen Preis.

Google Project Maven, 2018: Interne Proteste und Massenrücktritte bei Google führten dazu, dass das Unternehmen einen DoD-Vertrag zur KI-gestützten Drohnenzielerkennung nicht verlängerte. Der Druck kam von innen.

Der Anthropic-Fall 2026 ist strukturell anders — und drastischer. Hier greift eine Regierung nicht zu Gerichtsbeschlüssen, sondern zu einem Instrument der nationalen Sicherheitsarchitektur, das für feindliche Staaten konzipiert wurde, und richtet es gegen ein amerikanisches Unternehmen. Nicht weil es Sicherheitslücken hat, sondern weil es eine andere politische Meinung vertritt. Juristen nennen das einen eklatanten Verstoß gegen den First Amendment und gegen den Due Process. Michael Pastor von der New York Law School sagte es offen: "I've never seen a case like this. It would never have struck our minds that, when we were having difficulty in a negotiation, we would threaten the company essentially with destruction.""I've never seen a case like this. It would never have struck our minds that, when we were having difficulty in a negotiation, we would threaten the company essentially with destruction."

Das Muster ist erkennbar: Die Trump-Regierung setzt Regierungsaufträge als politische Waffe ein — gegen Anwaltskanzleien, Universitäten, jetzt gegen KI-Labore. Der Präzedenzfall ist gesetzt. Jedes Unternehmen, das KI-Infrastruktur für Regierungsbehörden bereitstellt und ethische Grenzen zieht, kann mit diesem Instrument konfrontiert werden.

Was das für europäische und deutsche Gründer bedeutet

Hier wird es konkret. Wenn du als DACH-Startup Claude, GPT-4, Gemini oder ein anderes proprietäres US-Modell in deinem Produkt verwendest — ob über API, über AWS Bedrock oder über Azure OpenAI — dann hast du einen blinden Fleck in deiner Risikoanalyse.

Das Anthropic-Urteil zeigt: Ein ausländisches Ministerium kann die Verfügbarkeit eurer Kerninfrastruktur per Dekret einschränken oder beenden. Die Entscheidung fällt in Washington, nicht in Berlin, Wien oder Zürich. Kein EU AI Act, keine DSGVO-Klausel schützt euch davor. Das ist kein theoretisches Szenario mehr — es ist ein laufendes Gerichtsverfahren.

Das Risiko ist nicht symmetrisch. Für ein amerikanisches Startup, das auf AWS läuft, ist es unangenehm. Für ein deutsches Healthtech oder ein österreichisches FinTech, das sensible Patientendaten oder Finanztransaktionen durch ein US-Modell schickt, ist es ein existenzielles Abhängigkeitsproblem. Nicht nur wegen Datenschutz, sondern wegen Infrastructure Sovereignty — wer kontrolliert letztlich das Modell, das eurem Produkt das Denken übernimmt?

Der EU AI Act hat das strukturell richtig erkannt: Die Hochrisikokategorien verlangen Transparenz, Nachvollziehbarkeit und Kontrolle. Aber er schützt nicht gegen politische Willkür eines Drittstaates. Das muss ein anderes Instrument lösen.

Und genau hier kommt nopex ins Spiel.

Wir haben nopex nicht gegründet, weil KI-Infrastruktur-Souveränität ein schönes Buzzword ist. Wir haben es gegründet, weil die Abhängigkeit von US-Anbietern ein strukturelles Risiko ist, das sich früher oder später materialisieren würde. Jetzt sehen wir es live.

nopex ermöglicht Unternehmen und Behörden in Europa den Betrieb von KI-Infrastruktur auf Basis offener Modelle — lokal oder in europäischen Rechenzentren, ohne US-Cloud-Abhängigkeit. Kein Modell, das von Washington aus abgeschaltet werden kann. Keine Terms of Service, die sich nach politischem Klima verschieben. Keine Nutzungsdaten, die über den Atlantik fließen. DSGVO-konform per Design, nicht als Compliance-Checkbox. Und kein ausländisches Ministerium, das euren Stack zur "Supply Chain Risk" erklären kann — egal was in den nächsten vier Jahren politisch passiert.

Wer heute KI in kritischen Prozessen einsetzt, muss sich fragen: Wessen Infrastruktur ist das eigentlich? nopex ist die Antwort für alle, die diese Frage ernst nehmen.

**Mehr über nopex erfahren →**

KI-PolitikAI SovereigntyAnthropicEU AI ActnopexGründer
Teilen:

Bereit, dein Projekt zu starten?

Erleben Sie, wie nopex Ihr Team produktiver macht.