Der beispiellose Vorstoß der Trump-Regierung gegen Anthropic wegen KI-Sicherheitsregeln bringt staatliche Auftragnehmer dazu, den Einsatz des Chatbots Claude zu überdenken.
Die US-Regierung macht ihre Drohung wahr: Sie stuft das KI-Unternehmen Anthropic offiziell als Risiko für die Lieferkette ein. Dieser beispiellose Schritt könnte andere Regierungsauftragnehmer zwingen, den KI-Chatbot Claude aus ihren Systemen zu verbannen.
Das Pentagon teilte am Donnerstag mit, es habe die Anthropic-Spitze „offiziell darüber informiert, dass das Unternehmen und seine Produkte mit sofortiger Wirkung als Lieferkettenrisiko eingestuft werden“.
Die Entscheidung ließ kaum Raum für weitere Verhandlungen mit Anthropic. Sie erfolgte knapp eine Woche, nachdem Präsident Donald Trump und Verteidigungsminister Pete Hegseth dem Unternehmen vorgeworfen hatten, die nationale Sicherheit zu gefährden.
Trump und Hegseth hatten bereits am vergangenen Freitag, am Vorabend des Iran-Kriegs, eine Reihe angedrohter Strafmaßnahmen verkündet. Anthropic-Chef Dario Amodei war zuvor bei seiner Haltung geblieben, weil er befürchtet, dass die Produkte des Unternehmens für die Massenüberwachung von US-Bürgern oder für autonome Waffensysteme eingesetzt werden könnten.
Amodei erklärte am Donnerstag, man halte das Vorgehen rechtlich für nicht haltbar und sehe sich gezwungen, dagegen vor Gericht zu ziehen.
„Es geht um ein grundlegendes Prinzip: Das Militär muss Technologie für alle rechtmäßigen Zwecke nutzen können“, hieß es in der Pentagon-Erklärung.
„Das Militär wird es keinem Anbieter erlauben, sich in die Befehlskette einzuschalten, indem er die rechtmäßige Nutzung einer kritischen Fähigkeit einschränkt und damit unsere Soldaten gefährdet“, hieß es weiter.
Amodei entgegnete, die eng gefassten Ausnahmen, die Anthropic zum Schutz vor Überwachung und autonomen Waffen durchsetzen wolle, beträfen nur übergeordnete Anwendungsfelder und nicht operative Entscheidungen im Einsatz.
Er fügte hinzu, es habe in den vergangenen Tagen „konstruktive Gespräche“ mit dem Pentagon gegeben – sowohl über eine weitere Nutzung von Claude als auch über einen „geordneten Übergang“, falls keine Einigung gelinge.
Trump setzte dem Militär eine Frist von sechs Monaten, um Claude auslaufen zu lassen. Die Software steckt bereits tief in vielen militärischen und sicherheitspolitischen Systemen. Amodei betonte, es habe höchste Priorität, sicherzustellen, dass die Soldaten mitten in größeren Kampfoperationen nicht „wichtiger Werkzeuge beraubt“ würden.
Einige Rüstungsunternehmen beginnen bereits, sich von Anthropic zu lösen. Die Firma gilt in der Techbranche als aufsteigender Star und verkauft Claude an zahlreiche Firmen und Behörden.
Der Rüstungskonzern Lockheed Martin erklärte, man werde „den Vorgaben des Präsidenten und des Kriegsministeriums folgen“ und sich nach anderen Anbietern großer Sprachmodelle umsehen.
„Wir rechnen mit nur geringen Auswirkungen, da Lockheed Martin bei keinem Teil seiner Arbeit von einem einzelnen LLM-Anbieter abhängig ist“, teilte das Unternehmen mit.
Unklar ist, wie weit das US-Verteidigungsministerium die neue Einstufung auslegen wird. Laut Amodei geht aus einer Mitteilung hervor, die Anthropic am Mittwoch vom Pentagon erhalten hat, dass das Verbot nur für den Einsatz von Claude gilt, der „direkt Teil“ eines Militärvertrags ist.
Microsoft erklärte, die eigenen Juristen hätten die Vorschrift geprüft; das Unternehmen könne weiterhin mit Anthropic an Projekten ohne Verteidigungsbezug zusammenarbeiten.
Pentagon erntet Kritik für seine Entscheidung
Auf scharfe Kritik stößt, dass das Pentagon eine Regel anwendet, die eigentlich Risiken in der Lieferkette durch ausländische Gegner adressieren soll. In den US-Bestimmungen ist ein Lieferkettenrisiko definiert als die Gefahr, dass ein Gegner ein System sabotiert, heimlich unerwünschte Funktionen einbaut oder es anderweitig unterwandert, um es zu stören, zu schwächen oder auszuspionieren.
Die demokratische US-Senatorin Kirsten Gillibrand aus New York, Mitglied im Streitkräfte- und im Geheimdienstausschuss, nannte das Vorgehen „einen gefährlichen Missbrauch eines Instruments, das für von Gegnern kontrollierte Technologien gedacht ist“.
„Diese verantwortungslose Maßnahme ist kurzsichtig, selbstschädigend und ein Geschenk an unsere Gegner“, erklärte sie am Donnerstag schriftlich.
Neil Chilson, früher Chef-Technologe der Wettbewerbsbehörde FTC und heute Leiter der KI-Politik beim Abundance Institute, sprach von einem „massiven Übergriff, der sowohl der US-KI-Branche als auch der Fähigkeit des Militärs schadet, die beste Technologie für die eigenen Soldaten zu beschaffen“.
Schon zuvor hatten ehemalige Verteidigungs- und Sicherheitsexperten in einem Brief an US-Abgeordnete ihre „ernste Sorge“ über die Einstufung zum Ausdruck gebracht.
„Der Einsatz dieser Befugnis gegen ein amerikanisches Unternehmen im Inland weicht grundlegend von ihrem eigentlichen Zweck ab und schafft einen gefährlichen Präzedenzfall“, heißt es in dem Schreiben ehemaliger Regierungsvertreter und Politikexperten, darunter Ex-CIA-Direktor Michael Hayden sowie pensionierte Spitzenmilitärs von Luftwaffe, Heer und Marine.
Die Autorinnen und Autoren betonten, eine solche Einstufung solle „die Vereinigten Staaten vor der Unterwanderung durch ausländische Gegner schützen – vor Unternehmen, die Peking oder Moskau verpflichtet sind, nicht vor amerikanischen Innovatoren, die transparent und im Rahmen des Rechtsstaats agieren“. Dieses Instrument einzusetzen, um eine US-Firma zu bestrafen, weil sie Sicherheitsbarrieren gegen massenhafte Überwachung im Inland und vollständig autonome Waffen nicht abbauen will, sei ein Kategorienfehler mit Folgen, die weit über den aktuellen Konflikt hinausreichten.
Anthropic verzeichnet Boom bei Verbraucher-Downloads
Parallel zum Verlust wichtiger Rüstungspartner erlebte Anthropic in der vergangenen Woche einen Ansturm von Privatkundinnen und -kunden, die sich mit der moralischen Haltung des Unternehmens solidarisieren. Täglich meldeten sich nach Firmenangaben mehr als eine Million Menschen neu bei Claude an. Damit stieg der Dienst in Apples App Store in mehr als zwanzig Ländern zur meistgeladenen KI-App auf und überholte OpenAIs ChatGPT und Googles Gemini.
Der Streit mit dem Pentagon verschärft zugleich die ohnehin erbitterte Rivalität mit OpenAI. Sie begann, als frühere Spitzenkräfte von OpenAI, darunter Amodei, im Jahr 2021 Anthropic gründeten.
Wenige Stunden nachdem das Pentagon Anthropic am vergangenen Freitag sanktioniert hatte, verkündete OpenAI einen Vertrag, nach dem ChatGPT Anthropic in geheimen Militärumgebungen faktisch ersetzen soll.
OpenAI erklärte, man habe ursprünglich ähnliche Schutzklauseln gegen Überwachung im Inland und vollständig autonome Waffen angestrebt, habe die Verträge später jedoch ändern müssen. CEO Sam Altman räumte ein, er hätte das Abkommen nicht so überstürzt abschließen dürfen; es habe „opportunistisch und schlampig“ gewirkt.
Auch Amodei zeigte sich reumütig über seinen Anteil an diesem „schwierigen Tag für das Unternehmen“. Er wolle sich, so sagte er am Donnerstag, „direkt entschuldigen“ für eine interne Nachricht an die Belegschaft, in der er das Verhalten von OpenAI scharf angegriffen und nahegelegt hatte, Anthropic werde bestraft, weil man Trump keinen „diktatorhaften Beifall“ zolle.