Anthropic zieht am Dienstag vor ein Bundesgericht in San Francisco, um eine einstweilige Verfügung gegen die Einstufung der US-Regierung als Sicherheitsrisiko zu erwirken.
Der Konflikt zwischen Anthropic und der US-Regierung dürfte am Dienstag seinen Höhepunkt erreichen. Dann will das KI-Unternehmen vor einem Bundesgericht eine einstweilige Verfügung gegen das US-Kriegsministerium und das Weiße Haus erwirken.
Dem voraus ging eine Entscheidung von US-Präsident Donald Trump und Verteidigungsminister Pete Hegseth im Februar. Sie kündigten öffentlich an, die Zusammenarbeit mit dem KI-Unternehmen zu beenden, weil Anthropic eine uneingeschränkte militärische Nutzung seines Claude-KI-Modells ablehnte. Streitpunkt sind unter anderem tödliche autonome Waffensysteme ohne menschliche Kontrolle sowie eine mögliche Massenüberwachung von US-Bürgerinnen und -Bürgern.
Daraufhin stufte die US-Regierung Anthropic als „Risiko für die nationale Sicherheit in der Lieferkette“ ein und wies Bundesbehörden an, Claude nicht mehr zu nutzen.
Der Fall zeigt, wie sich bei fortgeschrittener KI ethische, wirtschaftliche und rechtliche Fragen überlagern. Er wirft die Frage auf, wer die Grenzen der Technologie setzen soll: Tech-Konzerne, die sich an interne Sicherheitsprinzipien halten, oder staatliche Stellen, die im Namen der nationalen Sicherheit und geopolitischer Interessen handeln?
Die wichtigsten Punkte zur anstehenden Anhörung im Überblick.
Die Anhörung findet vor der US-Bundesrichterin Rita Lin in San Francisco statt. Sie hat den ursprünglich auf den dritten April angesetzten Termin vorgezogen.
Was Anthropic vor Gericht fordert
Anthropic wehrt sich gegen die Einstufung als „Risiko in der Lieferkette“. Mitgründer und Geschäftsführer Dario Amodei (Quelle auf Englisch) betont, Anthropic habe „keine andere Wahl, als dies vor Gericht anzufechten“.
Am neunten März reichte Anthropic zwei Klagen gegen die Regierung ein. Eine davon verlangt, die Einstufung des Pentagons nach der bestehenden Rechtsgrundlage zu überprüfen.
Nach Ansicht des Unternehmens ist die Aufnahme auf eine schwarze Liste „beispiellos und rechtswidrig“. Bisher traf eine solche Maßnahme nur ausländische Gegner wie Huawei. Sie dürfe nicht als Druckmittel gegen ein inländisches Unternehmen missbraucht werden, nur weil es eine andere politische Linie vertrete.
Die zweite Klage stützt sich auf den ersten Zusatzartikel der US-Verfassung, also auf Meinungs- und Versammlungsfreiheit. Die Einstufung gefährde diese Grundrechte, so Anthropic.
Was das US-Kriegsministerium vorbringt
Im Jahr zweitausendfünfundzwanzig schloss Anthropic mit dem Pentagon einen Vertrag über zweihundert Millionen Dollar. Die Technologie des Unternehmens sollte in geheimen Systemen zum Einsatz kommen. In späteren Gesprächen erklärte Anthropic jedoch, seine KI dürfe nicht für Massenüberwachung genutzt werden und sei noch nicht reif für Entscheidungen über den Einsatz von Waffen.
In einer Stellungnahme vom siebzehnten März (Quelle auf Englisch) erklärte das Kriegsministerium, es befürchte, Anthropic könne versuchen, seine Technologie zu deaktivieren oder das Verhalten seines Modells im Vorfeld oder sogar während „Kampfoperationen“ zu verändern, falls das Unternehmen den Eindruck habe, seine eigenen „roten Linien“ würden überschritten.
Anthropic hält dem entgegen, diese Sorge sei in den Vertragsverhandlungen nie zur Sprache gekommen und tauche erst jetzt in den Schriftsätzen der Regierung auf.
Euronews Next hat Anthropic um eine Stellungnahme gebeten, bis zur Veröffentlichung jedoch keine Antwort erhalten.
Richterin Lin wird nun prüfen, ob sie Anthropic vorläufigen Rechtsschutz gewährt.
Auswirkungen über den Einzelfall hinaus
KI-Fachleute und Forschende, darunter Teams von OpenAI, Google und Microsoft, sowie juristische Organisationen haben dem Gericht Stellungnahmen zugunsten von Anthropic vorgelegt.
Das Pentagon konzentriert sich inzwischen auf die Zusammenarbeit mit anderen KI-Anbietern, darunter OpenAI, xAI und Google.