„Er, Präsident Trump, will der KI-Branche beibringen, sich wie alle anderen zu fügen“, sagt der Informatiker Ben Goertzel zu Euronews.
Das Verbot der US-Regierung gegen Anthropic wirkt wie eine Strafaktion. Vorausgegangen war ein öffentlicher Streit mit dem Pentagon, weil das Unternehmen den uneingeschränkten militärischen Einsatz seines Claude-KI-Modells verweigert.
Anthropic stellte am Dienstag vor einem Bundesgericht in San Francisco seinen Antrag vor. Das Unternehmen fordert eine einstweilige Verfügung gegen die Entscheidung der US-Regierung, es als Risiko für die nationale Sicherheit auf eine schwarze Liste zu setzen.
Bezirksrichterin Rita F. Lin sagte gleich zu Beginn der Anhörung, es sehe "nach dem Versuch aus, Anthropic lahmzulegen". Sie zeigte sich besorgt, die Regierung könne Anthropic dafür bestrafen, dass das Unternehmen die Haltung der Behörden offen kritisiert habe, berichteten US-Medien (Quelle auf Englisch).
US-Präsident Donald Trump und Verteidigungsminister Pete Hegseth erklärten im Februar öffentlich, die Regierung kappe die Beziehungen zu dem Unternehmen für künstliche Intelligenz, nachdem dieses sich geweigert hatte, den uneingeschränkten militärischen Einsatz seines Claude-Modells zu erlauben. Umstritten sind unter anderem der Einsatz tödlicher autonomer Waffen ohne menschliche Kontrolle sowie eine massenhafte Überwachung von US-Bürgerinnen und -Bürgern.
Als Reaktion stufte die US-Regierung Anthropic als "Lieferkettenrisiko für die nationale Sicherheit" ein und ordnete an, dass Bundesbedienstete Claude nicht mehr nutzen dürfen.
Am neunten März reichte Anthropic zwei Klagen gegen die Regierung ein. In einer verlangt das Unternehmen eine Neubewertung der Einstufung als Lieferkettenrisiko. In der anderen wirft es der Trump-Regierung vor, das durch den Ersten Verfassungszusatz garantierte Recht auf freie Meinungsäußerung verletzt zu haben.
Lin betonte im Gerichtssaal, das Pentagon könne selbst entscheiden, welche KI-Produkte es einsetzt. Zugleich stellte sie laut NPR infrage, ob die Regierung gegen das Gesetz verstößt, wenn sie Bundesbehörden verbietet, Anthropic zu nutzen, und wenn Hegseth erklärt, alle, die Beziehungen zum Pentagon suchten, sollten die Zusammenarbeit mit Anthropic beenden.
Ein Anwalt der Regierung sagte, das Vorgehen des Pentagon sei keine Vergeltung. Grundlage seien die möglichen Einsatzszenarien des Claude-Modells und nicht die Entscheidung des Unternehmens, den Konflikt öffentlich zu machen.
NPR berichtete zudem, die Regierung sehe Anthropic auch künftig als potenzielles Risiko, weil das Unternehmen sein Claude-KI-Modell so weiterentwickeln könnte, dass dadurch die nationale Sicherheit gefährdet würde.
Euronews Next bat Anthropic um eine Stellungnahme, erhielt bis zum Zeitpunkt der Veröffentlichung jedoch keine Antwort.
Gerichtsentscheidung: Folgen für KI-Unternehmen
Die Einstufung als Lieferkettenrisiko betrifft in der Regel nur ausländische Unternehmen.
"Diese Einstufung wirkt hier unangebracht", sagte der Informatiker Ben Goertzel, Geschäftsführer von SingularityNet und The Artificial Superintelligence Alliance.
"Damit kann die Exekutive Worte und Gesetze nach Belieben umdeuten", sagte er Euronews Next.
Goertzel warnte, im härtesten Szenario könnte die Einstufung bedeuten, dass Anthropic keiner Firma mehr Software verkaufen darf, die Geschäfte mit der Regierung macht. Das wäre "extrem schlecht für das Unternehmen".
Finanziell werde Anthropic dennoch überleben, sagte er. Außerhalb staatlicher Aufträge gebe es deutlich mehr Geschäft, und "in dem Teil des Landes, der kein großer Fan von Donald Trump ist, würde das Unternehmen zusätzlichen Rückenwind bekommen".
Kurzfristig hätte eine Bestätigung der Einstufung jedoch einen anderen Effekt: Sie würde "andere Unternehmen davon abschrecken, sich der Trump-Regierung entgegenzustellen".
"Er [Präsident Trump] versucht, der KI-Branche beizubringen, sich wie alle anderen einzuordnen", sagte Goertzel.
Richterin Lin kündigte an, in den kommenden Tagen entscheiden zu wollen, ob sie das Regierungsverbot vorläufig aussetzt, während das Gericht den Fall in der Sache weiter prüft.