Das Kriegsministerium stufte Anthropic als „Risiko für die Lieferkette“ ein und kann das Unternehmen nun von Ausschreibungen und Partnern fernhalten.
Microsoft, ehemalige Militärs und Thinktanks für Künstliche Intelligenz stellen sich im Verfahren hinter Anthropic. Das Unternehmen will erreichen, dass die unter der Trump-Regierung erfolgte Einstufung als „Risiko für die Lieferkette“ aufgehoben wird.
Die Maßnahmen des US-Kriegsministeriums (Department of War, DOW) zwängen Regierungsauftragnehmer, vage und schlecht definierte Vorgaben zu befolgen, die noch nie zuvor öffentlich gegen ein US-Unternehmen eingesetzt wurden, heißt es in Microsofts Rechtsgutachten.
Microsoft warnt, das Etikett „Risiko für die Lieferkette“ könne gravierende wirtschaftliche Folgen nach sich ziehen, die nicht im öffentlichen Interesse liegen. Der Konzern fordert das Gericht auf, die Einstufung vorläufig außer Kraft zu setzen.
Die Schriftsätze knüpfen an eine Klage an, die Anthropic in der vergangenen Woche gegen das US-Kriegsministerium eingereicht hat.
Mit dem Label „Risiko für die Lieferkette“ kann die Regierung Anthropic von Ausschreibungen ausschließen, Produkte des Unternehmens nicht mehr berücksichtigen und Hauptauftragnehmern verbieten, mit Anthropic zusammenzuarbeiten.
Bis vor Kurzem war Anthropic das einzige Unternehmen seiner Branche, das für den Einsatz in geheimen Militärnetzen zugelassen war. Der KI-Chatbot kam in den geheimen Informationsnetzen der US-Regierung zum Einsatz, in nationalen Nuklearlaboren und bei der Auswertung von Geheimdienstinformationen für das Kriegsministerium.
Anthropic-Klage: Wer sich hinter das Unternehmen stellt
Mehrere gemeinsame Schriftsätze zugunsten Anthropics wurden von US-Militärs, großen Tech-Konzernen und KI-Organisationen eingereicht.
Das Vorgehen von US-Verteidigungsminister Pete Hegseth gegen Anthropic „gefährdet die rechtsstaatlichen Grundsätze, die unsere Streitkräfte seit Langem stärken“, heißt es in einem Schriftsatz, den unter anderem Michael Hayden unterstützt, der frühere Direktor des US-Geheimdienstes CIA.
Die Unterzeichner werfen Hegseth zudem vor, seine Amtsgewalt zu missbrauchen, um sich „an einem privaten Unternehmen zu rächen, das der politischen Führung missfallen hat“.
Der Schriftsatz der ehemaligen Militärs warnt, die „plötzliche Unsicherheit“ über eine Technologie, die in vielen militärischen Plattformen steckt, könne die Einsatzplanung durcheinanderbringen und Soldaten bei laufenden Operationen wie dem Krieg im Iran gefährden.
Ein weiterer Schriftsatz (Quelle auf Englisch), eingereicht im Namen von 37 KI-Ingenieurinnen und -Ingenieuren, die früher bei OpenAI und Googles DeepMind gearbeitet haben, spricht von einem „unzulässigen und willkürlichen Einsatz staatlicher Macht mit gravierenden Folgen für unsere Branche“.
„Wenn dieses Vorgehen gegen eines der führenden US-KI-Unternehmen bestehen bleibt, wird es unweigerlich Auswirkungen auf die industrielle und wissenschaftliche Wettbewerbsfähigkeit der Vereinigten Staaten im Bereich der Künstlichen Intelligenz und darüber hinaus haben“, heißt es weiter. „Außerdem wird es offene Debatten in unserem Fachgebiet über Chancen und Risiken heutiger KI-Systeme abwürgen.“
Ein weiterer Schriftsatz warnt, es sei leicht, sich „eine Welt vorzustellen, in der die Regierung de facto kontrolliert, was alle Amerikaner tun und sagen“, falls sie die Richtlinien von Anthropic vorgeben könne.
Der gemeinsame Schriftsatz (Quelle auf Englisch) unter anderem der Electronic Frontier Foundation und des Cato Institute argumentiert, die Maßnahmen der Regierung verstießen gegen den First Amendment, also den Verfassungszusatz, der die Meinungsfreiheit garantiert.
„Das Vorgehen der Regierung bedroht die Lebendigkeit und Unabhängigkeit unserer Demokratie“, heißt es dort.
Konflikt um Anthropic: Wie es zum Streit kam
Der Konflikt zwischen Anthropic und dem US-Militär begann, als das Unternehmen den Streitkräften keinen uneingeschränkten Zugriff auf seinen KI-Chatbot Claude gewähren wollte. Die Regierung setzte Anthropic eine Frist von 48 Stunden, um den Zugang doch noch zu öffnen, sonst drohten Sanktionen.
Anthropic-Chef Dario Amodei erklärte, das Unternehmen habe dem Militär zwei rote Linien gesetzt: Die Technologie dürfe weder für flächendeckende Überwachung im Inland eingesetzt noch in vollständig autonome Waffen integriert werden.
In einer Stellungnahme (Quelle auf Englisch) vom 26. Februar schrieb Amodei, er könne „dem Wunsch des Pentagon nach uneingeschränktem Zugang zu unseren KI-Systemen mit gutem Gewissen nicht nachkommen“.
„In einem engen Spektrum von Fällen glauben wir, dass KI demokratische Werte eher untergraben als schützen kann“, schrieb er. „Manche Anwendungen liegen außerdem schlicht außerhalb dessen, was heutige Technologie sicher und verlässlich leisten kann.“
Microsoft stellte sich in seinem Gerichtsschriftsatz hinter diese roten Linien. „Amerikanische KI sollte weder für Massenüberwachung im Inland genutzt noch dazu eingesetzt werden, ohne menschliche Kontrolle einen Krieg zu beginnen“, heißt es darin. Diese Haltung sei „im Einklang mit dem geltenden Recht“.
Laut einer Erklärung Hegseths soll Claude in den kommenden sechs Monaten schrittweise aus militärischen Anwendungen herausgelöst werden.
Amodei erklärte in einer weiteren Stellungnahme, das Kriegsministerium könne frei entscheiden, mit welchen Unternehmen es für bestimmte Projekte zusammenarbeite. „Angesichts des erheblichen Nutzens, den Anthropics Technologie für unsere Streitkräfte bringt, hoffen wir jedoch, dass das Ministerium seine Entscheidung überdenkt.“