Das Pentagon stuft Anthropic seit vergangener Woche als Risiko für die Lieferkette ein. Firmen im Verteidigungsministerium dürfen Claude nun nicht mehr nutzen.
Anthropic hat das US-Verteidigungsministerium am Montag vor Gericht verklagt, nachdem die Behörde das Unternehmen in der vergangenen Woche als Risiko für die Lieferkette eingestuft hatte.
Die Klage folgt auf einen Konflikt zwischen Anthropic und dem Verteidigungsministerium darüber, ob das Militär uneingeschränkten Zugriff auf die KI-Systeme von Anthropic erhalten soll.
Das Pentagon verhängte vergangene Woche Sanktionen gegen den Entwickler von Claude und bewertete ihn als Risiko für die Lieferkette. Firmen, die direkt mit dem Ministerium zusammenarbeiten, müssen den Einsatz von Claude in einschlägigen Projekten einstellen.
US-Präsident Donald Trump kündigte zudem an, die Bundesbehörden anzuweisen, Claude nicht mehr zu nutzen. Dem Pentagon gab er jedoch sechs Monate Zeit, um ein Produkt aus hochgeheimen Militärsystemen herauszulösen, das dort tief integriert ist – darunter in Systemen, die im Krieg mit Iran zum Einsatz kamen.
„Wir halten dieses Vorgehen rechtlich für nicht haltbar und sehen keine andere Möglichkeit, als es vor Gericht anzufechten“, schrieb Anthropic-Chef Dario Amodei am Donnerstag in einem Blogbeitrag (Quelle auf Englisch).
Mit der Klage beantragt das Unternehmen, dass ein Gericht das Etikett „Risiko für die Lieferkette“ aufhebt und Bundesbehörden dessen Durchsetzung untersagt.
„Die Verfassung erlaubt es der Regierung nicht, ihre enorme Macht einzusetzen, um ein Unternehmen wegen seiner geschützten Meinungsäußerung zu bestrafen“, heißt es in der Eingabe von Anthropic. „Anthropic wendet sich als letztes Mittel an die Justiz, um seine Rechte zu verteidigen und die rechtswidrige Vergeltungskampagne der Exekutive zu stoppen.“
Das Verteidigungsministerium lehnte am Montag eine Stellungnahme ab und verwies auf die grundsätzliche Praxis, sich zu laufenden Verfahren nicht zu äußern, berichtete die Nachrichtenagentur AP.
Anthropic erklärte, es wolle seine Technologie von zwei zentralen Einsatzbereichen fernhalten: der massenhaften Überwachung von US-Bürgerinnen und -Bürgern und vollständig autonomen Waffensystemen.
Verteidigungsminister Pete Hegseth und andere Verantwortliche beharrten öffentlich darauf, das Unternehmen müsse alle „rechtmäßigen Verwendungszwecke“ von Claude akzeptieren, und drohten bei Nichtbefolgung mit Strafen.
Anthropic entwickelt den Chatbot Claude und ist unter seinen Wettbewerbern das letzte Unternehmen, das seine Technologie nicht einem neuen internen Netzwerk des US-Militärs zur Verfügung stellt.
Im vergangenen Juli erhielt Anthropic vom US-Verteidigungsministerium einen Auftrag über 200 Millionen Dollar (167 Millionen Euro), um neuartige KI-Fähigkeiten zu erproben, die die nationale Sicherheit der USA stärken sollen, teilte das Unternehmen mit.
Das Unternehmen schloss (Quelle auf Englisch)eine Partnerschaft mit Palantir Technologies im Jahr 2024, um Claude in die Software der US-Geheimdienste zu integrieren.