Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Anthropic vs. USA: Streit um Militärvertrag für KI-Technologie

ARCHIV - Verteidigungsminister Pete Hegseth steht vor dem Pentagon bei einer Willkommenszeremonie für seinen japanischen Amtskollegen in Washington, 15. Januar 2026.
ARCHIV: Verteidigungsminister Pete Hegseth steht am Pentagon in Washington bei einer Willkommenszeremonie für den japanischen Verteidigungsminister, 15. Januar 2026. Copyright  AP Photo/Kevin Wolf, File
Copyright AP Photo/Kevin Wolf, File
Von Anna Desmarais mit AP
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Zwischen dem KI-Unternehmen Anthropic und dem US-Verteidigungsministerium eskaliert der Konflikt. Ein Überblick über die Hintergründe.

Die US-Regierung droht, ihre Rüstungsverträge mit dem Unternehmen Anthropic zu kündigen, falls der Konzern seine KI-Technologie nicht für eine uneingeschränkte militärische Nutzung freigibt.

WERBUNG
WERBUNG

Anthropic entwickelt den Chatbot Claude und ist als einziges großes KI-Unternehmen bislang nicht an ein neues internes Netzwerk des US-Militärs angeschlossen.

CEO Dario Amodei hat wiederholt seine ethischen Bedenken gegen eine unkontrollierte Nutzung von KI durch den Staat betont. Er warnt unter anderem vor vollautonomen Kampfdrohnen und vor KI-gestützter Massenüberwachung, die jede Form von Widerspruch nachverfolgen kann.

Anthropic erhielt im Juli vergangenen Jahres einen Auftrag des US-Verteidigungsministeriums über zweihundert Millionen Dollar (167 Millionen Euro). Nach Unternehmensangaben soll es dabei „Spitzen-KI-Fähigkeiten“ erproben, die der nationalen Sicherheit der USA dienen. Im Jahr 2024 schloss Anthropic zudem eine Partnerschaft (Quelle auf Englisch) mit Palantir Technologies, um Claude in Software der US-Geheimdienste zu integrieren.

US-Verteidigungsminister Pete Hegseth soll am Dienstag angekündigt haben, den Vertrag über zweihundert Millionen Dollar (167 Millionen Euro) zu beenden und das Unternehmen als „Lieferkettenrisiko“ einzustufen, falls Anthropic sich weigert.

Eine Einstufung als Lieferkettenrisiko nach dem US-Beschaffungsrecht (Quelle auf Englisch) hätte weitreichende Folgen. Die Regierung könnte Anthropic von Ausschreibungen ausschließen, Produkte des Unternehmens gar nicht mehr berücksichtigen und Hauptauftragnehmer anweisen, diesen Anbieter nicht zu nutzen.

Berichte über das Treffen Hegseths mit Dario Amodei, dem CEO und Mitgründer von Anthropic, erwähnen zudem eine weitere Drohung. Demnach stellte der Minister in Aussicht, das Defense ProductionAct (Quelle auf Englisch) gegen das Unternehmen anzuwenden. Dieses Gesetz gibt dem US-Präsidenten weitreichende Befugnisse, private Firmen zu verpflichten, nationale Sicherheitsinteressen zu priorisieren – einschließlich des Zugangs zu ihren Technologien.

Euronews Next hat Anthropic und das US-Verteidigungsministerium um eine Stellungnahme zu den Vorwürfen gebeten, bislang jedoch keine Antwort erhalten.

Anthropic rückt von zentralem Sicherheitsversprechen ab

Anthropic präsentiert sich seit seiner Gründung im Jahr zweitausendeinundzwanzig als verantwortungsbewusstes, sicherheitsorientiertes KI-Unternehmen. Damals hatten mehrere Gründer OpenAI verlassen und das Start-up aufgebaut.

Am Dienstag erklärte Anthropic in einem Interview mit dem Magazin Time, man gebe ein zentrales Versprechen auf: Bislang wollte das Unternehmen kein KI-System veröffentlichen, solange es nicht garantieren konnte, dass die Sicherheitsvorkehrungen ausreichen.

Stattdessen stellte Anthropic eine neue Version seiner Richtlinie zur verantwortlichen Skalierung vor. Dieses Regelwerk legt den Rahmen fest, wie der Konzern katastrophale Risiken durch KI begrenzen will.

Jared Kaplan, der wissenschaftliche Leiter von Anthropic, sagte dem Magazin, ein Trainingsstopp für neue Modelle würde das Unternehmen nur zurückwerfen. Die Konkurrenz entwickle ihre Systeme weiter, oft ohne vergleichbare Schutzmechanismen.

In der neuen Richtlinie heißt es: „Würde ein KI-Entwickler die Entwicklung anhalten, um Sicherheitsmaßnahmen umzusetzen, während andere weiter neue Systeme trainieren und einsetzen, ohne starke Begrenzungen, könnte die Welt am Ende weniger sicher sein.“

„Die Anbieter mit den schwächsten Schutzvorkehrungen würden das Tempo vorgeben, und verantwortungsbewusste Entwickler verlören ihre Möglichkeit, Sicherheitsforschung zu betreiben und den öffentlichen Nutzen voranzubringen.“

Die Richtlinie trennt Anthropics Anspruch, brancheneinheitliche Sicherheitsstandards zu etablieren, klar von den Zielen des Unternehmens. Sicherheit bleibe zwar eine hohe Priorität, steht aber nicht mehr über allen anderen Erwägungen.

Nach eigenen Angaben will Anthropic künftig „ehrgeizige, aber realistische“ Sicherheitsfahrpläne für seine Modelle festlegen. Zudem will der Konzern Risikoberichte veröffentlichen, in denen er erwartbare Gefahren beschreibt und darlegt, ob die Veröffentlichung eines Modells aus seiner Sicht gerechtfertigt ist.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Zukunft der Bahnfahrt? Roboterhunde und Drohnen erobern U-Bahn in China

Macht Social-Media-Design süchtig, und wie entkommt man dem Algorithmus

Anthropic vs. USA: Streit um Militärvertrag für KI-Technologie