Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Warum Anthropic mit den USA um einen Militärvertrag ringt

ARCHIV: Verteidigungsminister Pete Hegseth steht vor dem Pentagon in Washington bei einer Begrüßungszeremonie für den japanischen Verteidigungsminister am 15. Januar 2026.
ARCHIV: US-Verteidigungsminister Pete Hegseth vor dem Pentagon bei einer Begrüßungszeremonie für Japans Verteidigungsminister in Washington, 15. Januar 2026. Copyright  AP Photo/Kevin Wolf, File
Copyright AP Photo/Kevin Wolf, File
Von Anna Desmarais mit AP
Zuerst veröffentlicht am Zuletzt aktualisiert
Teilen Kommentare
Teilen Close Button

Anthropic, ein US-KI-Unternehmen, gerät mit dem Pentagon aneinander. Die Fronten sind verhärtet – wir erklären die Hintergründe des Machtkampfs.

Die US-Regierung droht, ihre Militärverträge mit dem Unternehmen Anthropic zu beenden, falls der Konzern seine KI-Technologie nicht für eine uneingeschränkte militärische Nutzung freigibt. Doch das Tech-Unternehmen bleibt hart.

WERBUNG
WERBUNG

Anthropic-Chef Dario Amodei erklärte am 26. Februar in einer Stellungnahme (Quelle auf Englisch), er könne "dem Wunsch des Pentagons nach unbegrenztem Zugang zu den Systemen unseres Unternehmens nicht mit gutem Gewissen nachkommen".

"In einem engen Bereich von Fällen kann KI aus unserer Sicht demokratische Werte eher untergraben als schützen", schrieb er. "Einige Anwendungen liegen zudem außerhalb dessen, was die heutige Technik sicher und zuverlässig leisten kann."

Amodeis Erklärung kam weniger als vierundzwanzig Stunden vor Ablauf der Frist am Freitag, die das US-Kriegsministerium gesetzt hatte, um uneingeschränkten Zugang zu Claude zu erhalten.

Anthropic entwickelt den Chatbot Claude und ist das letzte große Unternehmen der Branche, das seine Technologie noch nicht für ein neues internes Netzwerk des US-Militärs bereitstellt.

Anthropic erhielt im vergangenen Juli einen Auftrag des US-Verteidigungsministeriums über 200 Millionen Dollar (167 Millionen Euro), um "KI-Spitzentechnologien zu erproben, die die nationale Sicherheit der USA stärken", wie es das Unternehmen formulierte. Zudem schloss Anthropic Partnerschaft (Quelle auf Englisch) mit Palantir Technologies, um Claude in US-Geheimdienstsoftware zu integrieren.

Verteidigungsminister Pete Hegseth soll am 24. Februar angekündigt haben, den Vertrag über 200 Millionen Dollar (167 Millionen Euro) zu kündigen und das Unternehmen als "Risiko für die Lieferkette" einzustufen, falls Anthropic nicht einlenkt.

Wird Anthropic nach dem US-Vergaberecht (Quelle auf Englisch) offiziell als Risiko für die Lieferkette eingestuft, kann die Regierung das Unternehmen von Ausschreibungen ausschließen, seine Produkte aus der Auswahl nehmen und Hauptauftragnehmer anweisen, diesen Zulieferer nicht mehr zu nutzen.

Berichte über Hegseths Treffen mit Amodei zufolge drohte der Minister außerdem, das Defense Production Act (Quelle auf Englisch) gegen Anthropic anzuwenden, ein Gesetz, das dem US-Präsidenten weitreichende Befugnisse gibt, private Unternehmen zugunsten nationaler Sicherheitsinteressen zu verpflichten, einschließlich des Zugriffs auf deren Technologie.

In seiner Erklärung betonte Amodei, Verträge mit dem US-Kriegsministerium dürften keine Fälle umfassen, in denen Claude für umfassende inländische Massenüberwachung eingesetzt oder in vollständig autonome Waffen integriert wird.

Diese Schutzklauseln seien seiner Ansicht nach der Grund dafür, dass das Ministerium damit drohe, Anthropic aus der Nutzung durch das US-Militär herauszunehmen.

Amodei bezeichnete die zwei Drohungen als "grundsätzlich widersprüchlich", weil die eine Anthropic als Sicherheitsrisiko einstufe, die andere Claude aber als "unverzichtbar für die nationale Sicherheit" bezeichne.

Er räumte ein, dass das US-Kriegsministerium frei entscheiden könne, mit welchen Partnern es zusammenarbeitet und wer seiner eigenen strategischen Linie nähersteht. "Angesichts des erheblichen Mehrwerts, den Anthropics Technologie für die US-Streitkräfte bietet, hoffen wir jedoch, dass das Ministerium seine Position noch einmal überdenkt."

Der KI-Chatbot kommt bereits in den geheimen Informationsnetzen der US-Regierung zum Einsatz, arbeitet in nationalen Nuklearlaboren und unterstützt das US-Kriegsministerium direkt bei der Auswertung von Geheimdienstinformationen.

Euronews Next bat das US-Kriegsministerium um eine Stellungnahme, erhielt jedoch zunächst keine Antwort.

Anthropic rückt von zentralem Sicherheitsversprechen ab

Anthropic stellt sich seit Langem als verantwortungsbewussteres und stärker auf Sicherheit bedachtes Unternehmen unter den großen KI-Anbietern dar, seit die Gründer 2021 OpenAI verließen und das Start-up gründeten.

Am Dienstag erklärte Anthropic in einem Interview mit dem Time-Magazin, es nehme das Sicherheitsversprechen zurück, kein KI-System zu veröffentlichen, solange sich nicht garantieren lasse, dass die Schutzmaßnahmen ausreichen.

Stattdessen veröffentlichte das Unternehmen eine neue Version seiner Politik für verantwortungsvolle Skalierung, die den Rahmen beschreibt, mit dem Anthropic katastrophale KI-Risiken abmildern will.

Jared Kaplan, wissenschaftlicher Leiter von Anthropic, sagte dem Magazin, ein Stopp bei der Entwicklung neuer Modelle, während Wettbewerber ohne vergleichbare Sicherungen vorpreschen, würde es dem Unternehmen erschweren, im KI-Wettlauf mitzuhalten.

"Wenn ein KI-Entwickler die Arbeit aussetzt, um Sicherheitsmaßnahmen umzusetzen, während andere weiter neue Systeme trainieren und einsetzen, ohne starke Gegenmaßnahmen, könnte die Welt am Ende weniger sicher sein", heißt es in Anthropics neuer Richtlinie.

"Die Entwickler mit den schwächsten Schutzvorkehrungen würden das Tempo vorgeben, und verantwortungsvolle Entwickler verlören die Möglichkeit, Sicherheitsforschung zu betreiben und dem Gemeinwohl zu dienen."

Die Richtlinie trennt Anthropics Anspruch, Sicherheitsstandards in der Branche zu etablieren, von den eigenen Unternehmenszielen, bei denen Sicherheit weiterhin eine hohe Priorität hat.

Anthropic erklärte, die neue Politik sehe vor, für seine Modelle "ehrgeizige, aber erreichbare" Sicherheitsfahrpläne zu definieren und Risikoberichte zu veröffentlichen, in denen erwartbare Risiken sowie die Begründung für die Markteinführung eines Modells offengelegt werden.

Dieser Artikel wurde am 27. Februar aktualisiert.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Galaxy S26 Ultra: Samsungs KI-Flaggschiff mit Sichtschutz – reicht das gegen die Konkurrenz?

Macht Social-Media-Design süchtig, und wie entkommt man dem Algorithmus

Studie: KI-Chatbots greifen in nahezu allen Kriegssimulationen zur Atombombe