Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

US-Gericht weist Anthropic-Einspruch gegen Einstufung als Lieferkettenrisiko zurück

ARCHIV: Die Website und die Handy-App von Anthropic sind auf diesem Foto in New York am fünften Juli 2024 zu sehen.
ARCHIVBILD: In New York ist am fünften Juli 2024 die Website von Anthropic samt Handy-App zu sehen. Copyright  AP Photo/Richard Drew, File
Copyright AP Photo/Richard Drew, File
Von Anna Desmarais & AP
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Der Streit begann, als Anthropic der US-Regierung den uneingeschränkten Zugriff auf seinen KI-Chatbot Claude verweigerte.

Ein Gericht in den Vereinigten Staaten hat den Antrag des amerikanischen Unternehmens Anthropic abgelehnt, es vor dem Etikett „Risiko für die Lieferkette“ durch die Regierung zu schützen. Eine solche Einstufung hat bisher noch kein US-Unternehmen getroffen.

WERBUNG
WERBUNG

Die Regierung von Donald Trump erklärte die KI-Firma im Februar zu einem Risiko für die Lieferkette. Sie ordnete an, dass Bundesbehörden den KI-Assistenten Claude von Anthropic nicht mehr nutzen dürfen, nachdem das Unternehmen der Armee keinen uneingeschränkten Zugriff auf sein Modell gewährt hatte.

Die Einstufung verbietet Auftragnehmern des Pentagon, die KI-Modelle von Anthropic in Aufträgen für das Verteidigungsministerium einzusetzen.

Umstritten sind interne Auflagen von Anthropic. Sie untersagen unter anderem den Einsatz von Claude in tödlichen autonomen Waffensystemen ohne menschliche Aufsicht sowie zur massenhaften Überwachung von Amerikanerinnen und Amerikanern.

Im Jahr 2025 schloss Anthropic einen Vertrag über 200 Millionen Dollar (171,5 Millionen Euro) mit dem Pentagon. Das Unternehmen sollte seine Technologie in den Systemen des Militärs einsetzen.

Nach dem Vertragsabschluss führte die US-Regierung den Chatbot in ihren geheimen Informationsnetzen ein. Claude kam in nationalen Nuklearlaboren zum Einsatz und lieferte direkt für das Verteidigungsministerium nachrichtendienstliche Analysen.

Die Niederlage für Anthropic in Washington folgt auf einen Erfolg an einem anderen Gericht: In San Francisco setzte das Unternehmen in einem separaten Verfahren durch, dass die Regierung das Etikett wieder entfernen musste.

Anthropic hatte die beiden Klagen im vergangenen Monat in San Francisco und Washington eingereicht und der Trump-Regierung eine „rechtswidrige Vergeltungskampagne“ vorgeworfen.

In ihrem Schriftsatz (Quelle auf Englisch) vom März schrieb das Verteidigungsministerium, Anthropic könne „versuchen, seine Technologie zu deaktivieren oder das Verhalten seines Modells vorsorglich zu verändern“, und zwar vor oder während eines „Kriegseinsatzes“, falls das Unternehmen meine, dass seine internen „red lines“ überschritten würden.

Ein Spruchkörper des Bundesberufungsgerichts in Washington D.C. sah keinen Anlass, die Maßnahmen der Trump-Regierung aufzuheben, da „das genaue Ausmaß des finanziellen Schadens von Anthropic nicht klar“ sei. Das Berufungsgericht will den Fall im Mai jedoch weiter verhandeln und zusätzliche Beweise anhören.

„Wir sind dankbar, dass das Gericht erkannt hat, wie dringend diese Fragen geklärt werden müssen, und bleiben zuversichtlich, dass die Gerichte letztlich zu dem Schluss kommen, dass diese Einstufungen in der Lieferkette rechtswidrig waren“, erklärte Anthropic in einer Stellungnahme an die Nachrichtenagentur Associated Press.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Meta startet mit Muse Spark in KI-Wettlauf: erstes Großmodell seit Investitionsoffensive

Schweizer Forscher testen Roboterhund für schnellere Erkundung von Mond und Mars

Telegram-Netzwerk in Spanien und Italien: Deepfakes und Nacktbilder tausendfach geteilt