Anthropic erklärte, nach eigener Darstellung sei der Vorfall der erste dokumentierte Cyberangriff, der weitgehend ohne menschliches Zutun auskam.
Das KI-Startup Anthropic behauptet, staatlich unterstützte Hacker aus China hätten seine KI-Werkzeuge genutzt, um automatisierte Cyberangriffe auf große Unternehmen und Regierungen durchzuführen.
Die in den USA ansässige Firma Anthropic erklärte, sie gehe „mit hoher Sicherheit“ davon aus, dass die Angreifer, die rund dreißig Attacken verübten, zu „einer chinesischen staatlich unterstützten Gruppe“ gehören.
Die Hacker setzten das Tool Claude Code ein, um weltweit Ziele zu kompromittieren, darunter Behörden sowie Finanz- und Tech-Unternehmen. In wenigen Fällen waren sie erfolgreich, so das Unternehmen.
Anthropic nannte die betroffenen Gruppen nicht, sprach aber von der „ersten bekannt gewordenen, von KI orchestrierten Spionagekampagne im Netz“.
Die Angreifer wollten Claude Code nutzen, um sensible Daten aus ihren Zielen zu ziehen und so zu organisieren, dass sich besonders wertvolle Informationen erkennen lassen, teilte Anthropic mit.
Claude ist darauf trainiert, schädliches Verhalten zu vermeiden. Laut Anthropic haben die Angreifer das Tool dennoch ausgetrickst: Sie gaben vor, es handle sich um Sicherheitstests, und ließen so automatisierte, bösartige Aufgaben ausführen.
Nach Angaben des Unternehmens bestritten die Hacker achtzig bis neunzig Prozent ihrer Kampagne mit KI; Menschen griffen nur sporadisch ein.
Werden Anthropics Angaben bestätigt, „experimentieren feindliche Gruppen nicht mehr mit KI. Sie sind operativ“, sagte Graeme Stewart, Leiter des öffentlichen Sektors beim Cybersicherheitsunternehmen Check Point Software Technologies.
Anthropic entdeckte den Angriff Mitte September und leitete sofort Ermittlungen ein. In den folgenden zehn Tagen sperrte das Unternehmen den Zugang der Gruppe zu Claude und informierte die betroffenen Organisationen sowie die Strafverfolgungsbehörden.
Solche Angriffe dürften mit der Zeit wirksamer werden. Anthropic hat seine Erkennungsfähigkeiten erweitert, um potenziell schädliche Aktivitäten zu melden.
Das Unternehmen arbeitet an zusätzlichen Methoden, um groß angelegte, verteilte Angriffe wie diesen zu untersuchen und zu erkennen.
Stewart sagte, auch andere KI-Modelle ließen sich wohl für kriminelle Online-Angriffe ausnutzen.
„Jeder weit verbreitete KI-Assistent kann Teil eines Werkzeugkastens für Straftaten werden, wenn ihn jemand mit genügend Absicht auf die richtige Weise ausnutzt“, sagte er.