Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Studie: Cyberkriminelle testen KI und sind ernüchtert

Studie: Cyberkriminelle interessieren sich für KI, sehen aber bislang kaum Vorteile für ihre Taten.
Cyberkriminelle interessieren sich für KI, sehen aber bisher keinen echten Nutzen für ihre Taten, zeigt eine neue Studie Copyright  Canva
Copyright Canva
Von Anna Desmarais
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Neue Untersuchungen der Universität Edinburgh zeigen: Hacker erzielen mit KI-Werkzeugen kaum Erfolge, weder direkt in Betrugsmaschen noch bei der Entwicklung besserer Tools.

Cyberkriminelle tun sich bislang schwer damit, künstliche Intelligenz (KI) in ihre Aktivitäten einzubinden. Zu diesem Schluss kommt eine neue Auswertung.

WERBUNG
WERBUNG

Eine neue Preprint-Studie der University of Edinburgh hat über 100 Millionen Beiträge von Cyberkriminellen ausgewertet. Grundlage war die Datenbank CrimeBB, die Inhalte aus Untergrundforen bündelt.

Das Team analysierte die Daten sowohl von Hand als auch mit Hilfe eines großen Sprachmodells (LLM).​

Cyberkriminelle zeigen demnach zwar großes Interesse daran, KI-Werkzeuge zu erlernen. Ihre „Arbeitsweise“ hat sich durch die Technik aber bisher kaum verändert.

„Viele Bewertungen und Diskussionen stufen die [KI-]Werkzeuge als wenig nützlich ein“, heißt es in der Studie.

Die Forschenden fanden demnach „keine nennenswerten Belege“ dafür, dass Hacker mit KI ihre Angriffe verbessern konnten – weder als Lernhilfe noch beim Entwickeln wirkungsvollerer Tools.

Programmierassistenten auf KI-Basis helfen vor allem Menschen, die ohnehin gut programmieren können. Modelle, die beim Coden unterstützen, verschaffen ihnen beim Einbrechen in Systeme oder beim Suchen von Sicherheitslücken aber keinen spürbaren Vorsprung, ergänzt die Studie.

„Man muss sich die Grundlagen des Programmierens erst selbst aneignen, bevor man KI sinnvoll nutzen und WIRKLICH davon profitieren kann“, heißt es in einem Beitrag, den die Forschenden zitieren.

Den größten Effekt hat KI bislang in leicht zu automatisierenden Bereichen der Halbwelt des Netzes: beim Bau von Social-Media-Bots, bei manchen Romance-Scams und bei Betrug mit Suchmaschinenoptimierung (SEO). Häufig geht es dabei um Fake-Websites, die in den Trefferlisten nach oben gespült werden und so Werbeeinnahmen generieren.

Bewertungen deuten darauf hin, dass selbst sehr erfahrene Hacker Chatbots nutzen – um Programmierfragen zu klären oder sich kurze „Cheatsheets“ für den Code erstellen zu lassen.​

Zum Einsatz kommt vor allem KI aus „gängigen, legalen Produkten“ wie Claude von Anthropic oder Codex von OpenAI, nicht aber spezielle, für Cyberkriminalität entwickelte Modelle wie WormGPT, die Schadsoftware oder Phishing-Mails erzeugen sollen.

Viele der ausgewerteten Beiträge drehen sich um die Frage, wie sich die Sicherheitsvorgaben dieser Mainstream-Modelle umgehen lassen. Den Autoren zufolge fällt es Cyberkriminellen jedoch schwer, die Schutzmechanismen der Systeme auszuhebeln.

Stattdessen weichen sie oft auf ältere, qualitativ schwächere Open-Source-Modelle aus, die sich leichter knacken lassen. Diese Modelle seien allerdings weniger hilfreich und „erfordern erhebliche Ressourcen“, so die Forschenden.

Die Studie legt nahe: Die von KI-Unternehmen eingebauten Schutzgeländer funktionieren – bislang.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Europe Today: NATO in Krise – Zukunft von Europas Sicherheit und transatlantischen Beziehungen?

Meta-Prozess in den USA: Was sich für soziale Medien ändern könnte

Kinder malen sich Schnurrbärte ins Gesicht, um Online-Alterskontrollen zu umgehen – mit Erfolg