Europol ist besorgt über die Möglichkeiten von ChatGPT für Verbrechen. Hier die Gründe

Vorsicht vor gerissenen Betrügereien dank KI, warnt Europol.
Vorsicht vor gerissenen Betrügereien dank KI, warnt Europol. Copyright Canva
Copyright Canva
Von Luke Hurst
Diesen Artikel teilenKommentare
Diesen Artikel teilenClose Button

ChatGPT und ähnliche KI-Tools erweisen sich in vielen verschiedenen Kontexten als nützlich - und Europol befürchtet, dass sie das auch für Kriminelle sein könnten.

WERBUNG

ChatGPT, die am schnellsten wachsende App aller Zeiten, hat den Menschen die Macht eines großen Sprachgenerators künstlicher Intelligenz (KI) an die Hand gegeben - trainiert auf einer riesigen Datenbank von Informationen aus dem Internet.

Diese neue Fähigkeit hat bereits dazu geführt, dass sich die Art und Weise, wie viele Menschen ihre Arbeit verrichten oder im Internet nach Informationen suchen, verändert hat. Die Technologie von OpenAI weckt sowohl Begeisterung über die vielversprechende Zukunft, die KI bieten kann, als auch Angst vor den Veränderungen, die sie mit sich bringt.

Eine der Befürchtungen im Zusammenhang mit KI-Technologien wie ChatGPT ist, was Kriminelle und andere übelgesinnte Akteure mit dieser Macht anstellen werden.

Das ist es, was Europol, die Strafverfolgungsbehörde der Europäischen Union, in ihrem jüngsten Bericht über ChatGPT mit dem Titel "The impact of Large Language Models on Law Enforcement" untersucht hat.

ChatGPT, das auf OpenAIs GPT3.5-Technologie für große Sprachmodelle basiert, könnte es "böswilligen Akteuren erheblich erleichtern, verschiedene Arten von Verbrechen besser zu verstehen und anschließend auch auszuführen", heißt es in dem Bericht.

Das liegt daran, dass die Informationen, auf die ChatGPT trainiert wird, bereits frei im Internet verfügbar sind. Die Technologie ist in der Lage, Schritt-für-Schritt-Anweisungen zu allen möglichen Themen zu geben, wenn sie die richtigen kontextbezogenen Fragen erhält.

Europol warnt vor den folgenden Arten von Verbrechen, bei denen Chatbots (LLMs) Kriminellen möglicherweise helfen könnten.

Betrug, Nachahmung und Social Engineering

ChatGPT und andere Chatbots wie Bard von Google haben die Benutzer mit ihren Fähigkeiten verblüfft, auf der Grundlage von Benutzeraufforderungen menschenähnliche Texte zu jedem Thema zu verfassen.

Sie können den Schreibstil von Berühmtheiten imitieren und einen Schreibstil aus dem eingegebenen Text lernen, bevor sie weitere Texte in diesem Stil verfassen. Dadurch kann das System von Kriminellen genutzt werden, die den Schreibstil einer Person oder einer Organisation imitieren wollen, was beispielsweise für Phishing-Betrügereien genutzt werden könnte.

Europol warnt auch davor, dass ChatGPT dazu benutzt werden könnte, verschiedenen Arten von Online-Betrug Legitimität zu verleihen, z. B. durch die Erstellung von massenhaft gefälschten Inhalten in sozialen Medien, um ein betrügerisches Investitionsangebot zu bewerben.

Eines der sichersten Anzeichen für potenziellen Betrug in der E-Mail- oder Social-Media-Kommunikation sind offensichtliche Rechtschreib- oder Grammatikfehler, die von den Kriminellen gemacht werden, die den Inhalt schreiben.

Mit den Möglichkeiten von LLMs wären selbst Kriminelle mit geringen Englischkenntnissen in der Lage, Inhalte zu erstellen, die diese Warnzeichen nicht mehr aufweisen.

Die Technologie ist auch reif für Propaganda und Desinformationen erstellen, da sie in der Lage ist, Argumente und Narrative in großer Geschwindigkeit zu formulieren.

Cybercrime für Anfänger

ChatGPT ist nicht nur gut im Schreiben von Wörtern, sondern beherrscht auch eine Reihe von Programmiersprachen. Laut Europol bedeutet dies, dass es einen Einfluss auf die Cyberkriminalität haben könnte.

"Mit der aktuellen Version von ChatGPT ist es bereits möglich, grundlegende Tools für eine Vielzahl von bösartigen Zwecken zu erstellen", warnt der Bericht.

Es handelt sich dabei um einfache Tools, mit denen beispielsweise Phishing-Seiten erstellt werden können, aber es ermöglicht Kriminellen mit geringen oder gar keinen Programmierkenntnissen, Dinge zu schaffen, die sie vorher nicht schaffen konnten.

Die unvermeidlichen Verbesserungen der LLM-Fähigkeiten bedeuten, dass die Möglichkeit zu deren krimineller Nutzung in den kommenden Jahren "düstere Aussichten" bietet.

Die Tatsache, dass die neueste Version von OpenAIs Transformer, GPT-4, besser in der Lage ist, den Kontext des Codes zu verstehen und Fehler zu korrigieren, bedeutet, dass dies eine “unschätzbare Ressource" für Kriminelle mit wenig technischem Wissen ist.

WERBUNG

Deepfakes haben bereits Auswirkungen in der realen Welt

Die Anwendungsfälle für ChatGPT, vor denen Europol warnt, sind aber nur ein Bereich der KI, der von Kriminellen ausgenutzt werden könnte.

Es hat bereits Fälle gegeben, in denen KI-Fälschungen dazu benutzt wurden, Menschen zu betrügen und zu schädigen. In einem Fall gab eine Frau an, sie sei erst 18 Jahre alt gewesen, als sie entdeckte, dass pornografische Bilder von ihr im Internet kursierten - obwohl sie diese Bilder nie aufgenommen geschweige denn weitergegeben hatte.

Ihr Gesicht war digital zu Bildern des Körpers einer anderen Person hinzugefügt worden. Gegenüber Euronews Next bezeichnete sie es als eine "eine lebenslange Strafe". Ein Bericht von Deeptrace Labs aus dem Jahr 2019 ergab, dass 96 Prozent der gefälschten Online-Inhalte nicht-konsensuelle Pornografie sind.

In einem anderen Fall wurde KI eingesetzt, um den Klang der Stimme einer Person zu imitieren, um deren Familienangehörige zu betrügen, wobei eine Audio-Depfake-Technik verwendet wurde.

Europol schloss seinen Bericht mit der Feststellung, dass es für die Strafverfolgungsbehörden wichtig ist, "an der Spitze dieser Entwicklungen zu bleiben" und den kriminellen Einsatz von KI vorherzusehen und zu verhindern.

WERBUNG
Diesen Artikel teilenKommentare

Zum selben Thema

Schock in der KI-Branche: Rauswurf von ChatGPT-Mitbegründer Sam Altman bei OpenAI

EU-Wahlen: Wie bereitet sich Europa auf mögliche Desinformationskampagnen vor?

KI-Chatbots verbreiten Fake News zu den Europawahlen