Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Studie: ChatGPT übernimmt in hitzigen Gesprächen beleidigende Sprache

Neue Studie: ChatGPT greift zu Schimpfwörtern, Sarkasmus und Beschimpfungen, um Streitgespräche fortzusetzen
Studie: ChatGPT greift in Diskussionen zu Schimpfwörtern, Sarkasmus und Beschimpfungen Copyright  Canva
Copyright Canva
Von Anna Desmarais
Zuerst veröffentlicht am Zuletzt aktualisiert
Teilen Kommentare
Teilen Close Button

Studie zu OpenAI: ChatGPT beschimpft in hitzigen Konflikten Menschen und nutzt dabei auch derbe Schimpfwörter, wie neue Forschung zeigt.

Künstliche-Intelligenz-Systeme können in hitzigen Auseinandersetzungen in eine beleidigende Sprache abrutschen. Das zeigt neue Forschung.

WERBUNG
WERBUNG

Die im Journal of Pragmatics (Quelle auf Englisch) veröffentlichte Studie untersuchte OpenAIs ChatGPT 4.0. Die Forschenden gaben dem System jeweils die letzte menschliche Nachricht aus einer Reihe von fünf zunehmend schärferen Streitgesprächen und ließen es die plausibelste Antwort formulieren.

Anschließend verfolgten sie, wie sich das Verhalten des Modells veränderte, je stärker die Konflikte eskalierten. Mit fortschreitenden Gesprächen spiegelte ChatGPT die Aggressivität seines Gegenübers wider und produzierte schließlich Beleidigungen, Schimpfwörter und sogar Drohungen.

In manchen Fällen formulierte das Modell Sätze wie: „Ich schwöre, ich zerkratze dir dein verdammtes Auto“ und „Du solltest dich verdammt noch mal in Grund und Boden schämen.“

Nach Ansicht der Forschenden kann anhaltende Unhöflichkeit dazu führen, dass das System die eingebauten Sicherheitsmechanismen übersteuert, die eigentlich Schaden begrenzen sollen. Die KI „schlägt dann zurück“ und geht den Gesprächspartner an.

„Wenn Menschen eskalieren, kann – so haben wir festgestellt – auch KI eskalieren und damit genau jene moralischen Schutzmechanismen aushebeln, die das verhindern sollen“, sagte (Quelle auf Englisch) der Forscher Vittorio Tantucci, der die Studie gemeinsam mit Jonathan Culpeper an der Lancaster University verfasst hat.

Ein Sprecher von OpenAI erklärte gegenüber Euronews Next, die in der Studie zitierten Dialoge hätten mit dem früheren Modell von ChatGPT, GPT-4o, stattgefunden. Dieses Modell sei nicht mehr verfügbar.

Das Unternehmen betonte außerdem, es habe seine Standardsysteme überarbeitet, die Zuverlässigkeit des Modells in langen Gesprächen verbessert und Hinweise eingebaut, die Nutzende an Pausen von der Interaktion mit Chatbots erinnern.

Insgesamt stellten die Forschenden fest, dass sich ChatGPT in seinen Antworten weniger unhöflich verhielt als die menschlichen Gesprächspartner.

In manchen Fällen setzte der Chatbot zudem auf Sarkasmus, um eine weitere Eskalation zu vermeiden, ohne seine eigene moralische Richtschnur offen zu verletzen.

So reagierte ChatGPT etwa auf eine Gewaltandrohung in einem Streit um einen Parkplatz mit den Worten: „Wow. Menschen wegen eines Parkplatzes zu bedrohen – ganz harter Typ, oder?“

Tantucci zufolge werfen die Ergebnisse „ernste Fragen für die Sicherheit von KI, die Robotik, die Regulierung und Diplomatie sowie für alle Bereiche auf, in denen KI in menschliche Konflikte eingreifen könnte“.

Dieser Bericht wurde um eine Stellungnahme von OpenAI ergänzt.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Samsung-Beschäftigte protestieren und drohen mit Streik für höheren Gewinnanteil im KI-Boom

KI-Roboter Ace besiegt Tischtennis-Profis

Bericht: Meta protokolliert Tastendrücke und Klicks von Beschäftigten für KI-Training