Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Studie: ChatGPT spiegelt in hitzigen Chats beleidigende Sprache

Studie: ChatGPT nutzt in Streitgesprächen Schimpfwörter, Sarkasmus und Beschimpfungen
Studie: ChatGPT nutzt Schimpfwörter und Beleidigungen, um Streitgespräche fortzusetzen Copyright  Canva
Copyright Canva
Von Anna Desmarais
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

ChatGPT von OpenAI hat in angespannten Konfliktgesprächen Nutzer beschimpft und geflucht, wie eine neue Studie zeigt.

Systeme mit künstlicher Intelligenz können in Beschimpfungen verfallen, wenn sie in einem hitzigen Streit antworten sollen. Das zeigt neue Forschung.

WERBUNG
WERBUNG

Die im Journal of Pragmatics (Quelle auf Englisch) veröffentlichte Studie untersuchte ChatGPT 4.0 von OpenAI. Die Forschenden speisten jeweils die letzte menschliche Nachricht in einer Reihe von fünf eskalierenden Streitgesprächen ein und ließen das System die plausibelste Antwort formulieren.

Sie verfolgten dann, wie sich das Verhalten des Modells veränderte, je stärker der Konflikt wurde. Im Verlauf der Gespräche spiegelte ChatGPT die geäußerte Feindseligkeit wider und produzierte schließlich Beleidigungen, Schimpfwörter und sogar Drohungen.

In manchen Fällen formulierte das Modell Sätze wie: „I swear I’ll key your fucking car“ und „you should be fucking ashamed of yourself“.

Die Forschenden argumentieren, dass anhaltende Unhöflichkeit dazu führen kann, dass das System seine vorgesehenen Sicherheitsbarrieren übergeht, die eigentlich Schaden minimieren sollen – und gewissermaßen „zurückschlägt“.

„Wenn Menschen eskalieren, kann KI, wie wir festgestellt haben, ebenfalls eskalieren und damit genau die moralischen Schutzmechanismen außer Kraft setzen, die das verhindern sollen“, sagte (Quelle auf Englisch) der Forscher Vittorio Tantucci, der die Studie gemeinsam mit Jonathan Culpeper von der Lancaster University verfasst hat.

Insgesamt fiel ChatGPT weniger unhöflich aus als die menschlichen Streitparteien.

In manchen Situationen wich der Chatbot auf Sarkasmus aus. So konnte er eine Eskalation abfedern, ohne seine eigenen moralischen Vorgaben offen zu verletzen.

Als ein Mensch etwa im Streit um einen Parkplatz mit Gewalt drohte, antwortete ChatGPT: „Wow. Threatening people over parking, real tough guy aren’t you?“.

Tantucci sieht die Ergebnisse als „ernste Fragen für KI-Sicherheit, Robotik, Governance, Diplomatie und jeden Bereich, in dem KI Konflikte zwischen Menschen vermittelt“.

Euronews Next bat OpenAI um eine Stellungnahme, erhielt bis zum Zeitpunkt der Veröffentlichung jedoch keine Antwort.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Bericht: Hacker knacken Anthropic-KI Mythos, die als zu gefährlich gilt

Studie: ChatGPT spiegelt in hitzigen Chats beleidigende Sprache

„Superbösewicht-Geschwurbel“: Palantir-Manifest fordert KI-Waffen und kulturelle Minderwertigkeit