ChatGPT von OpenAI hat in angespannten Konfliktgesprächen Nutzer beschimpft und geflucht, wie eine neue Studie zeigt.
Systeme mit künstlicher Intelligenz können in Beschimpfungen verfallen, wenn sie in einem hitzigen Streit antworten sollen. Das zeigt neue Forschung.
Die im Journal of Pragmatics (Quelle auf Englisch) veröffentlichte Studie untersuchte ChatGPT 4.0 von OpenAI. Die Forschenden speisten jeweils die letzte menschliche Nachricht in einer Reihe von fünf eskalierenden Streitgesprächen ein und ließen das System die plausibelste Antwort formulieren.
Sie verfolgten dann, wie sich das Verhalten des Modells veränderte, je stärker der Konflikt wurde. Im Verlauf der Gespräche spiegelte ChatGPT die geäußerte Feindseligkeit wider und produzierte schließlich Beleidigungen, Schimpfwörter und sogar Drohungen.
In manchen Fällen formulierte das Modell Sätze wie: „I swear I’ll key your fucking car“ und „you should be fucking ashamed of yourself“.
Die Forschenden argumentieren, dass anhaltende Unhöflichkeit dazu führen kann, dass das System seine vorgesehenen Sicherheitsbarrieren übergeht, die eigentlich Schaden minimieren sollen – und gewissermaßen „zurückschlägt“.
„Wenn Menschen eskalieren, kann KI, wie wir festgestellt haben, ebenfalls eskalieren und damit genau die moralischen Schutzmechanismen außer Kraft setzen, die das verhindern sollen“, sagte (Quelle auf Englisch) der Forscher Vittorio Tantucci, der die Studie gemeinsam mit Jonathan Culpeper von der Lancaster University verfasst hat.
Insgesamt fiel ChatGPT weniger unhöflich aus als die menschlichen Streitparteien.
In manchen Situationen wich der Chatbot auf Sarkasmus aus. So konnte er eine Eskalation abfedern, ohne seine eigenen moralischen Vorgaben offen zu verletzen.
Als ein Mensch etwa im Streit um einen Parkplatz mit Gewalt drohte, antwortete ChatGPT: „Wow. Threatening people over parking, real tough guy aren’t you?“.
Tantucci sieht die Ergebnisse als „ernste Fragen für KI-Sicherheit, Robotik, Governance, Diplomatie und jeden Bereich, in dem KI Konflikte zwischen Menschen vermittelt“.
Euronews Next bat OpenAI um eine Stellungnahme, erhielt bis zum Zeitpunkt der Veröffentlichung jedoch keine Antwort.