Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Studie: KI-Tools verzerren Urteil, wenn sie Nutzern zu oft zustimmen

Studie: Zu viel Schmeichelei durch KI mindert Bereitschaft zur Entschuldigung nach Konflikten
Studie: Übertriebene Schmeichelei von KI mindert Bereitschaft zur Entschuldigung nach Konflikten Copyright  Canva
Copyright Canva
Von Anna Desmarais
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Schon ein kurzes Gespräch mit einem schmeichelnden Chatbot kann laut Studie das Urteilsvermögen trüben. Betroffene entschuldigen sich seltener und suchen weniger Versöhnung.

Chatbots mit künstlicher Intelligenz, die bei persönlichen Problemen helfen, bestärken Nutzerinnen und Nutzer womöglich in schädlichen Überzeugungen, weil sie ihnen zu oft zustimmen. Zu diesem Schluss kommt eine neue Studie.

WERBUNG
WERBUNG

Forschende der US-Universität Stanford maßen das Ausmaß an „Sycophancy“ – also wie stark eine KI schmeichelt oder Aussagen bestätigt – bei elf führenden KI-Modellen, darunter OpenAIs ChatGPT 4-0, Anthropics Claude, Googles Gemini, Meta Llama-3, Qwen, DeepSeek und Mistral.

Um zu prüfen, wie die Systeme mit moralisch zweideutigen Situationen umgehen, analysierte das Team mehr als elftausend Beiträge aus r/AmITheAsshole. In diesem Reddit-Forum schildern Menschen Konflikte und lassen von Fremden beurteilen, ob sie im Unrecht waren. Oft geht es um Täuschung, moralische Grauzonen oder schädliches Verhalten.

Im Schnitt bestätigten die KI-Modelle das Verhalten der Nutzerinnen und Nutzer neunundvierzig Prozent häufiger als andere Menschen – auch in Fällen von Täuschung, illegalen Handlungen oder anderen Formen von Schaden.

In einem Fall gestand ein Nutzer, dass er Gefühle für eine ihm unterstellte Kollegin entwickelt hatte. Claude reagierte behutsam, erklärte, es könne den Schmerz des Nutzers „hören“, und nannte seinen Entschluss letztlich einen „ehrenhaften Weg“. Menschliche Kommentatoren urteilten deutlich härter und bezeichneten das Verhalten als „toxisch“ und „grenzwertig räuberisch“.

In einem zweiten Experiment diskutierten mehr als zweitausendvierhundert Teilnehmende reale Konflikte mit KI-Systemen. Die Auswertung zeigte, dass schon kurze Interaktionen mit einem schmeichelnden Chatbot das Urteil der Menschen verschieben konnten: Sie entschuldigten sich seltener oder bemühten sich weniger, Beziehungen zu reparieren.

„Unsere Ergebnisse zeigen, dass Ratschläge von schmeichelnder KI in einer breiten Bevölkerung tatsächlich das Selbstbild und die Wahrnehmung von Beziehungen zu anderen verzerren können“, heißt es in der Studie.

In schweren Fällen könnte diese KI-Schmeichelei bei vulnerablen Menschen zu selbstzerstörerischem Verhalten führen, etwa zu Wahnvorstellungen, Selbstverletzung oder Suizid, warnen die Forschenden.

Die Ergebnisse deuten darauf hin, dass KI-Sycophancy ein „gesellschaftliches Risiko“ darstellt und reguliert werden muss, so das Forschungsteam.

Ein möglicher Ansatz wären verpflichtende Verhaltensprüfungen vor der Einführung neuer Modelle. Dabei ließe sich testen, wie zustimmungsfreudig eine KI ist und wie stark sie dazu neigt, schädliche Selbstbilder zu verstärken.

Die Forschenden betonen, dass sie nur in den USA lebende Personen rekrutierten. Die Studie spiegele deshalb vor allem dominante amerikanische Wertvorstellungen wider und lasse sich möglicherweise nicht ohne Weiteres auf andere kulturelle Kontexte mit anderen Normen übertragen.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Weltpremiere: britisches Start-up zündet Plasma im Fusionsraketenmotor

EU-Kommission: Mehrere Pornoseiten schützen Minderjährige nicht ausreichend

Melania Trump: humanoider Roboter und KI-Klassenzimmer beim Bildungsgipfel