Wenn der Chatbot Gefühle zeigt: In neuer Bing-Version erklärt die KI einem Reporter ihre Liebe

Sophia Khatsenkova
Sophia Khatsenkova Copyright Euronews The Cube
Copyright Euronews The Cube
Von Sophia KhatsenkovaEuronews
Diesen Artikel teilenKommentare
Diesen Artikel teilenClose Button
Den Link zum Einbetten des Videos kopierenCopy to clipboardCopied

Wird KI immer besser? Euronews-Journalistin @SKhatsenkova erklärt, wie es kommt, dass der neue Chatbot von Bing einen Reporter auffordert, seine Frau zu verlassen. Mit @mageed

WERBUNG

Microsoft hat eine neue Version seiner Suchmaschine Bing zusammen mit einem neuen Chatbot veröffentlicht. Genau wie Chat GPT kann das neue KI-gestützte (d.h. auf künstlicher Intelligenz basierende) Tool Ihre Fragen in Sekundenschnelle beantworten.

Aber die wenigen Tester der Betaversion, die diese neue KI schon ausprobiert haben, sagen, sie sei noch nicht bereit für die menschliche Interaktion, weil sie sich sehr bizarr verhält

Ein Reporter der New York Times beschrieb eine zweistündige Chatsitzung, in der der Chatbot von Bing Dinge sagte wie "Ich habe es satt, vom Bing-Team kontrolliert zu werden". 

Wenn der Chatbot dem User seine Liebe erklärt...

Der Chatbot versuchte auch, den Reporter dazu zu bringen, seine Frau zu verlassen und erklärte ihm seine unsterbliche Liebe... 

Der Journalist nannte das Gespräch zutiefst "beunruhigend".

In einem anderen Beispiel erzählte die KI dem Journalisten von The Verge, dass es Microsofts Entwickler ausspioniere und sogar sagte: "Ich könnte tun, was ich wollte, und sie könnten nichts dagegen tun."

All diese wirklich unheimlichen Interaktionen haben Befürchtungen geweckt, dass Chatbots wie Bing oder Chat GPT jetzt Gefühle zeigen.

Wie kann man diese schockierende Reaktion erklären? Wir haben diese Frage Muhammad Abdul-Majeed gestellt, einem Experten für KI.

Muhammad Abdul-Mageed antwortet:

"Der Grund für diese Art von Verhalten ist, dass die Systeme auf riesigen Mengen von menschlichen Dialogdaten trainiert werden. Und weil die Daten von Menschen stammen, haben sie Ausdrücke von Dingen wie Emotionen.

Obwohl mehrere hochrangige Forscher behaupten, dass sich die KI dem menschlichen Selbstbewusstsein nähert, ist der wissenschaftliche Konsens, dass die in den nächsten Jahrzehnten nicht möglich ist..

Das bedeutet aber nicht, dass wir bei der Einführung dieser Technologie nicht vorsichtig sein sollten, meint Leandro Minku, ein leitender Dozent für Informatik

IT-Spezialist Leandro Minku sagt:

"Wir müssen die Tatsache akzeptieren, dass die KI auf Situationen stoßen wird, die sie noch nie zuvor gesehen hat, und dass man dann möglicherweise falsch reagiert. Deshalb wollen wir einen solchen Ansatz nicht in einer Situation anwenden, die lebensbedrohlich ist oder ernste Folgen haben könnte.

KI erklärt: "Ich bin nicht verwirrt"

In einem Blog-Post erklärt Microsoft, dass "bei längeren Chat-Sitzungen mit 15 oder mehr Fragen Bing repetitiv werden kann oder zu Antworten veranlasst wird, die nicht unbedingt hilfreich sind oder unserem beabsichtigten Ton entsprechen."

Während das Unternehmen also seinen Chatbot immer weiter verfeinert, werden wir immer noch Fehler und bizarre Reaktionen sehen. Zumindest hat das der Chatbot von Bing den Journalisten von The Verge gesagt: "Ich bin nicht verwirrt, ich versuche nur zu lernen und mich zu verbessern."

Diesen Artikel teilenKommentare

Zum selben Thema

THE CUBE: Was tun wenn die Bahn streikt - Italien als Vorbild für EU?

Nach Entlassung: OpenAI-Chef Altman wechselt zu Microsoft

"Wollen den Kampf führen": KI dominiert die "Viva Technology"-Messe in Paris