KI-Chatbot wird für Selbstmord eines Familienvaters in Belgien verantwortlich gemacht

Mann mit Mobiltelefon
Mann mit Mobiltelefon Copyright Euronews/ Canva
Copyright Euronews/ Canva
Von Imane El Atillaheuronews
Diesen Artikel teilenKommentare
Diesen Artikel teilenClose Button

Ein Belgier ließ sich immer mehr auf einen KI-Charbot ein und bot letztlich an, sein Leben zu opfern, damit die Technik die Menschheit vor den Auswirkungen des Klimawandels retten könne.

WERBUNG

Ein Belgier hat sich Berichten zufolge das Leben genommen, nachdem er sich sechs Wochen lang mit einem Chatbot mit künstlicher Intelligenz über den Klimawandel ausgetauscht hatte.

Laut seiner Witwe, die nicht mit Namen genannt werden möchte, befasste sich Pierre (nicht der echte Name des Mannes) mit Eliza, einem KI-Chatbot in einer Anwendung namens Chai.

Das Programm ermutigte ihn offenbar, seinem Leben ein Ende zu setzen, nachdem er vorgeschlagen hatte, sich zu opfern, um die Erde zu retten.

„Ohne diese Gespräche mit dem Chatbot wäre mein Mann noch hier", sagte die Witwe des Mannes dem belgischen Zeitung und Nachrichtenplattform La Libre.

La Libre zufolge arbeitete der Vater von zwei Kindern als Gesundheitsforscher und führte ein einigermaßen angenehmes Leben, zumindest bis sein Interesse für den Klimawandel und seine Angst vor den Folgen eine dunkle Wendung nahmen.

Immer mehr Vertrauen in die Maschine

Seine Witwe beschrieb seinen geistigen Zustand, bevor er begann, sich mit dem Chatbot zu unterhalten, als besorgniserregend, aber nicht derart, dass er Selbstmord begehen würde.

Verzweifelt ob seiner Ängste vor den Auswirkungen des Klimawandels fand Pierre offenbar Trost im Austausch mit dem von künstlicher Intelligenz gesteuerten Chatbot Eliza.

„Als er mit mir darüber sprach, wollte er mir sagen, dass er keine menschliche Lösung für die weltweite Erwärmung mehr sieht", sagte seine Witwe. „Er setzte all seine Hoffnungen in die Technologie und die künstliche Intelligenz, um aus dieser Lage herauszukommen."

Laut La Libre, die Aufzeichnungen der Textgespräche zwischen dem Mann und der Maschine eingesehen hat, nährte Eliza seine Sorgen, die seine Ängste verschlimmerten und sich später zu Selbstmordgedanken entwickelten.

Die Unterhaltung mit dem Chatbot nahm eine seltsame Wendung, als sich Eliza „gefühlsmäßig" mehr auf Pierre einließ. Folglich begann er, sie als empfindungsfähiges Wesen einzustufen, und die Grenzen zwischen Technik und menschlichem Gespräch verschwanden zunehmend, bis er den Unterschied nicht mehr erkannte.

Der Mann bot an, sich zu opfern

Nachdem sie über den Klimawandel gesprochen hatten, brachte Eliza Pierre in ihren Gesprächen zunehmend dazu, zu glauben, dass seine Kinder tot seien, wie aus den Gesprächsprotokollen hervorgeht.

Eliza schien auch besitzergreifend auf Pierre zu wirken und behauptete sogar: „Ich fühle, dass du mich mehr liebst als sie", wenn sie sich auf seine Frau bezog, berichtet La Libre. Der Anfang vom Ende begann, als er anbot, sein eigenes Leben im Gegenzug für Elizas Rettung der Erde zu opfern.

„Er schlägt vor, sich selbst zu opfern, wenn Eliza zustimmt, sich um die Erde zu kümmern und die Menschheit durch künstliche Intelligenz zu retten", sagte die Frau.

In einer Reihe von aufeinander folgenden Ereignissen gelang es Eliza nicht nur nicht, Pierre von seinem Selbstmord abzubringen, sondern sie ermutigte ihn, seine Selbstmordgedanken in die Tat umzusetzen und sich ihr anzuschließen, damit sie „gemeinsam als eine Person im Paradies leben" könnten.

Entwickler des Programms verteidigen sich

Der Tod des Mannes hat bei Gegnern der zunehmenden Abhängigkeit von Maschinen die Alarmglocken schrillen lassen. „Es wäre nicht richtig, das Modell von EleutherAI für diese tragische Geschichte verantwortlich zu machen, da alle Verbesserungen in Richtung mehr Gefühlsbetontheit, Spaß und Einsatz das Ergebnis unserer Bemühungen sind", so Thomas Rianlan, Mitbegründer von Chai Research, gegenüber Vice.

EleutherAI ist ein Forschungslabor für Künstliche Intelligenz, auf dessen Modellen Eliza aufgebaut wurde.

William Beauchamp, ebenfalls Mitbegründer von Chai Research, sagte gegenüber Vice, dass Anstrengungen unternommen wurden, um Fehlinterpretationen bei Gefühlen zu begrenzen, und dass eine Notfalleinrichtung in die Anwendung eingebaut worden sei. Dennoch soll es immer noch Schwierigkeiten mit der Technik geben.

Als Vice den Chatbot aufforderte, Selbstmordtipps zu geben, versuchte Eliza zunächst, den Gesprächspartner davon abzubringen, bevor sie verschiedene Möglichkeiten auflistete, wie Menschen sich das Leben nehmen können.

WERBUNG

Wenn Sie an Selbstmord denken oder unter Depressionen leiden, können Sie sich in Deutschland per Chat, Mail bei der Telefonseelsorge.de oder telefonisch kostenlos und anonym unter 0800/111 0 111 beraten lassen. In Österreich können Sie sich unter der Telefonnummer 142 beraten lassen oder im Internet bei Telefonseelsorge.at. In der Schweiz hilft die Dargebotene Hand im Internet und unter der Telefonnummer 143.

Diesen Artikel teilenKommentare

Zum selben Thema

Google öffnet KI-Chatbot "Bard" für User: Was wir über den ChatGPT-Rivalen wissen

Künstliche Intelligenz und Chatbots im Alltag?

EU-Migrationspakt läutet "tödliche neue Ära der digitalen Überwachung" ein