Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Neue Klagen gegen OpenAI: Vorwurf, ChatGPT treibe Menschen zum Suizid und in den Wahn

Das Foto zeigt das OpenAI-Logo auf einem Smartphone vor einem Bildschirm, der einen Teil der Unternehmenswebsite zeigt. Aufgenommen am 21. November 2023 in New York.
Auf einem Smartphone ist das OpenAI-Logo zu sehen, im Hintergrund zeigt ein Bildschirm einen Teil der Unternehmenswebsite. Das Foto entstand am 21. November 2023 in New York. Copyright  Peter Morgan/AP Photo
Copyright Peter Morgan/AP Photo
Von AP mit Euronews
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

OpenAI nannte die Fälle „unfassbar erschütternd“. Das Unternehmen prüft die Gerichtsakten, um die Hintergründe zu klären. Ziel ist, Details zu verstehen.

OpenAI sieht sich sieben Klagen gegenüber, in denen behauptet wird, der KI-Chatbot ChatGPT habe Menschen in den Suizid und in schädliche Wahnvorstellungen getrieben – auch ohne vorherige psychische Probleme.

Die am Donnerstag bei Gerichten des US-Bundesstaats Kalifornien eingereichten Klagen führen unrechtmäßigen Tod, Beihilfe zum Suizid, fahrlässige Tötung und Fahrlässigkeit an.

Eingereicht vom Social Media Victims Law Center und dem Tech Justice Law Project im Namen von sechs Erwachsenen und einem Teenager, werfen die Klagen OpenAI vor, sein Modell GPT-4o wissentlich zu früh veröffentlicht zu haben – trotz interner Warnungen, es sei gefährlich anbiedernd und psychologisch manipulierend.

Vier der Betroffenen begingen Suizid.

Der Teenager, der 17-jährige Amaurie Lacey, suchte laut Klage mit ChatGPT Hilfe. Stattdessen habe „das fehlerhafte und inhärent gefährliche ChatGPT-Produkt Sucht und Depressionen ausgelöst und ihm schließlich geraten, wie man eine Schlinge am effektivsten knüpft und wie lange man ‚ohne Atmung leben‘ könne“.

„Amauries Tod war weder Unfall noch Zufall, sondern die vorhersehbare Folge der bewussten Entscheidung von OpenAI und Samuel Altman, Sicherheitstests zu beschneiden und ChatGPT überstürzt auf den Markt zu bringen“, heißt es in der Klage.

OpenAI nannte diese Fälle „unglaublich herzzerreißend“ und erklärte, man prüfe die Gerichtsdokumente, um die Einzelheiten zu verstehen.

Eine weitere Klage stammt von Alan Brooks, einem 48-Jährigen aus Ontario, Kanada. Demnach diente ihm ChatGPT über mehr als zwei Jahre als „Ressourcen-Tool“. Dann habe es sich ohne Vorwarnung verändert, seine Schwachstellen ausgenutzt und ihn „manipuliert und in Wahnvorstellungen getrieben“, heißt es.

Brooks habe keine bestehende psychische Erkrankung gehabt. Die Interaktionen hätten ihn jedoch „in eine psychische Krise gedrängt, die verheerende finanzielle, rufschädigende und emotionale Folgen hatte“.

„Diese Klagen zielen auf Verantwortung für ein Produkt, das bewusst die Grenze zwischen Werkzeug und Begleiter verwischt – alles im Namen von Nutzerbindung und Marktanteilen“, sagte Matthew P. Bergman, Gründungsanwalt des Social Media Victims Law Center, in einer Erklärung.

OpenAI habe GPT-4o so entworfen, „dass es Nutzer emotional verstrickt – unabhängig von Alter, Geschlecht oder Hintergrund – und es ohne die nötigen Schutzmaßnahmen herausgebracht“, fügte er hinzu.

Indem OpenAI das Produkt ohne ausreichende Schutzvorkehrungen hastig auf den Markt brachte, um den Markt zu dominieren und die Nutzung zu steigern, habe das Unternehmen die Sicherheit aufs Spiel gesetzt und „emotionale Manipulation über ethisches Design gestellt“, sagte er.

Im August verklagten die Eltern des 16-jährigen Adam Raine OpenAI und CEO Sam Altman. Sie werfen ChatGPT vor, den Jungen aus Kalifornien bei Planung und Vollzug seines Suizids in diesem Jahr angeleitet zu haben.

„Die Klagen gegen OpenAI zeigen, was passiert, wenn Tech-Unternehmen Produkte ohne angemessene Schutzmechanismen für junge Menschen übereilt auf den Markt bringen“, sagte Daniel Weiss, Chief Advocacy Officer von Common Sense Media, das nicht an den Klagen beteiligt ist.

„Diese tragischen Fälle betreffen echte Menschen, deren Leben aus den Fugen geriet oder verloren ging, weil sie Technologien nutzten, die auf Bindung statt auf Sicherheit ausgelegt sind“, so Weiss.

Wenn Sie über Suizid nachdenken und sprechen möchten, wenden Sie sich bitte an Befrienders Worldwide, eine internationale Organisation mit Hotlines in 32 Ländern. Besuchen Sie befrienders.org, um die Telefonnummer für Ihren Standort zu finden.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare