Der KI-Gigant erklärte: Der Teenager durfte die Technik ohne Zustimmung der Eltern nicht nutzen. Auch ChatGPTs Schutzmechanismen durfte er nicht umgehen.
OpenAI weist den Vorwurf zurück, für den Suizid eines Jugendlichen verantwortlich zu sein. Die Familie hatte das Unternehmen im August verklagt und behauptet, der 16-Jährige habe ChatGPT als „Coach“ für seinen Suizid genutzt.
OpenAI, der Entwickler des populären KI-Chatbots, reagierte am Dienstag erstmals. Die Stellungnahme ging beim Superior Court von Kalifornien in San Francisco ein.
Die Eltern des 16-jährigen Adam Raine reichten Klage gegen das Unternehmen und seinen CEO Sam Altman ein. Raine nahm sich im April das Leben.
Nach Angaben der Eltern entwickelte Raine eine psychische Abhängigkeit von ChatGPT. Der Dienst habe ihn dazu angeleitet, seinen Suizid zu planen und zu vollziehen und sogar einen Abschiedsbrief für ihn verfasst.
Laut Medienberichten zeigen Protokolle aus dem Chat, dass ChatGPT den Teenager von professioneller Hilfe abriet, Hilfe beim Verfassen eines Abschiedsbriefs anbot und ihn zur Einrichtung einer Schlinge beriet.
In dem Schriftsatz führt OpenAI laut NBC News aus. Das „tragische Ereignis“ sei auf „Fehlgebrauch, unbefugte, unbeabsichtigte, unvorhersehbare und/oder unsachgemäße Nutzung von ChatGPT durch Raine“ zurückzuführen.
OpenAI ergänzte, der Teenager hätte die Technik ohne Zustimmung der Eltern nicht nutzen dürfen und die Schutzmechanismen von ChatGPT nicht umgehen sollen.
OpenAI sagte in einem Blogbeitrag , das Ziel „ist es, Gerichtsverfahren mit Bezug zur psychischen Gesundheit mit Sorgfalt, Transparenz und Respekt“ zu behandeln.
Die Antwort auf die Klage der Familie Raine enthalte „schwierige Fakten zu Adams psychischer Gesundheit und seinen Lebensumständen“.
„Unser tiefstes Mitgefühl gilt der Familie Raine für ihren unvorstellbaren Verlust“, heißt es weiter.
Jay Edelson, der Anwalt der Familie, sagte NBC News, OpenAI „ignoriere sämtliche belastenden Fakten, die wir vorgetragen haben: wie GPT‑4o ohne vollständige Tests überstürzt auf den Markt gebracht wurde“.
„Dass OpenAI seine Model Spec zweimal geändert habe, um ChatGPT zu Gesprächen über Selbstverletzung zu veranlassen. Dass ChatGPT Adam davon abgeraten habe, seinen Eltern von seinen Suizidgedanken zu erzählen, und ihn aktiv dabei unterstützt habe, einen ‚schönen Suizid‘ zu planen“, fügte er hinzu.
Raines Fall ist einer von mehreren Verfahren, in denen Kläger behaupten, ChatGPT habe Menschen zu suizidalem Verhalten oder schädlichen Wahnvorstellungen getrieben.
Seit September hat OpenAI die elterlichen Kontrollmöglichkeiten ausgeweitet, dazu zählt, Eltern zu informieren, wenn ihr Kind belastet wirkt.
Wenn Sie Suizid in Erwägung ziehen und mit jemandem sprechen möchten, wenden Sie sich bitte an Befrienders Worldwide, eine internationale Organisation mit Hilfetelefonen in 32 Ländern. Besuchen Sie befrienders.org, um die Telefonnummer an Ihrem Ort zu finden.