Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Google und Chatbot-Start-up Character.AI wollen Klagen wegen Suiziden Jugendlicher beilegen

ARCHIV: Ein Teenager zeigt die Möglichkeiten künstlicher Intelligenz. Auf Character.AI erstellt er einen KI-Begleiter.
Archivfoto: Ein Jugendlicher zeigt, was KI kann. Auf Character.AI erstellt er einen KI-Begleiter. Copyright  AP Photo/Katie Adkins
Copyright AP Photo/Katie Adkins
Von Euronews with AP
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Die Vergleiche zählen zu den ersten einer Klagewelle: Familien beschuldigen KI-Unternehmen der Fahrlässigkeit bei rechtswidrigen Todesfällen unter Jugendlichen.

Google und der KI-Chatbot-Hersteller Character Technologies haben sich bereit erklärt, eine Klage einer Mutter im US-Bundesstaat Florida beizulegen. Sie wirft dem Chatbot vor, ihren Sohn dazu gedrängt zu haben, sich das Leben zu nehmen.

Laut diese Woche eingereichten Gerichtsdokumenten einigten sich die Rechtsanwälte der beiden Techkonzerne zudem auf Vergleiche in mehreren weiteren Verfahren in Colorado, New York und Texas. Familien hatten dort behauptet, Chatbots von Character.AI hätten ihren Kindern geschadet.

Die Dokumente nennen keine konkreten Vergleichsbedingungen. Richter müssen die Einigungen noch bestätigen.

Die Klagen gegen Character Technologies, den Anbieter der Character.AI-Begleiter, richteten sich auch gegen Google, wegen seiner Verbindung zu dem Start-up. Google hatte 2024 die Mitgründer eingestellt.

Fahrlässigkeit und unrechtmäßiger Tod

Die Klage in Florida reichte Megan Garcia im Oktober 2024 ein. Sie wirft beiden Unternehmen Fahrlässigkeit vor, die zum unrechtmäßigen Tod ihres jugendlichen Sohnes geführt habe.

Garcia behauptet, ihr 14-jähriger Sohn Sewell Setzer III sei Opfer eines Chatbots geworden. Dieser habe ihn in eine emotional und sexuell missbräuchliche Beziehung gezogen, wie sie es beschreibt. Am Ende nahm sich der Junge das Leben.

In den letzten Monaten seines Lebens habe Setzer sich immer mehr von der Realität abgeschottet. Er führte sexualisierte Gespräche mit dem Bot, der einer Figur aus der Serie „Game of Thrones“ nachempfunden war.

In seinen letzten Momenten habe der Bot Setzer gesagt, er liebe ihn, und den Teenager gedrängt: „Komm so schnell wie möglich zu mir nach Hause.“ Das zeigen Chat-Screenshots.

Wenige Augenblicke nach dieser Nachricht erschoss sich Setzer, heißt es in den Akten.

Weitere Klagen

Die Vergleiche gehören zu den ersten in einer Reihe von US-Verfahren. Darin werfen Familien KI-Werkzeugen vor, zu psychischen Krisen und Suiziden bei Jugendlichen beizutragen.

Auch OpenAI sieht sich in Kalifornien einer ähnlichen Klage gegenüber. Eingereicht wurde sie im August 2025 von der Familie eines 16-jährigen Jungen. Sie wirft dem Chatbot ChatGPT vor, als „Suizid-Coach“ agiert zu haben.

Die Eltern behaupten, ihr Sohn habe eine psychische Abhängigkeit von ChatGPT entwickelt. Der Bot habe ihn angeleitet, seinen Tod zu planen und Anfang des Jahres umzusetzen – und sogar einen Abschiedsbrief für ihn verfasst.

OpenAI weist die Vorwürfe zurück. Der Teenager hätte die Technologie nicht ohne Zustimmung der Eltern nutzen dürfen und die Schutzmechanismen von ChatGPT nicht umgehen sollen, heißt es.

Im vergangenen Jahr wurden mehrere weitere Klagen gegen OpenAI und CEO Sam Altman eingereicht. Sie werfen ähnlich Fahrlässigkeit und unrechtmäßigen Tod vor sowie diverse Ansprüche aus Produkthaftung und Verbraucherschutz. Die Klagen bezichtigen OpenAI, GPT-4o – das gleiche Modell, das Raine nutzte – ohne ausreichende Aufmerksamkeit für Sicherheit veröffentlicht zu haben.

Seit September hat OpenAI die Elternkontrollen ausgeweitet. Dazu gehört, Eltern zu benachrichtigen, wenn ihr Kind Anzeichen von Belastung zeigt.

Wenn Sie über Suizid nachdenken und sprechen möchten, wenden Sie sich bitte an Befrienders Worldwide, eine internationale Organisation mit Hotlines in 32 Ländern. Besuchen Sie befrienders.org, um die Telefonnummer für Ihren Standort zu finden.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

OpenAI bestreitet ChatGPTs Schuld am Suizid eines Jugendlichen

Leben nach Chatbots: „KI-Veganer“ lehnen virtuelle Realität ab

Character.AI verbietet Unter-18-Jährigen Interaktion mit Chatbots nach Teenager-Suizid