Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Meta-Chef Zuckerberg sagt im Prozess zu mutmaßlichen Schäden sozialer Medien bei Kindern aus

Archivbild: Facebook-Chef Mark Zuckerberg pausiert bei einer Aussage vor dem Handels- und Rechtsausschuss im US-Kongress in Washington, 2018.
Archivaufnahme: Facebook-Chef Mark Zuckerberg hält kurz inne, als er 2018 vor einem gemeinsamen Ausschuss für Handel und Justiz auf dem Capitol Hill in Washington aussagt. Copyright  AP Photo/Alex Brandon
Copyright AP Photo/Alex Brandon
Von Anna Desmarais & AP
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Eine zwanzigjährige Frau, die sich KGM nennt, klagt gegen Meta und Google. Als Kind habe die Nutzung ihrer Plattformen Depressionen und Suizidgedanken gefördert.

Meta-Chef Mark Zuckerberg (Quelle auf Englisch) wird am Mittwoch in einem Prozess zu sozialen Medien in Kalifornien aussagen. Im Mittelpunkt steht die Frage, ob Funktionen auf den Plattformen seines Konzerns Kindern schaden oder Abhängigkeiten fördern.

WERBUNG
WERBUNG

Zuckerberg sagt vor einer Jury aus. Im Saal sitzen auch trauernde Eltern, deren Kinder sich nach Darstellung der Familien wegen der Nutzung sozialer Medien das Leben genommen haben. Bei einer Anhörung im Kongress der Vereinigten Staaten hatte er sich bereits bei Familien entschuldigt, deren Leben nach eigener Einschätzung durch soziale Medien aus den Fugen geraten ist.

Zuckerberg dürfte sich Fragen zu Instagrams Algorithmus und zu Funktionen in der App stellen müssen. Die Klägerinnen und Kläger werfen Meta vor, diese Elemente so gestaltet zu haben, dass sie junge Nutzerinnen und Nutzer möglichst lange binden.

Die Klage fällt in eine Zeit, in der europäische Staaten altersbezogene Beschränkungen für Meta, Google und andere große Plattformen prüfen. Sie wollen Kinder besser vor schädlichen Inhalten im Netz schützen.

Worum geht es in dem Prozess?

KGM, eine zwanzigjährige Frau, die nur mit ihren Initialen benannt wird, trägt in der Klage vor, dass sie als Kind Meta- und Google-Angebote genutzt habe und dadurch süchtig nach der Technik geworden sei. Diese Abhängigkeit habe ihre Depressionen und Suizidgedanken verschlimmert.

Nach Darstellung der Klägerseite haben die Unternehmen ihre Angebote bewusst so designt – mit Methoden ähnlich wie in Spielcasinos –, dass sie für Kinder besonders süchtigmachend sind, um höhere Gewinne zu erzielen.

Die Klage richtete sich zunächst gegen vier Unternehmen: Zuckerbergs Meta, Googles YouTube, ByteDance mit TikTok und Snap Inc., die Mutter von Snapchat. TikTok und Snap Inc. sollen sich Medienberichten zufolge vor Prozessbeginn mit der Klägerin geeinigt haben.

Bei dem Verfahren handelt es sich in den Vereinigten Staaten um einen sogenannten „Bellwether Trial“. Das ist ein Musterprozess, dessen Ausgang Einfluss darauf haben kann, wie Tausende weiterer Klagen gegen Social-Media-Konzerne weitergehen.

Euronews Next hat den Anwalt von KGM um eine Einschätzung dazu gebeten, was das Team von Zuckerbergs Aussage erwartet, bislang aber keine Antwort erhalten.

Ein Meta-Sprecher sagte der Nachrichtenagentur Associated Press, der Konzern weise die Vorwürfe in der Klage entschieden zurück. Man sei „zuversichtlich, dass die Beweise unser langjähriges Engagement für die Unterstützung junger Menschen belegen werden“. Euronews Next hat auch Google um eine Stellungnahme gebeten.

Metas Anwalt Paul Schmidt stellte bereits in seinem Eröffnungsplädoyer vergangene Woche infrage, ob Instagram wirklich für die psychischen Probleme von KGM verantwortlich sei. Er verwies stattdessen auf Unterlagen, die auf ein schwieriges familiäres Umfeld hindeuten. Schmidt argumentierte, KGM habe soziale Netzwerke als Bewältigungsstrategie für ihre Probleme genutzt.

Meta und Google hatten im vergangenen November versucht, beim Superior Court von Los Angeles die Klage von KGM abweisen zu lassen. Das Gericht lehnte (Quelle auf Englisch) dies jedoch ab und machte damit den Weg für den Prozess frei.

Meta und Google verweisen zudem darauf, dass sie nach amerikanischem Recht geschützt seien. Demnach könnten sie nicht rechtlich für Inhalte Dritter haftbar gemacht werden, die Nutzende auf einer Plattform oder Website angezeigt bekommen, heißt es in einem Schriftsatz vom November.

Gerichte legen diese Regelung, bekannt als Section 230 des Communications Decency Act, so aus, dass sie „Online-Dienste wie soziale Netzwerke vor Klagen schützt, die sich gegen ihre Entscheidungen richten, nutzergenerierte Inhalte zu übertragen oder zu löschen“, heißt es beim US-Kongress.

In den Unterlagen argumentierte Meta außerdem, Designelemente wie das „endlose Scrollen“ seien nicht verantwortlich für KGMs Instagram-Nutzung, da sie sich bewusst entschieden habe, weiter Inhalte anzuschauen.

Das Gericht kam jedoch zu dem Schluss, dass ausreichende Anhaltspunkte vorliegen. Die Jury solle prüfen, ob die auf Engagement ausgerichteten Funktionen von Instagram zu ihren psychischen Problemen beigetragen haben könnten.

KGM wirft Google vor, sie durch das Empfehlungssystem von YouTube, die Kommentarspalten und die Autoplay-Funktion schädlichen Inhalten ausgesetzt zu haben. Außerdem behauptet sie, die Plattform setze Altersbeschränkungen nicht wirksam um.

Wer hat außerdem ausgesagt?

Adam Mosseri (Quelle auf Englisch), Chef von Metas Instagram, sagte vergangene Woche im Prozess aus, er teile nicht die Auffassung, dass Menschen klinisch abhängig von sozialen Netzwerken werden können.

Mosseri betonte, Instagram und Meta arbeiteten daran, junge Menschen auf der Plattform zu schützen. „Auf lange Sicht ist es für das Unternehmen nicht gut, Entscheidungen zu treffen, die uns zwar Gewinn bringen, aber schlecht für das Wohlergehen der Menschen sind“, sagte er.

Wichtig sei, zwischen einer klinischen Sucht und dem aus seiner Sicht problematischen Gebrauch zu unterscheiden. Letzteres sei der Fall, „wenn jemand mehr Zeit auf Instagram verbringt, als ihm oder ihr guttut“.

Instagram hat mehrere Funktionen, die Kinder vor schädlichen Inhalten schützen sollen. Dazu gehören private Konten für Jugendliche, Sicherheitshinweise, Filter für Inhalte und Elternkontrollen.

Zwei Drittel der Sicherheitstools von Meta auf seinen Plattformen, darunter Instagram, erwiesen sich als unwirksam. Das ergab eine Studie aus dem Jahr 2025 von Meta-Whistleblower Arturo Béjar und Forschenden von zwei US-Universitäten.

Demnach bekamen Jugendkonten Empfehlungen für sexuelle Inhalte, kurze Nacktdarstellungen sowie Inhalte zu Themen wie Selbstverletzung, Selbstschädigung und Körperbild.

Meta bezeichnete den Bericht seinerzeit laut Associated Press (Quelle auf Englisch) als „irreführend, gefährlich spekulativ“.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Start-ups warnen: EU-Bürokratie bremst Schwedens KI-Boom

Nach Kritik aus Hollywood: ByteDance verschärft Schutz bei KI-Videotool Seedance 2.0

Meta-Chef Zuckerberg sagt im Prozess zu mutmaßlichen Schäden sozialer Medien bei Kindern aus