Die Gruppe schlägt Alarm. Wenn jeder per Prompt zu fast jedem Thema KI-Videos erzeugen kann, steigt die Gefahr von Missbrauch und Desinformation.
Die Techbranche gibt wieder Vollgas und macht dabei viel kaputt. Diesmal geht es um unsere gemeinsame Realität und die Kontrolle über unser Abbild, vor und nach dem Tod. Möglich machen das KI-Bildgeneratoren wie Sora 2 von OpenAI.
Ein typisches Sora-Video, erstellt in der OpenAI-App und verbreitet auf TikTok, Instagram, X und Facebook, ist so amüsant, dass man klickt und teilt. Es kann Königin Elizabeth II. beim Rappen zeigen oder etwas Alltäglicheres und Glaubwürdigeres.
Eine beliebte Sora-Spielart sind gefälschte Klingelkamera-Clips. Sie zeigen etwas leicht Unheimliches, zum Beispiel eine Boa auf der Veranda oder einen Alligator, der auf ein ungerührtes Kind zugeht. Am Ende folgt ein kleiner Schreck, etwa wenn eine Großmutter das Tier mit dem Besen vertreibt und dabei schreit.
Doch eine wachsende Zahl von Verbänden, Wissenschaftlerinnen und Wissenschaftlern sowie Expertinnen und Experten warnt vor den Gefahren. Wer zu fast allem, was sich in einen Prompt tippen lässt, KI-Videos erstellen kann, produziert massenhaft nicht einvernehmliche Bilder und realistische Deepfakes, inmitten von weniger schädlichem „KI-Matsch“.
OpenAI geht inzwischen gegen KI-Kreationen mit öffentlichen Personen vor, darunter Michael Jackson, Martin Luther King Jr. und Mister Rogers, die Absurdes tun. Das geschah aber erst nach Protesten von Nachlassverwaltern und einer Schauspielergewerkschaft.
Die gemeinnützige Organisation Public Citizen fordert nun, dass OpenAI Sora 2 aus dem öffentlichen Zugriff nimmt. In einem Brief vom Dienstag an das Unternehmen und CEO Sam Altman heißt es, die hastige Veröffentlichung, um der Konkurrenz zuvorzukommen, zeige ein „durchgängiges und gefährliches Muster, in dem OpenAI Produkte vorschnell auf den Markt bringt, die entweder von Natur aus unsicher sind oder bei denen nötige Leitplanken fehlen“.
Sora 2 zeige, so der Brief, eine „rücksichtslose Missachtung“ der Produktsicherheit, der Rechte von Menschen an ihrem eigenen Abbild und der Stabilität der Demokratie. Der Brief ging auch an den US-Kongress.
OpenAI reagierte am Dienstag nicht auf Anfragen nach einer Stellungnahme.
Gruppe äußert Sicherheitsbedenken
„Unsere größte Sorge ist die mögliche Bedrohung für die Demokratie“, sagte JB Branch, Technologiepolitiker bei Public Citizen, im Gespräch.
„Ich glaube, wir betreten eine Welt, in der Menschen dem, was sie sehen, kaum noch trauen können. Und wir sehen erste Strategien in der Politik, bei denen das erste Bild, das erste Video, das veröffentlicht wird, das ist, woran sich die Leute erinnern.“
Branch, der den Brief am Dienstag verfasst hat, sieht außerdem weitergehende Eingriffe in die Privatsphäre, die online vor allem verletzliche Gruppen treffen.
OpenAI blockiert Nacktheit. Doch Branch sagt: „Frauen sehen, wie sie online belästigt werden.“ Das passiert auf andere Weise, etwa mit fetischisiertem Nischenmaterial, das die Beschränkungen der Apps passiert.
Das Medium 404 Media berichtete kürzlich über eine Flut von Sora-Videos, in denen Frauen gewürgt werden.
OpenAI brachte die neue Sora-App vor mehr als einem Monat auf iPhones. Vergangene Woche folgte der Start auf Android-Telefonen in den USA, Kanada und mehreren asiatischen Ländern, darunter Japan und Südkorea.
Der stärkste Gegenwind kommt aus Hollywood und anderen Bereichen der Unterhaltungsindustrie, darunter die japanische Manga-Branche.
OpenAI kündigte schon wenige Tage nach dem Start die ersten größeren Änderungen an. „Overmoderation ist super frustrierend“ für Nutzerinnen und Nutzer, hieß es. Es sei wichtig, konservativ vorzugehen, „während die Welt sich noch an diese neue Technologie gewöhnt“.
Es folgten öffentlich bekanntgemachte Vereinbarungen mit der Familie von Martin Luther King Jr. am 16. Oktober, die „respektlose Darstellungen“ des Bürgerrechtlers verhindern sollen, während das Unternehmen an besseren Schutzmaßnahmen arbeitet. Am 20. Oktober gab es eine weitere mit „Breaking Bad“-Darsteller Bryan Cranston, der Gewerkschaft SAG-AFTRA und Talentagenturen.
„Das ist ja schön und gut, wenn man berühmt ist“, sagte Branch. „Es passt zu einem Muster bei OpenAI: Man reagiert auf den Aufschrei einer sehr kleinen Gruppe.“
„Sie bringen etwas heraus und entschuldigen sich dann“, so Branch weiter. „Vieles davon sind aber Designentscheidungen, die man vor dem Start treffen kann.“
OpenAI sieht sich ähnlichen Vorwürfen gegen sein Flaggschiff ChatGPT ausgesetzt. Sieben neue Klagen, die vergangene Woche eingereicht wurden in den USA behaupten, der Chatbot habe Menschen in den Suizid und in schädliche Wahnvorstellungen getrieben, selbst ohne vorherige psychische Probleme.
Die Klagen wurden im Namen von sechs Erwachsenen und einem Teenager vom Social Media Victims Law Center und dem Tech Justice Law Project eingereicht. Sie werfen OpenAI vor, GPT-4o im vergangenen Jahr wissentlich zu früh veröffentlicht zu haben, trotz interner Warnungen, es sei gefährlich gefällig und psychologisch manipulativ.
Vier der Betroffenen starben durch Suizid.
Public Citizen ist an den Klagen nicht beteiligt. Branch sieht aber Parallelen zur übereilten Einführung von Sora.
Er sagt, OpenAI trete „voll aufs Gas, ohne Rücksicht auf Schäden“. Vieles davon sei absehbar. „Lieber bringen sie das Produkt schnell raus, lassen es millionenfach laden und machen Menschen süchtig, statt das Richtige zu tun und diese Dinge vorher zu Stresstests zu schicken und sich um die Lage der alltäglichen Nutzerinnen und Nutzer zu sorgen.“
OpenAI war vergangene Woche damit beschäftigt, auf Beschwerden eines japanischen Branchenverbands zu reagieren. Er vertritt bekannte Animationsstudios wie Hayao Miyazakis Studio Ghibli und Videospielhersteller wie Bandai Namco und Square Enix.
OpenAI sagt, viele Anime-Fans wollten mit ihren Lieblingsfiguren interagieren. Zugleich habe man Leitplanken gesetzt, damit bekannte Figuren ohne Zustimmung der Rechteinhaber nicht generiert werden.
„Wir sind im direkten Austausch mit Studios und Rechteinhabern, hören auf Rückmeldungen und lernen aus der Nutzung von Sora 2, auch in Japan, wo Kultur- und Kreativbranchen besonders geschätzt werden“, erklärte OpenAI in einer Stellungnahme zu dem Schreiben des Branchenverbands in der vergangenen Woche.