Society-Star und Hotelerbin Paris Hilton und die US-Kongressabgeordnete Alexandria Ocasio-Cortez fordern rechtlichen Schutz für Opfer von KI-Deepfake-Pornografie.
Ein ohne ihre Zustimmung veröffentlichtes Sexvideo machte Paris Hilton Anfang der 2000er-Jahre zum Begriff.
Die Hotelerbin und Unternehmerin zieht eine Parallele zwischen dem, was ihr damals widerfuhr, und der wachsenden Krise um KI-Deepfake-Pornografie, die heute Frauen und Mädchen weltweit ins Visier nimmt.
In den vergangenen Wochen haben Aufsichtsbehörden weltweit eine wachsende Welle sexualisierter Deepfakes ohne Zustimmung von Frauen und Minderjährigen aufgegriffen. Im Zentrum der Kritik steht Elon Musks Chatbot Grok.
Auf Nutzeranfragen hin erzeugte Grok Hunderttausende Bilder, die echte Frauen und teils auch Mädchen digital „ausziehen“. xAI erklärte, man habe „technische Schutzmaßnahmen“ eingeführt, um solche Bearbeitungen zu verhindern. Forscher fanden jedoch heraus, dass sich diese Schranken umgehen ließen.
„Deepfake-Pornografie ist zu einer Epidemie geworden“, sagte Hilton am Donnerstag vor einer Menschenmenge vor dem US-Kapitol. „Sie ist die neueste Form der Viktimisierung im großen Stil. Sie trifft eure Töchter, eure Schwestern, eure Freundinnen und Nachbarinnen.“
Hilton war neunzehn, als ein Nacktvideo von ihr im Netz die Runde machte. Es katapultierte sie in eine zweifelhafte Berühmtheit. Es war eine Ära reißerischer Boulevardmedien, die junge Frauen im Rampenlicht ausnutzten.
„Viele nannten es einen Skandal, das war es nicht. Es war Missbrauch. Damals gab es keine Gesetze, die mich schützten, es gab nicht einmal Worte für das, was man mir angetan hatte“, sagte Hilton. Sie sprach damit erstmals öffentlich über den Vorfall von 2004.
„Ich verlor die Kontrolle über meinen Körper, über meinen Ruf. Mein Sicherheitsgefühl und mein Selbstwert wurden mir genommen, und ich habe hart darum gekämpft, mir das zurückzuholen“, fügte sie hinzu.
Die 44-Jährige sagt, sie wolle ihre Geschichte nun nutzen, um anderen jungen Frauen und Mädchen zu helfen, die online von Tätern mithilfe von KI-Werkzeugen ausgebeutet werden.
Darum, so Hilton, habe sie sich den US-Abgeordneten Alexandria Ocasio-Cortez und Laurel Lee angeschlossen, um sich für den Disrupt Explicit Forged Images and Non-Consensual Edits (DEFIANCE) Act starkzumachen.
Der Gesetzentwurf wurde in der vergangenen Woche einstimmig vom Senat angenommen und muss nun ins Repräsentantenhaus. Er würde Opfern KI-generierter Deepfakes einen Rechtsweg eröffnen, ihre Peiniger zur Rechenschaft zu ziehen.
„Es geht hier nicht nur um Technologie, es geht um Macht“, sagte Hilton. „Es geht darum, dass jemand das Bild eines anderen nutzt, um ihn zu demütigen, mundtot zu machen und seiner Würde zu berauben. Aber Betroffene verdienen mehr als Entschuldigungen im Nachhinein. Wir verdienen Gerechtigkeit.“
Hilton sagte, sie sei selbst Ziel von 100.000 sexualisierten KI-Deepfakes geworden.
„Keines davon ist echt, keines davon ist einvernehmlich. Und jedes Mal, wenn ein neues auftaucht, kommt dieses schreckliche Gefühl zurück, die Angst, dass irgendwo gerade jemand hinschaut und denkt, es sei echt“, sagte sie.
Missbräuchliche KI-Werkzeuge zügeln
Der DEFIANCE Act folgt auf den TAKE IT DOWN Act, der im Mai 2025 als erstes US-Bundesgesetz unterzeichnet wurde, das die Nutzung von KI einschränkt, wenn sie Einzelnen schaden kann.
TAKE IT DOWN steht für „Tools to Address Known Exploitation by Immobilising Technological Deepfakes on Websites and Networks Act“. Das Gesetz verpflichtet Onlineplattformen, nach Hinweis unautorisierte intime Bilder und Deepfakes zu entfernen. Es tritt im Mai 2026 in Kraft.
„TAKE IT DOWN sorgt für die Entfernung. DEFIANCE gibt uns die Möglichkeit des Rechtswegs und Entschädigung“, sagte Ocasio-Cortez, Mitinitiatorin des DEFIANCE Act.
„Sobald der Entwurf Gesetz ist, und das wird er, können Überlebende ihre Täter zur Verantwortung ziehen und Ersatz für finanzielle Schäden und Rufschädigung verlangen“, fügte sie hinzu.
Der parteiübergreifende DEFIANCE Act würde Überlebenden das Recht geben, Personen zu verklagen, die wissentlich nicht einvernehmliche, sexuell explizite digitale Fälschungen herstellen, verbreiten, anfordern oder entgegennehmen. Er erfasst auch jene, die solches Material mit Verbreitungsabsicht besitzen.
In Europa bieten der Digital Services Act (DSA) und der AI Act einen gewissen Schutz vor Deepfakes, da sie Plattformen zur Kennzeichnung KI-generierter Inhalte verpflichten. Deepfake-Pornografie wird jedoch nicht ausdrücklich geregelt, die Durchsetzung liegt bei den einzelnen Mitgliedstaaten.
Länder wie Frankreich, Dänemark und das Vereinigte Königreich haben Gesetze erlassen, die Opfer vor sexuell expliziten Deepfakes schützen und die Verbreiter nicht einvernehmlicher KI-Deepfakes mit hohen Geldstrafen und sogar Haftstrafen belegen.