Pornofakes, Propaganda, Zweifel an der Realität: Forscher warnen vor neuen Angriffen auf die Wahrheit. Ein Chip aus der Schweiz soll helfen, echte Inhalte von KI-Fälschungen zu unterscheiden.
Forscher der Schweizer Universität ETH Zürich haben einen Chip entwickelt, der Deepfakes erkennbar machen kann. Deepfakes sind gefälschte Fotos, die unter anderem mit KI-Anwendungen hergestellt werden können. Auch gefälschte Videos und Audioaufnahmen kann die neue Technologie entlarven. Zuletzt erregten Vorfälle auf der Social-Media-Plattform X Aufsehen, bei denen User deren KI "Grok" nutzten, um pornografische Deepfakes von Frauen und Kindern zu erstellen.
Um Fotos wieder leichter als real identifizierbar zu machen, signiert der von den Forschern entwickelte Sensorchip mit dem Handy aufgenommene Daten bei der Entstehung. Mit dieser Signatur lässt sich nachweisen, dass die Bilder oder Audioaufnahmen von einer echten Handykamera stammen. Auch wann die Daten aufgenommen wurden, wird gespeichert.
"Die Gefahr von Deepfakes halte ich schon seit Beginn unserer Arbeiten im Jahr 2017 für erheblich", so Forscher Felix Franke zu Euronews. Doch mittlerweile stehe noch eine größere Gefahr im Raum: sogenannte "Denial-of-Truth-Attacken". Bei diesen Attacken werden zu einem echten Ereignis massenhaft gefälschte Fotos und Videos verbreitet. So werde es immer schwieriger, "Wahrheit von Fälschung zu unterscheiden", erklärt der Schweizer Wissenschaftler.
Die Signaturen könnten automatisch in einem für alle zugänglichen Register gespeichert werden, das nicht verändert werden kann. So wären die Daten nicht manipulierbar.
Noch ist der Chip der Forschungsgruppe ein Prototyp. Im Vergleich zu anderen bereits existierenden Verfahren setzt ihre Sensortechnologie an der Ursprungsquelle, an der Kamera, an. Verbunden mit anderen Technologien "könnte so eine durchgehende Vertrauenskette entstehen: vom Ursprung der Aufnahme bis zum fertigen digitalen Inhalt", erzählt Franke.
EU plant Verbot von Deep Fake-Software
Bis wann die Technologie marktreif ist, lässt sich noch nicht sagen, so der Forscher. Für eine breite Umsetzung brauche es öffentlichen Druck, vor allem Nachfrage von Konsumenten. "Wir arbeiten daran, die Technologie weiterzuentwickeln und die Hürden für eine praktische Umsetzung durch Hersteller von Sensorchips zu senken. Und ich glaube, es ist wichtig, dass Interessierte solche Werkzeuge überall dort nutzen, wo sie verfügbar werden und aktiv einfordern, wo das noch nicht der Fall ist."
"Auch politische Entscheidungsträgerinnen und -träger haben hier eine wichtige Rolle", sagt Franke. Der Forscher vergleicht seinen Chip mit der Vereinheitlichung von Ladekabeln. Seit Anfang 2026 dürfen viele elektrische Geräte nur noch in der EU verkauft werden, wenn sie mit einem USB-C-Ladekabel aufladbar sind.
Diese Woche stimmte das EU-Parlament für ein Verbot von KI-Anwendungen, mit denen Nutzer etwa Deepfakes oder sexualisierte Bilder erstellen können. Der EU-Rat muss noch der finalen Version des Verbots zustimmen. Zusätzlich ist in Deutschland ein weiterer Gesetzentwurf von Bundesjustizministerin Stefanie Hubig (SPD) geplant.
Ziel sei es, "dass zum Beispiel das Herstellen und Verbreiten von pornografischen Deepfakes unter Strafe gestellt wird, damit wir da eine klare Gesetzeslage haben", sagte Hubig RTL und n-tv. "Wir wollen dafür sorgen, dass sich Täter nicht mehr sicher fühlen können, sondern dass sie damit rechnen müssen, dass sie bekannt und wirksam strafrechtlich verfolgt werden."
Dabei gehe es nicht nur um pornografisches Material, sondern auch um Deepfakes, die Persönlichkeitsrechte angreifen, etwa Bilder, die Betroffene lächerlich machen oder Lügen verbreiten, so Hubig zum Spiegel. Zudem solle das Gesetz die Verbreitung von heimlich gemachten Aufnahmen verbieten.