Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Internationaler Faktencheck-Tag: So entlarven Sie KI-Desinformation

Um KI-Bilder oder -Videos zu erkennen, recherchieren Sie selbst, achten Sie auf Details und hören Sie auf Expertinnen und Experten für Faktenchecks.
Um KI-Bilder oder -Videos zu erkennen, recherchieren Sie selbst, achten Sie auf Details und hören Sie auf unabhängige Faktenchecker. Copyright  Canva
Copyright Canva
Von Anna Desmarais & AP
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Wer eigenständig recherchiert, das Bild genau nach Hinweisen prüft und Urteilen von Faktenprüfern vertraut, erkennt oft, ob es aus einer KI stammt.

Am zehnten Internationalen Tag des Faktencheckings bietet sich ein guter Anlass, sich noch einmal anzuschauen, wie sich von KI erzeugte Desinformation erkennen lässt.

WERBUNG
WERBUNG

Solche Inhalte tauchen inzwischen überall auf: im Zusammenhang mit dem Konflikt zwischen den USA und Iran, im Vorfeld der ungarischen Wahlen und selbst in persönlichen Feeds.

Eine aktuelle Studie, veröffentlicht im Fachjournal PNAS Nexus, ließ 27 000 Menschen aus 27 EU-Staaten acht Schlagzeilen bewerten – teils von Menschen, teils von KI erstellt. Sie sollten angeben, wie echt die Überschriften wirken.

Fast die Hälfte der KI-Schlagzeilen stuften sie als „größtenteils“ oder „völlig echt“ ein; bei menschlich geschriebenen waren es 44 Prozent. Wenn klar war, dass es um ein reales Ereignis ging, wollten sie Beiträge von KI eher teilen und glaubten ihnen eher als Texten von Menschen.

Gleichzeitig gaben die Befragten an, einen Beitrag – egal ob von Mensch oder KI – seltener zu teilen, wenn sie wussten, dass er falsch ist.

Die Ergebnisse deuten darauf hin, dass viele Menschen Inhalte von Mensch und KI kaum auseinanderhalten können, so die Forschenden.

Hier einige Hinweise, wie es dennoch gelingen kann.

Auf visuelle Hinweise achten

Die ersten KI-Videos im Netz hatten oft auffällige Fehler: Menschen mit zu vielen Fingern, Ton und Lippenbewegungen passten nicht zusammen, Gegenstände wirkten verzerrt.

Heute sind solche Anzeichen seltener, weil die Technik deutlich weiter ist. Es lohnt sich trotzdem, gezielt danach zu suchen.

Nutzende können etwa auf Brüche in der Szene achten: Ein Auto ist in einem Moment zu sehen und im nächsten verschwunden.

Manche KI-Bilder wirken zudem übertrieben glatt oder haben einen unnatürlich glänzenden Look, berichtet das Global Investigative Journalism Network (GIJN).

Das GIJN rät, sich beim Betrachten eines möglicherweise KI-erzeugten Fotos zu fragen: Wirkt die abgebildete Person zu perfekt für die Situation? Sieht sie etwa aus wie fürs Hochglanzmagazin gestylt, obwohl sie angeblich aus einem Konfliktgebiet berichtet? Zudem lohnt ein Blick auf die Haut: Fehlen Poren und feine Strukturen, kann das ein Hinweis auf KI sein.

Selbst nachprüfen

Wirkt ein Bild oder Video verdächtig, lässt sich seine Herkunft oft überprüfen.

Ein Weg führt über die umgekehrte Bildersuche: Screenshot machen, in die Google-Suche hochladen und auf das Kamera-Symbol „Bildersuche“ klicken.

Danach zeigt Google visuell ähnliche Treffer an; so lässt sich meist schnell nachvollziehen, wann und in welchem Zusammenhang das Motiv erstmals online auftauchte.

Ähnlich funktioniert das bei anderen Suchmaschinen oder mit Spezialdiensten wie TinEye.

Nutzende können außerdem technische Werkzeuge einsetzen, um Wasserzeichen oder Metadaten eines Inhalts auszulesen und so die Glaubwürdigkeit besser einzuschätzen, laut (Quelle auf Englisch) der Europäischen Kommission.

Beispielsweise enthalten mit Googles Gemini-KI erzeugte Bilder ein unsichtbares digitales Wasserzeichen namens SynthID, das die Anwendung erkennen kann.

Auf Expertinnen und Experten hören

Es lohnt sich auch zu prüfen, ob Medienhäuser, bekannte Persönlichkeiten oder spezialisierte Fachleute in sozialen Netzwerken das betreffende Bild oder Video bereits widerlegt haben.

In Europa arbeiten mehrere Faktencheck-Initiativen wie das European Fact-Checking Standards Network (EFCSN), das European Digital Media Observatory (EDMO) oder EUvsDisinfo, ein Projekt des Europäischen Auswärtigen Dienstes (EAD). Sie veröffentlichen regelmäßig Analysen, Rechercheergebnisse und Widerlegungen zu unterschiedlichen Formen von KI-Desinformation.

Diese Stellen verfügen oft über ausgefeiltere Methoden zur Erkennung von KI-Inhalten oder über Zusatzinformationen zu einem Bild, die der Öffentlichkeit nicht zur Verfügung stehen.

Nutzende können zudem prüfen, ob der fragliche Inhalt in der Database of Known Fakes auftaucht – einer Datenbank (Quelle auf Englisch) mit Faktenchecks von Journalistinnen, Journalisten, Forschenden und professionellen Faktencheckern.

Technische Hilfen nutzen

Es gibt inzwischen eine Reihe von Programmen, die KI-Inhalte erkennen sollen. Wie zuverlässig sie arbeiten, ist allerdings umstritten.

Zu solchen Werkzeugen gehören etwa Winston AI, das KI-generierte Bilder aufspürt, TruthScan, das eine erste Einschätzung liefert, ob ein Bild von KI stammt, oder Originality AI, das prüft, ob ein Text maschinell erstellt wurde.

Andere KI-Plattformen versehen ihre Inhalte mit sichtbaren Wasserzeichen.

Diese lassen sich jedoch häufig leicht entfernen oder wegschneiden. Fehlt ein Wasserzeichen, ist das daher kein Beleg dafür, dass ein Bild echt ist.

Tempo rausnehmen

Im Zweifel gilt: Stopp. Durchatmen. Und nichts vorschnell weiterverbreiten, das womöglich gar nicht echt ist.

Akteure, die Desinformation streuen, setzen gezielt darauf, dass Menschen sich von Emotionen und ihren bereits vorhandenen Überzeugungen leiten lassen.

Ein Blick in die Kommentare kann Hinweise liefern: Andere Nutzerinnen und Nutzer haben womöglich Details entdeckt, die auf KI hindeuten.

Nicht in jedem Fall lässt sich sicher klären, ob ein Bild von KI stammt. Wichtig ist, diese Möglichkeit im Hinterkopf zu behalten – und wachsam zu bleiben.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

In Bildern: Artemis-II-Crew startet zu historischer Mondmission

Apple feiert 50 Jahre: neues Museum in den Niederlanden zeigt Geschichte des Tech-Konzerns

Internationaler Faktencheck-Tag: So entlarven Sie KI-Desinformation