Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Studie: KI gefährdet Umfragen existenziell, imitiert menschliche Antworten fast perfekt

Neue Forschung zeigt: KI-Tools täuschen Online-Systeme. Sie geben sich als Menschen aus und verfälschen die Ergebnisse von Online-Umfragen.
Neue Forschung: KI-Tools täuschen Online-Systeme. Sie geben sich als Menschen aus und verfälschen Ergebnisse von Online-Umfragen. Copyright  Canva
Copyright Canva
Von Anca Ulea
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Der Erstautor einer neuen Studie der Dartmouth University warnt. Wir können nicht mehr sicher sein, dass Umfrageantworten von echten Menschen stammen.

Künstliche Intelligenz macht es in Online-Meinungsumfragen fast unmöglich, echte Antworten von Bots zu unterscheiden. Das zeigen neue Forschungsergebnisse.

Eine Studie der Dartmouth University, am Montag in den Proceedings of the National Academy of Sciences erschienen, zeigt: Große Sprachmodelle können öffentliche Umfragen im großen Stil verfälschen.

„Sie können menschliche Profile imitieren, aktuelle Erkennungsverfahren umgehen und sich mit minimalem Aufwand so programmieren lassen, dass sie Online-Umfragen systematisch verzerren“, heißt es in der Studie.

Die Ergebnisse offenbaren eine „kritische Schwachstelle in unserer Dateninfrastruktur“ und bergen eine „potenziell existenzielle Gefahr für unüberwachte Online-Forschung“, sagte Studienautor Sean Westwood, Außerordentlicher Professor für Politikwissenschaft an der Dartmouth University.

KI-Eingriffe in Umfragen könnten wichtige Wahlen weiter verkomplizieren. Schon jetzt melden Online-Monitoring-Gruppen KI-gestützte Desinformationskampagnen bei europäischen Wahlen, einschließlich jüngst in der Republik Moldau.

Das System täuschen

Um die Verwundbarkeit der Online-Umfragesoftware zu testen, entwickelte Westwood einen „autonomen synthetischen Befragten“. Ein einfaches KI-Werkzeug, gesteuert von einem Prompt mit 500 Wörtern.

Für jede Umfrage legte das Tool eine demografische Persona fest. Grundlage waren zufällig zugewiesene Angaben – darunter Alter, Geschlecht, Ethnie, Bildung, Einkommen und der Bundesstaat des Wohnsitzes.

Mit dieser Persona simulierte es realistische Lesezeiten, erzeugte menschenähnliche Mausbewegungen und gab offene Antworten Zeichen für Zeichen ein. Mit plausiblen Tippfehlern und Korrekturen.

Bei mehr als 43.000 Tests täuschte das Werkzeug 99,8 Prozent der Systeme. Sie hielten es für menschlich. Es machte null Fehler bei Logikrätseln und umging gängige Schutzmechanismen zur Bot-Erkennung wie reCAPTCHA.

„Das sind keine primitiven Bots“, sagte Westwood. „Sie denken jede Frage durch und verhalten sich wie echte, sorgfältige Menschen. So wirken die Daten völlig legitim.“

Kann man Umfragen noch trauen?

Die Studie untersuchte die praktische Angreifbarkeit politischer Umfragen. Als Beispiel diente die US-Präsidentschaftswahl 2024.

Westwood fand heraus, dass bereits zehn bis 52 gefälschte KI-Antworten gereicht hätten, um in sieben führenden nationalen Umfragen das prognostizierte Ergebnis zu kippen. Und das in der entscheidenden letzten Woche des Wahlkampfs.

Jeder dieser automatisierten Befragten hätte nur rund fünf US-Cent (vier Euro-Cent) gekostet.

In Tests funktionierten die Bots selbst dann, wenn sie auf Russisch, Mandarin oder Koreanisch programmiert waren. Sie gaben fehlerfreie Antworten auf Englisch. Laut Studie könnten ausländische Akteure das leicht ausnutzen, manche hätten die Mittel, noch ausgefeiltere Werkzeuge zu entwickeln, die der Erkennung entgehen.

Auch die Wissenschaft stützt sich stark auf Umfragedaten. Jedes Jahr werden Tausende begutachtete Studien veröffentlicht, die auf Daten aus Online-Erhebungsplattformen beruhen.

„Wenn Umfragedaten von Bots verunreinigt sind, kann KI das gesamte Wissensökosystem vergiften“, sagte Westwood.

Seine Studie fordert die Wissenschaftsgemeinschaft auf, dringend neue Wege der Datenerhebung zu entwickeln, die sich nicht von fortgeschrittenen KI-Werkzeugen manipulieren lassen.

„Die Technik, echte menschliche Teilnahme zu verifizieren, gibt es. Uns fehlt nur der Wille, sie umzusetzen“, sagte Westwood.

„Wenn wir jetzt handeln, können wir die Integrität von Umfragen und die demokratische Rechenschaft, die sie ermöglichen, bewahren.“

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Alterssperren im Netz: Welche EU-Staaten beschränken Zugang zu Pornoseiten?

Neue Dimension von Cyberangriffen: Erste KI-gesteuerte Spionagekampagne entdeckt

Es fehlt an Fachkräften! Deutsche Unternehmen schutzlos gegen Cyberattacken