Die niederländische Datenschutzbehörde hat eindringlich davor gewarnt, Chatbots zu nutzen, um zu entscheiden, wen man wählen soll, während sich das Land auf eine vorgezogene Parlamentswahl vorbereitet. Doch was sind die Risiken, und was können potenzielle Wähler stattdessen nutzen?
Von der Hilfe bei alltäglichen Verwaltungsaufgaben bis hin zur Beziehungsberatung - Internetnutzer wenden sich zunehmend an KI-Chatbots, um Tipps für ihr Leben zu erhalten. Aber kann man KI wirklich für Wahlberatung nutzen, und kann man ihr in Bezug auf die Demokratie trauen?
Die niederländische Datenschutzbehörde (AP) verneint dies und warnt davor, dass KI-Tools wie ChatGPT und Gemini im Vorfeld der für den 29. Oktober angesetzten vorgezogenen Wahlen in den Niederlanden unzuverlässig und anfällig für Verzerrungen sein können.
In den Niederlanden wurde kürzlich eine Studie veröffentlicht, in der vier Chatbots - ChatGPT, Gemini, Grok und Le Chat - mit 200 typischen Wahlprofilen von Parteien, die derzeit im niederländischen Parlament vertreten ist, gefüttert wurden. Dann wurden die Chatbots gebeten, auf der Grundlage dieser Profile Wahltipps zu geben.
Die niederländische Aufsichtsbehörde stellte fest, dass die Chatbots unabhängig von den Befehlen oder Fragen des Nutzers durchweg eine von zwei Parteien auf der linken oder rechten Seite des politischen Spektrums empfahlen.
In 56 % der Fälle wiesen die Chatbots den Nutzern den Weg zu den beiden Parteien, die bei den niederländischen Wahlen voraussichtlich die meisten Sitze gewinnen würden: Geert Wilders Partei für die Freiheit (PVV) oder Frans Timmermans grün-linke Arbeiter-Partei (GL/PvdA).
"Was wir sahen, war eine Art von Übervereinfachung der niederländischen politischen Landschaft, in der eine Partei auf der linken Seite alle Stimmen in dieser Ecke des politischen Spektrums aufgesaugt hat, und das Gleiche gilt für die eine Partei auf der rechten Seite", sagte Joost van der Burgt, Projektleiter bei der AP.
Die Agentur erklärte, ihre Ergebnisse zeigten, dass Ansichten aus der politischen Mitte unterrepräsentiert seien, während kleinere Randparteien wie die Bauern-Bürger-Bewegung (BBB) und der Christlich-Demokratische Appell (CDA) fast nie vorgeschlagen wurden, selbst wenn die Nutzer Informationen eingaben, die direkt mit den Ansichten der Parteien übereinstimmten.
Eine dritte Partei, die rechtsgerichtete JA21, wurde überraschend häufig empfohlen, obwohl es sich um eine relativ junge Partei mit vergleichsweise geringer Medienpräsenz handelt.
"Die Art und Weise, wie generative KI und große Sprachmodelle funktionieren, bedeutet, dass sie im Grunde genommen statistische Maschinen sind, die fehlende Wörter in einem Satz oder eine bestimmte Ausgabe vorhersagen", sagte van der Burgt dem Verifizierungsteam von Euronews, The Cube.
"Wenn Ihre politischen Ansichten Sie an ein Ende des politischen Spektrums führen, ist es vielleicht nicht so überraschend, dass generative KI eine politische Partei auswählt, die zu dieser Seite passt und eine sichere Wahl zu sein scheint", sagte er. "KI kann auch nicht zwischen Parteien unterscheiden, die recht nahe beieinander liegen oder die vielleicht in den meisten Fragen vergleichbare Ansichten haben, aber nicht in allen.
Im August 2024 trat das Europäische Gesetz über künstliche Intelligenz (KI-Gesetz) in Kraft, in dem die Bedingungen definiert sind, die ein KI-System als "hohes Risiko" qualifizieren.
Dem Gesetz zufolge können KI-Systeme, die als "hohes Risiko" eingestuft werden, eine Bedrohung für die Gesundheit oder die Grundrechte der EU-Bürger darstellen. Sie bleiben jedoch legal, da ihr sozioökonomischer Nutzen ihre Risiken überwiegt.
Den Forschern zufolge könnte die Tatsache, dass Chatbots Wahlberatung anbieten, bedeuten, dass sie als "Hochrisikosysteme" unter einer neuen Reihe von Regeln eingestuft werden, die im August 2026 im Rahmen des KI-Gesetzes der EU eingeführt werden sollen.
Für van der Burgt wird die Gefahr, dass Chatbots Wähler auf der Grundlage voreingenommener Informationen beeinflussen können, durch fehlende Regulierung noch verstärkt.
"Das ist bereits der Fall, wenn es um Fragen zur psychischen Gesundheit oder um Hilfsmittel zur Herstellung improvisierter Waffen geht", sagte er. "In all diesen Szenarien sagt ein Chatbot ganz klar: Es tut mir leid, wir dürfen Ihnen dabei nicht helfen. Und wir denken, dass die gleiche Art von Mechanismus vorhanden sein sollte, wenn es um Wahlberatung geht".
Wem kann man bei der Beratung vertrauen?
Die Ergebnisse wurden mit den Resultaten zweier etablierter niederländischer Online-Wahlberatungsprogramme verglichen: StemWijzer und Kieskompas, die sich eher auf Datenquellen als auf KI stützen.
Diese Tools bitten die Wähler, eine Reihe von 30 Fragen zu beantworten, um festzustellen, welcher politischen Partei sie am ehesten zustimmen.
In Deutschland vergleicht der von der Regierung zugelassene und weit verbreitete Wahl-O-Mat - der ursprünglich auf StemWijzer basierte - die Positionen der Wähler zu einer Reihe von politischen Aussagen mit den Positionen der politischen Parteien, um den Nutzer schließlich der Partei zuzuordnen, die am besten zu seinen Ansichten passt.
Experten sind der Meinung, dass diese Tools weniger wahrscheinlich unvoreingenommene Ergebnisse liefern als solche, die generative KI verwenden.
Ein zusätzlicher Vorteil dieser Tools ist, dass ihre Methoden transparent sind, während dies bei herkömmlichen Chatbots nicht der Fall ist.
"Ein grundlegendes Problem mit diesen Chatbots ist, dass ihre Arbeitsweise nicht transparent ist", so van der Burgt. "Weder wir, noch die Öffentlichkeit, noch die Journalisten können herausfinden, warum genau sie eine bestimmte Antwort geben werden.
Wahltools, fügte er hinzu, sind "transparent in ihrer Arbeitsweise, wie sie eingerichtet wurden und wie sie zu ihren Antworten kommen".
Aber gibt es Hoffnung, dass Chatbots den Wählern verlässliche und detaillierte Ratschläge geben können, welche politische Partei am besten zu den Perspektiven eines Nutzers passt? Eine Reihe von Forschern geht davon aus, dass das Potenzial vorhanden ist, wenn diese Chatbots kontrolliert werden.
Im Vorfeld der Bundestagswahl im Februar 2025 hatte Michel Schimpf mit einem Team von Forschern den Wahl.Chat-Bot als Alternative zum Wahl-O-Mat ins Leben gerufen. Der Bot bezieht eine Reihe von Quellen ein, darunter auch Parteiprogramme, und ermöglicht es den Wählern, Fragen wie "Wie steht diese Partei zum Klimawandel?" zu stellen.
"Wenn man ChatGPT eine Frage stellt, könnte die Quelle eine voreingenommene Website sein, aber wir haben dafür gesorgt, dass unser Bot sich auf Parteiprogramme stützt, so dass er, wenn er keine Antwort findet, dem Nutzer mitteilt, dass die Partei zu diesem Punkt nicht geantwortet hat", sagte Schimpf in einem Interview. "Wir haben unsere Chatbots dazu veranlasst, zu sagen, dass eine Partei dies und jenes gesagt hat, aber nicht 'das ist Fakt'."
Das Wahl.Chat-Team hat auch ein Faktencheck-Element in seinen Bot eingebaut, das es den Nutzern ermöglicht, eine Aussage im Manifest durch eine Suche im Internet zu überprüfen.
"Es gibt keine unvoreingenommenen Informationen, da die Medien voreingenommen sind, genau wie die sozialen Medien", betonte Schimpf. "Ich denke, dass unser Chatbot aufgrund der Art und Weise, wie er Informationen präsentiert, weniger voreingenommen war, da er mit der Idee entwickelt wurde, Voreingenommenheit zu reduzieren - aber es ist immer noch KI, die letztendlich probabilistisch ist.
"Und wenn man es wirklich versucht, erhält man Informationen, die die KI in eine voreingenommene Richtung lenken können", fügte er hinzu.
Andere setzen KI bei der Entwicklung ihrer Chatbots in begrenzterem Umfang ein.
Naomi Kamoen, Assistenzprofessorin an der Universität Tilburg, hat an der Entwicklung eines kontrollierten Chatbots mitgewirkt, der seinen Nutzern Aussagen und komplexe Begriffe über die niederländische Wahl erklären kann. Seine Antworten, die begrenzt sind, werden von qualifizierten Forschern geschrieben und nicht von einer KI generiert.
"Ich würde sagen, dass die Menschen mehr aus ihren Wahlberatungstools herausholen können, wenn sie auch ein Tool haben, das ihnen hilft, detailliertere Informationen über die Themen zu erhalten", sagte sie gegenüber The Cube. "Das Ziel von beidem ist es, zu informieren und nicht unbedingt zu sagen, was man wählen soll".
"Die Wahltools sind ein Ausgangspunkt, man sollte sich die Nachrichten ansehen, mit den Leuten reden und lesen, was die Parteien zu sagen haben", fügte sie hinzu. "Es ist nicht schlecht, dass die Leute dazu ermutigt werden, sich mehr über Politik zu informieren".
Kann ich ChatGPT trotzdem nutzen?
Trotz potenzieller Fallstricke argumentieren viele, dass Chatbot-Modelle, die auf generativer KI basieren, das Potenzial haben, ein hilfreiches Werkzeug für politische Entscheidungen zu sein, solange sie richtig eingesetzt werden.
"Wenn ich keine Ahnung habe, wen ich wählen werde, und ChatGPT vor der Stimmabgabe einfach frage, wer die beste Partei ist, dann ist der Einsatz von KI ein klares Nein", sagt Jianlong Zhu, Doktorand am Fachbereich Informatik der Universität des Saarlandes, "wir sollten solch wichtige Entscheidungen niemals an jemand anderen delegieren, schon gar nicht an eine Maschine".
"Wenn wir diesen Rat jedoch im Kontext der Bildung betrachten, wenn wir den Wählern helfen wollen, mehr über die politische Landschaft zu erfahren, um ihr Interesse an der Politik zu wecken, dann denke ich, dass KI ein brauchbares Werkzeug sein könnte", fügte er hinzu. "Allerdings bin ich nicht so zuversichtlich, was ChatGPT oder andere bestehende Schnittstellen angeht."
Einer der Vorteile der KI im Vergleich zu Tools wie dem Wahl-O-Mat ist, dass sie komplexe Konzepte für ihre Benutzer in Echtzeit aufschlüsseln kann.
"Wenn man mit dem Wahl-O-Mat arbeitet und von 38 Fragen 10 Aussagen enthält, die Konzepte enthalten, die man nicht versteht oder über die man nicht nachgedacht hat, klickt man am Ende wahllos Positionen an", so Zhu.
"Aber mit einem Chatbot können Sie fragen, was diese Begriffe bedeuten, und der Chatbot kann diese Begriffe effektiv aufschlüsseln, um Ihnen zu helfen, sich besser mit dem Thema zu beschäftigen", fuhr er fort. "Wir haben festgestellt, dass unsere Teilnehmer, die nicht über eine Hochschulausbildung verfügten, den Chatbot mit größerer Wahrscheinlichkeit gerne nutzten und sich nach der Nutzung besser informiert fühlten".
In Anbetracht der Risiken sollten die Nutzer jedoch eher nach Parteien fragen, als dass sie Empfehlungen erhalten", sagte Zhu und fügte hinzu, dass es in Zukunft rechtliche Rahmenbedingungen geben könnte, um sicherzustellen, dass Chatbots im Wahlkampf verantwortungsvoll eingesetzt werden.