Eine KI-gestützte Browser-Erweiterung kann Abneigung gegen politische Gegenpositionen mindern. Das belegt eine Studie zur US-Präsidentschaftswahl 2024.
Forscherinnen und Forscher in den USA haben ein neues Werkzeug entwickelt. Es ermöglicht unabhängigen Wissenschaftlerinnen und Wissenschaftlern zu untersuchen, wie Algorithmen sozialer Medien auf Nutzerinnen und Nutzer wirken. Und das ohne Zustimmung der Plattformen.
Die Ergebnisse deuten darauf hin, dass Plattformen politische Polarisierung verringern könnten, wenn sie feindselige Inhalte in ihren Algorithmen herabstufen.
Das Werkzeug ist eine Browser-Erweiterung, die von künstlicher Intelligenz (KI) unterstützt wird. Sie durchforstet Beiträge auf X, ehemals Twitter, nach antidemokratischen und stark negativen parteipolitischen Motiven. Dazu zählen Beiträge, die zu Gewalt aufrufen oder die Inhaftierung von Anhängern der gegnerischen Partei fordern.
Laut Studie ordnet die Erweiterung den X-Feed in „Sekundenschnelle“ neu. Polarisierende Inhalte rutschen dabei näher an das Ende des Feeds.
Das Team von der Stanford University, der University of Washington und der Northeastern University testete die Erweiterung anschließend auf den X-Feeds von über 1.200 Teilnehmenden. Sie stimmten zu, ihre Feeds für zehn Tage im Vorfeld der US-Präsidentschaftswahl 2024 zu verändern.
Ein Teil nutzte die Variante, die mehr spaltende Inhalte zeigte, der Rest die Version, die solche Beiträge im Feed nach unten schob. Die Ergebnisse erschienen am Donnerstag im Fachjournal Science.
Ein neuer Weg, Inhalte neu zu sortieren „ohne Zusammenarbeit mit der Plattform“
Während des Experiments sollten die Teilnehmenden ihre Gefühle gegenüber der jeweils anderen Partei auf einer Skala von 1 bis 100 bewerten.
Bei jenen, die das Browser-Werkzeug nutzten, verbesserten sich die Einstellungen gegenüber der Gegenseite im Schnitt um zwei Punkte. Das entspricht dem geschätzten Einstellungswandel in der US-Bevölkerung über drei Jahre.
„Diese Veränderungen waren in ihrer Größenordnung vergleichbar mit drei Jahren Veränderung der emotionalen Polarisierung in den Vereinigten Staaten“, hielten die Forschenden fest.
Die Ergebnisse waren überparteilich. Die Effekte zeigten sich bei liberalen wie konservativen Teilnehmenden gleichermaßen.
Tiziano Piccardi, Assistant Professor für Informatik an der Johns Hopkins University, sagte, das Werkzeug habe einen „klaren“ Einfluss auf die Polarisierung.
„Wenn die Teilnehmenden weniger von solchen Inhalten sahen, fühlten sie sich den Menschen der anderen Partei gegenüber wärmer“, sagte er in einer Mitteilung. „Waren sie mehr davon ausgesetzt, fühlten sie sich kälter.“
Die Forschenden betonen, dies könne ein neuer Weg sein, Social-Media-Inhalte „ohne Zusammenarbeit mit der Plattform“ neu zu sortieren.
„Solche Eingriffe könnten zu Algorithmen führen, die nicht nur parteipolitische Feindseligkeit verringern, sondern auch mehr gesellschaftliches Vertrauen und einen gesünderen demokratischen Diskurs über Parteigrenzen hinweg fördern“, so die Studie.
Die Studie untersuchte auch die Gefühlslage. Teilnehmende, die feindselige Inhalte reduzierten, berichteten, sich bei der Nutzung der Plattform weniger wütend und traurig zu fühlen. Diese emotionalen Effekte hielten nach Ende der Studie jedoch nicht an.
Zudem war die Studie nur für Personen zugänglich, die X im Browser und nicht in der App nutzten. Das könnte die Wirkung begrenzen.
Langfristige Auswirkungen davon, weniger polarisierende Inhalte zu sehen, erfasste die Untersuchung ebenfalls nicht.