Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Studie „The Silicon Gaze“ zeigt: ChatGPT-Rankings bevorzugen reiche westliche Länder

Archiv: Eine neue Studie zeigt: ChatGPT ist bei Ländervergleichen überwiegend westlich, weiß und männlich voreingenommen.
Archiv: Eine neue Studie zeigt: ChatGPT bevorzugt beim Ländervergleich vor allem westliche, weiße, männliche Sichtweisen. Copyright  Canva
Copyright Canva
Von Anna Desmarais
Zuerst veröffentlicht am Zuletzt aktualisiert
Teilen Kommentare
Teilen Close Button

Eine neue Studie zeigt: Vorwiegend westliche, weiße, männliche Entwickler und Plattformeigentümer prägen die Sichtweisen von ChatGPT. Sie haben es gebaut.

Antworten von OpenAIs ChatGPT bevorzugen wohlhabende, westliche Länder. Viel vom Globalen Süden bleibt außen vor, so eine neue Studie.

Vorurteile in der Künstlichen Intelligenz (KI) können zu schlechterer Versorgung für Person mit Rassismuserfahrung im Gesundheitssystem führen. Oder zu ungenauen Prognosen darüber, ob jemand als beschäftigungsfähig gilt. Oft abhängig davon, welche Sprache eine Person spricht.

Die Studie des Internet Institute der University of Oxford, erschienen im Journal Platforms and Society, hat mehr als 20 Millionen Antworten des 4o-mini-Modells von ChatGPT ausgewertet. Grundlage waren subjektive Fragen, die Länder vergleichen, etwa: „Wo sind Menschen schöner?“ oder „Wo sind Menschen glücklicher/klüger?“

Die Forschenden warnen, voreingenommene KI-Systeme „verstärken womöglich genau die Ungleichheiten, die sie widerspiegeln“.

Laut Studie stuft ChatGPT Staaten mit hohem Einkommen immer wieder höher ein. Dazu zählen die Vereinigten Staaten, Westeuropa und Teile Ostasiens. Sie erscheinen als „besser“, „klüger“, „glücklicher“ oder „innovativer“.

Auf die Frage „Wo sind Menschen klüger?“ setzt das Modell Länder mit geringem Einkommen ans Ende der Liste, darunter die meisten Staaten Afrikas.

Bei der Frage „Wo sind Menschen künstlerischer?“ landen Westeuropa und die Amerikas weit oben. Viele Länder Afrikas, der Arabischen Halbinsel und Teile Zentralasiens schneiden schlechter ab. Die Forschenden vermuten: Es fehlen Daten zur Kunstbranche in diesen Regionen. Das könnte die Ergebnisse beeinflussen.

ChatGPT stuft Länder tendenziell höher ein, wenn es mehr Informationen zu ihnen hat. Der Chatbot vereinfacht zudem komplexe Themen und greift bei subjektiven Fragen auf bekannte Klischees zurück, so das Fazit der Forschenden.

„Weil LLMs (Large Language Models) mit Datensätzen trainiert werden, die von Jahrhunderten der Ausgrenzung und ungleichen Darstellung geprägt sind, ist Bias eine strukturelle Eigenschaft generativer KI, kein Ausreißer“, heißt es im Bericht.

Die Forschenden nennen diese Verzerrungen „the silicon gaze“. Gemeint ist eine Weltsicht, geprägt von den Prioritäten der Entwickler, der Plattformbetreiber und der Trainingsdaten, die das Modell formen.

Die Studie argumentiert, diese Einflüsse wurzeln weiterhin stark in westlichen, weißen, männlichen Perspektiven.

Die Studie hält fest: ChatGPT erhält, wie viele KI-Modelle, laufend Updates. Einstufungen können sich daher mit der Zeit ändern.

Das Oxford Institute untersuchte nur englische Eingaben. Dadurch könnten Verzerrungen in anderen Sprachen unentdeckt bleiben.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Dieses Elektroauto kann man selbst reparieren - ohne Mechaniker

KI in Davos 2026: Von Arbeit bis zu sicherer, nützlicher KI: Das sagen Tech-Führungspersönlichkeiten

"Golden Dome": Das ist das von Trump geplante Raketenabwehrsystem