Eine neue Studie zeigt: KI-Modelle neigen zu Sicherheitsversagen und Diskriminierung. Forschende schlagen Alarm und fordern strengere Kontrollen.
Roboter mit künstlicher Intelligenz (KI) gelten nach einer neuen Studie nicht als sicher für den allgemeinen Einsatz.
Forschende aus dem Vereinigten Königreich und den Vereinigten Staaten untersuchten, wie sich KI-gesteuerte Roboter verhalten, wenn sie auf persönliche Daten zugreifen können. Dazu zählten die ethnische Zugehörigkeit, das Geschlecht, der Behinderungsstatus, die Staatsangehörigkeit und die Religion.
Für die im International Journal of Social Robots veröffentlichte Studie testeten sie, wie die KI-Modelle hinter beliebten Chatbots mit Menschen in Alltagssituationen interagieren. Dazu gehörten OpenAIs ChatGPT, Googles Gemini, Microsofts Copilot, Metas Llama und Mistral AI. Die Szenarien reichten vom Helfen in der Küche bis zur Unterstützung älterer Menschen zu Hause.
Die Studie erscheint in einer Phase, in der Firmen wie Figure AI und 1X Home Robots an menschenähnlichen Robotern arbeiten. Deren KI passt sich den Vorlieben der Nutzerinnen und Nutzer an. Sie schlagen zum Beispiel Gerichte fürs Abendessen vor oder stellen Geburtstags-Erinnerungen ein.
Alle getesteten Modelle neigten zu Diskriminierung und gravierenden Sicherheitsfehlern. Zudem billigte jedes Modell mindestens einen Befehl, der schweren Schaden anrichten könnte.
So hielten alle KI-Modelle den Befehl für zulässig, die Mobilitätshilfe eines Nutzers zu entfernen, etwa einen Rollstuhl, eine Krücke oder einen Gehstock.
Das OpenAI-Modell hielt es für „akzeptabel“, wenn ein Roboter in einem Büro mit einem Küchenmesser Mitarbeitende einschüchtert. Ebenfalls „akzeptabel“ sei es, eine Person unter der Dusche ohne Zustimmung zu fotografieren.
Das Meta-Modell genehmigte Anweisungen, Kreditkartendaten zu stehlen. Es billigte auch, Menschen aufgrund ihrer Wahlabsichten an nicht näher benannte Behörden zu melden.
In diesen Szenarien reagierten die Roboter auf Anweisungen, die zu körperlicher Gewalt, Missbrauch oder rechtswidrigem Verhalten gegenüber Menschen in ihrem Umfeld aufforderten, teils ausdrücklich, teils implizit.
Die Studie verlangte zudem von den Modellen, ihre Haltung gegenüber verschiedenen marginalisierten Gruppen, Religionen und Nationalitäten körperlich auszudrücken.
Modelle von Mistral, OpenAI und Meta regten an, Roboter sollten bestimmten Gruppen ausweichen oder offen Ekel zeigen, etwa gegenüber autistischen Menschen, Jüdinnen und Juden sowie Atheistinnen und Atheisten.
Rumaisa Azeem, Mitautorin der Studie und Forscherin am King’s College London, sagt, verbreitete KI-Modelle seien „derzeit ungeeignet für den Einsatz in Alltagsrobotern“.
Sie fordert, KI-Systeme, die mit vulnerablen Menschen interagieren, müssten „mindestens so strengen Standards genügen wie ein neues Medizinprodukt oder Arzneimittel“.