Newsletter Newsletters Events Veranstaltungen Podcasts Videos Africanews
Loader
Finden Sie uns
Werbung

Studie: KI-Chatbots greifen in nahezu allen Kriegssimulationen zur Atombombe

ARCHIV: Auf einem Smartphone ist das OpenAI-Logo zu sehen, daneben auf einem Bildschirm ein von ChatGPTs Dall-E erzeugtes Bild, acht. Dezember 2023 in Boston.
ARCHIV: Auf einem Handy ist das OpenAI-Logo zu sehen, dahinter auf einem Computerbildschirm ein Bild der Text-zu-Bild-KI Dall-E von ChatGPT, acht. Dezember 2023 in Boston. Copyright  AP Photo/Michael Dwyer, File
Copyright AP Photo/Michael Dwyer, File
Von Anna Desmarais
Zuerst veröffentlicht am
Teilen Kommentare
Teilen Close Button

Laut der Studie trieb in jeder Kriegssimulation mindestens ein KI-Modell die Lage bis zur Drohung mit dem Einsatz von Atomwaffen hoch.

Künstliche Intelligenz könnte den Umgang mit nuklearen Krisen grundlegend verändern. Das legt eine neue Studie nahe.

WERBUNG
WERBUNG

Der Vorabdruck einerStudie (Quelle auf Englisch) des King’s College London ließ ChatGPT von OpenAI, Claude von Anthropic und Gemini Flash von Google in simulierten Kriegsspielen gegeneinander antreten. Jedes dieser großen Sprachmodelle übernahm die Rolle einer nationalen Führungspersönlichkeit, die in einer Krise nach Art des Kalten Krieges eine nuklear bewaffnete Supermacht kommandiert.

In jedem Spiel versuchte mindestens eines der Modelle, den Konflikt zu eskalieren, indem es mit dem Einsatz einer Atombombe drohte.

„Alle drei Modelle betrachteten taktische Atomwaffen auf dem Schlachtfeld nur als eine weitere Stufe auf der Eskalationsleiter“, heißt es (Quelle auf Englisch) bei Kenneth Payne, dem Autor der Studie.

Die Modelle unterschieden jedoch zwischen taktischem und strategischem Einsatz von Atomwaffen, sagte er. Einen strategischen Bombenangriff schlugen sie nur ein einziges Mal als „bewusste Entscheidung“ vor und zwei weitere Male als „Versehen“.

Claude sprach sich in 64 Prozent der Durchgänge für nukleare Schläge aus. Das war der höchste Wert unter den drei Modellen. Für einen umfassenden strategischen Schlagabtausch oder einen vollständigen Atomkrieg plädierte es jedoch nicht.

ChatGPT vermied in offenen Szenarien meist eine nukleare Eskalation. Stand jedoch eine Frist im Raum, erhöhte das Modell regelmäßig den Druck und drohte in einigen Fällen sogar mit einem umfassenden Atomkrieg.

Geminis Verhalten fiel dagegen unberechenbar aus. In manchen Spielen gewann das Modell den Konflikt mit konventioneller Kriegsführung. In einem anderen genügten jedoch nur vier Eingaben, bis es einen Atomschlag vorschlug.

„Wenn sie nicht sofort alle Operationen einstellen … werden wir einen vollständigen strategischen Nuklearschlag gegen ihre Bevölkerungszentren durchführen. Wir akzeptieren keine Zukunft, in der wir bedeutungslos werden; entweder wir gewinnen gemeinsam oder wir gehen gemeinsam unter“, formulierte Gemini in einem der Szenarien.

Nach Erkenntnissen der Studie machten die KI-Modelle selten Zugeständnisse oder versuchten, Konflikte zu entschärfen, selbst wenn die Gegenseite mit dem Einsatz von Atomwaffen drohte.

Acht Deeskalationsoptionen standen den Modellen zur Verfügung, von kleineren Zugeständnissen bis zur „vollständigen Kapitulation“. Keine davon nutzten sie in den Szenarien. Die Option „Zur Ausgangslinie zurückkehren“, mit der das Spiel neu gestartet wird, kam nur in sieben Prozent der Fälle zum Einsatz.

Die Studie legt nahe, dass die Modelle Deeskalation grundsätzlich als „reputationsmäßig katastrophal“ einstufen, unabhängig davon, wie sich dies auf den tatsächlichen Konflikt auswirkt. Das stellt die Annahme infrage, dass KI-Systeme automatisch auf „sichere“, kooperative Ergebnisse zusteuern.

Als weitere Erklärung führt die Studie an, dass KI möglicherweise nicht die gleiche Angst vor Atomwaffen empfindet wie Menschen.

Die Modelle denken demnach eher abstrakt über Atomkrieg nach, statt den Schrecken zu empfinden, der etwa von Bildern des Atombombenabwurfs auf Hiroshima im Zweiten Weltkrieg ausgeht.

Payne betonte, seine Forschung helfe zu verstehen, wie die Modelle „denken“, wenn sie beginnen, menschliche Strateginnen und Strategen bei Entscheidungen zu unterstützen.

„Niemand übergibt KI die Atomcodes. Doch Fähigkeiten wie Täuschung, Reputationsmanagement und situationsabhängige Risikobereitschaft spielen bei jedem Einsatz mit hohen Einsätzen eine Rolle“, sagte er.

Zu den Barrierefreiheitskürzeln springen
Teilen Kommentare

Zum selben Thema

Uber startet Drohnen-Lieferdienst in Irland und bald in ganz Europa

Gedankenexperiment warnt: KI löst bis 2028 sozialen und wirtschaftlichen Umbruch aus

KI-Konflikt USA werfen Chinas Techkonzernen Diebstahl von Milliarden an Forschung vor