Ukraine testet "Brave 1": Wie gefährlich ist künstliche Intelligenz beim Militär?

Die Regierung der Ukraine setzt auf moderne Kriegsführung
Die Regierung der Ukraine setzt auf moderne Kriegsführung Copyright Website BRAVE 1
Von Blanca CastroEuronews
Diesen Artikel teilenKommentare
Diesen Artikel teilenClose Button
Den Link zum Einbetten des Videos kopierenCopy to clipboardCopied

Welche Gefahren entstehen durch den Einsatz von künstlicher Intelligenz im Militärbereich? Die Regierung der Ukraine ist mit #Brave1 Vorreiterin in diesem Bereich. Euronews Journalistin Blanca Castro hat Forschende dazu befragt.

WERBUNG

Die Regierung der Ukraine hat mit "Brave 1" eine Initiative gestartet, um mit der Hilfe von Experten und Expertinnen aus aller Welt, moderne militärische Strategien zu entwickeln. Dazu gehört auch der Einsatz von künstlicher Intelligenz. Doch wie kann KI Kriege verändern?

Einige Forschende aus der Cyber-Security sehen künstliche Intelligenz im militärischen Bereich sehr skeptisch. Im Gespräch mit Euronews warnen Sicherheitsspezialisten vor dem Verlust moralischer Werte, wenn Waffen ohne menschliches Zutun gebraucht werden.

Internetseite von "Brave One"
Die ukrainische Regierung setzt auf moderne KriegsführungInternetseite von "Brave One"

"Verlust moralischer Handlungsfähigkeit" durch den Einsatz von KI

Anna Nadibaidze, Doktorandin am Center for War Studies der SDU in Odense in Dänemark sagt: "Dies bedeutet auch einen Verlust an moralischer Handlungsfähigkeit, denn bei einem menschlichen Operator besteht theoretisch immer die Möglichkeit, dass er Mitgefühl, Empathie und menschliches Urteilsvermögen an den Tag legt, während ein System, das auf Daten trainiert und vorprogrammiert ist, diese Möglichkeit nicht hat."

Cesar Pintado ist Professor am auf Cybersicherheit spezialisierten CISDE im spanischen Sevilla. Er erklärt: "Es gibt ständig Missionen, die aufgrund ethischer, rechtlicher oder technischer Probleme oder einfach aufgrund der Entwicklung des Kampfgeschehens abgebrochen werden."

Sind Killer-Roboter gar nicht das Problem?

Ganze Schwärme von Drohnen, Roboter-Hunde oder gar humanoide Roboter könnten in künftigen Konflikten die Zahl der Kriegstoten oder Verletzten reduzieren helfen. Doch César Pintado sieht Probleme beim Einsatz der künstlichen Intelligenz - auch dass die Waffen gegen die eigene Seite verwendet werden.

Pintado fragt sich: "Was passiert, wenn dieser Panzer von den eigenen Streitkräften erbeutet wird? Was ist, wenn dasselbe Panzermodell auch von verbündeten Streitkräften benutzt wird oder wenn es sich im Moment in der Nähe von verbündeten Truppen oder wenn es gegen einen Tempel oder eine Schule eingesetzt wird?"

Anna Nadibaidze warnt vor falschen Vorstellungen, die sich viele machen. "Die Vorstellung, dass so genannte Killerroboter ein eigenes Bewusstsein erlangen und auf dem Schlachtfeld auftauchen, ist futuristisch und stammt aus Science-Fiction-Filmen, und darum sollte es in der Debatte eigentlich nicht gehen."

Es braucht internationale Regeln für künstliche Intelligenz

Während mehr als tausend Forschende wie Elon Musk einen sechsmonatigen Stopp der Weiterentwicklung der KI verlangt haben, fordert die Anna Nadibaidze vor allem möglichst schnell Gesetze, die den Gebrauch der künstlichen Intelligenz regulieren. Sie sagt: "Regierungen auf der ganzen Welt sind sehr daran interessiert, in diese Technologien zu investieren, und investieren auch weiterhin viel Geld. Es besteht die dringende Notwendigkeit, diese Herausforderungen mit rechtsverbindlichen Regeln anzugehen, denn die derzeitigen internationalen Regelungen und das humanitäre Völkerrecht reichen nicht aus, um diese Herausforderungen zu bewältigen.

Diesen Artikel teilenKommentare

Zum selben Thema

Energieriegel und Borschtsch: Freiwillige bereiten Trockenkost für die Gegenoffensive

Von EU finanzierte Drohnentechnologie, wird von Israel im Gaza-Krieg eingesetzt, behaupten Beobachter

Französin entwickelt Hilfs-App für Belästigungsopfer