Wie wird KI im Krieg eingesetzt: Russlands Kamikaze-Drohnen gar nicht so smart?

Drohnen gehören zu KI-Waffen
Drohnen gehören zu KI-Waffen Copyright AP/AP
Von Euronews mit SIPRI
Diesen Artikel teilenKommentare
Diesen Artikel teilenClose Button

Auch Russland setzt im Krieg in der Ukraine künstliche Intelligenz - KI ein. Welche Probleme bringt es mit sich, wenn tödliche Waffen nicht mehr von Menschen gesteuert werden?

WERBUNG

Russland setzt in großem Umfang sogenannte "Kamikaze-Drohnen" oder "loitering weapons" gegen die Ukraine ein. Unter einer "loitering weapon" (einer "lauernden Waffe") versteht man moderne Lenkwaffen.

Diese Munition kann theoretisch ein bestimmtes Gebiet beschießen und dabei selbständig das Ziel suchen und bestimmen. Diese Waffen werden auch der "künstlichen Intelligenz" (KI) zugerechnet. Tatsächlich ist die "Kamikaze-Drohne" aber gar nicht so "smart", doch der Anwendungsbereich der KI im militärischen Bereich ist riesig.

Künstliche Intelligenz in der Rüstungsindustrie ist nicht neu

KI ist nicht wirklich neu im Bereich der Rüstungsindustrie. Der Begriff "künstliche Intelligenz" selbst wird seit den 1950er Jahren in Bezug auf Software verwendet. Das Problem ist, dass es keine klare Definition gibt. Zunächst bezeichnete man als "künstliche Intelligenz" Fähigkeiten, die heute jedes Smartphone hat.

Auch "intelligente" Waffen kamen bereits im vergangenen Jahrhundert auf. Schon damals gab es z. B. Leitsysteme für Raketen und Granaten, die es ermöglichten, ohne menschliches Zutun "selbständig" ein Ziel auszuwählen und zu priorisieren. Oder Kriegsschiffe verfügten über Flugabwehr- und Raketenabwehrsysteme, die schneller als Menschen auf eine vermeintlich das Schiff bedrohende Rakete feuern konnten. 

Die "tote Hand" für den atomaren Gegenschlag

Zu diesen "intelligenten" Waffen wird die halbmythische "tote Hand" gezählt. Dieses Atomwaffen-Führungssystem gab es schon in der Sowjetunion und wurde einigen Quellen zufolge von Russland weitergeführt. Es soll automatisch den Befehl für einen nuklearen Vergeltungsschlag geben können, wenn die KI der Meinung ist, dass die Menschen, die es kontrollieren, tot sind.

Autonome Drohnen 2020 in Libyen eingesetzt

Seit Beginn dieses Jahrhunderts schreitet die Verbesserung der KI - wie in allen anderen Bereichen der IT - in rasantem Tempo voran.

Nach Angaben der UNO war der erste bekannte Fall, in dem ein autonomes System einen Menschen ohne Beteiligung eines menschlichen Anwenders tötete, im Frühjahr 2020 in Libyen. Damals setzten die Truppen der libyschen Regierung in der Türkei hergestellte autonome Drohnen gegen Soldaten ein, die General Khalifa Haftar unterstützten.

Wie setzt das Militär KI ein?

Über den Einsatz von KI im militärischen Bereich hat Euronews mit Vincent Boulanin vom Stockholm International Peace Research Institute (SIPRI) gesprochen.

Der Forscher erklärt: "Es handelt sich nicht um eine einzelne Technologie, sondern um eine Grundfunktion. Es ist, als würde man über Elektrizität sprechen. Genauso wie Elektrizität völlig unterschiedliche Anwendungen hat, kann man mit KI einige Technologien so hinzufügen, dass sie potenziell effizienter, billiger, kompakter und autonomer werden.

Nach Angaben des Stockholmer Friedensforschungsinstituts gibt es praktisch keine militärischen Tätigkeitsbereiche mehr, in denen KI nicht eingesetzt werden könnte. Drohnen sind nur ein Sonderfall. Analysten zufolge wird das Marktvolumen im Zusammenhang mit KI im militärischen Bereich bis 2028 13,7 Milliarden US-Dollar übersteigen. Dabei verfügen die verschiedenen Länder natürlich unterschiedlich stark über solche Systeme.

Was kann KI im Militärbereich?

* Der bekannteste Aspekt sind die autonomen Kampfsysteme, die Drohnen. Dabei kann es sich um fliegende Waffen wie die türkischen Bayraktar handeln, aber auch um Landfahrzeuge in Form eines kleinen Panzers oder gepanzerten Mannschaftswagens sowie um Seefahrzeuge.

Sie sind in der Lage, selbständig feindliche Ausrüstung und Soldaten in einem bestimmten Gebiet zu "jagen", Ziele aufzuspüren und die wichtigsten davon auszuwählen.

* Der "populärste" Einsatz von KI ist im militärischen wie im zivilen Bereich derselbe: die Analyse riesiger Datenmengen, um Menschen bei manchmal mühsamen und eintönigen Tätigkeiten zu ersetzen, wenn es beispielsweise darum geht, eine große Anzahl von Luftaufnahmen zu sichten und das richtige Objekt zu finden. Wir sprechen hier nicht einmal von spezifisch "militärischer" KI: Es werden dieselben Verfahren verwendet wie beispielsweise bei Gesichtserkennungssystemen auf der Straße.

* Erkennung und Analyse möglicher Bedrohungen. KI kann auf der Grundlage dieser Daten viel schneller Empfehlungen geben als ein Mensch. Außerdem ist die KI theoretisch frei von der "Voreingenommenheit" menschlicher Befehlshaber und leidet nicht unter dem Effekt des "unscharfen Auges", was in einem sich schnell verändernden Kampfumfeld besonders wichtig ist.

* Die KI ist nicht nur in der Lage, die Lage auf dem Schlachtfeld einzuschätzen, sondern auch, innerhalb gewisser Grenzen, die Zukunft auf der Grundlage von Erfahrungen mit den Aktionen des Gegners "vorherzusagen".

* Tests und Kontrollen. Die KI kann den Betrieb neuer militärischer Ausrüstungen, neuer Geräte und sogar neuer taktischer Konzepte "simulieren", was die Kosten und den Zeitaufwand für die Organisation echter Tests reduziert.

Kann die KI die Schlacht wie in einem Computerspiel selbstständig steuern?

Nein. Alle Programme, die als KI für militärische Anwendungen eingestuft werden können, führen eine sehr begrenzte Palette von Aufgaben aus. Einige analysieren die Lage, andere steuern autonome Drohnen, wieder andere können tatsächlich Prognosen und "Ratschläge" für Kommandeure geben. Unter bestimmten Bedingungen - vor allem, wenn die Zeit sehr knapp ist - kann die KI selbst "Entscheidungen" treffen.

Aber all dies zu einem einzigen Gefechtsplan zu verknüpfen, ist immer noch die Aufgabe eines Menschen. Weder das Militär noch die Zivilbevölkerung trauen der KI genug zu, um ihr zu erlauben, einen Krieg oder auch nur eine einzige Schlacht "selbständig" zu führen. Hinter der "wichtigsten Konsole" steht immer ein Mensch.

WERBUNG

Wie gefährlich ist es, KI im Krieg einzusetzen?

Laut Vincent Bulanen, Senior Fellow am Stockholmer Friedensforschungsinstitut, gibt es drei Risikoebenen im Zusammenhang mit KI und ihrem Einsatz in militärischen Angelegenheiten.

* Die erste Ebene ist technologischer Natur. KI ist so konzipiert, dass selbst die Entwickler selbst nicht immer logische Zusammenhänge nachvollziehen und verstehen können, warum der Roboter diese oder jene Entscheidung "getroffen" hat. Man nennt dies das "Black-Box-Problem". Daher können weder die Zivilbevölkerung noch das Militär den Entscheidungen der KI vollständig vertrauen. Aus diesem Grund besteht zumindest theoretisch immer die Gefahr, dass der Roboter eine Handlung vornimmt, die nicht von ihm erwartet wurde.

Dies kann durch eine sorgfältigere Entwicklung von Algorithmen verhindert werden. Völlig "transparente" Algorithmen gibt es zwar, aber sie sind nicht immer anwendbar.

* Die zweite Ebene ist die Frage, wie KI die Art und Weise verändern kann, wie wir Kriege und Konflikte organisieren. Könnte es den Menschen leichter fallen, Tötungsbefehle zu erteilen, wenn sie der Meinung sind, dass dies nicht lebensbedrohlich ist, da sich auf dem Schlachtfeld nur oder überwiegend Roboter befinden?

Dies wirft weitreichende humanitäre Probleme auf. Zivilisten werden in der Schusslinie stehen. Erstens im wahrsten Sinne des Wortes: Das Problem, einen Zivilisten von einem Kämpfer zu unterscheiden, ist nach wie vor sehr akut. Zweitens wird das Risiko humanitärer Katastrophen steigen, weil das Risiko neuer Konflikte zunehmen wird: Schließlich kann es viel einfacher sein, einen "Roboterkrieg" in moralischer Hinsicht zu beginnen.

WERBUNG

In diesem Zusammenhang muss das Militär laut Bulanen lernen, der KI nicht zu sehr zu vertrauen: Es handelt sich nicht um einen "Roboter, der nie einen Fehler macht", sondern um ein gewöhnliches von Menschen geschaffenes System, das seine Grenzen und Nachteile hat. Schließlich trifft ein Roboter wie ein Mensch Entscheidungen auf der Grundlage bestimmter Daten, die sich als unvollständig, fehlerhaft oder absichtlich verzerrt erweisen können.

Vincent Boulanin, Senior Fellow bei SIPRI, sagt weiter:

"Es gibt Dinge, die das Militär selbst tun kann: Maßnahmen zur Risikominderung ergreifen, Menschen ausbilden, die diese Systeme nutzen oder sich gegen ein bestimmtes System entscheiden, weil das Risiko eines Unfalls zu hoch ist. Wir sprechen also von Selbstkontrolle und Risikobewertung".

* Die dritte Ebene ist die Möglichkeit einer möglichst weiten Verbreitung solcher Systeme. KI ist in der Tat eine "Dual-Use-Technologie". Sie ist im zivilen Bereich weit verbreitet, und es ist für Spezialisten sehr einfach, öffentliche Codes für militärische Zwecke anzupassen.

Boulanin sagt: "Es ist nicht wie bei der Nukleartechnologie, man kann nicht einfach eine Atomwaffe an der Ecke kaufen. Und es ist ziemlich einfach, KI-Anwendungen zu entwickeln. Die Daten sind bereits vorhanden. Die Methoden sind vorhanden. Überall auf der Welt gibt es gut ausgebildete Ingenieure. Das potenzielle Risiko besteht also darin, dass für die Entwicklung militärischer KI nur sehr wenig benötigt wird und dass Missetäter sich leicht Zugang zu dieser Technologie verschaffen können."

WERBUNG

Es ist sehr schwierig, dieses Risiko zu verringern, da dazu bestimmte restriktive Vereinbarungen auf internationaler Ebene erforderlich sind. Und diese können erstens mit der Freiheit der Informationsverbreitung in Konflikt geraten - wenn es um "friedliche" KI geht - und zweitens werden diese Dokumente für Angreifer keine Rolle spielen.

Wird KI künftige militärische Konflikte verändern? Werden Roboter die Soldaten ersetzen?

Bislang gibt es rein technologisch gesehen keinen Roboter, der den Schützen mit dem Maschinengewehr ersetzen könnte. Aber in vielen anderen Bereichen hat die KI bereits ihre breiteste Anwendung gefunden. Ein Aspekt der endgültigen Antwort auf diese Frage ist ethischer Natur.

Dazu erklärt Vincent Boulanin: "Manche Leute haben einen praktischen Ansatz. Wenn KI theoretisch dazu beitragen kann, die Zahl der zivilen Opfer zu verringern, warum dann nicht die Automatisierung nutzen?

Andere werden von den Grundlagen ausgehen. Für sie ist es nicht normal, solche Entscheidungen zu automatisieren, selbst wenn dies in gewisser Hinsicht effektiv sein kann. Sie werden es nicht tun wollen, weil das ihr ethischer Grundsatz ist."

Das Konzept der Entscheidungsfindung durch Kommandeure ändert sich bereits. Erstens werden diese Entscheidungen viel schneller getroffen, was im Allgemeinen den Verlauf bewaffneter Konflikte beschleunigen kann. Die Befehlshaber werden sich mehr auf KI-"Ratschläge" verlassen, was die oben bereits erwähnten Risiken birgt.

WERBUNG

Aus der Sicht des internationalen Rechts, das die Führung von Feindseligkeiten regelt - die "Gesetze und Gebräuche des Krieges" - hebt sich die KI in keiner Weise ab. Eine KI-gesteuerte Drohne unterscheidet sich nicht von einer Rakete mit einem "normalen" Lenksystem oder von einer "dummen" ungelenkten Bombe. Wenn es beispielsweise um Kriegsverbrechen geht, sind die Menschen immer noch dafür verantwortlich, auch wenn die "Entscheidung" von der Drohne getroffen wurde.

Diesen Artikel teilenKommentare

Zum selben Thema

Russlands Lufthoheit nicht gesichert? 3 Tote bei Drohnenangriff auf Militärflughafen Engels

300 Mio. Dollar Militärhilfe: Pentagon liefert Munition an die Ukraine

Russisches Militärflugzeug abgestürzt: 15 Menschen an Bord tot