Roboter im Kampfeinsatz: Wenn die künstliche Intelligenz Krieg führt

"Killerroboter", also Kriegsmaschinen, die mit künstlicher Intelligenz ausgestattet sind, sind nicht Science-Fiction. Ihre Entwicklung steht vor der Tür.

169 Postings
9. September 2017, 12:00

Der Roboter auf dem Werbevideo von Boston Dynamics sieht nicht so aus, als würde er in einen Krieg ziehen. Viel eher ähnelt er verblüffend einem Hund. Auf vier Beinen stolziert er durch die Gegend. Ein anderer, groß wie ein Pony, stapft durch einen Wald, geht Bäumen selbstsicher aus dem Weg und erklimmt Stiegen. Einer der Entwickler gibt einem Roboter einen festen Tritt in die Seite – die Maschine tariert aus, fängt sich und steht wieder fest auf ihren Beinen. Ein anderer Roboter greift in einer Küche nach einer Cola-Dose.

bostondynamics

Selbst erkennen kann er die Dose noch nicht, meint Markus Vincze vom Institut für Automatisierungs- und Regelungstechnik der TU Wien. Er erkennt die Position nur durch Mark-ups. Was die Roboter aber gut können, ist, robust über unwegsames Gelände zu gehen. Sie wissen durch GPS auch, wo sie sich selbst befinden. Dass sie auch andere Objekte erkennen können, sei nur noch eine Frage der Zeit.

Selbstfahrende Autos, von Tesla etwa, sollen Objekte und Menschen erkennen, um ihnen autonom aus dem Weg gehen zu können. Marcus Frei, der Geschäftsführer der Robotikfirma Next Robotics, wirft allerdings dir Frage auf: "Was aber, wenn sie nicht zum Schutz erkannt werden sollen, sondern um zu töten?"

"Tödliche autonome Waffensysteme"

Genau an solchen Systemen arbeiten viele Regierungen weltweit: Experten zufolge die USA, China, Südkorea, Indien und etliche kleinere Länder, manche mutmaßen auch über Nordkorea. Experten sind auch der Meinung, dass sie in zehn bis zwanzig Jahren einsatzbereit sein könnten. Im Fachjargon werden diese neuen Waffensysteme "tödliche autonome Waffensysteme" (lethal autonomous machine systems) genannt. Sie werden als dritte Revolution der Kriegsführung gesehen: Nach Schwarzpulver und Nuklearwaffen steht nun die künstliche Intelligenz in den Startlöchern.

foto: apa_epa_defense
Ein Roboter der Firma Boston Dynamics bei einer Militärübung der US Marines im September 2015.

Autonome Waffensysteme entscheiden selbst, wann und wie sie eine Aufgabe erfüllen. Frei vergleicht die Entwicklung der neuen Technologien mit einem Hund, den man darauf abrichtet, morgens die Zeitung zu holen. "Man könnte einen Hund trainieren, möglichst schnell eine Zeitung zu holen, und danach belohnt man ihn entsprechend. Was er dann unterwegs macht oder denkt, um effizienter zu werden, ist nicht Teil der Handlungsanweisung, sprich, wie er das Ziel erreicht. Bezogen auf einen autonomen Roboter im Kriegsgebiet können Dinge passieren, die man nicht erahnen kann. Diese Eigendynamik hat auch das Strategiespiel 'Dota 2' veranschaulicht.“

Maschinensysteme, die so auf einem Schlachtfeld operieren, kann man sich auch wie bei einem Schachspiel gegen einen Computer vorstellen. Zwei Länder haben etwa ihre Spielfiguren – in dem Fall "Killerroboter" –, die, losgelöst von menschlicher Kontrolle, autonom ihre Züge ziehen. Und das alles in einer Geschwindigkeit, die die menschliche Reaktionsfähigkeit um ein Vielfaches überschreitet. Ein Programmierer kann die Handlungsweisen zwar beeinflussen, aber in letzter Konsequenz entscheide eine Maschine autonom über Leben und Tod.

Die zwei Seiten des technischen Fortschritts

Im Prinzip sind all die Maschinen, die momentan entwickelt werden, auch für zivile Zwecke einsetzbar, betont Vincze. Man könne die Roboter nach einem Erdbeben in einsturzgefährdete oder brennende Häuser schicken, um nach Überlebenden zu suchen. Seine Forschungsgruppe hat sich schon bei der Gründung vor zwanzig Jahren zum Prinzip gemacht, keine militärischen Anwendungen zu verfolgen.

Militaristen mögen argumentieren, dass der Tausch von Fußsoldaten mit Robotern ein Fortschritt ist – weniger Menschen müssten so aufs Schlachtfeld. Dieses Argument ist aber mit Vorsicht zu genießen, warnt Ugo Pagallo, Roboter-Rechtsexperte der Universität Turin.

Die Hemmschwelle, Angriffe zu unternehmen, sinkt, wenn nicht Menschen aufs Schlachtfeld geschickt werden, sondern Maschinen. Ein weiteres Problem ist, dass diese Maschinen leicht gehackt werden könnten. Pagallo weist sowohl auf die ethischen als auch die technischen Probleme hin, die sich durch die neuen Entwicklungen ergeben.

"Ist es akzeptabel, dass starke Künstliche-Intelligenz-Systeme darüber entscheiden, ob sie einen Menschen töten oder nicht?" Er und auch Frei weisen darauf hin, dass solche "starken" Systeme noch nicht entwickelt seien: Momentan ist die Kooperation mit menschlichen Akteuren zwingend. Die Maschinen können etwa nicht zwischen Zivilisten und Kämpfern unterscheiden – eine Schlüsselentscheidung im Kriegsrecht.

Bild nicht mehr verfügbar
Bei einer Parade in Bagdad im November 2011 marschieren Einheiten des US-Militärs und der irakischen Armee gemeinsam mit Robotern.

Ein weiteres Dilemma ist, dass die Handlungen der Maschinensysteme unvorhersehbar sind. Eben weil es noch sehr selten zu tödlichen Vorfällen gekommen ist, weiß man nicht, wie sich die Systeme im Ernstfall verhalten, meint Pagallo. "Es gibt die realistische Möglichkeit, dass die Systeme außer Kontrolle geraten, und wir kennen das Risiko in so einem Szenario nicht."

Initiative zum Bann solcher Systeme

Die Systeme sind nicht Science-Fiction, sind sich Frei und Pagallo einig. Die Entwicklungen sind greifbar. "Alle Zutaten sind da", meint Frei. Es sei also jetzt an der Zeit, internationale Regeln für deren Einsatz zu schaffen. Am 20. August haben daher 116 Experten angeleitet von Elon Musk, Geschäftsführer von Tesla, einen offenen Brief an die Uno geschickt, in dem sie genau das fordern.

Bild nicht mehr verfügbar
Bereits 2013 versuchte eine Gruppe internationaler Experten, unter ihnen der Wissenschafter Stephen Hawking, auf die Problematik aufmerksam zu machen – auch mit riesengroßen Robotern in London.

Sie möchten, dass die tödlichen autonomen Maschinensysteme von der Uno verboten werden, genauso wie in den 1980ern etwa chemische Waffen. Ein für August angesetztes Treffen zu dem Thema wurde auf November verschoben – weil nicht alle Länder die Gelder für das Treffen gezahlt hatten.

"Mit diesem Hintergrund bin ich leider nicht sehr optimistisch, dass die Uno hier einen sinnvollen Kompromiss finden kann. Vielleicht auf lange Sicht. Aber wie schon John Maynard Keynes gesagt hat: Auf lange Sicht sind wir alle tot", sagt Pagallo.

Er sieht die Öffentlichkeit in der Pflicht, mehr Druck auszuüben. Außerdem sollten die großen Polit-Player die Initiative ergreifen – wenn schon nicht aus ethischen Gründen, dann aus Eigeninteresse. Pagallo weist darauf hin, dass die AI-Systeme sehr billig sind, wenn ein Prototyp erst einmal entwickelt wurde. Auch ärmere Länder und Akteure könnten diese leicht kopieren – vor allem in Bezug auf Software. "Insofern demokratisieren diese Systeme das Schlachtfeld."

Frei gehört auch zu den Unterzeichnern von Musks Brief. Er plädiert – wenn man Waffenentwicklung schon nicht ganz unterbinden kann – für eine "shared autonomy", also für eine Interaktion von Mensch und Maschine. "Was hinter verschlossenen Türen passiert, weiß man leider nicht. Letztendlich sollte man alles dafür tun, um die Entwicklung und den Einsatz zu limitieren."

Vincze sagt: "Es gibt genug zu tun, friedliche Roboter zu bauen." (Anna Sawerthal, 9.9.2017)