Wie USA ein Terminator-Szenario verhindern wollen

17. Februar 2009, 14:43
180 Postings

Maschinen müssen Kriegs-Code erlernen - bis 2015 soll ein Drittel aller militärischen Fahrzeuge unbemannt sein

US-Wissenschaftler der California State Polytechnic University haben im Auftrag des Office of Naval Research der US-Navy einen Bericht über mögliche Gefahren beim Einsatz von Kampfroboter erstellt. Neben einer Auflistung, welche Arten von Robotern Soldaten auf den Schlachtfeldern der Zukunft ersetzen sollen, weisen die Forscher auch auf ein Szenario hin, in dem sich die Roboter gegen die Menschen wenden, wie The Times Online berichtet.

Roboter treffen Entscheidungen

Die Forscher gehen in dem Bericht davon aus, dass Roboter in Zukunft intelligent genug sein werden, um selbst Entscheidungen treffen zu können. Es sei ein Irrglaube, dass Roboter nur das tun, wozu man sie programmiert hat. Die Software werde nicht mehr von einem einzigen Programmierer sondern von vielen Entwicklern in einem Team geschrieben. Keiner könne dabei das gesamte Programm kennen. Es sei daher ohne umfangreiche Tests in einer realen Umgebung nicht vorherzusagen wie die verschiedenen Teile großer Programme miteinander interagieren.

Ein Drittel Boden-Roboter bis 2015

Im Fall von Kampfrobotern dürften ausgiebige Tests unter realen Bedingungen allerdings schwierig sein. Und auch die Deadlines, die sich die USA für den Einsatz autonomer Maschinen gesetzt haben, könnten die Entwickler und Designer zu übereilten Entscheidungen drängen. Bis 2010 soll ein Drittel aller Fluggeräte für den Naheinsatz unbemannt sein, bis 2015 sollen ein Drittel aller Boden-Fahrzeuge ohne Mannschaft funktionieren.

Zwischenfall im Irak

Erst im April letzten Jahres sorgten allerdings Roboter des US-Militärs für schaurige Schlagzeilen, nachdem sie bei einem Einsatz im Irak außer Kontrolle geraten waren (der WebStandard berichtete). Die US-Army bestätigte damals, dass sich die bewaffneten Maschinen gegen die eigenen Truppen gerichtet hatten. Die Soldaten konnten allerdings rechtzeitig eingreifen und es sei niemand zu Schaden gekommen. Die Roboter wurden von dem Einsatz wieder abgezogen.

Roboter sollen Kriegs-Code lernen

Damit sich noch intelligentere Maschinen nicht gegen die eigenen Soldaten oder Zivilisten wenden, sei es laut den Forschern wichtig, dass Roboter quasi die Regeln der Kriegsführung erlernen. Dabei müssten aber noch wichtige Fragen geklärt werden. Sollen Roboter einen verwundeten Soldaten erkennen und schonen? Wie kann man die Roboter-Soldaten vor Hacker-Angriffen oder Viren schützen? Wer muss zur Verantwortung gezogen werden, wenn sich ein Roboter gegen Zivilisten wendet? (red)

  • Bild nicht mehr verfügbar

    Wie sollen Kampfroboter programmiert werden, damit sie sich nicht gegen die eigenen Truppen oder Zivilisten wenden? 

Share if you care.