Killerroboter als Ri­si­ko­faktor: Dis­kus­si­on dringend notwendig

4. August 2009, 15:56
190 Postings

"Militärs haben seltsamen Zugang zu künstlicher Intelligenz"

"Roboter, die entscheiden können wen sie wann, wo und wie töten, sind ein großes Thema für das Militär. Das Problem ist allerdings, dass all dies auf den Erkenntnissen zur künstlichen Intelligenz beruht und die Militärs dazu eine eigenartige Sichtweise an den Tag legen, die rein auf Sciene Fiction basiert." Mit diesen Worten hat der englische Professor Noel Sharkey bei einem Meeting in London für Aufsehen gesorgt und eine breite Debatte über die Zukunft der "Killer-Roboter" eingefordert.

"Die Risiken sind enorm"

Laut eines Berichts der BBC sieht Sharkey in dem deutlichen Schwenk der Armee auf Roboter-Technologie ein drastisches Anwachsen der potenziellen Risiken für das Leben von ZivilistInnen. "Bis ein Roboter zwischen Freund und Feind unterscheiden kann, wird es noch 50 Jahre dauern. Die Risiken sind enorm", so Sharkey. "Die Leute, die die Roboter bedienen, sitzen den ganzen Tag vor einem Bildschirm, dann gehen sie nach Hause und essen mit ihrer Familie. Das ist eine sehr befremdliche Art der Kriegsführung - es wird den Charakter des Krieges dramatisch verändern."

Es geht nicht um weniger Schaden

Die Aussagen führender Generäle und PolitikerInnen, die meinen, dass durch den Einsatz von Killer-Robotern Menschenleben gerettet werden könnten und die Kollateralschäden massiv eingedämmt werden würden, kann Sharkey nicht nachvollziehen. Zwischen Jänner 2006 und April 2009 wurden in Pakistan 60 Attacken mit Drohnen durchgeführt, so die Schätzungen des Wissenschaftlers - dabei starben 14 mutmaßliche TerroristInnen und 687 ZivilistInnen.

SoldatIn oder ZivilistIn?

Unbemannte Tötungsmaschinen würden auch zu einem weitaus größeren Problem führen, so der Wissenschaftler. "Roboter können einfach nicht zwischen Freund und Feind unterscheiden, das fällt schon SoldatInnen schwer. Und vergessen sie in diesem Zusammenhang das Wort "Verhältnismäßigkeit". Es gibt keine Software, die einem Roboter "Verhältnismäßigkeit" beibringen könnte. Dazu gibt es keine objektiven Berechnungen - das ist eine Entscheidung, die nur Menschen treffen können."(red)

  • Bild nicht mehr verfügbar
Share if you care.