Selbstfahrende Autos und Pflege-Bots: Ethiksystem für Roboter nötig

13. November 2013, 10:43
117 Postings

Soll ein selbstfahrendes Auto einem Fußgänger ausweichen und dabei die Insassen gefährden?

Wenn Autos selbstständig fahren sollen, Roboter alte Leute betreuen und Kampfmaschinen statt Menschen Kriege führen, muss man den Automaten auch beibringen, eigenständig ethische Entscheidungen zu treffen. Das meint Robert Trappl vom Österreichischen Forschungsinstitut für Artificial Intelligence (OFAI), am Rande eines Vortrags über "Ethik für Roboter" Dienstag Abend in Wien im Gespräch mit der APA. Er hat Experten dazu eingeladen hat, ein Ethik-System für Roboter zu entwickeln.

"Vor ein paar Wochen ist in Kärnten zum Beispiel ein Schulbuslenker einem Reh ausgewichen - das geschah vermutlich unterbewusst, war aber trotzdem eine ethische Entscheidung - und der Bus ist mit ihm und den Kindern einen Hang hinuntergestürzt", sagte Trappl. Er glaube, dass man ein automatisiertes Fahrzeug nicht so programmieren würde, dass es in dieser Situation einem Tier ausweicht. Etwas komplizierter wäre der Fall etwa, wenn ein Auto entscheiden muss, ob es drei plötzlich auftauchende Fußgänger überfährt, oder gegen eine Wand lenkt und dabei die Leben der Insassen aufs Spiel setzt.

Bauanleitung für Ethik-Systeme

Weil die Ethik für Roboter so ein brisantes Thema und Forschungsgebiet sei - zahlreiche Autohersteller, aber auch der Internet-Konzern Google arbeiten bereits an selbstfahrenden Autos, Prototypen sind schon in mehreren US-Bundesstaaten unterwegs -, habe er Wissenschafter aus Europa und den USA eingeladen, um gemeinsam eine Art Bauanleitung für Ethik-Systeme in Maschinen zu entwerfen. Dabei diskutierte man etwa, nach welchen ethischen Kriterien Maschinen ihre Handlungen ausrichten sollten und wie man solche Systeme testen könnte, erklärte er. Die Ergebnisse sollen in Buchform erscheinen, so Trappl.

Handeln ohne Schaden

Die Kriterien könne man sich etwa von Medizinern abschauen, also die Roboter so programmieren, dass sie nur handeln, wenn sie niemandem damit schaden, dies einen Nutzen verspricht und die Autonomie der anvertrauten Person nicht eingeschränkt wird. Sind auch andere Menschen betroffen, dürfte niemand grundlos bevorzugt werden. Ein anderes Prinzip wäre zum Beispiel, dass die Maschinen bei jeder kniffligen Situation innerhalb von Millisekunden im Internet nach ähnlichen Situationen und dazu passenden, als ethisch korrekt bewerteten Entscheidungen suchen, so Trappl.

"Je enger die Beziehung zwischen Roboter und Mensch wird, umso subtiler müssen die ethischen Kriterien sein", erklärte er. Wenn ein Roboter zum Beispiel den ganzen Tag lang eine Seniorin betreut, wäre es vermutlich notwendig, dass er sich ein Bild über ihre Persönlichkeit und ethischen Prinzipien macht, um sie nicht mehr zu vergrämen als zu helfen. "Wenn der Pflegeroboter zu sehr bevormundet und ständig an Dinge erinnert, die man ohnedies selbst weiß, wird man überbetreut sein und ihn bald hassen", so Trappl.

Von der Akzeptanz würde es schließlich abhängen, ob man bestimmte Systeme überhaupt nutzen würde, meint er. "Ich weiß nicht, ob jemand zum Beispiel ein automatisiert fahrendes Auto kaufen würde, das ihn vielleicht in einen Abgrund lenkt, wenn drei Menschen vor ihm auf der Straße auftauchen", so der Experte für künstliche Intelligenz. (APA, 13.11.2013)

  • Soll sich ein selbstfahrendes Auto im Ernstfall für die Fußgänger oder seine Insassen entscheiden?
    foto: google

    Soll sich ein selbstfahrendes Auto im Ernstfall für die Fußgänger oder seine Insassen entscheiden?

Share if you care.