Sollen Roboterautos über Leben und Tod entscheiden dürfen?

25. Juni 2015, 13:06
121 Postings

Hersteller und Softwareentwickler müssen sich mit ethischen Fragen auseinandersetzen

Einem fahrerlosen Auto mit zwei Personen und einem vollbesetzten Schulbus droht der Zusammenstoß. Soll das Roboterauto seine Insassen absichtlich in einen Abgrund oder gegen eine Wand lenken, um die Kinder zu retten? Was wie ein Horrorszenario aus einem Science-Fiction-Film klingt, beschäftigt derzeit die Softwareentwickler der Autobranche.

Entwicklungen bei allen großen Herstellern

Nahezu alle großen Autohersteller arbeiten inzwischen an selbstfahrenden Autos. Google will einige seiner Fahrzeuge bereits diesen Sommer in Kalifornien auf die Straßen schicken. Daimler hat kürzlich einen selbstfahrenden LKW vorgestellt, der in Nevada schon legal unterwegs sein darf. Wie bei den Google-Autos ist noch ein Fahrer nötig, der stets eingreifen kann. Beobachter gehen davon aus, dass selbstfahrende Autos innerhalb der nächsten zehn Jahre zum fixen Bestandteil auf den Straßen werden.

Die Vorteile liegen auf der Hand: Roboterautos sollen nicht nur effizienter fahren, sondern auch sicherer. Unfälle, die auf riskantes Verhalten, Alkoholisierung, Übermüdung oder unerfahrene Lenker zurückzuführen sind, sollen damit dezimiert werden. Dennoch wird es weiterhin Unfälle geben. Und für diese Situationen muss nun geklärt werden, wie sich die Fahrzeuge verhalten, auch wenn Passagiere noch selbst eingreifen können. Sollen sie die Sicherheit der eigenen Insassen um jeden Preis durchsetzen oder abwägen dürfen, welche Entscheidung weniger Opfer kosten würde.

Forscher experimentieren und beraten

Beraten werden die Autohersteller von verschiedenen Forschungseinrichtungen wie dem Center for Automotive Research an der Stanford University. Die Wissenschaftler wollen im Sommer ein Experiment mit autonomen Fahrzeugen durchführen, das zeigen soll wie sie sich in Gefahrensituationen verhalten, berichtet "Bloomberg". Wendell Wallach vom Interdisciplinary Center for Bioethics an der Yale University plädiert dafür, dass Entscheidungen nicht Robotern alleine überlassen werden dürfen. Es müsse immer einen Menschen geben, der eingreifen kann.

Patrick Lin von der Ethics and Emerging Sciences Group der Polytechnischen Universität in Kalifornien geht davon aus, dass die Regeln für selbstfahrende Autos ausschlaggebend für alle sozialen Roboter sein werden. Die Fragen, wie ein Roboterauto in einer gefährlichen Situation "entscheiden" soll, müssen jedenfalls geklärt werden, bevor sie auf die Straßen gelassen werden, so Jeff Greenberg von Ford. (br, 25.6.2015)

  • Google will im Sommer erste fahrerlose Autos auf die Straße bringen.
    foto: reuters/google

    Google will im Sommer erste fahrerlose Autos auf die Straße bringen.

Share if you care.