Moralische Dilemmata autonomer Autos

Video24. Juni 2016, 17:48
265 Postings

Wie soll man Fahrzeuge für Unfälle programmieren? Darf der Passagier notfalls geopfert werden? Ein neue Studie zeigt, dass diese moralischen Dilemmata gravierender sind als gedacht

Cambridge/Wien – Bereits ab Herbst werden auch in Österreich auf bestimmten Strecken selbstfahrende Autos getestet. Technologiekonzerne wie Google oder Apple arbeiten seit mehreren Jahren daran, weshalb auch Automobilkonzerne in Europa, den USA und Japan längst nachgezogen haben und daran basteln.

Ein großer Vorteil der autonom agierenden Autos wird sein, dass die Zahl der Verkehrsunfälle um bis zu 90 Prozent zurückgehen würde. Doch dazu müssten die selbstfahrenden Fahrzeuge die Mehrheit unter den Straßenfahrzeugen stellen. Denn diese Autos wären frei von all den menschlichen Unzulänglichkeiten: Alkohol am Steuer ebenso wie Smartphone-Ablenkung oder überhöhte Geschwindigkeit.

Klar ist aber auch, dass unvorhersehbare Ereignisse auch mit autonomen Autos zu Unfällen führen werden, und hier beginnt die Sache nicht nur technisch, sondern auch moralisch knifflig zu werden: Wie sollte das Auto reagieren, wenn ein Kind auf die Straße läuft, beim Ausweichen aber ein anderer Passant überfahren würde? Sollte das Auto programmiert werden, um in Extremfällen eher den Passagier zu töten, wenn dadurch zehn andere Leben gerettet werden können?

science magazine

Ein Forschertrio um Iyad Rahwan (MIT in Cambridge) konfrontierte in Experimenten knapp 2.000 Testpersonen mit solchen Fragen. Die besondere Pointe: Die Teilnehmer sollten ihre Bewertungen in verschiedenen Rollen abgeben – als unbeteiligte Beobachter oder als potenzielle Insassen des Autos. Schließlich wurden die Testpersonen noch gefragt, welche Programmierung sie sich für ihr eigenes autonomes Auto wünschen würden.

Zwar bevorzugte eine deutliche Mehrheit der Teilnehmer eine Programmierung, die möglichst wenige Opfer verursachte: Im Fall von den zehn Fußgängern und einem Autofahrer entschieden sich 76 Prozent dafür, den Fahrer zu opfern. Anders sah dies erwartungsgemäß dann aus, wenn ein Fahrer einem einzigen Fußgänger gegenüberstand: Hier fanden es nur 23 Prozent der Teilnehmer richtig, den Fahrer zu opfern. Völlig anders reagierten aber jene Testpersonen, die sich selbst in der Rolle als Mitfahrer sahen.

In diesen Widersprüchen sehen die Studienautoren freilich auch ein Dilemma für die Autoindustrie: Werden die Autos nach allgemein akzeptierten moralischen Grundsätzen programmiert, dann werden wohl weniger Personen diese Autos kaufen.

Ein möglicher Ausweg könnte sein, den Autos eine "dosierbare" Moral zu verpassen: Letztlich entscheidet dann der Käufer oder Fahrer des Autos, welche moralische Feinjustierung er für sein Auto vornimmt: eher egoistisch oder altruistisch. (tasch, 25.6.2016)

  • Soll man einen Menschen töten, um mehrere andere zu retten? Vor diese Frage könnte auch ein selbstfahrendes Auto im Notfall gestellt sein. Solche moralischen Probleme werfen ernste Probleme für die Programmierung der Vehikel auf und könnten auch ihren Verkauf erschweren.
    illustration: iyad rahwan

    Soll man einen Menschen töten, um mehrere andere zu retten? Vor diese Frage könnte auch ein selbstfahrendes Auto im Notfall gestellt sein. Solche moralischen Probleme werfen ernste Probleme für die Programmierung der Vehikel auf und könnten auch ihren Verkauf erschweren.

Share if you care.