Robotergesetze: Haftungsfragen sind keine Science Fiction

9. Mai 2012, 13:08
108 Postings

Diskussion in Deutschland - Jurist: "Maschinen irgendwelche Rechte einzuräumen, ist aus juristischer Sicht aber natürlich absurd"

Bielefeld - Juristen, Informatiker, Philosophen und Soziologen haben auf einer dreitägigen Tagung am Zentrum für Interdisziplinäre Forschung der Universität Bielefeld über Roboterrecht diskutiert. Nicht um Isaac Asimovs "Robotergesetze" ("Ein Roboter darf kein menschliches Wesen [wissentlich] verletzen ... usw. usf.), sondern um Praxisrelevanteres geht es, wenn beispielsweise der Jurist Eric Hilgendorf gesetzliche Regelungen für Roboter fordert - die rasante technische Entwicklung habe dies notwendig gemacht.

"Rechtsprechung brauchen wir, wenn Gerichtsverfahren entschieden werden müssen", sagte Hilgendorf. "Und es scheint so zu sein, dass es künftig viele Gerichtsverfahren geben wird rund um Roboter, oder wie wir sie lieber nennen: autonome Systeme."

Haftungsfragen

"Es gibt dazu schon Urteile. Da geht es vor allem um Haftungsregelungen zivilrechtlicher Art, also etwa um Schadenersatz", sagte der Professor von der Forschungsstelle Robotrecht der Universität Würzburg. Als Beispiel nannte er den Robodoc-Fall, eine Operationsmaschine, die vor einigen Jahren bei Operationen Hüftknochen zu tief ausgefräst hatte. "Hier war es ein einfacher Fall: Der Hersteller der Maschine musste haften."

"Jetzt haben wir das Problem, dass die Maschinen immer autonomer werden. Sie werden korrekt ausgeliefert, lernen im Laufe der Zeit dazu, leider aber möglicherweise das Falsche", sagte Hilgendorf. "Wenn daraus ein Schaden entsteht, kann der Hersteller mit starken Argumenten sagen: Das ist nicht mein Verschulden."

So sind in Japan erste Pflegeroboter im Einsatz. Die Maschine übermittelt Daten des Patienten, im Notfall schlägt sie Alarm. "Der Roboter könnte gelernt haben, ein Schnarchen als harmlos zu erkennen. Beim nächsten Patienten ist es dann ein Erstickungsanfall, den die Maschine aber für Schnarchen hält. Wer haftet?"

Viele offene Detailfragen

"Autohersteller arbeiten an selbstfahrenden Fahrzeugen, es gibt Überwachungsroboter, Industrieroboter", zählte Hilgendorf auf. "In der Industrie-Robotik versucht man jetzt, Mensch und Maschine direkt zusammenarbeiten zu lassen. Also zum Beispiel Schweißarbeiten, die von einem Menschenarm und einem Roboterarm gemeinsam ausgeführt werden." Aber kann eine Maschine für jede Bewegung des Menschen programmiert werden?

"Außerdem nehmen die Möglichkeiten, Technik in Menschen einzubauen, rasant zu", stellte der Jurist fest, etwa für Parkinson-Patienten. Bei einigen Patienten komme es durch Hirnschrittmacher zu Fehlverhalten, etwa wegen eines verstärkten Sexualtriebs. "Können die dann hinterher sagen, ich war teilweise unzurechnungsfähig?"

Gegen Rechtsschutz für Roboter

"Schnell kommt in diesem Zusammenhang auch die Frage eines Rechtsschutzes für Roboter auf", bedauerte Hilgendorf. "Wenn man Maschinen beibringt, Emotionen zu simulieren, wird bei vielen Menschen das Bestreben geweckt, diesen Roboter zu schützen." Die simple Urform sei Mitte der 1990er Jahre das Tamagotchi gewesen. "Maschinen irgendwelche Rechte einzuräumen, ist aus juristischer Sicht aber natürlich absurd."

Andersherum könne sich auch die Forderung ergeben, Roboter bei Fehlverhalten zur Rechenschaft zu ziehen. "Theoretisch könnte man auch einen Roboter bestrafen. Aber Sinn von Strafen ist ja Prävention", erinnerte der Jurist. "Man sollte hier nicht vermenschlichen, etwa wie im Film 'I, Robot'. Das ist Science-Fiction, aber keine seriöse juristische Fragestellung."

Derzeit drehe sich die Debatte ohnehin weniger um Haftung, sondern mehr um Datenschutz. "Die autonomen Systeme müssen ja ständig Daten von ihrem Gegenüber und der Umgebung aufnehmen. Was passiert damit?" (APA/red, derStandard.at, 9.5.2012)

  • Bild nicht mehr verfügbar

    Von den Problemen, mit denen sich Will Smith in "I, Robot" herumschlagen musste, sind wir noch sehr weit entfernt. Aber auch heute schon gilt es rechtliche Fragen um Roboter zu klären.

Share if you care.