Wie hoch ist menschliche Hilfsbereitschaft gegenüber einem Roboter?

24. Juli 2016, 19:54
12 Postings

Forscher brachten den Roboter "Hobbit" in die Bredouille und sahen zu, ob und wie ihm wieder herausgeholfen wurde

Wien – Im Rahmen eines Forschungsprojekts an der Technischen Universität (TU) Wien wird die Zusammenarbeit zwischen Mensch und Maschine untersucht – ein Thema, das in Zukunft stark an Bedeutung gewinnen wird, so die Einschätzung vieler Experten. Menschen können zwar mehr oder weniger intuitiv herausfinden, was anderen Personen Probleme bereitet. Sich in eine Maschine hineinzuversetzen fällt aber deutlich schwerer und auch die Toleranz gegenüber fehlerhaften Geräten ist nicht so hoch wie gegenüber Menschen, denen Fehler passieren, berichten TU-Forscher.

"Wesentlich ist, dass der Roboter seinen Systemstatus klar und verständlich kommuniziert, dann akzeptieren wir auch Fehler", erklärte die Soziologin Astrid Weiss, die am Institut für Automatisierungs- und Regelungstechnik in der Arbeitsgruppe "Vision4Robotics" zur Interaktion zwischen Mensch und Maschine forscht. Um mehr über die Kommunikation der ungleichen Partner zu erfahren, führte die Forschungsgruppe um Markus Vincze mehrere Experimente mit dem am Institut entwickelten Hilfsroboter "Hobbit" durch.

Das Experiment

Dabei mussten Versuchspersonen mit Hilfe des Roboters, der sich durch eine Kamera und ausgeklügelte Bildverarbeitungssoftware selbstständig im Raum orientieren kann, Aufgaben lösen. Im Nebenzimmer saß allerdings ein "Saboteur", der manchmal das Kommando übernahm und gezielt Fehler von "Hobbit" produzierte. Die Teilnehmer wussten davon aber nichts.

"Ich stecke fest" oder "Ich habe die Orientierung verloren – bitte schieben Sie mich in die richtige Richtung", bat der Roboter die Menschen, die in der Regel auch bereitwillig halfen. Zuständig fühlte sich meistens jene Person, die der Maschine zuletzt einen Befehl erteilt hatte. Das sei eine entscheidende Erkenntnis, wenn es um die Frage geht, an wen sich ein Roboter in Not wenden sollen, so Weiss.

In Befragungen nach den Experimenten gaben manche Versuchspersonen sogar an, dass es überhaupt keine Probleme gegeben habe. Leicht behebbare Fehler würden außerdem oft gar nicht als Funktionsstörung wahrgenommen, sondern als normaler Teil der Zusammenarbeit gesehen. Auch wiederholte Störungen würden verziehen, wenn die Versuchspersonen das Gefühl hatten, vom Roboter klar und verständlich über die Probleme informiert worden zu sein.

Nulltoleranzpolitik in Japan

Das galt aber nicht für alle Studienteilnehmer-Gruppen: Während sich nämlich amerikanische und österreichische Testpersonen fehlertolerant präsentierten, gingen Japaner weitaus härter mit dem Roboter ins Gericht. "In Japan wird eher der Standpunkt vertreten, dass eine Maschine einwandfrei funktionieren soll – und wenn nicht, dann erwartet man, dass eine Fachkraft die Sache in Ordnung bringt. Das Konzept, dass Endnutzer den Roboter unterstützen sollen, ist dann weniger naheliegend", erklärte die Soziologin diesen kulturellen Unterschied. (APA, 24. 7. 2016)

Share if you care.