Roboterexpertin: "Enorm positive Gefühle für eine soziale Maschine"

Interview8. Jänner 2016, 08:00
42 Postings

Kate Darling erforscht, wie Menschen mit intelligenten Maschinen umgehen und ob sie ihr Verhalten dabei ändern

STANDARD: Sie wurden häufig mit einem kleinen Spielzeugdinosaurier fotografiert. Was hat es damit für eine Bewandtnis?

Kate Darling: Das ist ein Pleo, ein Roboter mit einem äußeren Erscheinungsbild, das wir an derartigen Maschinen so schätzen. Er ist niedlich, hat vertrauensvoll wirkende Augen und kann so enorm positive Gefühle in uns wecken: Gefühle, die wir sonst nur zu Menschen oder Haustieren haben. Wir haben uns in einigen Experimenten damit beschäftigt, ob Testpersonen soziale Roboter wie diese kaputtmachen können.

STANDARD: Kaputtmachen? Warum denn das?

Darling: Ja, wir haben ihnen verschiedene Waffen gegeben – Messer oder Beile – und sie aufgefordert, diese Roboter zu zerstören. Dabei hat sich gezeigt, dass sich empathische Menschen für gewöhnlich sehr schwertun, diesen Robotern etwas anzutun, da sie uns womöglich an Tiere erinnern, aber nicht so sehr an Maschinen. Da lassen sich auch Schlüsse ziehen, wie empathisch Menschen untereinander sein können. Diese Erkenntnisse sind aber auch deshalb wichtig, weil wir in Zukunft von immer mehr sozialen Robotern umgeben sein werden, im Berufs- und im Privatleben, und lernen müssen, hier neuartige Beziehungen aufzubauen. Was wir da sehen, ist kein Mensch, kein Tier, aber auch nicht ausschließlich eine Maschine. Wir sollten heute darüber diskutieren, was es genau bedeutet.

STANDARD: Der Roboter Hitchbot, der quer durch mehrere Länder trampte, wurde im Sommer 2015 in Philadelphia – nicht im Rahmen Ihrer Tests – von Unbekannten vollkommen zerstört. Die Reaktion darauf war blankes Entsetzen. In sozialen Netzwerken wurde über die Beweggründe für diesen Akt von Vandalen gerätselt. Die Menschen waren großteils wütend. Was kann man aus dieser Geschichte lernen?

Darling: Man war nicht wegen der Zerstörung einer Maschine wütend, sondern wegen Zerstörung einer Figur, mit der man Gefühle verbunden hat, in die man Erwartungen, Wünsche und Sehnsüchte projiziert hat. Hitchbot war ja ursprünglich ein Projekt, um zu testen, inwieweit sich ein Roboter, der sich zwar unterhalten, aber nicht selbstständig fortbewegen kann, auf die Kooperationsbereitschaft von Menschen verlassen kann. Normalerweise fragt man sich ja genau das Gegenteil: Ist der Umgang mit Robotern sicher? Die Antwort scheint in diesem Fall recht eindeutig zu sein: Der Umgang mit Menschen ist unsicher. Wir müssen also über ethische Kriterien im Umgang mit Robotern nachdenken.

STANDARD: Könnten Sie sich auch ein Gesetz vorstellen, um den Umgang von Menschen mit Robotern zu regeln? Ein Roboterschutzgesetz?

Darling: Der Gedanke war bisher ausschließlich Science-Fiction, ist aber meiner Meinung nach nicht so abwegig. Als Juristin halte ich einiges davon. Auch von Regeln für den Bau von Robotern. Auch hier müsste man schon mehr Verantwortung als bisher zeigen: Ein falsch programmierter Roboter kann schließlich zu einer Gefahr für Menschen werden – wenngleich ich nicht glaube, dass Roboter so bald zum Alltagsbild gehören werden. Man muss sich ganz genau anschauen, was Roboter leisten können, wie lernfähig sie sind und welche Funktionen sie haben werden – in einer sicher vom Menschen nach wie vor dominierten Welt.

STANDARD: Ich frage auch deshalb, weil weltweit von einer neuen industriellen Revolution gesprochen wird, von der großen Automatisierung von Arbeitsprozessen. Sicher ist, dass das ohne weitere Qualifikation zum Verlust von Arbeitsplätzen führen wird. Kann es dann nicht häufiger zu Vandalismus kommen?

Darling: Das sind die Fantasien von Politikern und Firmenchefs. Alle Roboter, die wir am MIT entwickeln, sind dazu da, Menschen zu unterstützen, nicht sie zu ersetzen. Aber natürlich glaube ich auch, dass man endlich eine breite Diskussion führen muss: Wie wird sich unser Leben verändern, wie werden wir uns in unserem alltäglichen Verhalten ändern? Auch das ist möglich, wie wir an Experimenten nun zeigen wollen. Wir glauben, dass man Menschen mit sozialen Robotern womöglich mehr Empathie beibringen könnte.

STANDARD: Werte und Regeln wie die Frage der Rechte waren auch in einer Ihrer früheren wissenschaftlichen Arbeiten ein Thema. Es ging um die Pornoindustrie im digitalen Zeitalter. Können Sie kurz sagen, was das Ergebnis war?

Darling: Ich beschäftige mich insgesamt mit geistigem Eigentum und Copyright im digitalen Zeitalter, nicht ausschließlich mit der Frage, wie die Pornoindustrie damit umgeht (lacht). Aber das Thema ist eben sexy – wie die Roboter. Hätte mich gewundert, wenn Sie das nicht fragen. Also: Ich habe in zahlreichen Interviews herausgefunden, dass die Pornoindustrie kaum etwas gegen zahlreiche Raubkopien im Netz macht, weil das aussichtslos wäre. Das wäre zu aufwendig und zu kostspielig. Sie überlegen sich neue Strategien, um Gewinne zu machen. Höhere Videoqualität, Marketingstrategien, Interaktion, Gaming und 3-D waren darunter. Offenbar wurden sie durch Druck innovativ.
(Peter Illetschko, 8.1.2016)


Kate Darling ist in Basel aufgewachsen und hat an der ETH Zürich Jus studiert. Seit 2011 ist sie am MIT Media Lab in Cambridge und auch Fellow am Harvard Berkman Center for Internet & Society.

  • Kate Darling und eine Maschine mit menschlichem Antlitz: Wie wir mit Robotern umgehen, sagt viel darüber aus, wie wir uns unter Menschen verhalten.
    foto: flavia schaub

    Kate Darling und eine Maschine mit menschlichem Antlitz: Wie wir mit Robotern umgehen, sagt viel darüber aus, wie wir uns unter Menschen verhalten.

Share if you care.