"Der Roboter muss Menschen korrigieren können"

Interview9. September 2015, 14:00
90 Postings

Smarte Maschinen werden alle menschlichen Rollen einnehmen können, sagt der Forscher Matthias Scheutz. Die Frage ist: Wie weit lassen wir das zu?

STANDARD: Wann haben Sie zuletzt mit Robotern oder Systemen, die auf künstlicher Intelligenz basieren, kommuniziert, und war die Interaktion zufriedenstellend?

Matthias Scheutz: Vor ein paar Wochen in unserem Labor, als wir an einer Demo mit lernfähigen Robotern arbeiteten, und nein, die Interaktion war nicht zufriedenstellend. Wir sind im Moment leider noch sehr weit davon entfernt, mit Robotern oder Artificial-Intelligence-Systemen quasi natürlich zu kommunizieren, aber wir arbeiten daran.

STANDARD: Woran arbeiten Sie denn da genau?

Scheutz: Fast all unsere Projekte haben in irgendeiner Weise mit Mensch-Roboter-Interaktionen zu tun. Dabei sind wir sowohl daran interessiert, experimentell herauszufinden, wie gut ein von uns entwickelter Algorithmus ist, als auch welche Fertigkeiten Menschen sich von Robotern erwarten. In einem laufenden Projekt entwickeln wir zum Beispiel Roboterkontrollprogramme, die es Robotern erlauben, von menschlichen Instruktionen zu lernen. Das geht zurzeit natürlich nur in sehr beschränktem Rahmen, aber wir erwarten uns eine wesentliche Leistungssteigerung in absehbarer Zukunft.

STANDARD: Bei allem Optimismus bezüglich künftiger Algorithmen: Geht es nicht auch darum, dass es zwischen Mensch und Roboter Konflikte geben kann? Wie kann der Roboter wissen, was gut und was schlecht ist, welcher Befehl moralisch richtig, welcher falsch ist?

Scheutz: Wir wollen die Roboter mit den nötigen kognitiven Fähigkeiten ausstatten, die ihnen ein rudimentäres moralisches Verhalten ermöglichen. Denn ohne diese Möglichkeit werden Interaktionen zwischen Robotern und Menschen auf lange Sicht sowieso nicht funktionieren. Diese Algorithmen sind allgemeiner Natur und daher nicht an ein bestimmtes Moralsystem gebunden. Die entsprechenden Regeln für eine bestimmte Anwendung festzulegen, ist dann die Aufgabe derer, die den Roboter einsetzen. Wir entwickeln Rechenverfahren, die Robotern das Erlernen von Normen und sozialen Regeln ermöglichen werden, sodass etwa ein Haushaltsroboter die in einem neuen Haushalt üblichen Regeln vor Ort erlernen kann. Und wir wollen es möglich machen, dass Roboter Konflikte erkennen und auflösen. Ein schwieriges Problem, zu dem wir vor allem noch Daten von psychologischen Studien brauchen, da wir zurzeit nicht genau wissen, wie Menschen das machen. Die Frage, wie ein Roboter zwischen "gut" und "schlecht" unterscheiden kann, ist hier essenziell.

STANDARD: Wie könnte man einen derartigen moralischen Konflikt auflösen?

Scheutz: Wie untersuchen, wie ein Roboter, der von einem Menschen absichtlich oder unabsichtlich einen unmoralischen Befehl bekommen hat, die Ausführung dieses Befehls verweigern kann, ohne dass sich der Mensch irritiert fühlt. Deshalb müssen wir für die Roboter eine Möglichkeit finden, den menschlichen Befehlsgeber zu korrigieren, ohne ihn gleich zu beleidigen oder zu frustrieren. Idealerweise sollte es der Roboter sogar so tun, dass sich die Konfliktsituation in Zukunft nicht mehr wiederholt, das heißt, dass der Mensch versteht, warum der Befehl nicht in Ordnung ist.

STANDARD: Welche Erfahrungen haben Sie bisher dabei gesammelt?

Scheutz: Wir haben etliche Experimente mit verschiedenen Robotern durchgeführt. Die Resultate deuten darauf hin, dass die wichtigste Komponente in der Interaktion mit dem Menschen eine sprachliche Rechtfertigung des Roboters für die Befehlsverweigerung ist. Es geht um inhaltliche Argumente, so wie man sich das idealerweise vorstellt, nicht um das Erscheinungsbild des Roboters.

STANDARD: Was passiert, wenn sich der Roboter in seiner Interaktion mit den Menschen unseren Normen nicht anpassen kann?

Scheutz: Eines muss uns klar sein: Soziale Interaktionen in Gesellschaften funktionieren deshalb, weil sich fast alle Beteiligten an diese Normen halten, also den Gesetzen, aber auch der Etikette und den ungeschriebenen Verhaltensregeln folgen. Diese Regeln zu erlernen, ist ein langer Prozess, und wir verbringen einen Großteil unseres Lebens damit, uns diese Regeln anzueignen, nicht nur als Kinder, sondern auch als Erwachsene. Roboter, die nicht mit der Möglichkeit, Normen zu verarbeiten, ausgestattet sind, werden daher Normen verletzen – mit unterschiedlichen Konsequenzen. Auf jeden Fall wird dadurch das Roboterverhalten für Menschen unvorhersehbar. Es kommt zu einem Vertrauensverlust, der etwa im Pflegebereich schwerwiegende Folgen für Menschen haben kann.

STANDARD: Weil Sie soziale Roboter im Pflegebereich ansprechen: Kann ein Roboter Menschen mit all ihren vielschichtigen Fähigkeiten, auf Situationen zu reagieren, wirklich ersetzen? Wie weit kann die Entwicklung gehen?

Scheutz: Es kann so weit gehen, wie wir wollen, wie weit wir als Gesellschaft die Entwicklung zulassen, denn – im Prinzip – gibt es keinen Grund anzunehmen, dass Roboter irgendwelche menschlichen Rollen nicht ersetzen können. Wie gesagt: im Prinzip. Aber wir sind natürlich ganz am Anfang der Entwicklung sozialer Robotertechnologie und daher auch am Anfang der Erforschung möglicher legitimer Anwendungsgebiete. Was dann legitim ist, kann letztlich nicht von technologischer Seite vorgeschrieben, sondern muss von der Gesellschaft beurteilt werden. Wären wir damit einverstanden, dass Roboter Kinderbetreuung in Schulen oder Kindergärten übernehmen? Und sollen Haushaltsroboter wie weibliche Stubenmädchen aussehen dürfen?

STANDARD: Roboter in Fabriken werden derzeit als große Chance gesehen. Welche Gefahren sehen Sie in der Industrie 4.0, wie das Schlagwort dazu heißt?

Scheutz: Die Einführung neuer Technologien ist immer mit dem Verlust von Arbeitsplätzen, aber genauso mit der Schaffung neuer, üblicherweise anderer Arbeitsplätze verbunden. Ich bin kein Wirtschaftsexperte und kann daher auch nicht vorhersagen, welche Auswirkungen die Robotertechnologie auf den Arbeitsmarkt haben wird. Allerdings bin ich insgesamt skeptisch bei solchen Vorhersagen, vor allem längerfristigen, weil man sich einfach nicht alle technischen Möglichkeiten und deren Auswirkungen vorstellen kann. Denken Sie 20 Jahre zurück, als das World Wide Web gerade am Anfang stand. Wer hätte da gedacht, dass diese Technologie zusammen mit Smartphones unsere ganze Arbeits-, Shopping- und letztlich Sozialkultur umwälzen würde, sodass eine Welt ohne Internet nicht nur undenkbar, sondern mittlerweile auch nicht mehr funktionsfähig wäre? (Peter Illetschko, 9.9.2015)

Matthias Scheutz, geboren 1966 in Wien, studierte Philosophie an der Universität Wien sowie Kognitions- und Computerwissenschaften an der Indiana University in Bloomington. Er ist derzeit Professor für Kognitions- und Computerwissenschaften sowie Direktor des Human-Robot Interaction Laboratory an der Tufts University. Bei den vergangenen Technologiegesprächen in Alpbach sprach er über das Thema "Zukünftiges Leben mit der Maschine". Hintergrund waren die derzeitigen Industrie-4.0-Förderungen des Verkehrsministeriums.

  • Die smarte Maschine als guter Freund? Der Wiener Matthias Scheutz analysiert an der Tufts University Chancen und Risiken im Umgang mit Robotern.
    foto: tufts university / kelvin ma

    Die smarte Maschine als guter Freund? Der Wiener Matthias Scheutz analysiert an der Tufts University Chancen und Risiken im Umgang mit Robotern.

Share if you care.