Roboter lernt Tischtennis vom Menschen - und verbessert sich durch Üben

  • Forscher der TU Darmstadt und des Max-Planck-Instituts für Intelligente Systeme haben einen Tischtennis spielenden Roboter entwickelt, die seine Bewegungen beim Menschen abschaut und sich dann selbständig verbessert.
    vergrößern 600x400
    foto: axel griesch/mpg, münchen

    Forscher der TU Darmstadt und des Max-Planck-Instituts für Intelligente Systeme haben einen Tischtennis spielenden Roboter entwickelt, die seine Bewegungen beim Menschen abschaut und sich dann selbständig verbessert.

Entsprechende Programmierung würde Jahre dauern, die Ergebnisse wären trotzdem schlechter

Die Bewegungen von Robotern folgen üblicherweise vorprogrammierten Regeln, die Vorbilder dafür kommen von Menschen oder Tieren, deren motorische Abläufe in für die Roboter verständliche Software übersetzt werden. Doch es geht auch anders, wie die Arbeit von Wissenschaftern der TU Darmstadt und des Max-Planck-Instituts für Intelligente Systeme zeigen: Deren Roboter schauen sich ihre Bewegungen zunächst direkt beim Menschen ab und verbessern diese dann selbständig. Ein Tischtennis spielender Roboter entwickelte nach kurzem Training eigenständig neue Schlagbewegungen.

Roboter, deren Bewegungen nicht mehr mühsam programmiert werden müssen, sondern die ihre Aufgaben eigenständig durch die Nachahmung von menschlichen Vorbildern erlernen - das ist die Vision von Jan Peters, Informatik-Professor an der TU Darmstadt und Gruppenleiter am Department Empirische Inferenz im Max-Planck-Institut für Intelligente Systeme in Tübingen. Mit seinen Mitarbeitern Katharina Muelling und Jens Kober hat Peters unter anderem einen Roboter entwickelt, der sein Tischtennisspiel selbständig verbessert: Nachdem die Wissenschafter zunächst den Roboterarm beim Einüben grundlegender Schlagtechniken führten, konnte der Roboter nach kurzer Zeit eigenständig die ihm zugespielten Bälle retournieren und seine Schläge dem jeweiligen Ballflug anpassen, indem er selbst neue Schlagbewegungen entwickelte.


Video: Wie der Roboter seine ersten Tischtennis-Bewegungen lernt und sich dann selbständig verbessert (Quelle: Youtube).

Eigenständige Erfolgskontrolle

"Unser Roboter lernt ganz ähnlich wie ein Mensch. Zunächst imitiert er eine komplizierte Bewegung und übt diese so lange, bis er sie wirklich beherrscht. Dann beginnt das bestärkende Lernen (engl. reinforcement learning): Dabei erhält der Roboter nach jeder Bewegung eine Rückmeldung zu seinem Erfolg und kann seine Reaktion entsprechend anpassen, bis er sich stets zur richtigen Zeit für die richtige Bewegung entscheidet", erklärt Peters. Der Tischtennis spielende Roboter konnte nach einer Stunde Training fast 90 Prozent der Bälle auf die Platte zurück spielen, die ihm von einem menschlichen Gegenüber zugespielt worden waren. "Eine entsprechende Programmierung des Roboterarms würde wohl Jahre dauern und immer noch deutlich schlechtere Ergebnisse erzielen", ist Peters überzeugt.

Hervorragend Mitarbeiter

Die Einsatzgebiete für selbstlernende Roboter sind laut Peters äußerst vielfältig. Sie könnten etwa in der industriellen Produktion bei häufigem Variantenwechsel und der Herstellung kleiner Stückzahlen zum Einsatz kommen, also dort, wo sich Roboter bislang als zu unflexibel erwiesen haben. "Außerdem müssen selbstlernende Roboter im Gegensatz zu herkömmlichen Robotern nicht aufwendig von Menschen und anderen Gegenständen abgeschirmt werden, sondern eignen sich im Gegenteil ganz hervorragend zur Kooperation mit dem Menschen", so Peters. Derzeit entwickelt der Wissenschaftler gemeinsam mit seinem Team einen Roboter, der Menschen als "dritte Hand" bei verschiedensten Tätigkeiten unterstützen kann. (red, derstandard.at, 05.11.2012)

Share if you care