Yoshihiro Miyake will, dass sich Computer und Menschen auch ohne Worte besser verstehen - zunächst sollen sie einmal einen gemeinsamen Rhythmus finden.

Foto: ICT&S Center

Salzburg - Zeit ist nicht immer etwas, das in Sekunden oder Stunden gemessen werden kann. Zeit ist subjektiv - jeder hat seinen individuellen Rhythmus, und auch in derselben Situation vergeht für den einen die Zeit schneller als für einen anderen. In Japan gibt es sogar einen eigenen Begriff für dieses Phänomen: "Ma" heißt soviel wie "subjektive Zeit".

Das "Ma" zwischen Mensch und Maschine

Der Computerwissenschaftler Yoshihiro Miyake beschäftigt sich viel mit "Ma" - und er versucht, das subjektive Zeitempfinden auch in der Interaktion zwischen Mensch und Computer zu berücksichtigen. In einem Vortrag am ICT&S Center der Uni Salzburg, in dem an der Schnittstelle von Informations- und Kommunikationstechnologien einerseits und der Gesellschaft andererseits geforscht wird, präsentierte er am vergangenen Mittwoch einige seiner Ideen.

Spazierengehen mit dem Computer

Da ist zum Beispiel der "Walk-Mate", ein Gerät, das zum Gehtraining in der Rehabilitation etwa nach Unfällen genutzt wird. Miyake macht sich bei dieser Anwendung das Phänomen zunutze, dass zwei Menschen, die nebeneinander her gehen, nach kurzer Zeit unwillkürlich in einen Gleichschritt fallen. Der "Walk-Mate" besteht aus zwei Fußsensoren, einem kleinen Computer, der an der Hüfte getragen wird, und Kopfhörern. Das Gerät erkennt die Schritte des Patienten, errechnet daraus die Schritte des imaginären "Gehpartners" und simuliert sie im Kopfhörer.

Kein Metronom

Der Effekt: Die Patienten gehen im Training sehr viel gleichmäßiger und zügiger als ohne Begleitung, der Gehvorgang kann besser trainiert werden. Dabei ist das, was aus dem Kopfhörer kommt, eben kein Metronom, sondern stellt sich auf die Schritte des Patienten ein, ebenso wie sich der Patient auf die Schritte einstellt, die er hört. Nach etwa einer halben Minute sei ein gleichmäßiger, stabiler "gemeinsamer" Gehrhythmus erreicht, sagt Miyake.

Anwendungsfeld Musik

Ganz ähnlich funktioniert eine zweite Anwendung, die Miyake vorstellte: der virtuelle Klavierspieler. Ein Duett am Klavier mit dem Computer klinge sehr viel besser, wenn der Computer nicht stur seinem gespeicherten Rhythmus folgt, sondern auf den des Pianisten eingeht. Umgekehrt geht - per Kopfhörer - auch der Pianist wieder auf den Computer ein. Im Prinzip sei das Prinzip auch auf Karaoke-Software oder Playbacks anwendbar.

"Natürlichere" Roboter

Auch in der Mensch-Roboter-Interaktion spielt Timing eine wichtige Rolle: Um die Nutzerakzeptanz für einen sprechenden japanischen Haushaltsroboter zu verbessern, analysierte Miyake den zeitlichen Ablauf von Sprechpausen, Reaktionszeit, Kopfnicken und Handgriffen in Dialogen zwischen menschlichen Probanden. Der entsprechend "menschlicher" programmierte Roboter wurde vor allem von älteren Nutzern sofort als viel "natürlicher" und "verlässlicher" eingeschätzt.

Weniger Missverständnisse

Letztlich gehe es in seiner Forschung um ein Dilemma der Mensch-Maschine-Kommunikation, sagt Miyake. Während zwei Drittel der Kommunikation zwischen Menschen auf nonverbaler Ebene stattfinde - Blick, Gestik, Mimik, Körperhaltung und -position, Kleidung, Gegenstände, Umgebung -, gingen diese Kanäle durch die Technisierung verloren: "Durch dieses Ungleichgewicht wird soziale Kommunikation chaotischer und die Missverständnisse werden immer mehr." Miyake will versuchen, auch andere Kommunikationskanäle als die Sprache wieder zu nutzen. (Markus Peherstorfer)