Wie wir mit Gesten unsere IT-Geräte bedienen

    16. November 2017, 07:55
    1 Posting

    Fußgänger können autonome Autos stoppen – Rückmeldungen zwischen Menschen und Maschinen entscheidend

    Wie Harry Potter per Zauberhand das Auto steuern – was noch für viele Menschen nach Magie klingt, ist in Ansätzen längst auf dem Markt. Eine Chemnitzer Wissenschafterin liefert Grundlagen für die Gestensteuerung von morgen. Eine Schau zeigt erste Erkenntnisse.

    Mit einer Handbewegung von links nach rechts wischen wir Krümel vom Tisch oder fegen im übertragenen Sinn Bedenken beiseite. Inzwischen ist die Wisch-Geste aber auch zum Bedienen des Smartphones in Fleisch und Blut übergegangen. "Dieser Objektgebrauch unterliegt derzeit einem fundamentalen Wandel und ist zugleich Ausdruck des gesellschaftlichen Umbruchs", ist Ellen Fricke überzeugt.

    Die Sprachwissenschaftlerin erforscht an der TU Chemnitz, wie Menschen mit Gesten kommunizieren. Für ein aktuelles Forschungsprojekt kooperiert sie mit Arbeitswissenschaftlern der Chemnitzer Universität und dem Linzer "Ars Electronica Futurelab", das als international renommiertes Medienkunstlabor Wissenschaft und Kunst zusammenbringt.

    Sonderausstellung in Chemnitz

    Mit der Sonderausstellung "Gesten – gestern, heute, übermorgen" ab 17. November im Chemnitzer Industriemuseum sollen Gesten und ihre Bezugspunkte zu vergangenen, aktuellen und zukünftigen Entwicklungen in Gesellschaft und Technologie erfahrbar gemacht werden, erläutert die Projektleiterin. Als Beispiel nennt sie die Geste des Telefonierens. "Dabei bezeichnet die Hand mit abgespreiztem kleinen Finger und Daumen heute das Handy, darin verkörpert ist aber noch der gebogene Telefonhörer von damals."

    Genau mit dieser Geste können wir demnächst vielleicht einen Anruf im Auto annehmen, meint Guido Meier-Arendt. Er ist technischer Experte für den Bereich Mensch-Maschine-Interaktion beim Autozulieferer Continental. "Gestensteuerung ist eine wertvolle Ergänzung neben der Bedienung über Touchdisplays und die Spracheingabe." Das Thema beschäftige aktuell alle Autohersteller.

    Per rotierendem Zeigefinger die Lautstärke regeln, den Sender wechseln oder mit einem Wischen eingehende Anrufe ablehnen – das alles geht heute schon in Serie, sagt Marcus Heinath vom Entwicklungsdienstleister IAV. Zum Beispiel im Flaggschiff des Münchner Autobauers, dem 7er BMW. Bisher spielten Gesten vor allem im Premium-Segment eine Rolle. Die Bedienung per Handzeichen werde sich jedoch ebenso etablieren wie zuvor das Touchdisplay.

    Wie mit autonomen Autos umgehen?

    Kniffeliger wird es nach Einschätzung der Experten, wenn zukünftig selbstfahrende Autos und Menschen im Straßenverkehr miteinander sprechen sollen ohne Worte zu benutzen. "Im Gegensatz zur Geste im Fahrzeug weiß ein Fußgänger unter Umständen gar nicht, dass er gerade mit einem autonomen Fahrzeug interagiert", erläutert Sascha Semmler, Leiter Programm-Management Kamera bei Continental.

    Während der erfahrene Autofahrer einen Fußgänger, der am Straßenrand entlanggehe und auf sein Handy starre, aufgrund seiner Fahrpraxis im Auge behalte, müsse das Auto eine solche Szene erlernen. Der Fußgänger wiederum könnte dem Fahrzeug per Stopp-Geste an einem Zebrastreifen befehlen, anzuhalten. "Im Grunde genommen wollen wir dem Fahrzeug beibringen, ein erfahrener Autofahrer zu werden und die Umgebung einzuschätzen wie ein Mensch, also ein Szenenverständnis zu entwickeln", sagt Semmler. Eine neue Kamerageneration soll das ab 2020 in Ansätzen auf den Markt bringen.

    Größter Knackpunkt: Wie weiß der Fußgänger, dass das Auto ihn verstanden hat und tatsächlich anhält? "Die Rückmeldung, dass die Geste verstanden wurde, wird entscheidend sein", ergänzt sein Kollege Meier-Arendt. Die Entwickler wollen auf natürliche Gesten setzen, die den Menschen bereits geläufig sind. Für aufwendige Handzeichen hingegen, die man wie eine neue Sprache erst erlernen müsse, gebe es laut Untersuchungen des Zulieferers keine Akzeptanz. Ebenso wenig für Gesten, die vom Fahren ablenken.

    Forschungsprojekte

    An dieser Stelle kommt Ellen Fricke mit ihrem Forschungsprojekt wieder ins Spiel. So haben die Wissenschafter unzählige Daten erhoben und in Unternehmen gefilmt, welche typischen Handbewegungen in verschiedenen Branchen üblich sind. "Gesten sind kulturelle Wissensspeicher", so Fricke. Die Erkenntnisse aus dem "Manuact"-Projekt sollen daher erstmals in ein videobasiertes Gestenlexikon und ein arbeitswissenschaftliches Gestenmanual einfließen. Das wiederum könnte Entwicklungsingenieuren in der Automobilbranche und anderen Industrien bei der Umsetzung technischer Lösungen helfen.

    Dass wir ein Auto in naher Zukunft komplett durch Zauberhand steuern, glauben die Experten allerdings nicht. Stattdessen werde es einen Mix aus verschiedenen Bedienmöglichkeiten geben – bis hin zum klassischen Knopf, um die Seitenscheibe herunterzulassen. (APA, 16.11.2017)

    Share if you care.