"Technologien entwickeln sich schneller als unser Verständnis, sie zu benutzen"

Foto: Christoph Lindinger

"Ein Industrieroboter ist in unseren Breiten eine programmierbare Maschine zur Bearbeitung von Werkstücken. In Japan ist er mehr eine Maschine, die den Menschen hilft, schwere Arbeiten zu bewerkstelligen"

Foto: Honda

Hondas ASIMO ist der derzeit am weitesten entwickelte humanoide Roboter. Er soll uns eines Tages das Leben erleichtern – vielleicht als Krankenpfleger. So sieht Christopher Lindinger, Direktor des Bereichs Forschung und Innovation im Ars Electronica Futurelab, die Zukunft der menschenähnlichen Roboter. Er verfolgt die unterschiedliche Diskussion zum Thema Mensch und Maschine in Japan und Österreich, die Berührungsängste und die Hoffnungen.

derStandard.at: Bedienen Menschen noch die Maschinen, oder bedienen die Maschinen schon uns? Drängt sich die Technik uns auf?

Christopher Lindinger: In den letzten 20 Jahren haben sich verschiedene Technologien sehr weit verbreitet. Ihre Nutzung geht inzwischen oft ganz eigene Wege, die unser tägliches Zusammenleben, unsere Gesellschaft und unsere Märkte beeinflussen.

Ein greifbares Beispiel sind sicher die Mobiltelefone. Durch ihre Einführung hat sich vieles für uns geändert. Eine Freizeitgestaltung ohne Handy ist heute ja schon fast unmöglich. Die SMS, die ursprünglich als servicetechnische Unterstützung entwickelte wurde, ist aus der Kommunikation nicht mehr wegzudenken. Allein, dass es möglich war, die Zeit auf einem Mobiltelefon-Display darzustellen, hat fast die gesamte Armbanduhrenindustrie in eine tiefe Krise gestürzt.

Diese Liste lässt sich wahrscheinlich beliebig fortsetzen. Aber dies zeigt, dass sich Technologien schneller entwickeln als unser Verständnis, sie zu benutzen. Die Frage, ob uns die Maschinen schon bedienen, ist für mich – in dieser polarisierten Form – eher eine rhetorische. Jedoch ist es gut, solche Trigger-Fragen zu stellen, damit wir über die Verwendung von Technologien und den damit einhergehenden gesellschaftlichen Wandel kritisch nachdenken.

derStandard.at: Hinken wir der Technologie also hinterher?

Lindinger: Auf jeden Fall hinken wir der Reflexion über die Verwendung von Technologien hinterher. Jugendliche verbringen heute viel Zeit auf Facebook und in anderen Social Networks und tun Dinge, die sich sehr oft dem Verständnis und der Vorstellungskraft von Eltern und Lehrern entziehen. Aber erst zu diesem Zeitpunkt, als der Großteil der Jugendlichen über einen Facebook Account verfügte, haben wir begonnen, aktiv über die Probleme – und leider viel zu selten über die Potentiale – zu diskutieren.

Erst wenn eine Technologie Teil der Alltagskultur geworden ist, beginnt der breite gesellschaftliche Diskurs. Denn das „Jetzt“ ist scheinbar politisch und gesellschaftlich immer leichter zu diskutieren als das „Morgen“.

derStandard.at: Welche Auswirkungen hat das auf die Kunst?

Lindinger: In diesem Spannungsfeld zwischen technologischer und gesellschaftlicher Veränderung hat für mich die zeitgenössische und mediale Kunst einen besonderen Stellenwert – weil sie mit ihren Methoden immer versucht, solche Themen aufzugreifen, um einen emotionalen, intellektuellen oder ästhetischen Perspektivenwechsel herbeizuführen.

Mir fällt hier das Projekt „Maschine Mensch“ (maschine-mensch.net) von dem Künstlerduo Christopher Rhomberg und Tobias Zucali ein, das mit der Unterstützung des Ars Electronica Futurelab realisiert wurde. Es parodiert die Frage, ob uns Maschinen bedienen, auf die Art und Weise, dass Personen an einem Fließband sitzen, auf dem farbige Kuben befördert werden. Der Mensch wird dabei zur Sortiermaschine an dem Fließband. An die Hand des Probanden werden Elektroden angelegt, die quasi von extern die Bewegung des Arms steuern können. Erkennt das System einen farbigen Kubus auf dem Fließband, so wird die Hand des Probanden kontrolliert unter Strom gesetzt, und durch den Armausschlag kommt es so zur Aussortierung des Objekts.

derStandard.at: Das Ars Electronica Futurelab arbeitet eng mit japanischen Forschern und Unternehmen zusammen. Gibt es kulturelle Unterschiede zwischen Japan und Europa beim Thema humanoide Roboter?

Lindinger: Kein Land der Erde hat es so geschafft, Technologie so in ihre Jugendkultur einzubetten wie die Japaner. Das gelang durch den Mix aus kulturellem Hintergrund und gesellschaftlicher Strategie. Schauen wir nur das Bild von Roboter und Maschinen in der Popularkultur an. Mangas, die einen extremen Einfluss auf die Jugendkultur in Japan haben, werden Maschinen überwiegend als hilfsbereiter Begleiter – zum Beispiel Astroboy – dargestellt.In unseren Breiten erweckt die Maschine eher negative Assoziationen – von Terminator bis Matrix, um nur einige zu nennen.

Ich glaube, dass wir von den Japanern lernen können, wie wichtig es ist, die Jugendkultur im Auge zu behalten. Dann ist es auch leichter, neu-aufkommende Themen mit Interesse und einem Diskurs zu versehen, um längerfristig einen höheren gesellschaftlichen Wert zu erreichen.

derStandard.at: Wird auch der Industrieroboter in Japan anders akzeptiert als hierzulande?

Lindinger: Wenn ich in Europa mit Roboterentwicklern spreche, höre ich immer Schlagwörter wie „Präzession“ oder „Return of Investment“, in Japan ist das vorwiegende Thema immer „Quality of Life“. Ein Industrieroboter ist in unseren Breiten eine programmierbare Maschine zur Bearbeitung von Werkstücken. In Japan ist er – im übertragenen Sinne – mehr eine Maschine, die den Menschen hilft, schwere Arbeiten zu bewerkstelligen. Dort wurde vor der Einführung von Industrierobotern über diese aufkommenden Technologien diskutiert.

Außerdem existierte ein breiter gesellschaftlicher Konsens darüber, dass keine Arbeiter aufgrund eines Industrieroboters ihren Arbeitsplatz verlieren, sondern durch Qualifizierungsmaßnahmen einen höher stehenden Job ausfüllen sollen. Bei uns ist man damit anders umgegangen. Das prägt natürlich die Sicht auf diese Technologien in der Gesellschaft.

derStandard.at: Sie arbeiten an der Fragestellung rund um zukünftige Roboter-Anwendungen. Wo werden humanoide Roboter zukünftig eingesetzt?

Lindinger: Wahrscheinlich primär in der Kranken- und Altenpflege. Das ist der Anwendungsbereich, der in der japanischen Robotik wohl am häufigsten angedacht wird. In Japan ist es deshalb ein so wichtigstes Themen, weil die Bevölkerung immer älter wird, die Wachstumsrate stagniert, und es fast keine Migrationsströme gibt. Sie müssen schauen, dass sie die Zukunft des Gesundheitssystem am Leben erhalten können.

In der allgemeinen Diskussion in Japan wird aber immer mehr von einer Trennung der Aufgaben gesprochen. Was heute eine Krankenschwester macht, ist eine Mischung von – wie es genannt wird – „Service“ und „Hospitality“. Also das Bringen von Essen würde unter die Kategorie „Service“ fallen, die persönliche Ansprache unter die Kategorie „Hospitality“. Man versucht also, Roboter zu konstruieren, die den Aspekt des „Service“ zu einem Teil abdecken können, und die Krankenschwestern und Pfleger von morgen noch besser auszubilden, was die menschliche Ansprache und psychologische Betreuung betrifft – um hier in Summe ein besseres Gesundheitssystem zu bewerkstelligen.

derStandard.at: Sie beschäftigen sich auch zum Beispiel am ASIMO von Honda. Wie weit ist da die Entwicklung? Wie schaut die nahe Zukunft der menschlichen Roboter aus?

Lindinger: Der ASIMO von Honda ist sicher der am weitesten entwickelte Roboter. Mechanisch ist er in den meisten Aspekten sehr ausgereift, und es ist durchaus absehbar, dass er in der nächsten Dekade in vielen Bereichen Anwendung finden kann. Die künstliche Intelligenz und die Sensorik wird Forscher wahrscheinlich noch viele Jahre beschäftigen. Aber diese versuchen hier, durch Adaption der Einsatzumgebung, die Ansprüche an die künstliche Intelligenz und die Erkennungstechnologien zu minimieren.

Jedoch je näher der Zeitpunkt der Markteinführung kommt, desto mehr verändern sich die wissenschaftlichen Fragestellungen. Weg von rein technischen Zugängen hin zu psychologischen, sozialen, wie die Akzeptanz und Interaktionen mit dem humanoiden Roboter betreffend. Und genau an solchen Fragestellungen arbeiten wir in realen und virtuellen Umgebungen. Oder: Wenn man einem humanoiden Roboter gegenübersteht, so wirkt der meist ansprechend und spannend, wenn man aber hunderten gleichen Robotern gegenübertritt wirken sie bedrohlich.

Im Rahmen der letzten Ars Electronica haben wir, auch in Zusammenarbeit mit Honda, ein öffentliches Symposium veranstaltet, auf dem wir mit Künstlern, Designern, Psychologen, Soziologen und Ethikern über solche Fragestellungen diskutiert haben. Wir haben die zukünftigen Herausforderungen dieser Technologien aus verschiedensten Blickwinkeln gesehen und angesprochen und hoffen, dass wir so einen Startpunkt für eine weitere öffentliche Diskussion setzen konnten.

derStandard.at: Wie weit ist die Technologie, die es möglich macht, dass wir Maschinen mit Gedanken steuern?

Lindinger: Vielleicht ist der Satzteil „mit Gedanken steuern“ aus der derzeitigen Sicht etwas hoch gegriffen. Man kann mit heutigen Verfahren im Bereich der „Brain Computer Interaction“ aktive Gebiete im Gehirn finden und darauf aufbauend Aktionen auslösen. Jedoch ist, mit dem EEG wirkliche Gedanken zu lesen, eher mit dem Versuch vergleichbar, von einem Satelliten auf die Erde zu schauen, um zu erkennen, was in meinem Büro gerade auf dem Tisch liegt.

Trotz dieser Limitation gibt es eine Vielzahl von Möglichkeiten und Anwendungsbereiche, die diese Technologien in Kombination mit kreativen Lösungen bieten.

Wir verwenden in unserer Forschungsarbeit zum Beispiel das sogenannte SSVEP – Steady state visually evoked potential – und steuern damit in einer Versuchsanordnung spinnenähnliche Roboter. Dazu bringt man am Hinterkopf im Bereich des „Visual Cortex“, dem primären Sehzentrum, EEG-Elektroden an. Mit diesen Elektroden kann man nun abnehmen, was das Auge sieht – aber in der Analogie zu vorhin – nur in einem extrem beschränken Maße. Aus diesem Grunde bedient man sich eines Tricks.

Man verwendet verschiedenste Lichter, die in unterschiedlichen Frequenzen blinken. Fokussiert der Proband nun auf eines dieser Lichter, so kann man, vereinfacht gesagt, über Elektroden am Hinterkopf diese Frequenz abnehmen und daraufhin Aktionen auslösen und den Computer nach links, rechts oder vorwärts steuern.

Oder man kann diese Lichter in der Architektur verteilen – zum Beispiel als blinkender Balken über Türen – und je nachdem, zu welcher Tür man sieht, bewegt sich der Roboter zu diesem Ziel. (Guido Gluschitsch, derStandard.at, 28. 9. 2010)