Virtual-Reality-Experte: "Wir werden den Ausdruck auf den Gesichtern sehen"

Interview7. Februar 2015, 20:42
3 Postings

Virtual-Reality-Experte Henry Fuchs glaubt, dass Menschen einander bald als 3-D-Abbilder treffen werden

STANDARD: Werden Datenbrillen wie Microsoft Hololens und Oculus Rift die Art, wie wir mit Computern umgehen, grundlegend verändern?

Henry Fuchs: Es kommt darauf an, von welchen Zeiträumen wir sprechen. Es ist sehr wahrscheinlich, dass geschlossene Virtual-Reality-Brillen wie Oculus Rift, die das gesamte Gesichtsfeld einnehmen, in zwei oder drei Jahren mehrere Millionen Benutzer haben werden. Das werden zuerst vor allem Videospieler sein. Die Technik hinter Augmented-Reality-Brillen wie Microsoft Hololens oder Magic Leap, durch die man durchsehen kann, und die die Ansicht der realen Welt mit computergenerierten Bildern vermischen, ist viel komplizierter. Die Wahrscheinlichkeit, dass sie in den nächsten fünf Jahren Erfolg haben, würde ich mit unter 50 Prozent beziffern. Ich schätzte, dass das etwa noch 15 Jahre dauert.

STANDARD: Wie werden diese Brillen beschaffen sein?

Fuchs: Sie müssen so aussehen, dass sie auch modebewusste Leute gern tragen. Sie sollten etwa nicht klobig aussehen. Heute nehme ich mein Smartphone aus der Tasche, um zu sehen, wie ich durch die Stadt komme. Wenn ich das Display in der Brille habe, wenn die Technik meine Bewegungen gut interpretieren kann, brauche ich nichts mehr aus der Tasche zu nehmen. Die Brille wird den Gehsteig vor mir mit den Angaben zur richtigen Richtung überlagern. Nachrichten, Termine - alles wird auf der Brille erscheinen.

STANDARD: Microsoft will die Hololens-Brille aber bereits in den kommenden zwei Jahren auf den Markt bringen. Leere Versprechungen?

Fuchs: Versprechungen sind einfach zu machen. Ich glaube, dass es mit einem engen Gesichtsfeld funktionieren wird. 40 Grad wurden bisher erreicht. Das ist okay für Textnachrichten. Aber es ist nicht genug, um virtuelle Dinge nahtlos in die reale Welt einzufügen. Man bekommt vielleicht eine Nachricht, dass man in der nächsten Gasse abbiegen soll. Aber es wird keine Navigationsgrafik die Gasse überlagern.

STANDARD: Wo liegen die technischen Probleme, um reale und virtuelle Szenen zu verbinden?

Fuchs: Das größte Problem ist das Display selbst. Bis jetzt hat noch niemand einen transparenten Bildschirm in Form einer Brille gezeigt, auf dem man überall Pixel platzieren kann. Das zweite Problem ist das sogenannte Tracking. Das System muss wissen, wo man im Raum genau ist und wohin man schaut. Bei Augmented-Reality-Systemen muss das System aber viel präziser als bei geschlossenen Brillen sein, weil das Auge die Referenz des realen Raums hat. Der virtuelle Gegenstand muss ruhig auf dem Platz stehen bleiben. Wenn ein Innenarchitekt mir ein neues Sofa oder Vorhänge zeigen will, müssen die Bilder den Hintergrund zudem verdecken. Es darf kein Geisterbild sein.

STANDARD: Was gilt es bei geschlossenen Brillen noch zu verbessern?

Fuchs: Da sind die Probleme viel kleiner. Es stellt sich aber die Frage, wie wir mit der Welt um uns interagieren. Wenn ich in der virtuellen Welt herumwandere, falle ich in der Realität über den nächsten Tisch. Wenn ich herumgehe, muss das System zudem genau wissen, wo ich bin, um das Bild richtig anzuzeigen. Dieses Tracking und die Sicherheit, das sind die größten Probleme.

STANDARD: Wie sieht es mit Cybersickness aus?

Fuchs: Ich habe Cybersickness erlebt. Sie ergibt sich aus Wahrnehmungsdiskrepanzen der verschiedenen Sinne. Es ist dieselbe Übelkeit, die manche in der Hochschaubahn befällt. Der visuelle Sinn bekommt Hinweise, wie man sich bewegt. Das Gleichgewichtsorgan sagt aber etwas anderes. Das passiert nicht, wenn die Bewegung mit dem Gesehenen zusammenpasst. Auch die Latenz, also die kleine Verzögerung zwischen Bewegung und Erscheinen des Bildes, kann zu Übelkeit führen.

STANDARD: Gibt es eine Lösung?

Fuchs: Die gute Nachricht ist, dass jedes Problem, das zu Cybersickness beiträgt, heute einfacher zu lösen ist als früher. Die Entwickler sind sich des Problems bewusst. Es gibt etwa Tools, die zeigen, wie viel eine Anwendung bezüglich Latenz beiträgt. Ist es eine Zehntelsekunde, ist das schlimm. Besser wäre eine Millisekunde. Allerdings wird es in Anwendungen, in der Bewegung eine Rolle spielt, weiterhin Cybersickness geben. Man simuliert etwa ein Rennauto, das Auge meldet eine Geschwindigkeit von 200 km/h, das vestibuläre System sagt aber, dass ich nur bewegungslos herumsitze. Ich glaube, die Entwickler der Anwendungen müssen Wege finden, das zu verbessern. Sonst werden die Leute sagen: Dieses Rennspiel macht mich krank.

STANDARD: Facebook kaufte Oculus Rift für zwei Milliarden Dollar. Wird es bald soziale Netze in 3-D-Welten geben, in denen wir uns mit Virtual-Reality-Brillen begegnen?

Fuchs: Ich glaube ja. Die virtuelle Welt von Second Life war für mich nicht interessant. Der Grund dafür war, dass ich die tatsächlichen Menschen sehen wollte. Man kann heute mit Tiefenkameras gute 3-D-Modelle von Menschen anfertigen. Wir müssen noch daran arbeiten, dass sich das Modell analog zur tatsächlichen Person verändert. Viele Entwickler arbeiten daran. Ich glaube, dass wir in den nächsten fünf Jahren die Fähigkeit haben, etwas Ähnliches wie Second Life zu machen, bei dem eine Kamera unser Abbild in den Cyberspace überträgt. Wir werden den Ausdruck auf den Gesichtern sehen. Wir werden auch immersive Videokonferenzen haben, bei denen man voll in den virtuellen Raum eintauchen kann.

STANDARD: Sie arbeiten selbst an einem Videoconferencing-System. Wie soll es funktionieren?

Fuchs: Wir haben ein System entwickelt, das ohne Videobrillen auskommt. Es besteht aus zwei Komponenten: ein Aufnahmesystem aus mehreren Kameras, das die 3-D-Umgebung aufnimmt, rekonstruiert und zur Empfängerstation sendet, und ein Displaysystem, das die Rekonstruktion in Lebensgröße wiedergibt. Das Ziel ist, dass ein Raum eine Wand mit großen Displays hat, durch die er in den anderen Raum wie durch ein Fenster sieht.

STANDARD: Sie beschäftigen sich seit den 1960er-Jahren mit Computergrafik. Wie war das zu Beginn?

Fuchs: Mein damaliger Professor hat bereits 1968 einen Flugsimulator gebaut. Er hatte alle Komponenten, die man für Augmented Reality braucht, vom Tracking bis zum Bildaufbau. Wir hatten damals nicht das Gefühl, dass sich jemand dafür interessieren würde. Es war, als würde man spezielle Schmetterlinge in einer abgelegenen Bergregion sammeln. Auch an den Universitäten glaubte man, dass man Computer nur für die Berechnungen, für die sie notwendig sind, einsetzen sollte. Den Computer für Alltagsaufgaben zu verwenden sahen viele als Verschwendung wertvoller Ressourcen. Niemand sah voraus, dass die Rechner so billig werden, dass alle einen bei sich tragen. (Alois Pumhösel, DER STANDARD, 4.2.2015)

Henry Fuchs ist Professor für Computerwissenschaften der University of North Carolina in Chapel Hill, USA. Im Rahmen des "Being There" -Forschungszentrums entwickelt er mit Kollegen der ETH Zürich und der NTU Singapore neuartige Videokonferenzsysteme. Fuchs war auf Einladung des Zentrums für Virtual Reality und Visualisierung VRVis beim Symposium Visual Computing Trends 2015 in Wien zu Gast.

  • Microsoft hat vor kurzem seine Augmented-Reality-Brille Hololens präsentiert.  Der US-Computerwissenschafter und Virtual-Reality-Pionier Henry Fuchs glaubt,  dass die Technik aber erst in etwa 15 Jahren wirklich ausgereift sein wird.
    foto: standard/corn

    Microsoft hat vor kurzem seine Augmented-Reality-Brille Hololens präsentiert. Der US-Computerwissenschafter und Virtual-Reality-Pionier Henry Fuchs glaubt, dass die Technik aber erst in etwa 15 Jahren wirklich ausgereift sein wird.

Share if you care.