Screenshot aus der "Digital Ira"-Demo

Foto: Screenshot

Grafikspezialist Nvidia hat eine neue Technologie vorgestellt, die laut Unternehmenschef Jen-Hsun Huang die Darstellung von Gesichtern in Videospielen und auch anderen Medien revolutionieren könnte. Die Demonstration von "Face Works" zeigt einen computergenerierten, kahlköpfigen Mann, der in der Lage ist, Emotionen und Sprache lebensnah wiederzugeben. Die Szene wird in Echtzeit von einer 1.000 Euro teuren Geforce Titan-Grafikkarte berechnet, dem jüngsten Flaggschiff Nvidias. 

Fülle an Daten

Für den hohen Detailgrad des Bildes benötige man etwa 2 Teraflops an Rechenleistung - etwa halb so viel wie die Titan leisten kann. Und hierbei wird nicht mehr als der Kopf animiert. Face Works komprimiert dutzende Gigabyte an Daten, die beim Motion-Capturing von Gesichtern entstehen, zu einem Strang an Daten und Code in der Größe von rund 300 MB, sodass diese von aktuellen in Echtzeit berechnet werden können.

Bevor die naturgetreue digitale Reproduktion durch die Chips eines modernen Computers zum Leben erweckt wird, benötigt es ein enorm aufwendiges Verfahren, bei dem jede Mimik eines Gesichtes digitalisiert wird. Im Fall des Demo-Charakters "Digital Ira" nahmen zuvor 156 im Kreis angeordnete Kameras 30 Gesichtsausdrücke eines Mannes auf. Bisher ließ sich diese Fülle an Daten auf nicht weniger als 32 GB komprimieren - zu viel für einen Einsatz in Echtzeit.     

(Video: Die Face Works-Demo startet bei 8:43)

Menschen speichern

Huang zufolge könnte die Technologie eines Tages auch dazu genutzt werden, um Persönlichkeiten zu konservieren. "Stellen Sie sich vor, jeder von uns würde so einen Scan von sich machen lassen. Können Sie sich vorstellen, Lincoln hätte das machen lassen und wir könnten sprichwörtlich hier sitzen und mit ihm sprechen und ihm zuhören, wie er mit dieser Detailtreuheit seine Rede wiedergibt", so der Nvidia-CEO. So könnte die Technologie auch Einzug in Kommunikationssysteme finden, wo Anwender mit lebensnahen Avataren von sich interagieren.

Bis Face Works in Videospielen zum Einsatz kommt, könnte es jedoch noch eine Weile dauern. Bei einer benötigten Rechenleistung von 2 Teraflops bei einer Auflösung von 1080p (Full HD) und 60 Bildern pro Sekunde würde dies beispielsweise die Kapazität der neuen PlayStation 4 (1,84 TFLOPS) und angeblich auch der neuen Xbox (1,2 TFLOPS) übersteigen. Reduziert man die Auflösung und die Bildrate, wäre wiederum eine Umsetzung für Konsolen möglich. Für aktuelle Spieleproduktionen scheint die Technologie dennoch etwas zu weit fortgeschritten.

Alternativen

Nvidia ist jedoch nicht das einzige Unternehmen, das an Echtzeit-Gesichtsanimationen arbeitet. Im Rahmen der PS4-Präsentation zeigte beispielsweise das Studio Quantic Dream, welchen Detailgrad man sich von der nächsten Konsolengeneration erwarten könne. Das Studio arbeitet zudem erstmals in der Spielebranche mit einem Verfahren, bei dem die Gesichter der Schauspieler gleichzeitig mit den Körperbewegungen erfasst werden, was natürlichere Charaktere im Spiel hervorbringen soll. (zw, derStandard.at, 21.3.2013)

(Video: Quantic Dreams Präsentation bei der PS4-Vorstellung)