Links die Ausgangsbilder, in der Mittel Googles Berechnung und rechts das höherauflösende Original.

Foto: Google

Der Täter spiegelt sich im Auge des Opfers, das aus 100 Meter Entfernung mit einer schlecht auflösenden Schwarzweiß-Überwachungskamera bei Nebel aufgenommen wurde. Für Ermittler in CSI-Krimiserien kein Problem. Sie verfügen über die Software, um sein Antlitz so zu schärfen, dass er einwandfrei identifiziert werden kann. Und – schwups! – ist der Fall nach 45 Serienminuten gelöst. Die Realität sieht anders aus. Noch. Denn Wissenschaftler des Google Brain-Projekts haben es geschafft, stark verpixelte Fotos schärfer zu berechnen, sodass Gesichter erkennbar werden.

Zwei neuronale Netzwerke

Die Wissenschaftler haben neuronale Netzwerke mit 8 x 8 Pixel großen Fotos gefüttert und versucht das Original-Bild daraus zu rekonstruieren, berichtet "Ars Technica". Das Ergebnis sind 32x32-Pixel-Motive, die dem Original möglichst nahe kommen sollen. Dafür kommen zwei neuronale Netzwerke zum Einsatz, die niedrig auflösende Fotos mit ähnlichen hochauflösenden vergleichen und fehlende Pixel ergänzen – quasi erraten.

Die Methode haben Googles Wissenschaftler in einem Arbeitspapier beschrieben. Die darin veröffentlichten Fotos zeigen die 8x8-Pixel-Fotos, Googles Berechnung und das Originalfoto in höherer Auflösung. Bei vielen Bilder ist Googles Software dem Original bereits verblüffend nahe gekommen. (red, 8.2.2017)