Ein Testfoto-Setup, der Chip dient hier zur automatischen Verbesserung der Kamerabilder.

Foto: MIT

Der Fotospezialist aus Silizium.

Foto: MIT

Schönere Bilder, auch wenn man Bilder mit dem Smartphone knipst und den Blitz aktiviert hat, verspricht eine neue Entwicklung vom Massachussetts Institute of Technology.

Sparsamer als Software-Lösung

Der Chip aus dem Microsystems Lab in Cambridge, soll die Belichtung von Bildern anpassen und verbessern können, ohne die Grundstimmung der aufgenommenen Szene zu verändern. Und das in wenigen Bruchteilen einer Sekunde.

Derzeitige Systeme arbeiten stark softwarebasiert, was auch zu einem erhöhten Stromverbrauch durch die Belastung von Prozessor und Grafikchip führt, erklärt Rahul Rithe, einer der beteiligten Forscher. "Wir wollten einen einzelnen Chip bauen, der mehrere Tätigkeiten ohne Software in Echtzeit ausführen kann und signifikant weniger Energie benötigt", so der Doktorand.

HDR und Blitz-Ausgleich

Eines der Features ist die Erstellung von HDR-Bildern. High Dynamic Range erweitert durch Berechnungen künstlich das Spektrum an Helligkeit, das von einem Smartphone eingefangen werden kann und soll für realistischere Bilder sorgen. Der Chip erstellt dafür drei Bilder auf konventionellem Wege. Eines mit normaler Belichtung, ein überbelichtetes für mehr Details an schattigen Stellen sowie ein unterbelichtetes, um in hellen Arealen mehr zu sehen. Aus diesen wird dann ein neues Foto berechnet, welches mit größerem Detailreichtum aufwarten soll.

Während derlei Berechnungen über Software oft mehrere Sekunden dauern, soll die MIT-Erfindung in nur wenigen hundert Millisekunden ein Resultat liefern. Damit ist der Chip sogar schnell genug, um derlei Verbesserungsmaßnahmen auch auf Videos anzuwenden.

Auf ähnlichem Wege sollen auch Bilder in dunklen Umgebungen verschönert werden. Für die Berechnungen werden dann eine Aufnahme ohne und eine mit Blitz herangezogen. Störendes Rauschen soll eliminiert werden, in dem herausstechende Pixel mit ihren Nachbarn "verwischt" werden. Um zu Vermeiden, dass dadurch die Kanten von Objekten und anderen Motiven verschwimmen, wird das Verfahren aber nur auf benachbarte Pixel mit ähnlichem Helligkeitswert angewandt.

"Bilateral Grid"

Um seine Operationen flott auszuführen, greift der Chip auf ein "bilaterales Raster" zurück. Das Bild wird in kleine Blöcke aufgeteilt, für welche ein eigenes Histogramm errechnet wird. Am Ende wird eine dreidimensionale Repräsentation erzeugt. Die Position des Bildblocks repräsentieren dabei die X- und Y-Achse, die Beleuchtungsdaten aus dem Histogramm repräsentieren die dritte Dimension.

Gemeinsam mit den taiwanesischen Leiterplattenhersteller TSMC hat man im Rahmen eines Forschungsaustauschs bereits einen funktionierenden Prototypen auf Basis von 40-Nanometer-CMOS-Technologie gebaut und in eine Kamera integriert. Dieser wurde auf der International Solid-State Circuits Conference gezeigt, die kürzlich in San Francisco zu Ende gegangen ist.

Lob für die Entwicklung gibt es unter anderem von Microsoft Research-Wissenschaftlern. Dort sieht man definitiv Bedarf für derlei spezialisierte Hardware gegeben, um hochwertigere Fotografie künftig auch bei Geräten mit weniger Energieressourcen implementieren zu können. (red, derStandard.at, 25.02.2013)