Eine Maschine mit Schlafzimmer-Blick

22. Dezember 2009, 19:19
posten

Wissenschafter am AIT entwickelten ein spezielles optisches System, das Robotern in Zukunft ermöglichen soll, ihre Umgebung dreidimensional wahrzunehmen

Dass sich Roboterentwickler den Menschen als Vorbild für ihre Kreationen nehmen, ist bekannt. Forscher vom Safety & Security Department des AIT Austrian Institute of Technology wollen den Maschinen nun auch beibringen, wie ein Mensch zu sehen. Roboter sollen ihre Umgebung zukünftig optisch dreidimensional und in Echtzeit wahrnehmen können. Das stellte bisher ein ungelöstes technisches Problem dar. Existierende Roboter behalfen sich alternativer Sensoren wie Infrarot oder Laser, was zu erheblichen Einschränkungen in der Umgebungswahrnehmung führte.

"Wir wollten unsere Art zu sehen technisch nachbilden", sagt Christian Zinner, der gemeinsam mit seinem Kollegen Martin Humenberger am AIT an dieser Technologie forscht: "Die Natur hatte schließlich Jahrtausende Zeit, dieses System zu optimieren."

Ein künstliches Augenpaar

Gelingen soll das mithilfe zweier Kameras, die wie ein menschliches Augenpaar angeordnet sind, und der entsprechenden Software. Ziel ist es, aus den Kamerabildern ein Tiefenbild zu erzeugen. "Die von uns verwendete Technologie heißt Stereo Vision", erklärt Humenberger. "Über die beiden Kameras erhalten wir 3-D-Informationen, die über 'Korrespondenzen' in den beiden synchron aufgenommenen Bildern berechnet werden." Was die Wissenschafter vor die Herausforderung stellte, die einzelnen Szenenpunkte im linken Bild den entsprechenden Punkten im rechten Bild zuzuordnen. Die Lösung für diese Problematik wurde in "Stereo Matching Methoden" gefunden. "Das Ergebnis sieht so aus, dass man neben der normalen Bildinformation auch eine entsprechende Tiefeninformation für jedes Pixel erhält", schildert Humenberger, der an diesem Projekt im Rahmen seiner Dissertation arbeitet.

In der menschlichen Physiologie bedeutet visuelle Wahrnehmung die Aufnahme und Verarbeitung von optischen Reizen, bei der eine Extraktion relevanter Informationen, Erkennung von Elementen und deren Interpretation stattfindet. Wie weiß aber der Roboter, welche Informationen für ihn relevant sind? Zinner antwortet: "Wir beschäftigen uns auch mit Software, die versucht, aus den beiden Kamerabildern so viel Information wie möglich herauszulesen." So wisse der Roboter etwa, welche Objekte näher sind als andere.

Eine Information, die es autonomen, mobilen Roboter-Plattformen oder Fahrzeugen ermöglicht, ein dreidimensionales Modell ihrer Umgebung zu erstellen, erläutert der Elektrotechniker. "Autonome Fahrzeuge müssen wissen, welche Objekte ihnen im Weg stehen", ergänzt Humenberger. In der Wohnung sollten sie auch erkennen können, ob sie sich in der Küche oder im Schlafzimmer befinden.

Ein virtueller Spiegel

"Sie sollen Möbelstücke erkennen und auch ansteuern können", sagt Humenberger. Hier ist die Tiefeninformation des künstlichen Augenpaars ein entscheidender Vorteil. "Mit einem Laser ausgestattet, könnte der Roboter nur auf einer Ebene scannen", sagt er. "Unter einem Tisch würde er durchscannen und diesen nicht als Hindernis erkennen." Die Forschung ist Teil des EU-Projekts "robots@home", an dem das AIT gemeinsam mit der TU Wien arbeitet.

Das System kann überall dort zum Einsatz kommen, wo neben einem Kamerabild die räumliche Tiefe als Zusatzinformation nützlich ist. Unter anderem auch dort, wo gebrechliche Menschen elektronische Unterstützung brauchen, die in den Alltag integriert ist (Ambient Assisted Living).

Dazu läuft am Safety & Security Department ein Projekt, bei dem das System Anfang nächsten Jahres getestet wird: Es soll kritische Situationen, beispielsweise einen Sturz, erkennen und wenn nötig Alarm schlagen.

Ein Novum ist die Bildausgabe über ein spezielles Display, das die aufgenommene Szene in 3-D darstellen kann - ohne dass man eine 3-D-Brille, wie man sie aus dem Kino kennt, aufsetzen muss. Dafür mussten die Forscher die dafür notwendigen, aufwändigen Berechnungen optimieren: "Es ist uns gelungen, auf einem Standard-PC ein Live-Bild in 3-D darzustellen", sagt Zinner. "Wir erzeugen sozusagen einen virtuellen Spiegel, wo auch die Tiefe der Szene gemessen werden muss." Nun sei der Weg frei für weitere Anwendungen. (Markus Böhm/DER STANDARD, Printausgabe, 23.12.2009)

  • Die mobile Roboter-Plattform mit dem künstlichen Augenpaar, die am AIT entwickelt wurde ...
    foto: ait austrian institute of technology

    Die mobile Roboter-Plattform mit dem künstlichen Augenpaar, die am AIT entwickelt wurde ...

  • ... und wie sie die Welt sieht: Oben das Realbild, unten dasselbe Bild durch die Augen des Roboters.
    foto: ait austrian institute of technology

    ... und wie sie die Welt sieht: Oben das Realbild, unten dasselbe Bild durch die Augen des Roboters.

Share if you care.