Neue Perspektiven für Roboter ohne Namen

22. Februar 2011, 19:23
posten

Eine Joanneum-Research-Forschungsgruppe bringt autonomen Fahrzeugen das Sehen bei

Ihr Schluss: Zweieinhalb Dimensionen sind vorerst genug, damit Maschinen Hindernisse in einer veränderlichen Welt meistern können.

* * *

Ein halbes Jahr vor dem offiziellen Ende des Projekts "Machine Vision Meets Mobility" tut es Heinz Mayer ein wenig leid, dass der P3-AT noch immer keinen Kosenamen hat. Vieles wurde dem knallroten Roboter auf vier Rädern in den vergangenen zweieinhalb Jahren beigebracht vom Gruppenleiter für Bildanalyse und Messsysteme: So macht der P3-AT bereits selbstständig halt vor seinen natürlichen Feinden, den beiden Topfpflanzen im Grazer Büro der Joanneum Research Forschungsgesellschaft. "Dieser Roboter weiß jetzt schon sehr genau, wo er steht in der Welt", sagt Mayer.

Seit Oktober 2008 beschäftigen sich Forscher des Joanneum-Instituts "Digital" und von der TU Graz in einem Research Studio Austria (RSA) mit der Positionsbestimmung von autonomen Fahrzeugen. Vierzehn solcher RSA wurden 2008 vom Wirtschaftsministerium ins Leben gerufen und seitdem von der Forschungsförderungsgesellschaft mit dem Ziel begleitet, angewandte und Grundlagenforschung möglichst praxisnah zusammenzubringen (siehe Wissen).

Mayers Studio trägt dabei dem Umstand Rechnung, dass Kameras und Sensoren ständig leistungsfähiger und dabei sogar noch günstiger werden. Otto Normalverbraucher, also Hobbyfotografen und rasch aufrüstende PC-Spieler, haben letztlich dafür gesorgt, dass den Forschern nun hochauflösende Sensoren und flotte Grafikkarten zu niedrigen Preisen zur Verfügung stehen. Die volle Leistung dieser Komponenten in bewegten Objekten wie autonomen Fahrzeugen auszuschöpfen ist allerdings noch ein komplexes Problem. Ohne robuste Software hinter den künstlichen Augen haben selbstfahrende Roboter nämlich keine Perspektive - nicht einmal als Helfer in einer Industriehalle.

Rechtzeitig wissen, was kommt, sollte etwa ein autonomer Serviceroboter für Logistikaufgaben. So kann dieser in Echtzeit - also noch während der Fahrt - auf Hindernisse in einem Warenlager reagieren und im Idealfall sogar ausweichen. Die Schwierigkeit für Mayers Team besteht nun darin, mehrere Bilder vom gleichen oder von unterschiedlichen Sensoren möglichst rasch zu einem einzigen, perspektivischen zusammenzusetzen. Damit sich mit Sensoren sehende Roboter besser orientieren können, müssen sie jedoch nicht über Objekte hinwegschauen und damit - so wie der Mensch - einen echten dreidimensionalen Blick in einen Raum werfen. "Um die Entfernung zu einem Hindernis abschätzen zu können, genügen zweieinhalb Dimensionen", erklärt Mayer, "also ein einfacher Tiefenwert wie bei einem Relief."

Relationen erkennen

Große Fortschritte hat das Team dabei gemacht, dem Roboter die absolute Position in Relation zu seiner Umwelt klarzumachen. Denn erst mithilfe des perspektivischen Bilds kann dieser lernen, selbst Pfade anzulegen, und danach einen Weg ohne Hindernisse oder gegebenenfalls eine Alternativroute zu planen. Die relative Ortsbestimmung über Magnetmarker am Boden reicht dafür nicht aus, sie kann höchstens sicherstellen, dass ein Fahrzeug vor einem Störobjekt stoppt.

"Eigentlich brauchen wir uns jetzt nur noch darum kümmern, wie das alles in den Gabelstapler kommt", scherzt Mayer. Fahrzeuge, die Waren in einem Lager autonom von A nach B bringen, gäbe es ja bereits, allerdings müssten Miniaturisierung und Preisgestaltung der Sensoren doch noch ein wenig besser werden, damit bald auch eine dreidimensionale Welt für solche Logistikroboter Realität wird. Außerdem sollte ein einziger Ultraschallsensor die bisher übliche Kombination von mehreren - etwa jene mit einem Kollisionssensor - in Zukunft ablösen.

Unabhängig vom Potenzial dieser Technologie für andere Mobilitätslösungen - etwa für vorausschauendes Fahren im Personenverkehr - ist die Echtzeitaufbereitung von Bildinformationen auch noch in ganz anderen Bereichen von Nutzen. So soll den stets unter Stress agierenden Fluglotsen der Austro Control bald durch ein ähnliches Forschungsprojekt für Bildinterpretation geholfen werden: Eine wesentliche Grundlage für deren Handeln sind Bilder und Messwerte der aktuellen Wetterlage. Könnten diese Lotsen ebenfalls automatisiert - aber dennoch nie so unikausal wie ein Roboter - Schlüsse aus der Flut dieser Daten ziehen, brächte das eine deutliche Erleichterung bei der präzisen Abschätzung der Sichtweite. (Sascha Aumüller/DER STANDARD, Printausgabe, 23.02.2011)

=> Wissen: Geld für marktnahe Forschung


Wissen: Geld für marktnahe Forschung

Ins Schleudern könnte man geraten, wenn es zu hinterfragen gilt, was für Research Studios Austria steht: Es handelt sich dabei nämlich nicht nur um ein Programm des Wirtschaftsministeriums für marktnahe Forschungsprojekte, dessen zweite Ausschreibung noch bis 18. März läuft. Research Studios Austria ist auch eine Forschungsgesellschaft mit gleicher Zielrichtung und insgesamt fünf Studios.

Deren Geschichte hat in den ARC Seibersdorf (heute AIT) begonnen. Nach der Ausgliederung 2008 erhielten die Studios vom AIT-Hälfteeigentümer Verkehrsministerium keine Förderung. Erfolgreicher war ihr Gesamtleiter Peter A. Bruck beim Wissenschaftsministerium, das ihm einen Vertrag gab. Bruck war zuletzt auch Wortführer der außeruniversitären Zentren, die gegen die Streichung der Basisfinanzierung durch das Wissenschaftsministerium protestierten.

Eines der Studios unter Brucks Gesamtleitung, E-Government, war auch mit einem Projekt beim Programm des Wirtschaftsministeriums erfolgreich. Alois Ferscha, Leiter des Research Studios Pervasive Computer Applications, konnte mit dem Institut für Pervasive Computing an der Kepler-Uni ebenfalls Fördermittel beim Research-Studio-Programm an Land ziehen. Weitere Überschneidungen gibt es nicht.

Der Schwerpunkt der aktuellen Ausschreibung in der Höhe von 10,4 Mio. Euro liegt auf Energietechnologien. Die Projekte werden über drei Jahre mit maximal einer Million Euro unterstützt. Im dritten Jahr müssen die Mittel bereits zu 20 Prozent aus der Wirtschaft eingeworben werden. (pi)

 

  • Der Serviceroboter P3-AT sieht die Welt nur als Relief. Dieser einfache Tiefenwert reicht ihm aber, um Blumentöpfen aus dem Weg zu gehen oder rasch eine Alternativroute durch die Lagerhalle zu planen.
    foto: joanneum research

    Der Serviceroboter P3-AT sieht die Welt nur als Relief. Dieser einfache Tiefenwert reicht ihm aber, um Blumentöpfen aus dem Weg zu gehen oder rasch eine Alternativroute durch die Lagerhalle zu planen.

Share if you care.