Den Mars mit neuen Augen sehen

15. Mai 2016, 09:00
40 Postings

In wenigen Jahren könnte die erste autonom agierende Flugdrohne über den Roten Planeten schwirren

Wien – Langsam rollt der Rover durch den roten Marssand. Die Aufnahmen, die sein 3-D-Kamerasystem zur Erde schickt, werden von Geologen und Exobiologen auf auffällige Muster untersucht. Bestimmte Strukturen könnten auf einstiges Leben auf dem Planeten hindeuten. Ist eine interessante Region im Umkreis identifiziert, wird ein kleines helikopterähnliches Fluggerät aktiviert, das der Rover mitführt. Die Drohne erhebt sich, navigiert selbstständig in die Zielregion und sammelt Informationen über Gefahrenstellen oder wissenschaftlich relevante Hotspots. So wird verhindert, dass sensible Hinweise auf Leben unter die Räder des Rovers kommen.

Diese Vision eines autonom agierenden Fluggeräts auf dem Nachbarplaneten könnte bereits bei der kommenden Mars-Mission der Nasa Wirklichkeit werden. Der Platz für den nur ein Kilo schweren Minihelikopter ist bereits reserviert – zwischen den Rädern des Rovers, der 2020 zum Roten Planeten startet. Ob der Projektantrag des Jet Propulsion Lab (JPL) in Kalifornien, eines Forschungsinstituts der Nasa für unbemannte Raumfahrt, tatsächlich angenommen wird, soll in den kommenden Monaten entschieden werden.

Stephan Weiss, heute Professor für die Regelung vernetzter Systeme am Institut für Intelligente Systemtechnologien der Alpen-Adria-Universität in Klagenfurt, gehört zu jenen Wissenschaftern, die wesentliche Voraussetzungen für die Umsetzbarkeit des Mars-Helikopters geschaffen haben. Der in Venezuela geborene Schweizer beschäftigte sich bereits in seiner Dissertation an der ETH Zürich mit Navigationstechnik für Drohnen, die ohne GPS-Signale auskommt. Dank dieser Arbeit wurde er ans JPL geholt, wo er bis Ende 2015 blieb und die Idee für den Mars-Helikopter adaptierte.

Die autonome Navigation des Helikopters, der auf dem Mars natürlich auch kein GPS-Signal zugrunde liegen kann, basiert auf Daten einer Kamera und sogenannter Inertialsensoren, die Beschleunigung und Winkelgeschwindigkeiten messen. Der Navigationsalgorithmus, den Weiss entworfen hat, sucht in den 30 Kamerabildern pro Sekunde nach markanten Punkten, etwa Bereichen mit hohen Hell-Dunkel-Kontrasten. Im darauffolgenden Kamerabild werden diese Punkte erneut erkannt.

"Durch die Bewegung der Drohne ergeben sich so zeitversetzte Stereobilder, aus denen Tiefeninformationen ableitbar sind", erklärt der Wissenschafter. "Auf diese Art baut sich das System eine Karte der lokalen Umgebung, mit der es sich platzieren und neue Positionen ansteuern kann." Der Helikopter kann somit eigenständig zu einem Punkt navigieren, eine Landeumgebung finden und aufsetzen, ohne auf Steuerungssignale von der Erde warten zu müssen, die für diesen Zweck viel zu viel Zeit – bis zu 24 Minuten – benötigen würden.

Ein derartiges Fluggerät muss auf dem Mars allerdings eine zweite große Herausforderung meistern. "Um den Helikopter abheben zu lassen, muss der nötige Auftrieb generiert werden. Das ist unter den physikalischen Bedingungen des Mars viel schwieriger als auf der Erde", sagt Weiss. Die Mars-Atmosphäre ist viel dünner. Auch die um ein Drittel niedrigere Schwerkraft kann diesen Nachteil nicht ausgleichen. Die JPL-Techniker haben deshalb ein Rotorsystem entworfen, das bestmöglich an die Erfordernisse der Mars-Atmosphäre angepasst wurde. Zwei großflächige, gegengleich laufende Rotoren sind dabei übereinander angebracht, was effizienter als ein System mit mehreren nebeneinander wirkenden Rotoren ist.

Rover mit Panoramablick

Mit der Bildverarbeitung von Mars-Aufnahmen beschäftigt sich auch Gerhard Paar von der Forschungsgruppe Bildanalyse und Messsysteme bei Joanneum Research in Graz. Gemeinsam mit seinen Kollegen sorgt er beim Rover der ExoMars-Mission, bei der Europas Raumfahrtbehörde Esa und ihr russisches Pendant Roskosmos kooperieren, für die Grundlagen wissenschaftlicher Auswertungen. Der Rover soll – nach einer kürzlich verlautbarten Terminverschiebung – nun ebenfalls 2020 zum Nachbarplaneten fliegen. Eine Mission in den Mars-Orbit, bei der auch die Landung getestet wird, ist heuer gestartet.

Auf dem Rover generieren zwei Weitwinkelkameras in Stereokonfiguration Bilder, die bis zu einer Entfernung von 50 Metern Aufschluss über 3-D-Strukturen geben. Sie fangen nicht nur das sichtbare Licht ein, sondern "eine optimierte Zusammenstellung von Wellenlängen, die teilweise im Infrarotbereich liegen", so Paar. Die Forscher, die die Bilder auswerten, können damit Rückschlüsse auf bestimmte Mineralien und organische Verbindungen ziehen. Eine weitere Kamera ist für hochauflösende Aufnahmen zuständig, mittels deren Strukturen bis in den Submillimeterbereich erkannt werden können.

Das Auswertungssystem, das gemeinsam mit dem Wiener Zentrum für Virtual Reality und Visualisierung VRVis entwickelt wird, generiert während der Mission im Kontrollzentrum automatisch 3-D-Rekonstruktionen der Rover-Umgebung, mit denen die Geologen dann arbeiten. Auch das 3-D-Modell des Navigationsteams, das ebenfalls über eine Stereokamera am Rover verfügt, wird mit den Daten aus der wissenschaftlichen Bildgebung ergänzt. Das bisher einzigartige System werde, so Paar, auch bei der Nasa-Mission Mars 2020 Anwendung finden.

Eine weitere Entwicklungsstufe der automatischen Bildauswertung, die – trotz Missionsverschiebung – am ExoMars-Rover noch nicht dabei sein kann, nennt sich PRoViScout (Planetary Robotics Vision Scout). Dabei erhält der fahrende Wissenschaftsroboter mehr Autonomie bei der Erkundung seiner Umgebung. Die Daten sollen damit zum Teil direkt an Bord vor der Kommunikation mit der Erde analysiert und vorsortiert werden. "Ähnlich jenen Systemen, die auf das Erkennen von Gesichtern trainiert sind, erkennt unser System bestimmte geologische Strukturen", erklärt Paar.

In einem weiteren Schritt soll PRoViScout auch selbstständig jene Ressourcen managen, die für eine aktive Beobachtung einer Formation nötig sind. "Benötigte Energie, Zeit sowie wahrscheinliches Risiko werden berechnet und an ein Entscheidungssystem übermittelt", erklärt Paar. "Damit muss nicht vor jeder Aktion auf ein Zeitfenster für die Kommunikation zur Erde gewartet werden. Die höhere Autonomie des Rovers bedeutet Zeitersparnis und höhere wissenschaftliche Ausbeute."

Irdischer Drohnenschwarm

Autonom agierende Systeme sind natürlich auch auf der Erde und abseits selbstfahrender Autos ein heißes Thema. Stephan Weiss, der seine Navigationsalgorithmen für Flugdrohnen in Klagenfurt weiter verfeinert, will für sie auch irdische Anwendungsgebiete erschließen. Bedarf besteht etwa, wenn ein GPS-Signal schlecht verfügbar oder zu ungenau ist. Fluggeräte, die Kraftwerksfassaden auf Risse untersuchen oder in eingestürzten Gebäuden Überlebende suchen, sind denkbar.

Der nächste Schritt besteht dann in der Kommunikation von Drohnen untereinander in einem Schwarm. Weiss gibt ein Beispiel: "In fünf bis zehn Jahren könnten Drohnenschwärme kollisionsfrei die Wälder durchfliegen und den Baumbestand in einer Karte verzeichnen, sodass die vorhandene Biomasse genau abgeschätzt werden kann." Das zumindest ist auf dem Mars nicht nötig. (Alois Pumhösel, 15.5.2016)

  • Im Zuge der ExoMars-Mission soll 2020 ein Rover zum Nachbarplaneten starten. Österreichische Forscher arbeiten daran, das Gefährt möglichst autonom zu machen.
    foto: picturedesk / science photo library / van ravenswaay

    Im Zuge der ExoMars-Mission soll 2020 ein Rover zum Nachbarplaneten starten. Österreichische Forscher arbeiten daran, das Gefährt möglichst autonom zu machen.

Share if you care.