Wie Roboter von Fliegen sehen lernen

15. Juli 2009, 18:08
7 Postings

Flugsimulator für Schmeißfliegen vermittelt neue Erkenntnisse über Insekten-Wahrnehmung und hilft bei der Konstruktion intelligenter Maschinen

Bei allem technischen Fortschritt sind Insekten den heutigen Robotern in vielen Belangen noch immer meilenweit voraus. Eine Schmeißfliege, deren Flug zunächst scheinbar plump und taumelnd wirkt, ist bei genauerer Betrachtung zu beeindruckenden Luft-Kunststücken fähig. Um herauszufinden, wie Augen und Gehirne die Insekten zu ihren gewaltigen Leistungen befähigen, haben Wissenschaftler des Münchner Exzellenzclusters "Cognition for Technical Systems" (CoTeSys) einen Flugsimulator für Fliegen entwickelt. Damit erforschen sie, was während eines Fluges in deren Nervenzentren abläuft. Ziel der Wissenschafter ist es, diese Fähigkeiten zu nutzen, um beispielsweise Roboter zu bauen, die eigenständig ihre Umgebung wahrnehmen und daraus lernen.

Seit langem weiß die Forschung, dass Fliegen wesentlich mehr Bilder wahrnehmen als der Mensch. Während für menschliche Augen spätestens ab 25 Bildern pro Sekunde Einzelbilder in eine kontinuierliche Bewegung übergehen, erkennen Schmeißfliegen noch 100 Bilder pro Sekunde als einzelne Sinneseindrücke, können diese blitzschnell interpretieren und so ihre Bewegung steuern und die Lage im Raum exakt bestimmen.

Offenbar sind für diese Fähigkeiten sehr wenige Nervenzellen ausreichend. Das nur Millimeter kleine Fliegengehirn muss die von den Augen gelieferten Bilder sehr viel effizienter zu einer visuellen Wahrnehmung kombinieren, als es das menschliche Gehirn vermag. Im Rahmen von "CoTeSys" erkunden die Wissenschafter des Max-Planck-Instituts für Neurobiologie, wie Fliegen das zuwege bringen.

Fliegen-Flugsimulator

Unter der Leitung des Neurobiologen Alexander Borst haben die Forscher einen Fliegen-Flugsimulator gebaut. Hier werden Schmeißfliegen auf einem halbrunden Display unterschiedliche Muster, Bewegungen und Sinnesreize vorgespielt. Die Insekten sind an einem Halter befestigt, Elektroden registrieren die Reaktionen der Gehirnzellen. Bereits die ersten Ergebnisse lassen auf große Unterschiede zu Wirbeltieren bei der Verarbeitung von Bildern schließen.

Es zeigte sich, dass die Flugbewegungen im Raum in einem ersten Schritt ein Muster im Fliegengehirn erzeugen. Geschwindigkeit und Richtung einzelner Bildpunkte ergeben in jedem Moment ein typisches Bild von Bewegungsvektoren, den sogenannten "optischen Flussfeldern". In einem zweiten Schritt werden diese in der sogenannten "Lobula-Platte", einer höheren Ebene des Sehzentrums, ausgewertet.

In jeder Gehirnhälfte sind lediglich 60 Nervenzellen dafür zuständig, jede davon reagiert besonders intensiv, wenn das für sie passende Muster vorliegt. Wichtig für die Analyse der optischen Flussfelder ist, dass die Bewegungsinformation von beiden Augen zusammen geführt wird. Dies geschieht über eine direkte Verschaltung spezialisierter Nervenzellen, sogenannter VS-Zellen. So ergibt sich für die Fliege eine exakte Information über ihre Lage und Bewegung.

"Durch unsere Ergebnisse ist das für Rotationsbewegungen zuständige Netzwerk der VS-Zellen im Fliegengehirn heute einer der am besten verstandenen Schaltkreise des Nervensystems", erläutert Borst die Bedeutung dieser Untersuchungen. Diese Arbeiten bleiben aber nicht bei der reinen Grundlagenforschung stehen. Die Befunde der Martinsrieder Fliegenforscher sind besonders für die Ingenieure am Lehrstuhl für Steuerungs- und Regelungstechnik der Technischen Universität München (TUM) interessant, mit denen Borst im Rahmen von "CoTeSys" eng zusammenarbeitet.

Von der Fliegen- zur Robotersicht

Denn effiziente Wahrnehmung von visuellen Signalen ist für Roboterkonstrukteure ein wesentlicher Aspekt ihrer Forschung. Derzeit haben Roboter noch große Schwierigkeiten, ihre Umgebung nicht nur mit Kameras zu sehen, sondern auch wahrzunehmen, was sie sehen. Selbst das Erkennen von Hindernissen in ihrem eigenen Arbeitsumfeld dauert viel zu lange. Halten sich Menschen in im unmittelbaren Aktionsradius auf, so laufen diese Gefahr, vom Roboter nicht als solche erkannt zu werden. Aus diesem Grund müssen nach wie vor Gitter zum Schutz vor den maschinellen Helfern eingesetzt werden.

Die Forscher an der Technischen Universität entwickeln auf den Grundlagen der Erkenntnisse von Alexander Borst und seinem Team intelligente Maschinen, die über Kameras ihre Umwelt beobachten, daraus lernen und flexibel auf die jeweilige Situation reagieren. Ziel dieser Forschungsarbeiten sind Maschinen, die direkt mit dem Menschen interagieren und ihm dabei nicht gefährlich werden können.

Tatsächlich gibt es bereits erste praktische Umsetzungen: Momentan entwickeln die TUM-Forscher einen kleinen Flugroboter, der Fluglage und Bewegung durch visuelle Analyse im Computer nach dem Vorbild der Fliegengehirne kontrolliert. Bei einem weiteren Projekt wurde dem fahrbaren Roboter ACE (Autonomous City Explorer) die Aufgabe gestellt, durch Ansprechen und Fragen von Passanten vom Institut zum etwa 1,5 Kilometer entfernten Münchner Marienplatz zu finden. Dabei musste er auch die Gesten der Menschen interpretieren, die ihm den Weg zeigten, und er durfte sich – verkehrsgerecht – ausschließlich auf dem Gehsteig bewegen. Bei inzwischen mehreren Feldexperimenten in der Münchner Innenstadt war der ACE dazu ohne Probleme in der Lage. (red/derStandard.at, 15.7.2009)

  • Der Blick ins Gehirn einer Schmeißfliege zeigt einzelne Nervenzellen, die durch fluoreszierende Farbstoffe sichtbar gemacht wurden.
    foto: mpi neurobiologie

    Der Blick ins Gehirn einer Schmeißfliege zeigt einzelne Nervenzellen, die durch fluoreszierende Farbstoffe sichtbar gemacht wurden.

  • Die Fliege (schwarzer Kreis) im Flugsimulator: Durch den halbrunden LED-Schirm werden dem Insekt Bewegungseindrücke vermittelt; Elektroden zeichnen die Reaktion der Gehirnzellen auf.
    foto: mpi neurobiologie

    Die Fliege (schwarzer Kreis) im Flugsimulator: Durch den halbrunden LED-Schirm werden dem Insekt Bewegungseindrücke vermittelt; Elektroden zeichnen die Reaktion der Gehirnzellen auf.

Share if you care.