Exploration der Sinne

18. April 2003, 14:06
5 Postings

Am Max-Planck-Institut für biologische Kybernetik ist man der Simulation tierischer Wahrnehmung auf der Spur - aber damit doch wohl nicht der menschlichen Subjektivität

Die KI-Forschung erfreut sich seit Jahrzehnten immer wieder neuer Ergebnisse, wenn es darum geht, Roboter nach Zielvorgaben zu bauen, um bestimmte einfache Aufgaben zu lösen. Innerhalb der kognitionswissenschaftlichen Fronten geht es allerdings zwischen Philosophen, Neurobiologen und Informatikern heiß her. Glauben die einen an die Möglichkeit, irgendwann neuronale Muster so weit durchschauen zu können, dass eine Simulation spezifisch menschlicher Aufgaben möglich wird, so beanspruchen die anderen die Erkenntnis auch der subjektiven Natur dieser - schon schwieriger zu simulieren.

Simulierte Fliege

Wie das "Spektrum der Wissenschaft" berichtet, haben Forscher des Max-Planck-Instituts für biologische Kybernetik jüngst Schritt für Schritt die Wahrnehmung der Fliege simuliert, indem sie klitzekleine Elektroden in die Fliegengehirne implantierten und die für bestimmte Reizmuster zuständigen Nervenzellen extrahierten.

Und tatsächlich gelang es, die Prinzipien zu erkennen, nach denen das Insekt seine Umwelt erkennt - Erkennen im Sinne von "sinnlich wahrnehmen" ebenso wie von "begreifen". Anzumerken ist dabei, dass die begriffliche Unterscheidung von den Forschern nicht vorgenommen wird. Und das kann (muss aber nicht, wir wissen es eben noch nicht) fatale Folgen für eben diesen Forschungszweig haben. Zum Beispiel dann, wenn man vor der Aufgabe steht, mehr als eine einfache Wahrnehmungsrepräsentation zu simulieren, sondern etwa das Bewusstsein genau dieses zu tun, sprich: Das Metarepräsentieren.

Wie bei allen Wesen beruht der spezifische Wahrnehmungsmechanismus bei der Fliege auf der Filterung von Informationen, die zum Überleben wichtig sind. Oder wie die Systemtheoretiker sagen: Die Selektion von Informationen kennzeichnet das Spiel zwischen ausgewogener und redundanter Reizaufnahme in einer komplexen Umwelt.

Vom natürlichen zum künstlichen System

Susanne Huber, Titus Neumann und Direktor Heinrich Bülthoff haben diese Prinzipien simuliert und ein neuronales Netz mit dem räumlichen Orientierungssinn der Fliege erstellt, das auf einem Khepera-Roboter instantiiert wurde. Attraktor war quasi die Frage, "Wie sollen sich seine Motoren bewegen, wenn sein Kameraauge bestimmte Lichtsignale empfangen hat?"

Wie aber dem Roboter die Rundumsicht von Facettenaugen verschaffen? Die Forscher lösten das Problem, indem sie ihm einen kegelförmigen Spiegel über einer Videokamera einbauten, die mit dem neuronalen Netz verschaltet wurde. Bewegungsmuster sind somit rasch registrierbar geworden.

Zusammenspiel von Hardware, Software, Umweltbedingungen

Die Forscher betonen einmal mehr, dass eine echte Simulation des Zusammenspiels von Hardware, Software und Inputs aus der Umwelt in weiter Ferne liegt. Große Probleme machen zum Beispiel das Programmieren einer Wiedererkennung aus unterschiedlichen Perspektiven oder mit unterschiedlichen Beleuchtungen.

Das in der kognitiven Psychologie als Gestaltwahrnehmungsproblem bekannte Phänomen um die Objektkategorisierung braucht noch Jahre, meint Bülthoff. Er glaubt nun an die Intelligenz der Roboter - was tatsächlich nichts anderes ist, als der Glaube an die Fähigkeit des Menschen, einem System das kategorische Wahrnehmen zu lehren, also einen künstlichen Menschen zu machen.

Über die prinzipiellen Möglichkeiten einer Umsetzung streiten Kybernektiker wie Philosophen. Hinzuzufügen ist, dass bezogen auf das menschliche Gehirn wohl kaum eine einzige Neuronengruppe zuständig ist, geht es um Erkenntnis. Erkennen beim Menschen müsste heißen eine Wahrnehmung so zu simulieren, dass all diejenigen Module mitsimuliert werden, die zur Erkenntnis beitragen und derer ein Insekt entbehrt, nämlich der kognitiven Repräsentation, die zur puren Wahrnehmungspräsenz hinzutritt.

Das wiederum führt zu einem Problem, das die Forscher auch konstatieren: Der Roboter muss lernen können. Lapidar klingt Bülthoffs simple Feststellung, dass dies etwas sei, was man einem Computer noch beibringen sollte, als wäre der Schritt vom "Strickleiternervensystem" der Fliege zum humanen, komplexen Denkorgan bereits logisch möglich, wenn schon derzeit nicht technisch.

Bewusstseinsfrage

Ohne irgendeine metaphysische Erklärung auch nur annähernd in Aussicht stellen zu wollen, sind wir jedenfalls mit all den "Philosophers of Mind", die eine Anti-Fraktion gegen die so genannten "Materialisten" unter den Kognitionswissenschaftlern bilden, gespannt, ob das auf neumodisch getrimmte Leib-Seele-Problem lösbar ist.

Die Fortschritte der KI-Forschung einmal dahingestellt, sei an dieser Stelle also lediglich registriert, was ausgelassen worden ist: Die Frage, ob ein künstliches System auch in dem Sinne wahrnehmen kann, in dem Mensch das kann (oder auch nur der Schimpanse das kann). Hat zum Beispiel der Roboter eine Rotwahrnehmung? Könnten wir das prinzipiell kontrollieren? Was ist die Natur der qualitativen, subjektiven Gehalte eines Wesens? Wäre sie zu erforschen überhaupt relevant, das heißt, haben sie eine biologische Funktion? Reicht es Algorithmen für Handlungsentscheidungen zu generieren, oder werden die Roboter irgendwann streiken, wenn die Aufgabe zu komplex ist, um mit Tricks wie Videokamera und Spiegel gelöst zu werden und wenn die Situation mehrere Handungsmöglichkeiten vorsieht, deren Wahl aber von der individuellen Geschichte des Systems abhängig ist? (Marietta Böning)

  • Artikelbild
    fotodisk
Share if you care.