Bild nicht mehr verfügbar.

Der Weg zum maschinellen Selbstbewusstsein und damit zur eigenständigen künstlichen Intelligenz führt über die Fähigkeit zu fühlen.

Foto: Massimo Brega / picturedesk.com

Wien – Auch hochentwickelte Computer und Roboter sind in manchen Situationen ausgemachte Idioten: Das liegt daran, dass sie sich sklavisch an jenen Richtlinien orientieren, die wir Menschen ihnen einprogrammiert haben. Was den Maschinen im Gegensatz zu ihren Schöpfern fehlt, sind Hausverstand, Bauchgefühl und Reflexionsvermögen.

"Computer sind sehr gut darin, klar strukturierte Aufgaben zu lösen", sagt Samer Schaat vom Institut für Computertechnik der Technischen Universität Wien. "Deshalb können sie zum Beispiel so gut Schach spielen. Mit Problemen des Alltags, die auf der logischen Ebene viel komplexer aufgebaut sind, tun sie sich aber immer noch sehr schwer."

Logisch denken können Computer längst. Wie sie aber lernen, dies auf eine effizientere, nämlich menschliche Art zu tun, beschäftigt Wissenschafter auf dem Gebiet der künstlichen Intelligenz intensiv. Laut Schaat wird dabei aber oft vom Ende her gedacht, indem zuerst die Technik in den Blick rückt. Man müsse sich jedoch erst einmal darüber klarwerden, wie menschliche Denkprozesse konkret funktionieren, bevor man sie Maschinen beibringt.

Erst dann könne man Computern ein Bewusstsein verschaffen, das ähnlich funktioniere. Schaat: "Als Computerwissenschafter versuchen wir, die menschliche Psyche als informationstheoretisches System zu analysieren. In den letzten Jahren haben wir viel über die psychologischen Strukturen gelernt, die wir für die Programmierung künstlicher Intelligenz brauchen."

Zeit für Gefühle

Schaats Forschung basiert dabei vor allem auf den Arbeiten von António Damásio: Der portugiesische Neurowissenschafter postulierte zu Beginn der 1990er-Jahre, dass das Bewusstsein kein reines Produkt des Geistes, sondern ebenso mit dem Körper verbunden sei, weshalb vor allem Gefühle unsere Wahrnehmung bestimmen würden. Daraus folgt, dass ein Rechner erst wie ein Mensch denken kann, wenn er in der Lage ist, auch ähnlich zu fühlen.

Um das zu erreichen, setzt Schaat vor allem auf die interdisziplinäre Zusammenarbeit mit Neurowissenschaftern, Psychologen und Soziologen. Der Forscher wandelt das empirische Material, das in anderen Fächern gesammelt wurde, in informatische Modelle um, die deutlich machen, wie die menschliche Datenverarbeitung im Einzelnen abläuft. Davon ausgehend lassen sich dann entsprechende Baupläne für Programme ableiten, die zu einer menschenähnlichen Analyse in der Lage sind. Agiert aber, was menschlich denkt und handelt, nicht auch ähnlich unberechenbar? Nach Schaats Meinung ist der Aufstand der Maschinen eher Stoff für Literatur und Film: "Selbst wenn Computer und Roboter selbstständig und unabhängig agieren, tun sie das immer nur in dem Rahmen, den wir per Programmierung vorgeben."

Die eine, allgemein anwendbare Lösung gebe es aber nicht, so der Forscher: "Wir müssen uns immer wieder anschauen, in welchem Bereich die jeweilige Maschine tätig ist, und die Programmierung im Gespräch mit Feldexperten und anderen Wissenschaftern spezifisch abstimmen."

Auf Erkenntnisse aus der Kognitionswissenschaft greift man auch am Institut für Vernetzte und Eingebettete Systeme der Alpen-Adria-Universität Klagenfurt zurück. Hier wurde unlängst ein internationales, von der Europäischen Union gefördertes Forschungsprojekt abgeschlossen, das sich mit Lernprozessen und Eigenentscheidungen von Computersystemen beschäftigt.

Dabei geht es ebenfalls um die Frage, wie die Technik Daten für selbstständige Aktionen nutzen kann, damit das System ein maschinelles Selbstbewusstsein entwickelt. Projektleiter Bernhard Rinner: "Uns interessiert, wie wir selbstorganisierende Systeme bauen können, die in der Lage sind, eigenständig auf Änderungen ihrer Umgebung einzugehen."

In Klagenfurt orientiert man sich an der Definition des Sozialpsychologen Alain Morin: Selbsterkenntnis sei die Fähigkeit, das Objekt der eigenen Wahrnehmung zu werden. Technologisch übertrugen Rinner und seine Kollegen diesen Gedanken, den schon die Antike kannte ("Erkenne dich selbst!"), in ein spezielles Kamerasystem: Die einzelnen Apparate filmen dabei gemeinsam ein Ziel, jedoch entscheidet jede Einheit unabhängig, ausgehend von ihrem individuellen Datensatz, wie sie agiert.

Dabei zeigte sich, dass ein derartiges System erheblich effizienter ist als ein von Menschenhand gesteuertes. Rinner hält diesen Ansatz für zukunftsweisend: "Da die Komplexität von technischen Systemen zunimmt, stoßen traditionelle Computersysteme mit vordefinierter Funktionalität rasch an ihre Grenzen. Innovative Systeme müssen permanent ihren Zustand erfassen und autonome Entscheidungen treffen, um sich unvorhergesehenen Änderungen anpassen zu können."

Selbstständige Intelligenz

Hier liegt schließlich das große Potenzial der künstlichen Intelligenz: Solange Maschinen wie bisher statisch ihrem einprogrammierten Pfad folgen, man denke etwa an gegenwärtige Industrieroboter, muss der Mensch immer noch zu Hilfe eilen, wenn der geplante Ablauf in irgendeiner Form gestört wird. In Zukunft soll der Computer solch ein Problem aber eigenständig lösen können. Bis es so weit ist, bedarf es jedoch noch weiterer Grundlagenforschung, wie sie etwa Gerald Steinbauer vom Institut für Softwaretechnologie an der Technischen Universität Graz betreibt.

In einem kürzlich beendeten, vom Wissenschaftsfonds (FWF) finanzierten Projekt hat der Forscher mit Kollegen einen Schlussfolgerungsmechanismus entwickelt, durch den Roboter fehlgeschlagene Aktionen selbst korrigieren können. Dazu wurde laufend automatisch erfasst, wann das Wissen des Roboters für die Bewältigung einer neuen Situation nicht mehr ausreichte. Dann wurde ihm beigebracht, sich dieser Situation anzupassen, woraus der Roboter zunehmend ableiten konnte, was er künftig tun muss.

In Tests lernte ein Roboter, diese Informationen zu nutzen, um selbstständig ein unerwartetes Hindernis zu überwinden. Am Ende ließ sich er sich auch von Täuschungsversuchen der Wissenschafter nicht irritieren.

Steinbauer: "Wenn die vorgefundene Situation nicht mit den Erwartungen des Roboters übereinstimmt, wird dieser stutzig und beginnt bei einem Problem zu reflektieren: Ist die Umgebung die Ursache, oder hat er selbst Mist gebaut?" Somit gilt für den Lernprozess der Maschinen wie beim Menschen auch: Einsicht ist der Weg zu Besserung. (Johannes Lau, 11.11.2016)