Ethische Fragestellungen lassen sich nicht wie Variablen in mathematischen Gleichungssystemen auflösen. Auch nicht an solche delegieren: Selbstlernende künstliche Intelligenzen werfen ebendiese Fragen auf.

Foto: iStock

Im Silicon Valley ist ein Wettrennen um die klügsten Köpfe entbrannt. Techkonzerne wie Facebook oder Google rufen astronomische Gehälter auf, um hochqualifizierte Softwareentwickler anzuheuern. "Million-dollar babies" nannte der Economist diese "high potentials". Die Fakultäten in Berkeley oder Stanford, für die Techkonzerne schon immer einen Talentpool bildeten, sorgen sich derweil um den wissenschaftlichen Nachwuchs.

Laut Schätzungen gibt es weltweit lediglich rund 10.000 Informatiker, die über eine entsprechende Ausbildung und das nötige Knowhow verfügen, die komplexen Algorithmen zu programmieren, die man beim autonomen Fahren oder der Entwicklung von Chatbots benötigt. Das reicht bei weitem nicht, um den Bedarf zu decken.

Künstliche Intelligenz ist ein Milliardengeschäft. Laut einer Analyse des McKinsey Global Institute haben Unternehmen im Jahr 2016 zwischen 26 und 39 Milliarden Dollar in die Forschung künstlicher Intelligenz investiert. An der Spitze: Google und Facebook.

Besser als Menschen?

Weil Fachkräfte knapp und teuer sind, hat Google eine clevere Strategie ersonnen. Statt die besten KI-Forscher mit exorbitanten Gehältern und Boni anzulocken, sollen sich künstliche Intelligenzen künftig selbst programmieren. Der Internetkonzern hat ja bereits sein Projekt AutoML vorgestellt, welches die Entwicklung maschineller Lernalgorithmen automatisieren soll. In einem Experiment konnte das System neuronale Netze schaffen, die Hand in Hand mit manuell programmierten KI-Systemen operierten – ohne menschliches Zutun. Grob gesagt optimierte AutoML eine bereits bestehende Bilderkennungssoftware. Auf einem Strandbild konnte das Computerprogramm mit einer Genauigkeit von über 80 Prozent Strandspaziergänger von Kitesurfern unterscheiden. Auch Facebook tüftelt an einer automatisierten Gesichtserkennungssoftware, um die Profilbilder seiner über zwei Milliarden Nutzer mit Gesichtern auf Fotos zu verknüpfen.

Die Entwicklung eines neuronalen Netzwerks, das nach menschlichen Gehirnfunktionen modelliert ist, ist keineswegs trivial. Wissenschafter müssen nach der Trial-and-Error-Methode ein riesiges Netzwerk mit Trainingsdaten füttern und bei hunderten Experimenten jedes Mal aufs Neue überprüfen, ob der maschinell lernende Algorithmus Objekte erkennt – und die Modelle optimieren. Es ist ein kaum überblickbares Geäst von Entscheidungsbäumen und Formeln. Mit AutoML will Google diesen Prozess automatisieren. Das Ziel: Der Algorithmus soll sich selbst Dinge beibringen. Experten sprechen vom Metalernen.

Ethische Fragen drängen

An der Universität Berkeley wird bereits seit Jahren an solchen metrischen Lernmodellen geforscht. Das Stichwort lautet "learning to learn", "lernen, um zu lernen". Ein Beispiel: Ein Mensch kann auf einem Bild ein zweirädriges Vehikel – etwa ein Segway – identifizieren oder einen Buchstaben nachschreiben, den er in einem unbekannten Alphabet zum ersten Mal gesehen hat. Eine Maschine kann das nicht. Sie muss erst mit entsprechenden Daten gefüttert werden, um anhand verschiedener Bildpunkte charakteristische Merkmale zu erkennen. Mit Metalernmodellen soll es möglich sein, bestimmte Objekte ohne Trainingsdaten zu klassifizieren und die Informationsverarbeitung im Gehirn, das Gegenstände in Sekundenschnelle rastert, zu adaptieren. Auch Roboter könnten sich bestimmte Dinge wie Laufen oder Sprechen selbst beibringen. Künstliche Intelligenz, so die Vision, ist vor allem dann intelligent, wenn sie ihr eigener Dompteur und Lehrer ist. Die Berkeley-Forscher sind bislang nicht entscheidend vorangekommen, doch mit den Millionen Forschungsgeldern von Google könnte dem ambitionierten Projekt der Durchbruch gelingen. Barret Zoph, einer der führenden Wissenschafter hinter Googles Projekt AutoML, sagte in einem Bericht der New York Times, dass die Methode auch für andere Aufgaben wie Spracherkennung oder maschinelle Übersetzung funktionieren könnte.

Die Frage ist, was das für den Arbeitsmarkt bedeutet, wenn sich künstliche Intelligenzen künftig selbst programmieren. Wer braucht dann noch Programmierer? Bilden sich Roboterärzte und Roboteranwälte dereinst selbst aus? Was bedeutet dies im Hinblick auf unser Wertegerüst, wenn sich KI-Systeme (mathematische) Werte selbst "beibringen"? (Adrian Lobe, 19.2.2018)