Wenn Maschinen wie kleine Kinder lernen

5. Jänner 2017, 10:18
129 Postings

Robotersysteme können streng definierte Aufgaben lösen – effizienter als Menschen. Für Forscher ein Grund zur Sorge

Wien – Mittlerweile gibt es ja eine große Zahl von Studien, die alle das gleiche pessimistische Zukunftsbild zeichnen: Die Digitalisierung der Arbeit, der verstärkte Einsatz von Robotern wird zahlreiche Arbeitsplätze gefährden, weil Maschinen billiger, effizienter und weit weniger fehleranfällig wie Menschen sind: 2013 schon stellten Wissenschafter der University of Oxford fest, dass etwa 47 Prozent aller Arbeiten, die heute vom Menschen verrichtet werden, digitalisiert werden könnten.

Ein Report des US-amerikanischen President's Council of Economic Advisers des Weißen Hauses prognostizierte ähnliche Zahlen. Das Magazin "Wired" berichtete im Dezember des vergangenen Jahres darüber und schrieb von "millions of jobs", die damit verschwinden könnten. Das Magazin "Newsweek" titelte im gleichen Monat provokant "The Robot Economy: Forget Immigrants. Is this your replacement?" Müssen wir also wirklich alle Angst um unsere Jobs haben?

Wissenschafter, die sich mit dem Thema beschäftigen, sehen wenig Grund zur Panik. Diese Studienergebnisse allein würden nicht das Potenzial der Automatisierung erkennen lassen, lautet der Tenor. Andreas Kugi zum Beispiel, Vorstand des Instituts für Automatisierungs- und Regelungstechnik an der TU Wien, meint: "Ich wehre mich gegen die Vorstellung, derartige Technologien würden Jobs wegautomatisieren." Maschinen könnten nur Tätigkeiten automatisieren, sagt Kugi, der sich mit komplexen dynamischen Systemen auch am Austrian Institute of Technology (AIT) beschäftigt.

foto: istock
Um menschenähnlich zu sein, fehlt der Maschine auch Bewusstsein, Kreativität und die Fähigkeit, Emotionen zu haben. Gefühle seien ein "wichtiger Informationskanal, um sich in neuen Situationen zurechtzufinden", sagt etwa der Kognitionswissenschafter Claus Lamm von der Universität Wien.

Da Maschinen nie ohne Mensch arbeiten sollten, würden sich aber neue Jobprofile ergeben. Die Produktivität könnte gesteigert werden. Um diesen Wandel ohne Schaden erleben zu können, bräuchte es allerdings einige bildungs- und arbeitsmarktpolitische Maßnahmen, die vermutlich schon sehr bald umgesetzt werden sollten.

Claus Lamm, Kognitionswissenschafter an der Uni Wien, sagt, dass "Maschinen uns schon jetzt übertreffen, wenn es um wohldefinierte Bereiche geht". Das heißt: Der "Lösungsraum" muss eingegrenzt sein. Das wäre aus seiner Sicht auch autonomes Fahren. Lamm: "Die Maschine wird nicht müde und lässt sich bei der vorprogrammierten Aufgabe nicht ablenken."

Deep Learning

Doch wie lernt sie, eine bestimmte Aufgabe zu lösen? Vielfach erprobt ist derzeit die Methode des Deep Learning, vereinfacht gesagt, handelt es sich dabei um die Optimierung neuronaler Netze. Soll ein System zum Beispiel Handschriften oder auch nur Katzen im Internet erkennen, dann führt "überwachtes Lernen" dabei zum Ziel. Der Mensch stellt, wie es in der Fachsprache heißt, "den korrekten Funktionswert bereit". Er zeigt der Maschine, ähnlich wie er es bei Kleinkindern macht, was richtig und was falsch ist.

Große Datenmengen und enorme Rechenleistungen machen aber auch "unüberwachtes Lernen" möglich: Systeme können dann etwa erkennen, dass User, die eine bestimmte Seite im Netz ansurfen auch nach konkreten anderen Inhalten suchen – und dies im besten Fall anonymisiert auswerten. Selbstverständlich handelt es sich dabei auch um ein ideales Marketingtool: "User, die sich für diese Jeans interessieren, kauften auch dieses Hemd."

Ein von Lamm beschriebener derart eingegrenzter Bereich wäre zum Beispiel "autonomes Fahren". Für Wissenschafter ist das mittlerweile weniger eine technische denn eine moralisch-ethische Frage. Die entsprechenden Algorithmen können so programmiert werden, dass Fahrzeuge ohne menschliches Zutun von A nach B kommen. Doch wer wird im Falle eines Unfalls zur Verantwortung gezogen?

Frage der Akzeptanz

Wie bei der Einführung aller neuen Technologien wird die entscheidende Frage aber jene der Akzeptanz sein. Dabei scheint es eine Hürde zu geben: Menschen geben die Kontrolle nicht gerne aus der Hand. Kugi: "Deswegen hat man auch eher Angst vor einem Flugzeugabsturz als vor einem Autounfall, obwohl er viel seltener vorkommt." Lamm ergänzt: "Die Akzeptanz wird natürlich größer, wenn die Gesellschaft bei der Umsetzung involviert wird", wenn man also das Gefühl hat, die Entwicklung autonomer Fahrzeuge zumindest auch kontrollieren zu können. Nur so lasse sich Vertrauen schaffen.

Das heißt natürlich auch, dass Tests mit selbstfahrenden Autos im normalen Straßenverkehr nur in einem kontrollierten Rahmen stattfinden können. Experten erwarten, dass in absehbarer Zeit Lkws auf den Autobahnen mit autonomen Systemen gesteuert werden – mit einem Beifahrer, der im Notfall eingreift und entgegenkommenden Fahrern auch das Gefühl von Sicherheit vermittelt. Ein Fahrer, der das Fahrzeug nur mehr überwacht, sich auf langen Strecken ohne Gegenverkehr vielleicht auch ausruhen kann?

Die Maschine kann also in einem definierten Rahmen effizienter und vermutlich sicherer als Menschen arbeiten. Sie ist aber deshalb noch nicht menschenähnlich, sagt Christoph Lampert, Professor für Computer-Vision and Machine-Learning am IST Austria in Klosterneuburg. "Von einer intelligenten Maschine, die uns in allen Belangen überlegen ist, sind wir meilenweit entfernt." Der Grund: Menschen bauen auf erlerntem Wissen auf und sichern so ihr Überleben. Ein Kleinkind lernt, dass die Herdplatte heiß ist, dass man nicht aus dem Fenster springen sollte und auf der Straße wegen herankommender Fahrzeuge vorsichtig sein sollte.

Für jedes Problem ein neuer Algorithmus

Die Maschine kann mittels Algorithmus ein Problem lösen, braucht aber für ein weiteres Problem auch einen weiteren Algorithmus. Lampert sagt dazu: "Das System kann also Katzen erkennen, aber keine Hunde. Und das, obwohl man schon sagen könnte, dass Hunde Katzen sind, die bellen und weniger spitze Ohren haben." Ob Maschinen jemals so natürlich wie Menschen lernen können, sei völlig offen, sagt der Experte. Vielleicht bräuchte ein Computer, um "menschenähnlich" zu sein, Bewusstsein oder Kreativität – und die Fähigkeit, eine unbekannte Situation emotional einzuordnen. Lamm: "Emotionen sind ein wichtiger Informationskanal, um sich zurechtzufinden." Ob das Maschinen jemals schaffen können? "Ich kann natürlich nicht sagen, was in den Schreibstuben der Softwareprogrammierer passiert, aber ausschließen kann man es wohl nicht."

Schon seit einigen Jahren dominieren "hervorragende Ingenieursleistungen", wie es Lampert nennt, die Diskussion über lernfähige Maschinen, sei es ein Computerprogramm wie Watson von IBM, das in der Lage ist, Menschen im Quiz "Jeopardy!" zu schlagen, oder eine neue Übersetzungssoftware des Technologiekonzerns Google, die deutliche Verbesserungen gegenüber früheren Versionen bringt.

Smartes Telefonsystem

Daneben gibt es zahlreiche Anwendungen maschineller Intelligenz, die man womöglich gar nicht als solche identifiziert. Telefonsysteme zum Beispiel, die Gefühle erkennen und wissen, ob der Anrufer ruhig oder aufgebracht ist, und ihn im letzten Fall vielleicht nicht zu lange in der Warteschleife warten lassen. Lampert mit einem Augenzwinkern: "Emotionen zu erkennen ist eine Fähigkeit, die viele hochintelligente Menschen nicht haben." Alles ist relativ – auch die Intelligenz. (Peter Illetschko, 5.1.2017)


Veranstaltungshinweis

Claus Lamm nimmt an der Podiumsdiskussion über das Leben in der digitalen Zukunft und mit künstlicher Intelligenz teil, die am 16. Jänner im großen Festsaal im Hauptgebäude der Universität Wien (Universitätsring 1) um 18 Uhr stattfindet. Moderation: Rainer Schüller, stellvertretender Chefredakteur des STANDARD.

Share if you care.