Christoph Kucklick ist Chefredakteur des Wissenschaftsmagazins "Geo" und studierter Soziologe.

Foto: christoph kucklick

Mensch und künstliche Intelligenz sollen eine pädagogische Beziehung zueinander aufbauen. Zumindest findet das Christoph Kucklick, Chefredakteur des Magazins "Geo" und Soziologe. Am Samstag, den 23. September, hält der in Berlin und Hamburg lebende Sachbuchautor im Rahmen der Globart Academy einen Vortrag zum Thema "Warum wir eine (andere) Diskussion über Algorithmen brauchen" in Krems. Der STANDARD hat vor der Veranstaltung mit dem Digitalisierungsexperten gesprochen.

STANDARD: Ihr Vortrag im Rahmen der Globart Academy lautet "Warum wir eine andere Diskussion über Algorithmen brauchen". Warum brauchen wir denn eine andere Diskussion?

Kucklick: Ich plädiere für eine Pädagogik der Algorithmen. Wir müssen uns überlegen, wie wir Computern beibringen, dass sie uns verstehen und unsere Werte annehmen. Das lässt sich nicht einfach programmieren, zumal nicht bei lernenden Maschinen, die wir nicht restlos kontrollieren können.

STANDARD: Was ist an dieser Idee anders als am bisherigen Diskurs über Algorithmen?

Kucklick: Bislang reden wir meist in zweierlei Weise über Algorithmen und künstliche Intelligenz (KI): Wir verlangen zum einen, dass wir die Macht über die Algorithmen behalten müssen, und fordern zum Zweiten eine Ethik der Algorithmen, also die Programmierung der Maschinen mit unseren Wertvorstellungen. Daran ist auch nichts falsch: Natürlich wollen wir beides. Aber Macht und Ethik sind unzureichend und beschreiben unser Verhältnis mit diesem neuen Typ lernender Maschinen nicht umfassend genug. Denn wir können diese Maschinen nicht mehr so wie Dampfmaschinen oder Vorschlaghammer kontrollieren. Sie machen sich, in gewissem Maße, ein eigenes Bild von uns, das wir nicht komplett beherrschen und auch nicht, wie früher, einfach programmieren können. KI-Forscher überlegen derzeit, Technologien zu entwickeln, wie wir diese Maschinen in unserem Sinne beeinflussen können, wie wir sie gleichsam anlernen, menschliche Werte zu begreifen. Das ist ein pädagogischer Vorgang, kein Machtprozess.

STANDARD: Und die Ethik?

Kucklick: Nun, wir lernen im Gegenzug durch die Beschäftigung mit Maschinen, dass die Ethik, die wir Menschen normalerweise im Alltag anwenden, nicht unbedingt die ist, die wir auch für die Maschinen wollen. Eine ethische Frage ist etwa, wie sich selbstfahrende Autos im Falle eines unausweichlichen Unfalls verhalten sollen: zwei Kinder anfahren oder einen Rentner? Eine Gruppe Schüler oder eine Gruppe Bauarbeiter? Nun zeigt sich in Versuchen an Computern, dass Menschen nicht sonderlich gut entscheiden. Zum Beispiel fahren wir in rund 80 Prozent der Fälle eher einen Mann als eine Frau um. Wollen wir wirklich, dass auch selbstfahrende Autos so entscheiden? Halten wir das für fair? Wir lernen also anhand von Maschinen viel über uns. Auch das ist ein pädagogischer Vorgang.

STANDARD: Verstehe ich Sie richtig: Sie setzen sich eigentlich für das gegenseitige Kennenlernen von Mensch und Maschine ein?

Kucklick: Genau. Wenn wir sagen, wir müssen Maschinen unsere Ethik beibringen, tun wir so, als wäre unsere jetzige Ethik schon die letzte Antwort. Dabei wird sie sich durch lernende Maschinen verändern. Und umgekehrt müssen wir dafür sorgen, dass die Maschinen im menschlichen Sinne lernen. Pädagogik ist immer ein zweiseitiges Verhältnis: Lehrer und Schüler lernen gegenseitig voneinander. Dieses Verhältnis sollten wir ernst nehmen und sehenden Auges in eine Kooperation, in eine Koevolution mit den Maschinen eintreten.

STANDARD: Hat dieser Lernprozess auch Grenzen, ab denen wir ihn direkt steuern sollten?

Kucklick: Unbedingt! Aus dieser pädagogischen Sicht wird deutlich, dass wir bestimmte Entwicklungen auf dem Gebiet der künstlichen Intelligenz nicht zulassen dürfen. Nur ein Beispiel: Facebook hat kürzlich zwei Computer miteinander verkoppelt, damit sie gegenseitig lernen, miteinander Verhandlungen zu führen. Sehr schnell haben die Maschinen eine Art eigener Sprache entwickelt, die die Programmierer kaum noch verstehen konnten. Daraufhin wurden die Computer abgeschaltet. Eine richtige Entscheidung. Gegenseitiges Lernen funktioniert nur, wenn Verstehen möglich ist.

STANDARD: Stichwort Facebook: Das Unternehmen hat angekündigt, Medien, die Fake-News verbreiten, algorithmisch herauszufiltern und zu blockieren.

Kucklick: Fake-News sind ein ernstes Problem. Ich bezweifle allerdings, dass Algorithmen auf absehbare Zeit in der Lage sind, Falschmeldungen zuverlässig zu identifizieren. Das ist eine extrem schwierige Aufgabe, an der auch viele Menschen scheitern und an der sich die KI-Forscher derzeit die Zähne ausbeißen. Ich nehme vielmehr an, dass Facebook-Mitarbeiter Websites identifizieren, die chronisch Fake-News verbreiten, und diese dann sperren. Das gehört auch zum Lernprozess: zu wissen, wann die menschliche Intelligenz der künstlichen weit überlegen ist. Davon wird es noch viele Jahrzehnte lang sehr viele Beispiele geben. (Muzayen Al-Youssef, 22.9.2017)