Entseelte Entscheidungen

Kommentar der anderen6. Mai 2016, 18:25
posten

Sie sind Problemlöser, die versprechen, ein (mathematisch formulierbares) Problem jederzeit und absolut unbeeinflusst zu lösen. Brauchen Algorithmen ethische Handlungsanleitungen und Maschinen eine Moral?

Vor kurzem wurde ich mit der irritierenden Frage konfrontiert, ob es einer Ethik für Algorithmen bedarf. Eine Ethik? Für Algorithmen? Ethik bewertet doch menschliche Handlungen hinsichtlich ihrer Güte. Können dann Algorithmen, als unbelebte Anweisungen, mit denen ein Computer ein Problem lösen kann, überhaupt das Subjekt einer solchen Ethik sein oder müssen sie nicht deren Objekt sein? Denn so, wie Waffenproduzenten die Ethik bei den menschlichen Waffenbesitzern verorten, fühlen sich auch manche Informatikerinnen und Informatiker dazu verleitet, ihren Algorithmen keine moralische Qualität an sich zuzuordnen – man hat ja auch noch nie von einer Waffenethik gehört. Tatsächlich ist aber bei Algorithmen etwas ganz Entscheidendes anders als bei einer Waffe: Sie enthalten eingefrorene Handlungsanweisungen einer kleinen Gruppe von Entwicklerinnen und Entwicklern und führen damit "entseelte Entscheidungen" durch.

Was ist denn nun eigentlich ein Algorithmus in diesem Sinne? Algorithmen sind Problemlöser: Sie versprechen, ein (mathematisch formulierbares) Problem jederzeit lösen zu können. Ein typisches Beispiel für ein solches Problem ist die Navigation: Der Computer kennt das verfügbare Straßenkartenmaterial, hat vielleicht noch aktuelle Informationen über Verkehrsdichte und Baustellen. Der Nutzer tippt zusätzlich Start und Ziel ein, und der Algorithmus verspricht, nach nicht allzu langer Zeit die kürzeste Strecke zwischen Start und Ziel anzugeben. Dies tut er immer und zuverlässig – ganz objektiv.

Machtvolle Empfehlungen

Es lässt sich aber nicht alles gleich gut in ein mathematisch formulierbares Problem übertragen, insbesondere die Frage danach, wie Informationen aus einer Flut von Daten sortiert, gefiltert und geordnet werden sollten. Das wird sofort offensichtlich, wenn man darüber nachdenkt, was eigentlich die relevantesten Nachrichten sind, die man am Tag so gehört haben sollte. Da es für die menschliche Bearbeitung einfach zu viele mögliche Informationen sind, versuchen Firmen wie Facebook und Google, mit Algorithmen dafür zu sorgen, dass jeder von uns das für sich Relevanteste zuerst findet. Und es stellt sich heraus, dass wir tatsächlich das, was ganz oben steht, ungefähr doppelt so oft anklicken wie das Zweitoberste und dieses wiederum anderthalbmal so oft wie das Nächste. Dadurch wohnt diesen Empfehlungsalgorithmen, die hinter Internetsuchmaschinen, sozialen Netzwerken und Onlinehandel stecken, tatsächlich eine große Macht inne, unseren Fokus zu lenken. Denn für uns als Menschen ist es unmöglich zu überblicken, ob es noch eine andere, bessere Reihenfolge aller möglichen Ergebnisse von Websites, Nachrichten oder Produkten gegeben hätte, wir können nur beurteilen, ob wir das Ergebnis dieser Sortierung als für uns relevant einschätzen oder nicht.

Da "Relevanz" ein mathematisch gesehen unpräziser Begriff ist, gibt es zwangsläufig subjektive Entscheidungen zu fällen, die ein Algorithmus dann umsetzt, um zu einem Ergebnis zu kommen. Mark Zuckerberg, CEO von Facebook, wird zum Beispiel von David Kirkpatrick mit dem Spruch zitiert, dass für manche Nutzer das Eichhörnchen, das gerade in ihrem Garten stirbt, relevanter sei als sterbende Kinder in Afrika.

Algorithmenentwickler frieren also ihre Ideen dazu, wie etwas sortiert und entschieden werden sollte, in Codes ein. Dieser Code erlaubt es ihnen dann, ihre Entscheidungen in Raum und Zeit beliebig zu multiplizieren, ohne dass eine weitere Anpassung an den Kontext möglich ist – ich nenne dies "entseelte Entscheidungen". Aufgrund dieser eingefrorenen Handlungsanweisungen ist es auch klar, dass der Algorithmus ein Ersatzhandelnder ist, der das millionenfach ausführt, was eine kleine Gruppe von Menschen entschieden hat. Schlimmer wird es noch, wenn diese kleine Gruppe dem Algorithmus nur allgemeine Regeln mitgibt, wie dieser etwas "lernt", also aus bekannten Daten Muster herauszieht, um unbekannte Daten zu bewerten. Diese "Algorithmenerziehung" zeigt im Ergebnis manchmal Ähnlichkeiten mit kleinen wohlerzogenen Kindern, die plötzlich im Teenageralter unkontrollierbar werden – das musste beispielsweise Microsoft kürzlich mit seinem Chatroboter Tay erfahren, der von krawalligen Chattern schnell zum Rassisten umerzogen wurde.

Auch wenn Algorithmen nachher Pseudohandelnde sind und damit einer Ethik unterliegen sollten, muss sich eine Ethik natürlich letztlich an die ProgrammiererInnen und AnwenderInnen von Algorithmen wenden. Ethiken für Informatiker gibt es, aber durch die neuen Möglichkeiten, schlaue Algorithmen mit einer Vielzahl von Daten zusammenzubringen, haben sich Möglichkeiten ergeben, die in diesen Codices noch nicht genügend verankert sind – und welche für die reinen Anwender von Algorithmen gibt es meines Wissens nach nicht.

Wir als Gesellschaft müssen daher jetzt verhandeln, welche Kriterien es braucht, wenn Algorithmen über Menschen automatisiert entscheiden sollen und ob es Bereiche gibt, aus denen wir sie ausschließen wollen – die entseelten Entscheidungen. (Katharina Zweig, 6.5.2016)

Katharina Zweig (geb. 1976 in Hamburg) studierte Biochemie und Bioinformatik in Tübingen und ist seit 2012 Professorin für Graphentheorie und Analyse komplexer Netzwerke an der Technischen Universität Kaiserslautern.

Share if you care.