Wie fair ist die Zuckerberg-Maschine?

    Kommentar der anderen22. Mai 2018, 16:34
    9 Postings

    Der Facebook-Chef muss im EU-Parlament zur Datensammlung über Nutzer und zum Cambridge-Analytica-Skandal Rede und Antwort stehen. Aber was genau machen IT-Unternehmen mit diesen Daten und was sind die sozialen Folgen? Versuch einer Klärung

    Die Terminologie wirkt wie aus einem Science-Fiction-Roman: maschinelles Lernen und künstliche Intelligenz, Deep Learning und neuronale Netze ... IT-Konzerne investieren Unsummen in diese Technologien, Universitäten liefern sich ein Wettrennen bei der Gründung von entsprechenden Instituten, politische Parteien und Geheimdienste sind bemüht, nicht den Anschluss zu verlieren, und Prognostiker überbieten sich in Zukunftsszenarien zur Weltherrschaft der Roboter. Aber wie funktioniert künstliche Intelligenz eigentlich? Und welche sozialen Auswirkungen können wir schon heute beobachten?

    • Wie funktionieren künstliche Intelligenz und maschinelles Lernen? Ein Großteil dieser Technologien beruht im Kern darauf, anhand einiger beobachteter Variablen eine andere Variable vorherzusagen. Anhand der Pixel in einem Bild eine Beschreibung des Bildes, anhand einer Tonaufnahme einen geschriebenen Satz, anhand der Stellung der Figuren auf einem Schachbrett den besten Zug, anhand der Vermessung einer Straße die Entscheidung, ob ein selbstfahrendes Auto bremsen soll, und so weiter. Bei einigen solcher Vorhersageprobleme gab es in den letzten Jahren große Durchbrüche. Das liegt an einer Kombination von angehäuften Datenmengen, Rechenkapazität und der cleveren Anwendung statistischer Methoden. Zu diesen Methoden gehören insbesondere Regularization, Tuning und automatisierte Experimente.

    Regularization ist eine Art automatisierter Skeptizismus. Jeder beobachtete Zusammenhang zwischen Variablen könnte entweder systematisch oder reiner Zufall sein. Regularization macht Vorhersagen unter der Annahme, dass beobachtete Zusammenhänge nur zum Teil systematisch sind. Aber wie groß ist dieser Teil? Da kommt Tuning ins Spiel. Um zu entscheiden, wie skeptisch die Methode sein soll, wird ein Teil der Daten zur Seite gestellt. Die Methode macht dann Vorhersagen für diese Daten und kalibriert ihren Skeptizismus so, dass die Vorhersagen möglichst akkurat sind. Automatische Experimente kommen ins Spiel, wenn das Ziel nicht nur ist, Vorhersagen zu treffen, sondern auch zu lernen, was die Auswirkungen möglicher Entscheidungen wären.

    • Wofür wird maschinelles Lernen schon eingesetzt? Diese Methoden finden schon weitreichende Anwendungen. Die meisten Anwendungen sind, wohl wenig überraschend, im Dienste existierender Machtzentren – profitmaximierender Unternehmen, stimmenmaximierender Parteien, überwachungsoptimierender Geheimdienste.

    Die wohl bedeutendste Anwendung bisher ist gezielte Werbung. Nahezu alle Profite großer Suchmaschinen oder sozialer Netzwerke kommen daher, dass sie Daten über ihre Nutzer sammeln, um dann individuell angepasste Werbung zu schalten, die eine möglichst hohe Klickwahrscheinlichkeit hat. Immer öfter wird dieselbe Information auch verwendet, um individuell angepasste Preise zu verlangen und um Profite auf Kosten von Konsumentinnen und Konsumenten zu maximieren. Auch bei Entscheidungen über Jobkandidaten oder Kreditvergaben kommen diese Methoden zum Einsatz – und bei der Festsetzung von Gefängnisstrafen in den USA.

    Politische Parteien verwenden diese Methoden ebenfalls, um gezielt angepasste Inhalte an ausgewählte Bevölkerungsgruppen zu liefern, mit dem Ziel, deren Wahrscheinlichkeit zu wählen zu maximieren (bei Anhängern) oder zu minimieren (bei Gegnern). Geheimdienste verwenden diese Methoden um elektronische Kommunikation weltweit automatisch zu überwachen.

    • Ungleichbehandlung und Fairness All diesen Anwendungen ist gemeinsam, dass individuelle Daten zu einer Ungleichbehandlung führen – wir sehen verschiedene Werbung für Produkte oder Parteien, zahlen unterschiedliche Preise und haben ungleiche Chancen, einen Job oder einen Kredit zu bekommen. Das verursacht zwei Sorten von Problemen – einerseits kann es bestehende soziale Ungleichheiten verstärken, andererseits führt es dazu, dass wir in verschiedenen Realitäten leben (Stichwort Filterblasen).

    Eine aktive Debatte über die Fairness und Transparenz von Algorithmen hat in den letzten Jahren begonnen. Ist es gerecht, dass Algorithmen, etwa bei der Jobvergabe oder der Preisfestsetzung, Männer und Frauen, Migranten und Nichtmigranten, Arme und Reiche ungleich behandeln? Aber was heißt eigentlich gerecht? Eine mögliche Forderung wäre, dass Algorithmen bestimmte Variablen, wie etwa das Geschlecht, nicht direkt verwenden dürfen. Das Problem dabei ist, dass sich diese Variablen leicht aufgrund anderer Variablen, etwa des Konsumverhaltens, erraten lassen. Vielleicht müssen wir also einen Schritt weitergehen und fordern, dass Algorithmen Männer und Frauen im Schnitt gleich behandeln? Aber was ist dann mit Ungleichheit innerhalb dieser Gruppen? Sollen wir weitere Variablen ausschließen? Welche Ungleichbehandlung wäre gerechtfertigt? Wer ist verantwortlich, wenn ein Algorithmus eine ungleiche Entscheidung trifft? Und verstärken oder reduzieren die neuen Ungleichheiten aufgrund künstlicher Intelligenz bestehende Ungleichheiten? So zwingt uns der technische Fortschritt, uns mit grundlegenden Fragen sozialer Gerechtigkeit auseinanderzusetzen.

    • Filterblasen und die Glaubwürdigkeit der Politik Ungleichbehandlung kann auch ein Problem sein, wenn sie nicht eindeutig manche besser oder schlechter stellt, wie etwa bei Werbung oder politischen Inhalten. Auch klassische Medien filtern. Sie müssen notwendigerweise auswählen, wessen Tod es wert ist, berichtet zu werden, welcher politische Skandal weitere Recherche verlangt und so weiter. Neu ist, dass wir unseren persönlichen Filter bekommen – aufgrund unseres Such- und Klickverhaltens, unseres sozialen Netzwerks und so weiter. Das trägt zur politischen Polarisierung bei. Es führt dazu, dass politische Aufmerksamkeit sich auf die Minderheit derer fokussiert, deren Wahlverhalten möglicherweise beeinflusst werden kann. Und es unterminiert die Glaubwürdigkeit der Politik.

    Wenn Wähler merken, dass ihnen nur erzählt wird, was sie hören möchten, und dass ihre Nachbarn und Freunde anderes zu hören bekommen, befördert das Zynismus gegenüber Politik und Demokratie, selbst wenn es kurzfristig die Wahlchancen einer Partei erhöht. Das erklärt vielleicht den Reiz mancher älterer Politiker, die seit Jahrzehnten dieselben Positionen vertreten und die für jedes Publikum dieselbe Botschaft haben, wie etwa Bernie Sanders in den USA, für junge Wähler. Zu Prinzipien zu stehen anstatt individuell optimierte Botschaften zu senden kann langfristig politisch erfolgreicher sein – und ist besser für die Demokratie. (Maximilian Kasy, 22.5.2018)

    Maximilian Kasy forscht am Department of Economics der Harvard University und am IHS Wien.

    • Vom Spielzeug zum Weltbeherrschungstool: Die gesellschaftliche Sicht auf Facebook wird brüchig.
      foto: apa/afp/joel saget

      Vom Spielzeug zum Weltbeherrschungstool: Die gesellschaftliche Sicht auf Facebook wird brüchig.

    Share if you care.