Wahrsagung mit unseren Daten: Der Horror der Algorithmen

Blog13. November 2018, 07:19
14 Postings

Überwachung und Vorhersagen sind Folge unserer Datenweitergabe. Ein Richtlinienkatalog könnte dem entgegenwirken

Wir sind an der Schwelle zur digitalen Diktatur. Doch jeder von uns kann Gegenkräfte entwickeln, die auf Kurs halten zwischen Himmel und Hölle: Indem wir unterscheiden lernen, wo Algorithmen uns helfen und wo sie uns dem Horror der Wahrscheinlichkeit ausliefern. Indem wir aufhorchen, wenn Regierungen und andere unser Handeln überwachen. Indem wir Auskunft einfordern über Datenwahrsagereien, die unsere Lebenschancen mitbestimmen. Und indem wir einwilligen auf Prinzipien, wie sie "Internet-Vater" Tim Berners-Lee jetzt in einem "Contract for the Web" vorgestellt hat.

Immer mehr Überwachung

Die Nichtregierungsorganisation Freedom House warnt in ihrem aktuellen Netzfreiheitsbericht vor einer durch Desinformation, Überwachung und Propaganda vergifteten Digitalsphäre. Der durchschnittliche Status der Internetfreiheit sinkt kontinuierlich, unter den 65 untersuchten Länder – das sind 87 Prozent der Internetnutzer weltweit erfasst – verschlechterten sich 26 im Vergleich mit dem Vorjahr, 19 verbesserten sich. Wachsende Digitaldiktaturen, die politisch auch Demokratien sein können, reißen durch ungezügeltes Datensammeln die Wände in unsere Privatsphäre ein. China belegt zwar den letzten Platz wegen seiner raffinierten Maschinerie zur Überwachung, die Peking die Kontrolle über die gesamte mediale sowie individuelle Kommunikation via News-Plattformen und Messenger-Dienst ermöglicht. Aber nun mit dem Finger auf China zu zeigen, wäre zu kurz gesprungen, zumal dieses Beispiel offenbar verlockend wirkt: China exportiert solches Wissen mit Gewinn und konnte in 36 der untersuchten Ländern Trainings zur digitalen Medienkontrolle durchführen. In Autokratien sind die Folgen der regierungsgesteuerten Überwachung offensichtlicher als in Demokratien: Im Westen Chinas sind wegen der extremen Überwachung wohl Zehntausende der muslimischen Minderheit der Uiguren mittlerweile inhaftiert.

Begehrlichkeiten auf mehr Kontrolle und Überwachung der Gesellschaften sind aber überall verbreitet. Alle Länder destabilisieren damit das Vertrauen in das Netz, in Institutionen und auch in Regierungshandeln. Weltweit übernehmen Regierungen immer mehr die Kontrolle über die Daten ihrer Gesellschaften. Sie argumentieren mit Terror- und Desinformationsrisiken, teilweise auch als Rechtfertigung, um Journalisten zu verhaften oder den Löschauftrag für Inhalte auf Social Media diesen selbst zu übertragen.

Wahrsagehorror

Die Studie von Freedom House fokussierte das Regierungshandeln, die Art, wie die Mächtigen mit dem Internet umgehen, was sie zulassen, was sie einschränken und was sie unterbinden. Doch überwacht werden wir auch und zunehmend von vielen weiteren Einrichtungen: Polizei, Versicherungen, Unternehmen et cetera entwickeln aus unseren Daten ganze Profile über uns, aus denen sie ihre Schlüsse ziehen. Datensätze mit Daten, die wir selber preisgegeben haben oder die über uns erhoben worden sind, werden in diversen Arten kombiniert und Algorithmen, also digitale Vorschriften, entwickelt, um zum Beispiel Verhaltensmuster herauszufiltern und zu interpretieren. Das heißt errechnete Wahrscheinlichkeiten werden als Gewissheiten behandelt und als Grundlage für Entscheidungen: Wer erhält eine berufliche Fortbildung, wer wird befördert – kurz: wer verdient Chancen im Leben? Und wer gehört ins Fadenkreuz von Behörden oder Polizei? Und eben nicht allein in China, auch in den USA, auch in Europa werden aufgrund algorithmisierter Berechnungen Entscheidungen getroffen, die unser Leben auf den Kopf stellen können. Kein Kredit? Lange Wartezeiten im Krankenhaus? Taxiert als labiler Charakter? Wie wir eingeschätzt werden, beruht zunehmend auf Interpretationen von Statistik. Und dies oft, ohne dass wir die (Daten-)Basis kennen, auf der über uns entschieden wird.

Mit unseren Daten lassen sich unter anderem Verhaltensmuster vorhersagen.

Ein weiteres Beispiel: Vorhersagende Ermittlung gehört in Deutschland, in der Schweiz und in Österreich immer häufiger zum Instrumentarium der Polizeiarbeit. In Österreich und Deutschland wird diese "Wahrsage"-Software zurzeit vor allem für Einbruch-Wahrscheinlichkeits-Landkarten eingesetzt und öfter dort Streife gefahren, wo laut dieser Karten am ehesten eingebrochen wird; Begleitstudien liefern zwar bislang wenig überzeugende Erfolgszahlen, aber den Hinweis, dass sich die Bewohner eines Gebiets oft durch mehr Streifenwagen nicht sicherer, sondern im Gegenteil verunsichert fühlen. In der Schweiz und auch in den USA sind nicht nur Gebiete, sondern zudem Personen im "Blickfeld" solcher Vorhersagesoftware. In Chicago nimmt die Polizei Menschen, für die eine Auswertung ihrer Daten bestimmte Muster ergibt – zum Beispiel arbeitslos und kleinkriminell und bekannt mit einem Opfer eines Gewaltverbrechens und aus einem bestimmten Stadtteil – auf eine Liste der "Gefährder", sucht sie persönlich auf, um sie zu warnen, sie seien im Visier. In der Schweiz geraten Menschen nach vergleichbaren Kriterien ins Blickfeld der Polizei; dort wird aber das Bild, das der Algorithmus liefert, nicht sofort in polizeiliches Handeln umgesetzt, sondern erst, nachdem ein Experte weitere Erkundungen im Umfeld des Betreffenden vorgenommen hat.

Das Ziel, so Verbrechen vorzubeugen, ist nachvollziehbar. Dennoch wird damit wie auch in weiteren Fällen, wo auf der Grundlage wahrscheinlichen Handelns über uns entschieden wird, erstens ein ethisches Grundprinzip auf den Kopf gestellt: Denn bislang mussten wir Menschen uns erst für das verantworten, was wir tatsächlich getan haben. Zweitens ist nicht hinnehmbar, dass wir oft weder wissen, noch Einfluss nehmen können, wenn wir der Wahrscheinlichkeit unterworfen werden.

Diktatur der Wahrscheinlichkeit

Wir dürfen nicht zulassen, dass wir Wahrscheinlichkeitsrechnungen und Vermutungen ausgeliefert werden, denen wir schwer widersprechen können, und die oft weder nachvollziehbar noch richtig sind, zum Beispiel weil korrelierende Daten interpretiert werden, als seien die einen der Grund für die anderen. Solche Eingriffe beschädigen unser Menschenrecht auf Privatheit. Auch die auf europäischer Ebene diesen Mai verabschiedete Datenschutzgrundverordnung (DSGVO) greift viel zu kurz, analysierten die Forscher Sandra Wachter und Brent Mittelstadt vom Oxford Internet Institut zu Datenethik und Datenschutzgesetzgebung. Sie verlangen eine viel umfassendere rechtliche Kontrolle über Algorithmen sowie Transparenz-Pflicht. Die DSGVO müsse neben der Art, wie Daten erhoben werden, auch die "Interferenzen" regeln. Kombinierte Datensätze und daraus gezogene Rückschlüsse seien als personenbezogene Daten aufzufassen und zu regulieren.

Werden also über uns anhand algorithmisch erzeugter Muster automatisiert Entscheidungen getroffen, müssten wir davon erfahren und uns gegen ein fehlerhaftes Bild wehren dürfen. Die Forscher raten: Wer automatisierte Entscheidungsprozesse einsetzt, müsse deklarationspflichtig sein. Das heißt offenlegen, auf welcher Datenbasis die Muster entwickelt wurden, was daraus geschlossen wurde und wie sich der Prozess vor allem im Falle unerwünschter Schlüsse verbessern ließe.

Journalismus als Aufklärungsinstanz

Das knüpft an eine überfällige Forderung an: Wir benötigen eine klar zugewiesene Verantwortung und eine Haltung, die an Prinzipien der Aufklärung anschließt, etwa an Immanuel Kants Idee vom kategorischen Imperativ. Im übertragenen Sinne hieße das etwa: Baue nur Algorithmen, die Dinge tun, die auch ein Mensch verantworten und aus denen ein allgemeines Gesetz entstehen kann. Journalismus als Aufklärungsinstanz ist bedeutsam, um solchen Forderungen nach Verantwortlichkeit Gehör zu verschaffen, aber auch, um möglichst vielen Menschen nahezubringen, dass heute statistisches Grundwissen eine Kulturtechnik geworden ist wie Lesen und Schreiben. Denn sie ermächtigt, die Vor- und Nachteile der Automatisierung zu erkennen.

Vertrag für das Netz

Rückenwind kommt nun von Netzpionier Tim Berners-Lee. Er ließ vor drei Jahrzehnten unter anderem durch die Netzsprache HTML das Internet zum Massenmedium wachsen. Bereits vor Jahren hat er mit der World Wide Web Foundation eine Initiative gegründet, die eine Anwaltschaft für die positiven Seiten des Netzes zum Ziel hat. Nun, vor dem Hintergrund der aktuellen riskanten Entwicklungen, könnte ein Richtlinienkatalog Fahrt aufnehmen, den Berners-Lee auf dem Web-Summit in Lissabon präsentierte. Seine Idee für einen "Vertrag für das Netz", einen "Contract for the Web", richtet sich an Regierungen, Unternehmen und an jeden Nutzer. Die Hauptaufträge: Zugänge schaffen, Privatsphäre und persönliche Datenhoheit bewahren und garantieren, Selbstverpflichtung auf Respekt gegenüber anderen Menschen und eine bessere Diskurskultur eingehen. Berners-Lee wirbt für das "gute Internet", das Nutzer nicht ausbeutet, indem ihre Daten abgesogen werden, sie nicht manipuliert und überwacht, sondern werden soll, wie er sich das immer vorgestellt hat: gerecht, mit Zugang und gleichen Rechten für jeden. Deshalb entwickelte er gleich noch ein Projekt: Social Linked Data, abgekürzt "Solid"; Bürger sollen auf lokalen Servern ihre Daten speichern. Somit kann der Fakt, dass Google und Facebook sogar zu den ersten Unterzeichnern des Internet-Vertrags zählen, auch als ein Zeichen dafür interpretiert werden, auch dann zumindest mit im Spiel zu bleiben, wenn diese globalen Tech-Unternehmen ihr bisheriges Geschäftsmodell nicht mehr aufrechterhalten können. (Marlis Prinzing, 13.11.2018)

foto: privat

Marlis Prinzing ist Professorin für Journalistik an der Macromedia-Hochschule in Köln. Medienethik unterrichtet sie auch an der Universität Fribourg in der Schweiz. Die Autorin und Moderatorin ist Herausgeberin der Praxisbuchreihe "Journalismus-Atelier", in der zuletzt die Bände "Recherche im Netz" und "Die Kunst der Story" erschienen sind. Zu ihren Lehr- und Forschungsschwerpunkten gehören auch internationale Journalismuskulturen und Medieninnovation.

Links

Share if you care.