Unliking Facebook: Was wir aus Datenskandalen lernen können

    Blog7. Mai 2018, 08:00
    15 Postings

    Menschen, denen ihre Privatsphäre wichtig ist, haben die Hoffnung aufgegeben, gegen die großen Konzerne ihr Recht durchsetzen zu können. Aber muss ich meine gesamte Existenz im Internet nun aufgeben?

    Ich führe dieses informelle Experiment jedes Semester durch, mittlerweile in verschiedenen Ländern und unterschiedlichen Studiengängen. Das Ergebnis ist immer das gleiche. "Wer würde die Sorge, dass sich jemand in Ihre Gesundheitsakte hackt, als sehr groß bezeichnen?" Rund die Hälfte der Studierenden heben die Hand. "Wer von Ihnen ist auf Facebook?", frage ich jene mit erhobener Hand. Alle Hände bleiben oben. Es fasziniert und erschreckt mich immer aufs Neue, wie viele hochgebildete und kritisch denkende Menschen sich mehr Gedanken darüber machen, dass Informationen aus ihren Gesundheitsakten in falsche Hände gelangen könnten, als darüber, was multinationale Unternehmen wie Google, Amazon, Facebook und Apple mit ihren Daten tun. Daten, die immer weitere Bereiche unseres täglichen Lebens erfassen, angefangen von unseren Wegen durch die Stadt über unsere beruflichen und privaten Kontakte, unseren Medienkonsum, bis hin zu unserem Kalorienverbrauch und unserem Schlafrhythmus für jene von uns, deren Körper mit Fitnessarmbändern und deren Wohnungen mit digitalen Assistenten bestückt sind.

    Der Begriff der "Datafizierung", der seit einigen Jahren durch Fachartikel und die populärwissenschaftliche Literatur geistert, versucht dieses Phänomen der Erfassung immer größerer Datenmengen aus immer weiteren Bereichen unseres privaten und öffentlichen Lebens in einen Fachbegriff zu packen. Der amerikanische Rechtswissenschafter Harry Surden spricht in diesem Zusammenhang vom Ende des strukturellen Rechts auf Privatheit: Unsere Privatsphäre schrumpfe dadurch, dass Bereiche unseres Lebens, die früher für Dritte "unsichtbar" waren, durch Instrumente und Technologien des Datensammelns sichtbar gemacht werden.

    Und diese Instrumente und Technologien, muss hier hinzugefügt werden, sind nicht mehr jene, die von Staaten zur Überwachung der Bürgerinnen und Bürger eingesetzt werden. Es handelt sich vielmehr um Gebrauchsgüter, die Konsumentinnen und Konsumenten freiwillig in ihre Taschen und Wohnungen bringen. Wer Überwachung mit Videokameras vor Polizeistationen oder Abhörwanzen in Bücherschränken assoziierte, muss heute an Mobiltelefone und "intelligente Stromzähler" denken. Die Daten aus diesen Geräten gehören nicht den Bürgerinnen und Bürgern, deren Leben sie überwachen, und sie gehören auch nicht staatlichen Institutionen, sondern privaten Unternehmen, die – wie wir kürzlich anlässlich der Befragung des Facebook-Chefs Mark Zuckerberg im US-Kongress erleben konnten – von niemandem effektiv zur Rechenschaft gezogen werden können.

    foto: ap photo/marcio jose sanchez
    Der Cambridge-Analytica-Datenskandal rund um Facebook hat die Datensammel-Debatte erneut angefacht.

    Aufgabe der gesamten Existenz?

    Wieso stört das zu wenige Menschen, um nach einem Verbot solcher Datenpraktiken zu rufen? "Facebook kennt ja meinen Namen nicht", höre ich oft als Antwort auf meine Frage, warum man sich in österreichischen und englischen Hörsälen so wenig Gedanken um Datenmissbrauch durch private Firmen macht. Und in den Worten Jespers, eines 23-jährigen Studenten in Kopenhagen, den ich für mein Buch zu datenintensiver Medizin interviewt hatte: "Wenn ich darüber nachdenken müsste, wo meine Daten heute überall enden könnten, dann würde ich zum Zombie: Ich müsste Facebook, mein Handy, meine Gmail-Adresse und praktisch meine gesamte Existenz im Internet aufgeben."

    Angesichts der heute oft gehörten Diagnose, Menschen seien dazu gerne bereit, Teile ihrer Privatsphäre aufzugeben, weil sie dafür kostenlos Komfort und bessere Vernetzung mit anderen Menschen bekämen – oder gar angesichts der Zuckerberg'schen These, den Leuten sei ihre Privatsphäre heute nicht mehr so wichtig –, illustriert Jespers Aussage einen wichtigen Punkt: Empirische Studien aus den USA etwa zeigen, dass jene Menschen, denen ihre Privatsphäre vermeintlich nicht mehr wichtig ist, in Wahrheit die Hoffnung aufgegeben haben, gegen die als übermächtig wahrgenommenen Firmen und Organisationen eine realistische Chance auf Durchsetzung ihrer Rechte zu haben. Wenn Jesper also sagt, dass er, um sein Recht auf Privatsphäre ernst zu nehmen, seine gesamte Existenz im Internet aufgeben müsste, dann tut er dies nicht mit dem zufriedenen Lächeln eines Menschen, der ein gutes Geschäft gemacht hat, sondern mit dem resignierten Blick eines Realisten: Wenn mir mein Recht auf Privatheit wichtig ist, dann werde ich zum "Zombie".

    Umgang mit neuen Machtasymmetrien im digitalen Zeitalter

    Das Problem wachsender Machtasymmetrien zwischen den Institutionen und Organisationen, die Daten verarbeiten, und den Menschen, von denen die Daten kommen – also von uns –, wird mittlerweile sowohl in der Wissenschaft als auch in der Politik als ernstzunehmendes Problem erkannt. Insbesondere große Technologiekonzerne, so wird argumentiert, sind heute von Marktteilnehmern zu De-facto-Regulierungsinstanzen geworden. Die neue Datenschutz-Grundverordnung der EU, die ab Ende Mai in EU-Mitgliedstaaten direkt anwendbar ist, verbessert die Situation der Bürgerinnen und Bürger, indem sie ihnen mehr Kontrolle über die Verwendung ihrer eigenen Daten gibt. Eine Lösung des Problems der strukturellen Machtasymmetrien stellt sie allerdings nicht dar.

    Wie der Autor Evgeny Morozov betont, braucht es dafür nicht nur eine Verbesserung des Datenschutzrechts, sondern ein neues Demokratieverständnis. Dieses neue Demokratieverständnis, meine ich, muss kollektive Verantwortung und Kontrolle darüber, wie Daten in unserer Gesellschaft genutzt werden, miteinschließen. Und es muss weit über den Bereich des klassischen Datenschutzes hinausgehen. Wenn Daten heute, wie so häufig betont wird, der Treibstoff sind, der unsere Staaten und Ökonomien am Laufen hält, dann geht es um nicht weniger als darum, dafür zu sorgen, dass dieser Treibstoff nicht auf Kosten der Allgemeinheit nur die Häuser der Mark Zuckerbergs und Jeff Bezos' dieser Welt beheizt.

    foto: apa/afp/josh edelson
    Was können wir tun, um die Kontrolle über unsere Daten von Zuckerberg und Co zurückzugewinnen?

    Drei Strategien

    Aber wie kommen wir dorthin? Die folgenden drei Schritte sind dafür unerlässlich:

    1. Die performative Wirkung von Metaphern verstehen. Wie der Philosoph und Sprachwissenschafter George Lakoff gezeigt hat, sind Metaphern nicht einfach nur neutrale Behelfe zum Verständnis neuer oder komplexer Phänomene. Sie strukturieren unser Denken und Handeln. Digitale Daten werden etwa heute häufig als "das neue Öl" bezeichnet. Eine solche Darstellung von Daten als Ressource, die uns die Natur gibt und die von IT- und Technologiefirmen sozusagen "aus dem Boden geholt", gesäubert und verpackt wird, erlaubt es genau jenen Unternehmen, einen moralischen Anspruch auf das Eigentum an diesen Daten zu erheben. Sie erscheinen als jene, die – eben wie eine Ölfirma, die durch ihre Investitionen in die Förderung und Verarbeitung das Rohöl zum Treibstoff und damit für uns nutzbar macht – eine wertvolle Leistung erbringen und daran natürlich verdienen dürfen.

      Diese Geschichte könnte – und muss, wie ich hier argumentieren möchte – jedoch anders erzählt werden: Daten sind kein Öl, das einfach "da" ist. Daten werden von uns gesammelt und hergestellt, indem wir Patientinnen und Patienten in Krankenhäusern sind, indem wir online einkaufen, indem wir Bilder und Texte auf soziale Medien stellen und indem wir über internetbasierte Applikationen mit Schulen, Firmen und öffentlichen Einrichtungen kommunizieren. Die Technologien und Infrastrukturen für das Sammeln vieler dieser Daten werden durch die öffentliche Hand, und damit durch unsere Steuergelder, zur Verfügung gestellt oder mitfinanziert. Dies bedeutet, dass wir die Hauptarbeit in der Generierung der Daten tun und damit unser Recht am Eigentum an Daten über die Ansprüche der Firmen, die unsere Daten nutzen, einfordern müssen. An konkreten Lösungen arbeiten wir gemeinsam mit anderen Wissenschafterinnen und Wissenschaftern bereits.

    2. Die Daten-Arbeit von Bürgerinnen und Bürgern – als jene, die den Treibstoff für die Datenmaschinerien unserer Gesellschaft wirklich produzieren – muss sichtbar gemacht und vergütet werden. Dies bedeutet dezidiert nicht, dass wir individuelles rechtliches Eigentum an persönlichen Daten begründen sollen, um Daten verkaufen oder auf andere Weise auf individueller Ebene "monetarisieren" zu können. Aber es bedeutet, dass wir als Volk dafür sorgen müssen, dass Daten im öffentlichen Interesse genutzt werden. Dafür ist es notwendig, Daten nicht als privaten Vermögenswert, sondern als öffentliches Gut zu definieren, von dem alle Menschen profitieren sollen und das nicht von privaten Investoren und Unternehmern besessen werden kann. Wenn auch private Unternehmen profitieren – was natürlich weiterhin möglich sein sollte, solange ihr Geschäftsmodell nicht untragbar unfair ist –, dann müssen wir dafür sorgen, dass ein Teil dieser Profite wieder an uns zurück fließt – zum Beispiel durch eine Datennutzungssteuer, die Körperschaften bezahlen müssen, wann immer sie Daten nicht im öffentlichen Interesse nutzen. Auch soziale Medien nutzen Daten in manchen Fällen im öffentlichen Interesse, zum Beispiel zur Koordinierung von Katastrophenhilfe oder zur Unterstützung epidemiologischer Forschung.

    3. Wir brauchen bessere Instrumente zur Linderung von Schäden, die durch Datennutzung entstehen. Es gibt immer weniger Bereiche unseres Lebens, die frei von Datenerfassung sind. Die Wege, die diese Daten durch unterschiedliche Hände und Systeme nehmen, sind oft nicht nachvollziehbar. Durch Betriebsgeheimnisse geschützte Algorithmen und Praktiken wie maschinelles Lernen erschweren diese Nachvollziehbarkeit noch zusätzlich. Deshalb können wir uns nicht damit begnügen zu versuchen, Risiken zu vermindern. Wir müssen auch dafür sorgen, dass Menschen, die durch Datennutzung zu Schaden kommen, nicht alleingelassen werden. Aus diesem Grund propagieren meine Kolleginnen und ich die Einführung von Schadenslinderungsfonds, die – subsidiär zu Rechtsmitteln – jenen Menschen zur Verfügung stehen, die den Rechtsweg nicht nutzen können, etwa weil sie nicht nachweisen können, wer genau den Schaden, der ihnen widerfahren ist, verursacht hat.

    Und nun?

    Was machen wir mit Facebook? Auch wenn wir finden, dass Onlineplattformen zur Vernetzung und Kommunikation eine wichtige gesellschaftliche Funktion erfüllen: Wir können diese Funktion nicht Unternehmen überlassen, deren Geschäftsmodell auf der Monetarisierung persönlicher Informationen basiert. Nicht alles, was gegen kein Gesetz verstößt, ist fair. Und vielleicht kommen wir sogar zum Schluss, dass manche Formen der Wertschöpfung aus Daten so schädlich sind, dass wir sie nicht länger dulden wollen. (Barbara Prainsack, 7.5.2018)

    Barbara Prainsack ist seit Oktober 2017 Professorin für Vergleichende Politikfeldanalyse am Institut für Politikwissenschaft an der Universität Wien. Sie war als Professorin am Londoner King's College tätig und unter anderem Mitglied der Österreichischen Bioethikkommission beim Bundeskanzleramt und der European Group on Ethics in Science and New Technologies. Mit der Nutzung von Patientendaten in der Medizin beschäftigt sich ihr neuestes Buch "Personalized Medicine: Empowered Patients in the 21st Century?".

    Die Autorin dankt Christian Haddad, Katharina Zahradnik und Hendrik Wagenaar für hilfreiche Kommentare zu diesem Text.

    Die inhaltliche Verantwortung für einen Beitrag liegt allein bei den AutorInnen.

    Literatruhinweise

    • Van Dijck, J., 2014. Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. Surveillance & Society, 12(2).
    • Mai, J.E., 2016. Big data privacy: The datafication of personal information. The Information Society, 32(3).
    • Bertolucci, J., 2013. Big Data’s new buzzword: Datafication. Information Week.
    • Lakoff, G. 2014. Don’t think of an elephant! Know your values and frame the debate. Chelsea Green Publishing.
    • Surden, H., 2007. Structural Rights in Privacy. MU Law Review 60: 1605-1629.

    Zum Thema

    Links

    Share if you care.