Politik-Algorithmen statt Überzeugungsarbeit

Kommentar der anderen1. November 2017, 16:50
49 Postings

Österreich hat gerade einen ziemlich schmutzigen Wahlkampf erlebt? Abwarten. Es könnte noch viel schlimmer kommen

Dirty Campaigning ist nichts Neues. Lyndon B. Johnson hat es schon seinerzeit mit gutem Erfolg praktiziert. Und 2016 hat die enorme Menge von Fake News mit Verleumdungen übelster Art zum Sieg Donald Trumps nicht wenig beigetragen.

Neues Produkt dieser Technik ist nicht zuletzt die Idee, per Website scheinbar für einen Kandidaten zu werben, ihm dabei aber allmählich immer brutalere Ideen zu unterschieben, Rassismus, Faschismus und was sich noch alles in diversen Schmutzkübeln finden lässt, um als scheinbarer Freund das Opfer als richtigen Widerling zu zeigen.

Spezialisten jeder Partei analysieren die Meinungen und Sorgen der einzelnen Schichten der Bevölkerung und auch ihre Ängste und Hoffnungen, um darauf die je eigenen Wahlprogramme und Wahlkampagnen abzustimmen. Aber das können künstliche Intelligenzen (KIs), die mit einem künstlichen neuronalen Netz, einem lernfähigen Algorithmus, ausgestattet sind, allmählich besser. Sie können weit größere Datenmengen verarbeiten, so die Interessen- und Motivationslage potenzieller Kunden genauer erforschen und daraus maßgeschneiderte Vorschläge für die richtige Strategie erarbeiten. KIs sind auch weit besser in der Lage, das Internet systematisch nach den unterschiedlichsten Informationen zu durchsuchen, auf ihre Relevanz zu prüfen und gegebenenfalls zu verwerten.

Emotional Decoding ...

Bereits mehrere Firmen bieten das sogenannte Emotional Decoding an, wie etwa Affectiva, Pyramics oder Realeyes. Dabei geht es um die genaue Analyse von Gesichtsausdrücken, sei es beim Beobachten von Werbespots, um ihre Effizienz zu testen, sei es während politischer Propagandareden oder – auch das gibt es ja schon – bei der Beobachtung von Fernsehzusehern durch ihren eigenen Fernsehapparat. Schon hat ein neuronaler Algorithmus bei Vorlage von jeweils fünf Bildern beliebiger Männer in 83 Prozent der Fälle richtig erkannt, ob der Betreffende heterosexuell oder homosexuell ist. Auch falsches Lächeln kann man bereits von echtem unterscheiden. "Ich denke, wir haben da eine ziemlich mächtige Technologie", hat Realeyes-Chef Jed Hellstrom gesagt.

Die Verfeinerung der Analyse von Emotionen ermöglicht eine wesentliche Verbesserung der Ansprache durch Social Bots. Auch sind Beeinflussungsversuche über Social Media immer dann besonders wirksam, wenn sie durch echte oder vermeintliche Bekannte und Freunde erfolgen. Bei einem Experiment von Alex Pentland während der amerikanischen Kongresswahlen 2010 erhielten Millionen Facebook-Nutzer eine freundliche Einladung, zur Wahl zu gehen. Eine Hälfte erhielt eine unpersönliche Bitte, die zweite die gleiche Nachricht, aber personalisiert mit den Gesichtern von Freunden. Selbst bei bloßen Internetbekanntschaften war die anschließende Wahlbeteiligung deutlich höher.

Über Twitter und andere Social Media werden schon heute viele falsche Freunde gezeigt, die in Wahrheit künstliche Intelligenzen sind. Sie können sympathische Wesen und Freundschaft vortäuschen, Anteilnahme zeigen, Ratschläge geben und am Ende sich geradezu unentbehrlich machen. Die schlimmsten neuen Gegner jeder Wahrheit werden das Gesicht von guten Freunden haben.

... und Social Bots

Social Bots können übrigens durch Umprogrammierung noch gefährlicher werden. Microsoft-Chatbot Tay sollte mit Twitter-Nutzern kommunizieren und ihnen neue Techniken beibringen. Hacker haben dem Programm rassistische Tiraden beigebracht, es musste eilig vom Netz genommen werden. Und wenn die Hacker etwas schlauer und vorsichtiger vorgegangen wären?

2010 hat in Großbritannien David Cameron das "Behavioral Insights Team" eingerichtet, im dortigen Polit-Slang Nudge-Team genannt. Den Begriff Nudge hat übrigens der heurige Preisträger für Wirtschaftswissenschaften Richard H. Thaler populär gemacht. In den USA und auch in Deutschland gibt es bereits ähnliche Stabsstellen.

Und was machen die? Im Rahmen der Snowden-Affäre ist eine "sozialwissenschaftliche Operationseinheit" bekannt geworden, die darauf spezialisiert ist, den Ruf Einzelner möglichst gründlich zu ruinieren. Die Grundsätze werden in fünf großen D festgehalten: Deny, Deceive, Disrupt, Degrade und Destroy: Verleugnen, Täuschen, Unterbrechen, Abwerten und Zerstören. Die mit dieser Aufgabe betrauten Agenten (zum Zeitpunkt des Bekanntwerdens 150 Personen) arbeiten ständig an der Vervollkommnung dieser Strategie.

Wenn herzeigbare politische Persönlichkeiten durch eine sorgfältig gewählte Strategie unterstützt werden, in der KIs jede Menge künstlicher guter Freunde mit einem schlauen Nudging-Programm einsetzen, wer kann dann überhaupt noch unabhängig vernünftige Entscheidungen treffen?

Der Komiker Groucho Marx hat es auf den Punkt gebracht: "Sincerity is the key to success. If you can fake this, you got it." Man kann den kommenden politischen Strategien der KIs genau das durchaus zutrauen. (Manfred Drennig, 2.11.2017)

Manfred Drennig (Jg. 1940) war Manager im Bank- und Baugeschäft sowie ÖVP-Politiker.

  • Das Politische, ein schwarzes Loch? Wenn die "sozialwissenschaftlichen Operationen" politischer Akteure alles an Beeinflussung einsetzen, was bereits möglich ist, dann ist es wohl so.
    foto: science photo library

    Das Politische, ein schwarzes Loch? Wenn die "sozialwissenschaftlichen Operationen" politischer Akteure alles an Beeinflussung einsetzen, was bereits möglich ist, dann ist es wohl so.

Share if you care.