Youtube trifft Vorkehrungen für die Wahlen in der Europäischen Union und den USA.
REUTERS/Lucy Nicholson

Die Europawahlen finden hierzulande bekanntlich in genau einem Monat, am Sonntag, 9. Juni 2024, statt. In Österreich herrscht gerade Aufregung um die Persönlichkeit der Grün-Kandidatin Lena Schilling und ihren Umgang mit der Wahrheit. In der Tech-Branche ist man ebenfalls nervös, auch hier geht es um Wahrheit oder Lüge und angebliche Diffamierungen, aber in einem deutlich größeren Maßstab.

Deshalb bemühen sich aktuell die großen Onlineplattformen möglichst rigoros gegen Falschmeldungen, Desinformationen und Schmutzkübelkampagnen vorzugehen oder zumindest den Anschein zu erwecken, sie würden das tun.

Anleitung zur Wahl auf Youtube

Nach Tiktok und Meta ist es nun Youtube, das ein Maßnahmenpaket gegen Wahlmanipulation vorstellt. Dieses zielt einerseits auf die Verbreitung vertrauenswürdiger Nachrichten ab und soll andererseits manipulierte Inhalte zumindest kenntlich machen und im Extremfall löschen. Während des Wahlkampfs wird es etwa eigene Panels mit Hintergrundinformationen bei Videos zu den jeweiligen Kandidaten geben.

Gleichzeitig werden Anleitungen ausgespielt, wie man seine Stimme bei den Europawahlen abgibt. Darüber hinaus wird die Wahlberichterstattung seriöser Nachrichtenportale hochgereiht. Nach den Wahlen will man die amtlichen Ergebnisse unter Videos mit politischem Inhalt ausspielen. Eine Lektion, die man von Donald Trump gelernt hat, auch wenn Behauptungen über vermeintliche Wahlfälschungen in Europa im Gegensatz zu den USA keine große Rolle spielen.

Viel gravierender sind Falschinformationen im Wahlkampf über Europa und Migration. Ein Großteil der Falschinformationen und Hasskampagnen in Europa habe aktuell mit Einwanderung zu tun, erklären zwei hochrangige Führungskräfte bei Youtube in einem Hintergrund mit europäischen Journalisten. Damit derartige Inhalte am besten gar nicht erst auf der Videoplattform landen, greift der eigenen Intelligence-Desk auf die Risikoanalysen der Threat Analysis Group von Google zurück. Diese soll sich anbahnende Bedrohungen vorhersagen.

Außerdem wurden Richtlinien herausgegeben, die sich auf aktuelle laufende Wahlen beziehen, auch wenn diese eine eindeutige US-Handschrift tragen. So sind Inhalte verboten, die Wähler davor abschrecken könnten, zu einem Wahllokal zu gehen, oder die zur Blockade von Wahllokalen aufrufen. Ein Phänomen, das man vor allem in den USA kennt. Ebenfalls verboten sind Inhalte, die Politikern das Recht absprechen für die Wahl zu kandidieren.

Das Kreuz mit der KI

Auch mit mithilfe generativer Künstlicher Intelligenz erstellten Videos durfte man bei Youtube schon reichlich Erfahrung sammeln, weshalb Creator künftig verpflichtet werden, KI-generierte Inhalte zu kennzeichnen. Diese Kennzeichnung findet üblicherweise im Infobereich unter dem Video statt. Bei politischen Inhalten, wie Videos zu Wahlen, wird das KI-Label aber schon im Label angezeigt.

Bei Youtube ist man bemüht vom Begriff "Deepfake" wegzukommen, weil er laut Ansicht des Unternehmens einen zu großen Bereich der Manipulation ausklammert. Stattdessen spricht man bei der Videoplattform von veränderten oder synthetischen (also künstlich generierten) Inhalten. Schlupflöcher gibt es hier noch, so ist eine Offenlegung nur bei realistisch wirkenden Inhalten nötig.

Wird der Offenlegungspflicht nicht nachgekommen, droht der Ausschluss vom Partnerprogramm. Im schlimmsten Fall werden die betroffenen Inhalte entfernt. Youtube behält sich außerdem das Recht vor, KI-Videos mit einem Label zu versehen, das der Ersteller nicht mehr entfernen kann.

Youtube selbst setzt Künstliche Intelligenz ein, um Künstliche Intelligenz aufzuspüren. Das System wurde mit Videos mit Regelverstößen trainiert und könne die Muster KI-generierter Inhalte erkennen und diese anschließend kennzeichnen. Das ist keine leichte Aufgabe, denn bei einer großen Zahl von KI-generierten Videos handle es sich um politische Satire, die auch nach den neuen Richtlinien erlaubt ist.

Russische Desinformation

Im Vorjahr hat Youtube insgesamt 35.000 Videos in der EU wegen Desinformation entfernt. Einer der Hauptakteure auf diesem Gebiet sei nach wie vor Russland. Dabei sind es nicht einmal besonders gut gemachte oder ausgeklügelte Fake News, meist werden einfach alte Videos als neu ausgegeben. Das passiere vor allem mit Material, das vermeintlich aus dem Ukrainekrieg oder Gaza stammt, in Wahrheit aber schon mehrere Jahre alt ist. Diesen Content zu erkennen, sei nicht allzu schwer, man müsse das vermeintlich neue Material nur mit alten Videos abgleichen. Das Problem dabei ist, dass auch viele Medien darauf hineinfallen und in der Eile das Material als authentisch neu veröffentlichen.

Youtube und der DSA

Was bei all den Maßnahmen dazugesagt werden muss: Die Plattformen sind laut dem Digital Services Act dazu gezwungen, Maßnahmen zu ergreifen. Das Regelwerk habe bei Youtube bislang aber kein großes Kopfzerbrechen ausgelöst, heißt es seitens des Unternehmens. Viele Sicherheitsregeln seien ohnehin schon in Kraft gewesen, bei anderen habe man nachgebessert und schaue künftig eben genauer hin.

Ob diese neuen Regeln bei allen glaubwürdig umgesetzt werden, daran hat die EU-Kommission ernsthafte Zweifel. Youtube scheint sich jedenfalls noch keine groben Schnitzer geleistet zu haben, denn der Fokus der Ermittlungen liegt derzeit auf Tiktok sowie den Meta-Plattformen Facebook und Instagram. Allen drei Netzwerken wird vorgeworfen, nicht genug gegen Verschwörungserzählungen, Fake News und Wählermanipulation vorzugehen. Meta wird sogar vorgeworfen, gegen Geld russischer Propaganda zu mehr Reichweite zu helfen. Die Ermittlungen laufen. (pez, 9.5.2024)