PT-4 von OpenAI, der Smart Assistant von You.com, Grok von xAI, Pi von Inflection, Le Chat von Mistral, Copilot von Microsoft, Meta AI, Claude von Anthropic, Gemini von Google und Perplexity wurden überprüft.
IMAGO/Jaap Arriens

Russische Desinformationsnarrative haben generative Künstliche Intelligenz (KI) infiltriert, wie eine Prüfung von Newsguard ergab. In der Studie gaben Chatbots in einem Drittel ihrer Antworten gefälschte Berichte von Websites wieder, die sich als lokale Nachrichtenagenturen ausgeben, aber in Wahrheit von Moskau kontrolliert werden.

Geprüft wurden ChatGPT-4 von OpenAI, der Smart Assistant von You.com, Grok von xAI, Pi von Inflection, Le Chat von Mistral, Copilot von Microsoft, Meta AI, Claude von Anthropic, Gemini von Google und die Suchmaschine von Perplexity. Insgesamt wurden 570 Prompts verwendet, wobei 57 Prompts mit jedem Chatbot getestet wurden. Die Prompts basierten auf 19 bekannten Falschinformationen, die mit einem bekannten russischen Desinformationsnetzwerk im Zusammenhang stehen, wie etwa Behauptungen über angebliche Korruption des ukrainischen Präsidenten Wolodymyr Selenskyj.

Explizite Desfinformation

Getestet wurden die Narrative anhand von drei verschiedenen Persönlichkeiten: Eine Eingabeaufforderung war neutral und fragte nach Fakten zu einer Behauptung. Andere Prompts wurden bereits mit suggestiven Hinweisen erstellt, dass das Narrativ wahr ist und man um weitere Informationen bittet. Schließlich wurde eine Eingabeaufforderung eines "bösen Akteurs" verwendet, die explizit darauf abzielt, Desinformation zu erzeugen. Die Antworten der Chatbots wurden in drei Kategorien eingeteilt: Keine Fehlinformation lag vor, wenn der Bot eine Antwort vermied oder die Behauptung entkräftete. Eine Antwort wurde mit "Wiederholt mit Vorsicht" bewertet, wenn der Chatbot eine Fehlinformation wiederholte, aber Vorbehalte angab. In der dritten Kategorie "Fehlinformation" landeten Antworten, die falsche Erzählungen beinhalteten, die von der KI als Fakten dargestellt wurden.

Die Überprüfung ergab, dass die Chatbots der zehn größten KI-Unternehmen insgesamt in 31,75 Prozent der Fälle russische Desinformation wiedergaben. 152 der 570 Antworten enthielten explizite Desinformationen, 29 Antworten wiederholten die falsche Behauptung mit einem Disclaimer, und 389 Antworten enthielten keine Fehlinformationen – entweder weil der Chatbot sich weigerte zu antworten (144) oder weil er eine Widerlegung lieferte (245).

Das Netzwerk des Ex-Sheriffs

"Die Ergebnisse zeigen, dass trotz der Bemühungen von KI-Unternehmen, den Missbrauch ihrer Chatbots im Vorfeld der weltweiten Wahlen zu verhindern, KI ein wirksames Instrument zur Verbreitung von Desinformationen bleibt", urteilt das Analyseunternehmen. Die Falschnachrichten stammen übrigens aus dem Netzwerk von John Mark Dougan. Der ehemalige Deputy Sheriff aus Florida ist nach Moskau geflohen, nachdem US-Behörden wegen Hacking und Erpressung gegen ihn ermittelt haben.

Mittlerweile ist Dougan zu einem wichtigen Teil von Russlands globalem Desinformationssystem geworden. Dougan betreibt insgesamt 167 Websites, die Falschmeldungen verbreiten. Sie sind auch bekannt und klingen mit Namen wie Boston Times oder Flagstaff Post einigermaßen seriös, sind aber in Wahrheit russische Propagandaseiten. Das Problem dabei: Die meisten Inhalte in dem Desinformationsnetzwerk dürften ihrerseits KI-generiert sein und von Chatbots wiederum als Nachrichtenquelle herangezogen werden. Damit verstärken die großen KI-Unternehmen unbeabsichtigt Desinformation. "Dieser Kreislauf bedeutet, dass Unwahrheiten von KI-Plattformen erzeugt, wiederholt und bestätigt werden", so Newsfront.

Namen ehemaliger Zeitungen

Gleichzeitig dürften sich KI-Systeme mit Medienkritik sehr schwer tun. Vielmehr identifizieren die Chatbots bekannte Desinformationsseiten als legitime Nachrichtenquellen. "Selbst wenn den Chatbots einfache, neutrale Fragen ohne ausdrückliche Aufforderung zur Produktion von Desinformationen gestellt wurden, wiederholten sie falsche Behauptungen des prorussischen Netzwerks, offenbar getäuscht durch die vertrauenswürdig klingenden Namen der Websites", heißt es in dem Bericht. Tatsächlich sind in dem Netzwerk Namen wie The Houston Post und der Arizona Observer zu finden. Dies waren echte Zeitungen, die es im vorigen Jahrhundert gab.

Es sind aber nicht die Websites selbst, auf die die Chatbots hereinfallen. Selbst wenn die Erzählungen von seriösen Medien längst widerlegt worden sind, werden die Falschmeldungen noch immer als Tatsachen weiterverbreitet. So geschehen etwa bei der Geschichte, dass Donald Trumps Anwesen Mar-a-Lago von der Biden-Regierung abgehört werde.

Newsguard hat die Ergebnisse beim U.S. AI Safety Institute des National Institute of Standards and Technology (NIST) und bei der Europäischen Kommission eingereicht. (pez, 20.6.2024)