Sam Altman und sein Unternehmen OpenAI haben ein arbeitsreiches Jahr vor sich. Gerade für Wahlen und Stimmungsmache in Sachen Kriegen wird KI schon jetzt stark eingesetzt.
AFP/JASON REDMOND

Zum ersten Mal in der vergleichsweise jungen Firmengeschichte musste OpenAI, die FIrma hinter ChatGPT, gegen politische Einflussnahme vorgehen. Laut einem Bericht des US-Unternehmens wurden Accounts aus China, Russland und Israel gelöscht, die unter anderem Propaganda-Bots online stellten, Generatoren von gefälschten Artikeln und sogenannte Social Media Scrubber. Letztere durchforsten Social Media Kanäle, um peinliche Fotos oder Postings zu finden.

Manipulative Beiträge

"OpenAI setzt sich für die Durchsetzung von Richtlinien zur Verhinderung von Missbrauch und für die Verbesserung der Transparenz bei KI-generierten Inhalten ein", schreibt das Unternehmen. Das gelte insbesondere für die Aufdeckung und Löschung von verdeckten "Beeinflussungsoperationen" (IO), die versuchen würden, die "öffentliche Meinung zu manipulieren" oder "politische Ergebnisse zu beeinflussen". Ebenfalls ausschlaggebend für die Sperrung sei laut dem Bericht bei den betroffenen Accounts gewesen, dass die wahre "Identität oder die Absichten" der dahinter stehenden Akteure nicht einsehbar waren.

Zu den gelöschten Accounts zählt etwa die russische Gruppe "Bad Grammar", die mit ihren Aktionen auf Telegram aktiv waren sowie das israelische Unternehmen STOIC. Letztere nutzten OpenAI-Software um Artikel und Kommentare zu formulieren, die den militärischen Sieg Israels feierten. Gepostet wurden diese Beiträge unter anderem auf diversen Meta-Plattformen und X.

Im Bericht wird auch erwähnt, dass Beiträge durch die OpenAI-Software schnell in mehrere Sprachen übersetzt wurden, die Software beim Erfinden von Namen und Biografien geholfen hat und zum Korrekturlesen von Texten.

KI wie eine Schusswaffe

Ganz neu ist die Thematik nicht. Bereits im Februar ließ OpenAI wissen, dass man mehrere Accounts löschen musste, die mit Hilfe der Software potenzielle Cyberangriffe hätten durchführen wollen. Damals wurden die Accounts mithilfe der Microsoft Thread Intelligence aufgedeckt.

Bestätigt wird mit diesen Fällen einmal mehr, dass im Superwahljahr Künstliche Intelligenz eine Rolle spielen wird. Erst kürzlich ließ die Cybersicherheitsexpertin Keren Elazari im Gespräch mit DER STANDARD wissen, dass Künstliche Intelligenz den "bösen Kerlen" hilft, was sie bisher gemacht haben, "viel schneller und besser zu machen". Weiters erklärt sie: "Man sagt immer, komme mit keinem Messer zu einer Schießerei. Generative KI ist die Schusswaffe". Es sei Zeit aufzuwachen, die Zeiten von Ruhigbleiben und Weitermachen seien vorbei. Die Fälle von OpenAI scheinen das zu bestätigen. (red, 2.6.2024)