Es war nur eine Frage der Zeit, bis das auch in Österreich jemand ausprobiert: Der Satire-Account der.bundeswappler hat auf Instagram Deep-Fake-Videos von Politikerinnen und Politikern hochgeladen – man sieht etwa FPÖ-Chef Herbert Kickl oder Bundeskanzler Karl Nehammer sprechen. Die Aussagen sind erfunden: Mittels Künstlicher Intelligenz werden ihnen Worte in den Mund gelegt, eine zusätzliche Software passt die Lippenbewegung an.

Kickl sagt scheinbar in einem ZiB 2-Interview: "Schauen Sie: Ich plane schon seit Jahren einen Only-Fans-Account für meine Feet-Pics. Mit dem Geld können wir dann den ORF kaufen und zum Volksempfänger machen, und Sie, Herr Wolf, werden dann mit dem kleinen Ahmet im nächsten Flieger nach Ruanda abgeschoben (…)" Das ist natürlich Satire, Nehammer spricht zum Beispiel im KI-Video über die Legalisierung von Marihuana.

Besonders bei Kickl gelang es der Software, die Stimme des FPÖlers gut nachzumachen. Ich habe die Person hinter dem Account der.bundeswappler kontaktiert und gefragt, wie sie das ethisch sieht. Sie möchte anonym bleiben und schrieb: "Ich markiere meine Videos derzeit mit 'KI-Satire', zusätzlich markiert Instagram meine Videos auch als 'mit KI erstellt'. Ob Wahlkampf oder nicht, ich sehe mit Einbeziehung dieser Maßnahmen weniger ein Problem als den Spaß im Vordergrund. Denn darum geht es mir: den Menschen, die meine Videos sehen, trotz ihres vielleicht schweren Alltags ein Lächeln zu entlocken, und das halte ich ethisch für vertretbar."

Einfach erstellt

Diese Fake-Videos sind albern, aber die Technologie dahinter ist ernst zu nehmen. Offensichtlich können Dritte relativ einfach Fake-Videos von politischem Spitzenpersonal erstellen. Ich habe selbst getestet, wie leicht es ist, die eigene Stimme zu klonen: Beliebt ist das Tool Eleven Labs. Um rund zwölf Euro habe ich ein Monatsabo gekauft. Man lädt ein paar Mitschnitte von sich hoch, muss auch live einen Text vorlesen, um sicherzustellen, dass die Person, deren Stimme geklont wird, dem Prozess zustimmt. In zwei Stunden war der Klon meiner Stimme erstellt: Man kann einen Text eintippen, und die KI liest ihn vor. Das funktioniert gut. Wüsste ich es nicht besser, würde ich diese Audiodateien für alte Mitschnitte von mir halten.

Brodnig klont Brodnig – ein mit KI erzeugter Audiomitschnitt.

Die Person hinter der.bundeswappler erzählte mir, sie sah ähnliche KI-Fakes aus den USA und Deutschland und ließ sich davon inspirieren. Sie nutze mehrere Tools, konkret Eleven Labs, Sieve und Sync Labs. Nicht alle ihrer Videos sind gleich überzeugend, etwa wirkt die Stimme Kickls echter als jene von Nehammer, der abgehackt klingt. Aber stellen Sie sich vor, was man mit derartiger Technologie anrichten kann, wenn man sie nicht als Gag, sondern böswillig einsetzt.

Die Möglichkeiten der Meinungsmache mit erfundenen Audiodateien sind umfassend: Über den Chef der britischen Labour Partei, Keir Starmer, wurde ein wohl gefälschter Audiomitschnitt verbreitet, der ihn unsympathisch darstellte. In der Slowakei kursierte kurz vor dem Wahltag eine Fake-KI-Tonaufnahme, die Angst vor Wahlmanipulation schürte. Wir wissen nicht, ob so ein bösartiger Einsatz von gefälschten Stimmen auch im österreichischen Wahlkampf stattfinden wird. Aber je mehr Erfahrungen ich habe, wie gut manch ein KI-Tool funktioniert, desto besorgter bin ich. Denn manch ein Fake ist durch pures Zuhören erkennbar – aber längst nicht jeder. (Ingrid Brodnig, 20.6.2024)