Gefälschte Rachepornos: Deepfakes werden ein richtiges Problem

    Video31. Jänner 2018, 09:21
    437 Postings

    Deepfakes sind täuschend echt gefälschte Videos. Was bedeutet eine solche Entwicklung?

    Fake-News, gezielte Falschmeldungen, sind spätestens seit Donald Trumps Sieg bei der US-Präsidentenwahl im Visier von Medien und Politik – auch in Österreich. Obwohl ihnen immer wieder ein weitreichender Einfluss zugesprochen wird, reicht oft eine einfache Google-Suche, um die Behauptungen zu widerlegen.

    Deepfakes

    Zuletzt erlangten sogenannte Deepfakes, benannt nach dem Usernamen ihres Erfinders, mediale Aufmerksamkeit. Dabei handelt es sich um Bilder, die mithilfe künstlicher Intelligenz erstellt wurden und es erlauben, das Gesicht einer Person in einem Video anhand existierender Fotos mit einem anderen auszutauschen. Nachdem ein vereinfachtes Tool erstellt worden war, das auch Personen ohne umfassende Programmierkenntnisse die Erstellung von Deepfakes erlaubt, entstand ein Hype um die gefälschten Videos. Zu Beginn wurden Promi-Pornografie und Hitler-Parodien erstellt, später berichtete "Vice" von Fällen, bei denen etwa gefälschte Rachepornos erstellt wurden. Dafür wurden die Bilder einer betroffenen Person von ihren Social-Media-Profilen heruntergeladen.

    Beispiel eines Deepfake-Videos: Amy Adams wurde mit Nicolas Cage ausgetauscht (Credits: gfycat).

    Fotografie und Fake-News

    Was also, wenn Fake-News aufhören, primär in Textform erstellt zu werden, und stattdessen als gefälschte Fotos verbreitet werden? "Vor allem Fotografie hat oder hatte lange einen Wahrheitsanspruch, weil wir in unserem Alltag davon ausgehen und historisch gelernt haben, dass sie etwas zeigen, was irgendwo irgendwann einmal war", erklärt Maria Schreiber, Kommunikationswissenschafterin und Forscherin im Bereich Visuelle Soziologie an der Uni Wien, auf Anfrage des STANDARD.

    Übermittler im Mittelpunkt

    potatokaboom
    Ein Deepfake-Beispiel, bei dem Angela Merkel mit Donald Trump ausgetauscht wurde.

    Allerdings hätten sich die Mittel zur Manipulation von Fotografie seit der Digitalisierung demokratisiert – ein Instagram-Filter etwa sei auch schon eine Manipulation. Dementsprechend existiere auch der Fotografie gegenüber eine Skepsis – es gehe nicht darum, ob ein Bild echt ist oder nicht, sondern darum, wie glaubwürdig der Übermittler ist.

    "Manche glauben Webseiten wie 'Breitbart‘, andere nur dem 'Guardian'. Manche glauben alles, was die beste Freundin auf Facebook postet, aber das Foto vom Ex-Freund auf Instagram ist total bearbeitet", sagt Schreiber. Dementsprechend sei es gerade aufgrund solcher Entwicklungen wichtig, einerseits Wissen darüber zu verbreiten, was technisch möglich ist, andererseits aber auch, medienkritisches Verhalten zu erlernen. Institutionen wie der Journalismus seien notwendig, um die Echtheit von Dokumenten zu überprüfen und zu recherchieren.

    Gesetzeslage

    Opfer eines Deepfake-Rachepornos haben es in Österreich schwer, juristisch dagegen vorzugehen. Wie Richter Franz Schmidbauer vom Landesgericht Salzburg dem STANDARD erklärt, könne man sich sich klar gegen Rachepornos im Allgemeinen und Deepfakes wehren: "Es kommt darauf an, in welchen Zusammenhang eine Person – hier identifizierbar durch das Gesicht – gebracht wird. Ob der Körper echt ist oder von einer anderen Person übertragen oder überhaupt künstlich eingefügt wird, ist egal."

    Das Hauptproblem sei aber, dass es keine Strafbestimmung dazu gibt. Zwar könnte man auf Ehrenbeleidigung klagen, jedoch müsse man selbst als Ankläger auftreten. "Es erfordert eine zivilrechtliche Unterlassungsklage bei Gericht. Das heißt, man braucht einen Anwalt, man muss die Kosten vorstrecken, und man weiß nie, ob man später diese Kosten je beim Täter einbringlich machen kann", so Schmidbauer.

    Täter muss identifiziert werden

    Voraussetzung ist ebenfalls, dass der Täter identifizierbar ist – den auszuforschen sei mühsam und gelinge oft auch nicht. "Gäbe es eine Strafbestimmung, müsste man nur eine – kostenfreie – Anzeige bei der Polizei machen. Dann müsste der Täter auf Staatskosten ausgeforscht und zur Verantwortung gezogen werden", erklärt Schmidbauer.

    Ein weiteres Problem ist der Zeitfaktor. Solange der Täter noch ausgeforscht wird und keine Klage eingebracht wurde, kann die Entfernung der Inhalte auch nicht forciert werden. Selbst wenn es zu einer einstweiligen Verfügung kommt, bleiben die Rachepornos im Netz und können weiterverbreitet werden. Aus diesem Grund empfiehlt Schmidbauer, sich auch direkt bei der Plattform zu melden und diese um eine Löschung zu bitten. Aus rechtlicher Sicht ist sie auch dazu verpflichtet, dem Wunsch nachzukommen. "Allerdings kann es auch hier zu größeren Schwierigkeiten kommen, etwa wenn der Provider in der Ukraine sitzt", sagt Schmidbauer.

    adobe creative cloud

    Ausblick

    Täuschend echte Fakes lassen sich nicht nur auf visueller Basis erstellen. Adobe zeigte vor etwa einem Jahr bereits Voco – ein Tool, das es erlaubt, Stimmen realitätsnah nachzuahmen. Adobe-Mitarbeiter Zeyu Jin versprach, dass das Unternehmen beim Weiterentwickeln der Software ebenfalls danach geforscht habe, wie die unechten Aufnahmen erkannt werden können.

    Durch den aktuellen Hype um digitale Sprachassistenten entwickeln sich künstliche Stimmen immer rasanter weiter, um einen natürlicheren Umgang zwischen Mensch und Maschine zu ermöglichen. Ein Programm, das Stimmen so realistisch wiedergeben kann und öffentlich zugänglich ist, gibt es allerdings noch nicht. (Muzayen Al-Youssef, 31.1.2018)

    • Beispiel eines Deepfake-Pornovideos, hier mit der "Wonder Woman"-Schauspielerin Gal Gadot.
      foto: screenshot:pornhub/webstandard

      Beispiel eines Deepfake-Pornovideos, hier mit der "Wonder Woman"-Schauspielerin Gal Gadot.

    Share if you care.