Apple entfernte drei Nudify-Apps aus dem App Store. Wie die Programme dorthin gelangt sind, ist unklar.
IMAGO/Thomas Trutschel

Es ist offenbar ein lukratives Geschäft, so genannte Nudify-Apps zu entwickeln. Mit derartigen Programmen werden Bilder von Personen gemacht, nur um anschließend per Künstlicher Intelligenz ein Nacktfoto daraus zu generieren. Das Resultat ist freilich kein "echtes" Nacktfoto, denn eine Bild-KI kann schließlich keine Bildinformation sichtbar machen, die es nicht gibt, wie das bei von Kleidung verdeckter Haut auf einem Foto der Fall ist.

Aber die KI kann ein einigermaßen überzeugendes Resultat liefern, wie eine Person unter der Kleidung aussehen könnte. Dass mit derartige Apps meist ungefragt Fotos generiert, muss wohl nicht extra dazu gesagt werden. Jetzt gehen Apple und Google einem Bericht von 404 Media zufolge gegen solche Software vor.

Insgesamt wurden drei derartiger Apps entfernt, nachdem die Journalistinnen und Journalisten des Nachrichtenportals konkrete Links zu den Programmen im App Store an Apple geschickt hat. Wie derartige Apps im für seine strengen Regeln bekannten App Store von Apple landen konnten, bleibt jedoch ein Rätsel. Ebenso ist laut dem Bericht unklar, warum Apple die besagten Apps selbst nicht auffinden konnte und auf die Hilfe der Mitarbeiterinnen und Mitarbeiter des Tech-News-Portals angewiesen war.

Derartige Apps sind nicht nur moralisch fragwürdig, sie verstoßen auch gegen mehrere Klauseln in den Nutzungsbedingungen der App Stores. Diese verbieten etwa Falschinformation, offensichtlich sexuelles Material und diskriminierende Inhalte, wie Heise.de berichtet.

Ein Millionengeschäft

Ganz neu sind derartige Apps nicht, Nude-Scanner-Apps sind seit der Erfindung des Smartphones im Umlauf. Mit der fortschreitenden Entwicklung generativer KI werden die Bilder aber immer überzeugender und sind nicht eindeutig als Fake erkennbar. Das Geschäft mit derartigen Diensten erreichte aber jüngst seinen Höhepunkt. Laut einem Bericht von Graphika erreichte der Traffic auf sogenannten Nudify-Diensten im September des Vorjahres seinen Höhepunkt. Das Unternehmen analysiert soziale Netzwerke und verzeichnete 24 Millionen Besucher bei Nackt-Apps von insgesamt 34 Anbietern.

Die meisten Software wird zwar als kostenlos beworben, ist aber einmal das Gratis-Kontingent aufgebraucht, wird man als Userin oder User zur Kasse gebeten. Beworben werden die Nudify-Dienste in den sozialen Netzwerken. Vor allem Meta stand kürzlich in der Kritik, weil das Unternehmen auf Instagram im großen Stil Werbung für Auszieh-Apps an ein jugendliches Publikum ausspielte.

Eine der Anzeigen zeigte ein Foto von Kim Kardashian neben den Worten "Ziehe jedes Mädchen kostenlos aus". Eine andere Anzeige stellte zwei KI-generierte Fotos eines jungen Mädchens nebeneinander. Auf dem einen trug es eine langärmlige Bluse, auf dem anderen schien nackt zu sein, wobei die Worte "Any clothing delete" über die Brüste gelegt wurden.

Mobbing und Erpressung

Derartige Nacktbilder werden für Mobbing und Epressung genutzt. So komme es immer häufiger vor, dass Erpresser an sich harmlose Bilder von ihren Opfern von Social Media in die KI-Apps laden und so explizite Bilder erstellen. Anschließend wird das Opfer mit den Nacktbildern erpresst und zu Zahlungen aufgefordert. Andernfalls würde man das Bildmaterial an Freunde und Familie schicken. Oft verlangen die Täter dann echte Nacktfotos von den meist jugendlichen Opfern, um sie weiter erpressen zu können, wie das FBI warnt.

Andere versuchen ein Geschäft mit den Nacktbildern zu machen. So soll es bereits an Schulen in Washington und in Spanien zu Fällen gekommen sein, bei denen versucht wurde, gefälschte Nacktbilder von Schülerinnen zu verkaufen.

Dass Apple und Google nun reagieren ist zwar löblich, auch wenn das Eingreifen reichlich spät erfolgt, wird am Grundproblem aber nicht allzu viel ändern. Viele der Nudify-Anwendungen sind auch als gewöhnliche Webservices erreichbar und müssen damit nicht in Appstores hochgeladen werden. (pez, 1.5.2024)