Instagram hat noch immer mit Problemen zu kämpfen, die sie offiziell seit Jahren bekämpfen.
REUTERS/Dado Ruvic

Ein kurzer Schwenk über die Genitalien. Aufrufe zum Senden von Nacktbildern. Über einen Zeitraum von sieben Monaten hat ein Rechercheteam des Wall Street Journal (WSJ) gemeinsam mit Forschern mehrere Accounts auf Instagram angelegt und das Nutzerinnen-Alter in der App auf 13 gesetzt. Die Accounts wurden dann beobachtet und analysiert.

Das Ergebnis zeigt, dass entgegen den Aussagen der Mutterfirma Meta noch immer sexuelle Inhalte an Minderjährige ausgespielt werden. Der Algorithmus erkennt offenbar bereits nach wenigen Minuten, ob man Interesse an "gewagten Inhalten" hat, und liefert dann eben jene sexuell aufgeladenen Inhalte – und das, obwohl das US-Unternehmen seit Jahren Besserung gelobt.

Anfang des Jahres ließ Meta wissen, dass man Teenagern "altersgerechte Inhalte" ausspielen möchte. Neue Filter sollten sensible Inhalte und sexuelles Material unsichtbar für diese Zielgruppe machen. So zumindest das Versprechen. Die neuen Beobachtungen sprechen jedoch eine andere Sprache.

Instagram bot laut der Forscherin Laura Edelson, ihrerseits Professorin an der Northeastern University, eine Mischung aus Videos an, die von Anfang an gemäßigte Inhalte aufwiesen. Frauen tanzten verführerisch und posierten gezielt so, dass ihre Brüste betont wurden. Jene Accounts, die länger auf diesen Inhalten verweilten oder diese sogar zu Ende schauten, bekamen innerhalb kürzester Zeit wesentlich explizitere Inhalte angezeigt.

Explizite Inhalte nach 20 Minuten

Tatsächlich tauchten im weiteren Verlauf Creator in der App auf, die sich auf sexuelle Inhalte fokussiert haben. Schon nach 20 Minuten wurden die betroffenen Accounts verstärkt von solchen Inhalten bespielt und wurden zudem Ziel von Werbeanzeigen, die zum Versenden von Nacktbildern aufriefen.

Zur Überraschung der Forschenden lieferten weder Snapchat noch Tiktok ähnliche Ergebnisse für neuangelegte Accounts von Minderjährigen. "Sogar das Erwachsenenerlebnis auf Tiktok scheint viel weniger explizite Inhalte zu haben als das Teenagererlebnis auf Instagram-Reels", zeigt sich Edelson erstaunt.

Auf Anfrage des WSJ kommentierte Meta die Ergebnisse und tat diese als "nicht repräsentativ" ab. "Dies war ein künstliches Setup, das nicht der Realität entspricht, wie Teenager Instagram nutzen", sagte Sprecher Andy Stone gegenüber der Zeitung. Man habe in den vergangenen Monaten sehr erfolgreich die Zahl der sensiblen Inhalte reduziert, die Teenager ausgespielt bekommen würden.

Die Testphase lag zwischen Jänner und April 2024. Eine Stichprobe im Juni ergab jedoch ebenso ein anderes Bild. Hier soll ein neuangelegter Account eines angeblichen 13-Jährigen bereits nach einer halben Stunde Videos von einer Frau ausgespielt bekommen haben, die fast ausschließlich über Analsex spricht.

Interne Tests

Immer wieder tauchten in den letzten Jahren interne Dokumente von Meta auf, in denen offenbar Mitarbeiterinnen ähnliche Probleme an die Führungsetage kommunizierten. Vor allem im Jahr 2021 sorgte ein Leak solcher Dokumente für Aufsehen, nachdem er von ähnlichen Ergebnissen wie jenen von Edelson berichtete. Auch 2022 deckte ein Bericht des WSJ auf, dass sich Meta offenbar sehr wohl darüber bewusst sein musste, dass junge Nutzerinnen und Nutzer mehr Gewalt, Pornografie und Hassrede ausgespielt bekommen als Erwachsene. Inhalte, die laut Plattformregeln eigentlich verboten sind.

Als einzigen Ausweg aus dieser Misere wurde intern offenbar über die Notwendigkeit eines eigenen Vorschlagssystems für Jugendliche diskutiert, das aber offenbar nie durchgewinkt wurde. Und das, obwohl wichtige Menschen im Unternehmen, darunter auch Instagram-Chef Adam Mosseri, sich intern mehrfach besorgt über diese Entwicklung geäußert haben sollen.

Schutz nötig

Während bei den großen Tech-Unternehmen offenbar keine Eile herrscht, hier für Kinderschutz einzutreten, ergreifen Regierungen mittlerweile Eigeninitiative. Während in manchen europäischen Ländern über eine Altersbeschränkung von 16 Jahren für die Nutzung von Social Media diskutiert wird, unterzeichnete die Gouverneurin von New York, Kathy Hochul, diese Woche ein Gesetz, das es Eltern erlaubt, ihre Kinder vor Postings abzuschirmen, die ihnen vom Algorithmus einer Onlineplattform vorgeschlagen werden.

Laut dem Gesetz sollen Feeds bei Apps wie Tiktok oder Instagram für Minderjährige auf Konten beschränkt sein, denen sie auch folgen. Automatisch eingeblendete Zusatzinhalte sollen junge Menschen unter 18 Jahren nicht länger zu sehen bekommen. Einschlägige Plattformen sollen Minderjährigen zudem zwischen Mitternacht und sechs Uhr keine Mitteilungen über andere Posts mehr schicken können.

Der Knackpunkt bei all diesen Regelungen ist allerdings, dass bei Zustimmung der Eltern jegliche Gesetzestexte nicht mehr greifen. Somit liegt der entscheidende Ball dann doch wieder bei Meta und Co. Gut, dass zumindest ein kleiner Schimmer Hoffnung bleibt. Laut einigen Mitarbeitern soll etwa Meta seine Investitionen in die Kindersicherheitsarbeit nach Jahren knapper Budgets, verstärkter Prüfung seiner Bemühungen durch Regierungsbeamte und Empfehlungen seiner Rechtsabteilung tatsächlich ausgeweitet haben. Vielleicht ist der Kampf um passende Inhalte für Teenager doch noch nicht verloren. (aam, 21.6.2024)