Die Bilder der Kinder sind mit sensiblen Daten versehen und können weiterverwendet werden (Symbolbild).
IMAGO

In einem Report von Human Rights Watch vom Montag wird berichtet, dass die privaten Fotos von brasilianischen Kindern genutzt werden, um leistungsstarke KI-Systeme zu trainieren. Dies geschieht ohne deren Wissen oder gar deren Einwilligung. Die Fotos werden aus weiten Teilen des Internets abgeschöpft und in einen großen, in Deutschland verwalteten Datensatz namens Laion-5B eingespeist. Dieser wird zum Training von KI-Systemen großer Unternehmen verwendet. Dieselben Programme werden jedoch auch von Personen mit bösartigen Absichten genutzt, etwa um Deepfakes zu erstellen.

Das von Human Rights Watch untersuchte Sample beinhaltete 170 Fotos von Kindern aus zehn brasilianischen Bundesstaaten. Sie umfassten die gesamte Kindheit der Abgebildeten: Es ist die Rede von intimen Momenten wie Geburten, leicht bekleideten Tanzszenen oder jährlichem Kerzenauspusten. Vermutlich handelt es sich hier nur um einen Bruchteil der Gesamtmenge, da Human Rights Watch lediglich 0,0001 Prozent der 5,85 Milliarden Datensätze untersucht hat. Diese beinhalten neben den Fotos selbst auch Bildunterschriften, aus denen oftmals die Identität der Kinder nachvollziehbar ist. Dort oder in den dazugehörigen URLs lassen sich sowohl ihre Namen einsehen als auch wann und wo das Foto aufgenommen wurde.

Manipulation und Missbrauch

Hye Jung Han, Forscherin für Kinderrechte und Technologie bei Human Rights Watch, sieht hier einen doppelten Schaden: Zum einen ist die Privatsphäre der Kinder verletzt, wenn die Fotos in derartige Datensätze übernommen werden. Zum anderen werden die KI-Systeme auf diese Daten trainiert und können dementsprechend realistische Fotos von den Kindern erstellen. "Die Technologie ist so entwickelt, dass jedes Kind, von dem irgendein Foto oder Video im Internet steht, jetzt in Gefahr ist, weil jeder böswillige Akteur dieses Foto nehmen und dann die entsprechenden Werkzeuge verwenden könnte, um es nach Belieben zu manipulieren", fürchtet die Forscherin, die die Fotos heraussuchte.

Es ist also die Grundlage dafür geschaffen, die Abbilder der brasilianischen Kinder so zu manipulieren, dass sie Dinge sagen oder tun, die sie nie gesagt oder getan haben. Dies schließt auch sexuelles Bildmaterial ein. Grundlage hierfür können sowohl ursprünglich unverfängliche Fotos als auch Abbildungen von Betroffenen von tatsächlichem sexuellem Missbrauch sein. So fanden Forschende der Stanford University im Dezember heraus, dass auch die von Laion-5B erhobenen Datensätze 3226 derartige Inhalte umfassen. In Brasilien selbst berichteten 85 Mädchen über Belästigungen durch ihre Klassenkameraden, welche auf der Basis von Fotos, die sie selber auf Social Media gepostet haben, sexuelle Deepfakes erstellt und diese online verbreitet hatten.

Aber auch anderweitige sensible Informationen können veröffentlicht oder gefälscht werden. Neben den angesprochenen Hinweisen auf den Aufenthaltsort können das auch medizinische Daten sein. So fand im Jahr 2022 eine in den USA lebende Künstlerin ein Bild von sich selbst im Laion-Datensatz. Bei einer eingehenderen Untersuchung stellte sie fest, dass es ihrer privaten Krankenakte entstammte, die ihr Arzt 2013 bearbeitet hatte. Es war nur zum Gebrauch innerhalb ihrer laufenden Behandlung autorisiert worden.

Umstrittene Verantwortlichkeiten

Grundsätzlich können nur Fotos in die Systeme eingespeist werden, die bereits online gestellt wurden. Gerade in Bezug auf Kinder und ihre Rechte besteht hier eine Verantwortung aufseiten der Erziehungsberechtigten. So berief sich die deutsche Organisation Laion darauf, dass die Entfernung von privaten Kinderfotos aus dem Internet der effektivste Weg sei, um sich gegen Missbrauch zu schützen. Auch eine deutsche Kampagne nutzte im letzten Jahr ein KI-generiertes Deepfake, um Eltern davor zu warnen, Fotos ihrer Zöglinge ins Netz zu stellen.

Dies wirkt sich jedoch nicht auf die Fotos aus, die bereits online gestellt worden sind. So reichte auch das Entstehungsdatum der Fotografien der brasilianischen Kinder bis in die Neunzigerjahre zurück, also lange bevor man einen Missbrauch durch KI hätte erwarten können. Hye Jung Han weist außerdem darauf hin, dass die Bilder in einem Kontext hochgeladen wurden, in dem ein gewisses Maß an Privatsphäre erwartet und auch gewährleistet wurde. Die Inhalte stammten von Mommyblogs oder Youtube-Videos, die mutmaßlich zum Teilen mit dem privaten Umfeld gedacht waren. So konnten die meisten von ihnen etwa durch eine umgekehrte Bildersuche nicht gefunden werden.

Die Verantwortung sieht die Wissenschafterin hier nicht bei den Eltern, sondern bei der Regierung und bei Regulierungsbehörden. Datenschutzgesetze sollten durch die Verabschiedung zusätzlicher, umfassender Maßnahmen für den Schutz von Kindern verstärkt werden. Die brasilianische Legislatur diskutiert dies bereits, und auch in anderen Ländern gibt es derartige Initiativen. Ein Sprecher von Laion-5B versicherte, dass alle zugänglichen Versionen vom Netz genommen wurden und erst dann wieder verfügbar sein werden, wenn alle gekennzeichneten illegalen Inhalte entfernt wurden. (hlk, 12.6.2024)