OpenAI-CEO Sam Altman muss sich aktuell vor Gericht zu den Vorwürfen äußern.
ELIZABETH FRANTZ

OpenAI habe "große Mengen an persönlichen Daten" gestohlen, um ChatGPT zu trainieren. Das ist der verfasste und am Mittwoch bei einem kalifornischen Gericht vorgetragene Grund für eine Klage gegen die Firma von Sam Altman. Speziell die Sammlung von medizinischen Daten und Informationen von Kindern wiegen vor Gericht schwer.

Digitaler Fußabdruck

"Trotz etablierter Gesetze, was den Kauf und die Nutzung persönlicher Daten angeht, hat der Angeklagte einen anderen Ansatz gewählt: Diebstahl!" So direkt formulierten Anwälte den Vorwurf in der 157-seitigen Anklageschrift. Unglaubliche Datenmengen seien auch von Social-Media-Profilen gesammelt worden, von Reddit-Posts und sämtlichen Websites, auf die in diesen Postings verlinkt wurde.

In diesen Daten seien "private Informationen und private Unterhaltungen" enthalten sowie "medizinische Daten und Informationen über Kinder". All diese Daten seien ohne die Zustimmung oder das Wissen der Betroffenen in die Software von OpenAI eingespeist worden, so der formulierte Vorwurf. Das habe zu einem illegalen Diebstahl geführt, der Millionen von Amerikanern trifft, die nicht einmal KI-Tools nutzen.

OpenAI hätte keine Skrupel, den "digitalen Fußabdruck" der Menschen zu speichern. So würde die Software auch Daten von ChatGPT-Nutzerinnen speichern, genau wie jene von Nutzern, die Software in Anwendung haben, die ChatGPT integriert haben. Hier genannt wurden Programme wie Snapchat, Spotify oder Microsoft Teams.

Gefahr für die Menschheit

Ziel der Klage ist, die kommerzielle Nutzung und Weiterentwicklung von OpenAI-Software einzufrieren, bis strengere Regulatoren eingeführt werden. Vor allem die Möglichkeit von Nutzerinnen und Nutzern, sich aus der Datensammlung privater Informationen mit einem "opt out" zu verabschieden, ist das erklärte Ziel der Anklage. Sogar eine finanzielle Entschädigung soll für von der Datensammlung Betroffene erreicht werden.

Die Klage gibt zu, dass KI-Plattformen unzweifelhaft das "Potenzial haben, Gutes zu tun", doch können sie genauso ein "katastrophales Risiko für die Menschheit" bedeuten. Das inkludiert die Gefahr, den Jobmarkt massiv zu beeinflussen oder Falschinformationen großflächig zu verteilen. 

"Mächtige Firmen, bewaffnet mit einer unvergleichlichen und hohen Konzentration an technologischen Möglichkeiten, haben ein unvorsichtiges Rennen begonnen, um möglichst rasch KI-Technologien zu veröffentlichen", ist in der Klage zu lesen. Die Risiken würden dabei aufgrund von "technologischem Fortschritt" hintangestellt werden.

Grenzen ziehen

Im März wurde ChatGPT bereits in Italien aufgrund von Sicherheitsbedenken verboten. In Firmen wie Microsoft oder Amazon wurden Mitarbeiterinnen dazu aufgefordert, den Chatbot nicht mit sensiblen Informationen zu füttern. Der südkoreanische Konzern Samsung hat die Nutzung von generativen KI-Tools generell für Mitarbeiter verboten. (aam, 30.6.2023)