In einem offenen Brief warnen KI-Forscher vor den möglichen Risiken Künstlicher Intelligenz und fehlender Transparenz in der Branche. Das Schreiben wurde von elf aktuellen und ehemaligen OpenAI-Mitarbeitern unterzeichnet. Dazu gesellen sich ein Angestellter von Deepmind sowie ein ehemaliger Mitarbeiter der KI-Abteilung von Google. Man pocht auf ein "Recht auf Warnung". Unterstützt wird die Botschaft von Geoffrey Hinton, Yoshua Bengio und Stuart Russell, drei Koryphäen der IT- und KI-Forschung.

Gewarnt wird vor Gefahren, die ohnehin schon länger öffentlich diskutiert werden. Die Verfasser nennen etwa die Verschärfung bereits existierender Ungleichheiten sowie Manipulation und Desinformation. Erwähnt wird aber auch ein – in fernerer Zukunft – möglicher Kontrollverlust eines autonomen KI-Systems, der potenziell das Ende der Menschheit herbeiführen könnte. Man betont aber auch, dass sich all diese Gefährdungsfaktoren "adäquat entschärfen lassen", wenn man Wissenschaft, Politik und Öffentlichkeit einbeziehe.

Mangel an Aufsicht

Allerdings, so der Brief weiter, hätten KI-Firmen eine starke finanzielle Motivation, um sich effektiver Aufsicht zu entziehen. Die aktuellen Strukturen in den Führungen der Unternehmen seien nicht dazu geeignet, daran etwas zu ändern. Die Unternehmen verfügen über nichtöffentliche Informationen über die Fähigkeiten und Einschränkungen ihrer Systeme wie auch darüber, wie brauchbar ihre Schutzmaßnahmen sind und welche Risiken im Hinblick auf verschiedene Gefährdungsszenarien bestehen. Es gebe aber kaum Verpflichtungen, diese Informationen mit Regierungen zu teilen, und gegenüber der Zivilgesellschaft basiere jegliche Transparenz überhaupt allein auf Freiwilligkeit, auf die man sich aber nicht verlassen könne.

OpenAI-Chef Sam Altman und seine Amtskollegen bei anderen KI-Firmen werden aufgerufen, Whistleblower besser zu schützen.
AFP/JASON REDMOND

Solange es an staatlicher Beaufsichtigung mangelt, gehören also derzeitige und ehemalige Mitarbeiter zu jenem kleinen Personenkreis, der die Unternehmen in die Verantwortung nehmen kann. Umfassende Verschwiegenheitsvereinbarungen verhindern jedoch, dass man auf Missstände aufmerksam macht, außer gegenüber den Firmen, die sie zu verantworten haben. Bestehende Schutzmaßnahmen für Whistleblower seien hier nicht ausreichend, da es bei diesen um die Meldung illegaler Vorgänge gehe, während hier viele Probleme angesprochen werden, für die es noch keine gesetzliche Regulierung gibt. Wer dennoch an die Öffentlichkeit geht, müsse sich vor Vergeltungsmaßnahmen fürchten.

Mitarbeiter gegen Knebelvereinbarungen

Die Verfasser richten einen Aufruf an die KI-Unternehmen. Diese sollten ihren Mitarbeitern keine Verpflichtungen auferlegen, die die Äußerung von Kritik in Bezug auf KI-Risiken verbieten. Bereits bestehende Vereinbarungen dieser Art sollten nicht durchgesetzt werden. Dazu sollten Möglichkeiten geschaffen werden, dass Mitarbeiter anonym Bedenken an den Aufsichtsrat, Regulatoren und eine unabhängige Organisation mit fachlicher Expertise übermitteln können – freilich unter Berücksichtigung von Betriebsgeheimnissen und geistigem Eigentum.

Man fordert weiters eine Unternehmenskultur, die offene Kritik fördert und auch die öffentliche Thematisierung von Bedenken erlaubt. Außerdem sollen sich die Unternehmen dazu verpflichten, keine Vergeltungsmaßnahmen gegen Mitarbeiter zu setzen, die ihre Bedenken an die Öffentlichkeit tragen, wenn sie intern auf taube Ohren stoßen.

Microsoft soll Sicherheitsprotokolle ignoriert haben

Beispiele für fragwürdige Vorgänge gibt es. So berichtet etwa Daniel Kokotajlo, vormals bei OpenAI, dass Microsoft 2022 in Indien mit dem Test einer neuen Version seiner Bing-Suche begann, die nach Einschätzung mancher Kollegen mit einer frühen Version des KI-Modells GPT-4 ausgestattet war. Entgegen den gemeinsam mit OpenAI etablierten Sicherheitsprotokollen habe dieser Testlauf begonnen, ohne dass dafür die Einwilligung des gemeinsamen Deployment Safety Board eingeholt worden sei. Das Gremium erfuhr erst dank Berichten über plötzlich seltsames Verhalten von Bing von der Änderung, unternahm aber auch nichts, als Microsoft den Probelauf ausweitete. Microsoft bestreitet diese Darstellung gegenüber der New York Times und erklärt, dass man erst Anfang 2023 das erste Mal GPT-4 verwendet und den Einsatz ordnungsgemäß habe absegnen lassen.

Kokotajlo wandte sich schließlich an OpenAI-Chef Sam Altman und schlug vor, einen größeren Fokus auf Sicherheit zu legen. Dieser habe Zustimmung signalisiert, aber auch keine Maßnahmen gesetzt. Als Kokotajlo schließlich im April 2023 seine Kündigung einreichte, erklärte er gegenüber seinem Team, dass er nicht mehr darauf vertraue, dass OpenAI die KI-Entwicklung mit angemessenem Verantwortungsbewusstsein vorantreibe. Er verweigerte die Unterzeichnung einer Klausel, die es ihm verboten hätte, nach seinem Abschied öffentlich negativ über OpenAI zu sprechen. Das, so sagt er, hätte ihn seinen Anteil am Unternehmenskapital kosten können.

Das Bekanntwerden besagter Vereinbarung ließ auch intern die Wogen hochgehen. CEO Altman gab an, von dieser Praxis nicht gewusst zu haben, und kündigte an, die Klausel zu streichen und andere ehemalige Mitarbeiter von ihr zu entbinden. Man habe bislang auch noch nie das veranlagte Eigenkapital ehemaliger Mitarbeiter einbehalten.

OpenAI verwies in einer Stellungnahme darauf, dass man die "fähigsten und sichersten KI-Systeme" entwickle und vom eigenen "wissenschaftlichen Weg, mit Risiken umzugehen", überzeugt sei. Aufgrund der Bedeutung der Technologie sei es wichtig, Debatten zu führen. Man betreibe intern eine anonyme Integritätshotline und habe auch ein Sicherheitskomitee, das mit Experten aus dem Unternehmen und Aufsichtsratsmitgliedern besetzt sei. Dazu hat man kürzlich einen Ausschuss für Sicherheitsfragen gebildet. Seitens Google Deepmind gibt es bislang noch keinen Kommentar zum offenen Brief der KI-Forscher. (gpi, 5.6.2024)