Das Bild zeigt, wie ein Mann den AI-Schriftzug betrachtet
"Der AI Act behandelt ein KI-System, das von einem Kosmetikkonzern kommerziell genutzt wird, genauso wie eine KI mit denselben Risiken, die im Bildungsbereich eingesetzt wird", heißt es von den Forschenden
APA/AFP/Lago

Jüngst segnete das EU-Parlament die strengere Regulierung von Künstlicher Intelligenz (KI) ab. Der "AI Act" baut dabei auf einer Risikobewertung der Technologien auf. Das sieht die Wiener Politikwissenschafterin Barbara Prainsack kritisch. Man müsse KI-Technologien auch stärker entlang der Frage bewerten und fördern, was sie der Gesellschaft bringen können, sagte die Forscherin der Uni Wien gegenüber der APA: "Wir müssen anfangen, darüber zu reden, was gute Innovation ist."

Mit ihrem Kollegen von der Universität Wien, dem Rechtswissenschafter Nikolaus Forgó, hat sie im Fachmagazin "Nature Medicine" die wahrgenommenen Stärken und Schwächen des lange diskutierten und nun mit breiter, auch österreichischer Zustimmung im EU-Parlament am 13. März offiziell angenommenen Werkes dargelegt. Kern des "AI Act", ein umfassendes Regelwerk für KI, ist ein "risikobasierter Ansatz" mit definierten Risikostufen für KI-Systeme. Je höher das Risiko, desto strenger die Sicherheits- und Transparenzanforderungen. Die vier maßgeblichen Klassen reichen von inakzeptablem Risiko, etwa bei jenen KI-Systemen, die menschliches Verhalten manipulieren können, bis hin zu einem minimalen Risiko, wie etwa ein von der KI unterstütztes Computerprogramm zur Lösung eines medizinischen Forschungsproblems, wie Prainsack und Forgó in ihrem Artikel ausführen.

Risikoeinschätzung schwierig

Der Fokus nur auf Risikominimierung bringe "ernsthafte praktische und politische" Probleme mit sich, schreiben die Wiener Forschenden. Bei vielen KI-basierten Technologien sei es schwierig, so Prainsack, "vorab diese Risikoeinschätzung durchzuführen". Das sei auch der rasanten Entwicklung der Technologien geschuldet. "Die Risiken, die heute absehbar sind, sind morgen vielleicht schon andere." Zudem ergebe sich das Risiko auch immer aus dem Kontext - insbesondere bei sogenannten Allzwecktechnologien, wie text- oder bildgenerierender Software, die in allen Bereichen des Lebens Anwendung finden. "Das ist dann so wie beim sprichwörtlichen Taschenmesser: Es kann als Buttermesser dienen, aber letztlich auch als Tatwaffe. Wollen wir nun sagen, dass alle Messer wenig oder hochriskant sind?", so Prainsack, die mit Forgó die Forschungsplattform "Governance of Digital Practices" an der Uni Wien leitet.

Außerdem könnten durch das aktuelle Herangehen vor allem auch "die Kleinen", also ökonomisch schwächere Marktteilnehmer, nachteilig vom "AI Act" betroffen sein: Finanzkräftigen Großkonzernen stünden mehr Mittel zur Verfügung, im Fall des Falles das Geschäftsmodell anzupassen oder gegen eine hohe Risikoeinstufung juristisch vorzugehen. Weiters lasse der risikobasierte Ansatz außer Acht, so Prainsack, wie wichtig eine Technologie für die Öffentlichkeit ist.

"Datensolidarität" gefragt

Eine Alternative dazu böte der "datensolidarische Ansatz", der unter Prainsacks Leitung in Kooperation mit Wiener und internationalen Forschenden entwickelt wurde und auch nicht nur auf KI anwendbar ist. Im Rahmen von "Datensolidarität" versucht man etwa dort, wo die Datennutzung großen Wert für die Öffentlichkeit hat, sie zu erleichtern. Dort, wo es kaum Nutzen für die Allgemeinheit gibt, aber große Risiken für einzelne Personen oder ganze Gruppen, reguliert man strenger bzw. verbietet man sie. Und ein Teil der kommerziellen Profite, die mit persönlichen Daten erzielt werden, sollen wieder in die Gesellschaft zurückgeführt werden.

Konkret: "Der AI Act behandelt ein KI-System, das von einem Kosmetikkonzern kommerziell genutzt wird, genauso wie eine KI mit denselben Risiken, die im Bildungsbereich eingesetzt wird", so Prainsack. Es geht den Forschenden nicht darum, die Risikobewertung an sich zu kritisieren, sondern darum, auch den Nutzen einer Technologie für die Allgemeinheit in die Gesamtbewertung mit einzubeziehen. Ziel müsse es sein, "dass Datennutzung nur zu kommerziellen Zwecken strenger reguliert wird als gemeinnützige Anwendungen", ergänzte Forgó gegenüber der APA.

Vorschläge zur Messung von Nutzen

Um den öffentlichen Nutzen zu messen, gebe es auch schon Möglichkeiten - wie etwa ein ebenfalls von den Wiener Forschenden entwickeltes Online-Tool. Eine Regulierungsinstanz wie die EU habe die Aufgabe, nicht nur Risiken zu minimieren, sondern auch Innovation zu fördern, die den Menschen nutzt. Aber genau das passiere noch viel zu wenig.

"Verbessert werden könnte die Verordnung durch eine umfassende Bewertung der Risiken und auch der Vorteile der KI-Technologie, mehr öffentliche Investitionen und bessere demokratische Kontrolle", meinen die Forschenden. "Wir wollen mehr Förderung für Innovation, die vielen Menschen nutzt", sagte Prainsack.

Die EU-Kommission hatte im April 2021 den "AI Act" als Regelwerk für KI vorgeschlagen, im vergangenen Dezember kam es dann zur Einigung zwischen dem EU-Parlament und dem Europäischen Rat. Das Regelwerk muss nun, nach der erfolgreichen Zustimmung des EU-Parlaments, noch vom Rat formell genehmigt werden und tritt 20 Tage nach der Veröffentlichung im Amtsblatt in Kraft. Es geht Prainsack mit ihrem Vorstoß vor allem auch darum, "hier eine Grundsatzdiskussion anzustoßen" und die Vorteile von KI-Technologien für die Allgemeinheit mehr in den Blick zu nehmen. Man hofft zudem, dass dies auch bei der nationalstaatlichen Umsetzung des AI Act berücksichtigt wird: "Auch in Österreich könnte man Dinge nachjustieren und sich zum Beispiel dafür entscheiden, dass es öffentliche Förderungen für Technologieanwendungen gibt, die mehr öffentlichen Wert als andere beinhalten", so die Forscherin. (APA, 18.3.2024)