Medienwissenschafterin Marlis Prinzing.

Foto: privat

Die meisten Entscheider in Medienhäusern wollen 2018 vor allem in künstliche Intelligenz investieren: in Computer, die Nachrichten schreiben können, Kommentare beantworten, Nutzerdaten neu kombinieren und uns Newsfeeds nach unserem Geschmack servieren. Aber: Sie lassen uns oft im Glauben, hier seien Menschen, nicht "künstlich intelligente" Maschinen am Werk. Gerade Medienhäuser sollten solche Geheimniskrämerei abstellen, zudem offenlegen, was sie mit unseren Daten tun, und fragen, ob uns das recht ist.

Die Vorstellung vom Menschen als einer Maschine stammt aus dem Zeitalter der Aufklärung vor rund dreihundert Jahren und spiegelt sich wider im Begriff "künstliche Intelligenz" (KI). Es gibt zwei Formen: "Starke KI" will eine Maschine konstruieren, die sich wie ein Mensch verhält, ist aber trotz der "humanoiden Roboter" noch eine Vision. "Schwache KI" hingegen setzt dort an, wo Menschen an Grenzen stoßen, soll sie unterstützen, soll deshalb auch dazulernen können und immer besser mit Unsicherheiten und Entscheidungsspielräumen umgehen.

KI-Technik als Top-Innovationstreiber

Die Simulation intelligenten menschlichen Verhaltens mit Methoden der Informatik und der Mathematik wurde in den vergangenen Jahren so gewaltig weiterentwickelt, dass KI-Technik gegenwärtig als Top-Innovationstreiber gilt. Der Forscher Nic Newman hat für das Reuters-Institut der Universität Oxford die Prognosen von 194 Führungspersonen in Chefredaktionen, Management und Digitalressorts von Unternehmen aus 29 Ländern ausgewertet. 75 Prozent wollen KI-Technik einsetzen, um Inhalte wirtschaftlicher zu produzieren (etwa: automatisiert verfasste Nachrichten) und entlang von aus Nutzerdaten abgeleiteten Empfehlungen zu verteilen. Am Markt bestehe nur noch, wer Kundenbeziehungen systematisch ausbaue und etwa über App- und Abonnementregistrierung immer wieder neue Daten über Nutzer generiere, sammle und so verarbeite, dass er damit Geld verdiene – ähnlich wie Facebook & Co es vorgemacht haben. Die meisten Befragten sehen zudem Entwicklungspotenzial bei Podcasts und Inhalten für digitale Sprachassistenten.

Ob KI, Ohrhörer, die simultan übersetzen, oder Brillen, die auch hören und sprechen können – wenn von Neuerungen die Rede ist, dann meist nur von neuen Funktionen und Erleichterungen, aber nur wenig von den nötigen Fähigkeiten, um Neuerungen wirklich kundig zu nutzen, sowie von den Risiken, denen sich der Kunde aussetzt. Auch dies darf nicht quasi ein Geheimnis sein. Denn Sprachassistenten zum Beispiel können auch ein Abhörgerät sein, die dort gespeicherten Daten können mit Daten aus anderen Online-Diensten zu Nutzerprofilen für Marketing und Marktforschung verknüpft werden – und durch sie wird unsere Stimme und damit ein biometrisches Merkmal zugänglich. Solche Folgen muss man aber als Nutzer nicht selber herausfinden, das ist eine Bringschuld gerade auch der Medienhäuser, die diese Techniken einsetzen.

Transparenz ist Trumpf

KI eröffnet neue Wege für Leserinteraktion, Monetarisierung und Personalisierung von Newsfeeds, die nützlich sind. Und sie kann durchaus verantwortungsbewusst eingesetzt werden. Aber nur dann, wenn offengelegt wird, wie die Daten verwendet werden, wenn Redaktionen dafür Sorge tragen, dass sie nicht Echokammern schaffen, in die nur noch dem Nutzer angenehme Inhalte dringen, nicht aber das, was aufgeklärte, informierte Bürgerinnen und Bürger wissen sollten, und wenn deklariert wird, was mit KI-Technik gemacht ist. Transparenz ist Trumpf: Das Publikum muss erfahren (und notfalls auch einfordern), welche Art Werkstück ihm vorgesetzt wird: Ist ein Text selbstgemacht, von Bots hergestellt (also von Computerprogrammen, die automatisch sich wiederholende Aufgaben abarbeiten) oder von Algorithmen (also durch in Computerprogramme eingebundene Handlungsvorschriften, wie zum Beispiel die Aufgabe des Nachrichtenschreibens zu erfüllen ist).

Ob Fluch oder Segen entsteht, wenn Computer Aufgaben ausführen, die früher Menschen geleistet haben, hängt davon ab, ob Menschen das Heft in der Hand behalten oder es Maschinen überlassen. Und ob KI-Technik die journalistische Professionalität stärkt, hängt davon ab, ob Journalisten nur irgendwie "Knöpfchen drücken" oder sie verantwortungsbewusst und kundig nutzen.

Zwei amerikanische Institute, das Tow Centre for Digital Journalism und das Brown Institute for Media Innovation, haben Informatiker und Journalisten an einen Tisch geholt und auf beiden Seiten große Wissens- und Kommunikationslücken festgestellt. Nur wenn diese geschlossen werden, kann KI professionell eingesetzt werden. Programmierer und Journalisten müssen also miteinander reden (können) und das Handwerk der jeweils anderen sowie die damit verbundenen Risiken und Verantwortlichkeiten verstehen.

Wenn Algorithmen beim Kuratieren von Nachrichten redaktionelle Entscheidungen abbilden sollen, dann müssen Redakteure so viel von Informatik verstehen, dass sie Informatikern vermitteln können, woraus solche Entscheidungen zusammengesetzt sind. Und Informatiker wiederum müssen redaktionelle Werte begreifen, um auf dieser Grundlage wirklich passende Muster modellieren und Algorithmen so schreiben zu können, dass Redakteure sie auch verstehen. Studien belegen, dass maschinelle Tools nicht richtig neutral sind, sie arbeiten mit Verknüpfungen, und man sollte sie nicht vermenschlichen, sondern als das betrachten, was sie sind: Modelle für Chats oder News. Wer sie einsetzt, muss genau wissen, wie sie funktionieren. An KI-Tools wie Chatbots und Kommentarsysteme könnten Techniker und Journalisten zudem erste gemeinsame Handlungsleitlinien anknüpfen, die journalistische Werte und redaktionelle Standards mit neuen Techniken verbinden.

Schutzfaktor nötig

Forscher aus München und Zürich haben ausgewählte Journalisten zunächst in Automatisierungstechniken geschult, sie dann zu Chancen und Grenzen dieser Technik befragt und hauptsächlich drei Antworten erhalten: Solche Technik spare Zeit, reduziere menschliche Fehler, aber auch die Wahrscheinlichkeit, dass Informationen noch verifiziert werden. Wenn hier nicht ein Schutzfaktor eingebaut oder ins Programm hineingeschrieben wird, wächst das Dauerproblem der Online-Desinformation noch weiter.

Dabei gehört das Eindämmen von Fake-News trotz guter Factchecking-Initiativen bereits jetzt zu den noch immer weitgehend ungelösten Herausforderungen. Sie lassen sich nicht durch gegenseitige Schuldzuweisung bewältigen – etwa indem die von Newman befragten Medienleute mit dem Finger auf die Plattformbetreiber zeigen. Alle – Öffentlichkeit, Politik, Plattformbetreiber und Medienhäuser – müssen Wege suchen, um das Problem in den Griff zu bekommen, wie eine sich auf Reichweiten von Fake konzentrierende Reuters-Studie schlussfolgert.

Die Beispiele zeigen: Die Verantwortung für Medienschaffen und Mediennutzen im Digitalen ist stets gestuft. Professionelle Journalisten müssen das Geheimnis lüften und transparent machen, ob ein Text vom Computer geschrieben ist und inwiefern dabei die Fakten verlässlich bleiben. Glaubwürdige Unternehmen – ob Medienhäuser oder Plattformbetreiber, die wie Medienhäuser agieren – müssen unser Einverständnis ausdrücklich einholen für das, was sie mit unserem Digitalprofil machen.

Solche Unternehmensethik ist kein Widerspruch zu Gewinn und Innovation, sondern deren Fundament. Und das Publikum muss wach sein, mitdenken und verlangen, dass beide Gebote – Einverständnis und Transparenz – auch eingelöst werden. KI-Techniken schlagen auch geistig die Brücke zur Aufklärung. Deren Leitspruch wurde ein Satz des Philosophen Immanuel Kant, der auch zum Wahlspruch digitaler Aufklärung und Selbstbestimmtheit taugt: "Habe Mut, dich deines eigenen Verstandes zu bedienen." (Marlis Prinzing, 21.2.2018)