Bild nicht mehr verfügbar.

Der "Datenträger" Buch hat seine Fürsprecher in den Wissenschaften. Er sei "physisch stabil" im Gegensatz zum "instabilen Medium Internet". Im Bild die British Library.

Foto: AP/ Lefteris Pitarakis

Wien – Die wissenschaftliche Grundlagenforschung ist bestimmt von einem Paradoxon: Obwohl sie zu einem großen Teil durch öffentliche Gelder finanziert wird, ist nur ein kleiner Teil ihrer Ergebnisse der Öffentlichkeit zugänglich.

Dahinter stehen nicht etwa Forscher, die bevorzugen, ihre Ergebnisse geheim zu halten, oder Unis, die das Wissen zu Geld machen wollen, sondern die enorme Marktkonzentration bei den Wissenschaftsverlagen: Wie eine Studie im Juni zeigte, publizieren aktuell gerade einmal fünf Konzerne mehr als die Hälfte aller Fachartikel. Und ein Gutteil der dort erschienenen Publikationen ist nicht frei zugänglich. Das Interesse der Verlage, die Artikel kostenpflichtig zu vertreiben, spießt sich mit dem öffentlichen Interesse eines freien Zugangs zu Forschungsergebnissen.

Open-Access-Journale wie BioMed Central (BMC) oder Public Library of Science (PLoS) bringen die Verlage in Bedrängnis, die ihre Publikationen nicht frei zugänglich machen. Aktuell liefern sich die niederländischen Universitäten einen Kampf mit dem niederländischen Verlagsriesen Elsevier – inklusive "Streikdrohung" (der STANDARD berichtete): Allen Universitätsangestellten soll es bald verboten sein, für die Zeitschriften des Verlagshauses redaktionell oder rezensierend tätig zu sein.

Der Hintergrund: Während die Vereinigung der niederländischen Unis mit Springer und Wiley entsprechende Vereinbarungen erreichen konnte, um ihre Publikationen gegen Bezahlung frei zugänglich zu machen, blieb eine Annäherung mit Elsevier bislang aus.

Moralische Verpflichtung

Der österreichische Wissenschaftsfonds FWF unterstützt die Position der niederländischen Universität zu Open Access. "Vor allem Grundlagenforschung wird aus öffentlichen Mitteln finanziert", sagt Falk Reckling, Open-Access-Experte des FWF. "Daher besteht aus unserer Sicht ein moralischer und ökonomischer Anspruch, dass die Ergebnisse, die aus von uns geförderten Forschungen hervorgehen, der Öffentlichkeit frei zugänglich sind."

Der FWF verpflichtet alle seine Projektnehmer dazu, ihre Ergebnisse frei zugänglich im Netz zu publizieren. Ausgehend von diesem Wissenschaftsverständnis verwundert es nicht, dass der Wissenschaftsfonds bereits 2003 zu den ersten Unterzeichnern der "Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen" gehörte.

Erklärungen reichen aber nicht. Der Open-Access-Ansatz bedingt, dass die dafür notwendigen Technologien implementiert werden. Deshalb hat das Wissenschaftsministerium im vergangenen Jahr das Projekt E-Infrastructures Austria gestartet, das den Aufbau von adäquaten digitalen Archivstrukturen zum Ziel hat.

Für den Open-Access-Ansatz braucht es entsprechende Archivierungssysteme, wie die US-amerikanische Plattform arXiv.org zeigt: Seit 1991 bietet der Dokumentenserver der Cornell University Vorabdrucke wissenschaftlicher Artikel an. Im Jahr 2014 waren es über eine Million – Tendenz stark steigend: Laut den Archivbetreibern werden inzwischen monatlich über 8000 Artikel eingereicht.

Bernhard Haslhofer, Informatiker vom Austrian Institute of Technology (AIT) in Wien, war zwei Jahre in Cornell tätig und hat dabei auch die Arbeit der Kollegen von arXiv.org beobachtet. Wie der Datenwissenschafter berichtet, beschäftigt man sich dort nicht nur mit der Archivierung, sondern geht auch der Frage nach, warum der Übergang zur digitalen Publikation in bestimmten Disziplinen weitaus länger dauert als zum Beispiel in der digitalaffinen Informatik. "Das hängt stark ab von der Kultur, die in einer wissenschaftlichen Disziplin herrscht. Daher ist es ganz wichtig, dass man bei Open Access berücksichtigt, dass man einzelne Kulturen nicht sofort verändern kann", sagt Haslhofer.

Wie die Zukunft aussehen könnte, zeigt die Österreichische Zeitschrift für Politikwissenschaft: Sie erscheint seit einiger Zeit über Open Access. Zwar steht nun weniger Geld zur Verfügung – das habe aber wiederum Vorteile, wie Herausgeber Thomas König sagt: "Da die Kosten für Druck und Vertrieb wegfallen, verwenden wir von unserem geringeren Budget jetzt anteilsmäßig mehr Geld für die Qualitätssicherung."

Offene Begutachtung

Auch dem in den letzten Jahren immer wieder in die Kritik geratenen Peer-Review-Begutachtungssystem soll mit Open Access Beine gemacht werden, sagt Peter Kraker vom Kompetenzzentrum für wissensbasierte Anwendungen und Systeme (Know Center) an der TU Graz: "Wenn ich heute einen Aufsatz zur Bewertung bekomme, muss ich dem Autor relativ viel glauben, da von zugrunde liegenden Daten oft nicht viel verfügbar ist. Mit einem Open Peer Review hätten wir die Möglichkeit, eher in einen Dialog zu treten." Er stützt sich dabei nicht nur auf praktische Erfahrungen, sondern auch auf seine Forschungen zur wissenschaftlichen Publikationskultur im Netz.

Das Lied von der schönen neuen Open-Access-Welt wird aber nicht überall gesungen. Auffällig ist, dass man dort Kritik an diesem Zugang zu hören bekommt, wo man traditionell wie fachlich dem Informationsträger Buch nähersteht. Einer der prominentesten deutschen Kritiker der Open- Access-Bewegung ist der Heidelberger Literaturwissenschafter Roland Reuß. Ihn stört vor allem, dass Open Access auf dem Weg zu einer Zwangsverpflichtung für alle Forscher sei: "Das widerspricht allen geltenden Regeln des Urheberrechts und der Publikationsfreiheit. Und ein solcher schwerwiegender Eingriff muss besser begründet werden, als damit, dass Wissenschafter Eigentum des Staates seien."

Dass man versuche, das Monopol der großen Wissenschaftsverlage zu brechen, hält der Kafka-Experte für ein legitimes Anliegen, jedoch sei Open Access nicht das richtige Mittel zu diesem Zweck: "Dafür gibt es das Kartellrecht – da muss man nicht an der Urheberrechtsschraube drehen."

Zuspruch bekommt Reuß aus Konstanz von Uwe Jochum. Der renommierte Bibliothekswissenschafter verweist darauf, dass die vielerorts gelobte Kosteneinsparung durch die digitale Archivierung zweifelhaft sei, weil häufig die Folgekosten der Serverarchitektur nicht berücksichtigt werden. Jochum: "Was in das digitale Flussbett eingespeist wird, ist von Anfang an ein Pflegefall. Keinerlei digitale Daten überleben eine kritische Grenze von drei bis fünf Jahren, wenn sie nicht permanent überprüft werden. Die Kosten dafür werden erheblich unterschätzt."

Der Buchforscher bleibt gegenüber Open Access äußerst skeptisch und schwört weiterhin auf seinen Untersuchungsgegenstand: "Gegenüber dem instabilen Medium Internet haben wir schon einen über Jahrtausende bewährten physisch stabilen Datenträger. Er nennt sich Buch." (Johannes Lau, 21.8.2015)