Vernetzung tut not

Open Access 2.0?

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Ende Feburar fand in Berlin ein gemeinsam von der Deutschen Forschungsgemeinschaft (DFG) und der Deutschen Initiative für Netzwerkinformation (DINI e.V.) ausgerichteter Workshop zum Thema „Förderung der wissenschaftlichen Informationslandschaft in Deutschland - Chancen und Strategien beim Aufbau vernetzter Repositorien“ statt. Neben der Vorstellung der DFG-Ausschreibung Aufbau und Vernetzung von Repositorien diente die Veranstaltung vor allem dazu, bereits bestehende Konzepte und Modelle zur Vernetzung von Open-Access-Angeboten mit anderen wissenschaftlichen Serviceangeboten vorzustellen. Das nachdrückliche Betonen der Notwendigkeit zur Vernetzung verweist auf einen konstatierten Mangel vieler Open-Access-Angebote: Sie erscheinen zu häufig als Stand-Alone-Angebote – fernab anderer relevanter Services oder der wissenschaftlichen Communities.

Open Access, der entgeltfreie Zugang zu wissenschaftlichen Informationen, kann auf zwei Arten erreicht werden. Zum einen kommt das Self-Publishing in Frage, bei dem Wissenschaftler ihre Publikationen etwa in kostenfrei nutzbaren Journalen oder als kostenfrei nutzbare Monographien veröffentlichen. Das Self-Publishing wird in der Regel von einer Qualitätskontrolle durch Herausgeber oder unabhängige Gutachter (der so genannten Peer Review) begleitet. Alternativ kommt das Self-Archiving in Frage: Hier werden bereits anderweitig publizierte Werke, beispielsweise Artikel aus einem Journal oder Buchbeiträge, in einer Art Zweitverwertung auf Open-Access-Servern, den so genannten Repositories, Lesern entgeltfrei zugänglich gemacht.

Anders als beim Self-Publishing findet beim Self-Archiving in aller Regel keine eigene Qualitätskontrolle der Inhalte statt. Die Qualitätssicherung ist hier meist abgeleitet: So wird bei der Zugänglichmachung eines bereits in einem Journal erschienen Artikel auf einem Repository vorausgesetzt, dieser Artikel sei einer ernsthaften Peer Review im Verlauf der Journal-Publikation unterzogen worden. Eigene Qualitätssicherungsfunktionalitäten besitzen Repositories nur in Ausnahmefällen. Allein schon aufgrund der für die Journalproduktion nötigen organisatorischen Voraussetzungen, wie etwas das Gewinnen eines Gutachterstabes, sind Self-Publishing-Angebote oft gut in der wissenschaftlichen Szene etabliert. Repositories hingegen werden häufig von Bibliotheken oder Rechenzentren betreut, die üblicherweise keinen unmittelbaren Bezug zu Wissenschaftlern oder deren Communities haben. Erschwert wird die Akzeptanz der Repositories zudem durch die pauschale Unterstellung fehlender Qualitätssicherung und des daraus resultierenden Misstrauens der Wissenschaftler. In einer auf Journal- oder Monographien ausgerichteten Publikationskultur gelten Repostories manchen Wissenschaftlern geradezu als Resterampen wissenschaftlichen Outputs. Ihre Akzeptanz ist unter Wissenschaftlern nach wie vor gering – trotz einer in Deutschland geradezu mustergültigen technischen Infrastruktur und Verbreitung der Repositories.

Grund genug in Berlin Möglichkeiten zu diskutieren, den Wissenschaftlern Open-Access-Repositories durch Vernetzung schmackhaft zu machen. Die vorgestellten Vernetzungsszenarien unterscheiden sich durch technische, organisatorische, Community bezogene und auf lokale Services bezogene Ansätze. Gemeinsam scheint allen die Absicht, Wissenschaftler vom Open-Access-Publizieren nicht mehr alleine durch gebetsmühlenartiges Betonen seiner Vorteile zu überzeugen, sondern sie durch Integration in fachliche Netzwerke oder Verbindung mit anderen Angeboten zum Open Access zu verführen – denn bislang fehlt es vor allem an fachlicher Verankerung, funktionierenden Anreizsystemen und existenter Mehrwertdienste, um Open-Access-Repositories für Wissenschaftler attraktiv zu machen.

Auf Vernetzung und Aggregation von Repository-Inhalten setzt beispielsweise das Vorhaben, Server, die über das Qualitätszertifikat der DINI verfügen, zu einem Netzwerk zusammenzufügen und damit Autoren und Lesern unterschiedliche Mehrwerte zu bieten. Im Mittelpunkt steht neben der Erhöhung der Sichtbarkeit des Inhalts deutscher Repositories auch die Etablierung eigener, teils repositoryspezifischer Qualitätsmessungskriterien – in der Absicht, die meist fehlende Qualitätssicherung ex ante durch eine Qualitätsmessung ex post zu ersetzen.

Auch auf Ebene einzelner Repositories werden Anstrengungen unternommen, deren Kernaufgabe - das Bereitstellen bereits publizierter wissenschaftlicher Werke - durch Vernetzung innerhalb der Organisationsstruktur, der Community oder der lokalen Servicestruktur, aufzuwerten.

So soll die Plattform eSciDoc der Max Planck-Gesellschaft (MPG) und des Fachinformationszentrums (FIZ) Karlsruhe sowohl eine umfassende eScience-Infrastruktur zur Verwaltung von Publikationen, Forschungsinformationen und -daten bereitstellen, als auch offene Schnittstellen zu aufbauenden Services bieten. Auf Basis der Kerninfrastruktur sollen Community spezifische Services und Applikationen eingerichtet werden können, die der Vielfalt einer mutlidisziplinären Forschungseinrichtung wie der MPG Rechung tragen. Aufgrund ihrer Offenheit wäre eine solche Architektur prinzipiell auch für andere Open-Access- oder Forschungsdaten-Hosts sehr unterschiedlicher Wissenschaftsfächer nutzbar.

Die Betreiber des Social Science Open Access Repository (SSOAR) hingegen interpretierten den Vernetzungsgedanken weniger technisch, sondern eher Community bezogen. Als etablierte Fachwissenschaftler und Herausgeber des anerkannten Open-Access-Journals Forum qualitative Sozialforschung verfügen sie über die Art der Akzeptanz und Vernetzung, die Repositorybetreiber aus der Szene der Infrastruktureinrichtungen wie Rechenzentren und Bibliotheken erst mühsam aufbauen müssen. Überdies erkennen Wissenschaftler als Betreiber eines Repositorys die Nutzungshürden und –hindernisse, die die meist bibliothekarisch geprägten Repositorykonzepte für ihre Kollegen darstellen, und können in ihren eigenen Angeboten zielgruppenspezifisch darauf reagieren.

Auch auf lokaler und fachübergreifender Ebene sind Optionen zur Vernetzung eines Open-Access-Servers mit anderen Serviceangeboten denkbar. Über die Verbindung eines lokalen Repositorys mit der Hochschulbibliographie, wie sie an der Saarländsichen Universitäts- und Landesbibliothek implementiert wurde, erhalten Repositorybetreiber Informationen über die Publikationsdaten der Wissenschaftler: Durch einen Abgleich mit der SHERPA/RoMEO-Datenbank lässt sich dann ermitteln, welche der in der Bibliographie gemeldeten Titel parallel zur Veröffentlichung in einem kommerziellen Verlag auf dem Repository zugänglich gemacht werden dürfen.

Allerdings können nicht nur die Self-Archiving-Angebote der Repositories, sondern auch die Open-Access-Journals von Vernetzung profitieren: Sei es durch Konversion existierender und in der Disziplin respektierter entgeltpflichtiger Journals in Open-Access-Journals wie im Fall der GIGA Journals des Leibnitz-Instituts für Globale und Regionale Studien oder durch Neuschaffung eines ganzen Publikationsportals unter Einbindung der relevanten Fachgesellschaften und –verbände, wie im Fall der Medizin unter Federführung der Deutschen Zentralbibliothek für Medizin geschehen.

Die Vernetzung, gleich ob mit übergeordneten Services, lokalen Services oder der Community, kann Open Access – so scheint es zumindest – attraktiv für Wissenschaftler machen. Es können Synergieeffekte geschaffen werden, die Open-Access-Services an Selbstverständlichkeit gewinnen lassen, wodurch sie nicht mehr als technisch krude Stand-Alone-Anwendungen für Idealisten, ohne Anbindung an fachliche Angebote oder das Arbeitsumfeld des Wissenschaftlers gelten.