Über die Ketten der Wissensgesellschaft

Was „Open Source“ für die Softwareentwicklung, ist „Open Access“ für die Wissenschaft - eine Bewegung, die sich für den freien Zugang zu wissenschaftlichen Veröffentlichungen einsetzt. Politische Unterstützung findet sie hierzulande kaum. Die Wissenschaftler und ihre Organisationen müssen mit den Entwicklungen des Publikationswesens allein zurechtkommen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 37 Min.
Von
  • Richard Sietmann
Inhaltsverzeichnis

Erkenntnis kostet: Wer sich für die Regeln von „Fair Trade und Fair Play“ interessiert, und speziell für den Bericht in dem Fachjournal „Psychological Science“, in dem die beiden Verhaltensforscher James Heyman und Dan Ariely die Ergebnisse ihrer Experimente mit Probanden veröffentlichten, muss für den Online-Zugriff auf den Artikel 25 US-Dollar berappen. Ob der Beitrag über den Einfluss monetärer Anreize auf Motivationsstrukturen den Preis wert ist, weiß man allerdings erst, nachdem man ihn erworben hat. Nicht nur Studenten werden an dieser Stelle kehrtmachen, zumal die weitere Suche nach verwandten Arbeiten mit jedem Klick auf einen Volltext ein neues Loch in die Kasse reißt.

Seien es nun Forscher oder interessierte Laien, seien es Erfinder, Patienten, Lehrer oder Journalisten - auf die Kassenhäuschen an den Eingängen zu den Gärten der Erkenntnis stößt heute jeder, der aus beruflichen oder privaten Gründen dem Stand des Wissens auf der Spur ist. Seitdem die Wissenschaftsverlage das Clickstream-Business entdeckt haben, prallen im Internet zwei Kulturen aufeinander. Der Grundsatz, dass die Ergebnisse der öffentlich finanzierten Forschung öffentlich zugänglich sein sollten, kollidiert mit den Profitinteressen der Verwerter, die überwiegend an die öffentlichen Forschungseinrichtungen wieder vermarkten, was ihnen die angestellten oder beamteten Forscher kostenlos und satzgerecht formatiert zur Verfügung stellen. Und es sind durchaus nicht nur die den Interessen ihrer Anteilseigner verpflichteten kommerziellen Großverlage, die sich auf das lukrative Geschäft verstehen; „Psychological Science“ beispielsweise wird von einer so genannten „Non-profit”-Fachgesellschaft, der American Psychological Society, herausgegeben.

Um die wissenschaftliche Informationsversorgung gibt es seit Jahren heftige Diskussionen. So haben sich beispielsweise an der Universität Regensburg innerhalb eines Jahrzehnts die Kosten für die Print-Abonnements und Online-Zugänge auf 2,3 Millionen Euro nahezu verdoppelt, während der Verbraucherpreis-Index im selben Zeitraum lediglich um zehn Prozent anstieg. Bereits vor fünf Jahren beklagte die Hochschulrektorenkonferenz (HRK), „dass die Anschaffungsetats der wissenschaftlichen Bibliotheken mit der Preisentwicklung nicht mithalten und ausbluten; dringend benötigte wissenschaftli-che Literatur kann nicht mehr beschafft werden“.

Die „Regensburger Fieberkurve“: Die Kostenexplosion machte an der Unibibliothek Regensburg im vergangenen Jahr erneut radikale Schnitte notwendig. 230 Zeitschriftentitel wurden abbestellt, der Konsortialvertrag mit Elsevier gekündigt.

Gleichzeitig können sich die Anteilseigner der Verlage über die kräftigen Gewinne freuen. Mit schöner Regelmäßigkeit erzielt etwa der holländisch-britische Marktführer Elsevier, der in seinem Online-Informationsdienst ScienceDirect mehr als 2000 Journale im Angebot hat, Gewinnmargen von über 30 Prozent. Für 2005 wies der STM-Bereich (Science, Technology & Medicine) einen Reingewinn von 655 Millionen Euro bei einem Umsatz von 2,1 Milliarden Euro aus. Den gesamten Weltmarkt für STM-Publikationen beziffert die OECD auf sieben bis elf Milliarden US-Dollar. Eine Studie nach der anderen kommt zu dem Ergebnis, dass sich auf dem Markt der Forschungsver-öffentlichungen monopolartige Strukturen herausgebildet haben, in denen einige Großanbieter - neben Elsevier gehören dazu Thomson, die fusionierten Wolters Kluwer und Springer Science, Wiley, die American Chemical Society und Blackwell Publishing - die Preise und Konditionen für den elektronischen Zugang diktieren können.

Eine Hand voll Anbieter teilt sich zwei Drittel des Weltmarktes für STM-Zeitschriften, und dies in einzelnen Sparten oft konkurrenzlos - Elsevier erzielte 2005 eine Umsatzrendite von 31 Prozent.

Traditionell sind es die Wissenschaftsverlage, die durch Markenführung („Branding“), durch die Auswahl der Herausgeber und der Gutachter die Wertschätzung steuern, die eine Zeitschrift innerhalb der Wissenschafts-Community genießt; die durch Veröffentlichungen in renommierten Journalen erworbene Reputation wiederum ist für Forscher das Kapital ihrer wissenschaftlichen Karriere. Auf den ersten Blick erscheint dieses Zusammenspiel als vorteilhafte Ausprägung des Subsidiaritätsprinzips, dem zufolge der Staat nichts an sich ziehen darf, was die private Wirtschaft besser zu leisten vermag. Zur Finanzierung der wissenschaftlichen Publikationen trägt der Steuerzahler aber gleich dreifach bei: Er kommt zu großen Teilen erst für die Forschung auf, dann mit der Peer Review (Begutachtung) auch für die Qualitätssicherung durch die öffentlich bediensteten Forscher, und schließlich für den Zugriff auf die Publikationen in den Instituten und Bibliotheken.

Mitunter stoßen Wissenschaftler, die traditionell die ausschließlichen Nutzungsrechte an ihren Veröffentlichungen auf die Verlage übertragen haben, auf groteske Konsequenzen. So erinnert sich Thomas Dreier, Professor am Institut für Informationsrecht der Universität Karlsruhe, an einen eigenen Artikel, den er im Informatik-Spektrum publiziert hatte. „Als ich den mir neulich einmal herunterladen wollte, musste ich zu meinem Entsetzen feststellen, dass ich mir diesen Artikel für 30 Dollar pro Stück nur einmal herunterladen kann. Und wenn ich mir den Vertrag mit dem Springer-Verlag anschaue, dann habe ich auch nicht das Recht, ihn zum freien Download auf meine Webseite zu stellen.“

Weltweit gibt es rund 24 000 wissenschaftliche Zeitschriften, in denen Forscher ihre Ergebnisse gedruckt, als E-Print oder oftmals auf beiden Verbreitungswegen parallel der Fachwelt und interessierten Öffentlichkeit mitteilen. Die meisten Bibliotheken und Institute können nur einen kleinen Bruchteil davon halten; selbst eine wohldotierte Universität wie Harvard bringt es nur auf 60 Prozent. „Wenn man Spitzenforschung treiben will, muss man immer wissen, was die anderen machen“, bringt Hans Hoffmann, der frühere Leiter der Grid-Entwicklung am CERN, das Problem auf den Punkt. „Wenn Wissenschaft funktionieren soll, muss sie offen sein.“

Der Widerstand unter Wissenschaftlern gegen die Zugangsschranken in der Informationsversorgung wächst angesichts dieser Entwicklungen im wissenschaftlichen Publikationswesen. Einige Wissenschaftler experimentieren schon seit Beginn der neunziger Jahre mit alternativen Publikationsformen und so genanntem „Open Access“, also der freien Publikation von wissenschaftlichen Ergebnissen im Internet oder der Online-Bereitstellung von Artikeln parallel zur Veröffentichung in Fachzeitschriften - unter Umständen gegen einen Obolus, der die Kosten der Verlage für die Online-Veröffentlichung abdecken soll. Die so genannten BBB-Deklarationen von Budapest, Bethesda (US-Bundesstaat Maryland) und Berlin zeigen die Richtung auf: „Open Access“ heißt, so die Budapester Initiative, „dass Interessierte die Volltexte lesen, herunterladen, kopieren, verteilen, drucken, in ihnen suchen, auf sie verweisen und sie auch sonst auf jede denkbare legale Weise benutzen können, ohne finanzielle, gesetzliche oder technische Barrieren jenseits von denen, die mit dem Internet-Zugang selbst verbunden sind. In allen Fragen des Wiederabdrucks und der Verteilung, und in allen Fragen des Copyrights überhaupt, sollte die einzige Einschränkung darin bestehen, den jeweiligen Autorinnen und Autoren die Kontrolle über ihre Arbeit zu belassen und deren Recht zu sichern, dass ihre Arbeit angemessen anerkannt und zitiert wird“ [4].

Zur Umsetzung empfahl die Initiative zwei komplementäre Strategien: Die Archivierung nach einem standardisierten Verfahren durch die Autoren selbst - auch als „Grüner Weg“ bekannt - und die Veröffentlichung in barrierefreien Online-Fachzeitschriften, oft als „Goldener Weg“ bezeichnet. Die Bethesda-Erklärung verstand unter Open Access (OA) im Wesentlichen den „Grünen Weg“. Sie ging aber über Budapest hinaus, indem sie das Recht zur Bearbeitung und Verbreitung der bearbeiteten Werke einschloss („to make and distribute derivative works“). Daneben, so die Forderung, soll OA neben der eigentlichen Publikation auch ergänzendes Material („all supplemental materials“) umfassen und die Hinterlegung in einem Publikationsserver zeitgleich mit der eigentlichen Veröffentlichung („immediately upon initial publication“) erfolgen [5].

Die Berliner Erklärung vom Oktober 2003 stimmt mit Bethesda in den entscheidenden Punkten fast wörtlich überein, sie ging aber noch einen Schritt weiter, indem sie auch das in Museen, Archiven und Bibliotheken schlummernde kulturelle Erbe in die Forderung nach offenem Zugang mit einbezog [6]. Was sie von ihren Vorläufern besonders abhebt ist, dass hinter ihr nicht mehr nur herausragende Persönlichkeiten der Wissenschaft standen, sondern sich darin erstmals die Spitzenorganisationen eines ganzen Landes zum Prinzip des Open Access bekannten. Sie wurde auf Betreiben der Max-Planck-Gesellschaft gemeinsam mit der Deutschen Forschungsgemeinschaft (DFG), der Leibniz-Gemeinschaft (WGL), der Helmholtz-Gemeinschaft Deutscher Forschungszentren (HGF), der Fraunhofer-Gesellschaft (FhG), der Hochschulrektorenkonferenz (HRK) sowie dem Wissenschaftsrat verabschiedet. Inzwischen haben vom schwedischen Wissenschaftsrat über die ägyptische Bibliotheca Alexandrina und das französische Großforschungszentrum für Informatik (INRIA) bis zu Science Commons in den USA mehr als 150 Forschungseinrichtungen und Wissenschaftsorganisationen im In- und Ausland die Erklärung unterzeichnet.

Als erste Fördereinrichtung weltweit hat der britische Wellcome Trust eine Verpflichtung zum OA-Publishing in seinen Förderrichtlinien verankert. Die private Stiftung zur Förderung biomedizinischer Forschung unterstützt mit einem Finanzvolumen von umgerechnet 685 Millionen Euro die Projekte von mehr als 3000 Wissenschaftlern, aus denen jährlich etwa 4000 Veröffentlichungen hervorgehen. Eigenem Bekunden nach hat der Wellcome Trust „ein fundamentales Interesse daran, dass die Verfügbarkeit und Zugänglichkeit dieses Materials nicht von den Copyright-, Marketing- und Vertriebsstrategien der Verleger beeinträchtigt wird“. Seit Oktober 2005 verlangt die Stiftung in den Zuwendungsbescheiden, dass die Forscher die Veröffentlichungen aus den geförderten Projekten zugleich dem OA-Server PubMed Central übergeben; ab Oktober 2006 soll diese Regelung rückwirkend auch für die bereits erteilten Bewilligungen gelten [8].

Nach Ansicht der Stiftung Wellcome Trust bezahlt der Steuerzahler dreifach - die Forschung, die Begutachtung der Veröffentlichung und den Rückkauf der Forschungsergebnisse.

Lehnt ein Journal ein eingereichtes Manuskript aufgrund dieser Auflage ab, können die Autoren versuchen zu verhandeln. Bleibt das erfolglos, rät der Trust, in einer anderen Zeitschrift zu veröffentlichen. „Der Wellcome Trust hat klar erkannt, dass die Finanzierer an einem längeren Hebel als die Verlage sitzen“, begrüßt US-Aktivist Peter Suber die Initiative der Briten; „Forscher unterzeichnen zuerst den Fördervertrag, bevor sie einen Verlagsvertrag unterschreiben.“

Unter dem Druck der Open-Access-Bewegung haben einige Verlagshäuser ihre Strategie geändert. Der Springer-Verlag beispielsweise fährt nun zweigleisig und bietet seinen Autoren die Option, gegen eine Einmalzahlung von 3000 Dollar den Link zum Volltext des betreffenden Artikels freizuschalten, und die Forscher können die unter Springers „Open Choice“ veröffentlichten Arbeiten unter eine Creative-Commons-Lizenz stellen. Geschäftspolitisch ist das für Springer wie das Umlegen eines Schalters - statt des Lesers oder der Bibliothek bezahlt der Autor oder dessen Forschungseinrichtung. Den geforderten Preis für diesen „Goldenen Weg“ halten allerdings viele für überzogen. „Das geht in die richtige Richtung, aber 3000 Dollar sind eine Menge“, meint ein Kenner. Zumindest in der OA-Journalszene gelten nach deren bisherigen Erfahrungen 400 bis 500 Dollar für den Publikations-Workflow und des Peer-Review-Management als kostendeckend. Das von einer Fachcommunity selbst getragene OA-Journal „Atmospheric Chemistry and Physics“ (ACP) schafft es beispielsweise, mit je nach Bearbeitungsaufwand bemessenen Seitenpreisen zwischen 23 und 68 Euro kostendeckend zu arbeiten.

Am europäischen Forschungszentrum für Elementarteilchenphysik (CERN) feilt derzeit eine Arbeitsgruppe gemeinsam mit Wissenschaftsverlagen an einem Konzept für den „Goldenen Weg“. Bei den Teilchenphysikern konzentrieren sich etwa 90 Prozent aller wichtigen Publikationen auf ein knappes Dutzend Zeitschriften; deren Verleger wären zu einem großen Teil, wie die Sondierungen ergaben, zu einer schnellen Umstellung auf Open Access bereit. Die Kosten beziffert die Task Force, an der sich unter anderen die Verlagstöchter der American Physical Society und des britischen Institute of Physics sowie der wissenschaftliche Springer-Verlag beteiligen, auf fünf bis sechs Millionen Euro - gemessen an den mehr als zwei Milliarden Euro, mit denen heute weltweit die Experimente in der Teilchenforschung finanziert werden, ist dies kein Betrag, der unerschwinglich wäre. Das Konzept sieht ein „Sponsoring Consortium for Open Access Publishing in Particle Physics“ (SCOAP3) vor, dem neben den großen internationalen Forschungsinstituten wie dem Fermilab und SLAC in den USA, LNF (Italien), KEK (Japan) und dem IHEP (China) auch die Vertreter der zehn staatlichen Geldgeber angehören sollen, die weltweit den größten Anteil bei der Finanzierung der Teilchenforschung tragen. Das Konsortium müsste sich über einen Schlüssel zur „fairen Verteilung“ der Anteile an den Kosten des Publikationssystems verständigen. Die Projektfördermittel würden dann künftig auch einen Beitrag für die Kosten zur Veröffentlichung der Forschungsergebnisse umfassen.

Gegenüber dem „Goldenen Weg“, der die herkömmlichen Zeitschriften mit dem „Autor zahlt“-Modell auf das Web überträgt, erscheint der „Grüne Weg“, bei dem die Autoren ihre Veröffentlichungen über das Internet zugänglich machen, nur auf den ersten Blick wie eine Behelfslösung. Tatsächlich zeichnet sich damit ein tiefgreifender Wandel des Publikationswesens ab. „Die Grundidee ist, dass es eine Plattform gibt, auf der sich alles befindet“, beschreibt der Leiter der Niedersächsischen Staats- und Universitätsbibliothek, Elmar Mittler, den Paradigmenwechsel. „Die institutionellen und fachlichen Repositories gewährleisten, dass jeder an die Forschungsergebnisse herankommt, und sie bilden das Fundament des Publizierens.“

Aus der Public Domain können sich freie wie kommerzielle Dienstleister gleichermaßen bedienen und Mehrwertangebote schaffen. Das können wie gewohnt Journale sein - Physical Reviews etwa schickt die für die Peer Review ausgewählten Paper schon gar nicht mehr an die Fachgutachter, sondern sendet ihnen nur noch den Link zu dem Repository arXiv. Aber auch Angebote, die nicht mehr auf dem Vertrieb von Zeitschriftenartikeln beruhen wie News-, Abstract- und Review-Services und die die Aufmerksamkeit auf besondere Arbeiten lenken, kommen in Frage oder beispielsweise der Betrieb professioneller Suchmaschinen.

So führte das seit langem auf Abstract- und Indexdienste spezialisierte Unternehmen Thomson Scientific im November 2005 den Web Citation Index (WCI) ein, einen speziellen Fachinformationsdienst für die auf institutionellen Publikationsservern abgelegten Aufsätze und OA-Journale. Der Dienst umfasst eine Retrieval- und Zitier-Suchmaschine, automatische Benachrichtigungen (Alerts) und die Vorwärts-Verlinkung, das heißt, er liefert zu einem Dokument die Links zu später erschienenen Veröffentlichungen, in denen das Ausgangsdokument zitiert wird. Solche „Zitat-Stammbäume“ geben Aufschluss darüber, welche Aufmerksamkeit („Citation Impact“) eine Arbeit im Kreis der Fachkollegen erregt und sind ein gestandenes Hilfsmittel zur Beurteilung von Forschern. Die Forscher selbst können durch das Vorwärts- und Rückwärts-Navigieren entlang der Zitierpfade Bezüge zu den Arbeiten anderer Gruppen auffinden, die ihnen sonst vielleicht entgingen.

Die organisatorische und technische Infrastruktur ist vorhanden. Das Directory of Open Access Repositories [9] verzeichnet derzeit knapp 400 institutionelle Publikationsserver - 101 in den USA, 54 in England und 38 in der Bundesrepublik - und ihre Zahl steigt in jüngster Zeit ebenso rasant an wie die Zahl der darauf abgelegten Aufsätze. In der so genannten Romeo-Liste [10], einem britisch-schwedischen Gemeinschaftsprojekt, können sich Autoren darüber informieren, unter welchen Bedingungen etablierte Zeitschriften die Zweitveröffentlichung im Web zulassen; die Datenbank ist ein Beispiel dafür, wie das Internet Markttransparenz schafft.

Die politische Wirkung der Open-Access-Initiativen blieb hierzulande allerdings gering. Das zu Zeiten der Verabschiedung der Berliner Erklärung noch von der Sozialdemokratin Edelgard Bulmahn geführte Bundesforschungsministerium (BMBF) war abgetaucht und versagte sich jede Stellungnahme. Auch unter ihrer Nachfolgerin Annette Schavan sind die Nöte der Bibliotheken überwiegend Ländersache; das Thema Informationsversorgung wird im BMBF auf Referatsebene abgehandelt. Schon auf Abteilungsebene kann man sich mit „Open Access“ nicht so recht anfreunden, und auf der politischen Etage vermeidet die Spitze des Hauses - ganz im Unterschied zu vielfältigen Stellungnahmen zu Zeitgeist-Schlagern wie der Bio- oder Nanotechnologie - sorgfältig jede Positionierung.

Um Wirtschaft und Wissenschaft besser miteinander zu verzahnen, betreibt das BMBF einen großen Teil seiner Förderung im Rahmen von Verbundforschungsprojekten, in denen die beteiligten Institute und Firmen in der Regel jeweils die Hälfte der Mittel aufbringen. Für die Firmen seien die resultierenden Forschungsergebnisse wettbewerbsrelevant, „und damit hat man sofort ein Problem mit der Öffentlichkeit“, erklärt der BMBF-Unterabteilungsleiter für das Ressort „Information und Kommunikation“, Manfred Dietrich, die Vorbehalte; „das ist ein Beispiel, wo man in der Praxis sofort an Grenzen stößt“.

In den angelsächsischen Ländern haben sich die Politiker des Themas offensiver angenommen. In England warf das „Science and Technology Committee“ des House of Commons der Regierung im Juli 2004 vor, den Entwicklungen des wissenschaftlichen Publikationswesens zu wenig Aufmerksamkeit geschenkt zu haben. Die Parlamentarier registrierten mit Sorge, „dass der finanzielle Nutzen aus den beträchtlichen Forschungsinvestitionen der öffentlichen Hand in einem exzessiven Ausmaß in die Taschen der Aktionäre von Verlagen“ wandert - „die Digitalisierung sollte den Zugang erleichtern und nicht erschweren“. Deshalb forderte der Ausschuss, den Hochschulen des Landes die nötigen Finanzmittel zum Aufbau und Betrieb von Publikationsservern zur Verfügung zu stellen und die öffentliche Finanzierung von Forschungsvorhaben an die Verpflichtung zu koppeln, dass alle aus den Projekten resultierenden Veröffentlichungen auf diesen „Institutional Repositories“ bereitgestellt werden. Tony Blairs Kabinett ließ die Forderungen allerdings an sich abperlen. Zusätzliche Mittel für das OA-Publizieren bereitzustellen lehnte es ebenso ab wie die Forscher zu verpflichten, dass sie ihre veröffentlichten Arbeiten auf der „Green Road“ allgemein zugänglich machen.

Ähnlich verliefen die Auseinandersetzungen in den USA. Dort forderte der Haushaltsausschuss des Repräsentantenhauses das US-Bundesgesundheitsamt (NIH) vor zwei Jahren auf, die Publikationen aus NIH-finanzierten Projekten innerhalb von sechs Monaten nach der Erstveröffentlichung in einem wissenschaftlichen Journal auch in dem frei zugänglichen Online-Volltextarchiv PubMed Central zu veröffentlichen. Den Vorstoß hatten 25 Nobelpreisträger unterstützt, die in einem offenen Brief die Überwindung der Barrieren forderten, „die die Verbreitung mit Steuermitteln geförderter wissenschaftlicher Erkenntnisse behindern, verzögern oder blockieren“.

Das NIH ist mit Abstand der größte Forschungsförderer in den Vereinigten Staaten. Sein Jahresetat ist mit 28 Milliarden Dollar größer als das Bruttoinlandsprodukt von 142 Ländern dieser Erde und übertrifft noch den der NASA (15 Milliarden Dollar) und der National Science Foundation (5,6 Milliarden Dollar). Für die Beschaffung von E- und Print-Journalen wendet das NIH jährlich 30 Millionen Dollar auf; mit einer „Open Access Policy“, so die Schätzungen, ließen sich diese Kosten auf acht Millionen Dollar senken. Die Behörde hätte sich die Sache einfach machen können. Im US-Copyright gibt es in Gestalt der so genannten „government purpose license“ eine Einschränkung der Urheberrechte, die der Regierung und Behörden die Vervielfältigung und Verbreitung der unter ihrer Ägide entstandenen Publikationen ohnehin gestattet. Aber unter dem massiven Einfluss der Verlegerlobby entschloss sich das NIH gegen den harten Weg und verzichtete auf die Anwendung der aus der Vor-Internet-Zeit stammenden Regelung. Nach den Anfang Mai 2005 in Kraft getretenen neuen Richtlinien werden die vom NIH geförderten Forscher lediglich aufgefordert („requested“), Kopien ihrer von einer Zeitschrift zur Veröffentlichung akzeptierten Manuskripte zur Verfügung zu stellen, die PubMed Central dann spätestens zwölf Monate nach dem Erscheinen zweitveröffentlicht.

Wenn alle Zuwendungsempfänger des NIH der Aufforderung nachkämen, würden monatlich rund 5500 Aufsätze kostenfrei zugänglich; tatsächlich treffen bislang lediglich drei Prozent der erwarteten Manuskripte bei PubMed Central ein. „Die Autoren müssen ihre Arbeiten nicht dem NIH überlassen“, kritisiert Peter Suber von der Earlham-Universität die halbherzige Regelung; „ich glaube, das ist der Hauptgrund, weshalb die Befolgung so gering ist.“ Der Philosophie-Professor und Public-Knowledge-Aktivist ist überzeugt, dass eine Verpflichtung unumgänglich ist, weil sie den Wissenschaftlern das Aushandeln des Zweitveröffentlichungsrechts im Web gegenüber den am längeren Hebel sitzenden Verlagen erspart. „Bei den fünf Universitäten, die eine solche Verpflichtung haben, wird sie nahezu zu 100 Prozent befolgt, bei den anderen Universitäten liegt der Anteil nur zwischen zehn und 15 Prozent“.

Doch die Dinge sind noch in Bewegung. Dem US-Kongress liegt zurzeit ein Gesetzentwurf des Demokraten Joe Liebermann vor, der ausdrücklich Sanktionen - Kürzungen bis hin zum Verlust der Forschungsmittel - für den Fall der Nichtbefolgung vorsieht. Die CURES-Bill bezieht überdies nicht nur klassische Zeitschriftenaufsätze, sondern auch Primärdaten in die Veröffentlichungspflicht ein, die im Rahmen klinischer Medikamententests erhoben wurden. Und im November 2005 empfahl die vom NIH selbst eingesetzte Public Access Working Group (PAWG), der auch drei Verleger angehören, die Aufforderung in eine Verpflichtung umzuwandeln und die Schonfrist gegenüber der Erstveröffentlichung von zwölf auf die ursprünglich vom Kongress geforderte Spanne von sechs Monaten herabzusetzen.

Die Frage der Verpflichtung hat auch hierzulande eine kurze Rolle gespielt. Im Zuge der laufenden Novellierung des Urhebergesetzes, dem so genannten „Zweiten Korb“, hatte die Kultusministerkonferenz (KMK) die Aufnahme einer „dienstrechtlichen Anbietungspflicht“ in das Reformgesetz vorgeschlagen [7]. Danach sollten Wissenschaftler ihrer Hochschule „ein nicht ausschließliches Nutzungsrecht“ an den im Rahmen ihrer Lehr- und Forschungstätigkeit entstandenen Werken einräumen. In einer Expertenrunde des Bundesjustizminsteriums (BMJ) trugen Staatsrechtler jedoch verfassungsrechtliche Bedenken vor: Die vom Grundgesetz im Artikel 5, Absatz 3, garantierte Wissenschaftsfreiheit umfasse auch das Recht, über das Ob, Wo und Wie der Veröffentlichung frei zu entscheiden.

Um das Anliegen zu retten, war daraufhin als etwas mildere Alternative anstelle der Anbietungspflicht eine Anbietungsoption vorgeschlagen worden, die nicht an die Erst-, sondern an die Zweitveröffentlichung anknüpfte. Jedem Wissenschaftler sollte danach „auch bei der Einräumung eines ausschließlichen Nutzungsrechts“ zugunsten eines Verlages das Recht zustehen, seinen Beitrag „nach Ablauf von grundsätzlich sechs Monaten seit der Erstveröffentlichung öffentlich zugänglich zu machen“. Doch weder das BMBF noch das BMJ machten sich für den Vorschlag stark. Im federführenden BMJ herrschte die Meinung vor, Open Access sei eine Frage des Vertragsrechts und bedürfe keiner Regelung im Urheberge-setz; die Konditionen der Veröffentlichung müssten die wissenschaftlichen Urheber mit den Verlagen aushandeln. „Das Bundesjustizministerium“, beschrieb ein Teilnehmer aus der Expertenrunde die Haltung des Ministeriums, „hat die Hosen vor den Verlagsvertretern gestrichen voll.“

Der „Open Access“-Switch: Im traditionellen Geschäftsmodell (rot) zahlen Bibliotheken oder Leser für den Zugang zu den Forschungsveröffentlichungen. Sollte sich der Grüne Weg durchsetzen, müssten die Wissenschaftsverlage ihr Geschäftsmodell auf reine Mehrwertdienste verlagern (gestrichelter Pfeil). Beim „Goldenen Weg“ (hier blau) brauchen sie nur einen Schalter beim Inkasso umzulegen, stehen dann aber im Wettbewerb mit den nichtkommerziellen OA-Journalen.

Ohne die flankierende Unterstützung des Gesetzgebers können die Unterzeichner der Berliner Erklärung wie die Max-Planck-Gesellschaft und die Deutsche Forschungsgemeinschaft nur eindringlich an die Wissenschaftler selbst appellieren, sich in den Verlagsverträgen möglichst ein nicht ausschließliches Verwertungsrecht zur elektronischen Publikation ihrer Forschungsergebnisse vorzubehalten und dabei gegebenenfalls fachspezifische Karenzzeiten von sechs bis zwölf Monaten gegenüber der Erstveröffentlichung zu vereinbaren. Die DFG, an deren 1,3-Milliarden-Euro-Haushalt rund 8000 Forschungsprojekte und 18 000 Wissenschaftlerstellen hängen, hat in diesem Jahr ihre Bewilligungsrichtlinien modifiziert. Sie „erwartet“, heißt es darin, „dass die mit ihren Mitteln finanzierten Forschungsergebnisse publiziert und dabei möglichst auch digital veröffentlicht und für den entgeltfreien Zugriff im Internet (Open Access) verfügbar gemacht werden. Die entsprechenden Beiträge sollten dazu entweder zusätzlich zur Verlagspublikation in disziplinspezifische oder institutionelle elektronische Archive (Repositorien) eingestellt oder direkt in referierten beziehungsweise renommierten Open-Access-Zeitschriften publiziert werden“.

Bei allen Open-Access-Initiativen aus der Wissenschafts-Community sind es aber nicht nur mangelnde Unterstützung von Seiten des Gesetzgebers und der hinhaltende Widerstand einzelner Verlage, die den freien Zugang zu wissenschaftichen Veröffentlichungen behindern. Der Blick in die Praxis zeigt, dass der Transformationsprozess noch ganz am Anfang steht. „An der HUB werden pro Jahr etwa 2200 Artikel verfasst, weniger als ein Prozent davon liegen auf unserem Institutional Repository“, berichtet der Direktor des Rechenzentrums der Humboldt-Universität und Vorstand der Deutschen Initiative für Netzwerk-Information (DINI), Peter Schirmbacher; „Wir müssen die Autoren gewinnen, dass sie Open Access praktizieren.“

In einer DFG-Umfrage vom vergangenen Jahr unter rund 1000 deutschen Wissenschaftlern aller Fachrichtungen sahen zwar zwei Drittel der Befragten in Open Access einen Beitrag zur Verbesserung des Zugangs zu wissenschaftlichen Erkenntnissen und glauben, dass sich die Publikationslandschaft durch Open Access nachhaltig verändern wird. Im Mittel über alle Disziplinen gaben knapp 40 Prozent an, OA-Zeitschriften in ihrem Fach zu kennen. Allerdings hatte nur jeder Zehnte schon einmal einen Aufsatz in einer OA-Zeitschrift veröffentlicht, und nur jeder Siebte Vorabergebnisse seiner Forschung als „Preprint“ publiziert. Preprint-Server kannte jeder zweite befragte Naturwissenschaftler, aber nur jeder vierte Geistes- und Sozialwissenschaftler und nur jeder fünfte Ingenieurwissenschaftler.

Aufwind auf dem „grünen Weg”: Die Zahl der Institutional Repositories für Open-Access-Artikel steigt.

Viele Wissenschaftler, deren Interesse sich in erster Linie auf die Veröffentlichung in prestigeträchtigen Journalen richte, seien den Schwierigkeiten der Informationsversorgung gegenüber ignorant, hatte schon der Wissenschaftsausschuss des britischen Parlaments geklagt. Allerdings gibt es für sie auch wenig Anreize, von sich aus ihre Arbeiten allgemein zugänglich zu machen. Die Appelle an die Freiwilligkeit belassen die Wissenschaftler in dem bekannten Gefangenendilemma, dass, was dem Gemeinwohl nutzt, oftmals mit einem gewissen persönlichen Nachteil verbunden ist, solange nicht alle anderen mitziehen. Alle Forscher sind besser dran, wenn die Arbeiten frei zugänglich sind, aber einzeln trachtet jeder meist danach, vom Renommee einer etablierten Zeitschrift zu profitieren und - zumal als jüngerer Wissenschaftler am Anfang der Karriereleiter - nicht seine Chance durch das Pochen auf ein Zweitveröffentlichungsrecht im Internet zu gefährden.

Die Niederländische Akademie der Künste und Wissenschaften versucht deshalb, zunächst die gestandenen Forscher als „Leitwölfe“ zu locken. Vor einem Jahr startete sie im Rahmen des DARE-Projektes (Digital Academic Repositories) die Initiative „Cream of Science“ und bat alle Forschungseinrichtungen des Landes, die Arbeiten von zehn ausgewählten Wissenschaftlern einem institutionellen Dokumentenserver zu übergeben [11]. Das Kalkül: Wenn die auf Selbstdarstellung bedachten Institute zunächst ihre besten Forscher zum Mitmachen bewegen, sollte das auch den Ehrgeiz aller anderen wecken, mit ihren Arbeiten in der Creme der Wissenschaftler vertreten zu sein. Inzwischen verzeichnet der Server über 200 Spitzenwissenschaftler mit rund 46 000 Veröffentlichungen, von denen 60 Prozent im Volltext zugänglich sind. Der Leiter des DARE-Projektes, Leo Waaijers, glaubt an die Eigendynamik der angestoßenen Entwicklung; Suchmaschinen wie Google Scholar, die sowohl freies Material als auch Bezahlinhalte anzeigen, würden schon für den Durchbruch sorgen. „Allmählich werden die frei zugänglichen Artikel diejenigen verdrängen, für die man bezahlen muss.“

Aber die Forscher sind ja nicht nur Leser, sondern in der Regel auch Autoren, die gelesen werden wollen. Zahlreiche Untersuchungen zeigen inzwischen, dass OA-Veröffentlichungen in den jeweiligen Communities stärker wahrgenommen werden [12]. Einer groß angelegten Studie mit über 1,3 Millionen Veröffentlichungen aus zehn Disziplinen zufolge, die Steven Harnad vom Department of Electronics and Computer Science der University of Southampton im Dezember 2005 veröffentlichte, ist die Zitierhäufigkeit in der Informatik für OA-Veröfentlichungen etwa dreimal so hoch wie für Artikel, die gedruckt oder online gegen Gebühr erhältlich sind; in anderen Fächern liegt sie zwischen 25 und 250 Prozent höher [13]. Demnach liegt es durchaus im Interesse der Autoren, den Fachkollegen und der Öffentlichkeit die Aufsätze über die kommerziellen Zäune hinweg frei zur Verfügung zu stellen. Möglicherweise ist es nur eine Frage der Zeit, bis jene unsichtbare Hand des Marktes zum Tragen kommt, die Adam Smith zufolge dafür sorgt, dass der Eigennutz stets auch das Gemeinwohl fördert - wobei es auf diesem Markt nicht ums Geld, sondern um die Reputation geht.

[1] Richard Sietmann, Zirkelspiele, Die wissenschaftliche Literaturversorgung steckt weltweit in der Krise

[2] Prof. Dr. Eberhard R. Hilf, Zugang zum Wissen im digitalen Zeitalter

[3] EU-Studie zu wissenschaftlichen Veröffentlichungen

[4] Budapester Erklärung

[5] Bethesda-Erklärung

[6] Berliner Erklärung

[7] Freies Wissen. Die Kultusministerkonferenz berät über „Open Access“ zu Forschungsergebnissen. c't 22/04, S. 68

[8] Wellcome Trust zu Open Access

[9] Directory of Open Access Repositories

[10] Romeo-Liste

[11] Niederländische Initiative „Cream of Science“

[12] Studie zur Wahrnehmung von Open-Access-Veröffentlichungen:

[13] Studie zur Zitierhäufigkeit

[14] Elektronische Zeitschriftenbibliothek der Max-Planck-Gesellschaft

„Open Access hat für die meisten Wissenschaftler einen natürlichen Reiz - sie wollen gelesen werden“, meint Kurt Mehlhorn, Direktor des Max-Planck-Instituts für Informatik in Saarbrücken; „Wir müssen das ausnutzen.“ Der Vizepräsident der Max-Planck-Gesellschaft (MPG) ist in seiner Funktion als Vorsitzender des „Scientific Information Steering Committee“ für die Entwicklung der OA-Strategie zuständig.

Die MPG - Jahreshaushalt 1,38 Milliarden Euro, 78 Institute, 4300 Wissenschaftler, Jahresproduktion rund 12 000 Veröffentlichungen - war am Zustandekommen der Berliner Erklärung federführend beteiligt. Sie unterstützt beide Wege, OA-Journalen und die Selbst-Archivierung. So dürfen die Institute Haushaltsmittel zur Deckung von Autorengebühren einsetzen, wenn Forscher in OA-Journalen veröffentlichen wollen; mit dem New Journal of Physics sowie BioMed Central hat die MPG Rahmenvereinbarungen abgeschlossen, die Gebühren aus zentralen Mitteln zu übernehmen, sodass die Wissenschaftler sich nicht selbst um die Finanzierung der Publikation kümmern müssen. Darüber hinaus gibt die MPG mit den „Living Reviews“ in Relativity und Solar Physics selbst zwei OA-Journale heraus.

Daneben wird in drei Pilotinstituten - den Max-Planck-Instituten für Wissenschaftsgeschichte (Berlin), für chemische Ökologie (Jena) und für Informatik (Saarbücken) - ein Workflow zum Archivieren entwickelt und erprobt, der es Wissenschaftlern einfacher machen soll, eine Veröffentlichung in einem Institutional Repository zu hinterlegen. „Bislang benötigt man dafür rund zwei Stunden“, meint MPG-Vize Mehlhorn; „mein Gefühl sagt mir, dass höchstens 15 Minuten tolerabel sind.“ Zugleich muss aber auch die Qualität der Arbeiten gesichert sein, die auf dem Publikationsserver landen, weil das dort bereitgestellte Material letztlich die Qualität der Forschungsaktivitäten in der MPG widerspiegelt.

Zu einer Verpflichtung ihrer Wissenschaftler zum OA-Publizieren hat sich die MPG nicht durchringen können, sie setzt auf Argumente und leichten Druck. Für das Jahrbuch müssen die Forscher regelmäßig bibliografische Angaben (Metadaten) über ihre Veröffentlichungen beisteuern. Im Volltext sind bislang aber nur zehn Prozent der Arbeiten frei auf dem edoc-Server der Gesellschaft zugänglich.

Für die Karriere von Forschern zählt die Veröffentlichung zwar über alles, für die Fachkollegen unter den Lesern ist die Mitteilung der Ergebnisse allerdings oftmals nur die halbe Miete. Anhand der zusammenfassenden Beschreibung sind die Resultate nicht mehr ohne weiteres nachvollziehbar. Wenn andere Forscher die Ergebnisse reproduzieren und damit weiterarbeiten wollen, benötigen sie auch die Rohdaten der epidemiologischen oder klinischen Studien, der Genomsequenzierung oder von Satellitenmissionen, die der Veröffentlichung zugrunde lagen - bis hin zu den eigens entwickelten Software-Tools, mit denen die Daten gewonnen und ausgewertet wurden.

„Die zunehmende Digitalisierung hat zu einer bisher ungekannten Erweiterung und Ausdifferenzierung des Informationsbegriffs geführt, der neben der Literatur - sprich klassischen Dokumenten - zahlreiche neue Typen und Formate wissenschaftlicher Information umfasst wie Sprachaufzeichnungen, Filme, Bilder, Primärdaten, Simulationssoftware et cetera“, umreißt der Chief Information Officer der Universität Bielefeld, Norbert Lossau, den nächsten Schauplatz der „Open Access“-Bewegung. In einigen Wissenschaftsbereichen, etwa der Astrophysik, entspricht es bereits geübter Praxis, dass Messreihen, Bilder und Software bereits kurz nach der Erfassung und Verarbeitung der Rohdaten öffentlich zugänglich gemacht werden; anderen Disziplinen steht eine solche Öffnung noch bevor.

Aber das Reproduzieren und Verifizieren von Forschungsergebnissen ist nur das eine; die Öffnung von Datenbanken für wissenschaftliche Primärinformation hat eine viel weitergehende Dimension, wie sie beispielsweise das „Science Commons“-Projekt verdeutlicht. Dessen Herkunft als Spin-off des Creative-Commons-Projekts hat bisweilen zu Missverständnissen geführt. „Science Commons befasst sich nicht mit dem Verfassen neuer Copyright-Lizenzen“, betont John Wilbanks, der das Vorhaben 2005 initiierte. Gemeinsam mit Creative Commons ist auf einer abstrakten Ebene allenfalls der Ansatz, durch Re-Use und Re-Mixing frei verfügbaren Materials Neues zu generieren. Bei Science Commons bilden aber nicht Musik oder Texte das Ausgangsmaterial, sondern Forschungsergebnisse und Primärdaten. Wenn Wissenschaftler und Forschungseinrichtungen ihre „Schatzkammern“ öffnen und online stellen, so die Idee, lassen sich auf der WebPlattform mit Such- und Sprachverarbeitungstechnologien neue Bezüge herstellen und Erkenntnisse gewinnen. In dem Teilprojekt „NeuroCommons“ arbeitet Wilbanks zur Zeit daran, mit Hilfe des semantischen Web maschinenlesbare Darstellungen des Wissens in den Neurowissenschaften von Open-Access-Servern zu extrahieren und wiederum frei verfügbar zu re-publizieren. „Wir wollen zeigen“, meint Wilbanks, „dass das Recht zum Re-Use in der Verbindung mit neuen Technologien den Wert des Wissens im Web dramatisch steigert“.

Der Wellcome Trust in Großbritannien, einer der Schrittmacher des Open-Access-Gedankens in der biomedizinischen Forschung, entwickelt derzeit Richtlinien für den Zugang zu den Primärdaten in den von ihr geförderten Projekten. „Open Access umfasst auch die Forschungsdaten“, erklärt Robert Terry vom Wellcome Trust. Die Richtlinie soll Wissenschaftler dazu anhalten, „sich vor dem Start eines Projektes Gedan-ken über die weitere Verwendung der anfallenden Daten zu machen“.

Auf der politischen Ebene beschäftigt sich gegenwärtig auch die OECD, das wirtschaftspolitische Koordinierungsgremium der 30 führenden Industriestaaten, mit der Freizügigkeit des Austauschs von Forschungsergebnissen. Im Januar 2004 hatte das Committee for Scientific and Technological Policy (CSTP) der OECD in einer Deklaration den Zugang zu den faktischen Primärinformationen aus dem öffentlichen Forschungssektor grundsätzlich befürwortet; zurzeit werden die Details einer „Empfehlung zu Prinzipien und Regeln“ nach Darstellung der CSTP-Vorsitzenden Yukiku Fukasaku ausgearbeitet; sie sollen im Oktober 2006 veröffentlicht und noch in diesem Jahr vom Ministerrat der OECD verabschiedet werden.

Mai 2006
Über die Elektronische Zeitschriftenbibliothek (EZB) der Universität Regensburg sind 12 858 Zeitschriften online kostenfrei im Volltext zugänglich. Im Directory of Open Access Journals (DOAJ) haben sich 2184 wissenschaftliche „Open Access“-Zeitschriften registrieren lassen. Das Directory of Open Access Repositories (DOAR) verzeichnet weltweit 376 institutionelle Archivserver.

April 2006
die Generaldirektion Wissenschaft und Forschung der EU-Kommission veröffentlicht eine Studie über die Marktmechanismen zur Verbreitung des Wissens. Damit startet eine EU-Konsultation zu den Entwicklungen des wissenschaftlichen Publikationswesens.

Januar 2006
Die Deutsche Forschungsgemeinschaft (DFG) beschließt die Empfehlung, dass die von ihr geförderten Forscher im Wege des Open Access publizieren sollen.

Oktober 2005
Der britische Wellcome Trust verlangt von allen Zuwendungsempfängern, Projektergebnisse im Wege des Open Access zu veröffentlichen.

Mai 2005
Die neuen Regeln des NIH treten in Kraft: Die vom NIH geförderten Autoren werden gebeten („requested“), ihre Veröffentlichungen innerhalb von zwölf Monaten nach dem Erscheinen in einer Zeitschrift der öffentlich zugänglichen NIH-Datenbank PubMed Central zur Verfügung zu stellen.

November 2004
Die britische Regierung lehnt die Forderung des Parlamentsausschusses zur gezielten Förderung von Open Access ab.

November 2004
Die Kultusministerkonferenz empfiehlt (vergeblich) die Aufnahme einer „dienstrechtlichen Anbietungspflicht“ in die Reform des Urhebergesetzes; danach hätten Wissenschaftler ihrer Hochschule jede Veröffentlichung zur nichtkommerziellen Zweitverwertung zur Verfügung stellen müssen.

Juli 2004
Der Haushaltsausschuss des US-Repräsentantenhauses weist das NIH an, ein „Open Access“-Konzept für die vom NIH geförderte Forschung zu entwickeln; mit einem offenen Brief unterstützen 25 Nobelpreisträger die Initiative.

Juli 2004
Das Science and Technology Committee des House of Commons fordert mit dem Report „Scientific Publications: Free for All?“ die britische Regierung zur Förderung von Open Access auf.

Januar 2004
Das OECD Committee on Science and Technology verabschiedet eine Erklärung über den Zugang zu den Ergebnissen der öffentlich finanzierten Forschung.

Oktober 2003
Berliner Erklärung der Spitzenorganisationen der Wissenschaft in der Bundesrepublik: „Unsere Organisationen unterstützen die weitere Förderung des neuen ‚Prinzip des offenen Zugangs’ zum besten Nutzen von Wissenschaft und Gesellschaft.

Oktober 2003
Der britische Wellcome Trust gestattet den von ihm geförderten Forschern, aus den von der Stiftung gewährten Forschungsmitteln die Autorengebühren zur Veröffentlichung in OA-Zeitschriften zu begleichen.

April 2003
Bethesda Declaration: „We believe that Open Access will be an essential component of scientific publishing in the future and that works reporting the results of current scientific research should be as openly accessible and freely usable as possible.“

Dezember 2002
Das Howard Hughes Medical Institute (USA) beschließt Übernahme der Autorengebühren für Veröffentlichungen in OA-Zeitschriften.

November 2002
Die Hochschulrektorenkonferenz (HRK) beschließt Empfehlungen zur Neuausrichtung des Informations- und Publikationswesens in der Bundesrepublik.

Februar 2002
Die Budapester Erklärung definiert Open Access (OA) als den für jedermann kostenfreien Zugang zu wissenschaftlichen Veröffentlichungen.

Februar 2000
In den USA nehmen die National Institutes of Health (NIH) PubMed Central in Betrieb, einen Web-Server, auf dem Bio-Wissenschaftler Volltexte ihrer Arbeiten veröffentlichen können. Die Zeitschriften Proceedings of the National Academy of Science und Molecular Biology of the Cell sind über PubMed Central frei online zugänglich.

Oktober 1999
Santa Fé Convention zur Strukturierung von Open Access Archivservern, damit Suchmaschinen die verteilten Server erschließen können.

August 1997
Stevan Harnad startet an der University of Southampton den Server Cogprints für Veröffentlichungen aus der Psychologie, Linguistik und Informatik.

Mai 1997
Thomas Krichel startet den RePEc-Server (Research Papers in Economics) an der Long Island University.

1995
Norbert Gugerbauer startet den Server Jusline für die Rechtswissenschaften.

1994
Das Human Genome Project beschließt, die bisher erzielten Ergebnisse auf einem Webserver frei zugänglich zu machen. Die Deutsche Mathematiker-Vereinigung und die European Physical Society beginnen mit dem Aufbau der fachspezifischen Dokumentenserver Math-Net und PhysDoc.

März 1992
Das Logic Journal der Interest Group in Pure and Applied Logics (IGPL) erscheint als eine der ersten, frei zugänglichen wissenschaftlichen Zeitschriften (mit begutachteten Beiträgen) im Internet.

August 1991
Der Physiker Paul Ginsparg startet am Los Alamos National Laboratory einen Preprint-Server, auf dem Fachkollegen aus aller Welt die zuvor nur auf Anfrage oder per Mailing-Liste versandten Vorabdrucke ihrer Veröffentlichungen zum Download bereitstellen. Der Ginsparg-Server wird zum Modell für „Open Access“, dem freien Zugang zu wissenschaftlichen Aufsätzen. (jk)