Gütesiegel für Wikipedia

Allein die deutschsprachige Wikipedia verfügt über mehr als eine Million Einträge. Allmählich erkennen auch Wissenschaftler die Online-Enzyklopädie als seriöse Quelle an.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
Lesezeit: 6 Min.
Von
  • Hanns-J. Neubert

Allein die deutschsprachige Wikipedia verfügt über mehr als eine Million Einträge. Allmählich erkennen auch Wissenschaftler die Online-Enzyklopädie als seriöse Quelle an.

Taugt Wikipedia als seriöse Quelle für akademische Studien? Fragt man deutsche Professoren, ist die Reaktion in der Regel Ablehnung. Das Mitmach-Lexikon erfreut sich zwar in der Öffentlichkeit ungebrochener Popularität, gilt aber in der wissenschaftlichen Welt als unseriös, weil es nicht den strengen Regeln des "Peer Review", der Begutachtung durch unabhängige Experten, genügt.

Die Ironie dabei: Das einflussreiche britische Fachjournal "Nature" bescheinigte bereits vor sieben Jahren der damals noch jungen Wikipedia, dass sie in Sachen Qualität der 244 Jahre alten, ehrwürdigen "Encyclopedia Britannica" qualitativ kaum nachstand. Aber in vielen deutschen Universitäten dürfen die Studierenden nicht einmal für ihre Semesterarbeiten auf die Wikipedia zurückgreifen – außer vielleicht zur ersten Orientierung.

Doch die Zeiten ändern sich: Im vergangenen Jahr tauchten Wikipedia-Zitate weltweit in 4006 seriösen wissenschaftlichen Veröffentlichungen auf, die das traditionelle Peer-Review-Verfahren durchlaufen haben. Das hat Sarah Huggett herausgefunden, Bibliografin des Online-Magazins "Research Trends" des renommierten Elsevier-Verlags.

Huggett analysierte die verlagseigene Datenbank "Scopus", eine der größten Sammlungen für Kurzinformationen aus rund 46 Millionen wissenschaftlichen Veröffentlichungen. Dabei zeigte sich, dass US-amerikanische Wissenschaftler der Wikipedia am häufigsten vertrauen. Seit 2002 tauchte sie als Quelle in knapp 4000 ihrer Veröffentlichungen auf.

Die Akademiker anderer Länder halten sich da noch sehr zurück. Englische Forscher wagten es immerhin, in rund 1000 ihrer Artikel auf Wikipedia zu verweisen, und lagen damit knapp vor ihren chinesischen und indischen Kollegen. Deutsche Akademiker waren noch zurückhaltender und zitierten Wikipedia nur in 700 Arbeiten. Allerdings ist die englischsprachige Version die umfangreichste aller 284 Wikipedia-Sprachversionen.

Natürlich sind selbst ein paar Tausend Studien mit Wikipedia-Verweisen nur ein verschwindend kleiner Teil verglichen mit den jährlich neu erscheinenden geschätzten 1,5 Millionen wissenschaftlichen Veröffentlichungen. Allerdings steigt seit fünf Jahren die Zahl der Wikipedia-Verweise um jährlich 31 Prozent, vor allem in den Sozial-, Computer-, Ingenieurwissenschaften und der Medizin. Ein ehrgeiziges Projekt der deutschen Wikipedia-Betreiber könnte dazu beitragen, dass der Trend sich in Zukunft noch weiter beschleunigt. Eine der zentralen Schwächen der Wikipedia sind inkonsistente Daten. So schwankt zum Beispiel die Einwohnerzahl von Berlin zwischen knapp 3,5 und 3,43 Millionen – je nachdem, ob man die deutsche oder die finnische Wikipedia zu Rate zieht.

Diesem Makel soll Wikidata abhelfen, ein Projekt des deutschen Wikimedia-Vereins, das im April 2012 startete. Es soll eine zentrale Sammlung für Fakten bilden – ähnlich wie Wikimedia Commons, einer zentralen Datenbank für fast 13 Millionen Audio-, Video- und Bilddateien, die in der Wikipedia verlinkt sind. Aus der Wikidata-Sammlung können sich Wikipedia-Autoren bedienen und die Daten mittels besonderer Anweisungen oder Tags in ihre Texte einfließen lassen. Wenn sich also die Einwohnerzahl von Berlin ändert, reicht es, sie an einer einzigen Stelle zu korrigieren, damit sie in allen Wikipedia-Artikeln auf dem neuesten Stand ist. Genau wie die Artikel in der Wikipedia werden auch die Wikidata-Daten frei zur Verfügung stehen.

Wikidata wäre aber kein echtes Kind der Wikipedia-Gemeinschaft, wenn es nicht sofort heftige Diskussionen um Sinn, Zweck und Auswirkungen der zentralen Datenbank gegeben hätte. Mark Graham etwa, wissenschaftlicher Mitarbeiter am renommierten Internet Institute der Universität Oxford, warnte in einem Beitrag für das US-Magazin "The Atlantic" davor, dass "erstarrte, strukturierte Daten" nicht mehr "die Meinungen und den Glauben verschiedener Sprachgruppen" widerspiegeln könnten, die "sowieso am Rande" ständen. Denn wie bei der Redaktionsarbeit an der Wikipedia werde wohl auch die Datensammlung nur von einer Kerngruppe bearbeitet, von vorwiegend jungen, weißen, männlichen und gut gebildeten Menschen. Durch das zentralisierte Faktenwissen würde nach Grahams Meinung "eine bestimmte Weltsicht verfestigt" werden.

Andere Kritiker bringen handfestere Bedenken vor. Zwar müssen alle Zahlen, jeder Name und jeder Begriff eindeutig referenziert sein und aus einer glaubwürdigen Quelle stammen. Welche davon seriös ist und welche nicht, darüber werde es unter den freiwilligen Datensammlern genauso heiße Diskussionen geben wie unter den Schreibern in der narra-tiven Wikipedia, fürchten sie. Dazu kommen politische Streitfragen, die bereits jetzt die Wikipedia belasten: So wäre es schwerlich möglich, dass sich hebräische und arabische Autoren auf eine für beide akzeptable Einwohnerzahl von Israel einigen könnten. Erstere würden die besetzten Gebiete und israelische Siedlungen mitzählen, Letztere nicht.

Projektleiter Denny Vrandecic ficht das nicht an. Es gehe bei der Datensammlung nicht um Wahrheit, sondern um Fakten – und Fakten können "unterschiedliche Wahrheiten abbilden", sagt Vrandecic. So könnten durchaus Daten des israelischen neben denen des ägyptischen Statistikamtes und denen des CIA-Welt-Faktenbuches stehen. Die Nutzer der Daten können sich dann aussuchen, welche für sie relevant sind – oder auch ganz darauf verzichten.

Vrandecic, nebenbei auch Gründer und Administrator der kroatischen Wikipedia und Mitentwickler des MediaWiki-Projekts, hat sein Handwerk unter anderem am Institut für angewandte Informatik und Formale Beschreibungsmethoden des Karlsruher Instituts für Technologie (KIT) gelernt. Für ihn und seine zwölf Mitstreiter ist das Programm mehr als eine kleine redaktionelle Verbesserung des weltweiten Online-Lexikons.

Denn über Programmschnittstellen sollen die Zahlen, Namen und Fakten auch in anderen Online-Anwendungen genutzt werden und so auch in die Wissenschaft einfließen.

Wikidata ist damit ein weiterer Baustein hin zu einem semantischen Web, das nicht nur von Menschen gelesen werden kann, sondern in dem auch Computer und Software Informationen sinnvoll miteinander verknüpfen können. Das spiegelt sich auch in der Finanzierung des Wikidata-Projekts wider: An den Kosten von 1,3 Millionen Euro beteiligt sich zur Hälfte das Allen Institute for Artificial Intelligence, das vom Microsoft-Mitgründer Paul G. Allen ins Leben gerufen wurde. Je ein Viertel der Entwicklungskosten steuern die Gordon and Betty Moore Foundation sowie Google bei. Wenn der Zeitplan eingehalten wird, steht die Software bereits im April 2013 zur Verfügung. Für Professoren und Studenten spricht dann noch weniger dagegen, auf die Nutzung der Wissensschätze in den Mitmach-Enzyklopädien zu verzichten. (bsc)