Crowdsourcing in der Wissenschaft

Wie die Massen zum Wissenschaftler werden

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die Masse - im Sinne einer großen, individuell unspezifischen und zusammenhängend agierenden Anzahl von Menschen - hat im Ganzen gesehen keine gute Presse. In der Soziologie wird der Begriff ungern verwendet, scheint er doch semantisch derartig vorbelastet, dass er sich als deskriptive Kategorie fast verbietet. In den Sprachgebrauch ist er aber vor allem in Zusammensetzungen trotzdem eingegangen.

Mit dem Entstehen der Massengesellschaft - die Historiker sind sich weitgehend einig, dass man davon spätestens mit dem Ende des 19. Jahrhunderts reden kann, während die Revolution des späten 18. Jahrhunderts den Weg für eine politische Ermächtigung der Masse in der gesellschaftlichen Organisationsform der Demokratie frei gemacht habe - erheben sich auch die kritischen Stimmen.

Gustave Le Bon beschreibt in seiner 1895 erschienenen "Psychologie der Massen" ein Individuum, das als Massensubjekt vernunftlos wird und in den Primitivismus zurückfällt. Im Anschluss an Le Bon erkennt Sigmund Freud in der Masse den Agenten des Unbewussten, der sich über die Vernunft hinwegsetzt und in der Unterwerfung unter den Führer seine Erfüllung findet. Für Ortega y Gasset ist die egalitäre Masse der Gegner des aristokratischen Individuums und führt die moderne Zivilisation in eine Aggressivität, die letztlich - Freud nicht unähnlich - im Faschismus mündet.

Psychologisch uneindeutiger bietet die Masse für Elias Canetti in seinem Buch "Masse und Macht" von 1960 ein Erlösungsmodell für den gehemmten Einzelnen, dessen politische Indifferenz zu heftigen Reaktionen vor allem auf Seiten der Linken geführt hat. Dabei schließt die Linke an Marx insofern an, als dieser zwar in der Masse das revolutionäre Subjekt erkannte, diese Masse aber in der Form des Lumpenproletariats ebenso desavouierte wie die Rechte.

Und auch die moderne wissenschaftliche Soziologie ist eher skeptisch gestimmt. David Riesmans "einsame Masse" gibt schon im Titel den fast melancholischen Grundton vor. Gegenüber dem innengeleiteten Subjekt der Frühmoderne zeigt sich das außengeleitete der Gegenwart als in den Massenmedien kollektivierte Vorstadtexistenz, die ihren Lebenstraum eher in der Befolgung von Rollenmodellen erkennt als in der Verwirklichung eigener Ziele.

Internet: neues Massenmedium oder individuelles Medium?

In den letzten Jahrzehnten aber hat die Masse eine neue, nicht weniger umstrittene Bedeutung gefunden, und zwar in einem Medium, das als Aggregationsform der Masse eine zuweilen zweifelhafte Berühmtheit erlangt hat: dem Internet. Dass das Internet ein Medium der Masse sei, ist allerdings durchaus umstritten. Adressiert es doch im Gegensatz zum Massenmedium etwa des Fernsehens zwar viele Menschen - beim sozialen Netzwerk Facebook sind es sage und schreibe 800 Millionen Einzelne -, aber doch nicht als Teil einer homogenen Einheit, sondern als disparate Ansammlung von Individuen, die in eben dieser Individualität unterschiedlich anzusprechen sind und angesprochen werden können. Jedes einzelne Subjekt dieser Masse - und seien es eben 800 Millionen - wird nur mit den Nachrichten und Dienstleistungen versehen, die auf genau dieses zugeschnitten sind. Teil einer geradezu unvorstellbar großen Menge zu sein und gleichzeitig seinen unreduzierbaren Individualitätscharakter erhalten zu können - und sei dieser auch noch so sehr fremdbestimmt: das dürfte das revolutionär Neue des neuen Mediums Internet sein.

In den diversen politischen Aufbruchbewegungen der Gegenwart - zuletzt Arabien, in Bälde vielleicht Russland - hat das Internet seine revolutionäre Organisationskraft bewiesen, auch wenn die Kritiker darauf verweisen, dass autoritäre Regime in genau dem gleichen Medium auch das Gegenteil erreichen und die Massen des Internets durch Indoktrination und gezielte Desinformation stillstellen können.

Die Verunsicherung, mit der hierauf der klassische Intellektuelle reagiert, ist allemal signifikant. Anstatt es als Realisierung eines Projektes der Aufklärung zu sehen, in dem sich das Räsonnement der Öffentlichkeit manifestiert, neigt er dazu, gegen die Masse das Vorrecht des informierten Einzelnen in Stellung zu bringen. Jürgen Habermas dürfte dafür nur das prominenteste Beispiel darstellen.

"Weisheit der Vielen"

Die Masse aber ist im Internet nicht nur politisch auf neue Art und Weise zu bewegen, sie kann in dem Medium auch als Agent der Wissensgenerierung eingesetzt werden. Darum soll es an dieser Stelle gehen. Dass das Expertentum im Internet relativiert wird, ist schon an verschiedenen Stellen angstvoll thematisiert worden, vor allem auch dort, wo man das Ende des klassischen Journalistentums unter dem Druck umsichgreifender Weblogs voraussieht. Dass aber die Masse zum Wissenschaftler wird, oder der Wissenschaft doch auf eindrückliche Weise zuspielt und sich gegenseitig bildet, das dürfte ein relativ neuer Gedanke sein.

Im Anschluss an James Surowiecki, der 2005 in medial unspezifischer Hinsicht von der "wisdom of crowds" sprach und dabei einen Terminus verwandte, der im Englischen interessanterweise sowohl "Masse", als auch "Menge" und "Viele" bedeutet, kann insbesondere der New Yorker Medienwissenschaftler Clay Shirky als Propagandist eines internet-generierten Kollektivwissens gelten. Sein Buch "Here comes everybody. The power of organizing without organizations" (2008) bildet schon im Gestus des Titels, mehr noch natürlich in seiner inhaltlichen Zielrichtung, den Gegenpol zu einem expertokratischen Intellektuellentum, das die europäische Academia weiterhin dominiert.

Wikipedia etwa wird bei Shirky als Inbegriff eines durch die Masse der "user" hergestellten Wissensraumes gefeiert, der den Vergleich mit professionellen Enzyklopädien nicht zu scheuen braucht. Zentral für Shirky ist dabei die in das Schlagwort "publish first, filter later" verpackte Einsicht, dass das Internet die Arbeitsweise der Internet-gestützen Wissensproduktion radikal umdefiniert.

Aus den ungefilterten, aber in extrem hoher Quantität vorliegenden Wissenspartikeln der Online-Gemeinde wird - entweder durch bewertende Annotationen eben dieser Gemeinde oder durch automatische, algorithmisch gesteuerte Verfahren - ein bereinigtes und geordnetes Wissen generiert. In Wikipedia selber wird üblicherweise so verfahren, dass das Grundgerüst eines Artikels in mehrfacher, jeweils zu erweiternder Bearbeitung durch verschiedene Autoren der Vollendung entgegen getrieben wird. Nicht mehr der Intellektuelle im Elfenbeinturm steht hier im Zentrum, sondern es wird eben jene Masse zum Subjekt, die in den anfänglich zitierten Theorien als bewusstloses, außengesteuertes Objekt definiert wurde.

Crowdsourcing als Spiel

Ein nicht nur in Insiderkreisen inzwischen berühmter Praktiker der "Weisheit der Vielen" ist der amerikanische Informatiker Luis von Ahn, dessen erstaunliche Vorträge zum Thema "Human Computation" auch im Internet zu verfolgen sind. Von Ahn bedient sich dabei einer Verfahrensweise, die üblicherweise ebenfalls für wissenschaftlich wenig satisfaktionsfähig gehalten wird, deren Potentiale Didaktikerprofis aber für weittragend und bislang wenig ausgeschöpft halten: das Spiel. Der Informatiker von der Carnegie Mellon University nutzt es, um die Internet-Gemeinde zur Annotation von Bildern heranzuziehen, grundsätzlich eignen sich dafür aber alle digital und online vorliegenden Objekte, also auch Töne und Texte.

Die Problemlage ist eindeutig: Im Internet gibt es Milliarden von digitalen Objekten, darunter auch eine große Anzahl von Bildern. Kann man nach Texten suchen, indem man Begriffe als einzelne oder in Kombination eingibt, die in diesem Text selber vorhanden sind, so ist die Lage bei Bildern schwieriger. Nach ihnen müsste man mit Pixelkombinationen fahnden und zum Beispiel angeben, dass man alle Objekte sucht, die in der Farbe Magenta daher kommen. Das ist keine Anfrage, die dem entspricht, was einer semantisch gesteuerten Suche gleichkommt. Also wird man auf Metadaten zurückgreifen müssen, zumindest solange, wie eine semantische Suche, die direkt das Bild adressiert, Utopie bleibt.

Zwar wird momentan intensiv und in geradezu industriellem Ausmaß eine solche Suche beforscht. Denn insbesondere für militärische Zwecke dürfte es zentral sein, einen Panzer als solchen automatisch zu identifizieren, wenn man ihn mit einer unbemannten Drohne angreifen will: Die informationstechnischen Probleme, welche sich hier stellen, sind aber ungeheuer, und vorderhand dürfte ein von menschlicher Intelligenz als "Panzer" markiertes Objekt noch passender Behelf sein. Bei der großen Anzahl von Bildern im Internet, die quantitativ im Übrigen täglich massiv ansteigen, bietet sich aber ein Verfahren an, das sich von den gängigen Prozessen unterscheidet, in denen Einzelne diese Annotationen vornehmen, Einzelne im Übrigen, die im Fall von komplexer strukturierten Objekten wie Kunstwerken Fachkenntnisse besitzen müssen. Ein Beispiel dafür ist das Projekt ARTigo, bei dem spielerisch und online eine kunsthistorische Analyse von Bildern ermöglicht wird.

In massiver oder wachsender Anzahl vorhandene Bildobjekte sollte man dann eben über die Masse selber greifbar machen und sich eines Verfahrens bedienen, das mit dem Begriff des "crowdsourcing" belegt wird. Kein anderes Medium bietet sich zur Adressierung der Masse so ideal an wie das Internet. Weltweit dürften zur Zeit an die 2 Milliarden Menschen darauf zugreifen können. Mit einem einzigen Klick sind sie dort, wo von Ahn sie abholen will.

Einzelne dafür einzusetzen scheint aussichtslos, weil man so die schiere Anzahl nie in den Griff bekommt. Aber die Masse kann hier mehr bewirken. Nicht umsonst hat Google das Verfahren übernommen, um damit die ungeheure Anzahl von Bildern im Netz zu beherrschen, sie also suchbar zu machen (google image labeler). Aber worin besteht dieses Verfahren? Eigentlich ist es ganz einfach: Der Teilnehmer bekommt ein Bild präsentiert, das er mit passenden Begriffen belegen soll. Um abzusichern, dass er, der ja unbekannt ist und nicht kontrolliert werden kann, keinen Blödsinn eingibt, führt von Ahn ein Spiel ein, das darin besteht, dass zwei einander nicht bekannte Mitspieler gemeinsam annotieren müssen, deren Eingaben aber nur akzeptiert werden, wenn sie identisch sind. Mit diesem ebenso einfachen wie genialen Trick lässt sich absichern, dass der Blödsinn weitgehend ausgeschlossen und nur Annotationen validiert werden, die tatsächlich zutreffen.

Das von dem amerikanischen Informatiker gewählte Verfahren könnte man dadurch verbildlichen, dass man es mit einer bekannten Übung vergleicht, die auch dem weniger Internetaffinen geläufig ist. Wer beim Tontaubenschießen erfolgreich sein will, muss ein guter Schütze sein. Als solcher ist er ein rares Gut und lässt sich seine Fähigkeiten z.B. monetär vergüten. Die Alternative liegt nach allem, was zum Crowdsourcing gesagt wurde, auf der Hand: Man lässt tausend Leute nach der Tontaube schießen, in der durchaus gerechtfertigten Hoffnung, dass einer von ihnen schon treffen wird. Und auch wenn das nach hohem Aufwand klingt: Alle diese Leute sind keine Profis und werden auf die Vergütung verzichten, wenn sie an der Sache Vergnügen finden oder bei ihr beispielsweise etwas lernen können.

Im Resultat ist die Übung also zwar aufwendiger, aber weniger kostenintensiv als die gängige. Vornehmliche Sorge der Organisatoren muss sein, die tausend Schützen so zu organisieren, dass sie sich z.B. nicht gegenseitig behindern oder sich gar gegenseitig erschießen. Bildlich gesprochen entspricht dies der spielerischen Organisationsform, die von Ahn für sein Verfahren gewählt hat.

Von Ahn hat bewiesen, dass das Verfahren in der Lage ist, in kurzer Zeit Millionen, gar Milliarden Annotationen zu generieren, die unmittelbar zur Suche verfügbar sind. Das ist schon deswegen nicht weiter verwunderlich, weil ihm mit Google ein Partner zur Verfügung steht, der Zugriff auf große Teile der weltweiten Internetgemeinde hat. Und auch die Qualität der Annotationen, bei komplexeren Bildern wie eben den erwähnten Kunstwerken sicherlich ein entscheidendes Kriterium zur Bewertung des Verfahrenserfolges, lässt sich mit intelligent konstruierten Spielsituationen ins Professionelle hinein steigern.

Transkription und Edition von Texten mit der Hilfe von Massen

Von Ahn hat weitere Ideen entwickelt, mit denen er die Weisheit der Masse zu Problemlösungen anzapft, die auf anderem Wege schon aufgrund ihrer schieren Menge nicht zu haben sind. Eines dieser Probleme stellt sich bei der Retrodigitalisierung von alten, handgeschriebenen oder gedruckten Texten. Das geschieht zur Zeit an vielen Orten und in millionenfacher Anzahl, so dass eine händische Übertragung des gescannten, aber eben noch nicht codierten Textes ausgeschlossen ist.

Für solche Fälle gibt es eigentlich die sogenannten "Optical character recognition"-Programme, die die Identifizierung des Textes automatisch vornehmen, also aus dem Bild eines Buchstabens dessen Codierung erzeugen. Bei alten Schriften aber ist das schwierig, und die häufig mangelhafte materielle Überlieferung von vielfach benutzten und daher abgenutzten Büchern erschwert die Sachlage zusätzlich. Hier greift von Ahn erneut auf die Weisheit der Masse zurück, da der Mensch bei allen nicht hinreichend formalisierbaren Problemstellungen immer noch mit Abstand bessere Ergebnisse erzielt und der Mengennachteil durch die große Zahl der Mitarbeiter ausgeglichen wird.

Die vorliegenden Texte werden automatisch in einzelne Wörter segmentiert, und diese werden dem Internetnutzer als Aufgabe zur Transkription gestellt. Die eigentlich geniale Idee dabei war, dass das Verfahren gleichzeitig zur Feststellung verwendet werden kann, ob sich vor dem Rechner tatsächlich ein Mensch befindet, oder ob hier maschinell zugegriffen wird. Jeder Internetnutzer hat schon einmal festgestellt, dass er, wollte er auf ein bestimmtes Angebot im Netz zugreifen, ein undeutlich geschriebenes Wort transkribieren musste, weil aus dem eben genannten Grund eine Maschine das zumindest aktuell noch nicht hinbekommt. Da aber die Anbieter den Zugriff von Maschinen verhindern wollen, haben sie in der beschriebenen Vorgehensweise ein ideales und kostengünstig zu handhabendes Verfahren erkannt und nutzen es inzwischen millionenfach.

Von Ahn, der selber Erfinder des inzwischen überall verwendeten, sogenannten Captcha-Verfahrens ist, nutzt genau diesen Vorgang zur Transkription von nur bildlich vorliegenden Worten. Und da täglich eine dreistellige Millionen-Anzahl von Captchas identifiziert werden muss, verspricht das Verfahren auch einen schnellen Erfolg. Denn selbst wenn ein ganzes Buch aus grob geschätzt 60.000 Worten besteht, kann man doch theoretisch auf diesem Weg jeden Tag 5.000 Bücher transkribieren, was in zehn Jahren dem Bestand einer großen Nationalbibliothek entspricht.

Bei der Transkription oder sogar Edition von Texten die Weisheit der Massen einzubeziehen: Das wird inzwischen auch von professionellen Editionswissenschaftlern praktiziert. Das reicht von der reinen Texterkennung bis hin zur gemeinschaftlichen Annotation von historischer Überlieferung. Je nach Sachlage kann dabei die Masse auf quantitativ unterschiedlich beschränkte und qualifizierte Subpopulationen reduziert werden. Der autoritative Text wird zum "living document", die Kommentare selber zu eigenständiger Publikation mit eigener wissenschaftsgeschichtlicher Dignität.

Lernen von Fremdsprachen und massengestütztes Übersetzen

In seinem letzten Projekt Duolingo entwickelt von Ahn mit seiner Mannschaft ein Verfahren zur crowdgesourcten Fremdsprachenvermittlung. Zwei Aspekte unterscheiden diese Form der Sprachvermittlung von traditionellen: Erstens lernt man gleichsam immer in der Community, vergleicht also die eigenen Übersetzungen, die naturgemäß mit äußerst elementaren Sätzen beginnen, mit denen der Mitlernenden, die irgendwo im Internet agieren, um dann abschließend über die beste Übersetzung abzustimmen. Zweitens werden diese dann an den Anbieter übersandt, der sie zur Übertragung von Texten im Internet nutzt, dem sie natürlich auch entnommen sind. Damit entsteht eine sogenannte Win-win-Situation, die von den Propagatoren der Online-Kultur immer wieder als eine Eigenheit des neuen Mediums gepriesen wird, das sich dadurch von herkömmlichen Eigenheiten des Wirtschaftslebens unterscheide.

Von Ahn behauptet, dass eine Millionen Sprachlerner auf diese Weise in nur 80 Stunden die gesamte englische Wikipedia ins Spanische übersetzen können. Die Zahl klingt absurd, aber wenn man bedenkt, dass Google erneut als Vermittler eintritt und täglich eine noch viel größere Zahl erreicht, wenn man hinzufügt, dass weltweit mehr als eine Milliarde Menschen mit dem Erlernen einer Fremdsprache beschäftigt sind, dann klingt die Rechnung nicht mehr ganz so absurd. Um so mehr, als viele Fremdsprachenwillige in Entwicklungsländern sich die Kosten für traditionelle Vermittlungsverfahren gar nicht leisten können.

Bei aller Faszination, die solche Unternehmungen bei Menschen erzeugen können, die dem Medium Internet nicht gleich von vorneherein mit Ablehnung entgegenstehen - und von letzteren gibt es bekanntlich in Europa entschieden mehr als etwa in den USA, ganz zu schweigen von den meisten ostasiatischen Ländern -, ist doch anzumerken, dass diese "Weisheit der Massen" mit den gängigen Vorstellungen von dem, was wir unter Weisheit verstehen, wenig zu tun hat. Es sind Wissenspartikel, die hier generiert werden, Partikel allerdings, die in aggregierter Form durchaus in der Lage sind, auch wissenschaftlich nutzbar zu sein.

Die geläufige Skepsis gegenüber der Masse wird von solchen avantgardistischen Versuchen wie denen von Luis von Ahn nicht aufzuheben sein, aber eben diese Masse erscheint hier doch in einem entschieden freundlicheren Licht.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.