Web 2.1
Während sich in vielen Bereichen die Web2.0-Technik erst noch durchsetzen muss, arbeiten Forscher bereits an der übernächsten Generation des Netzes. Prototypen sind bereits verfügbar.
- Wade Roush
Alle sprechen vom Web 2.0. Mit dem Modebegriff wird typischerweise eine Online-Welt charakterisiert, bei der sich die Kommunikation zwischen den Nutzern dank Social-Networking- und Social-Media-Technologien deutlich vereinfacht. Und auch die Anwendungen "reden" besser miteinander: Dank offener Webstandards, die Daten genauer beschreiben und leichter abfragbar machen, lassen sich Informationen kombinieren und mancherorts zu "Mashups" verarbeiten. Darüber hinaus können sich Nutzer über bessere Schnittstellen freuen: Anwendungen im Browser fühlen sich mehr und mehr wie Programme auf dem Desktop an.
So viel also zum Web 2.0 in der Idealvorstellung. Doch was kommt danach? Bei verschiedenen Unternehmen, Organisationen und Hochschulen wird an Nachfolgetechnologien geforscht - vom Computer Science and Artificial Intelligence Laboratory (CSAIL) am MIT über das World Wide Web Consortium (W3C) bis hin zu Amazon oder Google. Überall bastelt man an einem intelligenteren Web - und einige dieser Ansätze sind als Prototypen bereits für jeden über das Internet zugänglich.
Die erste Kategorie von Neuentwicklungen lässt sich unter dem Sammelbegriff "Semantic Web" zusammenfassen, eine Vision, die WWW-Erfinder Tim Berners-Lee in den späten neunziger Jahren entwickelte. Dazu gehört, dass jede Information im Web mit Metadaten angereichert wird, die ihre Bedeutung beschreibt. Diese Kontextinformationen helfen Web-Anwendungen dann, die Daten besser zu nutzen - zumindest theoretisch.
Heutige Webkalender wissen beispielsweise nicht viel über ihren Nutzer - höchstens, dass er von Zeitpunkt A bis Zeitpunkt B einen Termin hat. Ein Kalender im "Semantic Web" besäße hingegen standardisierte Metadaten über den Anwender - er wüsste, in welcher Stadt er lebt, in welchem Jahr er geboren wurde, welches Lieblingsessen er hat und welche TV-Shows er mag. Das würde aus einer solchen Webapplikation dann schnell eine Art persönliche Sekretärin machen.
Will man dann ein Treffen mit Freunden mit den gleichen Interessen vereinbaren, könnte dieser Kalender automatisch prüfen, wann es einen Zeitpunkt gibt, zu denen alle frei sind. Oder der Kalender sucht automatisch eine zwanglose Verabredung zum Essen heraus, in dem es Freunde mit dem selben Geschmack genauso nach Freizeit überprüft, wie das persönliche soziale Netzwerk von Freunden der eigenen Freunde, die sich in der selben Altersgruppe mit ähnlichem Wohnort befinden.
Doch das alles ist bislang Science Fiction. Einer der Gründe: Es wäre ein gigantischer Aufwand, das gesamte Web mit Metadaten zu "taggen". Zudem gibt es nach wie vor keine echten Metadaten-Standards. Entsprechende Projekte wie "FOAF" ("Friend of a Friend" - Freund eines Freundes) existieren zwar bereits seit längerem, konnten sich aber bislang nicht durchsetzen. Dabei ist FOAF durchaus interessant: Die persönlichen Daten werden dabei im computerlesbaren RDF-Format gespeichert und enthalten Informationen wie den eigenen Namen, die E-Mail-Adresse, die Homepage, eventuelle Spitznamen, Links zu Fotos und die Namen von Menschen, die der FOAF-Nutzer kennt.
FOAF wurde im Jahr 2000 von den britischen Software-Entwicklern Libby Miller und Dan Brickley entwickelt. Entsprechende Datensätze lassen sich sehr einfach auf kostenlosen Netzangeboten wie "Foaf-a-matic" erstellen und dann in das eigene Blog hochladen. Ist das erst einmal geschehen, können Suchmaschinen wie der "FOAF Explorer" oder "People Aggregator" die eigene Person leichter auffindbar machen. FOAF kann aber noch mehr: Auf Social-Networking-Angeboten ließe sich mit dem Format die vollständige Freundesliste mit nur einem Klick importieren. Allerdings gibt es derzeit schlicht zu wenige Anbieter, die die Technik nutzen.
Ein weiteres Projekt, das mehr Kontextinformationen ins Web holen soll, nennt sich "Piggy Bank". Es wird von den Bibliotheken des MIT, dem CSAIL und dem W3C vorangetrieben und soll wichtige Informationen von Websites automatisch sammeln und diese dann in neue Zusammenhänge stellen.
Die Piggy-Bank-Macher hoffen, dass die Nutzer damit auf den Geschmack des "Semantic Web" kommen, ohne dass sie darauf warten müssen, bis Milliarden von Dokumenten mit Metadaten versehen wurden. Neugierige können sich die Piggy-Bank-Erweiterung für den Browser Firefox bereits herunterladen. Einmal installiert, wählt der Nutzer aus, wo er Informationen beziehen will. Dazu werden so genannte "Screenscaper" eingesetzt ("Bildschirmkratzer"), die derzeit etwa Daten aus LinkedIn oder Flickr ziehen können. Piggy Bank legt die reine Information ab: Kontaktnamen und Bilder beispielsweise, die dann im RDF-Format im Browser verfügbar sind. Theoretisch lassen sich so Daten von verschiedenen Quellen mischen - Adressdaten mit einem Kartendienst, beispielsweise.
Leider existieren allerdings kaum Werkzeuge, mit denen Programmierunkundige Piggy Bank nutzen könnten. Im Test steigt die Software auch gerne aus - wer sich die Anleitung nicht genau durchliest, sitzt schnell auf dem Daten-Trockenen.
Wem das "Semantic Web" nicht ausreicht, kann es mit einem weiteren Trend in der Webforschung versuchen. Eine Kategorie neuer Werkzeuge versucht, Menschen zu rekrutieren, um Maschinen intelligenter zu machen. Das wohl bekannteste Projekt dieser Art ist der "Mechanische Türke" von Amazon (Amazon Mechanical Turk), eine Art High-Tech-Zeitarbeitsfirma, die seit 2005 besteht. Der Dienst erlaubt es, Menschen mit Aufgaben zu betrauen, die ein Computer nicht oder nur schwerfällig beherrscht - etwa Fotos auf ihren Inhalt hin zu kontrollieren. Amazon bietet dazu die Infrastruktur und eine Möglichkeit, Arbeiter zu rekrutieren.
Die einzelnen Aufgaben sind schnell erledigt - pro Arbeit im Durchschnitt in unter einer Stunde. Bezahlt wird zudem enorm wenig: Pro einzelner Problemlösung gibt's nur ein paar Cent. Aber die Hauptidee bei dem Projekt ist auch nicht, ein paar Internetsüchtige mit einem zweiten Einkommen zu versorgen - Amazon will die Hirnleistung seiner Nutzer nur für ein paar Momente verwenden, um einfache Aufgaben zu erledigen, die für Computer noch immer zu komplex sind. (Kein Wunder eigentlich, dass Amazon seinen Dienst "künstliche künstliche Intelligenz" nennt.)
Einige Aufgaben, die derzeit angeboten werden, sind zudem eher Marketing oder einfach nur Marktforschung. So wollte kürzlich jemand eine Antwort auf die Frage haben, wie man die E-Mail-Technik verbessern kann. Andere Angebote illustrieren die Idee des Dienstes besser: So suchte ein anderer Menschen, die Informationen aus einem "Gelbe Seiten"-Dienst in einen anderen umsortieren und dabei die richtigen Kategorien beibehalten, obwohl sich diese subtil unterscheiden. Ein Computer könnte das nur nach Jahren des Trainings - er versteht nicht auf Anhieb, dass ein "Deli" eigentlich nur ein kleines Restaurant ist. Menschen erledigen diese "Matches" hingegen in Sekunden.
Amazons "Mechanischer Türke" ist nicht der einzige Dienst seiner Art. Googles so genannter "Image Labeler" versucht zurzeit, Menschen dazu zu überreden, digitale Bilder mit Beschriftungen zu versehen. Das Ganze wird schmackhaft gemacht, in dem Google daraus ein Spiel gestaltet: Die Kandidaten kämpfen gegeneinander, müssen aber auch zusammenarbeiten. Ähnlich wie bei Amazons Dienst gibt es hier viele Fans, die gerne mitmachen. Aber es ist dennoch merkwürdig, dass die Technik erst zu einem Spiel werden muss, bevor sie genutzt wird. Sollen sich diese Dienste also tatsächlich positiv auf das Web auswirken, müssen sie ihr Spielzeug-Image loswerden.
Fazit: Es ist zwar verständlich, dass Marktbeobachter und Analysten nach einem neuen Label für das suchen, was weitergeht als das heutige Web 2.0. Doch man kann kaum sagen, dass eines dieser Forschungsprojekte tatsächlich weit fortgeschritten oder gar kommerzialisierbar wäre. Eine dritte Generation in Sachen WWW-Technologie ist das also noch nicht, eher Version 2.1. Bis zur Version 3.0 wird es wohl noch ein paar Jahre dauern.
Ăśbersetzung: Ben Schwan. (nbo)