Direct Hit - eine bessere Suchmaschine?

Gut und wichtig ist, was alle machen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Noch sind die Suchmaschinen die wichtigsten Türen in den Cyberspace. Daher sind sie auch heiß begehrte "Orte", die dank des großen Besucherstroms hoch im Wert stehen und lange die einzigen Sites waren, die an Werbung wirklich verdienten. Gleichwohl haben alle Suchmaschinen ihre Mängel, weswegen immer interessant ist, wenn eine Suchmaschine mit einer neuen Strategie angeboten wird.

Wichtig für eine Suche ist nicht nur das Finden gewünschter Seiten, die Suchbegriffe enthalten, sondern natürlich auch, wie das Gesuchte dargestellt und bewertet wird. Da die Ergebnisse einer Abfrage manchmal Millionen von Treffern erzielen, kommt es auf die interne Selektion an, d.h. welche Treffer in der Reihenfolge zuerst kommen. Da etwa die ersten 10 Treffer, die dargestellt werden, vermutlich am meisten angeklickt werden, bieten Suchmaschinen nicht nur Optionen für eine genauere Suche mit unterschiedlichen Verfahren an, sondern versuchen die Anbieter auch, sich die Prioritätsstrategien der Suchmaschinen zunutze zu machen, um möglichst oben zu landen: eine typische Situation der Konkurrenz und der wechselseitigen Aufrüstung, wie man sie auch aus der biologischen Evolution kennt. Mittlerweile gibt es über Tausend unterschiedliche Suchmaschinen. Da viele kommerziellen Zwecken dienen, werden die technischen Details nicht bekannt gegeben. Man hantiert also in der Regel mit einer Black Box.

Zudem indexiert jede Suchmaschine nur einen Teil der gesamten Dokumentenmenge im Web. Die in diesem Sinn beste, HotBot, erfaßt gerade einmal 34 Prozent, gefolgt von Altavista mit 28 Prozent, während Excite oder Infoseek gerade einmal 14 und 10 Prozent oder Lycos kümmerliche 3 Prozent. Die Meta-Suchmaschinen wollen diesen Mangel umgehen, indem sie mehrere Suchmaschinen - die "wichtigsten"! - parallel abfragen und die Ergebnisse aufbreiten, also wieder in eine bestimmte Reihenfolge bringen, wodurch sich das Problem wiederholt, zumal es ja auch wieder mehrere Meta-Suchmaschinen gibt, die jeweils andere Ergebnisse liefern.

Eine Möglichkeit, die eher im Dienste derjenigen steht, die gefunden werden wollen, als in dem der Suchenden hat die Suchmaschine GoTo entwickelt: gut kapitalistisch werden die Spitzenplätze bei den Treffern an die Meistbietenden verkauft, die nachfolgenden Plätze werden durch Treffer von den "top two" Suchmaschinen aufgefüllt. Jeffrey Brewer, Entwickler von GoTo: "Ich glaube, daß der Markt am besten die Bedeutung von Suchergebnissen festlegt." Angeblich gäbe es hohe Korrelation zwischen der Höhe des Geldes, das die Werbenden zahlen, und der Wichtigkeit des Inhalts. Verdrängt werden dadurch freilich jene Sites, die für sich nicht werben können oder wollen. Und ob die Aufmerksamkeit der Sucher dorthin gehen soll, woher das meiste Geld kommt, scheint kein besonders effizienter Suchergebnis hervorbringen zu können. Von einer allseitigen "Win-Win-Win"-Strategie für Kunden, Werbende und ihn selbst ließe sich nur unter Absehung der ersteren ausgehen.

Manche vergleichen das Web mit seinen Hyperlinks auch mit einem wachsenden globalen Gehirn, das immer größer wird, sich immer dichter vernetzt und so dem biologischen Gehirn zu gleichen scheint, das neue Synapsen bildet und andere verkümmern läßt. Francis Heylighen glaubt denn auch, daß sich im Web Wissen und Bedeutung ähnlich wie im menschlichen Gehirn durch den Prozeß des assoziativen Lernens entwickeln. Nach der Hebbschen Regel würden sich Begriffe, die regelmäßig zusammen angetroffen werden, enger miteinander verbinden. Das würde heute noch durch den Benutzer erfolgen, der von seiner Site aus Hyperlinks legt. Besser aber wäre es nach Heylighen (From World Wide Web to Super-Brain, wenn dies automatisch erfolgen würde: "Man kann einfache Algorithmen einbauen, die das Web (in Echtzeit) aus den Pfaden verlinkter Dokumente lernen lassen, die von den Benutzern begangen werden. Das Prinzip ist einfach, daß Links, die von vielen Benutzer benutzt werden, 'stärker' werden, während die weniger benutzten 'schwächer' werden."

Der Prototyp der Suchmaschine Google verfolgt diesen Gedanken, da die Suchmaschinen mit der explosiv zunehmenden Zahl der Web-Dokumente immer schlechter zurechtkämen. "Die Zahl der Dokumente in den Indexierungen ist um viele Größenordnungen größer geworden, aber nicht die Möglichkeit des Benutzers, sich die Dokumente anzusehen. Die Menschen wollen sich noch immer nur die ersten Zehnergruppen der Treffer ansehen. Deswegen brauchen wir bei zunehmender Größe Tools mit einer sehr hohen Genauigkeit (die Zahl der relevanten Dokumente, die beispielsweise unter den ersten 10 Treffern erscheinen). Wir wollen, daß unser Verständnis von "Relevanz" nur die allerbesten Dokumente einschließt, da es Zehntausende von schwach relevanten Dokumenten geben kann. Google benutzt die Linkstruktur des Netzes, um eine Qualitätseinstufung - PageRank - für jede Webseite zu berechnen. Besonders hoch angesiedelt werden dadurch Seiten, auf die am meisten Hyperlinks von anderen Seiten aus gehen. Diese "Popularität" setzt sich in Prominenz um, woraus Sergey Brin und Lawrence Page, die Google entwickelt haben, ableiten, daß diese auch die Wichtigkeit oder Qualität der Seite widerspiegeln. Durch Setzen von Gewichten können auch Seiten höher gesetzt werden, wenn auf sie zwar nur wenige Hyperlinks führen, dafür aber ein Link von einer Seite, die selbst einen hohen PageRank besitzt. Auf ähnliche Weise werden Wörter auf einer Seite durch eine Hitliste angeordnet, die nicht nur deren Häufigkeit, sondern auch deren Position, Schriftgröße oder Vorkommen in der URL, als Titel, im Anchortext oder Meta-Tags feststellt.

Nach "Prominenz" oder Aufmerksamkeit stuft auch Direct Hit ein, die von Gary Culiss, einem Absolventen der juristischen Fakultät der Harvard University entwickelt wurde, und für die er 1998 den begehrten Preis des MIT $50K Entrepreneurship Competition erhalten hat. Seine gerade gegründete Firma wurde auch mit Venture-Kapital von Draper Fisher Jurvetson finanziert, der unter anderem in GoTo oder Hotmail investiert hat. Wieder geht es um die automatische Erzeugung von Bedeutung, die aus der Aktivität der Benutzer gewonnen wird. Deren Entscheidungen nämlich, also welche Auswahl sie aus den zunächst angebotenen Treffern wählen, geht in das Ranking für die nächsten Suchenden ein und plaziert die am meisten gewählten an erster Stelle. Direct Hit speichert die Wahl und setzt dann schön "demokratisch" bei den folgenden Suchen mit den gleichen Begriffen die getroffene Auswahl höher an. Wieder gibt die Masse den Weg an, den jeder folgen soll, als käme man damit zu besseren Entscheidungen und als würde das, was viele machen, auch automatisch mehr Bedeutung für den einzelnen haben: "Direct Hit macht", so Culiss, "alle Suchenden da draußen zu Redakteuren. Wenn Yahoo 80 Redakteure hat, dann hat Direct Hit eine Million." Seltsam, daß solche Ideen gerade in einer Gesellschaft wie der amerikanischen ausgebrütet werden, die den Individualismus kultiviert.

Im Grunde sind derartige Mechanismen, die Aufmerksamkeit nur auf das lenken, was bereits Aufmerksamkeit gefunden hat, Trendverstärker, die Konzentrationsprozesse beschleunigen. Die natürliche Selektion oder der Markt, basierend auf den Entscheidungen der einzelnen, regelt angeblich alles bestens, besser jedenfalls als jede Steuerung, die nur an sozialistische Marktwirtschaft erinnert, denn stets wird beteuert, daß die Menschen anders mit der Flut der Informationen nicht mehr zurechtkommen, als sich einer unsichtbaren Hand anheimzugeben, die ihnen letztendlich, die Vorliebe zur Entscheidung für die ersten Treffer unterstellt, ihre Entscheidung aus der Hand nimmt. Überdies geht mit solchen Mechanismen, wenn sie sich denn durchsetzen, noch weiter die Chance verloren, auch einmal auf etwas zu stoßen, was man nicht direkt gesucht hat, aber dennoch interessant sein kann.

Das allerdings ist ganz allgemein die Crux der sogenannten Personalisierung der Informationsbeschaffung oder einer automatisierten Selektion, die die Aufmerksamkeit entlastet. Schon mit den Push-Technologien ertönte im kommerziellen Web die Losung, daß es jetzt endlich Schluß sei mit dem anarchischen Netz und den wilden Flaneuren. Jetzt mehren sich die verschlossenen Türen, in die man nur eintreten kann, wenn man seine Kreditkarte zückt. Die Portale wollen, wenn Sites zu den Startorten beim Eintritt in den Cyberspace gemacht werden sollen, die zu Kunden verwandelten Menschen möglichst in ihrem Bereich halten und den Rest ausblenden. Ohne Suchmaschinen sind wir im Netz verloren, wenn wir und nicht einfach als Flaneure von einem Link zum nächsten treiben lassen wollen. Ein bißchen Überraschung sollte es auch noch geben dürfen, auch wenn der Preis dafür wahrscheinlich viel Abseitiges und Uninteressantes, Enttäuschendes und In-die-Irre-Führendes ist.