Geheimniskrämerei bei Google?

Google läßt sich bei seiner Infrastruktur nicht gerne in die Karten schauen - vielleicht aus Furcht vor Konkurrenz

In Pocket speichern vorlesen Druckansicht
Lesezeit: 18 Min.
Von
  • Simson Garfinkel
Inhaltsverzeichnis

"Diesen Zahlen sollten Sie niemals trauen", sagte Martin Farach-Colton, Informatikprofessor an der Rutgers University, als er vor etwas mehr als einem Jahr einen Vortrag über seinen zwei Jahre dauernden Forschungsaufenthalt bei Google hielt. Dabei stellte er Statistiken zu der Suchmaschine vor, die er selbst als unglaubwürdig bezeichnete. Demnach beantwortet Google 150 Millionen Suchanfragen am Tag, erreicht bis zu 1000 Suchanfragen pro Sekunde, besitzt mehr als 10.000 Server, führt bis zu 4 sogenannte Tera-Ops pro Sekunde durch, indiziert drei Milliarden Web-Seiten und vier Milliarden Dokumente insgesamt und nutzt mehr als vier Petabyte an Festplattenkapazität.

Ein paar Leute im Publikum fingen bei dem Vortrag an zu lachen: Die Google-Zahlen machten keinen Sinn. Ich habe selbst nachgerechnet. Die "4 Tera-Ops pro Sekunde" bedeuten 4000 Milliarden Operationen pro Sekunde, ein Server schnellster Bauart erreicht rund zwei Milliarden Operationen pro Sekunde. Das würde also 2000 Servern entsprechen -- nicht etwa 10.000. Vier Petabyte an Festplattenspeicherplatz bedeuten auf 10.000 Server verteilt 400 Gigabyte pro Server. Die Zahl kann wieder nicht stimmen, weil Farach-Colton selbst behauptete, dass Google zwei 80-Gigabyte-Festplatten in jedem seiner Server betreibt.

Und dann sind da noch die 150 Millionen Suchanfragen pro Tag. Wenn das System maximal 1000 Anfragen pro Sekunde abfertigt, erhält man maximal 86,4 Millionen Suchanfragen pro Tag - oder sogar nur 40 Millionen Suchanfragen, wenn man davon ausgeht, dass das System höchsten den halben Tag lang voll ausgelastet ist. Egal wie man es auch dreht und wendet: Die Google-Zahlen sind inkonsistent.

"Diese Zahlen sind absurd klein", so Farach-Colton weiter, "Google gibt wesentlich geringere Zahlen an, als es der Wahrheit entspricht." Jedesmal, wenn ein Google-Mitarbeiter eine Präsentation zusammenstelle, erklärte er, überprüfe die Pressestelle den Vortrag im Vorfeld und frisiere die Zahlen nach unten. In Farrach-Coltons eigener Präsentation hätten anfangs 1000 Suchanfragen pro Sekunde als Minimal- und nicht als Spitzenwert gestanden. "Wir haben mehr als 10.000 Server. "Mehr" bedeutet in diesem Fall viel mehr."

Genauso wie Google schnell und scheinbar mühelos jede Frage beantworten kann, die man der Suchmaschine stellt, ohne dass der Nutzer irgendetwas von der Komplexität der Technik mitbekäme, will Google seine Konkurrenz darüber im Dunkeln lassen, wie schwer die Arbeit, die man leistet, tatsächlich ist. Würde Google bekannt geben, wie viele Seiten wirklich indiziert werden und wie viele Server in seinen Datacenters in der ganzen Welt stehen, wüssten Konkurrenten wie Yahoo!, Teoma oder Mooter schnell, wie viel Geld sie bräuchten, um den Marktriesen von seiner Spitzenposition zu vertreiben.

Google tut sich zuweilen selbst schwer, diese Strategie durchzuziehen. Als Urs Hölzle, Vizepräsident für Engineering bei Google, im November 2002 an der University of Washington eine Rede über die Linux Cluster der Suchmaschine hielt, wiederholte er die Zahl mit den 1000 Suchanfragen pro Sekunde, musste aber zugeben, dass der Wert an einem 25. Dezember um 2 Uhr morgens gemessen wurde - vor einem Jahr. Jedem im Saal war klar, dass Google schon im November 2002 wesentlich mehr Suchanfragen bearbeitet hat. Wie viele das tatsächlich waren, blieb persönlichen Spekulationen überlassen.

Die Fakten kommen aber langsam ans Licht. Im letzten November berichtete die New York Times, Google habe die Marke von 100.000 Servern überschritten. Sollte das stimmen, besitzt Google wahrscheinlich das größte Grid-Netzwerk auf dem gesamten Planeten. "Die Tatsache, dass Google Datacenter solcher Größe bauen und betreiben kann, ist allein schon erstaunlich", meint Peter Christy, Mitbegründer der NetsEdge Research Group, einer Marktforschungs- und Strategie-Firma im Silicon Valley. Christy, der selbst mehr als 30 Jahre in der IT-Industrie gearbeitet hat, zeigte sich erstaunt darüber, wie gigantisch Googles Infrastruktur ist -- und dass die Firma kompetent genug ist, sie zu betreiben: "Da kommt wohl niemand heran", so Christy.

Eines von Googles wichtigsten Erfolgsgeheimnisen dürfte in der Fähigkeit liegen, große und extrem dichte Rechner-Cluster zu betreiben. Der Grund, erklärt Marissa Mayer, Direktorin für Endkunden-Web-Produkte bei der Suchmaschine, liegt in den besonderen Startbedingungen von Google an der Stanford-University.