Geheimniskrämerei bei Google?

Seite 2: Geheimniskrämerei bei Google?

Inhaltsverzeichnis

Statt sich ein paar schnelle Rechner zu besorgen, die bis zum Anschlag genutzt werden konnten, mussten die Google-Gründer Larry Page und Sergey Brin mit ausgedienten Maschinen aus der Informatikfakultät auskommen, wie Mayer auf einer Recruiting-Veranstaltung am MIT kürzlich erzählte. Page und Brin gingen also regelmäßig zum Lager, um zu sehen, wer neue Rechner bekam und fragten dann, ob sie die alten, nun nicht mehr benötigten Maschinen haben könnten. Von Anfang an mussten Brin und Page also verteilte Rechenoperationen entwickeln, die auf einem Netzwerk wenig zuverlässiger Rechner laufen würden.

Diese Philosophie steckt heute in der DNA der Firma. Google kauft die billigsten Rechner, die man bekommen kann und steckt sie in die unzähligen Racks in einem seiner sechs (oder auch mehr) Datacenter in der ganzen Welt. "PCs sind soweit verlässlich. Wenn man aber 1000 davon hat, wird täglich einer ausfallen", so Chefingenieur Hölzle. "Wenn man 10 Prozent mehr Rechner kauft, ist das aber immer noch billiger, als eine verlässlichere Maschine zu kaufen." Bei Google zu arbeiten, erzählte mir kürzlich ein Ingenieur, kommt dem Traum nahe, grenzenlose Rechenpower zur Verfügung zu haben.

Es gibt noch eine andere Firma, die das Betreiben einer riesigen Anzahl von Rechnern mit relativ wenigen Leuten perfektioniert hat. Diese Firma heißt Akamai.

Sie ist nicht überall bekannt, landete aber im November 1999 in den Schlagzeilen, als sie den (zur damaligen Zeit) vierterfolgreichsten Börsengang der Geschichte hinlegte. Akamais Aktien schossen nach oben und machten die Gründer zu Milliardären. In den Jahren danach ging es mit Akamai jedoch bergab -- und zwar nicht nur wegen des "Dot-Com"-Crashs. Die Firma entließ Mitarbeiter und verkaufte ihren Firmensitz in Kalifornien auch deshalb, weil Danny Lewin, Technologiechef und Mitbegründer von Akamai, am 11. September an Board eines der beiden Flugzeuge war, die in das World Trade Center stürzten. Die Moral der Firma war zerstört.

Akamais Netzwerk ist ungefähr so komplex wie das von Google. Obwohl Akamai nur 14.000 Server betreibt, stehen diese an 2500 Orten auf der ganzen Erde. Die Server werden von Kunden wie CNN oder Microsoft benutzt, um Webseiten auszuliefern. Akamais Rechner werden genauso wie die von Google von fast jedem Internet-Nutzer auf der Welt genutzt.

Wegen ihrer großen Infrastruktur mussten sowohl Akamai als auch Google Werkzeuge und Techniken entwickeln, um diese Maschinen zu managen, Performance-Problemen auf die Schliche zu kommen und mit Fehlern schnell umzugehen. Solche Software kann man nicht kaufen, sie muss mit großer Anstrengung im eigenen Haus entwickelt werden. So gilt Akamais eigene Software als einer seiner wichtigsten Wettbewerbsvorteile.

Natürlich gibt es auch noch andere US-Organisationen, die große Rechen-Cluster betreiben. Sowohl das Ames Research Center der NASA als auch die Hochschule Virginia Tech besitzen große Wissenschafts-Grids. Aber es gibt wichtige Unterschiede zwischen diesen und denen, die Google und Akamai gebaut haben. Die Wissenschaftssysteme stehen an zentralen Orten und sind nicht um die halbe Welt verteilt. Sie hängen nicht direkt am Internet. Und, was wahrscheinlich das wichtigste ist: Die Wissenschafts-Cluster sind nicht Tag für Tag dem Ansturm Millionen gewöhnlicher Internet-Benutzer ausgesetzt. Google und Akamai müssen dagegen zu 100 Prozent verfügbar sein -- jederzeit. Es ist einfach, 10.000 Rechner zu kaufen, wenn man das nötige Geld hat. Es ist jedoch etwas ganz anderes, diese Computer zu einem funktionierenden Dienst für Millionen simultaner Nutzer zusammen zu stellen.

Es gibt allerdings entscheidende Unterschiede zwischen Akamai und Google, die sicherstellen, dass sich die beiden Firmen nicht in die Quere kommen. Sowohl Google als auch Akamai haben riesige Parallelrechner aufgebaut, aber die Anwendungen, die sie laufen lassen, sind völlig verschieden. Googles Hauptanwendung ist die Suchmaschine. Akamai hat hingegen ein System entwickelt, um Web-Seiten, Streaming-Inhalte und eine Reihe anderer Standard-Internet-Dokumente auszuliefern.