Kampf dem Datenstau

Inhaltsverzeichnis

Zum Auftakt des Projekts setzten sich Rabbat und Jain zusammen und hielten fest, was Google auf jeder Ebene tun könnte, um das Web einschließlich seiner eigenen Seiten schneller zu machen oder zumindest dabei zu helfen. Drei Minuten vor dem Beginn eines Meetings bekam das Team für Googles Anzeigennetz eine Nachricht von Google-Chef Page. Das Team hatte vorschlagen wollen, die Auslieferung von Anzeigen doppelt so schnell zu machen wie bisher. Page aber verlangte in der Nachricht eine Verzehnfachung. Das Team musste also einen völlig neuen Ansatz finden und dabei fundamentale Aspekte des Internets infrage stellen, statt nur nach kleinen Stellschrauben zu suchen.

In der Zwischenzeit arbeiteten andere Techniker an Googles eigenem Webbrowser Chrome. Bei der Entwicklung standen die Probleme mit Googles zunehmend populären Webanwendungen im Vordergrund. Diese sind größtenteils in JavaScript programmiert. Eine der wichtigsten Innovationen im Google-Browser war deshalb eine neue Software-Komponente zur deutlich schnelleren Verarbeitung von JavaScript. Google machte den Programmcode für den Browser sogar frei zugänglich – in der Hoffnung, dass von außen zusätzliche Ideen kommen, die ihn noch schneller machen.

Das nächste Ziel bestand darin, nicht nur den eigenen, sondern alle Browser zu beschleunigen. Also startete Google eine Anzeigenkampagne, in der die Vorteile schnellerer Browser im Vordergrund standen. Seitdem sind auch die Konkurrenz-Browser Firefox, Safari, Opera und Internet Explorer schneller geworden. Wenn die Browser schneller werden, müssen die Webseiten mitziehen. Für dieses Ziel setzte der Suchmaschinenriese im April 2010 seine geballte Marktmacht ein: Das Unternehmen gab bekannt, dass bei der Rangfolge von Suchergebnissen künftig auch die Ladegeschwindigkeit der einzelnen Seiten berücksichtigt würde. Ein mächtige Waffe, da sich jeder Seitenbetreiber bemüht, auf den Suchergebnislisten von Google möglichst weit vorn angezeigt zu werden. Rabbat und Jain favorisierten inzwischen jedoch eine Lösung, die mit möglichst wenig menschlichen Eingriffen auskommt. "Könnten wir das Problem nicht automatisiert lösen, statt den Leuten zu sagen, was sie tun müssen?", formulierte Rabbat diese Überlegung.

Ende 2010 veröffentlichte Google dann ein kostenloses Werkzeug für Web-Administratoren. Es analysiert Webseiten und nimmt bei Problemen, die sie ausbremsen, automatisch die nötigen Korrekturen vor – Bilder zum Beispiel werden anschließend effizienter geladen. Das Team testete sein Werk- zeug an einer repräsentativen Auswahl von Seiten und stellte fest, dass sie typischerweise um den Faktor zwei bis drei beschleunigt werden konnten. Weniger als drei Monate nach der Veröffentlichung war das Tool schon auf mehr als 30000 Servern installiert.

Als Nächstes will Google sich noch weiter vorwagen – bis in die grundlegende Architektur des Internets. Das Unternehmen hat ein neues Protokoll mit dem Namen SPDY (ausgesprochen "speedy") vorgestellt, das nach seinen Angaben die Internet-Kommunikation doppelt so schnell wie mit den alten Übertragungsprotokollen abwickeln kann. Als die herkömmlichen Protokolle entstanden, war die verfügbare Bandbreite noch verschwindend gering. Beim sogenannten Transmission Control Protocol (TCP) zum Beispiel, dem ersten Teil der robusten alten Internetkonvention TCP/IP, stand im Vordergrund, dass keine Informationen verloren gehen dürfen. Deshalb erhöht TCP die Übertragungsrate nach dem Herstellen einer Verbindung nur vorsichtig Stück für Stück – und sobald es ein Problem gibt, wird sie wieder halbiert. Auf diese Weise nutzt TCP nur selten die volle Bandbreite aus. Ein weiteres Problem ist die Tatsache, dass viele Webseiten heute so aufgebaut sind, dass ihre Elemente der Reihe nach geladen werden – hier ein Bild, dort eine Anzeige oder ein Video. Wenn dagegen alle Teile parallel geladen würden, wäre die komplette Seite viel schneller beim Nutzer.

Zwar sind sich alle Experten einig darüber, dass die alten Protokolle eine Bremse sind. Trotzdem ist es sehr schwierig, sie zu ersetzen. "Das Problem ist weniger technischer als wirtschaft-licher Natur", sagt Neil Cohen, Senior Director für Produktmarketing bei Akamai, einem Anbieter verteilter Server für schnelle Webseiten-Auslieferung. Die alten Standards herauszuwerfen würde Änderungen bei den Betriebssystemen der Nutzer, bei Servern, bei Netzwerk-Hardware und anderen Komponenten überall auf der Welt erfordern. In der Zwischenzeit will Google auch die Internet-Provider so lange unter Druck setzen, bis sie Verbindungen anbieten, die den Vorstellungen und Bedürfnissen des Konzerns besser entsprechen. In den nächsten Jahren soll in einer noch nicht bekannten Gemeinde in den USA ein Google-eigener Internetzugang mit einer Geschwindigkeit von einem Gigabit pro Sekunde angeboten werden. Das ist 20-mal so viel wie das US-amerikanische Telekommunikationsunternehmen Verizon Communications mit seinem modernen Glasfaser-Service FiOS zu bieten hat und 100-mal so viel wie in Haushalten durchschnittlicher Internetnutzer erreicht wird.

Von dem Expressdienst erhofft sich Google einerseits Erkenntnisse darüber, wie so etwas technisch zu realisieren ist. Zugleich soll er die Kunden ermutigen, auch von anderen Providern mehr Geschwindigkeit zu verlangen. Doch inzwischen fragen sich nicht nur Internet-Experten, ob sich Google mit seinen Plänen nicht reichlich übernommen hat: Selbst wenn die Leitungen schnell genug sind, müsste auch noch Software umgestaltet werden, um die neue Geschwindigkeit wirklich ausnutzen zu können. Der Aufbau einer entsprechenden Infrastruktur wäre umständlich, teuer und zeitraubend. 2010 gab Verizon bekannt, bestehende FiOS-Projekte zwar zu Ende bringen, aber keine neuen mehr starten zu wollen. Also wird sein relativ schneller Dienst nie viele Nutzer erreichen. Google mag in einigen Testgemeinden enorm hohe Geschwindigkeiten realisieren, dürfte aber nicht vorhaben, ein landes- oder weltweiter Internet-Provider zu werden.