Kampf dem Datenstau

Das zukünftige Wachstum von Google hängt auch davon ab, wie schnell das Internet funktioniert. Deshalb tut der Suchmaschinenriese viel dafür, es zu beschleunigen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 13 Min.
Von
  • Erica Naone
Inhaltsverzeichnis

Das zukünftige Wachstum von Google hängt auch davon ab, wie schnell das Internet funktioniert. Deshalb tut der Suchmaschinenriese viel dafür, es zu beschleunigen.

Googles Online-Anwendungen sind zahlreich. Sie sind meist praktisch und manchmal sogar originell. Sie werden von den besten Programmierern mit den neuesten Technologien entwickelt. Doch all das ist schnell hinfällig, wenn die Internetverbindung nicht mitspielt. Selbst die kostenlose Tabellenkalkulation von Google reagiert bisweilen noch zu langsam – bis eine eingetippte Zahl auch auf dem Bildschirm erscheint, kann einige Zeit vergehen. Den einfachen Anwender mag dies nur ärgern, den Software-Konzern aus Mountain View in Kalifornien jedoch könnte dies sogar in die Knie zwingen.

Denn das Unternehmen spekuliert darauf, dass selbst einfache Anwender bald ein grundlegend vernetztes Leben führen werden. Digital unterstützt von Google natürlich. Doch das setzt schnelle und verlässliche Verbindungen voraus, die bis heute im Internet nicht garantiert werden können. Mit der eigenen "Let's make the web faster"-Initiative geht Google daher das Übel nun selbst an. Ein tollkühnes Unterfangen, das sogar den Suchmaschinen-Giganten mit seinen Ressourcen und seinen Weltklasse-Technikern überfordern könnte.

Bisher hat Google seine dominierende Stellung bei der Websuche dazu genutzt, ein extrem profitables Werbegeschäft aufzubauen. Allein im vergangenen Jahr betrug der Nettogewinn 8,5 Milliarden US-Dollar bei einem Umsatz von 29,3 Milliarden Dollar. Doch auch Google ist klar, dass es sich auf die Suche nicht für immer verlassen kann: Jemand anderes – Microsoft oder ein Start-up – könnte eine bessere Suchmaschine bauen. Das soziale Netzwerk Facebook, das gerade seine eigene Vision vom Web realisiert, die auf sozialen Kontakten und persönlichen Präferenzen basiert und Google außen vor lässt, könnte dem Suchmaschinenkonzern ebenfalls den Rang ablaufen. Ebenso gut könnte eine bislang völlig unvorhergesehene Bedrohung auftreten.

Um seinen Anteil an der Online-Zeit der Internetnutzer zu erhöhen, hat Google daher bereits viele neue Produkte herausgebracht – nicht nur für PCs, sondern auch für innovativere Geräte wie Smartphones und Tablet-Rechner. Aber mit keinem davon werden bislang signifikante Umsätze erzielt. Aus diesem Grund hat Eric Schmidt, bis zum Januar 2011 CEO von Google, versucht, neue Wege zu eröffnen: Er forderte die Beschäftigten auf, Google als Unternehmen zu verstehen, das Software für Mobilgeräte herstellt – und zwar auf Grundlage eines Internets, das allgegenwärtig und schnell genug ist, um jegliche Aktivität optimal zu unterstützen. Um diesem Ziel auch nur nahe zu kommen, muss Google sich allerdings sputen. Denn wie steter Tropfen den Stein höhlt, so befürchtet der Internet-Gigant, könnte der allgegenwärtige Ärger über eine ruckelnde Verbindung dem Nutzer die Software aus dem Netz völlig verleiden.

Die Ursachen für den Stop-and-go-Verkehr sind komplex. Das zeigt bereits das einfache Zusammenspiel zwischen Browser und Webserver: Wenn jemand eine Webseite aufruft, löst das vielfachen Datenverkehr zwischen seinem Browser und den Servern aus, auf denen die Seite abgelegt ist. Der Server muss wissen, was er schicken soll. Dann reisen Programmbefehle mit Anweisungen zum Laden der Seite zurück zum Browser, unter Umständen zusammen mit Informationen darüber, wo zusätzliche Inhalte wie Bilder oder Videos abzurufen sind. An jedem derartigen Austausch ist eine Vielzahl an komplizierter und voneinander abhängiger Hard- und Software beteiligt, die veraltet, von vornherein schlecht programmiert oder zumindest überlastet sein kann. Die versendeten Daten passieren unterschiedlichste Arten von physischer Infrastruktur, von den Hochgeschwindigkeitsleitungen, die das Rückgrat des Internets bilden, über Telefonkabel bis zu den drahtlosen Verbindungen zwischen Heimrouter und PC.

Überall kann es dabei zu Performance-Problemen kommen. Der Server kann zu langsam sein. Der Browser kann Programmcode ineffizient verarbeiten. Der Code kann schlecht geschrieben sein. Obendrein basiert der Austausch darüber, welche Informationen gebraucht werden und ob sie heil angekommen sind, auf jahrzehntealten Protokollen. Damals dachte noch niemand an das Maß an Geschwindigkeit und Interaktion, das moderne Webanwendungen brauchen, um PC-basierte Software verdrängen zu können.

Heute durch das Web zu surfen "sollte sein wie am Fernseher den Kanal zu wechseln", sagt Arvind Jain, technischer Leiter von "Let's make the web faster" bei Google. Das Vorhaben begann vor zwei Jahren auf Initiative von Mitgründer Larry Page, der inzwischen als CEO fungiert. Doch dafür müssen sich viele Dinge ändern, über die Google selbst gar nicht die Kontrolle hat – vom Aufbau von Webseiten bis zu den Glasfaserkabeln, die Daten in die Häuser der Nutzer transportieren. Es gebe Probleme mit "jeder Komponente" des Internets, sagt Jain und fügt mit der für Google-Mitarbeiter nicht untypischen leichten Überheblichkeit hinzu: "Uns ist klargeworden, dass wir sie alle lösen müssen."

Von Anfang an arbeitete Jain mit einer kleinen Gruppe, zu der als Produktmanager auch Richard Rabbat gehört. Rabbat spricht gern etwas scherzhaft über Probleme mit dem Internet. Aber wie Jain ist er davon überzeugt, dass es unakzeptabel langsam ist, vor allem auf mobilen Geräten. Während seiner Jugend im Libanon hat er dies oft genug erfahren.

Zum Auftakt des Projekts setzten sich Rabbat und Jain zusammen und hielten fest, was Google auf jeder Ebene tun könnte, um das Web einschließlich seiner eigenen Seiten schneller zu machen oder zumindest dabei zu helfen. Drei Minuten vor dem Beginn eines Meetings bekam das Team für Googles Anzeigennetz eine Nachricht von Google-Chef Page. Das Team hatte vorschlagen wollen, die Auslieferung von Anzeigen doppelt so schnell zu machen wie bisher. Page aber verlangte in der Nachricht eine Verzehnfachung. Das Team musste also einen völlig neuen Ansatz finden und dabei fundamentale Aspekte des Internets infrage stellen, statt nur nach kleinen Stellschrauben zu suchen.

In der Zwischenzeit arbeiteten andere Techniker an Googles eigenem Webbrowser Chrome. Bei der Entwicklung standen die Probleme mit Googles zunehmend populären Webanwendungen im Vordergrund. Diese sind größtenteils in JavaScript programmiert. Eine der wichtigsten Innovationen im Google-Browser war deshalb eine neue Software-Komponente zur deutlich schnelleren Verarbeitung von JavaScript. Google machte den Programmcode für den Browser sogar frei zugänglich – in der Hoffnung, dass von außen zusätzliche Ideen kommen, die ihn noch schneller machen.

Das nächste Ziel bestand darin, nicht nur den eigenen, sondern alle Browser zu beschleunigen. Also startete Google eine Anzeigenkampagne, in der die Vorteile schnellerer Browser im Vordergrund standen. Seitdem sind auch die Konkurrenz-Browser Firefox, Safari, Opera und Internet Explorer schneller geworden. Wenn die Browser schneller werden, müssen die Webseiten mitziehen. Für dieses Ziel setzte der Suchmaschinenriese im April 2010 seine geballte Marktmacht ein: Das Unternehmen gab bekannt, dass bei der Rangfolge von Suchergebnissen künftig auch die Ladegeschwindigkeit der einzelnen Seiten berücksichtigt würde. Ein mächtige Waffe, da sich jeder Seitenbetreiber bemüht, auf den Suchergebnislisten von Google möglichst weit vorn angezeigt zu werden. Rabbat und Jain favorisierten inzwischen jedoch eine Lösung, die mit möglichst wenig menschlichen Eingriffen auskommt. "Könnten wir das Problem nicht automatisiert lösen, statt den Leuten zu sagen, was sie tun müssen?", formulierte Rabbat diese Überlegung.

Ende 2010 veröffentlichte Google dann ein kostenloses Werkzeug für Web-Administratoren. Es analysiert Webseiten und nimmt bei Problemen, die sie ausbremsen, automatisch die nötigen Korrekturen vor – Bilder zum Beispiel werden anschließend effizienter geladen. Das Team testete sein Werk- zeug an einer repräsentativen Auswahl von Seiten und stellte fest, dass sie typischerweise um den Faktor zwei bis drei beschleunigt werden konnten. Weniger als drei Monate nach der Veröffentlichung war das Tool schon auf mehr als 30000 Servern installiert.

Als Nächstes will Google sich noch weiter vorwagen – bis in die grundlegende Architektur des Internets. Das Unternehmen hat ein neues Protokoll mit dem Namen SPDY (ausgesprochen "speedy") vorgestellt, das nach seinen Angaben die Internet-Kommunikation doppelt so schnell wie mit den alten Übertragungsprotokollen abwickeln kann. Als die herkömmlichen Protokolle entstanden, war die verfügbare Bandbreite noch verschwindend gering. Beim sogenannten Transmission Control Protocol (TCP) zum Beispiel, dem ersten Teil der robusten alten Internetkonvention TCP/IP, stand im Vordergrund, dass keine Informationen verloren gehen dürfen. Deshalb erhöht TCP die Übertragungsrate nach dem Herstellen einer Verbindung nur vorsichtig Stück für Stück – und sobald es ein Problem gibt, wird sie wieder halbiert. Auf diese Weise nutzt TCP nur selten die volle Bandbreite aus. Ein weiteres Problem ist die Tatsache, dass viele Webseiten heute so aufgebaut sind, dass ihre Elemente der Reihe nach geladen werden – hier ein Bild, dort eine Anzeige oder ein Video. Wenn dagegen alle Teile parallel geladen würden, wäre die komplette Seite viel schneller beim Nutzer.

Zwar sind sich alle Experten einig darüber, dass die alten Protokolle eine Bremse sind. Trotzdem ist es sehr schwierig, sie zu ersetzen. "Das Problem ist weniger technischer als wirtschaft-licher Natur", sagt Neil Cohen, Senior Director für Produktmarketing bei Akamai, einem Anbieter verteilter Server für schnelle Webseiten-Auslieferung. Die alten Standards herauszuwerfen würde Änderungen bei den Betriebssystemen der Nutzer, bei Servern, bei Netzwerk-Hardware und anderen Komponenten überall auf der Welt erfordern. In der Zwischenzeit will Google auch die Internet-Provider so lange unter Druck setzen, bis sie Verbindungen anbieten, die den Vorstellungen und Bedürfnissen des Konzerns besser entsprechen. In den nächsten Jahren soll in einer noch nicht bekannten Gemeinde in den USA ein Google-eigener Internetzugang mit einer Geschwindigkeit von einem Gigabit pro Sekunde angeboten werden. Das ist 20-mal so viel wie das US-amerikanische Telekommunikationsunternehmen Verizon Communications mit seinem modernen Glasfaser-Service FiOS zu bieten hat und 100-mal so viel wie in Haushalten durchschnittlicher Internetnutzer erreicht wird.

Von dem Expressdienst erhofft sich Google einerseits Erkenntnisse darüber, wie so etwas technisch zu realisieren ist. Zugleich soll er die Kunden ermutigen, auch von anderen Providern mehr Geschwindigkeit zu verlangen. Doch inzwischen fragen sich nicht nur Internet-Experten, ob sich Google mit seinen Plänen nicht reichlich übernommen hat: Selbst wenn die Leitungen schnell genug sind, müsste auch noch Software umgestaltet werden, um die neue Geschwindigkeit wirklich ausnutzen zu können. Der Aufbau einer entsprechenden Infrastruktur wäre umständlich, teuer und zeitraubend. 2010 gab Verizon bekannt, bestehende FiOS-Projekte zwar zu Ende bringen, aber keine neuen mehr starten zu wollen. Also wird sein relativ schneller Dienst nie viele Nutzer erreichen. Google mag in einigen Testgemeinden enorm hohe Geschwindigkeiten realisieren, dürfte aber nicht vorhaben, ein landes- oder weltweiter Internet-Provider zu werden.

Außerdem hat selbst Google bei vielen Fragen der Infrastruktur so gut wie keine Einflussmöglichkeiten. "In vielen Fällen liegen die Probleme in einem Zwischenbereich", erklärt Tom Hughes-Croucher, Performance-Experte beim Cloud-Computing-Ausrüster Joyent. Selbst mit dem verbesserten Protokoll SPDY könne ein Fehler in der Konfiguration der Server eines Internet-Providers das Websurfen für Tausende Nutzer verlangsamen. In Südamerika und Afrika wiederum seien Verzögerungen deshalb so häufig, weil es dort wenige Datenzentren gibt, sodass die Nutzer Daten fast immer von weit weg geschickt bekommen. "Das ist eine politische Sache", sagt Hughes-Croucher, "darum müssen sich die Regierungen kümmern."

Und selbst dann, wenn alle Projekte so laufen wie erhofft, könnte Google noch ins Abseits geraten. Denn wegen seiner Marktmacht – die Grundlage dafür, andere Unternehmen zum Mitziehen zu bewegen – steht das Unternehmen mittlerweile massiv unter Kritik und Beobachtung. Die Europäische Kommission hat bereits ein Verfahren eingeleitet, um zu klären, ob Google bei der Festlegung der Reihenfolge in seinen Suchergebnislisten nicht zu unfairen Praktiken greift.

Trotz all dieser Herausforderungen erscheint das Vertrauen Googles in seine Fähigkeit, das Web zu verändern, unerschüttert. So auch bei Rabbat und Jain. Auf die Frage, was wohl passiert, wenn einige der Projekte für mehr Geschwindigkeit nicht die erhofften Ergebnisse bringen, sehen sie sich einander verwirrt an, bis Rabbat anfängt zu lachen. "Wir haben uns mit dem Szenario Scheitern nicht beschäftigt", bricht es aus ihm heraus. Mehrmals wiederholt er diesen Satz, bis er sich vorbeugt und ganz ernst erklärt: "Wir glauben, dass wir das schaffen können. Google ist so groß, dass die Leute zuhören werden – sie werden unsere Vorschläge ausprobieren." Jain nickt: "Genau richtig. Jeder weiß, dass diese Arbeit allen hilft. Das wird kein Erfolg für Google, sondern ein Erfolg für das gesamte Internet." (bsc)