Wie HTTP 2.0 das Surfen beschleunigt

Das Hypertext Transfer Protocol steht kurz vor einer maßgeblichen Erneuerung. Warum, so könnte man sich fragen, braucht man die überhaupt, das Surfen klappt doch prima. Dafür gibt es drei Gründe: Geschwindigkeit, Geschwindigkeit und... Geschwindigkeit.

In Pocket speichern vorlesen Druckansicht 65 Kommentare lesen
Lesezeit: 11 Min.
Von
  • Martin Winkler
Inhaltsverzeichnis

Die Internet Engineering Task Force, IETF, will das Verfahren, mit dem Browser Webseiten anfordern und Server ausliefern, grundlegend renovieren. Aktuell im Einsatz ist das Hypertext Transfer Protocol 1.1. Schaut man sich die Entwürfe für die neue Version 2.0 an, kann man bereits erahnen: HTTP 2.0 könnte ein großer Wurf werden. Das scheint auch dringend erforderlich, denn seit der Entstehung des WWW haben sich die Webseiten von einfachen zu komplexen Dokumenten gewandelt. Moderne Webseiten bestehen aus vielen Elementen und die muss der Browser nacheinander holen, zum Beispiel Script-Dateien, Style Sheets, Bilder, Werbeeinblendungen und anderes mehr. Nicht selten liegen diese Elemente auf unterschiedlichen Hosts eines oder sogar verschiedener Unternehmen verstreut. Der Abruf solcher Webseiten kann sich selbst bei schnellen VDSL- oder Kabelmodem-Anschlüssen spürbar hinziehen, denn die Leitungen werden nicht ausgelastet.

Es war der Suchmaschinenmarktführer Google, der mit seiner Initiative "make the web faster" neuen Schwung in die HTTP-Entwicklung gebracht hat. Zusammengefasst unter dem Namen SPDY hatte das Unternehmen diverse wesentliche Verbesserungen aufgelegt und zunächst im hauseigenen Browser Chrome sowie den Webservern eingebaut. Als dann weitere Verfechter aus der Industrie hinzukamen, unter anderem Mozilla mit seinem Firefox-Browser und Amazon, gab die IETF einer Arbeitsgruppe grünes Licht für die Umsetzung neuer Ideen in der Arbeitsgruppe HTTPbis. Dieser nahm sich zwar SPDY Anfang 2012 als Arbeitsgrundlage, entwickelte aber dann etliche Änderungen und Verbesserungen, die nun in den offiziellen Standard HTTP 2.0 einfließen. Die wesentlichen Eckpunkte sollen nun bis Ende April 2014 nach einer Terminverschiebung ab Juni festgeklopft werden, bevor das Verfahren später zur Standardisierung bei der IETF eingereicht wird; den Zeitplan hat die IETF hier veröffentlicht.

Die Autoren versprechen eine effizientere Nutzung der Netzwerk-Ressourcen und kürzere Latenzen. Verbesserungen sollen aber auch eine Kompression der Header der IP-Pakete sowie Multiplex- und Push-Techniken bringen. Browser können mittes Multiplexing mehrere Messages gleichzeitig über eine Verbindung beziehen und Server können Elemente im voraus, also ohne Anfrage des Browsers pushen.

Das klingt interessant, erklärt aber noch nicht, wie diese Neuerungen zu schnellerem Aufbau von Webseiten führen sollen. Wie das im Detail passiert, ist eine spannende Geschichte. Mehr als ein bißchen Netzwerk-Einmaleins braucht man aber nicht, um die Zusammenhänge zu verstehen.

Mit dem neuen Binary-Framing-Mechanismus ändert HTTP 2.0 die Art, wie Client und Server kommunizieren. Mittels Streams können sie mehrere Elemente verschränkt, also per Multiplexverfahren gleichzeitig übertragen. Darin setzen sich Messages aus einzelnen Frames zusammen. Die Frame-Header enthalten Stream-IDs, sodass sie der Empfänger einzelnen Streams zuordnen, also demultiplexen kann.