Der fünfte Weg

Mit Wucht hat das Internet bereits den Markt der Printmedien durcheinandergewirbelt. Nun droht den etablierten Verteilwegen des Fernsehens Ungemach. IPTV und Web-TV werden immer attraktiver, und damit wächst auch das Interesse am P2P-Streaming. Während sich einige Anbieter gegen die neuen Vertriebswege wehren, gehen einige Betreiber andere Wege im plötzlich nicht mehr ganz offenen Internet.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 26 Min.
Von
  • Richard Sietmann
Inhaltsverzeichnis

Fünf Jahre nach der Einführung kristallisiert sich das Internet Protocol TeleVision (IPTV) neben Kabel, Terrestrik und Satellit deutlich als ein ernstzunehmender vierter Übertragungsweg für TV-Programme heraus. In den USA haben AT&T 2,5 und Verizon bislang 3,2 Millionen Teilnehmer gewonnen, in Europa führt Frankreich mit 4 Millionen Teilnehmern die Nationenwertung an. Hierzulande verzeichnete die Deutsche Telekom als Hauptanbieter im vergangenen Jahr einen Anstieg um 30 Prozent auf 1,3 Millionen Entertain-Kunden.

Das erscheint zwar wenig im Vergleich zu den 19,4 Millionen Anschlüssen des Kabelfernsehens, das rund 50 Prozent der Haushalte erreicht. Doch die Konkurrenten in den beiden Festnetz-Lagern, die im Triple Play mit Fernseh-, Internet- und Telefoniediensten gegeneinander antreten, kommen aus verschiedenen Richtungen und wildern jeweils im Stammgeschäft des anderen. Daher muss man eigentlich die Zahl der IPTV-Abonnenten mit den rund 3 Millionen Telefonkunden der Kabel-TV-Anbieter vergleichen, und diese Zielmarke hoffen die Telekom-Manager bis Ende 2012 zu erreichen.

IPTV befindet sich also im Aufwind. Aber hat es auch eine Zukunft? Derzeit entwickelt sich das Ökosystem rund um den Fernsehgenuss der Konsumbürger in eine andere Richtung, als es den Marketing-Strategen der Deutschen Telekom lieb sein dürfte: heraus aus dem umzäunten Park des Netzbetreibers in die vielfältige Wildnis des offenen Internet als fünften und bereits oft bevorzugten Übertragungsweg. Mit dem hat das IPTV, womit das Unternehmen unter der Marke Telekom Entertain rund 180 TV-Programme und knapp 3000 abrufbare Filme über seine VDSL- und ADSL2+-Anschlüsse anbietet, außer dem Internet-Protokoll (IP) nichts gemein; es ist eine geschlossene Veranstaltung unter der Regie des Providers.

Das Internet hingegen ist mehr als nur die IP-Protokollfamilie. Das Netz der Netze, das schon den Ordnungspolitikern Kopfzerbrechen bereitet, stellt für die weltweiten Vermarkter von digitalen Gütern – E-Books, Musik, Film und Fernsehen – technisch wie rechtlich eine Herausforderung dar. Wer die Kontrolle über die Produkte behalten will, muss die Kontrolle über die Vertriebswege und die Endgeräte gewinnen. Das ist die Philosophie hinter IPTV, sie bildet auch die Geschäftsgrundlage des digitalen Kabelfernsehens, und hierüber toben gegenwärtig die Auseinandersetzungen um das offene Internet-TV.

Nicht das zugrundeliegende Übertragungsprotokoll , sondern „managed“ oder „non-managed“ – geschlossen oder offen – steht als zentrale Frage im Raum. IPTV überträgt TV-Programme per DSL über einen vom Netzbetreiber kontrollierten Übertragungsweg zu einer Settop-Box an einen registrierten Nutzer. Es ist somit auf den alten Telefonleitungen das Pendant zum Koax-Kabelfernsehen. Internet-TV hingegen ist über jeden Breitbandanschluss mit einem Computer und geeigneten Software-Clients frei empfangbar. Das macht einen gewaltigen Unterschied: Der Rundfunk über das offene Internet erfolgt so gut es eben geht nach dem „best effort“-Prinzip; der Programmanbieter hat keine Möglichkeit, die Qualität des paketierten Datenstroms bei den Empfängern zu beeinflussen. Im eigenen Netz hingegen kann der IPTV-Provider von der Programmeinspeisung über die Teilnehmeranschlussleitungen bis zu den Settop-Boxen der Kunden die Übertragungsparameter selbst bestimmen und somit eine Dienstgüte garantieren, die sich von der des digitalen Kabelfernsehens in keiner Weise unterscheidet.

Mit den Kabelnetzbetreibern sitzen die IPTV-Provider, was die Konkurrenz der Audio- und Video-Angebote über den fünften, ungemanagten Verteilweg angeht, im selben Boot. Das Angebot der über das Internet frei oder im Abo empfangbarer Streams von TV-Stationen ist kaum noch überschaubar, das Internet kennt zunächst keine geografischen Beschränkungen. (Hilfreich für einen ersten Überblick der verfügbaren TV-Sender ist die umfangreiche Auflistung unter www.coolstreaming.us/listtv.php ). Darüber hinaus erstreckt sich die Liste der unzähligen Video-Vertriebsplattformen, mit denen man sich Live-Streams sowie umfangreiche Videotheken erschließen und sich sein TV-Programm unabhängig von Sendezeiten selbst zusammenstellen kann, von Amazon VOD oder ARD über Hulu, Netflix oder YouTube bis zu Zattoo, ZDF oder Zune – diese allerdings sind dann in der Praxis doch wieder geografisch eingeschränkt, die Anbieter sind in der Regel zu einer Geolokalisierung per IP-Adresse gezwungen, die das Streamen außerhalb des lizenzierten Verbreitungsgebiets verhindert. Eine Einschränkung, die allerdings rein lizenzrechtliche und keine technischen Gründe hat.

Beispiele hat Netflix, die 1997 gegründete US-Videothek mit Online-Ausleihe, den traditionellen Postversand der Silberscheiben um das Streaming von Filmen und TV-Shows ergänzt und zählt bereits mehr als 15 Millionen Abonnenten. Gestreamt wird im Microsoft VC1-Format auf PCs, Macs mit OS X und eine lange Liste kompatibler Streaming Player, Settop-Boxen sowie die Spielkonsolen Wii, PS3 und Xbox. Unlimitiertes Streaming plus eine DVD per Post gibt es für 8,99 US-Dollar pro Monat, für jede weitere DVD kommen 2 US-Dollar hinzu. Im August 2010 schloss Netflix mit dem Vertriebskanal Epix der Hollywood-Produzenten Paramount, Lions Gate und MGM einen fünfjährigen Vertrag, der dem Unternehmen die Filmschätze der Großen erschließt und der Berichten zufolge eine Milliarde Dollar schwer sein soll. Im September folgte die Ausdehnung des Vertriebs auf Kanada; der Vorstoß nach Europa ist in der Diskussion.

In diesem Markt dürfen die Großkopferten der IT-Branche nicht fehlen: Im Kampf um die Fernsehzuschauer ist Google in den USA mit dem Slogan „Television, meet search engine“ auf Sendung gegangen. „Die Leute verbringen fünf Stunden am Tag mit dem Fernseher, und wir haben keine Möglichkeit, diesen Nutzern unsere Dienste nahe zu bringen“, erläuterte Produktmanager Rishi Chandra die Motivation des Konzerns: „Wir möchten die Leute erreichen, wo immer sie sich befinden.“

Unter Überschriften wie „Guide to Cutting the Cord to Cable TV“ kursieren im Web diverse Ratgeber, wie man die Koax-Nabelschnur am besten kappt. Zu glauben, dass das offene Internet nun nahtlos die Versorgung übernehmen kann, ist allerdings etwas verfrüht. Das stellt sich spätestens dann heraus, wenn Wechselwillige sich mit den Details beschäftigen. Vor allem bei Live-Shows und Sport-Events klaffen Lücken, und ohne den Rückgriff auf das digitale terrestrische Fernsehen, also ohne einen Medienbruch, ist die Abnabelung noch nicht zu haben. Zudem muss man seine Nutzungsgewohnheiten etwas ändern und sich bei vielen Live-Übertragungen von Veranstaltungen gedulden, bis sie als Aufzeichnung im Internet verfügbar sind. Kaum jemand zweifelt jedoch daran, dass immer mehr originärer Content über das Internet erhältlich sein wird. Die Kabelbranche nimmt die Konkurrenz jedenfalls sehr ernst.

In einer Client/Server-Architektur steigt die Belastung des Servers mit der Zahl der Clients; in P2P-Netzen erhöht jeder neu hinzukommende Client die Gesamtkapazität.

Die Welt war in Ordnung, solange das, was da an bewegten Bildern über das Internet kam, sich auf den Displays der Endgeräte im Briefmarkenformat präsentierte. Mit diesen Einschränkungen konnten Content Provider, Kabelnetzbetreiber und IPTV-Anbieter das Internet als Werbekanal zum Anfüttern der Konsumenten betrachten. Aber seitdem Internet-TV dem Daumenkino entwachsen und breitbandigere Anschlüsse sowie Settop-Boxen wie Roku, Boxee, Vudu sowie AppleTV und Revue – die Frontends zum iTunes Store beziehungsweise zu Google TV – das formatfüllende Streaming in SD und sogar HD auf den Fernseher erlauben, sortiert sich der Markt neu.

So verweigern sich die vier großen Sendergruppen ABC, CBS, NBC und Fox als Inhaltezulieferer dem Google TV. Sie befürchten, dass der Weltmarktführer bei der Online-Werbung nun auch den Markt der Fernsehwerbung an sich reißt. Auch unter den Triple-Playern sind die Dienste übers Internet – „over the top“ oder „OTT“ im Branchenschnack – nicht gut gelitten. Einerseits sehen sie mit Sorge, welche Wertschöpfung ihnen durch das Internet als Distributionsplattform entgeht; andererseits kommen sie an ihm nicht vorbei und brauchen es mit seiner attraktiven, aber unberechenbar innovativen Vielfalt, die sie selbst nicht bieten können, die bei den Kunden aber ankommt.

Als Vorreiter einer strategischen Neuausrichtung, wie die Branche der Herausforderung begegnen kann, betätigt sich die größte Kabelgesellschaft in den USA, Comcast. Zuerst taufte das Unternehmen seinen Marktauftritt um und fasste seine Triple-Play-Angebote unter dem neuen Markennamen Xfinity zusammen – ein Kunstwort, das für unendliche und plattformübergreifende Inhaltsangebote stehen soll. Dazu wurde eigens ein proprietärer Videoplayer als „Startrampe für die Konvergenz von Fernseher und PC“ entwickelt. Dann eröffnete Comcast mit dem Slogan „We’re TV Online“ das frei zugängliche VoD-Portal Fancast Infinity TV für Unterhaltungsfilme und TV-Shows, dessen werbefinanzierte und Bezahlinhalte aus Vertriebsverträgen mit den Senderketten ABC, CBS, NBC, Fox und etlichen anderen Quellen kommen.

Bei Unicast (oben) braucht ein Programmveranstalter für die Punkt-zu-Punkt-Übertragung dicke Leitungen. Für die Punkt-zu-Multipunkt-Übertragung (Mitte) wird der Videodatenstrom an den Netzknoten vervielfältigt. Beim Zwischenhandel mit dem IPTV-Betreiber als Programmeinkäufer (unten) kann man frei wählen – aus dem Angebot, das auf der Speisekarte steht.

Das zentrale Element der Cross-Platform-Strategie aber bildet die gemeinsam mit Time Warner gestartete Initiative TV Everywhere zum gesicherten Vertrieb der Premium-Inhalte über die neuen Online-Kanäle. TV Everywhere ist ein Medienmanagement-System, das Film- und Videomaterial an der Quelle für das IP-Streaming auf unterschiedliche Endgeräte und Displays aufbereitet. Diese Ausspielplattform ist mit einem DRM-System gekoppelt, das nur den Kabel-TV-Abonnenten den Zugang zu den Internet-Streams erlaubt.

Bislang waren die Kabelnetz-Betreiber keine IP-Content-Aggregatoren; diesen Schritt haben ihnen die IPTV-Betreiber voraus. Mit TV Everywhere hat sich Comcast nun selbst in den OTT-Vertrieb begeben und rechnet damit, dass die anderen großen Kabelgesellschaften dem Beispiel folgen. Das Unternehmen wirbt damit, dass seine Kunden ohne Mehrkosten ein umfangreiches Zusatzangebot erhielten, indem sie überall wie zu Hause mit jedem Endgerät auf das gesamte Kabelprogramm zugreifen können.

Kritiker indes sehen die Kartellaufsicht gefordert. Das Überall-Fernsehen sei eigentlich eine Mogelpackung, meint etwa der Jurist Marvin Ammori von der Universität Nebraska in einem Rechtsgutachten für die Verbraucherschutzorganisation Free Press [1] . Es sei nämlich nur den Comcast-Kabelkunden zugänglich; sollten die anderen Kabelgesellschaften folgen, würden damit die historisch gewachsenen und begründeten Gebietsmonopole ins Internet übertragen – denn wer in einem Cox- oder Cablevision-Gebiet lebt, kann ja nicht Comcast-Kabelkunde werden. Anstatt also im Internet gegeneinander in den Wettbewerb zu treten, behandeln die Kabelgesellschaften es wie ein virtuelles privates Netz und teilen sich den Markt entlang ihrer traditionellen Stammgebiete auf.

Ungeachtet, ob die Strategie aufgeht, ist das Vorgehen bemerkenswert. Für Kabelfernsehgesellschaften war die Versorgung mit DOCSIS-Internetanschlüssen bisher lediglich ein zusätzliches Geschäft im Netzbetrieb; die eigentlichen Umsätze erzielen sie im Kerngeschäft der Distribution von TV-Programmen. Jetzt begibt sich ein Distributor von einem Vertriebskanal außerordentlich hoher und gesicherter Qualität (Quality of Service, QoS) in das unzuverlässige Streaming der „Best Effort“-Welt des Internet mit Halls, Echos, Aussetzern, Ruckel- und manchmal auch Standbildern.

Auf den ersten Blick scheint das genau die umgekehrte Richtung auf dem Weg zu sein, den Netzbetreiber und Ausrüster allenthalben propagieren, nämlich Abschied von der Netzneutralität zu nehmen und unter dem QoS-Banner unterschiedlichen Content auch unterschiedlich gut zu transportieren und zu tarifieren. Nach den Gründen für Comcasts Schritt in die freie Wildbahn muss man jedoch nicht lange suchen: Im Internet sind vor allem die jüngeren Kunden zu finden, die mit Kabel-TV-Abos nicht mehr viel am Hut haben; wer dort nicht Flagge zeigt, gibt heute schon die künftigen Marktanteile auf. Überdies liegt die Vermutung nahe, dass der Kabelriese mit diesem Schritt über die Qualitätserwartungen der Kunden zusätzlichen Druck aufbaut und der Industrie den Weg ebnet, neben dem gewohnten „best effort“ ein paralleles gemanagtes Internet einzuführen.

Doch was die Comcast-Manager als zusätzlichen Nutzen ihrer Kunden propagieren, unterläuft tatsächlich das Potenzial des Internet. Das Vorbild des Webradios zeigt ja bereits, dass das Netz der Netze schaffen kann, was alle anderen Übertragungswege aufgrund technischer oder kommerzieller Beschränkungen bisher nicht zuwege brachten: Aus jedem Winkel der Erde sowohl professionelle als auch nutzergenerierte Video- und Audioinhalte in guter Qualität ohne Zwischenhändler in jeden Winkel der Erde zu bringen. IPTV und Kabel-TV hingegen sind lokale Geschäftsmodelle von Netzbetreibern mit der Mängelverwaltung veralteter Übertragungstechniken auf der letzten Meile; der terrestrische Kurzwellenfunk scheidet schon wegen der geringen Bandbreite für globales Videostreaming aus, und die Kosten der Transponderkapazität auf Satelliten werden immer in einer Größenordnung liegen, die die Bewirtschaftung durch Big Player begünstigen und für kleine Programmveranstalter oder Neueinsteiger unerschwinglich bleiben.

Wenn von 8 Millionen Tatort-Zuschauern nur jeder fünfte den Sonntagabend-Krimi übers Web auf seinen Fernseher streamte, entspräche die Netzlast etwa der Spitzenlast von 3 TBit/s, die bislang durch den größten Austauschknoten in der Bundesrepublik geflossen ist.

(Bild:  DE-CIX)

Aber kann das Internet überhaupt die massive Verbreitung von TV-gerechten Videoströmen verkraften? Das bisher praktizierte Unicast nach dem Client/Server-Modell, bei dem jeder Client einen individuell an ihn adressierten Datenstrom vom Server abruft, geht verschwenderisch mit den Ressourcen um und stößt schnell an Grenzen, wenn ein Millionenpublikum beliefert werden soll. Denn jeder neu hinzukommende Client beansprucht seinen Anteil an der vom Server bedienten Bandbreite. Schon ein einziger ARD-Tatort mit 8 Millionen Zuschauern am Sonntagabend würde – in Standard-TV-Auflösung mit MPEG-4/AVC auf 2 Mbit/s komprimiert und über das Internet ausgeliefert – eine Netzlast von 16 Terabit pro Sekunde erzeugen. Zum Vergleich: Derzeit liegt der durchschnittliche Datendurchsatz des DE-CIX, dem zentralen Austauschknoten für 280 Internet Service Provider in Frankfurt, bei 0,8 TBit/s und der bisher gemessene Spitzenwert bei 3 TBit/s. Daher scheint die herkömmliche Verbreitung der Rundfunksignale doch die effizientere Lösung zu sein, TV-Programme an ein Massenpublikum zu streamen.

Große Inhalteanbieter verteilen jedoch die IP-Last, indem sie sich auf Server-gestützte Auslieferungsnetze stützen und die Verteilung an Content Delivery Networks (CDNs) wie Akamai Technologies, Limelight Networks, SmartJog, EdgeCast Networks oder Internap auslagern [2] . Diese betreiben zumeist über eigene, vom Internet unabhängige Backbones zusammengeschlossene Serverfarmen, deren Standorte sie bedarfsgerecht gewählt haben. Durch die Unterverteilung in Teilnehmernähe verringern sie die Übertragungskosten, und mit Web-Caching und Lastausgleich unter den Edge-Servern können sie zugleich die Verfügbarkeit verbessern.

Die beste Methode, denselben Strom von IP-Paketen an viele Teilnehmer gleichzeitig zu verteilen, wäre natürlich Multicast, das schon 1988 mit der Reservierung von Adressräumen und dem Internet Group Management Protocol (IGMP) zu IPv4 hinzugefügt wurde. Das Verfahren vermeidet die parallele Übertragung identischer Pakete. Statt für jeden Adressaten einen eigenen Datenstrom durchs Netz zu generieren, bietet es die Möglichkeit, den Strom nur einmal zu senden und die Datenpakete lediglich in den Verzweigungspunkten zu solchen Netzsegmenten zu vervielfältigen, in dem die Anschlüsse der Gruppenmitglieder liegen. Der große Vorteil ist, dass die Belastung des Ursprungsservers nicht mit der Zahl der Adressaten zunimmt und die verfügbare Routing- und Transportkapazität effizienter genutzt werden. Was CDN-Betreiber als Dienstleistung anbieten, ist im Internet also schon eingebaut.

In der Praxis ist Multicast keine Lösung, denn es setzt auf dem gesamten Weg vom Sender zum Empfänger eine durchgängig IP-Multicast-fähige Netzinfrastruktur voraus; es muss aktiviert sein, und dies möglichst nahe bei den Teilnehmern, wo der Verkehr am stärksten aggregiert wird, also insbesondere im Bereich des Zugangsnetzes. Nur: Warum sollte ein Zugangsnetzbetreiber einem fremden Content Provider zuliebe Multicast aktivieren, wenn er davon gar nichts hat?

Wer des Chinesischen mächtig ist, findet auf QQLive eine reiche Auswahl an Filmen und TV-Serien.

Für Netzbetreiber gibt es keinen kommerziellen Anreiz, über die Grenzen ihrer eigenen Domäne hinweg das Vervielfachen der Datenströme auf ihren Routern zu implementieren; im Gegenteil müssen sie eher befürchten, sich zusätzliche Risiken mit der Spam-Verteilung einzuhandeln. Deshalb ist Multicast allenfalls in kontrollierten Subnetzen anzutreffen, wie beispielsweise in den vor allem von den ehemaligen Staatsmonopolisten aufgebauten, geschlossenen IPTV-Systemen. Im Grunde ist IPTV auch nichts anderes als ein Content Delivery Network, nur dass im Unterschied zu Akamai und Co. die Edge Server auf eigene Rechnung wirtschaften – ein Zwischenhandel, der die Programme selbst einkauft, auf Videoservern abrufbereit vorhält, über eigene Headends einspeist und via Multicast auf die Settop-Boxen der Abonnenten bringt.

Die Eigentümer der Zugangsnetze könnten stattdessen die Multicast-Option – sowie weitere Funktionen der IPTV-Middleware, die die Interaktivität der Videodienste bereitstellen – direkt an interessierte Programmveranstalter und Videoportale verkaufen. Das hieße, sich aus dem IPTV-Geschäft und der Beschaffung von Programmquellen zurückzuziehen und lediglich die intelligenten Netzfunktionen (IN) zu vermarkten. Das ist das NGN-Konzept, das den Next Generation Networks im Access-Bereich zugrundeliegt [3] . Damit würde der Zugangsnetzbetreiber, ähnlich wie Akamai, zu einem Dienstleister, der die Content Provider mit IN-Angeboten im Vertrieb unterstützt. Anders als CDN-Betreiber wie Akamai, die nur im Auftrag handeln und in keiner Beziehung zu den Endkunden ihrer Auftraggeber stehen, kann ein Zugangsnetzbetreiber wie die Telekom jedoch die Wurst von beiden Enden her anschneiden, indem er sowohl von den Inhalteanbietern wie von den Endkunden für seine Leistung kassiert. Das NGN-Modell ist daher zu Recht umstritten. Es sind solche „zweiseitigen Märkte“, wie es die Ökonomen nennen, die den eigentlichen Kern der Debatten um die Netzneutralität bilden.

Einen Ausweg bieten die vielgeschmähten P2P-Netze. In Verruf geraten, weil Napster & Nachfolger mit immer ausgefeilteren Protokollen eine zeitlang mit den Verwertungsrechten der Content Provider Katz und Maus spielten, sind darüber die Vorteile von P2P-Architekturen für das Videostreaming etwas in den Hintergrund getreten. Beim P2P-Streaming leitet jeder User, während er seinen Datenstrom herunterlädt, gleichzeitig diesen Strom an einen oder mehrere andere User weiter und trägt so zur insgesamt verfügbaren Downstream-Bandbreite bei. Attraktiv ist das Verfahren wegen seiner Skalierbarkeit: Je mehr Peers sich an der Verteilung beteiligen, desto besser die Gesamtverfügbarkeit und Verlässlichkeit.

HbbTV am Beispiel der Verknüpfung von DVB-S und Internet. Apps (rote Pfeile) können auf beiden Wegen in das Endgerät geladen werden; TV-Programme gelangen über Funk, Abrufprogramme via Web-Portal zum Empfänger (blaue Pfeile). Das Internet dient auch als Rückkanal.

(Bild: IRT)

Die Architektur von P2P-TV-Systemen kann man sich als eine Art Echtzeit-Version des populären BitTorrent-Filesharing [4] vorstellen – tatsächlich bauen viele aktuelle Entwicklungen auf dem ursprünglichen BitTorrent-Protokoll auf. Wenn der Teilnehmer einen bestimmten Kanal sehen möchte, fragt der Software-Client einen Tracker genannten Index-Server nach den Adressen von Peers, die den gewünschten Kanal verbreiten, und stellt dann Verbindungen zu diesen Peers her, um das kontinuierliche Downstreaming einzuleiten. Der Tracker speichert die Adresse des neu hinzugekommenen Peers als potenzielle Quelle für weitere Nutzer, die dieselbe Sendung anschauen möchten. An die Stelle des Trackers als zentrale Komponente können dabei auch Verfahren mit verteilten Hash-Tabellen treten.

In der anfänglichen Euphorie um das P2P-Streaming sind allerdings einige der Pioniere der ersten Stunde wie etwa Babelgum, Joost oder Zattoo [5] mit ihren Geschäftsmodellen gescheitert und entweder gar nicht mehr am Markt oder vom P2P- auf das konventionelle Streaming mit dem Browser-gestützten Flashplayer umgeschwenkt – ein Weg, den auch die BBC mit dem ursprünglich als P2P-Client konzipierten iPlayer ging. Dabei war gerade Joost 2007 mit den besten Voraussetzungen an den Start gegangen.

Gegründet von den beiden Erfindern der Tauschbörse Kazaa und des später an eBay verkauften Internet-Telefoniedienstes Skype, dem Schweden Niklas Zennström und dem Dänen Janus Friis, funktionierte Joost ähnlich wie Kazaa, nur mit dem Unterschied, dass Joost die Inhalte verwaltete und so die Nutzungsrechte unter Kontrolle behielt. Gleichwohl – und trotz der 45 Millionen Dollar Startkapital, gepaart mit jeder Menge Vorschusslorbeeren in den Medien – gelang es den beiden Gründern nicht, Vertrauen bei den Content-Providern aufzubauen und rechtzeitig genügend Inhalte zu akquirieren. Und auf dem Markt kam der Client-basierte Ansatz bei den weniger erfahrenen Usern nicht so gut an; als das Unternehmen Ende 2008 auf den Flashplayer umstieg, konnte es sich gegen die Konkurrenz schon nicht mehr durchsetzen.

Aber der Ansatz des „user-generated Multicasting“ ist zu attraktiv, um ihn einfach zu den Akten zu legen. Derzeit gibt es eine Fülle von Projekten, die seine Möglichkeiten ausloten. Besonders aktiv auf diesem Gebiet waren die Chinesen, die mit PPLive (www.pplive.com ), PPStream (pps.tv ), QQLive (live.qq.com ) und UUsee (www.uusee.com ) das Peer-to-Peer-Streaming teilweise bereits in den Masseneinsatz tragen. Allerdings sind diese wie auch die meisten anderen Systeme proprietär. In der Internet-Standardisierungsorganisation IETF gibt es daher schon Überlegungen, den Internet-Protokollstapel um ein offenes P2P Streaming Protocol (PPSP) zu erweitern. Proprietäre Systeme, heißt es zur Begründung in einem aktuellen Diskussionspapier, „führen zu erheblichen Schwierigkeiten bei der Integration des P2P Streaming als integralen Baustein in einer globalen Infrastruktur zur Content-Verteilung“.

Die beklagte Lücke könnte möglicherweise das von der EU geförderte Projekt P2P-Next schließen. In dem vom VTT Technical Research Center in Tampere, dem finnischen Pendant der Fraunhofer-Gesellschaft, koordinierten Vorhaben arbeiten 21 Partner an der Entwicklung einer „Next Generation Peer-to-Peer Content Delivery Platform“. Mit dabei sind unter anderen das Institut für Rundfunktechnik (IRT) in München, die Europäische Rundfunk Union (EBU), BBC, STMicroelectronics und die TU Delft (www.p2p-next.org ).

Mehr Infos

Konvergenz im Endgerät – Déjà vu?

Konvergenz von Medien und Technik: Jahrelang war dies gerade beim TV eines der meistgehörten Schlagworte – ohne dass das Versprechen Wirklichkeit wurde. Nun aber: „TV. Web. Oder beides. Der Wechsel zwischen TV und Web ist nahtlos. Man kann sogar beides gleichzeitig sehen.“ So wirbt Google für sein neuestes Produkt Google TV. Ein Déjà vu? Dasselbe bietet auch das zur letzten IFA eingeführte Hybrid Broadcast Broadband TV (HbbTV), der vom Institut für Rundfunktechnik (IRT) in einem Konsortium mit France Télévision und anderen entwickelte ETSI-Standard (TS 102796). Er dient zur Darstellung von Webinhalten ohne zwischengeschalteten PC auf Fernsehgeräten, die neben der Koax-Buchse für das TV-Signal über einen RJ45-Port zur Verbindung ins Internet besitzen [6] .

Der wesentliche Unterschied: Bei Google TV gelangt alles – die gestreamten TV-Programme und normale Webseiten – über den RJ45-Port der Settop-Box Revue auf den Fernseher. In HbbTV-fähigen Geräten hingegen kommen die TV-Sendungen auf einem der vier herkömmlichen Wege über DVB-C, DVB-S, DVB-T oder IPTV auf den Bildschirm. In die programm-begleitenden Informationen des MPEG-Transportmultiplex fügen die Sender die URL zu einem Internet-Portal ein, die der Nutzer über die rote Taste auf der Fernbedienung aufrufen und so zusätzliche Inhalte über seinen Breitband-Internetanschluss abholen kann.

Mit der Fernbedienung kann der Nutzer nun im Online-Angebot des Senders oder des Portals, auf das der Sender ihn leitet, surfen. Die jeweiligen Webinhalte werden durch einen HTML/JavaScript-Browser dargestellt, die dazu von den Anbietern in CE-HTML, der Adaption von HTML für die Endgeräte der Unterhaltungselektronik, aufbereitet werden müssen. Dabei wird wie bei der ARD entweder das Webangebot des Senders ins TV-Bild eingeblendet, oder umgekehrt wie beim ZDF das TV-Bild in eine vollformatige HTML-Seite eingebettet.

Und das TV-Bild kann auch völlig wegbleiben. Denn das mitunter als ,Videotext 2.0’ apostrophierte HbbTV ist keineswegs ausschließlich auf programmbegleitende Informationen festgelegt. Die Integration von TV und Web im Endgerät bietet die Möglichkeit, sich beliebige Webinhalte auch völlig unabhängig vom Fernsehprogramm auf den Fernseher zu holen. Der ETSI-Standard selbst weist auf die Option hin, „die Browser-Umgebung zur Darstellung von Webseiten im offenen Internet zu nutzen“. Ob sie genutzt wird, hängt von den Geräte-Herstellern ab, die oft eigene Portale für ausgewählte Websites unterhalten [7, 8] .

Die NextShare genannte Open-Source-Plattform ist eine Weiterentwicklung von BitTorrent und wickelt Video-on-Demand und Live-Streaming mit einem einheitlichen Protokoll ab. Für den Firefox-Browser wurde bereits die Erweiterung tribe entwickelt, die die NextShare-Lösung in den Browser einbettet und den Aufruf der P2P-Engine über HTML5-Seiten nach dem Muster video src="tribe://torrent_url"/ startet. Add-ons für andere Browser sind bereits in Arbeit, ebenso eine Vereinfachung des P2P/TCP/IP-Protokollstapels mit dem neuen Multiparty-Transportprotokoll swift, das zu Beginn des Projekts noch VicTorrent hieß.

Es gibt keine grundsätzlichen technischen Hindernisse, die einer P2P-Verteilung selbst von HD-Videoströmen im Wege stünden. Kritische Parameter wie die unvermeidliche Zeitverzögerung sind mit nicht-mobilen Peers, die ständig online sind, wohl in den Griff zu bekommen. Weitere Aufschlüsse werden die Feldversuche im P2P-Next-Projekt bringen (www.livinglab.eu ). „In Labortests des IRT erwies sich das NextShare-System prinzipiell als rundfunktauglich für Live-TV in DVB-S-Qualität“, berichtet Projektleiter Ronald Nies vom Münchner IRT, der gemeinsamen Forschungseinrichtung der öffentlich-rechtlichen Sender im deutschsprachigen Raum. Er schätzt, dass der Erfolg des P2P-Streaming jedoch „viel mehr von nicht-technischen Faktoren“ abhängen wird.

Eine echte Hürde ist die gegenüber der Downloadgeschwindigkeit meist um den Faktor 1:10 oder sogar 1:20 niedrigere Datenrate im Upload an den DSL-Anschlüssen oder Kabelmodems der Endteilnehmer. Sobald die Uploadkapazität kleiner ist als die Datenrate des empfangenen und weiter zu verteilenden Bitstroms, wird aus dem Peer eine Senke für den empfangenen Stream. Im Unterschied zum P2P-Filesharing oder Video-Downloads auf Abruf ist das Live-Streaming eben zeitkritisch. Deshalb muss für jeden Teilnehmer, der beispielsweise einen 1-Mbit/s-Strom empfängt, im Mittel ein Peer diese Bandbreite praktisch in Echtzeit im Upstream zur Verfügung stellen können.

Wenn beispielsweise 100 000 User einen HD-Videostrom mit 8 MBit/s empfangen wollen, entspricht dies einer Gesamtrate von 800 GBit/s im Downstream. Steht den Nutzern im Mittel eine Upstreamrate von 2 MBit/s zur Verfügung, von denen sie 80 Prozent zur P2P-Verteilung bereitstellen, summiert sich das insgesamt auf 160 GBit/s. Die Bedarfslücke von 640 GBit/s müsste anderweitig gedeckt werden – eine Möglichkeit sind Verteilserver als „Super-Nodes“ im Netz. Damit landet man wieder bei einem administrierten Content Delivery Network. Das ist der Weg, den einige kommerzielle CDN-Provider wie Octoshape, die selbst P2P-Techniken einsetzen, gegangen sind.

Seine wahren Stärken entfaltet das P2P-Streaming indes erst als ein von den Teilnehmern selbst gebildetes Multicast, das die Verteilung massenhaft gleichzeitig anfallender Live-Streams von Veranstaltungen auch bei hohen Zuschauerzahlen ohne Mehrkosten für den Programmveranstalter bewältigen kann. Doch indem es sich als Overlay über die bestehenden Netzarchitekturen einfach hinwegsetzt, bildet es einen Gegenentwurf zur NGN-Philosophie, die die Hoheit über die Zugangsnetze dazu nutzen will, als Makler zwischen den Content Providern und Endteilnehmern zu operieren und diese Rolle zu Geld zu machen. Durch P2P werden die Zugangsnetzbetreiber genau das, wogegen sie sich mit Händen und Füßen wehren: zu reinen Bit-Transporteuren.

P2P-TV könnte zu einer Killer-Applikation für schnelle Breitbandanschlüsse werden, sofern es sich auf hochbitratige, symmetrische Teilnehmeranschlüsse mit gleichen Datenraten im Up- und Downstream stützen kann. Die wären mit Fiber-to-the-Home umstandslos zu realisieren – Glasfasern aber wollen die Netzbetreiber auf den letzten Metern zu den Endkunden nur verlegen, wenn sie an den Erlösen der Content Provider teilhaben können: weil sich, so sagen sie, der bloße Bittransport für sie nicht rechnet, mit den ungeliebten Flatrates schon gar nicht. So hängt in der Kommunikationstechnik eben alles mit allem zusammen.

[1] Marvin Ammori, TV Competition Nowhere: How the Cable Industry Is Colluding to Kill Online TV, Free Press 2010

[2] M. Kindler, A. Leschinsky, A. Quellmalz, WM-Streaming, Die Technik des ARD-Internet-Angebots zur FIFA-WM, c’t 16/10, S. 136

[3] Richard Sietmann, Der stille Machtkampf, c’t 24/09, S. 90

[4] Cai Ziegler, Smarte Schwärme, Die Technik hinter modernen Peer-to-Peer-Netzen, c’t 16/05, S. 160

[5] Volker Zota, Fernseh-Netz, P2P-Technik soll Internet-TV revolutionieren, c’t 13/07, S. 76

[6] ETSI TS 102796, Hybrid Broadcast Broadband TV. V1.1.1, 2010

[7] Sven Hansen, Jan-Keno Janssen, Fernsurfen, Der Kampf um die Zukunft eines Leitmediums, c’t 23/10, S. 104

[8] Nico Jurran, Ulrike Kuhlmann, Fernsurf-Geräte, Was das Internet am Fernseher aktuell bringt, c’t 23/10, S. 108 (jk)