Twitter: Der Seismograf der Welt

300 Milliarden Tweets gibt es bereits, und Twitters Datenberg schwillt weiter an. Ob Stimmungsanalysen, Aktienkurse oder Katastrophenhilfe – aus unserem Gezwitscher wird immer mehr herausgelesen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 11 Min.
Von
  • Jens Lubbadeh
Inhaltsverzeichnis

300 Milliarden Tweets gibt es bereits, und Twitters Datenberg schwillt weiter an. Ob Stimmungsanalysen, Aktienkurse oder Katastrophenhilfe – aus unserem Gezwitscher wird immer mehr herausgelesen.

Ein Pixel erscheint auf der dunklen Weltkarte, irgendwo in Nordindien, zugleich eine unleserliche kurze Zeichenfolge. Noch eines, diesmal in der Mitte der USA. Fast gleichzeitig drei weitere – auf der Arabischen Halbinsel, in Brasilien und eines im kleinen Europa, vielleicht in Frankreich? Nach und und nach entstehen Wölkchen auf der Karte, und nach wenigen Minuten erinnert das Ganze frappierend an die Nachtaufnahmen der Erde aus dem All: hell erleuchtet die industrielle Welt, dunkel die Weiten Afrikas und Russlands.

Diese Karte, für jeden abrufbar auf tweetping.net, zeigt das Gezwitscher der Menschheit. Es ist die Welt von Twitter – in Echtzeit abgebildet. Jeder dieser Punkte ist ein Tweet, gerade eben irgendwo von irgendjemandem abgesetzt. Programmiert hat diesen Zwitscher-Seismografen der Franzose Franck Ernewein. Nur so zum Spaß, wie er sagt, und anfangs nur für sich. Doch schnell fand Tweetping Bewunderer: "Mir haben viele Leute geschrieben, die eine maßgeschneiderte Karte möchten, mit Zoom-Funktion und mit Filtern für Hashtags", erzählt er. Ernewein arbeitet daran, aber er ist sich nicht sicher, ob die Nutzer bereit wären, dafür auch zu zahlen.

Wenn er sich da mal nicht irrt. Denn das weltweite Gezwitscher ist eine Menge Geld wert. Seit dem 21. März 2006, als Twitter-Mitbegründer Jack Dorsey den allerersten Tweet absetzte, sprudelt der Datenstrom aus der Twitter Firehose – das ist das englische Wort für Feuerwehrschlauch. Jede Sekunde kommen 5000 Tweets zu dem Datenberg von 300 Milliarden bislang gesendeten Tweets hinzu. Denn kein Tweet ist verlorengegangen, sie sind alle gespeichert.

Man könnte Twitter somit auch als eines der größten Crowdsourcing-Projekte aller Zeiten bezeichnen: 230 Millionen Menschen geben bereitwillig Auskunft darüber, was sie tun, was sie denken und wo sie sind. Diesen immensen Datenstrom will das noch immer defizitäre Unternehmen Twitter zu Geld machen. Im Zuge seines Börsengangs im vergangenen Jahr legte der Konzern erstmals seine Finanzen offen: Größte Einnahmequelle ist nach wie vor Werbung, Tendenz steigend. Aber Datenlizenzierung macht bereits 13 Prozent der Erlöse aus – in den ersten sechs Monaten des Jahres waren das rund 32 Millionen US-Dollar, ein Drittel mehr als 2012 und mehr als doppelt so viel wie 2011.

Interesse an den Daten haben Firmen, für die die Tweets ihrer Kunden ein wertvolles Marketingmessinstrument sind. Banken, Fondsmanager und Aktientrader glauben, in dem Gezwitscher Stimmungsänderungen lesen und daraus Aktienkursentwicklungen vorhersagen zu können. So brüstet sich der Twitterdaten-Analyst und -Reseller Dataminr, seinen Kunden im November 2013 einen dreiminütigen Vorsprung verschafft zu haben, um ihre abstürzenden BlackBerry-Aktien abzustoßen, und 2011 einen zwanzigminütigen, bevor die erste Nachrichtenagentur den Tod Osama Bin Ladens verkündete.

Auch Fernsehmacher interessiert das Second-Screen-Geplauder ihrer Zuschauer zunehmend. Sie ziehen daraus Rückschlüsse auf den Erfolg ihrer Sendungen. Je aktiver eine Person auf Twitter ist – Politiker, Popstars oder Schauspieler –, desto höher ist auch ihr Einfluss und damit ihre Werbewirkung. Unternehmen wie Klout und PeerIndex messen diese Online-Reputation und kassieren bei der Werbeindustrie. Und natürlich bergen die Tweets auch für die Wissenschaft wichtige Daten: Sozialforscher, Meinungsforschungsinstitute und Politiker analysieren im Gezwitscher die Stimmung in der Bevölkerung.

Zugriff auf seine Firehose gewährt Twitter nur noch exklusiven Partnern: Data-Resellern wie Gnip, Dataminr, DataSift, Crimson Hexagon oder Topsy. Erst kürzlich sorgte die 200-Millionen-Dollar-Übernahme von Topsy durch Apple für Schlagzeilen. Denn damit sicherte sich Apple exklusiven Zugriff auf die Twitter Firehose – ohne dass ein Reseller mitbekommt, was der sehr auf Geheimniskrämerei bedachte Konzern mit den Daten vorhat. Apple, so wird spekuliert, könnte durch diesen Coup zu den Datenaggregatoren Google und Microsoft aufschließen und mit dem Twitter-Schatz seine Suchalgorithmen, die Spracherkennungsfunktion und seine Mobilmarketing-Plattform iAd ausbauen.

Wie viel Gnip und Co. für den Zugriff auf die Firehose zahlen, darüber herrscht einvernehmliches Schweigen. Eine Anfrage von Technology Review diesbezüglich ließ Twitter unbeantwortet, ebenso wie die Frage, wie man überhaupt in den Firehose-Klub kommt. Früher war das einfacher: 2007 und 2008 hatte Twitter Partnerschaften mit Google, Yahoo und Microsoft, die Tweets in ihre Suchmaschinen integrierten. Seit 2010 hat das Unternehmen den Zugang zu seinem Datenschatz jedoch immer weiter beschränkt, teilweise Firmen sogar ausgesperrt, die mit ihren Diensten Twitters Marktstrategie in die Quere kamen. PeopleBrowsr ist so ein Opfer. Sein Geschäftsmodell fand Twitter offenbar zu bedrohlich. PeopleBrowsr ermöglicht seinen Kunden den Aufbau und die Analyse ihrer eigenen sozialen Netzwerke.

Aber wie kommt Franck Ernewein an die Echtzeitdaten für Tweetping? "Die Daten stammen aus der öffentlichen Twitter Streaming API", sagt er – eine Schnittstelle, die Twitter für jeden zur Verfügung stellt. Aus ihr tröpfeln aber nur etwa ein bis maximal 40 Prozent des Tweets-Feuerwehrschlauchs. Zwar hat Twitter Programmierern in der Vergangenheit zunehmend strengere Regeln auferlegt, dennoch behält es den freien Kanal bei – wahrscheinlich aus Werbegründen.

Auch Frederik Fischers Firma Tame zapft Tweets aus der freien API. Fischer ist Journalist, und für ihn ist Twitter zu einer unverzichtbaren Recherchequelle geworden. Immer wieder ärgerte er sich über die beschränkten Möglichkeiten von Twitters hauseigener Suche. Als Fischer 2011 für eine Geschichte über den Süd-Sudan Informanten recherchierte, stieß er immer wieder an Grenzen und beschloss gemeinsam mit einigen Freunden, die Suche in den Tweets selbst zu optimieren. "Es gab und gibt bei Twitter keine ausgeklügelte Suchlogik wie Googles Page-Rank. Das wollten wir ändern", sagt er.

Aus der Idee wurde Tame, ein mittlerweile crowdfinanziertes Start-up, das eine Twitter-Suchmaschine bietet, die vorwiegend für Journalisten, PR-Leute und Politiker gedacht ist. Tame sortiert das unübersichtliche Gezwitscher nach Hashtags, Tweetern und verbundenen Links, und es rankt die Suchergebnisse. "Wie im klassischen Journalismus ist für den Tame-Rank das wichtigste Kriterium die Quellenvarianz, also wie viele unabhängige Quellen über etwas tweeten." Fischer und seine Mitbegründer besitzen zwar nicht den vollen Firehose-Zugriff. Über eine ausgeklügelte Programmierung aber könnten Nutzer dennoch den vollen Twitter-Datenschatz nutzen, verspricht er.