Auf Web-Wolke Sieben?
Der renommierte wie provokante IT-Autor Nicholas Carr hat ein neues Buch geschrieben, in dem er die Auswirkungen des Megatrends "Cloud Computing" untersucht.
- Mark Williams
Es ist wie in der berühmten Erzählung vom Kaiser und seinen neuen Kleidern. Am Ende jeder Hype-Entwicklung kommt stets jemand, der den Zauber bricht. Im Mai 2003 übernahm Nicholas Carr für die Informationstechnik-Branche diese eher undankbare Rolle: Mit der Veröffentlichung seines Artikels "IT Doesn't Matter" im viel gelesenen Wirtschaftsblatt "Harvard Business Review". 2004 folgte dann ein Buch ("Does IT Matter?"), in dem er seine Haltung, die IT zähle heutzutage viel weniger als früher, weiter vertiefte und offen fragte, wie viele Wettbewerbsvorteile moderne Computertechnik tatsächlich bringt. Eine Welle der Kritik aus dem Silicon Valley ließ nicht lange auf sich warten.
Carr wurde dadurch zu so etwas wie einer Berühmtheit in Branchenkreisen. Nun hat der IT-Experte ein neues Buch geschrieben, das "The Big Switch" heißt - der große Wechsel. In dem Werk, das den vollmundigen Untertitel "Wie die Welt neu verdrahtet wird - von Edison bis Google" trägt, argumentiert Carr, dass wir uns vom PC-Zeitalter wegbewegen, um mitten im "Cloud Computing" zu landen - in einer Welt, in der die wahre Rechenleistung in Grids, großen Serverfarmen, beheimatet ist und unsere wichtigsten Daten direkt im Netz abgelegt werden. Damit sei abzusehen, dass in den nächsten Jahren so gut wie keine Information mehr offline vorliege.
Dazu trägt Carr zahlreiche geschichtliche Analogien zusammen - beispielsweise, wie die Elektrizität, die über ein großes Netzwerk verteilt wird, im 19. Jahrhundert die diversen lokalen Mini-Kraftwerke ersetzte. Das mag mancher Leser etwas unvermittelt finden - doch es scheint, als ob Carr da einen alten Witz im Kopf hatte: "Vorhersagen sind immer schwer, besonders die über die Zukunft." Nichtdestotrotz kann man seiner Idee durchaus Glauben schenken, dass in zehn oder mehr Jahren viel Offline-Technik, die wir heute für selbstverständlich halten, verschwunden sein wird.
Angesichts der Tatsache, dass Carrs Rückschlüsse in der Branche weiterhin umstritten sind, ist es sinnvoll, seine Thesen in ihrer Gesamtheit zu betrachten. Im Buch "IT Doesn't Matter" argumentiert er, dass aus einst einzeln gefertigten Produkten und Dienstleistungen einer Industrie mit der Zeit Massengüter werden, die nur noch beim Preis zueinander im Wettbewerb stehen. Die IT-Branche habe diese Phase nun erreicht: Für die meisten Firmen, die nicht selbst in der Entwicklung und dem Verkauf dieser Technologien steckten, biete IT an sich keine Wettbewerbsvorteile mehr, sei nur noch ein weiterer Kostenblock im Geschäftsleben.
Schwer war es nicht, Beweise für Carrs Idee zu finden. Eine allgemein anerkannte Wahrheit der Wirtschaftswissenschaften, die 1997 im Buch "The Innovator's Dilemma" von Clayton Christensen beschrieben wurde, lautet, dass ein Sektor gänzlich im Modus der Massenware angelangt ist, wenn der Wettbewerb zu einem Leistungsüberschuss führt. Das führe wiederum dazu, dass so gut wie jede Ausdifferenzierung eines Produktes von der Kundschaft gar nicht mehr gewollt oder gebraucht werde.
Zum Ende des 20. Jahrhundert sah es im IT-Sektor in der Tat danach aus: Die Mehrzahl aller PCs hatte deutlich mehr Prozessorleistung und Plattenplatz, als ein Durchschnittsnutzer fĂĽr normale Anwendungen wie E-Mail, Web oder Textverarbeitung brauchte. 70 Prozent des vorhandenen Speicherplatzes in einem typischen Windows-Netz blieben leer, schrieb Carr 2004.
Dem standen enorme Kosten gegenüber: Bis zu 50 Prozent der Kapitalausgaben US-amerikanischer Firmen gingen bereits im Jahr 2000 laut Carr an die IT. Jahr für Jahr kauften Unternehmen 100 Millionen neue PCs. Das größte IT-relevante Geschäftsrisiko lag demnach in zu hohen Ausgaben, schloss der Autor. Es sei deshalb an der Zeit, "sich nach günstigeren Lösungen umzusehen, einschließlich Open-Source-Anwendungen und Netzwerk-PCs mit geringer Prozessorleistung". Wenn eine Firma noch einen Beweis brauche, wie viel Geld man im IT-Bereich einsparen könne, müsse man sich nur "Microsofts Marge ansehen".
Die Reaktionen der IT-Kapitäne ließen nicht lange auf sich warten. Microsoft-Boss Steve Ballmer meinte, es sei noch viel Saft in der alten Frucht. "Unser grundsätzliche Antwort auf dieses Theorie lautet: Sie ist quatsch. Wir gebärden uns wie Kinder im Süßwarenladen und reden nur davon, wie toll die Welt doch ist." Selbst Bob Metcalfe, Miterfinder der Ethernet-Vernetzung, der sich eigentlich zurücklehnen könnte, weil er keinen Lobbyismus für irgendeine Technologie mehr betreiben muss, ärgerte sich in Technology Review über das schwarze Schaf mit Namen Carr. "Sein Text will einfach nicht widerlegt bleiben", sagte er zu jenem Harvard Business Review-Artikel, der alles losgetreten hatte.
Carr bezog sich hingegen in Interviews und Reden unverdrossen weiter auf Beispiele aus der Geschichte: IT biete ähnlich wie alte Technologien von Telefon bis zur Elektrizität keinen direkten Wettbewerbsvorteil mehr, weil sie Teil der gewöhnlichen Geschäftsinfrastruktur geworden sei. Im nächsten Schritt werde IT nun zu einem Massenprodukt wie Wasser oder Strom, die über Netzwerke den Nutzer erreichten.
Heute hat sich diese Theorie in der Tat weitgehend durchgesetzt: Nahezu jeder Experte glaubt, dass IT-Services bald standardmäßig auf Basis eines Abonnements oder Dienstleistungsvertrags bezogen werden. In "The Big Switch" geht Carr nun aber noch weiter, sieht den Trend im sich beschleunigenden Vollzug.
Und in der Tat: Google baut riesige Serverfarmen in ländlichen US-Regionen wie Oregon, Oklahoma, Georgia oder Iowa, um an dem Trend zu partizipieren. In anderen Weltgegenden arbeiten Microsoft, IBM, Hewlett-Packard, Yahoo, Ask.com und Salesforce.com an ähnlichen Infrastrukturen. Der E-Commerce-Riese Amazon bietet derweil das wohl breiteste Angebot im Bereich "Utility-Computing" - mit Diensten wie "Elastic Compute Cloud" (EC2) oder "Simple Storage Service" (S3), dank denen Kunden auf unbegrenzte Rechen- und Bandbreitenkapazitäten zurückgreifen können, für ein paar Cents pro Gigabyte und Gigahertz. Mit "SimpleDB" wurde außerdem eine große Datenbank nach dem gleichen "Pay-as-you-go"-Prinzip aufgesetzt.
Amazon-Technikchef Werner Vogels hat auf die Frage, ob wir uns wirklich in der Ära der serverlosen Internetfirmen befinden, die einfach vom Browser aus gesteuert werden, nur eine Antwort: Das sei längst Realität. Beispiele gäbe es genug, wenn man sich beispielsweise die zahllosen Web 2.0-Start-ups betrachte, die an Amazon lieber pro Gigabyte zahlten, anstatt sich Hardware im Wert von Hunderttausenden Dollar in den Serverraum zu stellen.
In seinem Buch sieht Carr durchaus die Vorteile einer solchen Welt, in der die Rechenleistung quasi aus der Steckdose kommt. Er kann sich aber trotzdem nicht verkneifen, den Neinsager zu spielen. Die Hälfte von "The Big Switch" verbringt er dann auch damit, die negativen, ja geradezu dystopischen Aspekte einer solchen Welt zu beschreiben.
Seine Liste der Probleme ist lang. Da wäre beispielsweise die Zerstörung traditioneller Unternehmen durch extrem schlanke Mini-Firmen, die durch die "On Demand"-Technologien erst richtig möglich werden. Aber auch für die Nutzer und Geschäftsleute würde es eventuell unangenehm: Großkonzerne wie Regierungen erhielten Werkzeuge an die Hand, mit denen sie das digitale Verhalten aller überwachen und eventuell missbrauchen könnten. Eine weitere Gefahr sieht Carr im Aufkommen einer Art "YouTube-Wirtschaft", in der zwar viele kostenlose Informationen in der "Cloud" bereitstehen, doch nur einige wenige Aggregatoren die Profite abschöpften. (Google lässt grüßen.)
Und, um das Horrorszenario abzurunden, sieht Carr auch schwerwiegende kulturelle Gefahren: Eine Gesellschaft, die ihr Wissen nur noch aus dem Internet hole und auch nur noch dort schöpferisch tätig sei, besitze letztlich kein eigenes Wissen und keine eigene physische Kreativität mehr. Hinzu komme, dass bei einer genauen Personalisierung der Dinge, die ein Mensch im Netz höre und lese, plötzlich nur noch die Neuigkeiten den Nutzer erreichten, die seine eigenen Vorurteile bestätigten.
Carrs Vorhersagen sind nicht allesamt plausibel. Einteilen lassen sie sich jedoch stets in zwei Kategorien. Da wären futuristische Szenarien, die eintreten könnten - und solche, die der große politische Ökonom Peter Drucker "die Zukunft, die bereits passiert ist" nennt. Drucker, der 2005 verstarb, meinte stets, es sei nutzlos, die Zukunft vorherzusagen. Man könne nur bestehende Trends identifizieren und ihre Auswirkungen auf die Zukunft analysieren.
Druckers Vorgehensweise lässt sich dabei auf folgenden Punkt bringen: "Ich schaue aus dem Fenster, was draußen schon heute vor sich geht - und achte auf jene Dinge, die die Leute ignorieren." Diese Methode führte den Forscher unter anderem zur Erkenntnis, dass die Phase der Industrialisierung durch die der Wissensökonomie ersetzt wird. (Daraus ergab sich auch der Begriff des "Wissensarbeiters", den Drucker erstmals einführte.) Als Nicholas Carr "IT Doesn't Matter" schrieb, analysierte er also im Druckerschen Sinne, schaute aus dem Fenster und stellte eine Zukunft fest, die bereits ablief.
Im neuen Buch geht Carr nun ähnlich vor - er extrapoliert. Ein Beispiel: In vielen kleinen und mittleren Firmen gibt es genügend Manager, die darüber nachdenken, ob sie ihre IT-Abteilung auf ein oder zwei Leute reduzieren könnten. IT wird so zum Kostenblock, den man ähnlich dem Hausmeister oder der Küchenkraft in der Kantine auslagern kann. Sicherheitsbedenken werden Firmen nicht notwendigerweise davon abhalten, ihre Datendienste nach Indien & Co. zu verschiffen - längst werden kritische Bereiche wie Lohnbuchhaltung oder Kundendatenbank an Dienstleister übertragen, denen man vertraut. Ergo: Viel hängt von der jeweiligen Firma ab, aber es ist eher unwahrscheinlich, dass kleinere Unternehmen der wirtschaftlichen Logik entgehen können, die im Utility-Computing liegt. Große Firmen brauchen womöglich einfach etwas länger, doch Carr schnüffelt schon in die richtige Richtung.
Die Auswirkungen wären unschön. Obwohl sich einige IT-Manager umschulen lassen und in den neuen Datacentern einen Job finden könnten, würde es dort doch weniger neue Arbeitsplätze geben, als abgebaut werden. Beispielsweise werkeln in Googles riesiger Serverfarm in Oregon informierten Kreisen zufolge höchstens noch 200 Mitarbeiter. Alternativ könnten IT-Manager mit Unternehmensgeist auch zu einem der neuen Start-ups gehen. Aber auch hier sind die Chancen eingeschränkt - viele Firmen scheitern obendrein in kürzester Zeit. Der Wissensarbeiter vor dem Rechner muss sich also warm anziehen, wenn Carr Recht behält. (bsc)