Ein Jahrzehnt des Übergangs

Als die 2000er Jahre begannen, war der Technik-Optimismus groß. Jetzt sind sie Geschichte: Was haben sie gebracht? Eine erste Bestandsaufnahme.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Lesezeit: 21 Min.
Von
Inhaltsverzeichnis

Als die 2000er Jahre begannen, war der Technik-Optimismus groß. Jetzt sind sie Geschichte: Was haben sie gebracht? Eine erste Bestandsaufnahme.

Als Bill Clinton und Tony Blair am 26. Juni 2000 auf einer Pressekonferenz in Washington gemeinsam mit Francis Collins und Craig Venter die erste grobe Sequenzierung eines menschlichen Genoms bekannt gaben, waren sich alle Kommentatoren einig: Ein neues Zeitalter hatte begonnen. Zwar war kurz zuvor die Dotcom-Blase geplatzt, aber der Optimismus der neunziger Jahre noch ungebrochen.

Der berüchtigte Jahr-2000-Fehler "Y2K" hatte nicht die globale IT-Infrastruktur lahmgelegt. Und mit dem Kioto-Protokoll schien der Klimaschutz für das neue Jahrzehnt auf eine solide Grundlage gestellt, auch wenn die USA das Abkommen erst einmal nicht ratifiziert hatten. Alles in allem keine schlechten Ausgangsbedingungen für die 2000er Jahre. Jetzt sind sie Geschichte: Was haben sie uns gebracht? Hier ist eine, notwendigerweise subjektive, erste Bestandsaufnahme zu Internet, Informationstechnik, Biotechnik und Medizin, Nanotechnik, Künstliche Intelligenz und Robotik, Umwelt und Klima, Energie sowie Raumfahrt.

2001, als die New Economy endgültig zerstoben war, hätte wohl kaum jemand darauf gewettet, dass das Internet noch gar nicht richtig abgehoben hatte. Aber es kam gewaltig: Erst mit dem "Web 2.0" erreichten Konzepte, die bereits Ende der neunziger Jahre entstanden waren, ab Mitte des Jahrzehnts die notwendige kritische Masse, weil sie nun ohne Expertenwissen zu nutzen waren. Diverse soziale Netzwerke verbinden heute Menschen rund um den Globus miteinander, allein Facebook, das größte, zählt 350 Millionen Mitglieder.

In Millionen Blogs und Microblogs wie Twitter regt sich weltweit eine potenziell kritische Gegenöffentlichkeit, die den etablierten Medien – und nicht selten auch Regierungen – zu schaffen macht. Mit der Wikipedia ist aus dem gesammelten Wissen einzelner, privater User eine frei zugängliche globale Enzyklopädie entstanden, die Douglas Adams' berühmtem "Hitchhiker's guide to the galaxy" schon recht nahe kommt. YouTube und andere Dienste stehen wiederum für eine weltumspannende Videothek, die von Amateuren und Profis gleichermaßen gespeist wird. Und die Vormacht der westlichen Industrienationen im Netz schwindet: Waren im Jahr 2000 erst rund 350 Millionen Menschen online, sind es jetzt schätzungsweise 1,7 Milliarden – knapp die Hälfte in Asien (rund 740 Millionen).

Die "nuller Jahre" im Internet sind zugleich mit dem kometenhaften Aufstieg eines 1998 in Kalifornien gegründeten Start-ups verbunden: Google. Aus der schlichten Suchmaschine ist ein mächtiger Data-Mining-Konzern geworden, der inzwischen Orwell'sche Ängste weckt wie einst IBM oder Microsoft. Mit Google Maps und Google Earth, die über freie Schnittstellen mit Informationen versehen werden können, hat der Konzern allerdings etwas Wichtiges in Gang gesetzt: die Rückbindung des einst als "Cyberspace" deklarierten Internet an die reale Welt.

Die hat allerdings auch eine Kehrseite: Mehr als je zuvor höhlt die umfassende Vernetzung die Privatsphäre der Nutzer aus. Und das nicht nur, weil die Regierungen den "Kampf gegen den Terrorismus" nach 9/11 zu immer neuen Vorstößen der digitalen Überwachung nutzen – es sind auch die User selbst, die sich im komplexen Gestrüpp ihrer Online-Aktivitäten verheddern und damit selbst zum gläsernen Bürger machen.

Die nuller Jahre sind jedoch nicht nur das Jahrzehnt von Google gewesen, sondern auch das von Apple: Der Computerhersteller ist zum Schrittmacher für das digitale Entertainment und das mobile Internet geworden. Im Alleingang hat das als leicht elitär geltende Unternehmen die seit Napster tobende Auseinandersetzung um Musik-"Raubkopien" im Netz beendet. Erst schaffte es mit der iPod-/iTunes-Kombination den ersten wirklich funktionierenden Online-Vertriebskanal für Musik. Dann überzeugte es die Musikindustrie auch noch, auf das Digital Rights Management – ein Euphemismus für Kopierschutz – zu verzichten. Das iPhone mit seinem simplen Berührungsinterface wiederum hatte jenen Erfolg, der den so genannten Tablet PCs versagt blieb. Es ist das technische „Must Have“ der ausgehenden nuller Jahre geworden. Mit den iPhone Apps baute Apple zugleich geschickt ein IT-Ökosystem aus Tausenden mit zum Teil privaten Entwicklern auf, das das schnieke Smartphone zum ultimativen Zugang zum mobilen Internet macht.

Was die Computer-Hardware angeht, ist das Jahrzehnt im wahrsten Sinne des Wortes gespalten. 2005 markierte den Wendepunkt: Bis dahin funktionierte die Steigerung der Rechenkapazität im wesentlichen über Geschwindigkeit – wer seinen Prozessor leistungsfähiger machen wollte, ließ ihn im wesentlichen einfach schneller arbeiten. Um 2000 lag die durchschnittliche Taktrate einer PC-CPU bei etwa einem Gigahertz,  fünf Jahre später waren es in der Regel schon zwei. Doch die Entwicklung erwies sich mehr und mehr als technische Sackgasse, denn die Verlustleistung der CPUs wurde immer größer. Das ist nicht nur ein Energieproblem, weil es beispielsweise die Laufzeit tragbarer Rechner begrenzt. Es wurde auch immer schwieriger, die Wärme tatsächlich aus dem Prozessor herauszutransportieren.

Die Lösung, die Intel 2005 erstmals präsentierte, heißt "Multicore": In einem Prozessor rechnen mehrere Kerne parallel. 2005 präsentierte der Chip-Hersteller den ersten Prozessor mit zwei Kernen – mittlerweile sind CPUs mit vier Kernen up to date. Die nächste Generation mit acht Kernen steht bereits in den Startlöchern. Die weitere Entwicklung wird allerdings nicht ganz so ungebrochen verlaufen, wie die Hardware-Hersteller gerne glauben möchten. Denn um die parallelisierte Rechenkraft wirklich nutzen zu können, muss man wesentlich mehr Software-Aufwand treiben als bisher. Manche Anwendungen wie etwa Betriebssysteme müssen früher oder später völlig neu konzipiert werden.

Eine weitere Neuerung der nuller Jahre sind verteilte Rechner-Infrastrukturen, die als „Cloud Computing“zur Dienstleistung gereift sind. Als „Distributed Computing“ war das Konzept in Projekten wie SETI@home (dem Durchsuchen radioastronomischer Daten nach Signalen außerirdischer Intelligenzen) erstmals in die Öffentlichkeit gelangt: In einem Netzwerk werden brachliegende Speicher- und Rechnerkapazitäten angeschlossener Computer genutzt, um anspruchsvollere Berechnungen ohne zusätzlichen Hardware-Aufwand zu lösen oder die vorhandene Hardware effizienter zu nutzen. IBM etwa pushte das Konzept ab 2001 als „Computing on demand“ oder „Autonomic Computing“.

Ab Mitte des Jahrzehnts begann dann unter anderem  der Online-Händler Amazon, Kapazitäten seines weltweiten Rechnerparks als kommerzieller „Cloud Computing“-Provider zur Verfügung zu stellen, und Google startete im Juli 2009 mit Chrome OS die Entwicklung eines eigenen Betriebssystems für die verteilten Rechner-Infrastrukturen.

Der Wettlauf des Humangenomprojekts mit Craig Venters Firma Celera Genomics führte dazu, dass die Sequenzierung des ersten menschlichen Genoms neun Jahre vor dem ursprünglichen Zieljahr, nämlich schon 2001, abgeschlossen wurde (die finale Sequenz wurde zwei Jahre später veröffentlicht). Seitdem entwickelt sich die Genomik zum florierenden Business: Inzwischen bieten Firmen wie 23andme, Navigenics oder DecodeMe einfache Genscans für mitunter nur 1000 Dollar an, und komplette Gensequenzierungen sind für immerhin 350.000 Dollar im Angebot.

Doch Sequenzierung bedeutet noch nicht Entschlüsselung, wie in der Euphorie der Anfangsjahre fälschlicherweise immer wieder geschrieben wurde. Die vollständig personalisierte, an den individuellen Genen ausgerichtete Medizin, die manche bereits im Jahr 2010 verwirklicht  sahen, lässt auf sich warten. Bis das komplexe Zusammenspiel der rund 25.000 menschlichen Gene verstanden ist, dürften noch einige Jahre ins Land gehen.

Entschlüsselung ist allerdings nicht mehr das einzige, was die Biotechnik antreibt: Synthese heißt das neue Zauberwort. Bereits 2002 gelang es dem Biologen Eckard Wimmer, erstmals ein komplettes Genom – eines Poliovirus – nachzubauen. Die so genannte Synthetische Biologie arbeitet nun daran, die Biotechnik in eine exakte Ingenieurwissenschaft zu verwandeln, die Mikroorganismen auf genetischer Ebene für verschiedene Aufgaben umprogrammiert. Den radikalsten Ansatz verfolgt hier kein geringerer als Craig Venter: Er will künstliche Einzeller schaffen, deren Genom aus einzelnen Basenpaaren synthetisiert wird – bei einem Dollar pro Basenpaar spielen die Synthesekosten heute keine Rolle mehr. Die Verpflanzung eines künstlichen Genoms in ein fremdes Bakterium ist Venters Institut 2008 bereits gelungen.

Die Aufregung ums Klonen kochte 2006 noch einmal hoch, als der Koreaner Woo Suk Hwang behauptete, embryonale Stammzellen (ESZ) geklont zu haben. Seine Arbeit erwies sich zwar als Fälschung, aber die Episode zeigte den Druck, unter dem die Forschung an ESZ im zurückliegenden Jahrzehnt aufgrund ethischer Bedenken stand, weil ESZ bis dahin nur aus den Resten von Embryos gewonnen werden konnten. Im selben Jahr gelang es aber erstmals japanischen Forschern, Körperzellen mit Hilfe von Viren zu pluripotenten Stammzellen umzuprogrammieren, die sich ähnlich wie ESZ zu diversen Gewebearten weiterentwickeln können. 2009 konnten dann zwei Forschungsgruppen zeigen, dass diese Umprogrammierung auch mit Hilfe von Proteinen, ohne Viren, funktioniert.

Bei den großen Plagen wie Krebs, Malaria oder HIV brachte das Jahrzehnt keine Durchbrüche. Bereits 2002 wurden zwar die Genome des Erregers der Malaria und der sie übertragenden Mosquito-Art sequenziert. Aus den Gendaten konnte aber bislang keine Impfung entwickelt werden. Die erweist sich auch im Kampf gegen HIV als enorme Herausforderung. Zwei Kandidaten für Impfstoffe gegen den AIDS-Auslöser konnten 2003 und 2007 in Studien nicht die gewünschten Resultate bringen. Ein Hoffnungsschimmer ist nun ein drittes Impfverfahren, das 2009 in Thailand an 16.000 Freiwilligen getestet wurde und das Risiko einer HIV-Infektion immerhin um 31 Prozent zu senken scheint.

Im Januar 2000 kündigte Bill Clinton die "National Nanotechnology Initiative" der USA an und gab damit den Startschuss für einen Hype, der einige Jahre andauern sollte. Nach dem Crash der New Economy hofften viele, die revolutionär anmutende Technik im molekularen Maßstab könnte den nächsten Technologie-Boom tragen. Befeuert wurde dies durch einen Report der amerikanischen National Science Foundation, die für 2015 einen Billionen-Dollar-Markt für Nano-Produkte prognostizierte. Seitdem haben über 50 Länder eigene Nanotechnik-Programme aufgelegt, und die weltweite öffentliche Förderung ist von 825 Millionen Euro im Jahr 2000 auf rund zehn Milliarden 2009 angestiegen.

Die großen Visionen von Nanomedizin, Nanoelektronik und Nanomaschinen haben sich allerdings als harte Nüsse entpuppt. Zwar mangelt es nicht an Konzeptstudien und Laborprototypen, etwa für neuartige Medikamentenfähren oder Nanoröhren-Transistoren. Doch von einer kommerziellen Nutzung sind diese Nanotechnologien noch einige Jahre entfernt. Dagegen haben es Nanomaterialien – Verbundwerkstoffe mit Nanoteilchen oder nanostrukturierte Schichten – schon auf den Markt geschafft. Eingesetzt werden sie in so unterschiedlichen Produkten wie Sportgeräten, Lacken, Kosmetika, Textilien, Oberflächenveredelungen oder Dünnschichtsolarzellen.

Inzwischen hat sich aber herausgestellt, dass Nanomaterialien nicht unproblematisch sind. Eine wachsende Anzahl von toxikologischen Studien zeigt, dass lose Nanopartikel Zellen im Körper und Mikroben in der Umwelt schädigen können. Anfangs lehnten Forschung und Industrie eine Regulierung von Nanomaterialien noch vehement ab. Doch 2009 hat sich endlich die Einsicht durchgesetzt, dass die Risiken der neuen Stoffe genauer kontrolliert werden müssen, erst recht, da  Verbraucher ihnen zunehmend skeptisch gegenüberstehen.

Über 50 Jahre nach ihrem zunächst recht hoffnungsvollen Start muss die KI-Community selbstkritisch eingestehen, dass viele der ursprünglich formulierten Ziele sich nicht realisieren ließen: Zwar sind zentrale Bausteine des World Wide Web wie etwa die Suchmaschine Google ohne Verfahren aus der KI nicht denkbar. "Denkende Maschinen" sind jedoch auch in den nuller Jahren nicht einmal ansatzweise realisiert worden. Der scheinbare Misserfolg hat aber auch seine angenehmen Seiten.

Der heilige Zorn, mit dem viele KI-Forscher früher ihre Theorien vertraten, ist einem müden Pragmatismus gewichen. Das könnte noch spannende Konsequenzen haben: Die Erkenntnisse der "embodied artificial intelligence" etwa werden mittlerweile genauso verwurstet wie statistisches Maschinenlernen – und hinten wird dann noch ein bisschen von der guten alten regelbasierten Methodik angeflanscht. Mit solch postmodernem "Anything Goes" ist es beispielsweise gelungen, autonome Autos im – bislang allerdings noch simulierten – Stadtverkehr im Rahmen der DARPA Urban Challenge fahren zu lassen.

Während die KI sich nun eher bescheiden als „kommende Informatik“ (Wilfried Bauer im Jubiläumsjahr 2006) sieht, machte die Robotik sichtbarere Fortschritte. Besonders populär wurde das 2004 vorgestellte humanoide Modell Asimo von Honda. Es kann Treppen steigen, rennen, Menschen ausweichen und sich sogar, japanisch formvollendet, verbeugen. Vor allem in Japan werden Service-Roboter als Lösung für eine überalterte Gesellschaft, der es an Pflegekräften mangelt, gesehen.

Neben der „demographischen Bombe“ ist das US-Militär eine der treibenden Kräfte in der Robotik-Entwicklung. Modelle wie der inzwischen berühmte, 2005 vorgestellte „Big Dog“ von Boston Dynamics, eine Art künstliches Lasttier, warten mit erstaunlichen motorischen und sensorischen Fähigkeiten auf, die dem Betrachter einen Schauer über den Rücken jagen. Hinzu kommen etwa Aufklärungsroboter, die nach Insekten modelliert sind, aber auch so genannte „Exoskelette“, die Soldaten ungeahnte Kräfte verleihen sollen.

Für die Umwelt waren die nuller Jahre ein etwas paradoxes Jahrzehnt: Während die Übernutzung von Ressourcen munter weiterging, der globale CO2-Ausstoß weiter stieg, wurde ein "grüner" Lifestyle plötzlich Pop. Letzteres war in der ersten Hälfte des Jahrzehnts nicht abzusehen gewesen, als die industrialisierte Welt damit beschäftigt war, die Bedeutung von 9/11 zu verdauen. Die Wende brachte 2006 der britische Stern-Report, der die Kosten des Klimaschutzes den Kosten des Nicht-Handelns gegenüberstellte. Ergebnis: Erstere würden mit einem Prozent des globalen Bruttoinlandsproduktes pro Jahr zu Buche schlagen, letztere – eines Tages – hingegen mit fünf Prozent.

Der vierte Bericht des UN-Klimabeirats IPCC im folgenden Jahr brachte das Klima und den Zustand der Umwelt dann endgültig zurück ins öffentliche Bewusstsein. 2008 erreichte der Ölpreis dann seinen bisherigen historischen Höchststand mit 147 Dollar pro Barrel.Da hatte man bereits begonnen, die vermeintlich CO2-neutralen Biokraftstoffe gesetzlich zu fördern. Der Schuss ging allerdings nach hinten los: Der forcierte Anbau von Energiepflanzen begünstigte zum einen die weitere Abholzung in südlichen Breiten. Seit Beginn des Jahrzehnts gehen von den knapp 4 vier Milliarden Hektar Wald (2000) weltweit jährlich 7,3 Millionen Hektar verloren – die Zahl basiert auf einer Studie der UN-Landwirtschaftsorganisation FAO von 2005.

Zum anderen ließ die Förderung der Biokraftstoffe die Preise für Getreide wie Mais vorübergehend drastisch steigen, weil Äcker für die Kraftstoffproduktion umgenutzt wurden. 2009 gab es dann aus dem brasilianischen Amazonas-Gebiet immerhin eine Nachricht, die aufhorchen lässt: Nach Angaben des WWF ist dort die Abholzung im abgelaufenen Jahr auf 700.000 Hektar gesunken – 40 Prozent dessen, was im Jahr 2000 gerodet wurde und gar nur ein Viertel der maximalen Abholzung 2003.

Der Anstieg der CO2-Emissionen wurde allerdings auch durch die Maßnahmen des Kioto-Protokolls (Emissionshandel, Joint Implementation, Clean Development Mechanism) nicht gebremst. Das hatte ohnehin nur die 40 so genannten Annex-I-Staaten des Westens und des ehemaligen Ostblocks zu konkreten Emissionsänderungen verpflichtet. 2007 wurden durch menschliche Aktivitäten weltweit 39 Milliarden Tonnen CO2 in die Atmosphäre verfrachtet – 27,5 Prozent mehr als im Referenzjahr 1990.

China zog 2006 als größter CO2-Emittent an den USA vorbei, die pro Kopf allerdings immer noch vier Mal so viel wie China ausstoßen. Außerdem gehörten, bezogen auf die globale Durchschnittstemperatur, die Jahre 2000 bis 2008 allesamt zu den zehn wärmsten Jahren seit Beginn der neuzeitlichen Temperaturaufzeichnungen.

Der IPCC-Report von 2007 und die Ölpreis-Hausse von 2008 haben  in der Energiepolitik zwei gegensätzliche Reaktionen ausgelöst. Während die einen nun den massiven Ausbau der Erneuerbaren Energien fordern, setzen andere auf eine "Renaissance der Atomkraft", da beide ähnlich geringe CO2-Emissionen verursachen. Für die Erneuerbaren Energien waren die nuller Jahre aber auch so schon ein erster Durchbruch: Hatten Windenergie und Photovoltaik in den Neunzigern noch jährliche Zuwachsraten von 22 bzw. 16 Prozent, zogen sie im abgelaufenen Jahrzehnt auf 24 bzw. 40 Prozent an.

In Deutschland stieg der Anteil der Erneuerbaren Energien an der Stromerzeugung von 6,4 (2000) auf 14,8 Prozent (2008), am gesamten Endenergieverbrauch immerhin von 3,8 auf 9,7 Prozent. Weltweit nahm die installierte Leistung der Windenergie – bislang der Primus unter den Erneuerbaren – von einer installierten Gesamtleistung von 17.400 Megawatt (2000) auf 120.800 Megawatt (2008) zu.

Die Atomkraft war in den nuller Jahren hingegen weltweit rückläufig – und zwar ganz unabhängig davon, dass in Deutschland 2002 der so genannte Atomausstieg bis 2021 beschlossen wurde. Waren damals noch 444 Reaktoren in Betrieb, sind es derzeit nur noch 436 – allerdings befinden sich 37 neue Reaktoren im Bau. Der erste Europäische Druckwasserreaktor EPR wird seit 2003 in Finnland gebaut, ein zweiter in Frankreich. Die Baukosten für den finnischen EPR sind seit Baubeginn um über 60 Prozent auf voraussichtlich 5,2 Milliarden Euro gestiegen und die Fertigstellung verzögert sich um drei Jahre bis 2012. In einem Report warnte die Nuclear Energy Agency 2008 zudem davor, dass bei einer deutlichen Ausweitung der Atomkraft Uran ab 2050 knapp werden könnte.

Die sich abzeichnende Energiekrise hat auf den letzten Metern der Dekade auch die Autoindustrie aufgerüttelt. Das dritte Modell des Toyota Prius hatte seit 2003 den Hybrid-Antrieb, eine Kombination aus Verbrennungs- und Elektromotor, weltweit bekannt gemacht, wurde aber lange als Sonderweg von Toyota betrachtet. Inzwischen haben diverse große Autohersteller Elektroautos angekündigt. Die haben allerdings ein Problem, das im abgelaufenen Jahrzehnt noch nicht gelöst werden konnte und auch für den weiteren Ausbau der Erneuerbaren Energien nicht unerheblich ist: Es fehlt ein Energiespeicher, der leistungsfähiger als die gebräuchlichen Lithium-Ionen-Akkus ist.

Anfang der sechziger Jahre hatte man mit dem Jahr 2000 kühne Visionen der Raumfahrt verknüpft: Leben in ersten Orbitalstädten, bemannte Missionen zum Mars und darüberhinaus. Es kam anders: Für die Raumfahrt waren die nuller Jahre ein durchwachsenes Jahrzehnt – vor allem für die NASA. Den Tiefpunkt markierte der Absturz des Space Shuttles Columbia im Februar 2003, der technische Schlamperei und Planungsfehler bei der US-Raumfahrtbehörde zutage förderte. Weil weitere Shuttle-Flüge für zweieinhalb Jahre ausgesetzt wurden, verzögerte sich auch der Ausbau der Internationalen Raumstation ISS, deren Nutzen von Beginn an angezweifelt worden war. Erfolgreicher waren die unbemannten Missionen: etwa die Landung zweier Mars Rover auf dem Roten Planeten 2004 oder die gemeinsam mit der Europäischen Raumfahrtagentur ESA durchgeführte Cassini-Huygens-Mission zum Saturn, deren Sonde im gleichen Jahr in eine Umlaufbahn um den Gasriesen einschwenkte.

Auch wenn George W. Bush 2005 mit dem Constellation-Programm die Rückkehr zum Mond und den Aufbruch zum Mars ankündigte, waren es andere Raumfahrt-Player, die in den nuller Jahren Schlagzeilen machten. China brachte 2003, 2005 und 2008 seine ersten "Taikonauten" ins All und demonstrierte nebenbei noch die Fähigkeit, mit einer Rakete einen (eigenen) defekten Satelliten im Orbit zu sprengen. Und China, Indien und Japan schickten erfolgreich eigene Sonden zum Mond, ebenso die ESA. Mit dem Flug des ersten "Weltraumtouristen", des US-Millionärs Dennis Tito, 2001 zur ISS kündigte sich aber vor allem eine ganz neue Perspektive an: das All als Geschäftsfeld.

Nicht nur folgten Tito sechs weitere mit dem nötigen Kleingeld gesegnete Sternenflieger. In den USA rüstete sich eine private Raumfahrtindustrie für den Sprung in den erdnahen Weltraum: 2004 gewann das SpaceShipOne von Scaled Composites mit einem Suborbitalflug in 100 Kilometer Höhe den X-Prize. Die Firma SpaceX hat inzwischen einen Vertrag mit der NASA ergattert, um nach dem Ende der Shuttle-Flüge Cargo zur ISS zu bringen – ab 2011 will das Unternehmen zudem für schlappe 200.000 Dollar die ersten privaten Suborbital-Flüge anbieten. Die Tage des Raumfahrtmonopols von Staaten sind gezählt.

Beim Rückblick auf die 2000er Jahre fällt aus der Nahbetrachtung eins auf: Spektakuläre Durchbrüche sind Mangelware. Das ist ein wenig verwunderlich, da Forschung und Entwicklung spätestens in diesem Jahrzehnt zu einem "quartären Sektor" (nach Landwirtschaft, Industrie und Dienstleistungen) geworden sind, der für die Wettbewerbsfähigkeit eines Staates als entscheidend gilt. Andererseits kann sich der Blick in einigen Jahren schärfen, wenn sich die eine oder andere Innovation nachträglich als herausragende Weichenstellung entpuppt, erst recht eine, die erst 2009 auf den Weg gebracht wurde.

Die Tragweite des 1989 von Tim Berners-Lee ersonnenen World Wide Web etwa war damals kaum sofort zu erkennen. Sieht man von Internet und Informationstechnik ab, waren die nuller Jahre zweifellos ein Jahrzehnt des Übergangs. Aber es spricht viel dafür, dass einige der Technologien, die in den vergangenen Jahren auf den Weg gebracht wurden, einen längeren Atem brauchen – und in der kommenden Dekade vielleicht jene Durchbrüche bringen, auf die wir angesichts der gegenwärtigen "Metakrise" (von Wirtschaft, Umwelt, Klima, Energie gleichermaßen) so händeringend warten. (nbo)