Wie die US-Forschung verhungert

Die Lähmung Amerikas offenbart, welch grundlegender Fehler es ist, bei Innovationen vor allem auf privates Geld zu setzen.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Global Foundries

Halbleiterfabrik.

(Bild: dpa, Arno Burgi)

Lesezeit: 5 Min.
Von
  • David Rotman

Rotman ist Redakteur der US-Ausgabe von Technology Review.

Die Technologie hat die USA und einen Großteil der übrigen Welt in ihrer wichtigsten Aufgabe im Stich gelassen: uns am Leben und gesund zu erhalten. Während ich dies schreibe, sind mehr als 673000 Menschen tot, die Weltwirtschaft liegt in Trümmern, und die Covid-19-Pandemie wütet immer noch. Im Zeitalter der künstlichen Intelligenz, der Präzisionsmedizin und der selbstfahrenden Autos ist unsere wirksamste Antwort auf den Ausbruch Massenquarantänen, eine aus dem Mittelalter entlehnte Technik des öffentlichen Gesundheitswesens.

Nirgendwo war das Versagen der Technologie offensichtlicher als bei diagnostischen Tests. Standardverfahren für Krankheiten wie Covid-19 verwenden die Polymerase-Kettenreaktion (PCR), eine mehr als 30 Jahre alte Technik, die Labore auf der ganzen Welt routinemäßig einsetzen. Doch obwohl die Wissenschaftler das neue Coronavirus innerhalb weniger Wochen identifizierten und sequenzierten, hatten die USA und andere Länder große Schwierigkeiten bei der Entwicklung von PCR-Tests für den allgemeinen Gebrauch.

Es gab nicht genug Beatmungsgeräte oder Schutzmasken, und es gab auch nicht genügend Fabriken, um sie herzustellen.

Warum konnte die dominierende Technologieindustrie diese Dinge nicht bereitstellen? Es ist verlockend, die Ursache einfach in der Untätigkeit der Trump-Regierung zu suchen. Aber Rebecca Henderson, eine Wirtschaftswissenschaftlerin und Management-Expertin aus Harvard, weist – wie auch andere Experten – auf ein Problem hin, das tiefer liegt als das Fehlen staatlicher Intervention. Seit Jahrzehnten erodiert ein einst gesundes Innovations-Ökosystem in den USA, das in der Lage ist, Technologien zu identifizieren und zu schaffen, die für das Wohlergehen des Landes wesentlich sind.

TR 9/2020

Die USA haben, wie Henderson in ihrem Buch „Reimagining Capitalism“ schreibt, im Laufe des letzten halben Jahrhunderts zunehmend auf freie Märkte gesetzt, um Innovationen zu schaffen. Dieser Ansatz hat ein wohlhabendes Silicon Valley und riesige Technologiefirmen aufgebaut, um die uns Unternehmer auf der ganzen Welt beneiden. Aber es bedeutete wenig Investitionen und finanzielle Unterstützung für kritische Bereiche wie Fertigung und Infrastruktur – Technologien, die für die grundlegendsten Bedürfnisse des Landes relevant sind.

Es gibt viele verschiedene Vorstellungen darüber, warum sich das Innovationstempo verlangsamt hat. Ein wahrscheinlicher Faktor ist jedoch, dass die Regierungen vieler Länder die Investitionen in Technologie seit den 1980er-Jahren erheblich gekürzt haben.

Regierungen finanzieren eher risikoreiche Forschung, die sich Unternehmen nicht leisten können, und aus dieser Forschung entstehen oft radikale neue Technologien.

Das Problem bei privaten Investitionen hingegen ist, dass das Geld auf die lukrativsten Märkte fließt. Mit KI werden heute Dinge wie Websuche, Ad-Targeting oder Sprach- und Gesichtserkennung verbessert. Die pharmazeutische Forschung hat sich weitgehend auf die Suche nach neuen Blockbuster-Medikamenten konzentriert. Impfstoffe und diagnostische Tests, die jetzt so dringend benötigt werden, sind weniger lukrativ. Mehr Geld von der Regierung hätte diesen Bestrebungen Auftrieb geben können.

Aber es gibt auch eine gute Nachricht: Die USA steckten auch in früheren Krisen in dieser Lage und haben einen Ausweg gefunden. Das Skript existiert.

Im Juni 1940 begab sich Vannevar Bush, damals Direktor der Carnegie Institution for Science in Washington, D.C., ins Weiße Haus, um Präsident Franklin D. Roosevelt zu treffen. Der Krieg war in Europa im Gange, und Roosevelt wusste, dass die USA bald in den Krieg hineingezogen werden würden. Doch das Land war kläglich unvorbereitet und kaum in der Lage, einen Panzer zu bauen.

Bush legte dem Präsidenten einen Plan vor, um die Kriegsanstrengungen zu verstärken. Daraus ging das National Defense Research Committee (NDRC) hervor. Während des Krieges wies Bush etwa 30000 Personen, darunter 6000 Wissenschaftler, an, die technologische Entwicklung des Landes zu steuern.

Die daraus resultierenden Erfindungen sind bekannt, vom Radar bis zur Atombombe. Doch wie die beiden MIT-Ökonomen Simon Johnson and Jonathan Gruber, in ihrem Buch „Jump-Starting America“ schreiben, setzten sich die Investitionen in Wissenschaft und Technik auch weit nach Kriegsende fort. „Die wichtigste – und heute meist vergessene – Lektion der Zeit nach 1945 ist, dass sich die moderne Privatwirtschaft als viel effektiver erweist, wenn die Regierung die grundlegende und angewandte Wissenschaft und die Kommerzialisierung der daraus resultierenden Innovationen stark unterstützt“, schreiben sie.

Ein ähnlicher Vorstoß zur Erhöhung der staatlichen Investitionen in Wissenschaft und Technologie „ist eindeutig das, was wir jetzt brauchen“, sagt Johnson. „Wissenschaftliche Investitionen müssen wieder eine strategische Priorität sein.“

Nötig ist Ökonomen zufolge eine Doppelstrategie: Zum einen eine sofortige Anhebung der öffentlichen Investitionen in Technologie, aber auch eine größere Rolle der Regierung bei der Lenkung. „Wir werden eine Menge Geld ausgeben, können wir es also produktiv einsetzen?“, fragt Harvard-Forscherin Henderson. „Historisch gesehen ist das schon ein paarmal gemacht worden.“ Neben den Bemühungen im Zweiten Weltkrieg gibt es Beispiele wie Sematech: Das Konsortium aus den 1980er-Jahren belebte die kränkelnde US-Halbleiterindustrie neu.

Können wir es wieder tun? Henderson sagt, die Regierung müsste eine führende Rolle bei der Lenkung der Innovation übernehmen, um die dringendsten Bedürfnisse der Öffentlichkeit zu befriedigen. Das klingt nicht nach der Regierung, die die USA jetzt haben.

(bsc)