zurück zum Artikel

Auf dem Quantensprung

Tom Simonite, Dr. Wolfgang Stieler

Neben kleinen Forschungsgruppen arbeiten immer mehr große Konzerne an der Entwicklung von Quantencomputern. Beginnt nun bald eine neue Ära der Informationstechnik?

Neben kleinen Forschungsgruppen arbeiten immer mehr große Konzerne an der Entwicklung von Quantencomputern. Beginnt nun bald eine neue Ära der Informationstechnik?

Man braucht nicht immer milliardenteure Beschleuniger. Manchmal tut es auch ein kleines Stück tiefgekühltes Metall, um die Physik entscheidend voranzubringen. Im Jahr 2012 meldete ein Team von Forschern um den niederländischen Physiker Leo Kouwenhoven, es hätte zum ersten Mal ein Teilchen nachgewiesen, dessen Existenz bereits 1937 vorhergesagt wurde: das sogenannte Majorana-Fermion. Die Entdeckung könnte den beteiligten Forschern den Nobelpreis verschaffen – und sie ist vielleicht das entscheidende Puzzleteil für eine völlig neue Generation von Quantencomputern.

Microsoft hatte die Arbeiten gefördert, und Craig Mundie, damals strategisch verantwortlich für Microsofts Forschung und Entwicklung, zeigte sich begeistert. Schließlich könnte die obskure Entdeckung ein Projekt entscheidend voranbringen, das der Software-Gigant seit beinahe zehn Jahren betreibt – über das er jedoch erst seit Kurzem öffentlich spricht: die Konstruktion eines "topologischen Quantencomputers". Weil die Hardware dieses Quantenrechners viel unempfindlicher gegen Störungen wäre als die bereits existierenden Prototypen, könnte Microsoft damit schaffen, was Forscher und Unternehmen seit den 1990er-Jahren versuchen: Den – theoretisch – unglaublich mächtigen Quantencomputer endlich praxistauglich zu machen.

Der Softwarekonzern, von vielen Kunden und Branchenbeobachtern als kraftloser alter Dinosaurier eines vergangenen Zeitalters wahrgenommen, steigt damit in ein Rennen ein, für das die kleine Computerschmiede D-Wave den Startschuss gegeben hat. Seit 2011 verkauft das kanadische Unternehmen die nach eigenen Angaben weltweit ersten kommerziellen Quantencomputer. Was sie wirklich können, ist nach wie vor Gegenstand einer hitzigen Debatte. Aber die Großen der Branche nehmen das Thema ernst genug, um mitzumischen. Der französische Telekommunikationsriese Alcatel-Lucent ist in die Forschung eingestiegen.

Im Juli 2014 verkündete IBM, in den kommenden fünf Jahren drei Milliarden Dollar in die Erforschung von "Post Silizium"-Technologien stecken zu wollen. Ein Teil dieses Geldes – wie viel, verrät IBM nicht – geht in die Entwicklung von Quantencomputern, deren Erforschung der Konzern in den letzten Jahren stetig ausgebaut hat. Und nur zwei Monate später, im September 2014, verkündete Google, einen eigenen Quantenprozessor entwickeln zu wollen. "Die prinzipielle Machbarkeit der Technologie wurde gezeigt", kommentiert Frank Wilhelm-Mauch, Professor für Quanten- und Festkörpertheorie an der Universität des Saarlandes. "Nun geht es darum, die Technologie weiter zu verbessern."

Damit ist der Wettlauf in vollem Gange. Wer ihn gewinnt, könnte das Digitalzeitalter auf eine völlig neue Stufe heben. Quantencomputer sind so etwas wie der Heilige Gral der Informationstechnik. Sie könnten einige der schwierigsten Probleme der Informatik tausendfach schneller lösen als die schnellsten mit heutiger Technologie denkbaren Rechner. Sie könnten komplexe Moleküle simulieren und so die Entwicklung neuer Medikamente massiv beschleunigen, die Effizienz von Solarzellen drastisch steigern.

Vor allem aber könnten sie die künstliche Intelligenz revolutionieren. Was großen Rechnerclustern heute lediglich ansatzweise gelingt – gesprochene Sprache verstehen, übersetzen, Bilder und Videos analysieren –, werden Quantenrechner sehr viel schneller, genauer und in einer größeren Tiefe meistern.

Denn tiefe neuronale Netze und andere jetzt schon recht erfolgreiche maschinelle Lernverfahren funktionieren umso besser, je größer die Datenmenge ist, mit der sie trainiert werden. Mit konventionellen Rechnern kostet das viel Zeit, auf Quantenrechnern ginge diese Lernphase extrem schnell. Denn diese Maschine untersucht eine Vielzahl möglicher Rechenwege parallel, weil sie mit sogenannten Qubits arbeitet – überlagerten Quantenzuständen. Ein Bit eines herkömmlichen Computers hat entweder den Wert Null oder Eins. Ein Qubit hingegen nimmt beide Werte gleichzeitig an. Ein Quantencomputer, der zwei Register aus Qubits miteinander verknüpft, rechnet also mit vielen Werten gleichzeitig. Bei bestimmten Arten von Problemen wächst dieser Geschwindigkeitsvorteil exponentiell mit der Menge zu verarbeitender Daten. Je schwieriger das Problem, je mehr Daten zu verarbeiten sind, desto größer ist der Vorsprung eines Quantenrechners.

Dass sich Algorithmen für maschinelles Lernen auf Quantenrechner übertragen lassen, haben chinesische Wissenschaftler 2014 erstmals gezeigt: Zhaokai Li und Kollegen von der University of Science and Technology in Hefei portierten ein Programm zur Erkennung von handgeschriebenen Zahlen auf einen – allerdings sehr simplen – Quantenrechner.

Das Problem allerdings ist: Reine Quantenzustände sind sehr empfindlich. Sie lassen sich nur unter kunstvoll arrangierten Bedingungen beobachten und kontrollieren. Für eine stabile Überlagerung muss das sogenannte Qubit gegen kleinste Störungen abgeschirmt werden, seien es Kollisionen mit Gasmolekülen, zufällig auftretende subatomare Teilchen oder schwache elektrische Felder benachbarter elektronischer Geräte.

Und selbst unter diesen Bedingungen halten sich die fragilen Überlagerungen oftmals nur für Bruchteile von Tausendstelsekunden. Dann brechen sie in einem als Dekohärenz bekannten Prozess zusammen. Die größte Zahl gemeinsam betriebener Qubits liegt bisher bei 14. Mit derart wenigen Qubits aber lässt sich nur zeigen, dass ein Quantencomputer im Prinzip funktioniert. Relevante praktische Probleme kann man damit nicht lösen.

Die Einzigen, die eine Maschine mit mehr Qubits gebaut haben wollen, arbeiten bei D-Wave. Der Vorteil ihres "adiabatischen Quantencomputers" ist seine geringere Empfindlichkeit. Auf diesem Weg haben sie nach eigenen Angaben bereits 2011 einen Quantenrechner mit 128 Qubits an der University of Southern California installiert. Der aktuelle Quantenchip von D-Wave verfügt bereits über 512 Qubits. Bislang hat allerdings noch kein unabhängiger Forscher bestätigt, dass D-Waves Maschine tatsächlich Quanteneigenschaften nutzt.

Trotzdem kaufte Google 2013 einen D-Wave-Rechner mit 512 Qubits. Seitdem testet das Unternehmen die Maschine gemeinsam mit der Nasa. Einen Geschwindigkeitsvorteil bringt ein solcher adiabatischer Quantenrechner zwar nur bei sogenannten Optimierungsproblemen. Dazu gehört jedoch die Suche in unstrukturierten Datenbeständen oder die Klassifizierung von Bildern und Videos. Und beides zählt zu Googles Kerngeschäft. Der Digitalkonzern belässt es jedoch nicht bei Tests. Im Herbst 2014 hat sich Google mit John Martinis von der University of California Santa Barbara zusammengetan und in der Nähe der Uni ein Labor eröffnet. Dessen Ziel: die Konstruktion eines eigenen adiabatischen Quantenprozessors.

Wenige Menschen weltweit wären für dieses Vorhaben besser geeignet als Martinis. Er arbeitet seit mehr als zehn Jahren an Systemen mit Qubits aus supraleitendem Metall und gilt in der Community als einer der führenden Experten auf diesem Gebiet. Quantenphysiker Wilhelm-Mauch hat als Theoretiker eng mit John Martinis' Gruppe zusammengearbeitet. Er weiß um die Schwierigkeiten, die nun vor dem Forscher liegen. "Man muss sehr präzise arbeiten", sagt er. "Da reicht bereits ein kleines bisschen Magnetismus von Verunreinigungen in einem winzigen Stück Aluminiumoxid an der falschen Stelle, schon ist der Chip schlechter."

Es gehe um "Verbesserungen in der zweiten Nachkommastelle". Derartige Feinheiten könnten sich tatsächlich als entscheidende Meilensteine auf dem Weg zum praxistauglichen Quantencomputer erweisen. So hatten die ersten supraleitenden Qubits nur eine Lebensdauer von einigen Hundertstel Mikrosekunden. Durch beharrliche Arbeit an den Herstellungsprozessen konnte Martinis' Gruppe die Lebensdauer bereits auf 30 Mikrosekunden verhundertfachen. Je stabiler die Qubits, desto mehr Rechenoperationen können die Forscher damit durchführen.

Als harte Nuss für die Konstruktion eines Quantenrechners erwies sich bislang auch die Korrektur von Fehlern, die sich während der Berechnung einschleichen können. Bei gewöhnlichen Computern fügt man in die Daten sogenannte Prüfbits ein, die zum Beispiel auf den Wert 1 gesetzt werden, wenn die Anzahl der zu prüfenden Datenbits gerade ist. "Das geht bei Qubits nicht", sagt Wilhelm-Mauch. "Die können Sie nicht zwischendurch auslesen, ohne die gesamte Rechnung zu zerstören."

Schon in den 1990er-Jahren haben findige Theoretiker wie Peter Shor zwar passende Methoden der Fehlerkorrektur ersonnen. Die "produzieren aber einen sehr großen Overhead", erklärt Wilhelm-Mauch. Treten zu viele Fehler auf, weil das System zu unzuverlässig ist, würde deren Korrektur den Geschwindigkeitsvorteil des Quantenrechners im Extremfall zunichte machen. Im April veröffentlicht Martinis' Arbeitsgruppe eine neue Möglichkeit: den "Surface Code". Er lohnt sich bereits ab einer Fehlerrate von eins zu hundert. Bisher lag der Schwellenwert bei eins zu zehntausend. "Damit ist ein grundlegendes Problem gelöst", kommentiert Wilhelm-Mauch.

Aber wird es genug sein, um Microsoft zu schlagen? Das Unternehmen entwickelt eine neue Art von Qubit, bekannt als ein "topologisches Qubit". Voraussichtlich noch dieses Jahr werden von Microsoft unterstützte Physiklabors beginnen, wichtige Aspekte des Konzepts zu testen.

In einem sonnigen Zimmer, nur hundert Meter entfernt vom Pazifischen Ozean, sitzt Michael Freedman, Initiator und technischer Vordenker von Microsofts Quantenprojekt. "Je mehr man über Quantencomputer nachdenkt", sagt er, "desto mehr merkt man, dass man selbst nur eine Art klobiger chemischer Analogrechner ist." Der 63-Jährige, entspannt, braun gebrannt und fit, leitet "Station Q" – Microsofts Quantencomputer-Forschungsgruppe, die auf dem Campus der University of California in Santa Barbara angesiedelt ist.

Sollte Freedmans Gehirn tatsächlich ein "klobiger chemischer Computer" sein, dann zumindest ein außergewöhnlicher. Freedman galt bereits in frühester Jugend als mathematisches Wunderkind. Er schrieb sich mit 16 an der Universität Berkeley ein und wurde zwei Jahre später in das Graduiertenprogramm aufgenommen. Mit 30 fand er eine Lösung für eines der ältesten Probleme der Mathematik, die Poincaré-Vermutung. Freedman arbeitete sie aus, ohne etwas niederzuschreiben. Er stellte sich die Verformung vierdimensionaler Körper im Kopf vor. "Ich habe den Lösungsweg vor meinem inneren Auge gesehen", erinnert sich Freedman. Nachdem er diese Vision 1982 in einem 95-seitigen Beweis umsetzte, gewann er die Fields-Medaille, die weltweit höchste Auszeichnung der Mathematik.

1997 schloss Freedman sich Microsofts Forschungsgruppe für theoretische Mathematik an. Bald danach begann er, mit Alexei Kitajew zusammenzuarbeiten, einem theoretischen Physiker aus Russland. Kitajew hatte bewiesen, dass ein "topologisches Qubit" erheblich zuverlässiger funktionieren könnte als die Qubits, an denen andere Gruppen arbeiteten. Irgendwann war Freedman überzeugt, etwas entdeckt zu haben, das einen Nutzen jenseits der theoretischen Physik und Mathematik besaß. 2004 tauchte er in Craig Mundies Büro auf und legte einen Plan vor, wie sich Qubits erzeugen lassen könnten, die zuverlässig genug für den praktischen Einsatz sind.

Mundie schlug ein. Seine Forschungsabteilung hatte bis dahin nicht versucht, Quantencomputer zu bauen. Doch Mundie wusste um die gewaltigen Chancen dieser Rechner – und kannte die riesigen Probleme, vor denen ihre Entwickler standen. Mundie beschloss, das Risiko einzugehen. Er richtete eine Gruppe zur Erzeugung eines topologischen Qubits ein, mit einem etwas nervösen Freedman an der Spitze. "In meinem ganzen Leben hatte ich noch nicht mal ein Transistorradio gebaut", sagt er.

Dafür aber hatte Freedman eine bestechende Theorie: Er vermutete, dass die von ihm gesuchten Quantenzustände immer dann auftreten müssten, wenn man Elektronen innerhalb bestimmter Materialien einschließt und dann auch noch auf zwei Dimensionen beschränkt. Im Inneren dieser Materialien zeigen Elektronen bei Temperaturen nahe dem absoluten Nullpunkt exotische Eigenschaften: Sie bilden eine sogenannte Elektronenflüssigkeit. Die kollektiven Quanteneigenschaften der Elektronenflüssigkeit können ein Qubit repräsentieren. Der unschätzbare Vorteil: Diese Qubits wären unempfindlich gegen die meisten Störeinflüsse.

Allerdings hat die Sache einen Haken: Die Physik dahinter ist noch nicht nachgewiesen. Freedmans Ansatz setzt voraus, dass bestimmte Partikel in der Elektronenflüssigkeit existieren, bekannt als nicht-abelsche Anyonen. Physiker gehen zwar davon aus, dass es sie gibt. Abschließend festgestellt hat das bisher aber noch niemand.

Also machte sich Microsoft unter Freedmans Leitung auf die Suche. Besonders angetan hatte es ihnen eine Untergruppe der nicht-abelschen Anyonen, die Majorana-Teilchen. Als Erster postuliert hatte sie der zurückgezogen lebende italienische Physiker Ettore Majorana 1937 – kurz bevor er auf mysteriöse Weise verschwand. Lange hatte niemand glaubwürdige Beweise für ihre Existenz vorlegen können. Bis zu jenem Tag im Jahr 2012, als der Niederländer Leo Kouwenhoven, ein von Microsoft mitfinanzierter Forscher an der Technischen Universität Delft in den Niederlanden, behauptete, sie gefunden zu haben: in Nanodrähten, die er aus dem Halbleiter Indiumantimonid hergestellt hatte.

Der Nachweis wäre die bisher stärkste Unterstützung für Microsofts Konzept – und ein großer Schritt in Richtung eines stabilen Quantencomputers. Nicht jeder ist allerdings überzeugt, das Kouwenhoven wirklich Erfolg hatte. John Preskill, Professor für theoretische Physik am Caltech, hält das topologische Qubit weiterhin für nichts als eine schöne Theorie.

"Ich bin ein großer Anhänger der Idee, doch nach Jahren ernsthafter Anstrengungen gibt es immer noch keine belastbaren Beweise", sagt er. Microsoft lässt sich davon nicht beirren. Auf dem schattigen Microsoft-Campus in Redmond, wo Tausende emsiger Programmierer an Windows-Programmen feilen, arbeiten auch ein Dutzend Menschen an Software für Quantencomputer. Unter Gruppenleiterin Krysta Svore entstand etwa ein Algorithmus, mit dem selbst ein Quantencomputer der ersten Generation unvorstellbar komplexe Probleme lösen könnte. "In wenigen Stunden oder gar Minuten" zum Beispiel könnte getestet werden, welchen Effekt die Entfernung von Kohlendioxid aus der Atmosphäre hätte. "Wir sehen die Chance, den Grundstein eines gänzlich neuen Wirtschaftszweiges zu legen", sagt Microsofts aktueller Forschungschef Peter Lee.

Das Rennen geht weiter. Inzwischen ist zudem ein weiterer Wettläufer auf den Plan getreten, und zwar in Form von Bob Willett von den Bell Labs in Murray Hill, New Jersey. Die Bell Labs waren ein fast mythischer Ort der Forschung – der erste Transistor wurde hier gebaut, die mathematischen Grundlagen der Kommunikationstherie erforscht und die Programmiersprache C entwickelt. Doch in diesen goldenen Zeiten gehörten die Labs zum Telecom-Konzern AT&T, der das amerikanische Telefonmonopol hielt.

Damals konnten die Forscher mit viel Geld mehr oder weniger erforschen, wonach ihnen der Sinn stand. Inzwischen hat das französische Telekommunikationsunternehmen Alcatel-Lucent sie übernommen. Sie sind kleiner und ärmer als damals. Der Blick aus einigen von Willetts Räumen geht auf einen staubigen, vernarbten Platz, auf dem im letzten Jahr noch ein inzwischen abgerissener Laborflügel stand. In Willetts Projekt jedoch investiert Alcatel mehr Geld als früher. Bis vor Kurzem arbeitete der Forscher mit nur drei weiteren Physikern zusammen. Inzwischen hat Alcatel-Lucent das Team um Mathematiker und Optik-Experten aufgestockt. "Wir steigern uns zu einem relativ großen Projekt", sagt er.

Schließlich ist auch er sich sicher, die Existenz der mysteriösen Majorana-Teilchen bewiesen zu haben. Über seine Brille hinweg betrachtet er ein mattschwarzes Kristall-Rechteck von der Größe einer Fingerspitze. Handgelötete Drähte umlaufen seinen Rand, über die Oberfläche zieht sich ein feines Zickzack aus Aluminium. Und in der Mitte des Chips, in einem Bereich mit weniger als einem Mikrometer Durchmesser, hat Willett, so sagt er, nicht-abelsche Anyonen entdeckt. Die Anordnung basiert auf einem Konzept, das Microsoft aufgegeben hat: einer Elektronenfalle aus hochreinen Galliumarsenid-Kristallen.

Es wäre mehr als peinlich, könnte Willetts kleine Gruppe dem Giganten Microsoft den Beweis wegschnappen, dass die so lange verfolgte Idee realisierbar ist. Fände Microsoft einen praktischen Weg zum Quantencomputer, wäre das überraschend. Für die Bell Labs, mittlerweile im Besitz eines Unternehmens, das nicht einmal aus der Computerbranche kommt, wäre es geradezu sensationell. Entsprechend empfindlich reagieren Microsoft-Forscher auf Willetts Nachweis. Projektmitarbeiter Charlie Marcus lästert, der Bell-Labs-Wissenschaftler sehe "Signale, die wir nicht sehen". Willett kontert, Marcus und andere hätten ihre Aufbauten zu groß gemacht und verwendeten Kristalle mit zu unterschiedlichen Eigenschaften. Er habe diese Annahme kürzlich bestätigt, indem er Experimente nach den Spezifikationen anderer Forscher aufbaute. "Seit ich mit ihren Materialien gearbeitet habe, verstehe ich, warum sie aufgeben – es ist ein Trauerspiel", sagt er.

Wer also macht das Rennen? Die Antwort steht nach wie vor im Raum. Mehr noch: Selbst mit den jüngsten Fortschritten bleibt der Quantencomputer weiter in einer Art geheimnisvollen Überlagerungszustand: halb real mit dem Potenzial, die Welt zu verändern, halb wissenschaftlicher Traum. Wissenschaftler wie Frank Wilhelm-Mauch schreckt das nicht. "Ich bin ein nichtgläubiger Optimist", sagt der Physiker. "Fast zehn Jahre haben die Kollegen gebraucht, um einzelne supraleitende Qubits herzustellen und zu kontrollieren. Und seit 2009 sehen wir enorme Fortschritte auf diesem Gebiet. Es gibt keinen Grund, warum es nicht funktionieren sollte." (wst [1])


URL dieses Artikels:
https://www.heise.de/-2724225

Links in diesem Artikel:
[1] mailto:wst@technology-review.de