Quantencomputing: Die Suche nach dem frühen Quantenvorteil

Wirklich vielversprechende Quantenalgorithmen sind nur auf zukünftigen, fehlertoleranten Quantencomputern lauffähig. Was bedeutet das für aktuelle Systeme?

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 28 Min.
Von
  • Jens Marre
Inhaltsverzeichnis

Was vor gut 40 Jahren als reines Forschungsthema begann, ist längst zu einer eigenständigen Branche ausgewachsen, mit allem, was dazugehört: Risikokapital und Fördergeldern, Start-ups, Cloud-Plattformen, Messen, Konferenzen und völlig neuen Ökosystemen. Den Anfang bildete die kanadische Firma D-Wave Systems im Mai 2011 mit ihrem ersten kommerziellen Quantenrechner: ein Quanten-Annealer mit 128 Qubits. Fünf Jahre später startete IBM, ebenfalls völlig überraschend, das kostenlose Cloud-Angebot Quantum Experience, dessen Herzstück ein minimaler, aber universeller 5-Qubit-Quantencomputer bildete. Motor dieser ganzen Entwicklung ist die Aussicht auf mehrere vielversprechende Algorithmen für fehlertolerante Quantencomputer. Die aktuellen Quantencomputer sind allerdings NISQ-Computer (Noisy Intermediate Scale Quantum). Das bedeutet, ihre Qubits sind fehleranfällig und nicht sehr zahlreich, derzeit sind es bis zu 1000. Deshalb können sie nur sehr kurze Quantenprogramme ausführen.

Mehr zu Quantencomputern und Quantencomputing
Jens Marre

Jens Marre ist Geschäftsführer der dual software GmbH, Berater und Trainer unter anderem für Quantencomputing sowie Autor des freien Onlinebuchs für Neugierige www.quantencomputer-info.de.

Die Fidelity der Qubits, mithin ihre Stabilität, lässt sich mit Algorithmen zur Quantenfehlerkorrektur dramatisch verbessern. Dafür müssen Hardwarehersteller die Zahl der Qubits allerdings enorm erhöhen. Der Weg dorthin wird steil und steinig sein. Haben sie das Ziel erreicht, dann nur, um die Zahl verfügbarer Qubits wieder zu reduzieren – und zwar drastisch: Ein solides, fehlertolerantes Qubit ist ein rein logisches. Dazu braucht man je nach Hardware und Güte des Korrekturalgorithmus bis zu 1000 physische Qubits. Zudem werden die fehlerkorrigierten logischen Einzeloperationen, die Quantengatter, einen beträchtlichen Overhead benötigen, auch an klassischen CPUs. In der Praxis existieren hierfür allerdings nur erste Ansätze.

iX-tract
  • Noch sind Forscher den Beweis schuldig geblieben, dass Quantencomputer den klassischen Computern überlegen sind.
  • Klassische und Quantencomputer sind auch dann nicht oder nur schwer vergleichbar, wenn sie dieselbe mathematische Aufgabe lösen sollen, da meist mit unterschiedlicher Aufgabenkomplexität, geduldeter Fehlerrate und Genauigkeit der Ergebnisse gerechnet wird. Das erlaubt einen großen Spielraum bei Aussagen zur Quantenüberlegenheit.
  • Durch Fortschritte in der Forschung wie Googles Arbeit zu Zeitkristallen und durch die Forschung zu Quantum Utility bei IBM ist es zumindest gelungen, das Rauschen der NISQ-Hardware zu verringern.

Die Frage, ob bereits die NISQ-Ära einen Quantenvorteil bereithält, wird erst seit wenigen Jahren mit Hochdruck untersucht. Einen Eindruck davon bekommt man im RIACS NISQ Computing Newsletter, der allein im Jahr 2022 insgesamt 770 ausgewählte Preprints umfasste. Unter ihnen interessieren hier aber nur die Untersuchungen, die sich mit folgenden Fragen beschäftigen: Welcher Anwendungsfall kann gelöst werden, wie optimal ist das Ergebnis, wie lange dauert Quantenberechnung und wie viel Rechenleistung und Energie wird dafür insgesamt benötigt? Hier muss man resümieren: Ein Durchbruch für industrierelevante Anwendungen in der NISQ-Ära konnte noch nicht erzielt werden.

Das war die Leseprobe unseres heise-Plus-Artikels "Quantencomputing: Die Suche nach dem frühen Quantenvorteil". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.