ISC-Nachlese: Hohn für Intels Aurora, Lob für Nvidias Grace-Hopper

Seite 2: Quanten-Rekorde

Inhaltsverzeichnis

Rekordverdächtig war allein schon die Anzahl der auf der ISC ausstellenden Firmen rund um das Thema Quanten-Computing. Nahezu 20 Firmen zeigten viele sehr unterschiedliche Ansätze, seien es gefangene Ionen oder neutrale Atome, Photonen oder supraleitende Halbleiterchips. Dabei war die Pionierfirma Dwave mit ihrem Quanten-Annealer in diesem Jahr gar nicht dabei; sie veranstaltet eine eigene Konferenz im Juni. In Deutschland ist Jülich ein möglicher Ansprechpartner, quantisiert hier doch ein 5000-Qubit-System von Dwave.

Die Versprechungen der Firmen wie Quantinuum, Quera oder IQM sind groß, teilweise wollen sie noch in diesem Jahr mit Quantenfehlerkorrektur aufwarten. So etwa die Firma Quera, die mit neutralen Atomen in Kristallgittern bei Raumtemperatur arbeitet. Mehr als 256 physische Qubits wird man brauchen. Die meisten davon benötigt aber die Fehlerkorrektur selbst, so bleiben gerade mal etwa 10 logische über. 2026 will Quera bereits 100 logische Qubits bieten, wozu dann mehr als 10.000 physische nötig sind.

Etwas konservativer ist IBM mit ihren supraleitenden Halbleiterchips, die bei 15 Millikelvin arbeiten. Hier hat man inzwischen das IBM Quantum System 2 mit dem Chip Eagle R3 samt 127 Qubits an mehreren Standorten in der Welt im Einsatz (Kanada, Australien, Japan …), bei denen jeder etwas Rechenzeit beantragen kann. Weil sich die meisten Nutzer bislang aber auf wenige Qubits beschränkten, wohl vor allem, weil man die noch gut simulieren kann, hat IBM jetzt erst einmal als erzieherische Maßnahme eine Mindestgröße von 100 Qubits vorgeschrieben. Als Proof of Concept hat IBM auch schon einen Chip mit über 1000 Qubits (Condor) vorgestellt, wobei gar nicht mal der Chip selbst, sondern die benötigten 1000 Leitungen das Hauptproblem waren. Aber die Fehlerquote der Chips ist noch zu hoch, vorerst bleibt es für die Experimente bei 127 (Eagle) oder demnächst 133 Qubits (Heron). Auf der Roadmap sind erst so gegen Ende des Jahrzehnts Chips mit Quantenfehlerkorrektur (QEC) eingeplant. Aber auf dem Weg dorthin will man bei "Flamingo" Fehler-Mitigation ermöglichen, wobei man die Fehlerkorrektur auf klassischen Rechnern auf Basis des jeweiligen Rauschmodells durchführt. Trotz dieser aufwendigen Nachbearbeitung erhofft man sich hier bereits "Quantum Advantage", also eine höhere Performance als auf klassischen Computern.

Im schwäbischen Ehningen sollte unterstützt von IBM und Fraunhofer ein Quantenrechen- und -Informationszentrum aufgebaut werden, das vor über einem Jahr im Beisein von Ministerpräsident Kretschmann eröffnet wurde. Doch gegen den afghanischen Hauptinvestor laufen jetzt Ermittlungen wegen des Verdachts auf Korruption und Geldwäsche und so ist das Projekt Ehningen derzeit eingefroren. IBM hat seine Mitarbeiter erst einmal wieder nach Böblingen zurückbeordert.

Demgegenüber ist das "Tal der Quanten", MQV, in München sehr aktiv, erforscht alle möglichen Wege und hat unter anderem als Leuchtturmprojekt auch einen verlässlichen Quantenbenchmark in Arbeit. Der Klassiker wäre eigentlich die Primfaktorzerlegung nach dem Shor-Algorithmus. Aber der ist wohl nicht so einfach zu implementieren, dümpelt schon seit Jahren abgesehen von einigen übersimplifizierten Spezialfällen bei der Primfaktorzerlegung von 35 herum. Doch nun hat ein Wissenschaftler der technischen Universität Ostrava in Tschechien auf zwei IBM-Eagle-R3-Systemen in Brisbane und Kyoto den Rekord auf 1021167 = 1049 × 983 geschraubt. Die Berechnungsmethode folgt aus dem kleinen Fermatschen Satz und sucht nach Perioden bei der Modularen Exponentiation (MER). Aber auf entsprechend dicken Eisen kann man das noch klassisch mit Quantensimulation überbieten, jedenfalls in Jülich. Dazu braucht man nur 2048 Nvidia-GPUs mit A100-Tensor-Kernen und einen Simulator für 40 Qubits und schon weiß man nach 49,5 GPU-Jahren, dass 549755813701 = 712321 × 771781 ist.

(mma)