Hintergrund: Google senkt die Fehlerquote bei Quantenrechnern – Don't panic!

Google senkt die Fehlerquote seiner Quantenrechner – ein großer Schritt, aber weder Grund für Jubelstürme noch für Krypto-Panik, wie Klaus Schmeh erklärt.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Klaus Schmeh

Brauchbare Quantencomputer gibt es bisher nur in der Science-Fiction. Einer von mehreren Gründen dafür ist, dass Rechner dieser Art fehleranfällig sind und deshalb umfangreiche Korrekturverfahren ausführen müssen. Forschenden von Google ist es nun gelungen, mit einer neuen Methode die Fehlerrate eines Quantencomputers etwas zu senken. Das ist zwar noch nicht die Lösung für alle Quantenfehler-Probleme, zeigt aber, dass die theoretisch gültige Gleichung "mehr physikalische Qubits = geringere Fehlerrate" auch in der Praxis funktionieren kann.

Der Quantenchip Sycamore von Google nutzt in der dritten Generation eine verbesserte Fehlerkorrektur. Bis zu praxistauglichen Quanten-Computern ist es dennoch noch ein weiter Weg.

(Bild: Google)

Quantencomputer können komplexe Optimierungsaufgaben lösen und asymmetrische Krypto-Verfahren wie RSA und Diffie-Hellman knacken – zumindest in der Theorie. Real existierende Geräte erreichen jedoch bisher nur das mathematische Niveau eines Erstklässlers. Eine interessante Frage lautet daher: Wird es eines Tages Rechner dieses Typs geben, die auch mit 700-stelligen Zahlen umgehen können, wie sie in der Krypto-Praxis eingesetzt werden? Und wenn ja, wann wird es so weit sein? Bisher ist allenfalls eines klar: Es wird bis dahin noch eine ganze Weile dauern, denn es gibt noch einige Steine beträchtlicher Größe aus dem Weg zu räumen. Das Google-Forschungsergebnis ist allenfalls ein Anfang.

Um dem Ziel eines praxistauglichen Quantencomputers näherzukommen, arbeiten Unternehmen wie Google, Microsoft, IBM und Amazon derzeit unter Hochdruck an der Weiterentwicklung dieser Technologie. Was die NSA und andere milliardenschwere Geheimorganisationen diesbezüglich tun, ist naturgemäß nicht bekannt. Mit der Rolle des Zuschauers dürften sie sich aber nicht begnügen. Natürlich spielt bei den Quantencomputer-Aktivitäten der privaten Anbieter auch der Marketing-Gedanke eine wichtige Rolle. Immer wieder gehen die genannten Firmen daher mit vermeintlich neuen Meilensteinen an die Presse, was jedoch nicht darüber hinwegtäuschen sollte, dass die aktuelle Quantencomputer-Technik nach wie vor nur äußerst bescheidene Berechnungen zustande bringt.

Um eine RSA-Verschlüsselung der aktuellen Sicherheitsstufe knacken zu können, muss ein Rechner in der Lage sein, eine 2.048-Bit-Zahl in ihre Faktoren zu zerlegen. Die Medien berichteten in den letzten Jahren immerhin von 7-, 18-, 26- und 48-Bit-Werten, die mit Quanten-Hilfe faktorisiert wurden – was auf eine schnelle Entwicklung schließen lässt. Allerdings gelangen diese Erfolge mit Hybrid-Geräten aus einem klassischen Rechner und einem Quantencomputer und haben daher nur eine beschränkte Aussagekraft. Auch die 2016 öffentlichkeitswirksam verbreitete Nachricht, dass ein Quantencomputer die 16-Bit-Zahl 56.153 zerlegt hat, ist mit Vorsicht zu genießen, da es sich hierbei um einen Wert mit speziellen Eigenschaften handelt. Lässt man derartige Einschränkungen nicht gelten, dann ist ein Quanten-Rechner momentan in der Lage, die Zahl 21 (fünf Bits) in ihre Faktoren zu zerlegen.

Auch Angaben zur Anzahl der mit einem Quantencomputer realisierbaren Bits (sogenannte Qubits) sind irreführend. Klar ist: Um eine 2.048-Bit-Zahl zu faktorisieren, benötigt man 4.000 bis 5.000 Qubits. Real existierende Quantencomputer erreichen bereits über 400 Qubits, was durchaus beeindruckend klingt. Die Sache hat jedoch einen Haken: Quantencomputer sind fehleranfällig und müssen daher in ihre Berechnungen stets Korrekturverfahren einbeziehen, die um ein Vielfaches aufwendiger sind als die eigentlich zu lösende Aufgabe.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) schätzt beispielsweise, dass das für das Faktorisieren einer 2.048-Bit-Zahl innerhalb von 100 Tagen etwa eine Million Qubits notwendig sind. Mit anderen Worten: Um ein paar Tausend praktisch nutzbare (logische) Qubits zu erhalten, benötigt man eine Million tatsächlich vorhandener (physikalischer) Qubits. Soll eine 2.048-Bit-Zahl in lediglich einer Stunde zerlegt werden, sind laut BSI sogar eine Milliarde physikalischer Qubits notwendig. Schlaflose Nächte sind also noch nicht angebracht, auch wenn IBM im Laufe dieses Jahres die Marke von 1.000 physikalischen Qubits überschreiten will.

Letzte Woche meldete sich also wieder einmal Google zum Thema zu Wort. Forschenden des IT-Riesen ist es gelungen, die Fehlerkorrektur des von ihnen entwickelten Sycamore-Quanten-Chips zu verbessern. Bisher nutzte dieses Gerät 17 physikalische Qubits, um ein logisches Qubit zu realisieren. In der neuen Generation werden zwar 49 physikalische Qubits für den gleichen Zweck eingesetzt, doch dafür wurde die Fehlerrate von 3,028 Prozent auf 2,914 Prozent gesenkt. Dies ist zwar nicht viel, zeigt aber immerhin, dass es praktisch möglich ist, durch das Hinzufügen weiterer Qubits die Robustheit eines Quantencomputers zu erhöhen, obwohl zusätzliche Quanten-Komponenten stets auch neue Fehlerquellen bilden. Von einer bevorstehenden Quanten-Apokalypse kann allerdings nach wie vor nicht die Rede sein.

Dennoch bleibt die Umstellung auf Post-Quanten-Kryptografie eine wichtige Aufgabe für die nächsten Jahre. Denn irgendwann könnten die bisher eingesetzten asymmetrischen Verfahren tatsächlich den Quanten-Tod sterben. Das BSI geht im Rahmen einer pessimistisch geschätzten Arbeitshypothese davon aus, dass dies Anfang der 2030er-Jahre passieren wird. Bis dahin sollten alle halbwegs wichtigen Krypto-Anwendungen umgestellt sein.

Update

Fälschlicherweise hieß es im ursprünglichen im letzten Absatz, bisher eingesetzte symmetrische Verfahren könnten irgendwann den Quanten-Tod sterben. Tatsächlich ging es natürlich um asymmetrische Verfahren. Wir haben den Fehler im Text korrigiert.

(jvo)