Quantencomputing: Einführung in Googles Quantum AI Framework Cirq

Ursprünglich hat Google die Python-Library Cirq für die eigenen Quantenprozessoren wie Sycamore entwickelt. Inzwischen gibt es unterschiedliche Erweiterungen.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht
Lesezeit: 15 Min.
Von
  • Timo Eckstein
  • Prof. Michael J. Hartmann
  • Michael Steif
Inhaltsverzeichnis

Möglicherweise übertreffen Quantencomputer klassische Rechner bald auch in praxisrelevanten Anwendungen. Derzeit werden erste Durchbrüche für natürliche Quantensysteme erzielt, die sich direkt eins zu eins als Qubits darstellen lassen und keine aufwendigen Basistransformationen benötigen. Die Implementierung von Quantenfehlerkorrektur hingegen, die beliebig lange Gattersequenzen erlaubt, ist voraussichtlich erst in einer Dekade verfügbar. Aus diesem Grund heißt der aktuelle Entwicklungsstand NISQ-Ära (Noisy Intermediate Scale Quantum Computer).

Eingeschränkt wird die Leistungsfähigkeit heutiger Quantenrechner durch das Verhältnis von Gatter- und Kohärenzzeiten sowie durch Read-out- und Ein-Qubit-Fehler. Entscheidendere Limitationen ergeben sich aber aus der Konduktivität zwischen den Qubits und aus Zwei-Qubit-Gatter-Fehlern. Bei beidem kann Googles Sycamore-Chip seine Vorteile ausspielen, weshalb er in der Quantenphysik und -chemie ebenso zum Einsatz kommt wie bei Optimierungsproblemen.

Die Software für Googles Hardware ist Cirq. Der Artikel gibt einen Einblick in die Cirq-Syntaxmechanik und den Funktionsumfang. An einem Beispiel erläutert er die Grundbausteine und die verschiedenen Möglichkeiten, einen Quantenalgorithmus entweder zu simulieren oder für eine bestimmte Hardware kompatibel zu machen und auf dieser laufen zu lassen. Zum Abschluss fließen diese verschiedenen Quantencomputing-Bausteine zusammen und die Implementierung eines variationellen NISQ-Algorithmus vermittelt einen praxisnahen Eindruck von Cirq.