Quantencomputing für Data Science: ein Praxistest

Wie praxistauglich ist Quantencomputing für Data Science und ML heute? Anhand von drei konkreten Anwendungsfällen lässt sich eine erste Einschätzung treffen.

In Pocket speichern vorlesen Druckansicht 46 Kommentare lesen
Quantencomputing für Data Science: Ein Praxistest

(Bild: Bartlomiej K. Wroblewski / Shutterstock.com)

Lesezeit: 14 Min.
Von
  • Christian Koch
  • Eldar Sultanow
Inhaltsverzeichnis

Rund um das Thema Quantencomputing ist ein regelrechter Hype ausgebrochen. Die Technik könnte im Bereich der Data Science und des maschinellen Lernens neue Horizonte eröffnen. Doch wie praxistauglich ist sie heute bereits? Anhand eines Tests in drei Anwendungsfällen untersuchen die Autoren den konkreten Nutzen für Data Scientists.

Im Unterschied zu klassischen Computern basieren Algorithmen eines Quantencomputers nicht auf Bits, sondern auf Qubits. Ein Bit kann entweder den Zustand 0 oder 1 annehmen. Misst man ein einmal gesetztes Bit mehrere Male, erhält man stets dasselbe Ergebnis. Bei einem Qubit verhält sich das anders. Prinzipiell kann es, so seltsam sich das anhört, gleichzeitig die Werte 0 und 1 annehmen. Misst man den Wert eines Qubits mehrmals, treten die Werte 0 und 1 mit einer gewissen Wahrscheinlichkeit auf. Im Ausgangszustand beträgt diese für den Wert 0 in der Regel hundert Prozent. Durch Überlagerung (Superposition) der Zustände lassen sich für ein Qubit andere Wahrscheinlichkeitsverteilungen erzeugen. Möglich wird das durch die Quantenmechanik, die Gesetzen folgt, die wir in dieser Form aus der alltäglichen Umgebung nicht kennen.

Der entscheidende Vorteil eines Quantencomputers liegt in seiner Probabilistik. Klassische Computer sind stark in Problemen, bei denen man ein einziges Endergebnis benötigt. Quantencomputer können im Gegensatz dazu sehr gut mit Wahrscheinlichkeiten umgehen und mit mehreren Werten gleichzeitig rechnen. Führt man eine Operation mit einem Qubit in einem überlagerten Zustand einmal aus, wird sie sowohl auf die Zahl 0 als auch auf die Zahl 1 angewandt. Das Qubit repräsentiert ja gleichzeitig beide Zustände. Je mehr Qubits in die Rechnung einfließen, desto größer fällt der Vorteil gegenüber einem klassischen Computer aus. Ein Rechner mit drei Qubits kann beispielsweise bis zu acht (das entspricht 2³) mögliche Zustände gleichzeitig abdecken: Die Binärzahlen 000, 001, 010, 011, 100, 101, 110 und 111.

In der wissenschaftlichen Literatur herrscht generell Einigkeit darüber, dass Quantencomputer zur Lösung bisher unlösbarer Probleme beitragen werden, unter anderem in den Bereichen Data Science und künstliche Intelligenz. Momentan stehen allerdings noch keine optimalen Quantencomputer zur Verfügung. Die aktuelle Generation nennt sich Noisy Intermediate-Scale Quantum (NISQ). Diese Rechner sind in der Anzahl ihrer Qubits begrenzt und störanfällig, sie unterliegen einem Rauschen (Noise). Im Jahr 2021 konnten die ersten Unternehmen Quantencomputer mit über 100 Qubits aufbauen, darunter IBM und QuEra Computing. Doch wie hoch ist der praktische Nutzen dieser NISQ-Generation? Das soll im Folgenden ein Test zeigen, für den die Autoren drei Anwendungsfälle mit den Frameworks Qiskit und PennyLane umsetzen und auf ihre Praxistauglichkeit prüfen. Im Vergleich zu Alternativen wie Cirq (Google) und Q# (Microsoft) bietet IBMs Qiskit-Framework eine sehr gute Dokumentation und den Vorteil, die Schaltkreise kostenlos auf einem echten Quantencomputer ausführen zu können.