Quantencomputing: So funktioniert der HHL-Algo für lineare Gleichungssysteme

KI und Berechnungen auf riesigen Datenmengen treiben die Entwicklung von Quantencomputern an. Der HHL-Algorithmus für Gleichungssysteme ist besonders effektiv.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 15 Min.
Von
  • Dr. Colin Stahlke
  • Dr. Christine Priplata
Inhaltsverzeichnis

Der Physiker Richard Feynman warf in seiner Vorlesung "Simulating Physics with Computers" die Frage auf, wie man die Natur mit einem Computer simulieren könnte. Dabei dachte er insbesondere an die Effekte der Quantenmechanik. Da die Dimension des Zustandsraumes eines quantenmechanischen Systems exponentiell mit der Zahl der betrachteten Teilchen wächst, lassen sich größere Systeme mit einem herkömmlichen Computer nicht simulieren. Feynman schlug dafür einen Quantencomputer mit Qubits sowie Pauli-Operatoren als Gates vor. Inzwischen gibt es zahlreiche Vorschläge zur Implementierung solcher universeller Quantencomputer. Die am besterforschten Umsetzungen sind Ionenfallen und supraleitende Qubits, auf denen die fortgeschrittensten Quantencomputer aufbauen.

Fortschritte erwarten in der Quantenforschung führende Firmen wie Google und IBM im Moment insbesondere bei der künstlichen Intelligenz. Allerdings geht es nicht primär darum, klassische Algorithmen auf Quantencomputer zu übertragen. Zwar haben Farhi und Kollegen am Beispiel der Handschrifterkennung aus dem MNIST-Datensatz demonstriert, dass sich Aufgaben klassischer neuronaler Netze prinzipiell mit Quantencomputern lösen lassen.

Schwerpunkt Quantencomputing

Das Google-Colab-Notebook zeigt aber, dass dabei ein klassischer einem Quantencomputer überlegen ist, weil die verwendeten Algorithmen nicht auf die Vorteile von Quantencomputern zugeschnitten sind. Vielmehr ruhen die Hoffnungen auf neuen Algorithmen, die exponentielle Beschleunigungen klassischer Verfahren versprechen, insbesondere für Aufgaben aus dem maschinellen Lernen, Clustering, der Klassifizierung und der Mustererkennung in riesigen Datenmengen.