IBM: "Quantenalgorithmus einfacher erklärbar als ChatGPT"

Seite 2: "Das Quantenmodell erkennt tatsächlich andere Muster in den Daten"

Inhaltsverzeichnis

Es gibt also einen Punkt, an dem Sie sagen können, dass Sie mit einem Quantensystem Klassifizierungen durchführen können, die Sie mit einem klassischen System nicht durchführen können. Ist das richtig?

Ja, das ist richtig. Die Frage ist, ob es für Ihren speziellen Anwendungsfall von Nutzen ist. Wir können beweisen, dass man diese Art von Berechnung theoretisch auf einem Quantencomputer besser durchführen kann als auf einem klassischen Computer. Aber wir müssen beweisen, dass man dadurch einen Nutzen hat. Es hängt von der Datenstruktur ab.

Sie lassen also alles durch das klassische Modell laufen. Sie lassen alle positiven Ergebnisse durch das Quantenmodell laufen. Das Quantenmodell erkennt tatsächlich andere Muster in den Daten und ist bei bestimmten Datenstrukturen im wirklichen Leben genauer, zum Beispiel bei Finanzdienstleistungen, Daten für Betrug.

Sie werden also bei der klassischen Klassifizierung andere falsch-positive Ergebnisse sehen als bei der Quantenklassifizierung, bei der einige Betrugsfälle besser erkannt werden. Die klassische Methode eignet sich besser für einige der anderen. Wenn man sie also einsetzt, kann man seinen Gesamtklassifizierungsprozentsatz um ein paar Prozentpunkte erhöhen.

Und bei einigen dieser Beispiele sind ein paar Prozentpunkte Verbesserung für einige dieser Finanzinstitute eine Menge Geld wert.

Bei der Künstlichen Intelligenz haben wir bereits Diskussionen über Blackbox-Systeme, Vertrauen und Erklärbarkeit geführt, aber jetzt bauen Sie eine noch bessere, noch schwärzere Blackbox. Sehen Sie da kein Problem?

Nun, in gewisser Weise ist Quantencomputing erklärbarer als Deep Learning. Quantenalgorithmen sind anders. Es sind andere Algorithmen, die eine andere Art der Informationsverarbeitung verwenden. Aber es sind immer noch Algorithmen, die man aufschreiben und erklären kann. Nur weil es sich um Quanten handelt, heißt das nicht, dass man es nicht aufschreiben und erklären kann. Ich würde sagen, dass es aus meiner Sicht sogar einfacher ist, Ihnen zu erklären, warum ein Quantenalgorithmus funktioniert, als wie Chat-GPT funktioniert.

Wir haben über Klassifizierung gesprochen. Gibt es noch andere Ideen für maschinelles Lernen mit Quanten? Können Sie auch andere Dinge tun? Kann man so etwas wie Deep Learning machen?

Ja, man beschäftigt sich mit neuronalen Netzen auf Quantenbasis. Ich meine, das sind aktive Bereiche der Forschung. Und wie Sie wissen, steckt die Quantenforschung noch in den Kinderschuhen.

Ich denke, dass es beim Quantencomputing sowohl technische als auch algorithmische Fortschritte gibt. Für mich sind die algorithmischen Fortschritte eher langsam und stetig, und dann gibt es eine Diskontinuität, dann verläuft die Entwicklung wieder langsam und stetig.

Es könnte also durchaus eine Diskontinuität bei den neuronalen Quantennetzwerken geben. Es gibt bisher einige interessante heuristische Ergebnisse. Ich meine, gerade dieses Jahr gab es eine große Verbesserung des Shor-Algorithmus. Den Shor-Algorithmus gibt es schon seit 30 Jahren. Dieses Jahr gab es eine große Verbesserung. Ich erinnere mich nicht mehr an den genauen Faktor X, aber es ist ein ziemlich großer Faktor X in Bezug auf die Verringerung der für die Ausführung des Shor-Algorithmus erforderlichen Ressourcen.

Sie sprachen von der Breite und Tiefe von Quantenchips. Konzentrieren Sie sich mehr auf die Qualität oder mehr auf die Anzahl der Qubits? Oder machen Sie beides?

Es ist beides. Für die Leistung braucht man Skalierbarkeit, man braucht Qualität, und man braucht Ausführungsgeschwindigkeit. Bei den meisten Elementen unserer Roadmap, die sich mit der Skalierung befassen, haben wir bereits das erreicht, was wir aus technischer Sicht tun müssen, um zu wissen, wie man skaliert. Die Art und Weise, wie wir skalieren werden, ist modular. Anstatt also die Größe eines einzelnen Prozessors monolithisch zu erhöhen, werden wir uns mehr darauf konzentrieren, wie wir größere Systeme aus modularen Komponenten aufbauen können.

Ein großer Teil der Roadmap konzentriert sich also auf die einzelne QPU und darauf, wie wir ihre Qualität verbessern. Wir sagen nicht, dass Größe keine Rolle spielt. Wir konzentrieren uns aber auf Innovationen im Bereich der Qualität, denn auf der Qualitätsseite gibt es noch mehr zu tun. Erstens in Bezug auf die Verbesserung der Fähigkeiten zur Fehlerminimierung. Dann durch die Implementierung von Fehlerkorrekturen, die es uns ermöglichen, einen disruptiven Sprung in der Tiefe zu machen.

Als wir diese Roadmap veröffentlicht haben, haben wir ausdrücklich gesagt, wie tief man unserer Meinung nach mit dem System zuverlässig gehen kann. Das ist also der Heron-Chip, und dann gab es eine Zahl wie 5k. 5k ist die Anzahl der Gatter, also die tatsächliche Tiefe, die man erreichen kann. Und wir haben explizit gesagt, welche Erwartungen wir Jahr für Jahr im Rahmen der Roadmap erfüllen müssen.

Wir versuchen sicherzustellen, dass wir den Hype durchbrechen und sehr klar sind. Deshalb veröffentlichen wir eine so detaillierte Roadmap. Und ich glaube, das kommt sowohl bei unseren Partnern aus Wissenschaft und Forschung als auch bei unseren Partnern aus der Industrie sehr gut an, weil sie sehen können, ob wir noch auf dem richtigen Weg sind oder nicht.

Und da wir gerade der ganzen Welt unseren Fahrplan für die nächsten zehn Jahre mitgeteilt haben, sollten wir ihn auch besser einhalten, denn jetzt haben wir allen anderen Unternehmen, den Chinesen und allen anderen gesagt, dass sie genau wissen, was wir tun und bis wann wir es tun werden. Das ist also großer Anreiz für uns, es zu schaffen.

(wst)