Der Lichtcomputer: Wie sich mit Licht schnell rechnen lässt

Licht überträgt zwar Daten, Berechnungen erledigen Computer aber nach wie vor mit Elektronen. Das könnte sich nun ändern.

In Pocket speichern vorlesen Druckansicht 36 Kommentare lesen

Sieht so die Zukunft des Quantencomputings aus? Forscher am Max Planck Institut für Quantenoptik verknüpften Qbits mithilfe von Lichtleitern.

(Bild: Max Planck Institut für Quantenoptik)

Stand:
Lesezeit: 13 Min.
Von
  • Thomas Brandstetter
Inhaltsverzeichnis

Eigentlich ist die Idee bestechend: Könnte man Computer mit Licht, statt mit Elektronen betreiben, wären sie deutlich schneller und würden drastisch weniger Energie verbrauchen. Schon in den 1960er Jahren arbeiteten Forschungsgruppen deshalb an den entsprechenden Konzepten. Doch eine etablierte Technologie vom Sockel zu stoßen, heißt ein bewegliches Ziel ins Visier zu nehmen. Und lange Jahre war die Entwicklung neuer Computerprozessoren ein Ziel, das sich sehr schnell bewegte: Rund alle zwei Jahre verdoppelte sich die Zahl der Transistoren pro Fläche. Gleichzeitig blieb der Energiebedarf annähernd konstant, weil die einzelnen, geschrumpften Transistoren weniger Energie zum Schalten benötigten.


Dieser Artikel erschien erstmals unter dem Titel "Der Lichtcomputer" in der Ausgabe 05/2021 von MIT Technology Review (im heise shop bestellbar). Wir veröffentlichen ihn an dieser Stelle kostenfrei.


Doch nach einem halben Jahrhundert globaler Anstrengungen, Siliziumelektronik immer weiter zu optimieren und immer leistungsfähigere Computer zu bauen, zeichnet sich ein Ende der Erfolgsgeschichte ab. Denn während Künstliche Intelligenz und Big Data unersättlich nach immer mehr Rechenpower verlangen, stößt die Miniaturisierung elektronischer Computerchips langsam aber sicher an harte, physikalische Grenzen.

Schlägt nun also endlich die Stunde der Lichtstrahlen? Vieles spricht jedenfalls dafür. Denn optische Rechner haben gegenüber mikroelektronischen Computern einen riesigen Vorteil: Licht verschiedener Wellenlänge beeinflusst sich nicht gegenseitig. So wie verschiedenfarbige Lichtpulse Daten parallel in ein und derselben Glasfaser übertragen, können also auch optische Schaltungen mehrere Berechnungen gleichzeitig ausführen.

Gerade in der Künstlichen Intelligenz mit ihren tiefen neuronalen Netzwerken ist die Fähigkeit zur Parallelität ein Schlüssel für effizientes Rechnen. Denn in klassischen Computern führen die Algorithmen dabei immer und immer wieder die gleichen, elementaren Rechenoperationen aus. Für jeden Rechenschritt verschieben sie Daten zunächst vom Speicher zu einer zentralen Recheneinheit, nur um sie anschließend wieder im Speicher abzulegen. Das macht sie für das maschinelle Lernen ineffizient und langsam.

Zur Zeit werden solche Berechnungen deshalb zwar auf hoch parallel arbeitende Prozessoren verlagert, die ursprünglich für Grafikkarten entwickelt wurden und deshalb noch immer Graphics Processing Units – GPU – genannt werden. Doch auch die beste, spezialisierte GPU-Hardware kann die Begrenzungen der Miniaturisierung von Transistoren und die Beschränkungen der klassischen Computer-Architektur nicht ungeschehen machen.

"Genau da kann Photonik ihre Stärken voll ausspielen", sagt Cornelia Denz, die am Institut für Angewandte Physik der Universität Münster die Arbeitsgruppe für Nichtlineare Photonik leitet. Denn die neuste Generation optischer Chips ist anders als ihre Vorgänger nun auch hoch integriert. sagt Denz. Integration bedeutet in diesem Fall nicht nur kleinere Bauteile, sondern vor allem auch Stabilität und damit Unempfindlichkeit gegenüber Stößen und Vibrationen, die gerade bei optischen Systemen große Probleme verursachen können. Zudem werden solche auf Siliziumchips integrierte Systeme zum Teil mit den gleichen Methoden hergestellt, die auch bei der Produktion herkömmlicher Elektronikchips zum Einsatz kommen – nur dass anstelle von Transistoren eben Lichtleiter, Strahlteiler und andere optische Elemente in das Silizium geschrieben werden.

Wie das konkret aussehen kann, hat eine internationale Forschergruppe unter Beteiligung der Universität Münster Anfang 2021 in der renommierten Fachzeitschrift "Nature" beschrieben. Sie hat auf einem optischen Siliziumchip ein Netzwerk aus Lichtleitern realisiert, das Bilddaten vorverarbeitet, sodass ein dahinter liegendes künstliches neuronales Netz die Bilder handgeschriebener Ziffern schneller und besser erkennen kann – eine klassische Übung des Maschinellen Lernens.

Im Inneren einer Vakuumkammer fangen Physiker des Max-Planck-Instituts für Quantenoptik ein einzelnes Atom in zwei gekreuzten optischen Resonatoren. Die werden jeweils von zwei Glasfasern gebildet, die am Kreuzungspunkt zu erkennen sind. Der Aufbau ermöglicht eine zerstörungsfreie Detektion von photonischen Qubits.

(Bild: Max Planck Institut für Quantenoptik)

Damit das funktioniert, schiebt der Algorithmus gewissermaßen einen Satz von optischen Filtern über das gesamte Input-Bild. Auf diese Weise werden charakteristische Merkmale wie Kanten, Ecken oder Rundungen stärker hervorgehoben – störende Merkmale wie zittrige Linien oder fehlerhafte Pixel werden herausgerechnet. Mathematiker bezeichnen dieses "drüberschieben" eines Filters als Faltung. Technisch besteht die Operation aus sehr vielen Matrixmultiplikationen. "Es ist ein Mix aus Photonik und Elektronik", sagt Johannes Feldmann, einer der Hauptautoren der Studie. "Photonik kann die Matrixmultiplikation sehr schnell und parallel machen. Andere Rechenschritte dagegen, die aktuell noch nicht so gut mit Optik realisiert werden können, machen wir elektronisch."

Die zentralen Bauelemente des optischen Teils sind sogenannte Phasenwechselmaterialien, wie sie etwa auch für die Datenspeicherung auf DVDs eingesetzt werden. Sie ermöglichen es, die Durchlässigkeit der Lichtleiter zu variieren und so die Lichtpulse gezielt abzuschwächen. "Im Grunde entspricht das einer Multiplikation", erklärt Feldmann. "Und wenn man die abgeschwächten Signale später wieder zu einem Strahl vereint, ist das die Addition." Und so einfach das klingen mag, sind das doch genau die Rechenschritte, die für eine Matrixmultiplikation nötig sind. Genau diese Rechenoperation läuft in einem neuronalen Netzwerk wieder und wieder ab, was herkömmliche Rechenmaschinen regelmäßig an die Grenzen ihrer Leistungsfähigkeit bringt.