Physik-Nobelpreis 2024 für maschinelles Lernen

Der diesjährige Nobelpreis für Physik geht an zwei Forscher, die maschinelles Lernen mit künstlichen neuronalen Netzwerken ermöglichten.

In Pocket speichern vorlesen Druckansicht 109 Kommentare lesen
John J. Hopfield, Geoffrey E. Hinton 

John J. Hopfield (l.), Geoffrey E. Hinton

(Bild: Mary Waltham / University of Toronto)

Update
Lesezeit: 8 Min.
Inhaltsverzeichnis

Der diesjährige Nobelpreis für Physik geht an John Hopfield von der Princeton University und Geoffrey Hinton von der University of Toronto. Dies gab die Königlich-Schwedische Akademie der Wissenschaften am heutigen Dienstag in Stockholm bekannt.

Den Preis gewannen die Forscher für bahnbrechende Entdeckungen und Erfindungen, die maschinelles Lernen mit künstlichen neuronalen Netzen ermöglichen. John Hopfield und Geoffrey Hinton nutzten Werkzeuge aus der Physik, um Methoden zu entwickeln, die dazu beitrugen, den Grundstein für das heutige leistungsstarke maschinelle Lernen zu legen. Das maschinelle Lernen auf der Grundlage künstlicher neuronaler Netze revolutioniert derzeit die Wissenschaft, die Technik und das tägliche Leben.

Mit ihrer Forschung legten die Nobelpreisträger den Grundstein für maschinelles Lernen und künstliche Intelligenz. Während KI im Alltag erst seit einigen Jahren für Aufmerksamkeit sorgt, ist maschinelles Lernen seit bereits 15 bis 20 Jahren ein wichtiger Bestandteil der Forschung. Grundlegend dafür war die Entwicklung künstlicher, neuronaler Netze.

Mithilfe von Konzepten und Methoden aus der Physik konnten Hopfield und Hinton Technologien entwickeln, um Informationen mithilfe neuronaler Netze auszuwerten. Maschinelles Lernen unterscheidet sich dabei grundlegend von der Funktionsweise üblicher Software. Während diese Informationen entsprechend eines vorgegebenen Rezeptes verarbeitet werden, lernt beim maschinellen Lernen ein Computer mithilfe von Beispielen.

Künstliche neuronale Netze sind inspiriert vom neuronalen Netz des Gehirns.

(Bild: Johan Jarnestad/The Royal Swedish Academy of Sciences)

Obwohl Computer selbst nicht denken können, können sie menschliche Fähigkeiten wie Denken und Lernen imitieren. Die Inspiration für neuronale Netze kam dabei aus der Hirnforschung. In den 1940ern rätselten Forscher über die Mathematik, die das Netzwerk aus Neuronen und Synapsen im Gehirn untermauert. Hinzu kamen Theorien des Neurowissenschaftlers Donald Hebb darüber, wie das Gehirn dank der Verbindung zwischen Neuronen lernt.

Nachdem Forscher lange gedacht hatten, dass neuronale Netze keinen echten Nutzen liefern würden, weckte die Forschung der diesjährigen Nobelpreisträger in den 1980er Jahren erneut das Interesse daran. Der Physiker John Hopfield erforschte gerade theoretische Probleme der Molekularbiologie, als er bei einem Treffen über Neurowissenschaften erstmals auf die Hirnforschung stieß. Dies fachte sein Interesse an neuronalen Netzen an.

Wenn Neuronen zusammenarbeiten, bringen sie Phänomene und Eigenschaften hervor, die nicht erkenntlich sind, wenn man jedes Neuron einzeln betrachtet. Ähnliche Phänomene kannte Hopfield aus der Physik. Im Magnetismus etwa verleiht der Spin einzelner Atome einem Material, das aus unzähligen Atomen besteht, seine magnetischen Eigenschaften.

Mithilfe dieses Vorwissens modellierte er das sogenannte Hopfield-Netzwerk. Ähnlich wie der Spin eines Atoms die Werte 0 und 1 annehmen kann, konnten aus die Knoten seines Netzwerks zwei verschiedene Werte annehmen. Das von ihm modellierte Netzwerk aus Neuronen war in der Lage, Muster zu speichern und sie wiederherzustellen. Wenn das Netzwerk unvollständige oder verzerrte Informationen erhielt, konnte es das gespeicherte Muster identifizieren, das diesen am meisten ähnelte.

Informationen werden in einem Netzwerk gespeichert wie in einer hügeligen Landschaft.

(Bild: Johan Jarnestad/The Royal Swedish Academy of Sciences)

Hopfield selbst verglich das Gedächtnis seines Netzwerks mit einer hügeligen Landschaft. Die neue Information entspricht einem Ball, der in diese Landschaft gesetzt wird. Der Ball rollt automatisch zum tiefsten Punkt der Landschaft – dieser entspricht dem gespeicherten Muster, das der Information am meisten ähnelt.

Geoffrey Hinton, auf der anderen Seite, beschäftigte sich damit, Informationen nicht nur zu speichern, sondern sie auch zu interpretieren. Menschen lernen Muster zu erkennen, indem sie die Welt um sich herum wahrnehmen. Nachdem ein Kind einige Hunde, Katzen oder Vögel gesehen hat, kann es diese verlässlich erkennen und zuordnen. Hinton stellte sich die Frage, ob Maschinen gleichermaßen Muster erkennen könnten wie Menschen, ohne dass ihnen Kategorien zum Sortieren und Interpretieren vorgegeben werden müssten.

Gemeinsam mit seinem Kollegen Terrence Sejnowski nutzte Hinton das Hopfield-Netzwerk und Methoden aus der statistischen Physik, um dieses Problem zu lösen. Die statistische Physik befasst sich mit großen Systemen, die aus sehr vielen, gleichartigen Teilchen zusammengesetzt sind, wie etwa Gase. Während es schwierig ist, so viele Teilchen einzeln zu beschreiben, ist es möglich, sie gemeinsam zu betrachten und so die Eigenschaften eines Gases zu beschreiben, wie etwa seine Temperatur oder den Druck.

Die Wahrscheinlichkeit verschiedener Konfigurationen, in denen die einzelnen Teilchen existieren können, wird von der sogenannten Boltzmann-Gleichung beschrieben. Einige Zustände sind wahrscheinlicher als andere, abhängig von ihrer Energie. Hinton nutzte diese Gleichung, um ein neuronales Netzwerk zu beschreiben. Diese Maschine lernt mithilfe von Trainingsdaten, kann neue Muster erzeugen, die den Trainingsdaten ähneln, und Kategorien identifizieren. Diese sogenannte Boltzmann-Maschine war eine der ersten Formen eines generativen Modells.

Mit ihrer Forschung legten Hopfield und Hinton die Grundlagen für das Machine Learning, das in den 2010er Jahren für eine Revolution sorgte. Heutige neuronale Netzwerke bestehen aus vielen Schichten und können gigantische Datenmengen verarbeiten. Diese sind tiefe neuronale Netze und die Basis für Deep Learning.

Während physikalische Methoden bei der Entwicklung neuronaler Netze geholfen haben, kommen heutzutage wiederum neuronale Netzwerke in der physikalischen Forschung zum Einsatz. Diese haben es zum Beispiel ermöglicht, die gigantischen Datenmengen auszuwerten, die zur Entdeckung des Higgs-Teilchens geführt haben.

Die Königlich-Schwedische Akademie der Wissenschaften schaltete Hinton kurz nach der Bekanntgabe telefonisch hinzu. Künstliche Intelligenz werde einen riesigen Einfluss auf die Menschheit haben, meint der KI-Forscher. „Sie wird mit der Industriellen Revolution vergleichbar sein, aber anstatt die Menschen an körperlicher Stärke zu übertreffen, wird sie die Menschen an intellektuellen Fähigkeiten übertreffen.“

Gleichzeitig äußert sich Hinton kritisch gegenüber dem Einsatz von KI. Im vergangenen Jahr kündigte er seine Stelle bei Google Brain, dem KI-Forschungsteam des Unternehmens, um frei über die Risiken von KI sprechen zu können. Dies tat er etwa gemeinsam mit anderen Wissenschaftlern vergangenen Mai im Fachmagazin Science. „Wir haben keine Erfahrung damit, wie es ist, wenn Dinge intelligenter sind als wir“, sagte er während der Bekanntgabe. Das könne zu einem effizienteren Gesundheitswesen und gesteigerter Produktivität führen. „Wir müssen uns aber auch über eine Reihe möglicher negativer Folgen Sorgen machen. Besonders über die Gefahr, dass diese Dinge außer Kontrolle geraten.“

Im vergangenen Jahr ging der Nobelpreis für Physik an die in Schweden forschende Französin Anne L’Huillier, den in den USA forschenden Franzosen Pierre Agostini und den in Deutschland forschenden ungarisch-österreichischen Physiker Ferenc Krausz. Den Preisträgern und der Preisträgerin war es gelungen, ultrakurze Laserpulse mit einer Länge von nur wenigen Attosekunden zu erzeugen. Eine Attosekunde dauert nur ein Milliardstel einer Milliardstelsekunde. Diese Methode ermöglicht es Forschenden, die Bewegung von Elektronen in Atomen und Molekülen aufzulösen, filmisch darzustellen und so zu erforschen.

Die Nobelpreise gehen auf den Dynamit-Erfinder und Preisstifter Alfred Nobel (1833-1896) zurück. Laut seinem Testament sollen die Preise diejenigen ehren, die der Menschheit im vergangenen Jahr in den jeweiligen Preiskategorien den größten Nutzen erwiesen haben. Die Kategorie Physik ist dabei die erste, die Nobel in seinem Testament erwähnte.

Seit der ersten Preisvergabe im Jahr 1901 sind zuvor 224 unterschiedliche Physik-Nobelpreisträger gekürt worden, darunter nur fünf Frauen. Einzig der US-amerikanische Physiker John Bardeen erhielt die Auszeichnung zweimal in der Kategorie Physik.

Am Montag wurden bereits die Nobelpreisträger für Physiologie oder Medizin verkündet. In diesem Jahr geht die Auszeichnung an die US-Amerikaner Victor Ambros und Gary Ruvkun für ihre Entdeckung der microRNA und ihrer Rolle bei der Genregulierung.

Alle Nobelpreise sind in diesem Jahr mit elf Millionen schwedischen Kronen (circa 970.000 Euro) pro Kategorie dotiert. Werden mehrere Preisträger ausgezeichnet, wird das Preisgeld unter ihnen aufgeteilt. Traditionell werden die Preise feierlich an Nobels Todestag am 10. Dezember überreicht.

Diese Meldung wurde um 16:51 Uhr aktualisiert.

(spa)