KI löst 60 Jahre altes Mathe-Problem mit neuem Ansatz

Ein 23-jähriger Laie hat mit einem Prompt an GPT-5.4 Pro das offene Erdős-Problem #1196 gelöst – Mathematiker sehen darin eine neue Qualität.

vorlesen Druckansicht 18 Kommentare lesen
Hand schreibt mathematische Formeln an die Tafel

(Bild: New Africa/Shutterstock.com / KI / Bearbeitung heise medien)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Der 23-jährige Liam Price hat mit einem einzigen Prompt an GPT-5.4 Pro ein jahrzehntealtes mathematisches Problem gelöst – auf eine Weise, die in der Fachwelt für mehr Erstaunen gesorgt hat als manch anderer KI-Erfolg in der Mathematik. Dabei war ihm nicht einmal klar, welches Problem er damit gelöst hat. Dass Künstliche Intelligenz bei mathematischen Problemen echte Durchbrüche erzielen kann, ist in der Fachwelt nach wie vor umstritten.

Gegenüber Scientific American sagte er: „Ich weiß nicht einmal, worum es bei diesem Problem geht.“ Er beschäftige sich nur gelegentlich mit Erdős’ Problemen und gebe sie der KI, um zu sehen, welche Ergebnisse er bekomme. „Dann lieferte sie eine scheinbar korrekte Lösung“. Auf der Plattform erdosproblems.com ist das Problem #1196 inzwischen offiziell als gelöst markiert; der Beweis wurde demnach im Beweisassistenten Lean formal verifiziert.

Doch was genau hat Price eigentlich bewiesen? Im Zentrum steht eine Vermutung von Paul Erdős, András Sárközy und Endre Szemerédi zur Struktur sogenannter primitiver Mengen. Eine primitive Menge ist eine Menge ganzer Zahlen größer als 1, in der kein Element ein anderes teilt.

Eine Menge A ⊂ ℕ heißt primitiv, wenn für alle a, bA mit ab gilt:

Erdős führte für solche Mengen eine charakteristische Summe ein, die oft als „Erdős-Summe“ bezeichnet wird. Für eine primitive Menge A ist sie definiert durch:

Das Problem #1196 beschäftigt sich mit primitiven Mengen, deren Elemente alle größer als ein Parameter x sind. Man betrachtet also primitive Mengen

Die Vermutung von Erdős–Sárközy–Szemerédi besagt grob, dass die Erdős-Summe solcher Mengen asymptotisch nicht größer als 1 wird. Genauer: Für jede primitive Menge A⊂[x,∞) sollte gelten

Vor der aktuellen KI-Lösung war die beste bekannte allgemeine Schranke eine Arbeit von Jared Lichtman aus dem Jahr 2023, die jedoch eine Lücke von rund 40 Prozent zum vermuteten Grenzwert 1 ließ.

wobei γ die Euler-Mascheroni-Konstante bezeichnet. Damit war zwar klar, dass die Summe beschränkt bleibt, aber der von Erdős vermutete Grenzwert 1 war noch nicht erreicht.

Price konnte mit GPT‑5.4 Pro nun zeigen, dass für jede primitive Menge A ⊂ [x, ∞) tatsächlich eine schärfere Schranke gilt, die asymptotisch gegen 1 konvergiert. Der Beweis liefert sogar eine explizite Konvergenzrate: Der Abstand zur Schranke 1 schrumpft mindestens proportional zu 1/log x

für alle primitiven Mengen A und hinreichend großes x. Damit folgt insbesondere

Die eigentliche Überraschung steckt in der Beweisidee. GPT-5.4 Pro schlug einen Zugang über Markov-Ketten vor: Die multiplikative Struktur ganzer Zahlen wird als zufälliger Prozess modelliert, bei dem aus einer Zahl n schrittweise Primfaktoren herausgezogen werden. Die Verteilung der so entstehenden „Primfaktoren-Pfade“ lässt sich dann mit Werkzeugen der Wahrscheinlichkeitstheorie analysieren.

Diese Brücke zwischen analytischer Zahlentheorie und stochastischer Prozesstheorie ist das, was Fields-Medaillen-Träger Terence Tao im Forum von erdosproblems.com als engere Verbindung zwischen der „Anatomie ganzer Zahlen“ und der Markov-Prozess-Theorie bezeichnet, als sie in der Fachliteratur bisher explizit herausgestellt worden war.

Videos by heise

Der Beweis reiht sich grundsätzlich in eine Serie ein, die im Herbst 2025 für Schlagzeilen sorgte: Damals präsentierten OpenAI-Mitarbeiter auf X mehrere Erdős-Probleme, die GPT-5 angeblich gelöst hatte. Kurz darauf folgte die Ernüchterung – wie Terence Tao und Thomas Bloom klarstellten, hatte das Modell keine neuen Beweise gefunden, sondern lediglich bereits publizierte Resultate aufgespürt. Dass man mithilfe von KI Erdős-Probleme jedoch tatsächlich knacken kann, war bereits bekannt: Schon im Januar wurden Erdős #281 und #728 mithilfe von GPT-5.2 gelöst.

Dieses Mal handelt es sich jedoch nicht um ein in der Literatur bereits gelöstes Problem. „Es scheint, dass die Fachliteratur sich auf einen etwas suboptimalen Ansatz konzentriert hatte, bei dem der erste Schritt darin bestand, das Problem in einen stetigen Rahmen zu überführen – während die KI-Läufe konsequent in der diskreten Welt verblieben und es schafften, verschiedene bereits vorhandene Werkzeuge der diskreten Mathematik zu nutzen, die sich vor allem um Methoden rund um die LYM-Ungleichung drehen, um zu einer Lösung zu gelangen“, so Tao. Im Nachhinein sei das Problem vielleicht einfacher gewesen als erwartet, eine Art mentale Blockade.

Der von der KI geführte Beweis war jedoch keineswegs publikationsreif. Laut Lichtman war die Rohausgabe von GPT-5.4 Pro ziemlich schlecht – es habe einen Experten gebraucht, um zu verstehen, was das Modell zu sagen versuchte. Inzwischen haben Lichtman und Tao den Beweis verkürzt, sodass die Schlüsseleinsicht des Sprachmodells klarer hervortritt. Thomas Bloom, Betreiber der Erdős-Problems-Datenbank, ordnete die Geschichte auf X als Beispiel dafür ein, wie KIs zur Ergänzung und Verstärkung menschlicher Forschung eingesetzt werden können.

Der Fall fällt in eine anhaltende Debatte darüber, ob große Sprachmodelle neues Wissen in Mathematik und anderen Disziplinen entdecken können, das über die im Training gelernten Datenpunkte hinausgeht. Zehn Spitzenmathematiker haben diese Frage bereits systematisch untersucht – mit ernüchternden Ergebnissen für die KI-Kreativität. Im Forum von erdosproblems.com mahnt Tao zur Vorsicht hinsichtlich eines möglichen „Survivor Bias“. Allein unter den Erdős-Problemen würden Tausende Instanzen dieser Modelle auf die Probleme losgelassen, aber nur die erfolgreichen oder teilweise erfolgreichen Fälle gemeldet. (vza)