Hype um Superintelligenz im "Q*"-Modell: Lernt ChatGPT endlich rechnen?

OpenAI soll es gelungen sein, sein Sprachmodell besser in Mathe zu machen. Sollte das stimmen, wäre das womöglich ein Durchbruch.

In Pocket speichern vorlesen Druckansicht 39 Kommentare lesen
Ein offener Laptop wird von einer Person mit blauem Hemd bedient; ĂĽber der Tastatur schweben der Schriftzug ChatGPT und einigen abstrakte Symbole

(Bild: Erstellt mit Midjourney durch heise online)

Lesezeit: 6 Min.
Von
  • Melissa Heikkilä

Seit den dramatischen Ereignissen bei OpenAI im November brodelt noch immer die GerĂĽchtekĂĽche, warum genau der Chief Scientific Officer des Unternehmens, Ilya Sutskever, sowie der restliche damalige Vorstand beschlossen hatten, CEO Sam Altman aus dem Unternehmen zu werfen. Altman ist nach dem Machtkampf bekanntermaĂźen inzwischen wieder da, doch die Fragezeichen bleiben.

Sowohl Reuters als auch The Information hatten berichtet, dass OpenAI zuvor einen neuen Weg gefunden haben soll, leistungsstarke KI-Systeme zu entwickeln. Ein neues Modell namens Q* (ausgesprochen "Q-Star") soll in der Lage sein, Mathematikaufgaben auf Grundschulniveau zu lösen. Das wiederum soll ein Meilenstein im Bestreben des Unternehmens gewesen sein, eine künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) zu schaffen – ein viel gepriesenes Konzept, das sich auf KI-Systeme bezieht, die dem Menschen ebenbürdig oder überlegen sind. Noch immer wird Q* von OpenAI nicht kommentiert. Die sozialen Medien waren nach den Berichten voll von Spekulationen und übertriebenem Hype. Doch wie schätzen Experten die Situation ein? MIT Technology Review hat einige bekannte KI-Forscher dazu befragt.

Informatiker haben jahrelang versucht, KI-Sprachmodelle dazu zu bringen, mathematische Probleme zu lösen, für die sie eigentlich nicht geschaffen sind. GPT-4 und das darauf basierende ChatGPT können zwar solche Aufgaben lösen, sind dabei aber weder sehr gut noch zuverlässig. Bislang galt: Wir verfügen derzeit weder über die Algorithmen noch über die richtigen Architekturen, um mathematische Probleme mit Hilfe generativer KI zuverlässig zu lösen. Das sagt auch Wenda Li, Dozentin für KI an der Universität Edinburgh. Deep Learning und die Transformer-Technik, wie sie von Sprachmodellen verwendet werden, sind zwar hervorragend in der Mustererkennung, aber das allein reiche dafür wahrscheinlich nicht aus, fügt sie hinzu.

Mathematik sei ein Maßstab für logisches Denken, sagt Li. Eine Maschine, die in der Lage ist, über Mathematik "nachzudenken", könne theoretisch auch lernen, andere Aufgaben zu erledigen, die auf vorhandenen Informationen aufbauen. Das gilt etwa für das Programmieren oder das Ziehen von Schlussfolgerungen aus Nachrichtenartikeln, was heutige Sprachmodelle bereits können, aber eben nicht immer so, wie die Menschen das wollen. Mathematik ist für Li eine besonders schwierige Aufgabe, denn sie erfordert von KI-Modellen die Fähigkeit, logisch zu denken und wirklich zu verstehen, womit sie es zu tun haben.

Ein generatives KI-System, das Mathematik zuverlässig beherrscht, muss also konkrete Definitionen bestimmter Konzepte, die sehr abstrakt sein können, erst einmal im Griff haben. Viele mathematische Probleme erfordern auch ein gewisses Maß an Planung über mehrere Schritte hinweg, sagt Katie Collins, Doktorandin an der Universität Cambridge, die sich auf KI im Themenfeld der Mathematik spezialisiert hat. Yann LeCun wiederum, oberster KI-Wissenschaftler bei Meta, sieht in "Q*" wiederum einen Versuch OpenAIs, seinem Sprachmodell beizubringen, planvoll vorzugehen.

Menschen, die sich Sorgen darüber machen, ob KI ein existenzielles Risiko für den Menschen darstellt, befürchten, dass solche Fähigkeiten zu einer böswilligen KI führen könnten. Sicherheitsbedenken könnten aufkommen, wenn es solchen KI-Systemen gestattet wird, sich eigene Ziele zu setzen und in gewisser Weise mit der realen physischen oder digitalen Welt zu interagieren, sagt Collins. Ironischerweise sollte die Gründung von OpenAI dabei helfen, solche Risiken zu vermeiden.

Aber auch wenn OpenAI seinen Sprachmodellen bessere mathematische Fähigkeiten beigebracht haben sollte, bedeutet das nicht die Geburt einer Superintelligenz. "Ich glaube nicht, dass wir dadurch sofort zu einer AGI oder wirklich beängstigenden Situationen kommen", sagt Collins. So komme es auf die Art der mathematischen Probleme an, die KI lösen könne. Es sei ein Unterschied, ob ein Sprachmodell Mathematik aus der Grundschule beherrsche oder das Ausloten der Grenzen der Mathematik auf dem Niveau eines Fields-Medaillengewinners.

Die Forschung im Bereich des maschinellen Lernens hat sich bislang auf das Lösen einfacher Aufgaben konzentriert, doch moderne KI-Systeme haben diese Herausforderung noch nicht ganz gemeistert. Verwirrend: Einige KI-Modelle scheitern zwar an wirklich simplen mathematischen Problemen, können komplexere Aufgaben aber lösen. OpenAI hat deshalb mit angepassten Modellen experimentiert, die aber den Menschen nur gelegentlich übertreffen.

Gleichwohl wäre die Entwicklung eines KI-Systems, das mathematische Gleichungen lösen kann, beeindruckend. Ein tieferes Verständnis von Mathematik könnte neue Anwendungen eröffnen, die der wissenschaftlichen Forschung und dem Ingenieurwesen zugutekommen. Und auch Schüler dürften die KI noch häufiger als Nachhilfelehrer nutzen.

Es ist allerdings nicht das erste Mal, dass ein neues Sprachmodell einen AGI-Hype auslöst. Erst letztes Jahr wurden ähnliche Aussagen über Gato von Google DeepMind verbreitet, ein "generalistisches" KI-Modell, das Atari-Videospiele spielen, Bilder beschriften, chatten und Blöcke mit einem echten Roboterarm stapeln kann. Damals behaupteten einige KI-Forscher, DeepMind stehe "an der Schwelle" zur AGI, weil Gato viele verschiedene Dinge ziemlich gut könne.

Solche Hype-Zyklen schaden dem KI-Sektor mehr als sie nützen, weil sie von den wirklichen, greifbaren Problemen ablenken. Gerüchte über ein leistungsfähiges neues KI-Modell könnten auch ein massives Eigentor für den regulierungsscheuen Technologiesektor sein. Die EU steht kurz vor der Verabschiedung des AI Act. Einer der größten Streitpunkte unter den Gesetzgebern ist derzeit die Frage, ob den Technologieunternehmen mehr Befugnisse eingeräumt werden sollen, um hochmoderne KI-Modelle selbst zu regulieren.

Der Vorstand von OpenAI wurde als unternehmensinterner "Kill Switch" und Governance-Mechanismus konzipiert, um die Einführung schädlicher Technologien zu verhindern. Das Drama der letzten Wochen in der Vorstandsetage hat gezeigt, dass auch hier das Profitmotiv die Oberhand behalten wird. Dadurch wird es auch schwieriger, zu begründen, warum man den KI-Firmen eine Selbstregulierung zutrauen sollte. Die Politik sollte sich das zu Herzen nehmen.

(bsc)