Sprache und Bilder schon aus Gehirnströmen erkennen – Meta schafft 80 Prozent

Meta erkennt aus Gehirnaktivitäten ganze Sätze. Statt einer AGI strebt das FAIR-Team nach AMI – Advanced Machine Intelligence.

In Pocket speichern vorlesen Druckansicht 14 Kommentare lesen
Yann LeCun bei Meta in Paris.

Yann LeCun bei Meta in Paris.

(Bild: heise online / emw)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Mittels nicht-invasiver Aufnahmen will Meta erkennen können, was Menschen sagen möchten. Das ist eine der Errungenschaften, von denen Meta bei der Jubiläumsfeier des FAIR-Teams berichtet. FAIR steht für Fundamental AI Research, Leiter ist Yann LeCun, ein mehrfach ausgezeichneter KI-Experte. Fair hat seinen Sitz in Paris – seit nunmehr zehn Jahren. Hier entstand das erste Llama-Model, aber etwa auch PyTorch – die Programmierbibliothek, die inzwischen komplett der Open-Source-Community übergeben wurde.

Zunächst hat Meta gemeinsam mit weiteren Wissenschaftlern des Basque Center on Cognition, Brain and Language aus Spanien Studien durchgeführt. Das Unternehmen möchte zwei Ergebnisse präsentieren. Zum einen geht es um die Möglichkeit, Zeichen aus Hirnaufzeichnungen herauszulesen. Meta verspricht, 80 Prozent Genauigkeit erreicht zu haben. Das seien aber nach wie vor nur 4 von 5 richtige Buchstaben, erklärt Wissenschaftler Jean King. Ebenso häufig habe man ganze Sätze alleine aus den Gehirnsignalen rekonstruieren können. Die zweite Studie baut darauf auf und soll erklären, wie KI dabei helfen kann, die Gehirnsignale zu verstehen und in eine Folge von Wörtern und Sätzen umzuwandeln.

Meta nimmt Bezug auf invasive Verfahren, wie etwa das von Neuralink von Elon Musk. Diese seien mit Gefahren verbunden, eben weil sie invasiv sind, außerdem seien sie schwer zu skalieren, schreibt Meta in einem Blogbeitrag. Nicht-invasive Methoden hingegen seien bisher zu stark vom Rauschen der aufgezeichneten Signale ungenau geworden.

Für die Studie wurden die Gehirnaktivitäten von gesunden Probanden aufgezeichnet, als diese Sätze tippen sollten. In der Folge wurde ein KI-Modell mit den Daten trainiert. Genutzt wurden sowohl EEG- als auch MEG-Signale, also magnetische und elektrische.

Aber: Man sollte sich nicht zu früh freuen. Auch Meta sagt, es dauere noch, bis diese Methode in der klinischen Praxis angewendet werden kann. Die Decodierung sei zum einen noch unvollkommen, zum anderen müssen sich die Menschen in einem magnetisch abgeschirmten Raum befinden und dürfen sich nicht bewegen, damit die Signale aufgenommen werden können.

Die zweite vorgestellte Studie betrifft die neuronalen Mechanismen im Gehirn. "Unsere Studie zeigt, dass das Gehirn eine Abfolge von Repräsentationen erzeugt, die von der abstraktesten Ebene der Repräsentationen – der Bedeutung eines Satzes – beginnen und diese schrittweise in eine Vielzahl von Handlungen umwandeln, wie zum Beispiel die eigentliche Fingerbewegung auf der Tastatur." Das Gehirn zeige einen "dynamischen neuronalen Code", das heißt, es gibt kein einzelnes bestehendes Netz, es verändert sich.

Trotz aller Errungenschaften der vergangenen Jahre und dem Hype um Large Language Models sagt Meta, sei das Knacken des neuronalen Codes der Sprache eine der größten Herausforderungen der KI und Neurowissenschaften. Das "Verständnis der neuronalen Architektur und ihrer Berechnungsprinzipien ist daher ein wichtiger Weg zur Entwicklung der AMI", heißt es bei Meta.

AMI, Advanced Machine Intelligence, ist ein Wort, das bisher ausschließlich von Meta zu hören ist. Geprägt ist AMI von Metas KI-Chef Yann LeCun. Er hat gerade erst beim Weltwirtschaftsforum in Davos erzählt, dass er nicht glaube, Large Language Models (LLMs), wie wir sie aktuell kennen, würden sich auf lange Sicht durchsetzen. Er glaubt, es werde ein neues Paradigma geben. Offenbar nennt er es AMI.

LeCun sagt, LLMs hätten zu viele Limits, wenn es um die Weiterentwicklung oder sogar eine AGI gehe. Es fehlten etwa ausreichend Daten, man könne die Welt nicht mit Text abbilden, entsprechend müsse man um eine wirklich kluge KI zu entwickeln, etwa Video und mehr einfließen lassen. Es brauche ein Abbild der physischen Welt und schlussendlich ein Weltenmodell, in dem Maschinen die Abläufe der realen Welt lernen könnten – samt Gedächtnis, Intuition und logischem Denken.

LeCun ist außerdem Verfechter des Open-Source-Gedanken. Gemeinsam sei es einfacher, etwas Besseres zu entwickeln. Er sieht das, was Deepseek erreicht hat, auch als Sieg der offenen Systeme über die geschlossenen. Das chinesische Unternehmen habe sich unter anderem Metas frei verfügbares KI-Modell Llama zunutze gemacht und darauf etwas Neues aufgebaut, schreibt er etwa bei LinkedIn. Die Open-Source-Community meint allerdings, dass auch Metas KI-Modelle nicht offen genug seien, um als Open-Source bezeichnet zu werden.

Metas Chef Mark Zuckerberg hat zwar mehrfach gesagt, er halte es für richtig, KI möglichst frei zur Verfügung zu stellen, er sagt aber auch, dass man das nur könne, weil man mit anderen Diensten Geld verdiene. Zudem erwartet er, dass sich um Llama ein Ökosystem entwickelt, von dem Meta wiederum profitiert. OpenAI zum Vergleich verschließt sich komplett. Google bietet sowohl die offenen Modelle Gemma und die geschlossenen Modelle Gemini für die weitere Nutzung an.

Zu Metas Offenheit gehört auch, dass etwa DINOv2 unter anderem im Bereich Medizin genutzt und weiterentwickelt werden kann. DINO steht für Self-Distillation with no Labels. Das Modell kann Bilder klassifizieren und segmentieren, es ist also besonders geeignet, Unregelmäßigkeiten zu erkennen. BrightHeart ist ein französisches Unternehmen, die damit etwa Herzfehler bei fötalen Herzen feststellen können. Auch die neuesten Ergebnisse aus diesem Bereich wurden vorgestellt.

Transparenzhinweis: Die Autorin wurde von Meta zur Meta FAIR Jubiläumsfeier nach Paris eingeladen. Meta hat die Reisekosten übernommen. Vorgaben zur Art und zum Umfang unserer Berichterstattung gab es nicht.

(emw)