Bericht: Meta Platforms testet selbst entwickelten Chip für KI-Training

Der von Meta selbst entwickelte KI-Beschleuniger soll die Abhängigkeit von Nvidia und Kosten reduzieren. Er ist für Empfehlungen und generative KI geplant.

vorlesen Druckansicht
Meta-Logo und Kopf eines weiblichen Roboters

(Bild: Below the Sky/Shutterstock.com)

Lesezeit: 3 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Meta Platforms hat bereits letztes Jahr damit begonnen, KI-Prozessoren aus Eigenbau einzusetzen, allerdings zunächst wohl nur als Inferenzbeschleuniger. Denn jetzt wird berichtet, dass der größte Betreiber sozialer Netzwerke seinen ersten selbst entwickelten KI-Chip auch für das Training künstlicher Intelligenz (KI) testet. Sollten diese Tests erfolgreich verlaufen, könnte dies aufgrund höherer Energieeffizienz Kosten sparen und die Abhängigkeit von Zulieferern wie Nvidia und dessen KI-Beschleunigern reduzieren.

Im April 2024 hatte Meta den selbst entwickelten KI-Beschleuniger MTIA für Facebook und Instagram vorgestellt. Dieser ist seinen Namen nach als "Meta Training and Inference Accelerator" (MTIA) sowohl für das Training von KI-Modellen als auch die Nutzung dieser Modelle für Entscheidungen und Vorhersagen geeignet, wobei letzteres als KI-Inferenz bezeichnet wird. KI-Inferenz stand offenbar zunächst im Vordergrund, doch nun kommt auch das KI-Training mit den MTIA-Chips hinzu.

Wie die Nachrichtenagentur Reuters berichtet, hat Meta Platforms damit begonnen, eine begrenzte Zahl der eigenen KI-Beschleuniger auch für das KI-Training einzusetzen. Details zu den Chips bleiben die ungenannten Quellen schuldig, aber sie sollen beim taiwanischen Auftragsfertiger TSMC produziert worden sein. Die KI-Beschleuniger sollen aufgrund der Beschränkung auf KI-Aufgaben energieeffizienter sein als Grafikkarten, die auch für KI genutzt werden.

Videos by heise

Das entspricht den Angaben von Meta selbst, denn für den letztes Jahr vorgestellten und bei TSMC im 5-Nanometer-Prozess gefertigten MTIA nannte der Konzern einen Stromverbrauch von 90 Watt pro Chip. KI-Stromverbrauch lässt sich schlecht einschätzen, aber KI-Beschleuniger wie Nvidias H100 und AMDs MI300X sind für 700 respektive 750 Watt pro Karte ausgelegt.

Weder Meta noch TSMC wollten den Bericht kommentieren, aber zuvor hatte der Betreiber von Facebook und Instagram schon erklärt, dass MTIA-Chips für das Empfehlungssystem dieser Plattformen genutzt werden – auf Basis bereits trainierter KI-Modelle. Damit werden für den Nutzer (vermeintlich) relevante Inhalte automatisch ausgespielt. Je zutreffender diese Empfehlungen sind, desto länger werden die Anwender auf der Plattform verweilen, was wiederum mehr Werbeeinnahmen generiert.

Nach früheren Angaben von Meta-Managern wollte der Konzern die eigenen Chips ab 2026 auch für das KI-Training nutzen. Auch hier sollte zunächst mit den Empfehlungen begonnen und die selbst entwickelten KI-Beschleuniger später auch für generative KI verwendet werden, etwa Metas eigenen KI-Chatbot. Dieses Vorgehen hat Chris Cox, leitender Produkt-Manager bei Meta, letzte Woche während einer Konferenz bestätigt: "Wir arbeiten daran, wie wir das Training für Empfehlungssysteme gestalten und wie wir schließlich über Training und Inferenz für generative KI denken."

(fds)