Spezialisierte KI-Chips sollen Training von Algorithmen beschleunigen

Für Deep Learning werden heute meist Grafikprozessoren verwendet. Stärker spezialisierte Hardware aber könnte künstliche Intelligenz stark beschleunigen.

In Pocket speichern vorlesen Druckansicht 11 Kommentare lesen
Spezielle Chips sollen Training von KI-Algorithmen viele Male schneller machen

(Bild: Argonne National Laboratory)

Lesezeit: 2 Min.
Von
  • Sascha Mattke

Am Argonne National Laboratory in den USA haben Tests mit neu entwickelter Hardware des Start-ups Cerebras begonnen, die rapide Fortschritte beim so genannten Deep Learning bringen sollen, einer wichtigen Form der künstlichen Intelligenz. Bislang laufen die Algorithmen dafür meist auf Grafikprozessoren (GPUs), die Vorteile bei der parallelen Verarbeitung von Daten bieten. Speziell für Deep Learning entwickelte Prozessoren aber könnten das Training von Deep-Learning-Algorithmen um mehrere Größenordnungen schneller machen, berichtet Technology Review online in „Chips nur für künstliche Intelligenz“.

Zwar haben GPUs mit Erfolg die KI-Revolution dieses Jahrzehnts vorangetrieben, aber ihre Ineffizienz begrenzt die Geschwindigkeit, mit der sie Algorithmen für Deep Learning ausführen können und sorgt dafür, dass sie dabei einen riesigen Energiebedarf haben. Als Reaktion darauf ist ein Rennen darum ausgebrochen, neue Chip-Architekturen speziell für künstliche Intelligenz zu entwickeln. Mit der richtigen Auslegung könnten sie Deep-Learning-Modelle 1000-mal schneller trainieren und würden deutlich weniger Energie benötigen. Cerebras gehört zu einer langen Liste von Unternehmen, die versuchen, diese Gelegenheit zu nutzen. Weitere Start-ups in diesem Bereich sind Graphcore, SambaNova und Groq, größere Anbieter Intel oder Nvidia.

Bislang hat sich der Cerebras-Computer bei den Tests bewährt. Sein Chip ist größer als ein iPad und hat 12 Billionen Transistoren für Berechnungen. Dadurch müssen nicht mehrere kleinere Prozessoren zusammengeschaltet werden, was das Trainieren von Modellen verlangsamen kann. In Tests konnte der Zeitaufwand schon von Wochen auf Stunden reduziert werden. „Wir wollen diese Modelle schnell genug trainieren können, dass der Wissenschaftler, der das Training betreibt, hinterher noch weiß, wie die Frage für das Training lautete“, sagt Rick Stevens, stellvertretender Labordirektor für Computing, Umwelt und Life Sciences.

Mehr dazu bei Technology Review online:

(sma)