IDF: Laser auf'm Chip und Xeon Phi "Knights Mill" für Deep Learning

Am zweiten Tag des Intel-Entwicklertreffens stellt Intels Chefin der Datacenter Group einen neuen optischen Transceiver vor und kündigt einen neuen Xeon Phi an..

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
^IDF: Laser aufm Chip und Xeon Phi „Knighs Mill' für Deep Learning
Lesezeit: 3 Min.
Von
  • Andreas Stiller

Intels Datacenter-Chefin Diana Bryant konnte in ihrer Keynote am zweiten Tag des IDFs mit ein paar Highlights aufwarten, insbesondere dabei neue Produkte vorstellen oder ankündigen: den ersten Transceiver mit Laser auf einem Silizium-Chip und einen speziellen Xeon Phi für Deep Learning.

Photonics, so berichtete sie, werden im Datacenter immer wichtiger. Über 50 Prozent der Kosten für Vernetzung werden hier inzwischen für optische Transceiver und Kabel ausgegeben.

Diane Bryant zeigt den optischen Transceiver-Chip mit auf Silizium integriertem Laser

(Bild: c't / Andreas Stiller)

Zug um Zug wurden daher in den letzten Jahren die Photonics aufs Silizium gebracht, was kostengünstigere Lösungen ermöglicht. Intel hat auf den IDFs regelmäßig in der traditionellen Keynote des Chief Technology Officers darüber berichtet. Nun ist mit dem Laser auf'm Chip auch das letzte noch fehlende Element zum Produkt herangereift, wenn auch mit ziemlicher Verspätung. Stolz hielt Bryant einen Transceiver mit On-Chip-Laser hoch – eigentlich sollten der schon Anfang 2015 fertig sein.

Die Version, die jetzt im SFP28-Format auf den Markt kommt, arbeitet mit 100 GBit/s pro Richtung in zwei Glasfasern. Später soll dann eine mit 400 GBit/s (QSFP28) hinzukommen, die jeweils vier Fasern benötigt.

Ein weiteres interessantes Produkt wurde für noch später angekündigt. Vom Xeon Phi Knights Landing soll es gegen Ende 2017 ein Derivat namens Knights Mill geben, das für Künstliche Intelligenz und Deep Learning optimiert ist. Wie Nidhi Chappell, Intels Marketing-Direktorin für Maschinenlernen später im Round Table erklärte, geht es dabei hauptsächlich um eine Erweiterung des Befehlssatzes, die verstärkt für einfache und halbe Genauigkeit (FP16) ausgelegt ist.

Die aktuelle Vektorerweiterung AVX512 des Xeon Phi Knights Landing ist hingegen mehr für HPC und doppelte Genauigkeit optimiert. Künstliche Intelligenz nehme aber inzwischen einen immer größeren Anteil an der Rechenleistung in Datenzentren ein, so dass Intel speziell hierfür optimiert. Derzeit seien sieben Prozent der Workloads mit KI beschäftigt: Tendenz stark steigend.

Intel plant ein Xeon Phi Knights Landing Derivat "Knights Mill", optimiert für Deep Learning.

(Bild: c't / Florian Müssig)


Beim Cloud Computing arbeitet Intel eng mit den „Super7“ aus den USA und China zusammen, die mehr als 50 Prozent des Xeon-Marktanteils ausmachen, und die alle auch im Bereich KI stark engagiert sind: Facebook, Google, Microsoft, Amazon, Baidu, Alibaba und Tencent. Auf der IDF-Bühne wurde nun feierlich ein weiterer großer Cloud-Anbieter in dieser Gruppe aufgenommen: der US-Telekomriese AT&T. Super8 ist allerdings in den USA schon für eine große Billigmotelkette vergeben – so heißt die Gruppe jetzt Super 7+1.

(as)