NPU-Beschleunigung in der Praxis: Performance-Vorteile und Software-Support

Neural Processing Units erledigen KI-Berechnungen effizient und schnell. Wir haben uns unter Windows und macOS angeschaut, wie viel sie bei Anwendungen bringt.

Artikel verschenken
vorlesen Druckansicht
Ein Prozessor mit der Aufschrift NPU auf einer Leiterplatte

(Bild: Jessica Nachtigall / KI / heise medien)

Lesezeit: 11 Min.
Inhaltsverzeichnis

Kaum ein aktueller Prozessor in Notebooks und Mini-PCs kommt noch ohne Neural Processing Unit, kurz NPU. Diese auf KI-Berechnungen spezialisierten Hardware-Einheiten entlasten CPU- und GPU-Kerne und versprechen, KI-Software effizienter auszuführen. Doch was eine NPU im Alltag konkret bringt, lässt sich gar nicht so einfach nachmessen.

Apple und Microsoft integrieren immer mehr KI-Funktionen in ihre Betriebssysteme macOS und Windows 11 und nutzen dafür zum Teil NPUs. Das verlängert die Akkulaufzeiten, weil die NPU dabei weniger Strom frisst als CPU oder GPU. Zudem bleiben die Daten auf dem eigenen PC im Unterschied zu KI-Anwendungen in der Cloud.

c’t kompakt
  • Neural Processing Units stecken in vielen CPUs von AMD, Apple, Intel und Qualcomm.
  • Bei KI-Effekten in Foto-, Video- und Audioprogrammen können sie Zeit und Energie sparen.
  • Die SoftwareunterstĂĽtzung hängt aber manchmal vom jeweiligen Prozessor ab.
Mehr zum Thema KĂĽnstliche Intelligenz (KI)

Inzwischen verwenden auch viele Anwendungen anderer Hersteller die integrierten KI-Hardwarebeschleuniger. Wir haben uns verschiedene Programme aus den Bereichen Foto, Video und Audio näher angeschaut. Dabei haben wir auch geprüft, wo NPUs Zeit und Energie sparen und wo fehlende Softwareunterstützung den Vorteil zunichtemacht.

Das war die Leseprobe unseres heise-Plus-Artikels "NPU-Beschleunigung in der Praxis: Performance-Vorteile und Software-Support". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.