Lokale KI auf dem MacBook Neo: Wie gut LLMs und Bild-KIs auf 8 GByte RAM laufen

Apples günstiges MacBook Neo krempelt den Notebook-Markt um. Aber reicht die Rechenleistung des iPhone-Chips auch für lokale KI-Sprachmodelle aus?

Artikel verschenken
vorlesen Druckansicht

(Bild: Andreas Wodrich / heise medien / KI)

Lesezeit: 12 Min.
Inhaltsverzeichnis

Rechenleistung wird immer teurer, Grund dafür ist die Speicherkrise! Ausgerechnet Apple verspricht Abhilfe: Das neue MacBook Neo ist mit einem Startpreis von 700 Euro der bisher günstigste Laptop des Konzerns. Aber lassen sich darauf auch hardwareintensive KI-Modelle lokal ausführen?

Die Ende 2020 eingeführte „Apple Silicon“-Architektur machte Macs nämlich zur idealen Umgebung, um Sprachmodelle (LLM) offline auf der eigenen Hardware zu betreiben. Im MacBook Neo steckt mit dem A18 Pro allerdings nur ein iPhone-Prozessor. Noch dazu ist der Arbeitsspeicher auf gerade einmal 8 GByte begrenzt. Und LLMs sind eigentlich besonders speicherhungrig.

heise+ kompakt
  • Trotz knappem RAM lassen sich auf dem MacBook Neo lokal multimodale Sprachmodelle ausführen, wenn auch nur kleinere Versionen mit weniger Parametern.
  • Mit dem kostenlosen Tool Ollama integrieren Nutzer sogar eigene Offline-Coding-Modelle in Apples Entwicklungsumgebung Xcode.
  • Das Generieren von KI-BIldern bringt das MacBook Neo jedoch schnell an seine Grenzen – ist aber trotzdem möglich, wie unser Test zeigt.
Mehr MacBooks und Apple Hardware

Die hauseigene Apple Intelligence enttäuschte bisher. Wir testen deshalb mit praxisnahen Anwendungsfällen, welche anderen KIs auf dem Laptop mit iPhone-Hardware laufen. Dafür installieren wir das Open-Source-Tool Ollama und laden Sprachmodelle wie Gemma 4. Außerdem messen wir die Performance von KI-Unterstützung in der Programmierumgebung Xcode – und wagen uns sogar an die besonders ressourcenhungrige Bildgenerierung mit ComfyUI.

Das war die Leseprobe unseres heise-Plus-Artikels "Lokale KI auf dem MacBook Neo: Wie gut LLMs und Bild-KIs auf 8 GByte RAM laufen". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.