Lokale KI auf dem MacBook Neo: Wie gut LLMs und Bild-KIs auf 8 GByte RAM laufen
Apples günstiges MacBook Neo krempelt den Notebook-Markt um. Aber reicht die Rechenleistung des iPhone-Chips auch für lokale KI-Sprachmodelle aus?
(Bild: Andreas Wodrich / heise medien / KI)
Rechenleistung wird immer teurer, Grund dafür ist die Speicherkrise! Ausgerechnet Apple verspricht Abhilfe: Das neue MacBook Neo ist mit einem Startpreis von 700 Euro der bisher günstigste Laptop des Konzerns. Aber lassen sich darauf auch hardwareintensive KI-Modelle lokal ausführen?
Die Ende 2020 eingeführte „Apple Silicon“-Architektur machte Macs nämlich zur idealen Umgebung, um Sprachmodelle (LLM) offline auf der eigenen Hardware zu betreiben. Im MacBook Neo steckt mit dem A18 Pro allerdings nur ein iPhone-Prozessor. Noch dazu ist der Arbeitsspeicher auf gerade einmal 8 GByte begrenzt. Und LLMs sind eigentlich besonders speicherhungrig.
- Trotz knappem RAM lassen sich auf dem MacBook Neo lokal multimodale Sprachmodelle ausführen, wenn auch nur kleinere Versionen mit weniger Parametern.
- Mit dem kostenlosen Tool Ollama integrieren Nutzer sogar eigene Offline-Coding-Modelle in Apples Entwicklungsumgebung Xcode.
- Das Generieren von KI-BIldern bringt das MacBook Neo jedoch schnell an seine Grenzen – ist aber trotzdem möglich, wie unser Test zeigt.
Die hauseigene Apple Intelligence enttäuschte bisher. Wir testen deshalb mit praxisnahen Anwendungsfällen, welche anderen KIs auf dem Laptop mit iPhone-Hardware laufen. Dafür installieren wir das Open-Source-Tool Ollama und laden Sprachmodelle wie Gemma 4. Außerdem messen wir die Performance von KI-Unterstützung in der Programmierumgebung Xcode – und wagen uns sogar an die besonders ressourcenhungrige Bildgenerierung mit ComfyUI.
Das war die Leseprobe unseres heise-Plus-Artikels "Lokale KI auf dem MacBook Neo: Wie gut LLMs und Bild-KIs auf 8 GByte RAM laufen". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.