Snaps Specs: Echte AR-Brille mit KI-Funktionen ab 2026

Snap hat neue Specs vorgestellt. Die leichte AR-Brille mit KI-Funktionen ist ab 2026 für Verbraucher erhältlich.

vorlesen Druckansicht 9 Kommentare lesen
Die Brille zeigt den perfekten StoĂź am Billardtisch.

Dank Brille besser Billard spielen.

(Bild: Snap)

Lesezeit: 4 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

KI-Assistenz aus der Brille – alle großen Tech-Unternehmen arbeiten derzeit daran. Snap hat bereits die Augmented-Reality-Brille Spectacles 5 für Entwickler auf dem Markt und kündigt nun komplett neue Specs für 2026 an. Die Brille soll leichtgewichtig, immersiv, sowie mit mehr KI ausgestattet sein. Sie ist deutlich weniger klobig und vor allem ist sie für den Endverbraucher erhältlich. Die Specs sei der "fortschrittlichste Personal Computer" heißt es bei der Vorstellung.

Evan Spiegel, Mitgründer und CEO von Snap Inc. sagt bei der Augmented World Exhibition 2025: "Wir glauben, dass die Zeit reif ist für eine Revolution im Bereich Computing, die unsere digitalen Erlebnisse auf natürliche Weise mit der physischen Welt verbindet, und wir können es kaum erwarten, unsere neuen Specs nächstes Jahr öffentlich auf den Markt zu bringen." KI müsse vom Bildschirm in die reale Welt wechseln.

Durch die Specs sieht man Bezeichnungen fĂĽr einzelne Teile, die beim Reifenwechsel gebraucht werden.

(Bild: Snap)

Mit den Specs soll KI-Assistenz in einen dreidimensionalen Raum einziehen. Man kann durch die See-Through-Lenses schauen und sieht Objekte in seiner Umgebung. Die Steuerung der Brille, die keine Verbindung zu einem weiteren Gerät wie dem Handy benötigt, geschieht über die Hände, etwa mittels Pinch. Um bestimmte Funktionen wie das Telefon zu benutzen, brauchen die Specs dann aber doch ein Smartphone.

Bei Metas Ray-Ban-Brillen ist die Verbindung zur Meta-AI-App grundsätzlich nötig. Im Gestell der Meta-Ray-Bans stecken Kameras und Mikrofone, sodass man mit der KI über das sprechen kann, was man sieht. AR-Funktionen oder ein Display gibt es bisher nicht. Das soll erst mit der von Meta angekündigten Orion kommen. Die gibt es bisher jedoch nur als Prototyp.

Videos by heise

Erste Unternehmen haben bereits Anwendungen fĂĽr die Specs entwickelt. Gowaaas Dienst Super Travel soll helfen, Schilder, Speisekarten und mehr im Ausland zu ĂĽbersetzen. Mit Paradiddle kann man Schlagzeug spielen lernen und Cookmate hilft, ein Rezept zu finden, das zum Inhalt des KĂĽhlschranks passt.

Gowaaa ĂĽbersetzt Inhaltsstoffe im Supermarkt.

(Bild: Snap)

Dafür ziehen sowohl OpenAI als auch Google und andere Anbieter wie Deepseek mit ihren KI-Modellen bei den Specs beziehungsweise dem Betriebssystem SnapOS ein. Entwickler können Lenses erstellen, die auf den multimodalen Fähigkeiten der Modelle basieren – wie die automatische Übersetzung bei Super Travel. Snap erklärt zudem, alle Anwendungen liefen über das proprietäre Remote Service Gateway, was einen datenschutzgerechten Kamerazugang sicherstelle.

Mittels Depth Module API werden 2D-Informationen aus den Großen Sprachmodellen (LLMs) in AR-Informationen umgewandelt. Snap erklärt, das "erschließe ein neues Paradigma für räumliche Intelligenz". Die Automated Speech Recognition API ermögliche außerdem Echtzeit-Übersetzungen in mehr als 40 Sprachen. Und mit der Snap3D API können Entwickler 3D-Objekte für ihre Lenses erstellen – mittels GenAI.

Neu sind auch Entwickler-Tools für standortbasierte Erlebnisse. Gemeint ist, dass man beispielsweise AR-geführte Touren anbieten kann – durch Museen, in Städten oder bei Veranstaltungen. Es gibt auch einen geführten Modus für eine oder mehrere Personen zugleich. Per Flottenmanagement-App können Entwickler auf mehrere Specs zugleich aus der Ferne zugreifen.

Zunächst nur als "kommt bald" angekündigt ist die Unterstützung von WebXR im integrierten Browser. Die darunter zusammengefassten Standards machen VR- und AR-Erlebnisse im Web verfügbar. Heißt, man kann die Web-Inhalte dann auch auf der Brille nutzen. Gemeinsam mit Niantic Spatial wolle man eine KI-unterstütze Weltkarte erstellen.

Spiegel sagt bei seinem Auftritt, Snapchat sei die weltweit größte AR-Plattform. Die AR-Lenses würden acht Milliarden Mal am Tag genutzt. Bei Google gingen 14 Milliarden Anfragen am Tag ein. Hinzu kämen die zahlreichen Fälle, in denen das CameraKitSDK genutzt wird, um AR in anderen Apps anzubieten. Snap ist zum Beispiel auch für die AR-Erlebnisse in zahlreichen Stadien der USA verantwortlich, konkret etwa die Kiss-Cam, sowie für AR-Spiegel, die es in Malls oder bei Veranstaltungen gibt.

(emw)