KI-Update: Smarte Apple-Brillen, Google, Open AI, CoreWeave
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Marko Pauli
- The Decoder
Apple arbeitet an smarten Brillen
Apple arbeitet an der Miniaturisierung seiner Mixed-Reality-Brille Vision Pro und erforscht parallel displaylose Smart Glasses nach dem Vorbild von Meta. Die Smart-Glass-Konzepte, die sich am erfolgreichen Ray-Ban-Modell von Meta orientieren, setzen auf Sprachsteuerung und Knochenschall-Lautsprecher zur Audioausgabe. Integrierte Kameras ermöglichen Foto- und Videoaufnahmen, die sich durch KI analysieren lassen.
Laut Bloomberg befindet sich das Projekt noch in einer frühen Entwicklungsphase. Apple plant offenbar, eine konventionelle Brille mit AirPods-Technologie zu kombinieren. Während zunächst auf ein Display verzichtet werden soll, bleiben echte Augmented-Reality-Brillen ein langfristiges Entwicklungsziel.
Derzeit steht Apple vor Herausforderungen bei der Weiterentwicklung seines KI-Systems Apple Intelligence. Die Sprachassistentin Siri, die 2026 ihr 15-jähriges Jubiläum feiert, erhält angekündigte KI-Funktionen später als geplant. Im Gegensatz zu Systemen wie ChatGPT verfügt Siri bislang nicht über echte Konversationsfähigkeiten.
Smarte Brillen: Google will Eyetracking-Start-up übernehmen
Google steht kurz vor der Übernahme des kanadischen Startups AdHawk Microsystems, das eine innovative Eyetracking-Technologie für smarte Brillen entwickelt hat. Die Besonderheit: Statt Kameras nutzt AdHawk ein mikro-elektromechanisches System, das mit deutlich weniger Daten und Rechenleistung auskommt und eine sehr geringe Latenz aufweist.
Die Technologie findet vielfältige Anwendungen, von der Analyse von Sportlerbewegungen beim Eishockey bis hin zu medizinischen Untersuchungen. Der Kaufpreis soll bei 115 Millionen US-Dollar liegen, teilweise leistungsabhängig.
Interessant ist, dass auch Meta zuvor Interesse an AdHawk zeigte, jedoch keine Übernahme zustande kam. Einer der Hauptinvestoren von AdHawk ist Essilor Luxottica, der Eigentümer von Ray-Ban und Partner von Meta bei deren Smart Glasses.
Google selbst hatte bereits bei der I/O im vergangenen Jahr sein erneutes Interesse an smarten Brillen demonstriert. Unter dem Namen Project Astra wurde eine Demonstration gezeigt, bei der ein Nutzer mittels Brille und Gemini-KI seine Umgebung analysierte. Diese Funktion ist mittlerweile als Smartphone-App verfügbar. Es ist ein bemerkenswerter Neustart für Google im Bereich smarter Brillen, nachdem die frühere Google Glass aufgrund von Datenschutzbedenken gescheitert war.
OpenAI stellt Entwickler-Tools für KI-Agenten vor
OpenAI hat neue Tools für Entwickler vorgestellt, die es einfacher machen sollen, KI-Agenten zu bauen. Und Sam Altman enthüllte auf X ein neues KI-Modell.
Die neue Responses API kombiniert laut OpenAI die Einfachheit der bisherigen Chat Completions API mit den Tool-Fähigkeiten der Assistants API. Sie soll eine flexiblere Basis für die Entwicklung von Agentenanwendungen bieten, unter anderem durch integrierte Tools für die Web- und Dateisuche sowie die Computernutzung. Außerdem veröffentlicht OpenAI ein Open-Source Agents SDK, das Entwicklern helfen soll, komplexe Abläufe zwischen mehreren KI-Agenten sicherer und effizienter zu koordinieren. Es baut auf dem Agenten-Framework Swarm auf, das das Unternehmen bereits vor einigen Monaten veröffentlichte. OpenAI plant, die bestehende Assistants API mittelfristig vollständig durch die neue Responses API zu ersetzen.
OpenAI hat außerdem ein neues Sprachmodell speziell für kreatives Schreiben trainiert, wie CEO Sam Altman auf X verkündete. Er sei erstmals wirklich beeindruckt von einem von KI geschriebenen Text, der aus seiner Sicht den Ton einer „metafiktionalen literarischen Kurzgeschichte über KI und Trauer" genau richtig traf. Wie und wann das Modell veröffentlicht wird, ist bisher nicht klar. Grund könnte auch sein, dass OpenAI sich derzeit in Rechtsstreitigkeiten mit zahlreichen Autorinnen und Autoren befindet, da es in der Vergangenheit auch urheberrechtlich geschützte Bücher ohne Erlaubnis für das Training seiner Modelle verwendet hat.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
OpenAI pumpt 11,9 Milliarden US-Dollar in CoreWeave
Die Verflechtungen zwischen Microsoft, OpenAI und CoreWeave werden durch einen neuen Großauftrag noch enger. OpenAI investiert bis zu 11,6 Milliarden US-Dollar in die Nutzung von CoreWeaves Rechenzentren für das Training und den Betrieb seiner KI-Modelle. Zusätzlich plant OpenAI, beim bevorstehenden Börsengang von CoreWeave für 350 Millionen Dollar einen Unternehmensanteil zu erwerben.
Die Laufzeit des Vertrags wurde nicht bekannt gegeben, scheint aber angesichts der strategischen Bedeutung für CoreWeaves geplanten Börsengang zweitrangig. Das Start-up, das im vergangenen Jahr einen Umsatz von knapp zwei Milliarden Dollar erwirtschaftete – größtenteils durch Microsoft – festigt damit seine Position im KI-Markt. Die Transaktion unterstreicht die enge Verbindung zwischen den drei Unternehmen, wobei Microsoft sowohl Hauptinvestor von OpenAI ist als auch wichtigster Kunde von CoreWeave.
Nvidia-Alternative plant KI-Rechenzentren
Der KI-Chiphersteller Cerebras-Systems will seine Kapazitäten mit neuen Rechenzentren in Nordamerika und Europa ausbauen. Die Anlagen von Cerebras sind auf die Ausführung von KI-Modellen spezialisiert und sollen Modelle wie Metas Llama-70B mit bis zu 40 Millionen Tokens pro Sekunde verarbeiten können.
Grundlage der Anlagen sind spezielle Wafer-Scale-Chips, bei denen ein kompletter Siliziumwafer als einzelner Chip eingesetzt wird. Allein das geplante Zentrum in Oklahoma City soll etwa 300 dieser Systeme erhalten.
Erste Kunden der neuen Infrastruktur sind unter anderem das KI-Startup Mistral, die Suchmaschine Perplexity sowie HuggingFace und AlphaSense. Ab Mitte 2025 sollen die ersten Standorte betriebsbereit sein.
Eine neue KI aus China sieht sich als Artificial General Intelligence
Nach DeepSeek kündigt sich mit Manus ein weiterer vielversprechender KI-Neuling aus China an. Ein Video auf der Webseite des Projekts spricht von "potentially, a glimpse into AGI". AGI steht für Artificial General Intelligence, eine bislang theoretische Form künstlicher Intelligenz, die über die menschliche Fähigkeit verfügt, beliebige Aufgaben kognitiv zu bewältigen. Im Gegensatz zu traditionellen KIs soll Manus komplexe Aufgaben vollständig autonom ausführen. Die Behauptungen lassen sich derzeit nur schwer überprüfen, denn der Zugang ist noch "by invitation only".
Ein recht enthusiastischer Bericht beim Wirtschaftsmagazin Forbes spricht im Zusammenhang mit Manus von einem Multi-Agent-System, also ein Konglomerat aus autonomen Agenten, die miteinander kooperieren oder auch konkurrieren können. Durch die Interaktion betrachten sie Probleme aus verschiedenen Blickwinkeln und lösen so komplexe Aufgaben, die ein einzelner Agent nicht bewältigen könnte.
Ein Multi-Agent-System potenziert so nicht nur die Möglichkeiten, sondern auch den Gesamttrainingsaufwand. Spezialisierte Teilsysteme sind allerdings auch einfacher up-to-date zu halten.
Die meisten verfügbaren Reviews scheinen sich allerdings auf Informationen aus zweiter Hand zu stützen. Ob Manus die KI-Welt wie DeepSeek umkrempelt oder ob es wie Devin in der Versenkung verschwindet, werden ausführliche Tests klären. Ein Erfahrungsbericht auf TechCrunch zeigt eher Enttäuschung als Euphorie.
Meta Platforms testet selbst entwickelten Chip für KI-Training
Bereits im vergangenen Jahr hat der Konzern Meta Platforms damit begonnen, KI-Prozessoren aus Eigenbau einzusetzen, allerdings zunächst wohl nur als Beschleuniger. Jetzt allerdings soll der größte Betreiber sozialer Netzwerke diesen ersten selbst entwickelten KI-Chip namens MTIA auch für das Training künstlicher Intelligenz (KI) testen.
Sollten die Tests erfolgreich verlaufen, könnte dies aufgrund höherer Energieeffizienz Kosten sparen und die Abhängigkeit von Zulieferern wie Nvidia und dessen KI-Beschleunigern reduzieren.
Die Chips sollen aufgrund der Beschränkung auf KI-Aufgaben energieeffizienter sein als Grafikkarten, die auch für KI genutzt werden.
Gigabytes für KI: Versteckt Apple Intelligence Speicherverbrauch auf dem Mac?
Eine Installation von Apple Intelligence, also Apples Sprachmodellen und Bildgeneratoren auf Mac, iPhone oder iPad kann ordentlich Platz belegen. Das will Apple offenbar verbergen. So lässt sich in den Systemeinstellungen nicht mehr nachverfolgen, wieviel Platz Apple Intelligence belegt.
Apples KI-System Apple Intelligence wird auf unterstützten Systemen mittlerweile automatisch gestartet und auch in den Betriebssystemen ist es zunehmend tief verankert.
Doch es gibt auch Gründe, Apple Intelligence nicht zu nutzen: Seien es nun Datenschutzbefürchtungen oder die Tatsache, dass man im bisherigen Funktionsumfang wenig Lohnenswertes findet. Ein weiterer Grund also, sich gegen Apple Intelligence, das im April auf Deutsch erscheint, zu entscheiden, ist die große Menge Speicherplatz, die dafür benötigt wird. So sorgt das Anschalten des KI-Systems dafür, dass das Betriebssystem Gigabyte-schwere Modelle nachlädt. Unter macOS 15.3.1 waren das auf einem Test-Mac beispielsweise knapp 4,8 GByte.
(mali)