KI-Update kompakt: KI-Rechenzentren, Flux 2, KI-Framework MLX, OpenAI-Hardware
Das "KI-Update" liefert drei mal pro Woche eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel GrĂĽnewald
- The Decoder
Attacken auf Nvidia-KI-Systeme DGX Spark und NeMo möglich
Nvidias KI-Hardware DGX Spark und die Software NeMo Framework weisen mehrere Schwachstellen auf. Mit NeMo können Entwickler große Sprachmodelle aufsetzen. DGX Spark ist ein auf KI-Anwendungen spezialisierter Computer.
Im schlimmsten Fall können Angreifer die Systeme nach der Ausführung von Schadcode komplett übernehmen. Neue Sicherheitsupdates schließen die Lücken und sollten sofort eingespielt werden.
Amazon pumpt 50 Milliarden in Regierungs-KI-Rechenzentren
Amazon Web Services will bis zu 50 Milliarden Dollar in KI- und Supercomputing-Infrastruktur für US-Regierungsbehörden stecken. Ab 2026 sollen neue Rechenzentren mit einer Kapazität von 1,3 Gigawatt entstehen, was dem Strombedarf von 750 000 US-Haushalten entspricht. Die Infrastruktur wird über drei spezialisierte AWS-Regionen verteilt: AWS Top Secret für höchst klassifizierte Daten, Secret für geheime Informationen und GovCloud für sensible, aber nicht klassifizierte Rechenaufgaben.
Die Investition passt zur Genesis Mission von US-Präsident Donald Trump. Diese Initiative soll KI-Forschungsressourcen zwischen Regierung, Privatwirtschaft und Universitäten bündeln. Verteidigungsbehörden sollen Satellitenbilder, Sensordaten und historische Muster im großen Maßstab verarbeiten können, um Bedrohungen automatisch zu erkennen. Über 11.000 US-Regierungsbehörden nutzen bereits AWS-Dienste.
Anthropic stellt Claude Opus 4.5 vor
Anthropic hat sein neues Spitzenmodell Claude Opus 4.5 vorgestellt. Das Unternehmen bezeichnet es als das weltweit leistungsfähigste Modell für Programmierung, autonome Agenten und Computersteuerung. Opus 4.5 soll bei Recherche, der Arbeit mit Folien und dem Ausfüllen von Tabellenkalkulationen besser als der Vorgänger sein.
Anthropic hat neue Tools innerhalb von Claude Code und den Claude-Apps veröffentlicht. Bei Claude für Excel wird ein Chat in Microsofts Tabellenkalkulationsprogramm integriert, mit dem Informationen über Tabelleninhalte direkt erfragt und bearbeitet werden können. Das neue Modell soll schwieriger durch Prompt-Injection-Angriffe zu täuschen sein als jedes andere Modell in der Branche, vollkommen immun ist es aber nicht. Claude Opus 4.5 ist über die Apps von Anthropic, die API und alle drei großen Cloud-Anbieter verfügbar.
Black Forest Labs veröffentlicht Bildmodell Flux 2
Black Forest Labs, ein deutscher KI-Modellentwickler, bringt eine neue Modellfamilie für die Bildgenerierung auf den Markt. Die Flux 2 Modelle sollen hochauflösende Bilder erzeugen und mehrere Referenzbilder gleichzeitig verarbeiten. Die Modelle unterstützen Auflösungen bis zu vier Megapixeln. Nutzer können bis zu zehn Referenzbilder einbinden, um Charaktere, Produkte oder Stile über viele Bilder hinweg einheitlich darzustellen.
Technisch kombiniert Flux 2 ein Sprach-Bild-Modell von Mistral mit einem Rectified Flow Transformer-Modell. Die Modellfamilie umfasst vier Varianten: Die Pro-Version richtet sich an Anwender, die hohe Bildqualität benötigen und das System über APIs nutzen wollen. Die Flex-Version erlaubt mehr Kontrolle über technische Parameter. Eine zusätzliche Dev-Version stellt offene Gewichte bereit und kann lokal ausgeführt werden. Eine kleinere Open-Source-Version soll später erscheinen.
Externe KI-Chatbots mĂĽssen WhatsApp Anfang 2026 verlassen
Meta hat die geschäftlichen Nutzungsbedingungen von WhatsApp aktualisiert und die Einbindung von KI-Angeboten von Drittanbietern ab dem 15. Januar 2026 verboten. Externe KI-Chatbots wie Microsofts Copilot fliegen damit aus dem Messaging-Dienst, nur noch die konzerneigene Meta AI wird bleiben.
Die Drittanbieter nutzen fĂĽr ihre KI-Assistenten Business-APIs von WhatsApp. Diese sind allerdings vorrangig fĂĽr den Kundendienst per WhatsApp gedacht, eine der Einnahmequellen des Messengers, und nicht fĂĽr allgemeine KI-Chatbots. Externe KI-Anbieter haben die Programmierschnittstellen in letzter Zeit offenbar zunehmend dafĂĽr genutzt, sodass Metas Systeme immer mehr belastet wurden.
Meta vor milliardenschwerem Kauf von Googles KI-Chips?
Meta verhandelt laut einem Bericht des US-Magazins The Information mit Google über KI-Chips. Der Facebook-Konzern könnte Milliarden für Googles TPU-Chips ausgeben und diese in hauseigenen Rechenzentren einsetzen. Es geht um bis zu 10 Prozent des Marktanteils des Marktführers. Googles TPUs sind vorwiegend billiger als Nvidias Technik.
Bislang kommen diese Chips primär in Googles eigenen Anlagen zum Einsatz, dort können sie auch von der Kundschaft gemietet werden. Mit dem Verkauf an andere Betreiber großer Rechenzentren würde Google direkter in Konkurrenz zu Nvidia treten. Der Bericht ließ die Nvidia-Aktie abrutschen. In einem ungewöhnlichen Schritt hat Nvidia auf dem Kurznachrichtendienst X versichert, sich über den Erfolg von Google zu freuen, aber der Branche eine Generation voraus zu sein. Die Nvidia-Aktie schloss fast drei Prozent im Minus.
Nvidia wehrt sich gegen Vergleich mit Enron
Nvidia hat sich gegen Vorwürfe des US-Hedgefonds-Managers Michael Burry verteidigt. Er hat das Geschäftsmodell des Halbleiterherstellers mit einem der größten Betrugsskandale der US-Wirtschaft verglichen. Im Kern geht es um die Bewertung von Nvidia-Deals, bei denen Milliarden in KI-Firmen gesteckt werden, die im Gegenzug das Geschäft von Nvidia stärken.
Burry hat darauf hingewiesen, dass Nvidia in großem Umfang eigene Aktien zurückgekauft und gleichzeitig mit Anteilen vergütet hat, was den Preis verwässert habe. In einem Brief an Investoren hat Nvidia versichert, nicht wie einst der Energiekonzern Enron Schulden zu verstecken und Einnahmen künstlich zu übertreiben.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Apple nennt mehr Details zu KI-Framework MLX
Apple hat Verbesserungen in macOS 26.2 vorgenommen, die die lokale Ausführung großer Sprachmodelle beschleunigen sollen. Via Thunderbolt 5 lassen sich latenzarme Cluster mit bis zu vier Macs aufbauen, die in der Lage sind, auch riesige Sprachmodelle wie Kimi K2 Thinking mit einer Größe von einem Terabyte auszuführen. Für Normalanwender ist die Hardware aus vier M3-Ultra-Mac-Studios mit fast 47 000 € allerdings zu teuer, dafür verbraucht sie nur 500 Watt.
Apples KI-Framework MLX wurde optimiert. Es beherrscht nun den Umgang mit dem Neural Accelerator aus Apples neuem M5-Chip. Die Ausgabegeschwindigkeit des ersten Tokens soll sich damit bei einem Qwen3-8B-Modell bis zu vervierfachen lassen. MLX ist quelloffen und wird von immer mehr lokalen KI-Modellen auf dem Mac verwendet. Mit der Auslieferung von macOS 26.2 ist im Dezember zu rechnen.
Mexiko erhält einen nationalen Supercomputer
Die mexikanische Regierung hat mit dem Barcelona Supercomputing Center eine Vereinbarung über den Bau eines nationalen Supercomputers geschlossen. Das Projekt schaffe das größte öffentliche Hochleistungsrechnersystem Lateinamerikas. Die vorläufigen Rechenkapazitäten werden in Spanien gehostet.
Der Supercomputer soll zunächst zur Entwicklung fortschrittlicher Klimamodelle, zur Analyse von Millionen von Satellitenbildern zur Überwachung der Landwirtschaft, zur massiven Verarbeitung von Daten der Steuerbehörde und des Zolls sowie für das Training von KI-Sprachmodellen für staatliche Institutionen eingesetzt werden.
OpenAI will Hardware zum "ReinbeiĂźen"
OpenAI investiert Milliarden, um zusammen mit Ex-Apple-Designchef Jony Ive und dessen Firma LoveFrom Hardware zu bauen. In einem Interview beim Emerson Collective Demo Day in San Francisco äußerten sich die beiden jetzt, gaben aber weiterhin keine Details preis. Es bleibt unklar, ob die OpenAI-Hardware ein Wearable, ein tragbares Gerät wie ein iPhone oder eine zumindest teilweise portable Schreibtischmaschine ist.
Altman und Ive versuchten stattdessen, dem Publikum einen Eindruck zu vermitteln. Die bisherigen Prototypen seien so gut, dass einem die Kinnlade "runterklappe". Das Design sei dann richtig, wenn man das Gerät "ablecken oder anbeißen" wolle. Das sei bei den Prototypen bereits so. Die KI-Hardware sei so gedacht, dass sie ein aktiv Beitragender werde und dabei nicht nervt. Die OpenAI-Hardware soll im kommenden Jahr auf den Markt kommen. Geplant ist danach wohl eine ganze Familie von KI-Geräten.
(igr)