KI-Update kompakt: Nvidia, OpenAI Verluste, Microsoft, KI-Asylverfahren
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel GrĂĽnewald
- The Decoder
Nvidias Project Digits ist der "weltweit kleinste KI-Supercomputer" auch fĂĽr den Privatgebrauch
Nvidia hat auf der CES seinen persönlichen KI-Supercomputer Project Digits vorgestellt. Er soll KI-Forschern, Datenwissenschaftlern und Studenten weltweit Zugang zur Leistung der Grace-Blackwell-Plattform bieten. Project Digits verwendet den neuen Nvidia GB10 Grace Blackwell Superchip, der in Zusammenarbeit mit MediaTek entwickelt wurde. Er bietet eine Petaflop-KI-Rechenleistung für Prototyping, Fine-Tuning und Ausführung großer KI-Modelle mit bis zu 200 Milliarden Parametern.
Mit Project Digits können Nutzer Modelle auf ihrem eigenen Desktop-System entwickeln und dann nahtlos auf beschleunigter Cloud- oder Rechenzentrumsinfrastruktur einsetzen. Das System wird ab Mai bei Nvidia und Partnern ab 3.000 US-Dollar erhältlich sein.
Nvidia will KI-Agenten-Entwicklung mit fertigen Blaupausen beschleunigen
Nvidia stellt sogenannte "Blueprints" vor – vorgefertigte Bauanleitungen mit allen notwendigen Komponenten und Konfigurationen für die Entwicklung von KI-Agenten, die komplexe Aufgaben selbstständig planen und ausführen können.
Fünf KI-Unternehmen haben bereits eigene spezialisierte Blueprints für Anwendungen wie automatische Codedokumentation, Sprach-KI-Agenten, strukturierte Berichterstellung, Recherche-Assistenz und virtuelle KI-Assistenten entwickelt. Nvidia selbst bietet Blueprints für die Umwandlung von PDFs in Podcasts und für die Video-Analyse. Die technische Basis bilden die neuen Nemotron-Modelle für Textverarbeitung und Bildanalyse in drei Größen für verschiedene Anwendungsfälle. Die Umsetzung erfolgt über die Nvidia AI Enterprise Software, die in Rechenzentren und Cloud-Diensten eingesetzt werden kann.
Nvidia stellt videobasierte "Weltmodelle" vor, die Physik verstehen sollen
Mit den "World Foundation Models" stellt Nvidia auf der Cosmos-Plattform eine neue Möglichkeit vor, fotorealistische Trainingsdaten für Roboter und autonome Fahrzeuge zu generieren, ohne teure reale Tests durchführen zu müssen.
Die World Foundation Models wurden mit 9.000 Billionen Token aus 20 Millionen Stunden Videomaterial trainiert. Sie sollen physikbasierte Videos aus verschiedenen Eingaben wie Text, Bild, Video sowie Robotersensor- oder Bewegungsdaten erzeugen können. Erste Anwender sind unter anderem der Fahrdienstvermittler Uber sowie Robotik-Unternehmen und Entwickler autonomer Fahrzeuge. Es gibt aber auch Kritik am Konzept der Videogeneratoren als Weltmodelle, da aktuelle Modelle laut Studien keine allgemeingültigen physikalischen Gesetze verstehen.
Microsoft will dieses Jahr 80 Milliarden Dollar in KI-Rechenzentren stecken
Microsoft-Vize Brad Smith hat einen mehrjährigen Plan für den Aufbau von Rechenzentren für Künstliche Intelligenz vorgestellt. Mehr als die Hälfte des KI-Budgets von insgesamt 80 Milliarden US-Dollar soll in Anlagen in den USA fließen.
Smith betont, dass solche GroĂźinvestitionen nicht nur die Hightech-Branche, sondern eine Vielzahl von Bereichen wie Bau, Energieversorgung und andere Infrastrukturanbieter betreffen. Vor allem von China will sich Microsoft mit seiner "American AI" absetzen. Neben den Rechenzentren seien die Entwicklung von Anwendungen mit KI sowie der Export an "Alliierte und Freunde" wichtig. Konkrete Standorte fĂĽr neue Rechenzentren nennt Smith nicht. Auf den zunehmend umstrittenen Energiebedarf fĂĽr KI geht er in seinem Blogpost nicht ein.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
OpenAI macht Verluste mit ChatGPT Pro
OpenAI-CEO Sam Altman berichtet ĂĽberraschend von Verlusten beim Premium-Dienst ChatGPT Pro, der 200 US-Dollar monatlich kostet. Der Hauptgrund liegt in der unerwartet intensiven Nutzung des Dienstes, der unter anderem Zugang zum Videogenerator Sora bietet. Die finanziellen Herausforderungen von OpenAI sind vielschichtig: Hohe Entwicklungskosten fĂĽr neue KI-Modelle, Hardware, Personal und Energiekosten belasten das Budget. Allein das Training von GPT-4 soll 2023 etwa 80 Millionen US-Dollar gekostet haben.
Das Unternehmen bietet verschiedene Abonnement-Stufen an: einen kostenlosen Zugang mit GPT-4o mini, ein 20-Dollar-Abo mit erweitertem Zugriff und das 200-Dollar-Pro-Abonnement mit unbegrenztem Zugang zu allen Modellen sowie 500 Sora-Videos monatlich. In einem Blogbeitrag reflektiert Altman zusätzlich über die Herausforderungen beim Aufbau des Unternehmens, während er gleichzeitig die Vision einer Superintelligenz bekräftigt.
KI-Projekt fĂĽr Asylverfahren in Berlin im Test
Berlins Justizsenatorin Felor Badenberg hält den Einsatz Künstlicher Intelligenz in Gerichten für notwendig. Derzeit werden zwei Projekte getestet, darunter ein KI-gestütztes Recherchetool für Asylverfahren, das ab 2025 erprobt werden soll. Das Programm soll alle relevanten Informationen über die Situation im jeweiligen Herkunftsland zusammenstellen, die im Asylverfahren für eine Entscheidung nötig sind. Bislang stellen sich die Gerichte das jeweils selbst zusammen, was sehr zeitaufwendig ist.
Badenberg ist davon überzeugt, dass die Berliner Gerichte die Umstellung auf die elektronische Akte bis Anfang 2026 schaffen. Als herausfordernd gilt die Umstellung für Strafverfahren. In Berlin sollen bis zum Stichtag, dem 01. Januar 2026, insgesamt zwölf Gerichte mit mehr als 3.000 Mitarbeitern umgestellt werden.
Apple Intelligence frisst inzwischen doppelt so viel Speicher wie zu Beginn
Apples hauseigene KI-Lösung "Apple Intelligence" verzeichnet einen Anstieg im Speicherbedarf von ursprünglich 4 GB auf nun 7 GB. Diese Entwicklung ist besonders relevant, da Apple seine KI-Modelle direkt auf den Geräten betreibt statt in der Cloud – eine Strategie, die das Unternehmen mit Vorteilen bei Privatsphäre und Unabhängigkeit begründet. Der Start in Deutschland und anderen EU-Ländern ist für April 2025 geplant, wobei die Nutzung auf Englisch bereits jetzt mit einem Workaround möglich ist.
Mit iOS 18.2 wurden neue Funktionen eingefĂĽhrt, darunter die "Image Playground" App fĂĽr Comic-Stil-Bildgenerierung und "Genmojis" fĂĽr benutzerdefinierte Emojis. Weitere Verbesserungen, insbesondere fĂĽr Siri, stehen noch aus und werden mit iOS 18.4 erwartet. Eine komplette Neuaufstellung des Siri-Systems auf Basis von Sprachmodellen ist fĂĽr iOS 19 im Sommer geplant.
Forscher liefern weiteren Grund zur Skepsis bei KI-Benchmarks
Eine unabhängige Untersuchung zeigt, dass OpenAIs neuestes Sprachmodell o1 bei Programmieraufgaben deutlich schlechter abschneidet als angegeben. Im "SWE-Bench Verified"-Benchmark löst es nur rund 30 Prozent der gestellten Aufgaben – deutlich weniger als die vom Unternehmen angegebenen knapp 49 Prozent.
Die große Diskrepanz zwischen den Testergebnissen ist auf die unterschiedliche Methodik zurückzuführen: OpenAI verwendete für seine Tests ein Programm, das der KI sehr enge Vorgaben macht, während der Forscher auf eines setzte, das der KI mehr Freiheiten bei der Problemlösung einräumt. Der Fall zeigt wieder einmal, dass die Ergebnisse von KI-Benchmarks von vielen Faktoren abhängen und es für Außenstehende schwierig ist, die tatsächliche Leistungsfähigkeit eines KI-Systems einzuschätzen, ganz zu schweigen vom praktischen Nutzen.
Das war das KI-Update von heise online vom 07. Januar 2025. Eine neue Folge gibt es jeden Werktag ab 15 Uhr.
(igr)