KI-Update kompakt: Nvidia, OpenAI Verluste, Microsoft, KI-Asylverfahren

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Nvidia hat auf der CES seinen persönlichen KI-Supercomputer Project Digits vorgestellt. Er soll KI-Forschern, Datenwissenschaftlern und Studenten weltweit Zugang zur Leistung der Grace-Blackwell-Plattform bieten. Project Digits verwendet den neuen Nvidia GB10 Grace Blackwell Superchip, der in Zusammenarbeit mit MediaTek entwickelt wurde. Er bietet eine Petaflop-KI-Rechenleistung für Prototyping, Fine-Tuning und Ausführung großer KI-Modelle mit bis zu 200 Milliarden Parametern.

Mit Project Digits können Nutzer Modelle auf ihrem eigenen Desktop-System entwickeln und dann nahtlos auf beschleunigter Cloud- oder Rechenzentrumsinfrastruktur einsetzen. Das System wird ab Mai bei Nvidia und Partnern ab 3.000 US-Dollar erhältlich sein.

Nvidia stellt sogenannte "Blueprints" vor – vorgefertigte Bauanleitungen mit allen notwendigen Komponenten und Konfigurationen für die Entwicklung von KI-Agenten, die komplexe Aufgaben selbstständig planen und ausführen können.

Fünf KI-Unternehmen haben bereits eigene spezialisierte Blueprints für Anwendungen wie automatische Codedokumentation, Sprach-KI-Agenten, strukturierte Berichterstellung, Recherche-Assistenz und virtuelle KI-Assistenten entwickelt. Nvidia selbst bietet Blueprints für die Umwandlung von PDFs in Podcasts und für die Video-Analyse. Die technische Basis bilden die neuen Nemotron-Modelle für Textverarbeitung und Bildanalyse in drei Größen für verschiedene Anwendungsfälle. Die Umsetzung erfolgt über die Nvidia AI Enterprise Software, die in Rechenzentren und Cloud-Diensten eingesetzt werden kann.

Mit den "World Foundation Models" stellt Nvidia auf der Cosmos-Plattform eine neue Möglichkeit vor, fotorealistische Trainingsdaten für Roboter und autonome Fahrzeuge zu generieren, ohne teure reale Tests durchführen zu müssen.

Die World Foundation Models wurden mit 9.000 Billionen Token aus 20 Millionen Stunden Videomaterial trainiert. Sie sollen physikbasierte Videos aus verschiedenen Eingaben wie Text, Bild, Video sowie Robotersensor- oder Bewegungsdaten erzeugen können. Erste Anwender sind unter anderem der Fahrdienstvermittler Uber sowie Robotik-Unternehmen und Entwickler autonomer Fahrzeuge. Es gibt aber auch Kritik am Konzept der Videogeneratoren als Weltmodelle, da aktuelle Modelle laut Studien keine allgemeingültigen physikalischen Gesetze verstehen.

Microsoft-Vize Brad Smith hat einen mehrjährigen Plan für den Aufbau von Rechenzentren für Künstliche Intelligenz vorgestellt. Mehr als die Hälfte des KI-Budgets von insgesamt 80 Milliarden US-Dollar soll in Anlagen in den USA fließen.

Smith betont, dass solche GroĂźinvestitionen nicht nur die Hightech-Branche, sondern eine Vielzahl von Bereichen wie Bau, Energieversorgung und andere Infrastrukturanbieter betreffen. Vor allem von China will sich Microsoft mit seiner "American AI" absetzen. Neben den Rechenzentren seien die Entwicklung von Anwendungen mit KI sowie der Export an "Alliierte und Freunde" wichtig. Konkrete Standorte fĂĽr neue Rechenzentren nennt Smith nicht. Auf den zunehmend umstrittenen Energiebedarf fĂĽr KI geht er in seinem Blogpost nicht ein.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

OpenAI-CEO Sam Altman berichtet ĂĽberraschend von Verlusten beim Premium-Dienst ChatGPT Pro, der 200 US-Dollar monatlich kostet. Der Hauptgrund liegt in der unerwartet intensiven Nutzung des Dienstes, der unter anderem Zugang zum Videogenerator Sora bietet. Die finanziellen Herausforderungen von OpenAI sind vielschichtig: Hohe Entwicklungskosten fĂĽr neue KI-Modelle, Hardware, Personal und Energiekosten belasten das Budget. Allein das Training von GPT-4 soll 2023 etwa 80 Millionen US-Dollar gekostet haben.

Das Unternehmen bietet verschiedene Abonnement-Stufen an: einen kostenlosen Zugang mit GPT-4o mini, ein 20-Dollar-Abo mit erweitertem Zugriff und das 200-Dollar-Pro-Abonnement mit unbegrenztem Zugang zu allen Modellen sowie 500 Sora-Videos monatlich. In einem Blogbeitrag reflektiert Altman zusätzlich über die Herausforderungen beim Aufbau des Unternehmens, während er gleichzeitig die Vision einer Superintelligenz bekräftigt.

Podcast: KI-Update
KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Berlins Justizsenatorin Felor Badenberg hält den Einsatz Künstlicher Intelligenz in Gerichten für notwendig. Derzeit werden zwei Projekte getestet, darunter ein KI-gestütztes Recherchetool für Asylverfahren, das ab 2025 erprobt werden soll. Das Programm soll alle relevanten Informationen über die Situation im jeweiligen Herkunftsland zusammenstellen, die im Asylverfahren für eine Entscheidung nötig sind. Bislang stellen sich die Gerichte das jeweils selbst zusammen, was sehr zeitaufwendig ist.

Badenberg ist davon überzeugt, dass die Berliner Gerichte die Umstellung auf die elektronische Akte bis Anfang 2026 schaffen. Als herausfordernd gilt die Umstellung für Strafverfahren. In Berlin sollen bis zum Stichtag, dem 01. Januar 2026, insgesamt zwölf Gerichte mit mehr als 3.000 Mitarbeitern umgestellt werden.

Apples hauseigene KI-Lösung "Apple Intelligence" verzeichnet einen Anstieg im Speicherbedarf von ursprünglich 4 GB auf nun 7 GB. Diese Entwicklung ist besonders relevant, da Apple seine KI-Modelle direkt auf den Geräten betreibt statt in der Cloud – eine Strategie, die das Unternehmen mit Vorteilen bei Privatsphäre und Unabhängigkeit begründet. Der Start in Deutschland und anderen EU-Ländern ist für April 2025 geplant, wobei die Nutzung auf Englisch bereits jetzt mit einem Workaround möglich ist.

Mit iOS 18.2 wurden neue Funktionen eingefĂĽhrt, darunter die "Image Playground" App fĂĽr Comic-Stil-Bildgenerierung und "Genmojis" fĂĽr benutzerdefinierte Emojis. Weitere Verbesserungen, insbesondere fĂĽr Siri, stehen noch aus und werden mit iOS 18.4 erwartet. Eine komplette Neuaufstellung des Siri-Systems auf Basis von Sprachmodellen ist fĂĽr iOS 19 im Sommer geplant.

Eine unabhängige Untersuchung zeigt, dass OpenAIs neuestes Sprachmodell o1 bei Programmieraufgaben deutlich schlechter abschneidet als angegeben. Im "SWE-Bench Verified"-Benchmark löst es nur rund 30 Prozent der gestellten Aufgaben – deutlich weniger als die vom Unternehmen angegebenen knapp 49 Prozent.

Die große Diskrepanz zwischen den Testergebnissen ist auf die unterschiedliche Methodik zurückzuführen: OpenAI verwendete für seine Tests ein Programm, das der KI sehr enge Vorgaben macht, während der Forscher auf eines setzte, das der KI mehr Freiheiten bei der Problemlösung einräumt. Der Fall zeigt wieder einmal, dass die Ergebnisse von KI-Benchmarks von vielen Faktoren abhängen und es für Außenstehende schwierig ist, die tatsächliche Leistungsfähigkeit eines KI-Systems einzuschätzen, ganz zu schweigen vom praktischen Nutzen.

Das war das KI-Update von heise online vom 07. Januar 2025. Eine neue Folge gibt es jeden Werktag ab 15 Uhr.

(igr)