KI-Update kompakt: Nvidia GB200 NVL2, UALink, Xi-Jinping-LLM, Selbstfürsorge

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 9 Min.
Von
Inhaltsverzeichnis

Nvidia stellt mit dem GB200 NVL2 einen neuen Rackserver für das Training großer KI-Modelle vor. Der Rackeinschub GB200 NVL2 im MGX-Format bietet zwei GB200-Prozessoren für das Training großer KI-Modelle. Jeder GB200 besteht aus einem Blackwell-Doppelchip und einer Grace-CPU.

Das Gesamtsystem erreicht eine FP4-Rechenleistung von 40 Petaflops und verfügt über 1,3 TByte Arbeitsspeicher, davon 384 GByte als schneller HBM3e-RAM mit 8 TByte/s Durchsatz. Die beiden GB200 kommunizieren über NVLink mit 2 x 900 GByte/s. Damit eignet sich der Server zum Training großer generativer KI-Modelle.

Ausblickend kündigte Huang die Nachfolger Blackwell Ultra für 2025 mit mehr HMB3e sowie die Rubin-Plattform für 2026 mit HBM4, der Arm-CPU Vera und neuen Netzwerk-Chips an.

AMD, Broadcom, Cisco, Google, HPE, Intel, Meta und Microsoft kooperieren beim offenen Interconnect Ultra Accelerator Link (UALink) als Alternative zu NVLinks proprietärer Vernetzungstechnik für KI-Cluster. UALink basiert auf Ultra Ethernet und dem Compute Express Link (CXL) auf Basis von PCIe 5.0.

Durch Nvidias Dominanz bei KI-Beschleunigern und die Übernahme von Mellanox setzt sich NVLink als Interconnect-Standard durch. UALink soll eine offene Alternative bieten und die direkte Kopplung der KI-Beschleuniger innerhalb und zwischen Rechenknoten mit hoher Bandbreite und niedriger Latenz ermöglichen.

Innerhalb der Knoten kommen proprietäre Verfahren wie AMD Infinity Fabric oder der offene CXL-Standard zum Einsatz. UALink soll die Brücke zwischen bis zu 1024 Clusterknoten bilden. Das Ultra Ethernet Consortium (UEC) arbeitet zudem an der Beschleunigung von Datentransfers auf allen Ebenen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

OpenAI hat nach eigenen Angaben in den letzten drei Monaten fünf verdeckte Operationen zerschlagen, bei denen Akteure aus Russland, China, dem Iran und Israel die KI-Technik des Unternehmens für Desinformationskampagnen missbrauchten.

Die Verantwortlichen ließen große Mengen an Text und teils Bildern mit der KI generieren und verbreiteten die Inhalte auf verschiedenen Seiten. Die Kampagnen versuchten Einfluss auf Debatten zum Ukraine-Krieg, zum Gaza-Krieg sowie den Wahlen in Indien zu nehmen, hatten aber laut OpenAI wenig Erfolg.

Die KI-Technik diente auch dazu, die Identität der Akteure zu verschleiern. OpenAI will durch die Offenlegung für mehr Transparenz sorgen und an Maßnahmen arbeiten, um solche Kampagnen zu erschweren. Ein detaillierter Bericht erläutert die Hintergründe.

Das China Cyberspace Research Institute entwickelt ein eigenes Sprachmodell basierend auf der Philosophie von Präsident Xi Jinping und regierungskonformen Inhalten.

Im Gegensatz zu anderen Systemen basiert das Modell auf einer ausgewählten Wissensbasis mit lokal generierten Daten und ist nicht Open Source, was nach Ansicht der Verwaltung Sicherheit und Zuverlässigkeit gewährleistet. Das System befindet sich noch in der internen Testphase und ist bisher nicht öffentlich zugänglich.

Chinesische Unternehmen müssen bei der Entwicklung eigener Sprachmodelle die regulatorischen Kontrollen der Regierung einhalten.

Selbst bei führenden KI-Modellen mit starken Sicherheitseinschränkungen kommt es immer wieder zu unerwünschten Ergebnissen. Der beste Ansatz zur Vermeidung unerwünschter Ergebnisse scheint die Beschränkung des Trainingsmaterials zu sein.

Daher entwickelt China einen LLM-Datensatz, der nur Fragmente enthält, die den Werten der Parteien entsprechen. Solche Einschränkungen des Trainingsmaterials könnten jedoch die Leistungsfähigkeit einer möglichen Zukunftstechnologie beeinträchtigen und China im KI-Wettrennen mit den USA zurückwerfen.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Eine neue Studie beleuchtet das wachsende Problem von KI-generierten Nacktbildern Minderjähriger, sogenannten Deepfake Nudes, in Schulen. In den USA gab es zuletzt mehrere Vorfälle, bei denen Schüler mithilfe von KI-Bildgeneratoren gefälschte Nacktbilder von Mitschülern und Lehrern erstellten und teilten. Die Studie von The Human Factor zeigt: 73 Prozent der befragten Eltern waren sich sicher, dass ihre Kinder niemals in einen Deepfake-Skandal involviert sein würden. Hingegen glauben 60 Prozent der Lehrkräfte, dass ihre Schüler möglicherweise involviert sein könnten. Die Jugendlichen selbst waren geteilter Meinung.

Die Studie bemängelt, dass bestehende Gesetze zu Themen wie Kinderpornografie, Rachepornos oder Cybermobbing oft zu kurz greifen. Auch in Deutschland fehlt eine eindeutige bundesweite Regelung zu den sogenannten Deepfake Nudes. Techfirmen stoßen mit ihren Filtern an Grenzen, da die Bilder meist in privaten Chatgruppen geteilt werden, auf die die Plattformen keinen direkten Zugriff haben.

Die Experten empfehlen mehr Aufklärung und klare Konsequenzen: Schulen sollten KI und Deepfakes offen thematisieren und Eltern mit ihren Kindern darüber sprechen. Schulordnungen sollten Deepfake-Nudes explizit als Straftat benennen und Sanktionen festlegen. Empathie für alle Beteiligten sei entscheidend bei der Etablierung neuer, gesunder Verhaltensnormen.

Forscher der Universität Zürich haben ein System entwickelt, das eine neuartige Kamera mit künstlicher Intelligenz kombiniert. Es soll Hindernisse und Fußgänger hundertmal schneller und mit weniger Rechenleistung erkennen als aktuelle Systeme.

Das neue System könnte die Sicherheit von Fahrassistenzsystemen und autonomen Fahrzeugen erheblich verbessern. Bisherige Systeme nehmen 30 bis 50 Bilder pro Sekunde auf, was für eine zuverlässige Erkennung nicht ausreicht. Eine höhere Bildrate würde aber zu viel Daten erzeugen, die in Echtzeit verarbeitet werden müssten.

Das neue System nutzt sogenannte Ereigniskameras mit "intelligenten Pixeln". Diese zeichnen Informationen auf, sobald sie schnelle Bewegungen erkennen. So gibt es keinen blinden Fleck zwischen den Bildern. Allerdings können sie langsame Bewegungen übersehen und ihre Bilder lassen sich nicht leicht für KI-Algorithmen nutzen.

Die Forscher kombinieren nun eine Standardkamera mit einer Ereigniskamera und zwei KI-Systemen. Die Standardkamera nimmt 20 Bilder pro Sekunde auf, die von einem KI-System verarbeitet werden. Die Daten der Ereigniskamera sind mit einem anderen KI-System gekoppelt, das sich für die Analyse von 3D-Daten eignet. Was die Ereigniskamera sieht, wird genutzt, um die Erkennung der Standardkamera zu beschleunigen.

Das Ergebnis ist ein Detektor, der Objekte so schnell erkennt wie eine Kamera mit 5000 Bildern pro Sekunde, aber nur die Bandbreite einer 50-Bilder-Kamera benötigt. Die Methode könnte durch Integration mit LiDAR-Sensoren noch leistungsfähiger werden. Solche Hybridsysteme könnten entscheidend für die Sicherheit autonomer Fahrzeuge sein, ohne die Daten- und Rechenleistung stark zu erhöhen.

Eine Studie zeigt, wie Menschen KI-Systeme wie ChatGPT in ihre Selbstfürsorge-Praktiken integrieren. Forschende der University of Edinburgh, der Queensland University of Technology und des King's College London identifizierten in Workshops, Tagebuchstudien und Interviews fünf Praktiken: das Einholen von Ratschlägen, Mentoring, Erstellen von Ressourcen, Durchführen sozialer Simulationen und Selbstausdruck.

Die Teilnehmenden nutzten ChatGPT, um personalisierte Vorschläge zu Themen wie Stressbewältigung oder Ernährung zu erhalten und interagierten teils über längere Zeiträume mit dem System als eine Art KI-Mentor. Sie schätzten dessen ständige Verfügbarkeit und das Gefühl, nicht verurteilt zu werden. Zudem erstellten sie mithilfe der KI multimodale Ressourcen wie Meditationen oder Ausmalbilder für die eigene Selbstfürsorge und die Unterstützung anderer. In sozialen Simulationen spielten die Teilnehmenden mit ChatGPT verschiedene Szenarien durch, bevor sie diese im echten Leben anwandten. Für kreativen Selbstausdruck nutzten sie die Fähigkeit der KI, Gefühle in Bildern oder Musik auszudrücken.

Überraschend war die Bereitschaft, intime Informationen mit der als nicht wertend empfundenen KI zu teilen. Die Forschenden sehen hier Potenzial, weisen aber auch auf mögliche Risiken einer zu starken emotionalen Bindung hin. Weitere Forschung sei nötig, um Chancen und Risiken dieser Technologien besser zu verstehen.

Google hat sich zu den zuletzt viral gegangenen hanebüchenen Antworten seiner KI-gestützten Suchfunktion erklärt und Nachbesserungen angekündigt. Das Unternehmen kündigte an, die Quellenauswahl für die KI-gestützte Suchfunktion einzuschränken, nachdem eine Reihe absurder KI-Antworten viral gegangen ist. Inhalte von Satireseiten und benutzergenerierte Inhalte etwa von Reddit sollen weniger berücksichtigt werden.

Bei Themen wie Nachrichten und Gesundheit gäbe es zudem "starke Leitplanken". Insgesamt seien die vorerst nur in den USA verfügbaren KI-Antworten laut Google sehr akkurat und würden im Gegensatz zu anderen KI-Textgeneratoren nichts erfinden.

Google-Such-Chefin Liz Reid erklärt die Hintergründe und verspricht Nachbesserungen. Sie versichert aber auch, dass KI-generierte Antworten als Startpunkt zum Besuch der Quellseiten dienen und deren Traffic sogar von höherer Qualität sei.

WhatsApp arbeitet offenbar an der Integration des KI-Bildgenerators "Imagine" von Meta in den Messenger. Die Beta-Version 2.24.12.4 für Android zeigt "Imagine" als zusätzliche Möglichkeit eines Nachrichtenanhangs.

Bislang ist die Funktion noch in der Entwicklung und selbst für Beta-Tester nicht nutzbar. Der Zeitpunkt der Einführung ist unklar. Ende 2023 hatte Meta "Imagine" als eigenständigen Web-Bildgenerator vorgestellt, der wie der verwandte Emu-Generator auf dem Foundation-Modell von Meta AI basiert.

WhatsApp wird nach Instagram und Facebook Messenger die dritte Meta-Plattform mit KI-Bildgenerierung sein. Zuvor soll aber die Favoritenfunktion zum schnelleren Auffinden von Chats kommen, die bereits von einigen Beta-Testern geprüft wird.

(igr)