KI-Update kompakt: Nvidia GB200 NVL2, UALink, Xi-Jinping-LLM, SelbstfĂĽrsorge
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
- Isabel GrĂĽnewald
- The Decoder
Nvidia GB200 NVL2: Rackserver fĂĽr groĂźe KI-Modelle
Nvidia stellt mit dem GB200 NVL2 einen neuen Rackserver fĂĽr das Training groĂźer KI-Modelle vor. Der Rackeinschub GB200 NVL2 im MGX-Format bietet zwei GB200-Prozessoren fĂĽr das Training groĂźer KI-Modelle. Jeder GB200 besteht aus einem Blackwell-Doppelchip und einer Grace-CPU.
Das Gesamtsystem erreicht eine FP4-Rechenleistung von 40 Petaflops und verfĂĽgt ĂĽber 1,3 TByte Arbeitsspeicher, davon 384 GByte als schneller HBM3e-RAM mit 8 TByte/s Durchsatz. Die beiden GB200 kommunizieren ĂĽber NVLink mit 2 x 900 GByte/s. Damit eignet sich der Server zum Training groĂźer generativer KI-Modelle.
Ausblickend kĂĽndigte Huang die Nachfolger Blackwell Ultra fĂĽr 2025 mit mehr HMB3e sowie die Rubin-Plattform fĂĽr 2026 mit HBM4, der Arm-CPU Vera und neuen Netzwerk-Chips an.
Alle gegen Nvidia: Offener Standard „UALink“ vernetzt KI-Cluster
AMD, Broadcom, Cisco, Google, HPE, Intel, Meta und Microsoft kooperieren beim offenen Interconnect Ultra Accelerator Link (UALink) als Alternative zu NVLinks proprietärer Vernetzungstechnik für KI-Cluster. UALink basiert auf Ultra Ethernet und dem Compute Express Link (CXL) auf Basis von PCIe 5.0.
Durch Nvidias Dominanz bei KI-Beschleunigern und die Übernahme von Mellanox setzt sich NVLink als Interconnect-Standard durch. UALink soll eine offene Alternative bieten und die direkte Kopplung der KI-Beschleuniger innerhalb und zwischen Rechenknoten mit hoher Bandbreite und niedriger Latenz ermöglichen.
Innerhalb der Knoten kommen proprietäre Verfahren wie AMD Infinity Fabric oder der offene CXL-Standard zum Einsatz. UALink soll die Brücke zwischen bis zu 1024 Clusterknoten bilden. Das Ultra Ethernet Consortium (UEC) arbeitet zudem an der Beschleunigung von Datentransfers auf allen Ebenen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
OpenAI verhindert Operationen zur verdeckten Einflussnahme mittels KI
OpenAI hat nach eigenen Angaben in den letzten drei Monaten fĂĽnf verdeckte Operationen zerschlagen, bei denen Akteure aus Russland, China, dem Iran und Israel die KI-Technik des Unternehmens fĂĽr Desinformationskampagnen missbrauchten.
Die Verantwortlichen lieĂźen groĂźe Mengen an Text und teils Bildern mit der KI generieren und verbreiteten die Inhalte auf verschiedenen Seiten. Die Kampagnen versuchten Einfluss auf Debatten zum Ukraine-Krieg, zum Gaza-Krieg sowie den Wahlen in Indien zu nehmen, hatten aber laut OpenAI wenig Erfolg.
Die KI-Technik diente auch dazu, die Identität der Akteure zu verschleiern. OpenAI will durch die Offenlegung für mehr Transparenz sorgen und an Maßnahmen arbeiten, um solche Kampagnen zu erschweren. Ein detaillierter Bericht erläutert die Hintergründe.
China testet „Xi-Jinping-LLM“ als politisch konformes Sprachmodell
Das China Cyberspace Research Institute entwickelt ein eigenes Sprachmodell basierend auf der Philosophie von Präsident Xi Jinping und regierungskonformen Inhalten.
Im Gegensatz zu anderen Systemen basiert das Modell auf einer ausgewählten Wissensbasis mit lokal generierten Daten und ist nicht Open Source, was nach Ansicht der Verwaltung Sicherheit und Zuverlässigkeit gewährleistet. Das System befindet sich noch in der internen Testphase und ist bisher nicht öffentlich zugänglich.
Chinesische Unternehmen mĂĽssen bei der Entwicklung eigener Sprachmodelle die regulatorischen Kontrollen der Regierung einhalten.
Selbst bei führenden KI-Modellen mit starken Sicherheitseinschränkungen kommt es immer wieder zu unerwünschten Ergebnissen. Der beste Ansatz zur Vermeidung unerwünschter Ergebnisse scheint die Beschränkung des Trainingsmaterials zu sein.
Daher entwickelt China einen LLM-Datensatz, der nur Fragmente enthält, die den Werten der Parteien entsprechen. Solche Einschränkungen des Trainingsmaterials könnten jedoch die Leistungsfähigkeit einer möglichen Zukunftstechnologie beeinträchtigen und China im KI-Wettrennen mit den USA zurückwerfen.
Deepfake-Nudes: Eltern ahnungslos, Lehrer misstrauisch
Eine neue Studie beleuchtet das wachsende Problem von KI-generierten Nacktbildern Minderjähriger, sogenannten Deepfake Nudes, in Schulen. In den USA gab es zuletzt mehrere Vorfälle, bei denen Schüler mithilfe von KI-Bildgeneratoren gefälschte Nacktbilder von Mitschülern und Lehrern erstellten und teilten. Die Studie von The Human Factor zeigt: 73 Prozent der befragten Eltern waren sich sicher, dass ihre Kinder niemals in einen Deepfake-Skandal involviert sein würden. Hingegen glauben 60 Prozent der Lehrkräfte, dass ihre Schüler möglicherweise involviert sein könnten. Die Jugendlichen selbst waren geteilter Meinung.
Die Studie bemängelt, dass bestehende Gesetze zu Themen wie Kinderpornografie, Rachepornos oder Cybermobbing oft zu kurz greifen. Auch in Deutschland fehlt eine eindeutige bundesweite Regelung zu den sogenannten Deepfake Nudes. Techfirmen stoßen mit ihren Filtern an Grenzen, da die Bilder meist in privaten Chatgruppen geteilt werden, auf die die Plattformen keinen direkten Zugriff haben.
Die Experten empfehlen mehr Aufklärung und klare Konsequenzen: Schulen sollten KI und Deepfakes offen thematisieren und Eltern mit ihren Kindern darüber sprechen. Schulordnungen sollten Deepfake-Nudes explizit als Straftat benennen und Sanktionen festlegen. Empathie für alle Beteiligten sei entscheidend bei der Etablierung neuer, gesunder Verhaltensnormen.
Kameras kombiniert mit KI erkennen Fußgänger schneller
Forscher der Universität Zürich haben ein System entwickelt, das eine neuartige Kamera mit künstlicher Intelligenz kombiniert. Es soll Hindernisse und Fußgänger hundertmal schneller und mit weniger Rechenleistung erkennen als aktuelle Systeme.
Das neue System könnte die Sicherheit von Fahrassistenzsystemen und autonomen Fahrzeugen erheblich verbessern. Bisherige Systeme nehmen 30 bis 50 Bilder pro Sekunde auf, was für eine zuverlässige Erkennung nicht ausreicht. Eine höhere Bildrate würde aber zu viel Daten erzeugen, die in Echtzeit verarbeitet werden müssten.
Das neue System nutzt sogenannte Ereigniskameras mit "intelligenten Pixeln". Diese zeichnen Informationen auf, sobald sie schnelle Bewegungen erkennen. So gibt es keinen blinden Fleck zwischen den Bildern. Allerdings können sie langsame Bewegungen übersehen und ihre Bilder lassen sich nicht leicht für KI-Algorithmen nutzen.
Die Forscher kombinieren nun eine Standardkamera mit einer Ereigniskamera und zwei KI-Systemen. Die Standardkamera nimmt 20 Bilder pro Sekunde auf, die von einem KI-System verarbeitet werden. Die Daten der Ereigniskamera sind mit einem anderen KI-System gekoppelt, das sich fĂĽr die Analyse von 3D-Daten eignet. Was die Ereigniskamera sieht, wird genutzt, um die Erkennung der Standardkamera zu beschleunigen.
Das Ergebnis ist ein Detektor, der Objekte so schnell erkennt wie eine Kamera mit 5000 Bildern pro Sekunde, aber nur die Bandbreite einer 50-Bilder-Kamera benötigt. Die Methode könnte durch Integration mit LiDAR-Sensoren noch leistungsfähiger werden. Solche Hybridsysteme könnten entscheidend für die Sicherheit autonomer Fahrzeuge sein, ohne die Daten- und Rechenleistung stark zu erhöhen.
Wie generative KI helfen kann, sich besser zu fĂĽhlen
Eine Studie zeigt, wie Menschen KI-Systeme wie ChatGPT in ihre Selbstfürsorge-Praktiken integrieren. Forschende der University of Edinburgh, der Queensland University of Technology und des King's College London identifizierten in Workshops, Tagebuchstudien und Interviews fünf Praktiken: das Einholen von Ratschlägen, Mentoring, Erstellen von Ressourcen, Durchführen sozialer Simulationen und Selbstausdruck.
Die Teilnehmenden nutzten ChatGPT, um personalisierte Vorschläge zu Themen wie Stressbewältigung oder Ernährung zu erhalten und interagierten teils über längere Zeiträume mit dem System als eine Art KI-Mentor. Sie schätzten dessen ständige Verfügbarkeit und das Gefühl, nicht verurteilt zu werden. Zudem erstellten sie mithilfe der KI multimodale Ressourcen wie Meditationen oder Ausmalbilder für die eigene Selbstfürsorge und die Unterstützung anderer. In sozialen Simulationen spielten die Teilnehmenden mit ChatGPT verschiedene Szenarien durch, bevor sie diese im echten Leben anwandten. Für kreativen Selbstausdruck nutzten sie die Fähigkeit der KI, Gefühle in Bildern oder Musik auszudrücken.
Überraschend war die Bereitschaft, intime Informationen mit der als nicht wertend empfundenen KI zu teilen. Die Forschenden sehen hier Potenzial, weisen aber auch auf mögliche Risiken einer zu starken emotionalen Bindung hin. Weitere Forschung sei nötig, um Chancen und Risiken dieser Technologien besser zu verstehen.
Google erklärt sich zu hanebüchenen KI-Antworten
Google hat sich zu den zuletzt viral gegangenen hanebüchenen Antworten seiner KI-gestützten Suchfunktion erklärt und Nachbesserungen angekündigt. Das Unternehmen kündigte an, die Quellenauswahl für die KI-gestützte Suchfunktion einzuschränken, nachdem eine Reihe absurder KI-Antworten viral gegangen ist. Inhalte von Satireseiten und benutzergenerierte Inhalte etwa von Reddit sollen weniger berücksichtigt werden.
Bei Themen wie Nachrichten und Gesundheit gäbe es zudem "starke Leitplanken". Insgesamt seien die vorerst nur in den USA verfügbaren KI-Antworten laut Google sehr akkurat und würden im Gegensatz zu anderen KI-Textgeneratoren nichts erfinden.
Google-Such-Chefin Liz Reid erklärt die Hintergründe und verspricht Nachbesserungen. Sie versichert aber auch, dass KI-generierte Antworten als Startpunkt zum Besuch der Quellseiten dienen und deren Traffic sogar von höherer Qualität sei.
WhatsApp bekommt offenbar eigenen KI-Bildgenerator
WhatsApp arbeitet offenbar an der Integration des KI-Bildgenerators "Imagine" von Meta in den Messenger. Die Beta-Version 2.24.12.4 für Android zeigt "Imagine" als zusätzliche Möglichkeit eines Nachrichtenanhangs.
Bislang ist die Funktion noch in der Entwicklung und selbst für Beta-Tester nicht nutzbar. Der Zeitpunkt der Einführung ist unklar. Ende 2023 hatte Meta "Imagine" als eigenständigen Web-Bildgenerator vorgestellt, der wie der verwandte Emu-Generator auf dem Foundation-Modell von Meta AI basiert.
WhatsApp wird nach Instagram und Facebook Messenger die dritte Meta-Plattform mit KI-Bildgenerierung sein. Zuvor soll aber die Favoritenfunktion zum schnelleren Auffinden von Chats kommen, die bereits von einigen Beta-Testern geprĂĽft wird.
(igr)