KI-Update kompakt: Google Cloud Next, Llama 3, Intels Gaudi 3, Grok 2

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 6 Min.
Inhaltsverzeichnis

Auf der diesjährigen "Cloud Next"-Konferenz stellte Google eine Reihe von KI-Innovationen vor. Das verbesserte Sprachmodell Gemini 1.5 Pro erzeugt nun auch Audio. Mit Vids können Nutzer Videos per Sprachbefehl generieren und nachbearbeiten. Der Assistent Imagen 2 kann zudem jetzt animierte Grafiken erstellen. Die KI-Plattform Vertex bietet über 130 Modelle und ermöglicht das Grounding mit Google-Suche oder Unternehmensdaten.

Für die Cloud-Systeme kündigt Google leistungsstarke Hardware an, darunter den hauseigenen ARM-Prozessor Axion. Dieser soll effizienter und performanter als vergleichbare x86- und ARM-Plattformen sein.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Entwickler profitieren von KI-gestützten Tools wie Gemini Code Assist für kontextbezogene Programmierung und Cloud Assist für Ressourcenmanagement. Der Google-Assistent unterstützt auch bei Datenabfragen und -analysen.

Im Workspace integriert Google KI in alle Bereiche und verknüpft Elemente intelligent. Ein neues Sicherheitspaket mit KI-Unterstützung schützt auch Google Drive.

Meta Platforms wird nächsten Monat die Version 3 seines freien KI-Sprachmodells Llama veröffentlichen. Es soll als Grundlage für KI-Assistenten dienen und kontroverser sein als der Vorgänger. Die Parameter steigen voraussichtlich auf 140 Milliarden.

Nick Clegg, Präsident für globale Angelegenheiten bei Meta, kündigte die baldige Einführung an. Llama 3 werde in verschiedenen Varianten erscheinen und schrittweise verbesserte Fähigkeiten erhalten, so Clegg. Laut Produktleiter Chris Cox bildet es die Basis diverser Produkte des Unternehmens.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Das Ziel ist es laut KI-Forscherin Joelle Pineau, einen möglichst nützlichen Assistenten zu schaffen. Dafür müsse Llama 3 auch auf heikle Fragen zu Politik, Religion oder Ethik hilfreichere Antworten geben als die als zu sicher geltende Vorgängerversion.

Intel hat seinen neuesten KI-Beschleuniger Gaudi 3 vorgestellt, der den allgegenwärtigen H100 von Nvidia Konkurrenz machen soll. Der Chip wird in verschiedenen Formfaktoren angeboten, darunter als Open Accelerator Module (OAM), im Achterpack auf einem Universal Baseboard und als PCI-Express-Steckkarte mit bis zu 600 Watt Thermal Design Power (TDP). Die OAM-Version kann laut Intel beim KI-Training sogar bis zu 900 Watt schlucken.

Gaudi 3 setzt auf standardkonforme Ethernet-Schnittstellen für den Aufbau von großen Rechnerverbünden und Rechenzentren. Die Beschleuniger werden ab dem dritten Quartal 2024 in Massenproduktion gehen und anfangs in Geräten von Dell, HPE, Lenovo und Supermicro zu finden sein.

Der Chip besteht aus zwei identischen Teilen und bietet insgesamt 1835 TFlops bei FP8-Genauigkeit. Intel verspricht deutliche Leistungssteigerungen gegenüber dem Vorgänger Gaudi 2 sowie Vorteile gegenüber Nvidias H100 beim Training von Large Language Models und der Energieeffizienz. Auf Gaudi 3 soll schon 2025 die nächste Beschleunigergeneration mit dem Codenamen Falcon Shores folgen.

OpenAI hat Verbesserungen am GPT-4 Turbo-Modell in seiner API angekündigt, die bald auch in ChatGPT verfügbar sein werden. Neben Verbesserungen der mathematischen Fähigkeiten liegt der Schwerpunkt auf der Integration von GPT-4-Vision direkt in das Modell. Die neue multimodale GPT-4 Turbo-Version mit Bildverarbeitung kann nun sowohl Text als auch Bilder mit nur einem API-Aufruf analysieren.

Bisher mussten Entwickler dafür separate Modelle verwenden. Anfragen mit Bildern unterstützen damit nun auch gängige API-Funktionen wie den JSON-Modus und Funktionsaufrufe, was die Integration in Anwendungen und Arbeitsabläufe von Entwicklern erleichtern soll.

OpenAI demonstrierte die Leistungsfähigkeit des neuen Modells anhand einiger Anwendungsfälle wie tldraw, einer App, in der Nutzer ein Webinterface zeichnen und per Text die einzelnen Funktionen beschreiben können. Anschließend verwandelt GPT-4-Turbo die Zeichnung in Code.

Elon Musk kündigte auf X die Entwicklung von Grok 2 an. Dieses KI-Modell soll leistungsfähiger als GPT-4 sein und wird voraussichtlich im Mai fertiggestellt. Musk‘s KI-Start-up xAI arbeitet derzeit noch an der verbesserten Version des bisherigen Grok-Modells.

Trotz einiger Verbesserungen konnte das zuletzt veröffentlichte Modell Grok 1.5 nicht zur Spitzengruppe der KI-Modelle aufschließen. Grok 1 ist zwar als Open Source verfügbar, es gibt jedoch kleinere, aber leistungsfähigere Open-Source-Modelle.

Musk prognostiziert, dass KI-Fähigkeiten bis Ende nächsten Jahres die menschliche Intelligenz übertreffen werden, sofern die Stromversorgung und die Verfügbarkeit der Hardware mit den Anforderungen der immer leistungsfähigeren Technologie Schritt halten können. Die aktuelle Chip-Knappheit habe den Fortschritt in der KI-Entwicklung eingeschränkt.

Ein Forscherteam der Eidgenössischen Technischen Hochschule Lausanne hat die Fähigkeiten von GPT-4 in Sachen Meinungsmache geprüft. In einem Experiment haben sie das Sprachmodell gegen Menschen antreten lassen. Das Ziel für die KI war es, die Testpersonen von ihren eigenen Standpunkten abzubringen. Fragestellungen waren zum Beispiel: Sollten Abtreibungen legal sein? oder: Macht Social Media die Menschen dumm?

TR-Redakteur Wolfgang Stieler hat sich das Paper dazu angesehen und berichtet im Weekly Podcast der MIT Technology Review, wie erfolgreich GPT-4 in seiner Mission war.

Eine "Sad Girl"-Klavierballade der Musik-KI Suno.ai erregt derzeit in sozialen Netzwerken viel Aufsehen. Das Besondere: Der Text des durchaus anhörbaren Liedes ist die MIT-Open-Source-Lizenz. Einige Zuhörer zeigen sich begeistert von den Möglichkeiten der KI, selbst juristischen Texten eine Melodie zu verleihen.

Spaßvögel ließen bereits Keksrezepte oder sogar das Grundgesetz vertonen. Die jüngste Version 3 von Suno soll Musik in Radioqualität erzeugen können. Das Unternehmen arbeitet auch mit Microsoft zusammen, um die Technologie in Bing Chat zu integrieren.

Derweil sorgen sich rund 200 Musiker, dass die KI mit ihren Werken trainiert wurde, ohne dass sie dafür entlohnt werden. Sie sehen darin eine Bedrohung für die menschliche Kreativität und ihre Existenzgrundlage. Die Debatte zeigt, dass es nicht mehr zwingend menschlicher Künstler bedarf, um Musik zu produzieren - die KI kann hier schon ein Liedchen davon singen.

(igr)