Oracle setzt bei künstlicher Intelligenz auf Nvidia

Das Bereitstellen von KI/ML-Diensten ist ein wichtiger Bestandteil von Oracles Cloud-Strategie, und das Unternehmen arbeitet dabei eng mit Nvidia zusammen.

In Pocket speichern vorlesen Druckansicht

(Bild: sdecoret / shutterstock.com)

Lesezeit: 4 Min.
Von
  • Lars Röwekamp

Künstliche Intelligenz ist ein wichtiger Baustein aktueller Softwaresysteme. Um dem Bedarf gerecht zu werden, setzt Oracle anders als die Mitbewerber nicht auf eigene Expertise, sondern kooperiert von Anfang an mit Nvidia.

Diese Partnerschaft soll in den kommenden Jahren noch einmal deutlich ausgebaut werden, so Jen-Hsun Huang, Gründer und CEO von Nvidia, und Oracles CEO Safra Catz in einem Kamingespräch im Rahmen der Oracle CloudWorld Keynote.

Bereits heute gäbe es Kunden, die bis zu 512 GPUs in einem Cluster nutzen und nach weiteren Skalierungsmöglichkeiten zum Training ihrer KI-Modelle fragen. Als Beispiel wurde ein Showcase des Unternehmens Adept gezeigt, das auf Basis der in OCI angebotenen Ressourcen ein eigenes Transformer Model für digitale Aktionen namens ACT-1 entwickelt hat.

Transformer-Modelle oder auch Foundation-Modelle wie ACT-1 zeichnen sich dadurch aus, dass sie in der Regel sehr viele Daten für das Training benötigen und daher sowohl schnelles Data Loading als auch eine hohe Skalierung der Computing-Ressourcen erforderlich ist.

Die Idee von ACT-1 ist es, die Grundlage für eine neue Art der Mensch-Maschinen-Interaktion zu bilden. Anders formuliert soll es mittels ACT-1 künftig möglich sein, durch Spracheingabe sämtliche Anwendungen auf einem Rechner zu steuern. Was sich zunächst wie Alexa, Siri und Co anhört, geht deutlich darüber hinaus, da die Kommunikation in natürlicher Sprache erfolgen soll. Sätze wie „erfasse meine Arbeitszeit für gestern in dem Projekt A“ werden automatisch durch die KI in entsprechende Aktionen innerhalb des für die Zeiterfassung zuständigen Programms übersetzt.

Der geplante Ausbau der Zusammenarbeit zwischen Oracle und Nvidia fokussiert sich im Wesentlichen auf drei Bereiche: AI Supercomputer on-demand, AI Lifecycle Services und Industry Solutions.

Durch das Zusammenspiel aktueller Nvidia-GPUs mit Oracles Cluster-Network-Technik und hoch performanten Speichersystemen sollen OCI-Kunden künftig KI-Supercomputer mit mehreren tausend Knoten provisionieren können.

Zahlreiche im Lebenszyklus von KI-Anwendungen erforderliche Cloud-Services sollen das Angebot ergänzen. Zu den Diensten gehören unter anderem die Workload-Orchestrierung und das Automatisieren für das Training von Modellen, GPU Cluster Management oder das Generieren und Bereitstellen von API-Endpoints für bestehende KI-Modelle.

Parallel zu den beschriebenen Angeboten für Cloud-Kunden, die eigene KI-Modelle und -Anwendungen entwickeln möchten, ist es ein weiteres erklärtes Ziel der Partnerschaft, dedizierte Angebote für ausgewählte Industrien zu entwickeln. Im Fokus stehen dabei insbesondere Finance, Retail und Health Care.

Oracles Schritt hin zu Industrieanwendungen ist nicht nur im Umfeld von KI-Angeboten erkennbar, sondern ein wichtiger Baustein in der strategischen Ausrichtung. Dass dieser Weg erfolgsversprechend sein kann, sieht man an SAP.

Zum Erreichen der gemeinsamen Ziele plant Oracle die neueste Generation von Nvidia-GPUs in Dimensionen von zehntausenden Einheiten einzusetzen. Für das Training sehr großer KI-Modelle soll die High-End-GPU A100-v2 80G zum Einsatz kommen. Mit ihr entstehen Cluster mit bis zu 512 Einheiten. Im Vergleich zum Vorgängermodell A100 40GB (aka BM.GPU4.8) bietet die neue Variante laut Hersteller eine dreifach bessere Trainingsperformanz für LLMs (Logic Learning Machines), bildverarbeitende Modelle und DLRMs (Deep Learning Recommendation Models). Auch für viele andere KI/ML-Anwendungsfälle wie Anomaly Detection in der Produktion oder Konversation in Echtzeit beispielsweise mit Chatbots sticht die neue GPU ihre Vorgängerin deutlich aus.

(rme)