Überraschender Edelstein: Google stellt KI-Modell Gemma vor

Das offene KI-Modell Gemma erscheint in zwei Varianten. Es soll vergleichbar großen Modellen überlegen sein und gewährt auch Einblicke in das größere Gemini.

In Pocket speichern vorlesen Druckansicht 52 Kommentare lesen
Das Logo des KI-Modells Gemma

(Bild: Google)

Lesezeit: 2 Min.

Google hat überraschend mit Gemma zwei Open-Source-KI-Modelle vorgestellt. Die im Vergleich zum geschlossenen Gemini-Modell kleinere KI soll Forschern und Interessierten auch ein Stück weit Einblick in die Grundlagen gewähren, die in Gemini eingeflossen sind, heißt es zur Vorstellung von Gemma.

Kleinere KI-Modelle eignen sich in erster Linie für weniger komplexe Aufgaben. Während Gemini direkt mit ChatGPT von OpenAI konkurriert, empfiehlt sich Gemma eher für den Einsatz in einfacheren Chatbots und für bestimmte Textarbeiten. Das Modell kann auch lokal auf Notebooks und Desktopcomputern sowie Mobilgeräten ausgeführt werden.

Google hebt allerdings hervor, dass Gemma trotz seiner Leichtgewichtigkeit die Modelle LLaMA 2 und Mistral besonders bei mathematischen Berechnungen und im Bereich Programmierung deutlich übertreffe. Gemma sei offenen Modelle ähnlicher Größe bei 11 von 18 textbasierten Aufgaben überlegen, heißt es weiter.

Die neue Google-KI ist in zwei Größen erhältlich: Das Modell mit 7 Milliarden Parametern (Gemma 7B) sei für den Gebrauch mit potenter Hardware in Form von GPUs oder eigenständigen KI-Beschleunigern vorgesehen, das Modell mit 2 Milliarden Parametern für CPU- und On-Device-Anwendungen. Gemma wurde von Google DeepMind und anderen Google-Teams entwickelt. Der Name spiegele das lateinische Gemma wider, was "Edelstein" bedeutet, wie aus dem technischen Bericht zu Gemma hervorgeht.

Aus europäischer Sicht ist wichtig zu wissen, dass Gemma 2B und 7B primär mit englischen Daten aus dem Web, der Mathematik und der Programmierung trainiert wurde. Im Gegensatz zu Gemini sei Gemma weder multimodal – das heißt, dass die KI zum Beispiel keine Fotos anstelle von Text verarbeiten kann – noch auf mehrsprachige Ausgabe trainiert.

Google betont außerdem, dass die Modelle mit "sorgfältig ausgewählten Daten vortrainiert" worden seien. Dazu seien "automatisierte Techniken" verwendet worden, um persönliche Informationen und andere sensible Daten aus dem Trainingsmaterial herauszufiltern. Zusammen mit Gemma stellt Google obendrein kostenlose Zugänge und Cloud-Gutschriften für Entwickler und Forscher in Aussicht, mit dem Ziel, KI-Innovationen voranzutreiben.

(mki)