Wandelbare Sprach-KI: Neuronales Netz textet, codet und übersetzt

Seit das Sprachmodell GPT-3 ohne Warteliste allgemein zugänglich ist, entstehen rasch neue Anwendungen. Sprach-KIs helfen beim Texten und Programmcode.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht
, Bild: Albert Hulm

(Bild: Albert Hulm)

Lesezeit: 12 Min.
Inhaltsverzeichnis

Sprach-KIs dringen in viele Lebensbereiche vor. Diese Entwicklung haben Generative Pre-trained Transformers ins Rollen gebracht, tiefe neuronale Sprachmodelle, die terabyteweise mit Webinhalten, Wikipediaeinträgen und Buchtexten trainieren. Als Pionier entwickelt das Forschungsunternehmen OpenAI derartige KI-Giganten. Deren bis heute größter Vertreter GPT-3 hat ein neuronales Netz mit 175 Milliarden Parametern und beweist seit Mai 2020 sein Sprachtalent.

OpenAI fand inzwischen einige Nachahmer in den USA, in China und beispielsweise mit der Heidelberger Aleph Alpha auch in Europa. Zurzeit sind die zehn größten KI-Systeme weltweit allesamt moderne Sprachmodelle.

Mehr zu Künstlicher Intelligenz

Eine KI derartiger Größe erkennt nicht nur einzelne Wörter in ihrer Bedeutung. Durch die große Anzahl seiner Parameter ist GPT-3 in der Lage, gleich ganze Textabschnitte zu erfassen. So kommt das Sprachmodell durch ein doppeldeutiges Wort nicht ins Stolpern. Es erkennt Textzusammenhänge sowie Stilformen und schreibt diese glaubwürdig weiter.

Immer mehr Wissen. Das digitale Abo für IT und Technik.






Immer mehr Wissen. Das digitale Abo für IT und Technik.