KI-Update Deep-Dive: Generativer KI unter die Haube geschaut

Wie verarbeiten neuronale Netze natürliche Sprache? Der Künstler, Coder und Autor Pit Noack gibt einen spielerischen Einblick.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 2 Min.

Maschinenlernen, neuronale Netze, Transformer, Vektoren? Da winken viele gleich ab. Pit Noack und Sophia Sanner schaffen es mit ihrem Buch „Künstliche Intelligenz verstehen – Eine spielerische Einführung“ ein sehr anschauliches Bild der Prinzipien zu zeichnen, die hinter KI stehen. Im Deep-Dive des KI-Updates, erklärt Noack, wie ChatGPT und Co natürliche Sprache verstehen können.

Hinter bahnbrechenden KI-Anwendungen wie der Übersetzungssoftware DeepL und Chatbots wie Bard oder ChatGPT steht eine sehr spezifische Bauform neuronaler Netze, die sogenannten Transformer, erklärt Noack. Da kommen Wort- und Sequenzeinbettung in Spiel. "Worteinbettung bedeutet, wir haben einen Raum und wir können mithilfe eines neuronalen Netzes die Wörter so in diesem Raum anordnen, dass dicht beieinanderstehende Wörter, ähnlich sind." Wörter mit einem gemeinsamen Bezug bilden ein Cluster. Das heißt, wir kodieren Wörter nicht in einzelne Zahlen, sondern in Koordinaten.

Worteinbettungen ordnen Wörter in einem hochdimensionalen Raum an. Sinnhafte und grammatikalische Relationen zwischen den Wörtern können in räumliche Relationen - also Vektoren - übersetzt werden.

(Bild: "Künstliche Intelligenz verstehen" Sophia Sanner & Pit Noack)

Noack führt weiter aus, dass sich die Beziehungen zwischen den Wörtern als räumliche Beziehungen abbilden lassen. Ein Pfeil, der zwei Punkte in einem Koordinatensystem miteinander verbindet, wird in der Mathematik Vektor genannt. Vektoren lassen sich wie eine Wegbeschreibung zwischen den Worten lesen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Diese Worteinbettungen sind eine Grundlage für den nächsten Schritt, nämlich für die sogenannte Sequenzeinbettung. Dabei geht es dann nicht nur um einzelne Wörter, sondern ganze Sequenzen, Wortfolgen, die in einem hochdimensionalen Raum abgebildet werden. "Sehr vereinfacht ausgedrückt nimmt so ein Transformer also einen Satz und transformiert ihn, damit er in so ein neuronales Netz passt und in dem neuronalen Netz den richtigen Platz findet, um dann die Antwort zu geben", fasst Noack zusammen.

Die Bedeutung eines jeden Wortes hängt vom Kontext ab, in dem es steht. Der Aufmerksamkeits-Mechanismus adressiert dieses Problem. Schlicht gesagt verformt er den Einbettungsraum abhängig vom Kontext.

(Bild: "Künstliche Intelligenz verstehen" Sophia Sanner & Pit Noack)

Eingehende Erklärungen dieser Konzepte liefert Pit Noack im Podcast, Bilder und Programmierbeispiele zum besseren Verständnis in seinem Buch, das es im heise Shop zu kaufen gibt.

(igr)