c't 17/2022
S. 24
Titel
Künstliche Intelligenz: Grenzen und Nebenwirkungen
Bild: Andreas Martini

Statistik mit Appeal

Was künstliche Intelligenz kann und was nicht

Gute KI-Systeme erledigen Aufgaben viel schneller und zuverlässiger, als es Menschen je könnten. Doch ihr unterlaufen auch spektakuläre Fehler, die Menschen so nicht passieren würden. Wie intelligent ist künstliche Intelligenz also eigentlich, und wo liegen ihre Grenzen?

Von Jo Bager

Wenn aktuell von KI die Rede ist, geht es fast immer um eine bestimmte Technik des Machine Learning (maschinelles Lernen), und zwar um tiefe künstliche neuronale Netze. Beim Machine Learning leiten Algorithmen ihr Wissen selber ab. Sie lernen aus Beispielen und versuchen mehr oder minder erfolgreich, diese nach dem Beenden einer Lernphase zu verallgemeinern. Künstliche neuronale Netze nehmen sich die Nervenzellen von Lebewesen zum Vorbild, die Neuronen. Diese Hardware der menschlichen Kognition wird als Softwaremodell nachgebaut. Dabei ordnet man die Neuronen in Schichten an, die besonders schnelle Matrixmultiplikationen ermöglichen. Jedes Neuron eines künstlichen neuronalen Netzwerks empfängt eine Reihe von Eingangssignalen, die es gewichtet. Die gewichteten Eingaben addiert es zu einem Ausgangssignal, das entweder das Eingangssignal für ein oder mehrere andere künstliche Neuronen ist oder ein Ausgangssignal für das gesamte neuronale Netzwerk [1].

Wenn ein Netzwerk mehr als eine Schicht zwischen Ein- und Ausgabeschicht aufweist (sogenannte verborgene Schichten oder Hidden Layer), nennt man es tief. Man spricht dann auch von Deep Learning und tiefen Netzwerken (Deep Networks). Große Netze haben schon mal mehr als hundert Hidden Layers.

Man kann sich neuronale Netze auch als komplexe statistische Funktionen mit Abertausenden bis -millionen Teilfunktionen und Parametern vorstellen, die aus den Werten an der Eingabeschicht die Werte der Ausgabeschicht berechnen und sich so einer unbekannten mathematischen Funktion annähern.

Neuronale Netze können heute die verschiedensten Aufgaben erledigen, etwa Muster in Bildern oder gesprochene Sprache erkennen, Spiele wie Schach oder Go spielen, Bilder malen oder Maschinen steuern. Es gibt viele verschiedene Neuronentypen und Netzwerkarchitekturen, also Verdrahtungsmuster, mit denen die Neuronen in einem Deep Network miteinander verknüpft sind. Entwickler können sich für ihre Aufgabe geeignete Neuronen und Architekturen auswählen.

DALL-E mini zeichnet auf Zuruf kleine Kunstwerke – intelligent oder nicht?
DALL-E mini zeichnet auf Zuruf kleine Kunstwerke – intelligent oder nicht?

Schicht auf Schicht

Vor ihrer Trainingsphase sind die Parameter in den neuronalen Netzen oft mit zufälligen Werten initialisiert. Für einen Bilderkenner machen damit eine Pizza und ein Steak zunächst keinen Unterschied. Beim Training präsentiert man ihm Zigtausende oder Millionen von Bildern. Bei jedem Bild prüft ein Algorithmus mit einer Bewertungsfunktion, wie treffsicher die Erkennung war. Mit jedem neuen Trainingsbeispiel erhält das Netz Feedback über seine Erkennungsleistung und justiert daraufhin in einem Prozess namens Backpropagation seine Parameter neu.

Auf diese Weise lernt das Netz nach und nach, wie sich Beispiele von einem Gericht, einem Tier, einem Hund oder einer Katze unterscheiden. Das Training wird mit den Trainingsdaten etliche Male wiederholt, bis die Fehlerrate unter eine gewünschte Schwelle sinkt.

Ist die Trainingsphase eines Deep Network beendet, erhält es in aller Regel kein Feedback mehr und seine Parameter werden nicht mehr verändert: Es leitet nun nur noch aus den vorhandenen Parametern seine Einschätzungen ab, ob ein Bild eher zu einer Abbildung von Hunden oder Katzen zu zählen ist.

Kommentare lesen (1 Beitrag)