c't 23/2022
S. 124
Wissen
KI: Skalierungshypothese

Skalierungshypothese vs. Neurosymbolik

Welcher Weg führt die Forschung zu intelligenter KI?

In einem ist sich die Forschung einig: Neuronale Netze sind bislang keine allgemeinen künstlichen Intelligenzen, die beliebige intellektuelle Aufgaben meistern. Möglicherweise müssen Forscher dafür noch ganz neue Technik erfinden, vielleicht reicht es aber auch, die aktuellen Netze auf Gehirngröße zu skalieren. Über die Frage lohnt es sich zu streiten, weil die beiden Ansätze nach verschiedenen Strategien verlangen.

Von Philipp Bongartz und Pina Merkert

Neuronale Netze scheinen der perfekte Ansatz für künstliche Intelligenz: Sie brauchen lediglich einen großen Datensatz und lernen daraus die nötigen Muster. Als Mensch gibt man nur vor, was herauskommen soll und die simulierten Neuronen (und der Optimierungsalgorithmus fürs Trainieren der Parameter) kümmern sich um den Rest. Theoretisch können neuronale Netze jede beliebige logische Struktur abbilden. Sie sind „Turing-vollständig“, was bedeutet, dass sie im Prinzip alles lernen können, was irgendein Computer jemals können wird (sie können jede berechenbare Funktion berechnen, wenn sie groß genug sind).

In der Praxis stießen Forscher beim Training neuronaler Netze aber immer wieder an Grenzen. Beispielsweise sorgte das „Vanishing-Gradient-Problem“ dafür, dass nur Netze mit einer Handvoll Schichten trainierbar waren. Abhilfe schafften dann sogenannte Residual-Verbindungen, mit denen über hundert Schichten möglich wurden. Solche Tricks können zwar bei einigen KI-Problemen erstaunliche Fortschritte bringen, funktionieren aber meist nicht bei jeder Problemstellung gleich gut. Dass KI momentan immer auf einzelne Probleme zugeschnitten sein muss, macht sie zur „schwachen KI“. Der Begriff bezeichnet KI-Lösungen mit Inselbegabungen, die nur eine einzelne Anwendung beherrschen.

Kommentare lesen (1 Beitrag)