Künstliche Intelligenz: Effizienteres Maschinenlernen für neuronale Netze

Maschinelles Lernen kann bemerkenswerte Ergebnisse bringen, erfordert jedoch aufwändiges Training. Noch lässt sich darauf nicht verzichten, doch neue Konzepte sind in der Entwicklung.

In Pocket speichern vorlesen Druckansicht 24 Kommentare lesen
Künstliche Intelligenz: Effizienteres Maschinenlernen für neuronale Netze
Lesezeit: 2 Min.
Von
  • Sascha Mattke

Computer können bemerkenswert viel lernen, brauchen dafür aber riesige Mengen an Beispiel-Daten. So können Menschen etwa Kaffeetassen problemlos erkennen, sobald sie ein oder zwei Beispiele dafür gesehen haben. KI-Netzwerke auf der Grundlage von simulierten Neuronen dagegen brauchen tausende Beispiele, um Objekte zu identifizieren, was das Training enorm aufwendig macht. Forscher arbeiten jedoch daran, diesen Prozess deutlich zu verschlanken, berichtet Technology Review online in „Effizientes Maschinenlernen“.

Mehr Infos

Wenn es gelingen würde, neuronale Netze zu entwickeln, die mit nur einer Handvoll Beispielen für bestimmte Aufgaben trainiert werden können, würde das "das gesamte Paradigma auf den Kopf stellen", sagte Charles Bergan, Vice-President für Technik bei Qualcomm, bei der Konferenz EmTech China von MIT Technology Review Anfang Februar. Dies könnte erhebliche Konsequenzen für die Hardware-Branche haben. Dort konzentrieren sich riesige Unternehmen ebenso wie Start-ups derzeit auf die Entwicklung von leistungsfähigeren Prozessoren für die datenhungrigen KI-Algorithmen von heute.

Noch sind neuronale Netze, die mit weniger Daten auskommen, nicht Realität geworden. Doch es wird bereits daran geforscht, die Algorithmen schlanker zu machen, ohne dabei Genauigkeit zu verlieren, erklärte Bill Dally, Chefwissenschaftler von Nvidia, bei der Konferenz. Nvidia-Forscher nutzen einen Prozess namens Netzwerk-Pruning, um neuronale Netze kleiner und effizienter zu machen. Dabei werden die Neuronen entfernt, die nicht direkt zum Ergebnis beitragen. "Es gibt Möglichkeiten, die Komplexität des Trainings enorm zu verringern", sagte Dally.

Mehr dazu bei Technology Review online:

(sma)