Effizientes Maschinenlernen

Computer können bemerkenswert viel lernen, brauchen dafür aber riesige Mengen an Beispiel-Daten. Mit neueren Konzepten könnte sich das ändern – schlecht für die Hardware-Branche.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 2 Min.
Von
  • Yiting Sun

In diesem Januar hat Google einen neuen Service namens Cloud AutoML gestartet, der einige schwierige Aspekte bei der Entwicklung von Software für Maschinenlernen automatisieren kann. Um den leistungsfähigen Algorithmus dafür zu trainieren, mussten Forscher des Unternehmens im Vorfeld zeitweise 800 Grafik-Chips gleichzeitig einsetzen.

Anders als Menschen, die etwa Kaffeetassen problemlos erkennen können, sobald sie ein oder zwei Beispiele dafür gesehen haben, brauchen KI-Netzwerke auf der Grundlage von simulierten Neuronen tausende Beispiele, um Objekte zu identifizieren. Stellen Sie sich vor, Sie wollten versuchen, jedes Objekt in Ihrer Umgebung auf diese Weise kennenzulernen: Dann wird schnell klar, warum KI-Software derart viel Rechenleistung erfordert.

Mehr Infos

Wenn es Forschern dagegen gelingen würde, neuronale Netze zu entwickeln, die mit nur einer Handvoll Beispielen für bestimmte Aufgaben trainiert werden können, würde das „das gesamte Paradigma auf den Kopf stellen“, sagte Charles Bergan, Vice-President für Technik bei Qualcomm, bei der Konferenz EmTech China von MIT Technology Review Anfang Februar.

Wenn sich neuronale Netze zum „Sofort-Lernen“ bringen ließen, so Bergan, würde der mühselige Prozess, zum Trainieren haufenweise Daten in Algorithmen einzugeben, überflüssig. Dies könnte erhebliche Konsequenzen für die Hardware-Branche haben. Dort konzentrieren sich riesige Unternehmen ebenso wie Start-ups derzeit auf die Entwicklung von leistungsfähigeren Prozessoren für die datenhungrigen KI-Algorithmen von heute.

Zugleich würde es auf weitaus effizienteres Maschinenlernen hinauslaufen. Noch sind neuronale Netze, die mit weniger Daten auskommen, nicht Realität geworden. Doch es wird bereits daran geforscht, die Algorithmen schlanker zu machen, ohne dabei Genauigkeit zu verlieren. Das erklärte Bill Dally, Chefwissenschaftler von Nvidia, bei der Konferenz.

Nvidia-Forscher nutzen einen Prozess namens Network-Pruning, um neuronale Netze kleiner und effizienter zu machen. Dabei werden die Neuronen entfernt, die nicht direkt zum Ergebnis beitragen. „Es gibt Möglichkeiten, die Komplexität des Trainings enorm zu verringern“, sagte Dally.

(sma)