Apples On-Device-Training: Von vielen lernen
(Bild: XuBing, stock.adobe.com)
Dass Siri mehrere Sprecher auseinanderhalten kann und die QuickType-Funktion sinnvolle VorschlÀge unterbreitet, hat einen guten Grund: Federated Learning.
Bis ein neuronales Netz beispielsweise einen Esel von einem SchĂ€ferhund unterscheiden kann, muss es sich zunĂ€chst Tausende von Fotos âansehenâ und unter Anleitung lernen, welche Merkmale (GröĂe, Schnauze, Fell und so weiter) grundsĂ€tzlich auf einen Hund hinweisen. Klappt das halbwegs, können sich die Entwickler daran wagen, der KI das Aussehen verschiedener Hunderassen beizubringen, wiederum mit unzĂ€hligen Fotos. Funktioniert auch das zufriedenstellend, steht dem Einsatz des KI-Modells in Apps, beispielsweise zur Bestimmung von Hunden, nichts mehr im Weg.
Das Problem dabei: Die KI lernt normalerweise nichts im Praxiseinsatz hinzu, das zugrunde liegende Modell können lediglich die Entwickler weiter optimieren. Haben die nun einige Rassen beim Training vergessen, hĂ€lt das neuronale Netz den Pekinesen vielleicht fĂŒr einen Chihuahua. Praktisch wĂ€re es also, wenn eine KI, wie auch ein Mensch, tĂ€glich ihr Wissen erweiterte, zum Beispiel, indem der Anwender der KI mitteilt: Chihuahua ist falsch, Pekinese richtig. Aufgrund dieser Information könnte sich das neuronale Netz neu trainieren und entsprechend korrigieren. Neuronale Netze wĂ€ren so auch in der Lage, sich auf die spezifischen Anforderungen des jeweiligen Benutzers einzustellen.
HĂ€ufig hosten Entwickler neuronale Netze allerdings auf Server-Farmen in der Cloud, so bislang auch Apple seine Sprachassistenz Siri. Das iPhone des Anwenders ĂŒbertrĂ€gt Anfragen zunĂ€chst an die Server, auf denen die KI lĂ€uft und die schlieĂlich die Antwort zurĂŒcksenden. Das erfordert einerseits eine Internetverbindung, die selbst in gröĂeren StĂ€dten nicht immer flĂ€chendeckend zur VerfĂŒgung steht. Andererseits mĂŒssen eventuell sensible Daten hin- und herwandern.
URL dieses Artikels:
https://www.heise.de/-4700297
Copyright © 2020 Heise Medien