Schlauer Zwerg: Maschinelles Lernen mit dem Raspberry Pi Pico, Teil 3: Tuning

Seite 3: Passgenaue Ausführung

Inhaltsverzeichnis

Bei großen Modellen wie Generative Pre-trained Transformer (GPT) geht der Trend zu immer größeren Modellen, die in der Cloud laufen und nicht für einen Raspberry Pi Pico gedacht sind. Trotzdem kann man nicht beliebig Schichten und Knoten hinzufügen, ohne deren Auswirkungen zu beachten.

Die Anpassungen haben Einfluss auf die Trainingsdauer, Genauigkeit, Geschwindigkeit und letztlich auf die Größe des Modells. Auf einem Mikrocontroller wie dem Raspberry Pi Pico ist das besonders spürbar. Das einfache XOR-Modell bietet hierfür unterschiedliche einfache Anpassungs- und Optimierungsmöglichkeiten. Wer sich weiter mit dem Thema beschäftigen möchte, findet in dem Buch TinyML [1] eine empfehlenswerte Lektüre.

Der Autor beantwortet gerne Fragen im Forum zu diesem Artikel. Auf GitHub freut er sich über Verbesserungsvorschläge zum Jupyter Notebook und Code. Ansonsten ist er auf Twitter unter @choas per DM erreichbar.

Lars Gregori
arbeitet als Technology Strategist bei SAP CX im Customer Experience Umfeld. Innerhalb des SAP CX Labs Teams im CX CTO Office betrachtet er neuste Technologien und beschäftigt sich mit Machine Learning, Embedded Devices, dem Internet der Dinge, Daten und vielem mehr. Er ist Sprecher auf nationalen und internationalen Konferenzen, Buchautor zum Thema Machine Learning und bringt seine Erfahrung im Elektronikumfeld in Lernvideos ein.

  1. Pete Warden und Daniel Situnayake; TinyML; O'Reilly Media, 2019

(rme)