Google-Mitarbeiter veröffentlichen Neuronales-Netz-Spielplatz

Damit kann der Benutzer kleine Erkenner-Netzwerke zusammenstöpseln und ihnen live beim Lernen zuschauen.

In Pocket speichern vorlesen Druckansicht 54 Kommentare lesen
Google-Mitarbeiter veröffentlichen Neuronales-Netz-Spielplatz
Lesezeit: 2 Min.
Von

Google Photos, Spracherkennung, Übersetzungs-Apps – in vielen Apps und Web-Diensten verrichten neuronale Netze heute wichtige Arbeiten. Das sogenannte Deep Learning nimmt im Alltag der Computer- und Smartphone-Nutzung von jedermann eine immer bedeutendere Rolle ein.

Dennoch sind Begriffe wie neuronale Netze und Deep Learning für viele Menschen böhmische Dörfer. Das hat auch damit zu tun, dass diese Gebilde meist im Hintergrund ihre Arbeit verrichten. Man bekommt nur ihren Output zu Gesicht, nicht ihr Innenleben. Und selbst wenn man in einzelne Neuronen hineinschauen könnte, würde sich ihre Bedeutung – letztlich eine mathematische Funktion – für viele Anwender nicht erschließen. Und somit schon gar nicht die Funktion des Gesamtnetzes.

Das geht noch besser: Die Farbe der Punkt entspricht den (Test-) Daten, die des Hintergrundes dem, was das Netz für die bestimmte Region vorhersagt.

Google hat schon immer mal versucht, seine neuronalen Netze zu verbildlichen, und dabei schon mal ein Katzen-Neuron entdeckt. Zwei Google-Mitarbeiter, Daniel Smilkov und Shan Carter, haben jetzt eine Art Neuronales-Netz-Spielplatz veröffentlicht, bei dem der Benutzer kleine Erkenner-Netzwerke zusammenstöpseln und damit experimentieren kann.

Mit dem Baukasten lassen sich Vorhersagemodelle für Klassifikationen oder Regressionsanalysen realisieren. Bei ersteren Modellen geht es darum, vorherzusagen, ob ein Punkt in einem zweidimensinalen Eingabefeld einen Wert entweder von +1 oder -1 hat, bei den zweiteren Modellen versucht man eine Funktion zu entwickeln, die auf dem Eingabefeld Werte zwischen -1 und +1 hat.

Das klingt komplizierter, als es der Spielplatz macht, denn dieser stellt alle Funktionen grafisch dar: Man sieht auf den ersten Blick, was jedes Neuron und das Gesamtnetz erkennen – und zwar vor, beim und nach dem Lernen. Und dann kann man losexperimentieren: Das vorgegebene Netz will partout nicht eines der vorgegebenen Datensets erkennen? Dann kann man es mit neuen Eingabefunktionen füttern, weitere verborgene Netzwerkebenen und Neuronen hinzugeben und es erneut trainieren.

Die Netzwerktopologie ist übrigens in die URL kodiert. Wer eine schöne Lösung für ein Problem gefunden hat, kann sie also in Form der jeweils aktuellen URL weitergeben. (jo)