Künstliche Intelligenz lernt lernen

Seite 2: Reale Daten vs. synthetische Daten

Inhaltsverzeichnis

Curios Trainings finden im Computer statt. In einer verblüffend echten Simulation lässt er ein Auto eine Straße entlangfahren, auf dem Gehweg unterhalten sich zwei Männer, Avatare genannt, einer winkt plötzlich in Richtung des Autos und läuft darauf zu. Einfach weiterfahren oder anhalten? Aus der Augenbewegung schließt die Software, dass der Fußgänger einen Insassen des Autos erkannt hat – also besser anhalten. Die Daten zur Intention liegen allerdings nicht vor, man muss sie erst erzeugen. Curio nutzt dafür das Motion-Capture-Labor an der Hochschule Reutlingen, das selbst Filmproduzenten in Hollywood neidisch machen könnte. 20 Kameras unter der Decke des komplett schwarzen Raums nehmen Gesten und sogar Grimassen des Gesichts einer Person im Raum auf und übersetzen sie in Bewegungsdaten für den Computer. Dazu werden am Körper oder im Gesicht reflektierende Punkte befestigt und von den Kameras verfolgt. Für Kinofilme wird die Technik benutzt, um menschliche Bewegungen möglichst realitätsgetreu auf computeranimierte Gestalten zu übertragen. Die verblüffend echt wirkenden Gesten in Blockbustern wie Avatar oder Planet der Affen wurden so erzeugt.

Im kürzlich abgeschlossenen Projekt "Offene Fusions-Plattform", das vom Bundesministerium für Bildung und Forschung gefördert wurde, hat der Informatiker mit Zulieferunternehmen aus der Automobilindustrie zusammengearbeitet. Ziel des Projekts war, die Intention von Fußgängern zu erkennen, so dass autonome Fahrzeuge darauf reagieren können. Synthetische Daten brauchen keine Annotationen, es muss also kein Mensch vor dem Bildschirm sitzen und bewerten, was gerade passiert. Reale Bilder und Videos aus dem Straßenverkehr, die händisch annotiert werden, sind damit aber nicht überflüssig. „Bei schwierigen Situationen, zum Beispiel bei schlechten Sichtverhältnissen, kommt man an unseren annotierten Daten nicht vorbei“, sagt Bernd Heisele. Auch andere Aufgabenstellungen brauchen reale Daten, zum Beispiel wenn es um das Training mit Sensordaten aus Maschinen geht, deren Verhalten man nicht so einfach simulieren kann.

Dennoch entwickelt sich gerade eine Industrie für synthetische KI-Trainingsdaten. Mit dabei sind auffällig viele Anbieter von Computerspielen, zum Beispiel Unity Technologies in San Francisco, das sehr realistische Szenarien für Spiele aber auch für die Industrie entwirft. Die Synergien sind groß: Das Verhalten von Personen oder die Bewegung von Autos ist in Computerspielen bereits enthalten, man kann sie direkt zum Training von KI nutzen.

In der Zukunft wird Künstliche Intelligenz sich selbst trainieren. Obwohl: Eigentlich ist die Zukunft schon Gegenwart. Googles AlphaGo Zero, das beim chinesischen Brettspiel Go alle Topspieler mit Leichtigkeit vom Brett fegt, lernt, indem es gegen sich selbst spielt. Dieses selbstverstärkende Lernen, Reinforcement Learning genannt, hat auch Einzug in der Robotik gehalten. Wissenschaftler von Siemens in Princeton trainieren mit dieser Methode einen Roboter, der einen Bauklotz in einen anderen steckt. Der Roboter lernt das selbstständig, was einige Zeit dauert. Hat er die Aufgabe gemeistert, geht es das nächste Mal aber viel schneller, selbst wenn man die Klötze auf dem Tisch verschiebt.

Haben Unternehmen, die in KI einsteigen möchten, ausreichend Daten zur Verfügung, stellt sich die nächste Frage: Wer programmiert die Algorithmen und welche Hardware braucht man für das Training? Dafür gibt es einige kostenlose Angebote online, zum Beispiel Tensorflow von Google oder Sagemaker von Amazon. Mit Sagemaker können Unternehmen recht einfach eigene Algorithmen für das maschinelle Lernen erstellen, die wahlweise in der Amazon Cloud oder auf einem eigenen Rechner ausgeführt werden. Etliche Algorithmen sind bereits fertig verfügbar, die man mit eigenen Daten füttern kann. So gibt es Algorithmen, die sich mit annotierten Bildern trainieren lassen, was für die optische Qualitätskontrolle interessant ist. Sind genügend Salamischeiben auf der Pizza, könnte zum Beispiel ein Pizzaproduzent fragen. Allerdings müssen diese Bilder zuvor annotiert werden, das heißt, irgendjemand muss in den Bildern markieren, ob Salamischeiben fehlen oder nicht. Dafür kann man einen Dienstleister wie Mighty-AI beauftragen, für solche Aufträge gibt es aber auch andere Crowdsourcing-Plattformen im Internet. Bernd Heisele: "Einfache Aufträge mit wenigen Annotierungen kann man mit wenigen Mausklicks online stellen."

(jle)