Künstliche Intelligenz lernt lernen

Maschinen werden schlau dank Künstlicher Intelligenz. Dazu müssen sie aus großen Datenmengen lernen – die es aber für viele Anwendungen gar nicht gibt. Ein Ausweg sind synthetische Daten.

In Pocket speichern vorlesen Druckansicht
Künstliche Intelligenz lernt lernen

Vorsicht Fußgänger: Synthetische Daten trainieren autonome Autos.

(Bild: Offene Fusions-Plattform)

Lesezeit: 8 Min.
Von
  • Bernd Müller
Inhaltsverzeichnis

Straße, Auto, Lkw, Haus, Ampel, Fußgänger – ein dreijähriges Kind kann diese Dinge mit Leichtigkeit benennen. Und es versteht schon, dass man nicht über die Straße gehen sollte, wenn ein Auto heranrauscht – so wie der Fahrer des Autos (hoffentlich) vorsichtshalber abbremst, weil das Kind vielleicht doch losrennen könnte. Solche Entscheidungen treffen wir unbewusst in Sekundenbruchteilen. Aber autonom fahrende Autos? Wenn es nach der Automobilindustrie geht, werden sie in den nächsten Jahren die Straßen erobern und die Unfallzahlen senken helfen. Aber nur, wenn auch sie zuverlässig Fußgänger am Straßenrand erkennen und natürlich vorausfahrende Autos. Dazu müssen Algorithmen mit Künstlicher Intelligenz, die die Umgebung erkennen, mit Millionen Verkehrssituationen trainiert werden. Aber wie? Man kann ja nicht Fahrzeuge losschicken und so oft Menschen über den Haufen fahren lassen, bis hundertprozentig sicher ist, dass sie niemand mehr verletzen.

Die Lösung: Die Software in den Autos wird mittels Deep Learning im Rechner trainiert. Dazu werden Millionen Bilder und Videos aus dem Straßenverkehr durch ein neuronales Netz gejagt, bis der Algorithmus alle Dinge darin sicher klassifizieren kann. Doch woher kommen diese Daten? Tatsächlich sind fehlende Trainingsdaten eine der großen Hürden für den Durchbruch Künstlicher Intelligenz. Das ist nicht nur bei autonomen Fahrzeugen so, sondern bei vielen anderen Fragestellungen auch.

Beispiel vorausschauende Wartung: Ein Maschinenbauer möchte mittels KI vorhersagen, wann ein Bauteil ausfallen wird. Doch dazu muss er Unmengen Daten sammeln und er muss dem lernenden Algorithmus sagen, was wann in der Maschine passiert ist. Es ist kein Zufall, dass es die größten Fortschritte in der KI gerade dort gibt, wo es Trainingsdaten im Überfluss gibt. Das ist zum Beispiel der Fall bei der Gesichtserkennung, wo es online Datenbanken gibt, die Millionen Gesichter enthalten. Bis vor kurzem stellte auch Microsoft so eine Datenbank mit Gesichtern teilweise von Prominenten zur Verfügung. Kürzlich hat das Unternehmen bekannt gegeben, die Datenbank vom Netz zu nehmen – weil der verantwortliche Mitarbeiter das Unternehmen verlassen habe.

Die nächste große Herausforderung in der KI ist das autonome Fahren. Die Automobilhersteller sitzen auf Bergen von Bildern und Videos mit Szenen aus dem Straßenverkehr. Doch Deep Learning Netzwerke, mit denen Algorithmen der KI lernen, können damit nichts anfangen. Sie wissen nicht, was im Bild ein Auto oder ein Fußgänger ist. Hier kommt Bernd Heisele ins Spiel. Der Informatiker mit dem schwäbischen Akzent war lange Jahre bei Honda Research, wo er den humanoiden Roboter Asimo mitentwickelt hat. Seit eineinhalb Jahren ist er Principal Computer Vision Engineer bei Mighty-AI. Das Startup in Seattle annotiert Bilder und Videos aus dem Straßenverkehr, Auftraggeber sind die Automobilhersteller. Über eine Crowdsourcing-Plattform organisiert schauen sich hunderttausende Mitarbeiter in aller Welt solche Bilder an und beschriften das was sie darin sehen: Auto, Ampel, Gebäude und so weiter. Ein Auftrag kann zum Beispiel lauten: Schaut euch diese 100.000 Bilder am PC an und macht um jeden Fußgänger eine Box. "Unsere Kunden sagen uns nicht, wofür sie das verwenden", sagt Heisele, doch der Zweck sei mehr als offensichtlich: Algorithmen trainieren fürs autonome Fahren oder zumindest für eine vorausschauende Erkennung von Gefahrensituationen.

TR extra Digitalisierung: KI lernt lernen (4 Bilder)

Mühsame Handarbeit: Tausende Helfer markieren Objekte auf Fotos. Damit sollen Algorithmen lernen, diese Objekte selbst zu erkennen.
(Bild: Mighty AI)

Ein Kollege, den Bernd Heisele am MIT in Boston kennengelernt hat, ist Cristóbal Curio. Der Informatik-Professor an der Hochschule Reutlingen hat ähnliche Ziele, verfolgt aber einen anderen Ansatz: synthetische Daten. Damit will der Wissenschaftler vor allem das Problem der Intentionserkennung von Personen in den Griff bekommen. Beim Rückwärtseinparken oder beim Überfahren eines Zebrastreifens muss das Fahrzeug in Sekundenbruchteilen entscheiden, ob die Person am Straßenrand das nahende Fahrzeug wahrgenommen hat und stehen bleibt, oder ob sie plötzlich losläuft. "Das erfordert eine technische Wahrnehmung der Intention", so Curio, "denn der Mensch sendet ja keine Daten über sein Verhalten."

Curios Trainings finden im Computer statt. In einer verblüffend echten Simulation lässt er ein Auto eine Straße entlangfahren, auf dem Gehweg unterhalten sich zwei Männer, Avatare genannt, einer winkt plötzlich in Richtung des Autos und läuft darauf zu. Einfach weiterfahren oder anhalten? Aus der Augenbewegung schließt die Software, dass der Fußgänger einen Insassen des Autos erkannt hat – also besser anhalten. Die Daten zur Intention liegen allerdings nicht vor, man muss sie erst erzeugen. Curio nutzt dafür das Motion-Capture-Labor an der Hochschule Reutlingen, das selbst Filmproduzenten in Hollywood neidisch machen könnte. 20 Kameras unter der Decke des komplett schwarzen Raums nehmen Gesten und sogar Grimassen des Gesichts einer Person im Raum auf und übersetzen sie in Bewegungsdaten für den Computer. Dazu werden am Körper oder im Gesicht reflektierende Punkte befestigt und von den Kameras verfolgt. Für Kinofilme wird die Technik benutzt, um menschliche Bewegungen möglichst realitätsgetreu auf computeranimierte Gestalten zu übertragen. Die verblüffend echt wirkenden Gesten in Blockbustern wie Avatar oder Planet der Affen wurden so erzeugt.

Im kürzlich abgeschlossenen Projekt "Offene Fusions-Plattform", das vom Bundesministerium für Bildung und Forschung gefördert wurde, hat der Informatiker mit Zulieferunternehmen aus der Automobilindustrie zusammengearbeitet. Ziel des Projekts war, die Intention von Fußgängern zu erkennen, so dass autonome Fahrzeuge darauf reagieren können. Synthetische Daten brauchen keine Annotationen, es muss also kein Mensch vor dem Bildschirm sitzen und bewerten, was gerade passiert. Reale Bilder und Videos aus dem Straßenverkehr, die händisch annotiert werden, sind damit aber nicht überflüssig. „Bei schwierigen Situationen, zum Beispiel bei schlechten Sichtverhältnissen, kommt man an unseren annotierten Daten nicht vorbei“, sagt Bernd Heisele. Auch andere Aufgabenstellungen brauchen reale Daten, zum Beispiel wenn es um das Training mit Sensordaten aus Maschinen geht, deren Verhalten man nicht so einfach simulieren kann.

Dennoch entwickelt sich gerade eine Industrie für synthetische KI-Trainingsdaten. Mit dabei sind auffällig viele Anbieter von Computerspielen, zum Beispiel Unity Technologies in San Francisco, das sehr realistische Szenarien für Spiele aber auch für die Industrie entwirft. Die Synergien sind groß: Das Verhalten von Personen oder die Bewegung von Autos ist in Computerspielen bereits enthalten, man kann sie direkt zum Training von KI nutzen.

In der Zukunft wird Künstliche Intelligenz sich selbst trainieren. Obwohl: Eigentlich ist die Zukunft schon Gegenwart. Googles AlphaGo Zero, das beim chinesischen Brettspiel Go alle Topspieler mit Leichtigkeit vom Brett fegt, lernt, indem es gegen sich selbst spielt. Dieses selbstverstärkende Lernen, Reinforcement Learning genannt, hat auch Einzug in der Robotik gehalten. Wissenschaftler von Siemens in Princeton trainieren mit dieser Methode einen Roboter, der einen Bauklotz in einen anderen steckt. Der Roboter lernt das selbstständig, was einige Zeit dauert. Hat er die Aufgabe gemeistert, geht es das nächste Mal aber viel schneller, selbst wenn man die Klötze auf dem Tisch verschiebt.

Haben Unternehmen, die in KI einsteigen möchten, ausreichend Daten zur Verfügung, stellt sich die nächste Frage: Wer programmiert die Algorithmen und welche Hardware braucht man für das Training? Dafür gibt es einige kostenlose Angebote online, zum Beispiel Tensorflow von Google oder Sagemaker von Amazon. Mit Sagemaker können Unternehmen recht einfach eigene Algorithmen für das maschinelle Lernen erstellen, die wahlweise in der Amazon Cloud oder auf einem eigenen Rechner ausgeführt werden. Etliche Algorithmen sind bereits fertig verfügbar, die man mit eigenen Daten füttern kann. So gibt es Algorithmen, die sich mit annotierten Bildern trainieren lassen, was für die optische Qualitätskontrolle interessant ist. Sind genügend Salamischeiben auf der Pizza, könnte zum Beispiel ein Pizzaproduzent fragen. Allerdings müssen diese Bilder zuvor annotiert werden, das heißt, irgendjemand muss in den Bildern markieren, ob Salamischeiben fehlen oder nicht. Dafür kann man einen Dienstleister wie Mighty-AI beauftragen, für solche Aufträge gibt es aber auch andere Crowdsourcing-Plattformen im Internet. Bernd Heisele: "Einfache Aufträge mit wenigen Annotierungen kann man mit wenigen Mausklicks online stellen."

(jle)