Autonome Autos: Versuch und Irrtum

Kein Mensch kann einem autonomen Auto alle denkbaren Verkehrssituationen einprogrammieren. Deshalb sollen die Fahrzeuge künftig selbst dazulernen. Wie aber lernen sie das Richtige?

In Pocket speichern vorlesen Druckansicht
Lesezeit: 12 Min.
Von
Inhaltsverzeichnis

Die Computersimulation sieht auf den ersten Blick nicht sonderlich spektakulär aus – bis man begreift, dass es autonome Autos sind, die da auf einer stark befahrenen, vierspurigen virtuellen Autobahn fahren. Die Hälfte dieser Autos versucht, schneller zu fahren und von der rechten Spur nach links zu wechseln. Die andere Hälfte versucht, genau das Gegenteil zu tun. Scheinbar eine Aufgabe, die einen Computer zur Verzweiflung bringt, aber die autonomen Fahrzeuge auf dem Bildschirm lösen das Problem präzise und elegant.

TR 5/2017

Das israelische Unternehmen Mobileye zeigte diese Demonstration auf einer der größten Konferenzen für künstliche Intelligenz und maschinelles Lernen, der NIPS im Dezember 2016 in Barcelona. Das Erstaunlichste ist jedoch nicht, dass autonome Fahrzeuge die gezeigten Fähigkeiten besitzen. Wirklich verblüffend ist, dass die Software dieses Verhalten selbstständig gelernt hat – einfach nur durch Üben und Ausprobieren.

Mobileye ist auf Chips und Software spezialisiert, die Kamarabilder für Fahrerassistenzsysteme auswerten – um dort zum Beispiel Objekte zu erkennen. Dass Intel das Unternehmen jetzt für rund 15 Milliarden Dollar übernimmt, wirft nur eines von vielen Schlaglichtern auf die bemerkenswerten Fortschritte, die es in letzter Zeit beim autonomen Fahren gegeben hat: Die Google-Tochter Waymo lässt Versuchsfahrzeuge in Kalifornien fahren, Uber testete autonome Autos bis vor Kurzem in Pittsburgh, das Start-up nuTonomy ist mit autonomen Taxis in Singapur unterwegs.

Bezieht man akademische Projekte und die Ankündigungen namhafter Autohersteller mit ein, ließe sich die Liste nahezu beliebig fortsetzen. Die entscheidende Frage ist jedoch: Wer stellt sicher, dass die Systeme das Richtige lernen? Wenn Autos beginnen, Rückschlüsse aus dem Fahrverhalten anderer Fahrzeuge, aus Unfällen oder überraschenden Hindernissen zu ziehen: Wer kontrolliert, ob sie korrekt sind? Die Diskussion ist keineswegs so virtuell, wie das Mobileye-Beispiel es nahelegt. Was die Entwicklung so massiv vorantreibt, ist unter anderem eine neue KI-Methode namens Deep Learning.

"Seine Entdeckung ist die größte Verbesserung des autonomen Fahrens, die es je gegeben hat", sagt Jensen Huang, Mitbegründer und CEO von Nvidia, das gemeinsam mit Bosch an einem spezialisierten Steuerungscomputer für autonome Autos arbeitet. Das "Gehirn für autonome Autos" soll "spätestens Anfang der nächsten Dekade" in Serie gehen. "Als wir vor fünf Jahren über Deep Learning gesprochen haben, hielten uns alle für verrückt, aber sie waren zu höflich, um uns das zu sagen", ergänzt Huang. "Letztes Jahr hat sich alles geändert, als sich zeigte, dass es ein brauchbares Konzept ist."

Tatsächlich konnte Nvidia 2016 zum ersten Mal ein autonomes Auto präsentieren, das nur aus Kameradaten und Steuersignalen eines menschlichen Fahrers gelernt hatte, selbsttätig zu fahren. Der Zusammenhang zwischen Kamerabildern und dem Einschlagwinkel des Lenkrades verriet ihm beispielsweise, was es tun muss, um auf der Straße zu bleiben. "Level-3-Fähigkeiten", also hochautomatisiertes Fahren von Autos, sieht Huang daher bereits "Ende des Jahres" als realisierbar an. Vollautonomes Fahren bereits Ende 2018.

Die Einschätzung ist optimistisch, aber nicht aus der Luft gegriffen, wenn man die zahlreichen Veröffentlichungen, Präsentationen und Videos von Forschern und Entwicklern sieht. Manche Unternehmen nutzen neuronale Netze vor allem, um Sensordaten auszuwerten, Straßenränder, Schilder und andere Verkehrsteilnehmer zu erkennen. Tiefe neuronale Netze haben sich dabei nicht nur als schneller und zuverlässiger herausgestellt. Weil in ihren Schichten viele verschiedene Merkmale verarbeitet werden, erkennen sie beispielsweise Verkehrsschilder auch dann, wenn die durch parkende Laster am Straßenrand teilweise verdeckt werden. Die eigentliche Fahrsteuerung übernimmt dann ein eher herkömmliches, regelbasiertes System. Newcomer wie Drive.ai oder nuTonomy setzen hingegen radikal auf das "End-to-End-Learning", bei dem das neuronale Netz direkt die Kontrolle übernimmt.

Allerdings hat das Verfahren einen großen Nachteil: Man braucht extrem viele Daten, um das gewünschte Verhalten zu lernen. Die Nvidia-Entwickler zeichneten 72 Fahrstunden auf unterschiedlichen Straßen mit unterschiedlichen Wetter- und Beleuchtungsbedingungen auf. Das klingt nicht nach viel, aber jede Sekunde nimmt die Frontkamera zehn Bilder auf, die zusammen mit den Steuerdaten und zusätzlichen Informationen über die Fahreraktivität in die Trainingsdaten einfließen.

Spezialisierte neuronale Netze versuchen das Problem effizienter zu lösen. Sie verarbeiten die Eingabedaten zunächst in einer Art Vorstufe. Eine Methode dafür sind sogenannte konvolutionale neuronale Netze (CNN). Diese fassen Blöcke von Pixeln zusammen und können so leichter Strukturen in Bildern erkennen. Die zweite Variante sind rekurrente neuronale Netze (RNN). Sie fassen mehrere Bilder zusammen, die zeitlich direkt aufeinander folgen. Das Verfahren wird bisher vor allem in der Sprachverarbeitung benutzt, könnte autonomen Autos aber auch ermöglichen, einfache Verknüpfungen zwischen Steuerkommandos und Fahrverhalten zu lernen: Wenn ich das Lenkrad einschlage, fahre ich um die Kurve. Beide Verfahren sind aber noch in einem frühen Entwicklungsstadium. Bis zur Marktreife wird noch einige Zeit vergehen.

Weiter fortgeschritten ist das Verstärkungslernen. Es kopiert ein sehr einfaches Prinzip aus der Natur. Der Psychologe Edward Thorndike dokumentierte dieses Prinzip vor mehr als 100 Jahren. Er sperrte Katzen in Boxen, aus denen sie nur durch Drücken eines Hebels entkommen konnten. Nach zahlreichen Versuchen trafen die Tiere schließlich den Hebel durch Zufall. Nachdem sie gelernt hatten, dieses Verhalten mit dem gewünschten Ergebnis zu verknüpfen, entkamen sie zunehmend schneller.