Testfahrt durch den Datendschungel

Künstliche Intelligenzen lernen in Simulationen, mit den Wechselfällen des realen Lebens umzugehen. Das spart Zeit, funktioniert angesichts der komplexen Wirklichkeit aber nicht fehlerfrei.

In Pocket speichern vorlesen Druckansicht
Testfahrt durch den Datendschungel

(Bild: Shutterstock)

Lesezeit: 7 Min.
Von
  • Christian J. Meier
Inhaltsverzeichnis

Das Lenkrad dreht sich von selbst, der Wagen wechselt mitten auf der Kreuzung auf die Rechtsabbiegerspur und kollidiert mit einem dort bereits eingefädelten Auto. Der Unfall verbiegt kein Blech. Denn er passiert auf einem Computerbildschirm des Start-ups Automotive Artificial Intelligence (AAI) in einem Berliner Hinterhofbüro.

Mehr Infos

"Natürlich würde niemand erlauben, Menschen zu gefährden", sagt AAI-Chef Intakhab Khan. Deshalb baut Khans Team das deutsche Straßennetz als eine Art realistisches Computerspiel nach. Darin können sich künstliche Agenten mit mehr oder weniger aggressivem Fahrstil austoben, um aus möglichst vielen Fehlern zu lernen. In der Simulation loten die Agenten die Möglichkeiten und Risiken des autonomen Fahrens aus, etwa inwieweit sie sich auf Sensoren verlassen können, deren Daten nicht immer eindeutig sind.

Zu den Hauptkunden des Unternehmens gehören mittlerweile Audi und eine chinesische Behörde namens CATARC (China Automotive Technology and Research Center), die eine Challenge für autonomes Fahren durchführt. Die Idee des virtuellen Übungsraums ist allerdings nicht auf Autos beschränkt. Rettungsroboter sollen im digitalen Klassenzimmer lernen, über Trümmer zum Einsatzort zu steigen, Rechner Erfahrung darin sammeln, Züge beim unerwarteten Ausfall einer Weiche so umzuleiten, dass im gesamten Streckennetz kaum Verspätungen entstehen.

Denn diese neuen KI-Anwendungen beruhen auf künstlichen neuronalen Netzen, die über Rückkopplungsschleifen lernen. Bei all ihren überraschenden Fähigkeiten haben sie aber einen großen Nachteil: Sie benötigen einen gigantischen Berg von Beispieldaten, bevor sie ein Fahrzeug sicher durch eine launenhafte Umwelt manövrieren können. Wer die dafür nötigen Informationen mit Sensoren direkt aus der Umwelt ziehen will, stößt daher rasch an Grenzen.

Die Realität ist so vielfältig, dass es viel zu lange dauern würde, alle denkbaren Varianten abzuwarten. In virtuellen Testfeldern hingegen lassen sich schier endlos viele Verkehrsszenen durchspielen. Die KI lernt durch Versuch und Irrtum, ohne Schaden anzurichten. Ähnlich wie im Flugverkehr, wo Piloten seltene Ernstfälle in Flugsimulatoren durchspielen, um für echte Gefahrensituationen gewappnet zu sein.

Der Zeitgewinn ist beträchtlich. "Wir können Millionen von Kilometern Trainingsfahrten in wenigen Monaten simulieren", sagt Khan. Die Schweizerischen Bundesbahnen (SBB) nutzen den Zeitraffereffekt, um künstliche Intelligenzen auf einem virtuellen Modell ihres Schienennetzes zu trainieren. Das Ziel: ein automatisiertes Zugplanungssystem, das auf unerwartete Zwischenfälle reagiert. "Ohne Simulation bekommen wir pro Jahr nur 365 Beispiele für den Betrieb auf dem Schweizer Bahnnetz", erklärt Adrian Egli, Mitglied eines fünfköpfigen Teams der Plattform für Forschung und Innovation der SBB. Der Computer hingegen spiele binnen weniger Wochen 65 Millionen Jahre Netzbetrieb durch. Die künstliche Intelligenz lernt, bei Verspätungen, kaputten Weichen oder blockierten Strecken den Bahnverkehr schnell zu stabilisieren.

Das funktioniert ganz ohne menschliche Anleitung, dank einer Methode namens "bestärkendes Lernen". Für Schlagzeilen sorgte die Vorgehensweise, als Google-Tochter DeepMind mit diesem Ansatz die Software AlphaGo Zero trainierte. Indem es immer wieder gegen sich selbst antrat, entwickelte das Programm im asiatischen Brettspiel Go eine Meisterschaft, die das Können der besten menschlichen Go-Spieler weit übertraf.

Um das Verstärkungslernen auf den Verkehr anzuwenden, gibt Khan dem intelligenten Software-Agenten ein Ziel vor – etwa in einer virtuellen Umwelt voller Hindernisse möglichst schnell von A nach B zu kommen. Für Schnelligkeit wird der Agent mit Punkten belohnt. "Wenn er aber einen Unfall verschuldet, bekommt er Minuspunkte", erklärt Khan. Dabei übertrumpfen die künstlichen Intelligenzen den Menschen inzwischen schon. Weil etwa die Software der SBB Millionen von Varianten durchspielt, entdeckt sie Strategien, die Zugplanern wegen der enormen Komplexität des Systems nicht zugänglich sind.

Dennoch bleibt nach solchen Simulationen immer eine kritische Frage: Funktioniert die KI auch in echt? Reale Straßen, Schienen oder Werkshallen sind schließlich wesentlich komplexer als solche aus Bits und Bytes. Was sich virtuell bewährt, kann in der Wirklichkeit krachend scheitern. Experten sprechen vom "Reality Gap", zu Deutsch "Wirklichkeitslücke".

TR 04/2018

(Bild: 

Technology Review 04/2018

)

Dieser Beitrag stammt aus Ausgabe 04/2018 der Technology Review. Das Heft ist ab 22.03.2018 im Handel sowie direkt im heise shop erhältlich. Highlights aus dem Heft:

Mit diesem Phänomen hatten zum Beispiel Forscher von Google zu kämpfen. Sie wollten einem neuronalen Netz beibringen, wie Greifroboter beliebig geformte Gegenstände packen. Anschließend sollte das Programm solche Roboter steuern. Dazu zeigten die Entwickler der Software Fotos von Greifversuchen an etwa tausend unterschiedlichen Objekten: Schere, Bauklotz, Kugelschreiber – insgesamt mehr als neun Millionen Aufnahmen.

Im nächsten Schritt versuchten sie, diesen Aufwand zu verringern. Statt Unmengen an Bildern als Lernbeispiele zu zeigen, simulierte das Team einen Teil der Greifversuche – jedoch mit wenig Erfolg. Die virtuellen Gegenstände waren mit ihren glatten, formlosen Oberflächen zu unrealistisch. Sie verringerten die Gesamtsumme der nötigen Fotos kaum.

Daher gestalteten die Forscher die Cyberobjekte im zweiten Anlauf realistischer, überzogen sie mit einer Patina, Abnutzungsspuren oder Kratzern. So ließ sich die Zahl der notwendigen Bilder von realen Greifversuchen von neun Millionen auf nur noch knapp 200000 reduzieren.

Wie wichtig der Abgleich mit der Wirklichkeit ist, wissen auch die Forscher der Schweizerischen Bundesbahnen. Sie prüfen ständig, wie realitätstauglich die Lösungen ihres noch in der Entwicklung befindlichen Zugplanungssystems sind. "Wir sind im engen Dialog mit Zugdisponenten und Lokführern", sagt Teamleiter Dirk Abels. Die Software soll menschliche Disponenten nicht ablösen, sondern nur Lösungen vorschlagen, erklärt der Forscher.

Khans Team von AAI bemüht sich ebenfalls um Realitätsnähe. Seine Verkehrssimulation enthält neben Fahrzeugen auch andere Bausteine einer wirklichkeitsgetreuen Straßenkulisse wie Fußgänger, Verkehrsschilder, Gebäude, Schatten, Straßenglätte durch Schnee, unterschiedliche Tageslichtverhältnisse und Laternen inklusive Lichtkegeln.

Sogar die Mängel der Sensoren eines autonomen Wagens kann das Modell abbilden. Videokameras oder das Laserradar Lidar arbeiten nämlich keineswegs immer zuverlässig. Das musste der amerikanische Elektroautobauer Tesla 2017 schmerzvoll erfahren. Vor dem Hintergrund eines hellen Himmels übersah ein Modell S einen quer stehenden weißen Lkw. Die Folge war ein tödlicher Unfall. Simulationen können solche Sensorlücken zwar nicht schließen – aber aufspüren und damit Gefahren aufzeigen. "Wir können die Grenzen der Sensoren ausloten", sagt Khans Mitarbeiter Oliver Grimm. Als Beispiel nennt er einen Tunneleingang.

Dieser wird normalerweise von Lidar oder Radar erkannt, bei starkem Schneefall oder Nebel entstehen aber Echos, die den Sensor "verwirren", wie Grimm sagt. AAIs Simulation erlaubt es nun, das Szenario mit simulierten Sensordaten vielfach durchzuspielen: mit mehr oder weniger Schnee, engeren oder breiteren Tunneleinfahrten. Der Vergleich mit der virtuellen Realität erlaubt dann Rückschlüsse darauf, wie belastbar die Sensordaten sind.

Vollständig schließen lässt sich die Wirklichkeitslücke dennoch nicht. "Die Realität ist sehr erfindungsreich", sagt Khan. Die simulierten Fahrten könnten aber dabei helfen, besonders schwierige Situationen zu identifizieren, die dann mit echten Testfahrten nachtrainiert werden müssten.

(bsc)