"Das Auto muss lernen"

Sebastian Thrun, Professor für künstliche Intelligenz an der Stanford University und Gewinner der "DARPA Grand Challenge", über computergesteuerte Fahrzeuge.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 12 Min.

Der erste Sieg eines Schachcomputers über einen menschlichen Schachweltmeister im Jahr 1997 schien den Propheten der KI-Forschung recht zu geben. Doch ähnlich spektakuläre Erfolge blieben lange aus – bis ein Team der Stanford University 2005 die mit einer Million Dollar dotierte "DARPA Grand Challenge" gewann, das Rennen autonomer Fahrzeuge über 212,8 Kilometer Wüstenstrecke.

Das Erfolgsgeheimnis von Teamleiter Sebastian Thrun, Professor für künstliche Intelligenz an der Stanford University: maschinelle Lernalgorithmen. Im TR-Interview spricht Thrun über die von ihm verwendete Technologie und wie er den nächsten Wettbewerb, die "DARPA Urban Challenge", gewinnen will.

Technology Review: Man könnte vielleicht sagen, dass nach Deep Blue, der das erste mal einen menschlichen Schachweltmeister geschlagen hatte, der Grand Challenge - das Rennen autonomer Fahrzeuge durch die Wüste - das erste Ereignis war, bei dem für die Öffentlichkeit wieder ein Fortschritt in der künstlichen Intelligenz sichtbar geworden ist. Können Sie kurz zusammenfassen, warum das Maschinenlernen an dieser Stelle so erfolgreich war, wo andere versagt haben?

Sebastian Thrun: Es ist einfach so, dass ein Auto robust mit Situationen umgehen muss, die man vielleicht vorher gar nicht durchdacht hat. Nehmen Sie das Wüstenfahren zum Beispiel: Was ist wenn links ein kleines Kliff ist und rechts ein Kaktus steht. Das ist vielleicht eine Situation, die dem Programmierer gar nicht in den Kopf gekommen ist. Beim klassischen Programmieren muss der Programmierer alle Gegebenheiten, die vorkommen können, quasi vorher bereits durchdenken. Aber für jede mögliche Situation eine Regel zu schaffen, ist nicht einfach - besonders wenn es um so etwas Komplexes geht, wie das Fahren durch die Wüste.

Im Maschinenlernen ist es so, dass man Beispiele schafft, dass man also beispielsweise von Hand Strecken abfährt. Und was das Fahrzeug dann selbst macht, ist, die eigenen Regeln zu finden - das heißt, das Fahrzeug abstrahiert von sich aus. Und der Grund, warum das schneller ist, als sich von einem Programmierer Regeln vorgeben zu lassen, ist einfach, dass eine Maschine wesentlich schneller mehr Daten verarbeiten kann.

TR: Ich brauche also auch immer Trainingsdaten?

Thrun: Das auf jeden Fall. Wir haben das Verfahren beispielsweise zur Geschwindigkeitssteuerung eingesetzt, indem wir dem Fahrzeug vorgemacht haben, wie schnell wir normalerweise fahren. Diese Geschwindigkeitssteuerung war sehr wichtig, denn wenn man zu langsam fuhr, konnte man das Rennen nicht gewinnen. Wenn man aber zu schnell fuhr, bestand die Gefahr, das Fahrzeug kaputt zu machen, weil der Boden teilweise sehr uneben war.

TR: Für das nun kommende neue Rennen verwenden Sie auch wieder Maschinenlernen?

Thrun: Ja, und zusätzlich so genannte probabilitische Verfahren, die im Moment auch sehr modern sind in der KI. Die Sensoren sind oftmals nicht in der Lage, autorativ festzustellen, was nun wirklich der Fall ist. Manchmal gibt es mehrere Hypothesen - es kann beispielsweise sein, dass wir nicht genau wissen, ob wir ein fahrendes oder stehendes Auto wahrnehmen. Da setzen wir die probabilistischen Verfahren ein, um beide Möglichkeiten zu betrachten und eine Schlussfolgerung zu ziehen, die robust ist, auch wenn unsere Sensoren nicht genau sind.

Ein Mensch weiß sehr genau, wann er nichts weiß - wir können damit sehr gut umgehen. Die Roboter haben bisher immer so getan, als ob sie alles wüssten. Wenn ich aber nur so tue, als ob ich alles weiß, mache ich sehr schnell Fehler. Unsere Arbeit versucht diese Fehler loszuwerden.

TR: Ich muss das System aber doch immer wieder nachschulen, oder? Und wie löse ich das Problem, dass die Maschine nicht - wie ein Mensch - im Laufe der Zeit Dinge wieder vergisst?

Thrun: Also erstmal gibt es natürlich jede Menge Formen des maschinellen Lernens. Das Vergessen ist längst gehandhabt. Aber dem Grundtenor Ihrer Aussage stimme ich sehr zu. Man nennt das "Overfitting" - die Maschinen dürfen sich nicht zu sehr auf die Trainingsdaten spezialisieren, weil sie sonst, wenn neue Situationen auftauchen, nicht richtig reagieren. Das ist ein altbekanntes Phänomen - es nennt sich auch "Bias/Variance"-Dilemma. Um das zu lösen, schränkt man das ein, was die Maschine lernen kann - man sorgt dafür, dass die Regeln, die die Maschine finden kann, nicht zu komplex werden.

TR: Auch wenn die Aufgabenstellung im nächsten DARPA-Rennen komplexer ist, ist die Situation ja immer noch künstlich. Meinen Sie, wir werden irgendwann autonome Fahrzeuge im ganz normalen Straßenverkehr haben?

Thrun: Das ist natürlich unsere ganz große Hoffnung. Deswegen machen wir das ja. Der Grund, weshalb wir glauben, dass das eine Zukunft hat, ist der, dass Fahren gar nicht so schwierig ist, wie manche Leute sich das vorstellen. Gerade in einer Umgebung wie der Autobahn ist das Fahren relativ einfach.

Wenn man sich andererseits die Zahlen ansieht: Auf der ganzen Welt verlieren wir jährlich rund eine Million Menschen durch Verkehrsunfälle. Fast alle diese Verkehrstoten werden durch Fahrfehler verursacht: Zu schnelles Fahren, alkoholisiertes Fahren, mal eben das Telefon beantworten. Das ist eine Riesenzahl. Aus diesem Grunde glaube ich, dass ein selbstfahrendes Fahrzeug die Unfallzahlen gewaltig senken kann. Ein selbstfahrendes Fahrzeug würde zudem in der Lage sein, Blinden das Fahren zu ermöglichen, sehr alten Leuten und auch Kindern.

Und wenn man guckt, wie dicht Autos wirklich fahren - obwohl die Autobahnen wirklich ausgelastet sind, sind rund 92 Prozent der Autobahnen die meiste Zeit frei. Das ist der Platz zwischen den Autos. Es gibt sehr realistische Untersuchungen, dass man die Autos durch autonomes Fahren sehr viel dichter zusammenrücken lassen könnte. Der große Vorteil wäre, dass man die Autobahnen besser auslasten könnte - und die Autos gleichzeitig schneller fahren könnten.

TR: Was müsste man technisch bewerkstelligen, um diese Visionen zu realisieren? Gibt es da noch prinzipielle Hürden, oder müsste man die aktuelle Entwicklung nur fortschreiben?

Thrun: Ich glaube, es ist beides. Ich glaube, dass es in den letzten Jahren einen großen Schub nach vorne gegeben hat. Aber da ist noch viel zu holen, indem man die Systeme klüger aufbaut und besser trainiert, mit einem größeren Repertoire an Möglichkeiten, auch sehr unwahrscheinliche Situationen anzugehen. Das ist eine nicht triviale Aufgabe.

Wenn man sich die Statistiken so anschaut, dann fährt das Roboterauto vielleicht 100 Meilen und der Mensch vielleicht 10.000 Meilen, bevor er einen Unfall baut. Da sind also noch mehrere Größenordnungen dazwischen, bevor man sich brüsten kann, das Problem gelöst zu haben. Ich denke aber, wir werden in ungefähr acht Jahren soweit sein, dass das Auto auf Autobahnstrecken zuverlässiger geworden ist als der Mensch.

Und dann wird es spannend zu sehen, was das für Implikationen hat. Es gibt zum Beispiel im Moment rein juristisch keine Möglichkeit, Autos autonom im Straßenverkehr fahren zu lassen. Da gibt es beispielsweise Haftungsfragen, die zu klären sind. Ich denke, da muss der Gesetzgeber noch eine Menge leisten, um diese Probleme zu lösen.

TR: Mehr Situationen zu trainieren ist nicht trivial, sagten Sie. Wie machen Sie das denn?

Thrun: Wir geben dem Fahrzeug mehr und mehr Wissen über sich selbst und die Umgebung. Das Fahrzeug soll immer besser verstehen, was eine Spur ist, eine Fahrbahnmarkierung oder ein anderes Auto. Mit diesen Tricks werden bestimmte Situationen immer besser eingeschätzt. Bei der Urban Challenge müssen wir ja mit Verkehr umgehen, das ist ein großer Unterschied zum ersten Rennen. Das zweite ist, dass wir dem Auto beibringen, mit immer mehr Situationen vernünftig umzugehen.

TR: Das heißt? Geben Sie dann Ziele vor?

Thrun: Das Problem ist nicht das Vorgeben der Ziele, um ehrlich zu sein. Das Problem ist eher das Wahrnehmen der Umgebung. Wir haben jetzt festgestellt, dass wenn man den Verkehrsregeln wörtlich folgen würde, es ganz oft vorkäme, dass man einfach stehen bleibt und nie wieder weiterfährt.

Wenn zum Beispiel zwei Autos gleichzeitig an einer Kreuzung ankommen, gibt es eine gewisse Chance, dass beide denken, dass sie als zweites angekommen sind. Die stehen dann für alle Ewigkeiten da. Im Moment arbeiten wir also wirklich hart daran, dem Roboter die diffizilen Möglichkeiten des Regelbrechens einzuarbeiten.

TR: Ich denke, dass gerade autonome Roboter ein sehr dankbares Feld für Ihre Schule der künstlichen Intelligenz sind. Gibt es darüber hinaus Anwendungen, wo das Maschinenlernen ähnlich richtungsweisend ist?

Thrun: Ja, jede Menge. Die größte, die ich kenne, ist Google. Das meiste, was da passiert, hat mit Machine Learning zu tun. Schon die ursprüngliche Idee der beiden Google-Gründer war, von Menschen zu lernen, welche Webseiten denn wichtig sind - man guckt, welche Webseiten Menschen als wichtig erachten. Damit ist Google groß geworden.

In letzter Zeit haben sie nun sehr viel mit maschineller Übersetzung gemacht. Die Art und Weise, wie diese Übersetzungen zu Stande kommen, hat nichts mehr mit Linguistik zu tun. Google ist für künstliche Intelligenz eine ganz, ganz große Erfolgsgeschichte. Ich habe Sergey Brin erst kürzlich getroffen - er hat einen Vortrag für einige Professoren gehalten und wurde dann in der Diskussion gefragt, was für ihn die wichtigste technische Entwicklung der nächsten Hundert Jahre wäre. Und er hat ohne zu Zögern gesagt: "Human level artificial intelligence" - also menschliche Fähigkeit des Wahrnehmens und des Denkens.

Ich gebe Ihnen ein anderes Beispiel: Die Biologie. Die Algorithmen, die eingesetzt werden, um Gene zu verstehen, kommen alle aus der künstlichen Intelligenz und sie sind verwandt mit dem, was Google macht, um Webseiten zu verstehen - und auch sehr verwandt mit dem, was wir machen, um Autos fahren zu lassen. Das sind alles Lernalgorithmen, die sich große Datenmengen anschauen und daraus Schlussfolgerungen ziehen.

TR: Im letzten Jahr ist anlässlich des 50jährigen Jubiläums der KI-Forschung diskutiert worden, verschiedene Ansätze wie Maschinenlernen und regelbasierte Verfahren miteinander zu verknüpfen. Was halten Sie von dieser Idee?

Thrun: Jede Art, Wissen zu erlangen, ist gut. Wenn jemand Regeln kennt, ist das gut - und wenn man große Datenmengen hat, ist das auch gut. Es ist natürlich schon so, dass Maschinenlernen im Moment die größeren Erfolge zeigt.

Ich denke aber, auf lange Sicht wären wir dumm, wenn wir nur einen Ansatz verfolgen. Ich habe Doktoranden, die gerade an einer Symbiose aus beiden Verfahren arbeiten - die also schauen, was man mit regelbasierten Systemen und Machine Learning gemeinsam machen kann.

TR: Was ist das für ein Projekt?

Thrun: Ich habe einen Doktoranden, der ein Kamerasystem baut, das einen Menschen beobachten kann und von sich aus lernt, was der Mensch für Aktivitäten ausführt. Die Art und Weise, wie das System dieses Wissen in Regeln ausdrückt, macht es möglich, neues Wissen abzuleiten.

TR: Glauben Sie, dass man die Vision der Urväter der KI, irgendwann eine denkende Maschine zu bekommen, wirklich realisieren kann?

Thrun: Das hängt sehr davon ab, was Sie als Denken bezeichnen. Wenn man Denken sehr eng sieht - mehr wie Schach spielen oder das Multiplzieren sehr großer Zahlen - dann haben uns Computer schon längst überholt. Wenn wir Denken aber universaler sehen - da gibt es eine Menge neuer Erkenntnisse in der Hirnforschung, was das Denken eigentlich ausmacht.

Ich bin immer ein wenig ambivalent, was das Thema anbetrifft. Auf der einen Seite ist das natürlich ein schöner Gedanke, die menschliche Intelligenz zu replizieren - und damit zu verstehen. Auf der anderen Seite hat man natürlich nur sehr wenig Nutzen davon.

Die meisten Systeme, die wir wirklich brauchen, sind Systeme, die orthogonal zu uns sind. Ein Auto ist deswegen ein sehr praktisches Fortbewegungsmittel, weil es Dinge kann, die der Mensch nicht kann. Wenn wir die menschliche Art der Fortbewegung replizieren würden, und alles mit Beinen bauen, dann wären die quasi nutzlos für uns. Das gleiche gilt eigentlich auch für die universale Intelligenz. Wir bauen intelligente Systeme unter anderem, um uns zu komplementieren. Ein Taschenrechner hilft uns etwa, bestimmte Defizite unserer Intelligenz auszugleichen. (bsc)