Fast verkehrstauglich
Roboter meistern erstmals Verkehrsmanöver unter realistischen Bedingungen. In 20 Jahren, glauben KI-Wissenschaftler, werden sie besser fahren als wir.
- Erich Bonnert
Bei dem von der US-Militärforschungsbehörde Darpa organisierten Wettbewerb Urban Challenge sind sich erstmals fahrerlose Fahrzeuge und „richtige“ Autos in einem simulierten Straßenverkehr begegnet. Von den nach mehrtägigen Qualifikationsläufen aus 35 Kandidaten ausgewählten 11 autonom fahrenden Roboterautos kamen insgesamt 6 ins Ziel. Das Team der Carnegie Mellon University verwies die Stanford University, Sieger beim Grand-Challenge-Wüstenrennen 2005, auf den zweiten Platz, gefolgt von Virginia Tech. Zwischen den 50 Darpa-Autos, die von professionellen Stunt-Fahrern über den sechs Kilometer langen städtischen Parcours mit Kreuzungen, Kreiseln und Verkehrsschildern gesteuert wurden, fuhren nach Ansicht der Jury die drei besten stundenlang fehlerlos entsprechend der kalifornischen Straßenverkehrsordnung: „Ein historischer Meilenstein“, schwärmte Darpa-Direktor Tony Tether bei der Siegerehrung. „Man hat gar nicht mehr gemerkt, dass kein Mensch am Steuer saß.“
Der Albtraum aller Taxifahrer dürfte aber wohl noch nicht so bald in die Praxis umgesetzt werden. Zwar waren bei den drei Erstplatzierten keine wesentlichen Verkehrsverstöße zu beobachten. Lediglich der Drittplatzierte Victor Tango von Virginia Tech rumpelte einmal über einen Bordstein, fand danach aber wieder auf die Straße zurück und setzte die Fahrt sicher fort. Der Chevrolet Tahoe der Carnegie Mellon University legte das forscheste Tempo vor. Er bewältigte die geforderten fast 100 Kilometer Strecke in gut fünf Stunden reiner Fahrtzeit. Damit war er gut 20 Minuten schneller als Stanfords Passat Junior. Virginias Ford Escape, ein hybridgetriebener Geländewagen, folgte diesem mit nur fünf Minuten Abstand.
Erfolgreicher Test
Trotz dieser Erfolge war der Wettbewerb noch keine wirkliche Verkehrsprüfung, sondern ein Test unter kontrollierten Bedingungen. Stanford-Teamchef Sebastian Thrun, ein Informatiker von der Uni Bonn, der nun in Kalifornien forscht, stellte inmitten der Feierstimmung nach dem Renntag nüchtern fest: „Es werden noch viele Jahre vergehen, bis ein Roboter richtig im Straßenverkehr fahren kann.“
Schon die drei Nächstplatzierten fuhren deutlich unsicherer. Der Landrover der Universität MIT stieß gar bei einem Überholmanöver mit dem Auto der Universität Pennsylvania zusammen: Der Toyota „Little Ben“ hatte minutenlang ohne ersichtlichen Grund verharrt. Gerade als das MIT-Fahrzeug nach einem Überholmanöver wieder einscheren wollte, fuhr er los und es kam zum Crash. Trotzdem durften beide weiterfahren.
Mit dabei waren auch zwei deutsche Teams: Carolo von der Universität Braunschweig und Annieway, eine Karlsruhe-Münchener Kooperation, die von der DFG gesponsert wurde. Beide Teams wurden schon früh disqualifiziert. Während Carolos Passat aus unerfindlichen Gründen von der Fahrbahn abkam und in einem Sandhaufen stecken blieb, schien besonders dem Annieway-Team sein eigenes Ausscheiden nicht nachvollziehbar. Der silbergraue Passat „Annie“ war einfach nur mit blockiertem Rechner stehen geblieben, ohne Verkehr oder Sicherheit zu beeinträchtigen. Einen Neustart genehmigte die Darpa jedoch nicht, während andere Teams trotz klarer Verstöße ihre Mission fortsetzen durften.
Duell der Sensoren
Trotz solcher Misshelligkeiten dürfte die Woche voller Experimente aber jedem Teilnehmer unbezahlbare Forschungserfahrungen vermittelt haben. Ein Grundproblem autonomer Fahrzeuge ist die Sensordatenfusion: Position und Orientierung werden anhand der von der Darpa übergebenen Strukturdaten für die Kartenerstellung und der im Gelände verteilten GPS-Wegemarken im Zusammenspiel mit Echtzeit-GPS-Input ermittelt. Dazu kommen Messungen des Autos wie die eigene Geschwindigkeit, Drehungen und Neigungen. Marktgängige Systeme erzielen bei der Position eine Genauigkeit von unter 50 Zentimetern. CMUs Team brüstete sich gar mit Abweichungen von weniger als 10 Zentimetern.
Fast alle Teilnehmer setzten Lidar-Systeme zur Erkennung von Objekten und zur Abstandsmessung ein. Lidar ist dem Prinzip des Radars nachempfunden, nur dass dabei anstatt der Funksignale Lichtimpulse von einer Laserdiode gesendet werden. Reflektierte Lichtpunkte zeigen die Konturen von Objekten und sind Basis der Abstandsberechnung.
Die deutsche Firma Sick aus Waldkirch hat als Hersteller solcher Laserscanner bereits eine recht dominante Stellung. Neben industriellen Anwendungen werden sie von mehreren Autoherstellern schon für Fahrerassistenzsysteme und Einparkhilfen eingesetzt. Sick belieferte auch eine Großzahl der angetretenen Roboterbauer und hatte über ihre Hamburger Tochterfirma Ibeo selbst ein Fahrzeug im Wettbewerb. Ibeo hat einen besonders kompakten Laserscanner entwickelt und vollständig in die Stoßstangen eines VW Passat integriert. Der Ibeo-Roboter schaffte es nicht ins Finale, fand aber Anerkennung für die kompakte Bauweise der Sensorik und der drei Pentium-M-Rechner, die unter der Kofferraumabdeckung Platz fanden.
Erzkonkurrent von Sick und Ibeo ist die kalifornische Firma Velodyne, eigentlich ein Hersteller hochwertiger Lautsprecher und Subwoofer. Mit dem Team DAD hatte Velodyne beim Grand Challenge 2005 einen Roboter ins Rennen geschickt, um ein neuartiges, rotierendes Lidar-System zu erproben. Das Besondere ist die Integration von 64 Laserdioden, die gleichzeitig einen Umkreis von 120 Metern ausleuchten und auf mehreren Ebenen abtasten. Mit bis zu 1200 U/min entsteht so ein hochaufgelöstes Abbild der Fahrzeugumgebung. Mehr als 70 000 US-Dollar kostet ein Prototyp, sieben der elf Finalisten traten mit dem Velodyne-Lidar an. Sowohl Ibeo als auch Velodyne schicken sich nun an, ihre Ortungssysteme auf breiter Front zu vermarkten und nehmen im nächsten Jahr die Serienproduktion auf.
Beide Lasertypen liefern Punktwolken, zwischen denen der Roboter nach einem hindernisfreien Pfad späht. Rund zehn mal pro Sekunde werden diese Daten aktualisiert, um die Geschwindigkeit bewegter Objekte zu kalkulieren. Diese Frequenz entspreche ziemlich genau der menschlichen Wahrnehmung, erklärte Stanford-Forscher Thrun. Weitere Laserscanner, die nach vorne und zur Seite zeigen, nehmen die Fahrbahnmarkierungen durch ihren Kontrast zur Straßenoberfläche wahr.
Begrenzte Sicht
Als einziger Roboter aller 35 Teilnehmer der Urban Challenge verließ sich der Jeep des Teams Axion aus San Diego ausschließlich auf schwenkbare Videokameras. Axion scheiterte in der Qualifikation, nachdem er wohl als erster fahrender Roboter einen Zusammenstoß mit einem menschengelenkten Auto verursacht hatte. Der mit Surfbrettern beladene Geländewagen war in mehrfacher Hinsicht exotisch, wurde er doch von einer Playstation 3 gesteuert. Andere Roboter mit Video-Input unterstützten die Visualisierung meist mit Laserscannern, die zumindest Entfernungen bis zu 100 Meter abdeckten.
Allein die Analyse der sensorischen Datenströme verlangt schon enorme Computer-Leistungen. Im Vergleich zum siegreichen Stanley-Roboter von 2005 rechnet Stanfords Junior jetzt mit der vierfachen Kapazität. Zwei Quadcore-Server mit je 2 Gigahertz filtern aus der visuellen Datenfülle die Entscheidungen, ein Dualcore-Blade kümmert sich um die Steuerung. In CMUs Boss arbeiten zehn Dualcore-Prozessoren mit je 2,14 GHz. Und das Eliteinstitut MIT zwängte zehn Quadcore-Server in einen Landrover, der mit separater Stromversorgung und Klimatisierung umgerüstet werden musste, da allein die Rechner über 4 kW Leistung aufnahmen. Das Team Insight wiederum fand im winzigen Kofferraum ihres Lotus Elise Platz für neun Mac Mini nebst einer Kompaktklimaanlage. Senkrecht stehend über dem Heckmotor eingebaut, brauchten die 1,2-GHz-Apple-Rechner etwas Linderung von einem Minigebläse. Der Lotus schied allerdings in der Vorrunde wegen verschiedener Fahrfehler aus.
KI-Algorithmen machen den Fahrstil aus
Während die Hardware zwar oft hohe Budgets verschlingt, aber keine großen Geheimnisse birgt, entscheidet die von den Teams mühsam entwickelte Software über das Verhalten der Autoroboter auf der Straße. Alle Entwickler bauen natürlich auf jahrzehntelanger Vorarbeit in der Künstlichen Intelligenz auf, daher ist die Grundarchitektur auch oft sehr ähnlich. Praktisch überall sind getrennt entwickelte Module vorhanden, die dann zu einem System integriert werden. Ein Planungsmodul muss Entscheidungen - etwa Starten, Beschleunigen, Bremsen oder Abwarten - treffen und die Richtung wählen. Mapper oder Modellierer formen die ankommenden Sensordaten zu einem visuellen 3D-Modell der Fahrzeugumgebung. Ein Lokalisierungspaket übernimmt GPS-Koordinaten und die Struktur der Straßenkarten, um daraus eine möglichst exakte Route zu kalkulieren. Schließlich übersetzt ein Steuermodul die KI-Entscheidungen in Fahrmanöver. An der Fahrweise lassen sich dann Präferenzen und Fokus der Entwickler erahnen.
Genaueres erfährt man aber nicht, denn vom Einsatz der erfolgreichsten Algorithmen erhofft man sich lukrative Geschäfte. CMU-Chef William „Red“ Whittaker ließ sich nur entlocken, dass Boss innerhalb der zulässigen Grenzen auf die höchste Geschwindigkeit programmiert wurde. Schon mit der Software-Entwicklung für die frühere Grand-Challenge-Teilnahme habe CMU kommerzielles Interesse bei Firmen in der Landwirtschaft und im Bergbau gefunden, verriet Whittaker. Der Robotikpionier deutete an, dass schon bald Projekte mit Automobilherstellern spruchreif werden könnten. Ohnehin waren General Motors und Caterpillar an der Entwicklung von Boss bereits rege beteiligt. Das gesamte Projekt soll nach Schätzung mehrerer Konkurrenten um die 20 Millionen Dollar gekostet haben. Whittaker schwieg sich dazu aus.
Offener war Stanfords Entwicklungschef Thrun, der die Gesamtkosten für Juniors Teilnahme auf zwei Millionen Dollar bezifferte. Davon verschlangen ein Viertel allein die beiden Autos samt Hardware. Genau wie bei CMU und Virginia Tech wurden zwei identische Fahrzeuge gebaut. Obwohl auch Stanford keinen Programmcode veröffentlicht, gibt Thrun für die Robotikforschung aber eher gemeinnützige Ziele an. „Selbstfahrende Autos werden in der Zukunft jede Menge von Unfällen vermeiden helfen und tausende von Menschenleben retten.“ (anm) (anm)