Google will die autonomen Autos menschlicher machen

Probleme macht, dass die Software zu rigide Regeln beachtet, nun sollen auch mal Kurven geschnitten und Fahrbahnbegrenzungen überfahren werden

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Vor kurzem war bekannt geworden, dass die Unfälle, in die die autonom fahrenden Google-Autos auf den Testfahrten verwickelt, sind, in der Regel damit zu tun haben, dass der Fahrer die Steuerung wieder übernommen oder ein anderes, von einem Menschen gelenktes Auto aufgefahren ist. Von 16 Unfällen ist 12 Mal ein anderes Fahrzeug auf das Google-Auto gefahren. Google schien das erst einmal so zu interpretieren, dass die Steuerungs-Software im Prinzip in Ordnung ist, aber die Einwirkung von Menschen Probleme mit sich bringt (Von autonomen Fahrzeugen und Menschen).

In einem Fall hatte die Software den "Sicherheitsfahrer" signalisiert, der das Auto steuerte, auf die Bremse zu steigen, um einen Fußgänger über einen Fußgängerüberweg gehen zu lassen, der nur in die Nähe des Übergangs gekommen war. Entweder geschah die Bremsung dann zu plötzlich oder der Lenker des dahinterfahrenden Autos hatte mit der Bremsung nicht gerechnet, jedenfalls fuhr er auf das haltende Google-Auto drauf. Ist also das Problem mit den autonomen Fahrzeugen, die so vorsichtig, aufmerksam und diszipliniert fahren, dass theoretisch fast keine Unfälle mehr passieren sollen, nur die Interaktion mit Fahrzeugen, die noch von Menschen gelenkt werden? Wäre alles sicher, wenn nur noch autonome Fahrzeuge unterwegs wären, konsequent schon auf potentielle Gefahren defensiv reagieren und sich während der Fahrt absprechen?

Autonomes Google-Fahrzeug. Bild: Sam Churchill/CC-BY-SA-2.0

Es gab aber noch ein andere Problem, das zu keinem Unfall führte, aber eine Schwierigkeit aufzeigte, nämlich dass autonome Fahrzeuge zu regelbesessen und vorsichtig fahren. So blieb ein Google-Auto an einer Kreuzung stehen, weil die anderen, von Menschen gelenkten Autos nicht stoppten, sondern langsam weiterfuhren, während die Fahrer beobachteten, was die anderen Fahrer/Fahrzeuge machen. Das ließe sich sicher auch software-seitig lösen, indem die Fahrzeuge sich auf der Grundlage einer Regel absprechen, aber wie "sprechen" in einer Übergangszeit KI-Programme mit Menschen? Allerdings hat das erste Beispiel schon gezeigt, dass auch in Zukunft autonome Fahrzeuge mit Fußgängern und Fahrradfahrern konfrontiert sein werden, also mit Systemen, die zwar Regeln (und manchmal nicht) kennen, aber die sich auch mal nicht daran halten oder schlicht nicht aufpassen.

Bei Google ist man schon aufgewacht, wie das Wall Street Journal berichtet. Man will jetzt nicht nur, dass die autonomen Fahrzeuge die Regeln beachten, sondern sie sollen auch gewisse Regeln verletzen oder nicht so genau beachten, wodurch sie flexibler und - nun ja - menschlicher werden. Die Software sei "vorsichtiger, als sie sein müsste", wird Chris Urmson von Google zitiert. Er sagte bereits im Juli, man werde versuche, dass "sie menschlicher fahren". Das ist eine Kehrtwende, schließlich sollten die Fahrzeuge auch deswegen sicherer sein, weil sie nicht menschlichen Schwächen und Regelverletzungen unterliegen. Werden die autonomen Fahrzeuge menschlicher, dann werden sie womöglich auch riskanter und eigenwilliger.

Klar, die Google-Autos sollen jetzt nicht unkonzentriert und wild fahren, sich Kämpfe mit anderen Fahrzeugen liefern, auf ihre Rechte pochen und die Langsamen beiseitedrängen. Es geht nur um ein wenig mehr Eleganz. Sie sollen Kurven nicht unbedingt ausfahren, sondern sie auch mal anschneiden, wenn es sein muss, beispielsweise angesichts eines parkenden Fahrzeugs auf der Fahrspur, auch mal eine Fahrbahnbegrenzung (in Deutschland: durchgehender Strich) überfahren oder auch schneidiger in Kreuzungen fahren.

Nach Jen-Hsun Huang vom Unternehmen Nvidia, das die Grafikprozessoren entwickelt, mit denen die Google-Autos Objekte erkennen, ist das Problem ganz einfach, dass diese wie Computer fahren - und die menschlichen Fahrer, die einer anderen Logik folgen, dann aufprallen lassen. Beim Linksabbiegen an einer Kreuzung wird von den Autos eine minimale Entfernung vom entgegenkommenden Verkehr beachtet - und sie fahren dann weite Kurven. Menschen würden riskanter fahren, die weiten Kurven würden sie zudem irritieren. Jetzt also fahren die Autos beim Abbiegen engere Kurven und beachten auch mal nicht, dass sie eine durchgezogenen Mittelstreifen nicht überfahren dürfen, um zu vermeiden, ewig wegen eines parkenden Fahrzeugs stehen zu bleiben. An Kreuzungen halten die Google-Fahrzeuge jetzt auch nicht mehr, sondern fahren langsam darauf zu, um zu vermeiden, erst dann die Kreuzung z überqueren, wenn kein anderes Fahrzeug mehr zu sehen ist: "Google baut nun menschliche Flexibilität und Interpretation in weitere ungewöhnliche Fälle ein. Wenn eine Ampel ausfällt und andere Fahrzeuge die Kreuzung als eine Kreuzung gleichrangiger Straßen behandeln, werden die Google-Autos dies erkennen und entsprechend handeln", schreibt WSJ.

Mehr Intelligenz, mehr Risiko?

Schön, kann man sagen, es wird also ein bisschen mehr situative Intelligenz eingepflegt, womit einige Regeln entschärft werden. Aber das ist ein mühsames Geschäft, solange die Software nicht autonom lernen kann, wie sie am besten das Fahrzeug steuert. Das aber würde nur durch Versuch und Irrtum geschehen können, was bedeutet, dass es auch tödliche Unfälle geben könnte. Das darf natürlich nicht passieren, bevor autonome Fahrzeuge für den Straßenverkehr massenhaft zugelassen werden. Also muss man jetzt Fall für Fall "flexibilisieren", d.h. Vorsichtsmaßnahmen weniger rigide handhaben. Das aber könnte auch dazu führen, dass schon diese geringfügige Humanisierung der Autoroboter diese risikoanfälliger macht.

Menschen entscheiden aus Erfahrung und intuitiv, natürlich auch mit neuronalen Berechnungen, ob sie etwas machen oder nicht. Dahinter stecken Interessen. Man hat Lust am Kitzel, will schnell ans Ziel kommen, ärgert sich über andere Fahrer, setzt das eigene Interesse erst einmal vor dem der Anderen, will aber auch Unfälle vermeiden. Das macht den Verkehr gefährlich oder führt zu Staus, aber ermöglicht auch eine Flüssigkeit, die pur regelgeleitetes Verhalten nur dann besitzt, wenn alle ebenso strikt den Regeln folgen. Mehr und mehr wir in Städten mit "shared spaces" experimentiert, also mit Verkehrswegen, auf denen alle Verkehrsteilnehmer - Fußgänger, Fahrradfahrer, Autofahrer etc. - gleichberechtigt sind, also vorsichtig sein und sich in der Bewegung "absprechen" müssen. Das senkt die Geschwindigkeit, erhöht aber die Sicherheit. Wären autonome Fahrzeuge dazu imstande?

Von Florian Rötzer gerade zum Thema Stadt erschienen: Smart Cities im Cyberwar.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.