Flexibel wie ein Mensch

Ein Start-up will mit einem neuartigen Hybrid-Sensor autonome Autos voranbringen. Mit einer Kombination aus Kamera, Lidar und Künstlicher Intelligenz soll er stets die wichtigsten Bereiche des Umfelds in den Blick nehmen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Jamie Condliffe
Inhaltsverzeichnis

Wer durch die Windschutzscheibe seines Autos schaut, hat eine andere Wahrnehmung der Welt vor sich als eine Dash-Cam. Was man sieht, verändert sich durch die Funktionsweise des menschlichen Gehirns – Details in der Mitte der Szene werden priorisiert, gleichzeitig behält man die Rändern im Blick, um Gefahren zu erkennen. Luis Dussan ist der Meinung, dass auch autonome Autos diese Fähigkeit haben sollten.

Sein Start-up AEye hat einen neuartigen Hybrid-Sensor entwickelt, der genau das leisten soll. Er besteht aus einem Festkörper-Lidar, einer Restlicht-Kamera und Chips mit Algorithmen für Künstliche Intelligenz (KI), die eine sofortige Umprogrammierung der Art und Weise ermöglichen, wie die Hardware genutzt wird. Dadurch kann das System priorisieren, auf was es achtet, so dass Fahrzeuge einen genaueren Blick auf ihre Umgebung bekommen.

Mehr Infos

AEye-Gründer und CEO Dussan hatte zunächst vor, KI für selbstfahrende Autos zu entwickeln, stellte aber bald fest, dass die auf dem Markt verfügbaren Sensoren nicht genügend Daten für seine Zwecke liefern. "Wir haben erkannt, dass wir unsere eigene Hardware bauen müssen", sagt er. "Also haben wir das gemacht."

Die meisten autonomen Autos sind mit Lidar-Sensoren ausgestattet, bei denen Laserstrahlen von Objekten in der Nähe reflektiert werden; auf dieser Grundlage entstehen präzise 3D-Karten des Umfelds. Die derzeit besten kommerziell erhältlichen Systeme stammen vom Marktführer Velodyne. Sie arbeiten mechanisch und tasten mit nicht weniger als 128 Laserstrahlen die gesamte Umgebung eines Fahrzeugs ab.

(Bild: AEye)

Doch selbst wenn sie gut funktionieren, haben solche mechanischen Systeme ihre Schwächen. Erstens sind die teuer. Zweitens bieten sie nicht viel Flexibilität, weil die Laser mit festgelegten Winkeln arbeiten. Dadurch kann ein Auto beim Überfahren eines Hügels ein höchst detailliertes Bild des Himmels bekommen oder bei langsamen Stadtfahrten zu weit nach vorne blicken. Und es gibt keine Möglichkeit, das zu verändern.

Die wichtigste Alternative ist Festkörper-Lidar. Hier wird ein Laserstrahl mit Hilfe von Elektronik so gesteuert, dass er ähnliche Daten liefert wie mechanische Geräte. Viele Unternehmen haben sich auf diese Technologie gestürzt, weil sie billig zu produzieren ist – Sensoren gibt es bereits ab 100 Dollar. Allerdings scannen sie immer dasselbe rechteckige Raster, und ihre Daten-Qualität reicht für das Fahren mit Autobahn-Geschwindigkeit nicht aus.

AEye will Festkörper-Lidar deshalb etwas anders einsetzen: Sie sollen so programmiert werden, dass sie Laserstrahlen stattdessen auf wechselnde Fokus-Bereiche schießen. Noch verrät das Unternehmen nicht im Detail, wie präzise es die Strahlen steuern kann. Es will nach eigenen Angaben aber mit einer Winkelauflösung von nur 0,1 Grad in bis zu 300 Meter Entfernung blicken können. Das entspricht in etwa dem Standard bei den marktführenden mechanischen Systemen.

(Bild: AEye)

Allerdings gibt es eine Einschränkung: Das System von AEye scannt nicht jederzeit das gesamte Umfeld detailliert. Es kann nur entweder alles mit geringerer Auflösung erfassen oder einen Ausschnitt mit höherer Auflösung.

Die Umprogrammierbarkeit dürfte aber dafür sorgen, dass es trotzdem nützlich ist. "Man kann jederzeit zwischen Auflösung, Wiederholungsrate und Reichweite wählen", sagt Dussan. "Ein und derselbe Sensor kann sich anpassen." Auf der Autobahn könnte er sich auf die Spur vor dem Fahrzeug konzentrieren und wie ein menschliches Auge weniger Datenpunkte aus der Peripherie sammeln. In der Stadt könnte der Sensor das gesamte Blickfeld abdecken, aber nach dem Zufallsprinzip wechselnde Bereiche genauer scannen, um möglichst kein Hindernis zu übersehen.

Die entscheidende Innovation aber liegt darin, wie die Kamera genutzt wird, um den Fokus des Lidars festzulegen. Weil auf den Chips Algorithmen zur schnellen Bilderkennung laufen, so Dussan, lässt sich der Lidar so steuern, dass er besonders auf Autos, Fußgänger oder alles andere achtet, dass die Bord-KI für wichtig erachtet.

Ein Nachteil aber bleibt: Der Sichtbereich des AEye-Sensor beträgt nur 70 Grad, so dass ein Auto für einen Rundum-Blick fünf oder sechs davon benötigen würde. Damit wird die Frage nach den Kosten wieder relevanter. Auf eine Zahl will sich Dussan derzeit nicht festlegen, aber er macht deutlich, dass er auf den Highend-Bereich abzielt. Er will also nicht mit Sensoren für 100 Dollar konkurrieren, sondern mit den hochauflösenden Geräten, wie sie von Velodyne angeboten werden.

(sma)