Intelligenter Hybrid-Sensor für autonome Autos

Mit einer Kombination aus Kamera, Lidar und künstlicher Intelligenz soll ein neuartiger Sensor bessere Daten für selbstfahrende Autos liefern: Er analysiert stets die Bereiche einer Straßenszene, die gerade am relevantesten sind.

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen
Start-up entwickelt intelligenten Hybrid-Sensor für autonome Autos

(Bild: AEye)

Lesezeit: 2 Min.
Von
  • Sascha Mattke

Eigentlich wollte Luis Dussan nur KI-Systeme für autonome Autos entwickeln, doch die auf dem Markt verfügbaren Sensoren lieferten nicht genügend Daten für seine Zwecke. Also gründete er das Start-up AEye, mit dem er jetzt einen neuartigen Hybrid-Sensor entwickelt. Das System arbeitet mit Kamera, Festkörper-Lidar und Chips, auf denen Künstliche-Intelligenz-Algorithmen laufen. Dadurch kann es stets die Bereiche einer Straßenszene in den Blick nehmen, die in der jeweiligen Verkehrssituation besonders relevant sind, berichtet Technology Review online in "Flexibel wie ein Mensch".

Mehr Infos

Die meisten derzeit entstehenden autonomen Autos sind mit mechanischen Lidar-Sensoren ausgestattet, bei denen Laserstrahlen von Objekten in der Nähe reflektiert werden, um präzise 3D-Karten des Umfelds zu erstellen. Die derzeit besten kommerziell erhältlichen Systeme stammen vom Marktführer Velodyne. Allerdings sind sie teuer und bieten nicht viel Flexibilität, weil die Laser mit festgelegten Winkeln arbeiten. Dadurch kann ein Auto beim Überfahren eines Hügels ein höchst detailliertes Bild des Himmels bekommen oder bei langsamen Stadtfahrten zu weit nach vorne blicken. Und es gibt keine Möglichkeit, das zu verändern.

AEye verwendet stattdessen deutlich billigeres Festkörper-Lidar, das aber während der Fahrt beständig so umprogrammiert wird, dass es Laserstrahlen auf wechselnde Fokus-Bereiche schießen kann. Noch verrät das Unternehmen nicht im Detail, wie präzise es die Strahlen steuern kann. Es will nach eigenen Angaben aber mit einer Winkelauflösung von nur 0,1 Grad in bis zu 300 Meter Entfernung blicken, was in etwa dem Standard bei den marktführenden mechanischen Systemen entspricht. Allerdings scannt das AEye-System dadurch nicht jederzeit das gesamte Umfeld detailliert. Es kann nur entweder alles mit geringerer Auflösung erfassen oder einen Ausschnitt mit höherer Auflösung.

Mehr dazu bei Technology Review online:

(sma)