Die Qual der Wahl: Sensortechnologien für Assistenzsysteme

Inhaltsverzeichnis

Der steigt spätestens 2016, wenn im Testverfahren Notbremssysteme aufgenommen werden, die auch Fußgänger schützen. Lidar allein wird dann nicht mehr genügen, man wird dann entweder mit einer hochwertigen Einzelsensorik wie Radar oder Stereokamera oder mit Mehrfachsensorik in Verbindung mit einer Sensorfusion arbeiten. Ein lebensnahes Beispiel dafür ist Contis neues Sensormodul SRL-CAM400, das in einer kompakten Baueinheit einen Infrarot-Lidar und eine CMOS-Kamera verbindet. Sie kann bis zu einer Geschwindigkeit von 72 km/h die Daten für eine Notbremsung liefern. Bis zu einer Geschwindigkeitsdifferenz von 40 km/h können dabei Unfälle vermieden, ansonsten immerhin der Aufprall gemildert werden.

Sensorfusion im Low-Cost-Bereich

Der Lidar-Sensor sendet drei gepulste IR-Strahlen mit 905 Nanometer Wellenlänge aus und misst die Laufzeit bis zum Eintreffen der reflektierten Strahlen an der Empfangsoptik. Erfasst wird eine Strecke von über zehn Metern vor dem Fahrzeug. Es handelt sich somit um ein Short-Range-Lidar-System. Aus der Lichtgeschwindigkeit und der Laufzeit errechnet die SRL-CAM400 die Distanz zum Objekt mit bis zu 10 Zentimeter Genauigkeit. Die Kamera liefert darüber hinaus die Daten, um das Objekt zu klassifizieren. Der verwendete Prozessor und die Qualität der Erkennungsalgorithmen sind dafür verantwortlich, wie gut die Bilderkennung funktioniert.

Die Beschränkungen dieser Technik sind offenkundig: Sie ist gezielt auf kurze Distanzen ausgelegt, aber vergleichsweise preisgünstig. Die besten Ergebnisse bringen laut Conti eine Stereokamera oder die Verbindung aus Radar und einer Monokamera – Stereo ist in dieser Kombination nicht erforderlich. Wofür man sich entscheidet, hängt auch davon ab, was man sonst noch mit Kamera und Co. umsetzen möchte, schließlich gibt es auch Funktionen wie eine Verkehrsschild-Erkennung oder die Adaptive Cruise Control usw. Und in Zukunft werden weitere Funktionen hinzukommen, weil die Entwickler immer neue Wege der Bilderkennung finden und diese auch nutzen können, weil sich die Leistung der Prozessoren weiter verbessert.

Ein vielleicht nicht ganz so spektakuläres Beispiel, welches Continental uns ebenfalls vorführte, ist die Erkennung von Zebrastreifen. Das klingt trivial, aber die Bilderkennung muss dazu in der Lage sein, das Muster des Zebrastreifens in unterschiedlichen Perspektiven zuverlässig zu erkennen. Und was soll das? Das Erkennen von Zebrastreifen könnte zum Beispiel für die Vorkonditionierung von Bremsen verwendet werden, weil dort Fußgänger die Straße zu überqueren pflegen. Beeindruckender war die Demonstration eines Bordstein-Assistenten. Auch hier werden die Daten einer Kamera genutzt, um Bordsteine ab einer bestimmten Höhe zu identifizieren. Wir steuerten ein mit dieser Technik ausgerüstetes Fahrzeug gezielt Richtung Bordstein und die Lenkung führte uns mit sanftem Gegendruck wieder gezielt auf den rechten Weg. Das Ganze funktioniert derart unauffällig, dass die Beifahrer nichts davon mitbekommen.

Ausweichen statt Bremsen

Ebenfalls imponieren konnte die Demonstration eines weiterentwickelten Fußgängerschutzsystems. Zunächst – das ist Stand der Technik – bremste das Fahrzeug selbsttätig, als ein Fußgänger vor uns die Straße querte (es war natürlich eine Puppe). Im zweiten Versuch – das ist neu – wich das Fahrzeug blitzartig aus: Während der Fußgänger von rechts nach links über die Straße lief, nutzte das Fahrzeug den frei werdenden Raum rechts. Dieser Ausweichassistent muss mehr können als eingeführte Assistenten: Er muss natürlich den Fußgänger sehen, er muss aber auch extrem schnell erkennen, ob überhaupt freier Raum zum Ausweichen zur Verfügung steht. Eigentlich muss das Fahrzeug sogar eine Entscheidung treffen können: Wo richte ich weniger Schaden an, wenn weder Bremsen noch Ausweichen klappt?