Fraunhofer erstellt 3D-Visualisierungen von Gefahrenzonen mit Lidar-Laser

Um in Gefahrensituationen schnell virtuelle 3D-Umgebungen erstellen zu können, nutzt das Fraunhofer FKIE einen Lidar-Laser.

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen
Eine mit Lidar-Laser des FKIE erstellte virtuelle 3D-Umgebung.

Das Bild zeigt eine mit dem Lidar-Laser des Fraunhofer FKIE erstellte virtuelle 3D-Umgebung.

(Bild: Fraunhofer FKIE)

Lesezeit: 3 Min.

Das Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE) hat in dem Projekt "3D-InAus" einen Lidar-Laser auf einen fahrbaren Roboter eingesetzt, um mit Laserimpulsen eine exakte digitale 3D-Kopie von Umgebungen anzufertigen. Das System soll etwa bei Gefahrensituationen ein virtuelles 360-Grad-Abbild generieren. Einsatzkräfte können so schneller ein besseres Lagebild erstellen.

In Gefahrensituationen ist es von Vorteil, wenn Einsatzkräfte vorab Umgebungsinformationen haben, um einen Einsatz besser planen zu können. Fraunhofer verwendet einen Lidar-Laser, der auf einem fahrbaren Roboter montiert ist. Mit gepulstem Licht tastet der Roboter seine Umgebung ab und misst dabei exakt Entfernungen. Aus den Daten wird dann ein 3D-Bild der Umgebung von Gebäuden, Innenräumen und Freiflächen inklusive Objekte erstellt. In der 3D-Umgebung können sich Nutzer dann virtuell frei bewegen und damit ihre Einsatzplanung vornehmen.

"Im Vergleich zu Robotersystemen, die eine Gefahrenzone mit Kameras erkunden, geht unser Projekt einen großen Schritt weiter. Die Laserimpulse liefern Messwerte für die exakte 3D-Kartografierung eines Geländes oder Gebäudes. Entfernungen und Abmessungen werden dabei nicht geschätzt, sondern auf wenige Zentimeter genau ermittelt", sagt Timo Röhling, Technischer Projektleiter der Abteilung Kognitive Mobile Systeme.

Der Lidar-Laser auf einem rotierenden Drehteller.

(Bild: Fraunhofer FKIE)

Das System vereint einen Lidar-Laser mit einem Kamerasystem mit bis zu sechs Kameras. Der Lidar-Laser ist auf einem Drehteller montiert. Ein rotierender Spiegel im Lidar-Modul sorgt dafür, dass sich ein Ausschnitt von 16 senkrechten Scheiben zehnmal pro Sekunde abtasten lässt. Die senkrechten Ausschnitte bilden dabei horizontal eine komplette Rundumsicht. Insgesamt verwendet das System zur Abtastung 1,3 Millionen Laserimpulse pro Sekunde. Über die Reflexionen des Lasers von der Umgebung wird deren Laufzeit bestimmt und daraus die Entfernung bestimmt.

Der ferngesteuerte oder teilautonom agierende Roboter fährt kontinuierlich durch das Gelände und sammelt dabei die Umgebungsdaten. Um in Innenräumen ohne GPS-Empfang korrekte Ergebnisse zu liefern, haben die Ingenieure des FKIE eine Art virtuelles GPS geschaffen. Aus den bekannten Abmessungen des Gebäudes und dessen Position lassen sich exakte Positionsdaten zur autonomen Navigation im Gebäude bestimmen.

Die vom Roboter ermittelten Entfernungsdaten werden auf dem mobilen Roboter vorverarbeitet und später im stationären Postprocessing mit Aufnahmen von den Kameras kombiniert. Die Kamerabilder werden dazu verwendet, um die Umgebung und Objekte mit passenden Farben einfärben zu können.

Der Kartierungsvorgang eines 400 × 400 m großen Geländes dauert nach Angaben des FKIE etwa drei Stunden. Dies könne bei hoher Dringlichkeit beschleunigt werden, sodass ein erstes Umgebungsmodell bereits nach einer Stunde vorliegt. Um schneller zu Ergebnissen zu kommen, können mehrere Roboter eingesetzt und deren ermittelten Daten miteinander kombiniert werden.

Die Forscher des FKIE betonen die Flexibilität des Systems, das sich grundsätzlich auf unterschiedlichen Robotersystemen und auch Drohnen einsetzen lässt. Das Projekt wurde von der Bundeswehr in Auftrag gegeben, um komplexe Lagebilder in unbekannten Geländeformationen etwa in Gefahrensituationen zu erstellen. Dabei kann das Robotersystem auch toxische Substanzen oder radioaktive Quellen über eine integrierte Sensorik ermitteln und in der virtuellen Umgebung verorten.

(olb)