Im Rahmen von Förde 5G untersucht das Team der Christian-Albrechts-Universität zu Kiel (CAU) unter anderem, wie LiDAR-Sensoren in Kombination mit Tageslicht- und Wärmebildkameras sowie Radar eingesetzt werden können, um ein detailliertes Bild der Schiffsumgebung zu erstellen und dabei auch den Mobilfunkstandard 5G zu nutzen. Verschiedene Parameter wie der Erfassungswinkel, die Winkelauflösung, die Scanfrequenz und die Reichweite sind wichtige Aspekte bei der Auswahl von Sensoren zur Objekterkennung. Welche Bedeutung diese Parameter genau haben und wie sie sich auf die Objekterkennung auswirken, hat der Projektpartner Julius Schmalz (CAU) in verschiedenen Szenarien auf dem virtuellen Testfeld untersucht, das von den Projektpartnern HHVISION und AVL Deutschland bei Förde 5G entwickelt wurde.

Mit Hilfe von LiDAR-Sensoren können autonom fahrende Schiffe ihre Umgebung dreidimensional wahrnehmen und Hindernisse wie andere Schiffe auf dem Wasser, Bojen oder Küstenlinien erkennen und darauf reagieren. Durch die genaue Erfassung von Entfernungen und Bewegungen können LiDAR-Sensoren auch helfen, Kollisionen zu vermeiden und die Sicherheit von Schiff und Passagieren zu gewährleisten.

Mit Hilfe des virtuellen Testfeldes können verschiedene Szenarien vorab simuliert und das Verhalten der verschiedenen Sensoren auf die Umgebung bereits im Vorfeld untersucht werden. So kann die Schiffsumgebung einschließlich der Wetterbedingungen sowie das Verhalten und die Interaktionen anderer Verkehrsteilnehmer auf dem Wasser nachgebildet werden. Auf diese Weise können die Projektpartner die Leistungsfähigkeit der verschiedenen Sensoren virtuell testen.
Die vertikale Auflösung der LiDAR-Sensoren ist ein besonders wichtiger Parameter für die Erkennung kleiner Objekte wie Ruderboote oder Schwimmer. In der Abbildung sind vier Reihen mit jeweils einer Fähre und einem Schlauchboot in unterschiedlichen Abständen zum LiDAR-Sensor angeordnet. Dieser Versuchsaufbau ermöglicht eine anschauliche Beurteilung der unterschiedlichen vertikalen Auflösungen und erleichtert die Auswahl geeigneter Sensoren.

„LiDAR-Sensoren spielen in der autonomen Schifffahrt eine entscheidende Rolle, wenn es darum geht, den Abstand zu anderen Schiffen oder Personen im Wasser zu bestimmen, um sicher zu navigieren und Kollisionen zu vermeiden. Die Interpretation von LiDAR-Punktwolken ist nicht trivial, weshalb eine Sensorfusion mit Radar-, RGB- und Infrarotkameras notwendig ist. Eine hohe Auflösung ist dabei unerlässlich, ebenso wie eine hohe Abtastfrequenz für die Sensorik in Fahrtrichtung. Für die Seiten, wo das Schiff anlegt, ist dagegen eine niedrige Abtastfrequenz erforderlich“, erklärt Projektpartner Julius Schmalz.