Pressemitteilung: Präzise 3D-Kamera auf Basis des Time of Flight-Verfahrens

Die Time of Flight 3D-Kamera auf Basis eines Backside Illuminated Sensors liefert auch bei mittleren Arbeitsabständen präzise Messdaten.
© LUCID Vision Labs GmbH

Die Time of Flight 3D-Kamera auf Basis eines Backside Illuminated Sensors liefert auch bei mittleren Arbeitsabständen präzise Messdaten.

Anwendungsbeispiel: Griff in die Kiste.
© LUCID Vision Labs GmbH

Anwendungsbeispiel: Griff in die Kiste.

In der ToF-Aufnahme werden die erkannten Objekte sichtbar und farblich unterscheidbar.
© LUCID Vision Labs GmbH

In der ToF-Aufnahme werden die erkannten Objekte sichtbar und farblich unterscheidbar.

Die LUCID Vision Labs GmbH aus Ilsfeld präsentiert mit dem System »Helios« eine neue Time of Flight (ToF) 3D-Kamera auf Basis des Backside Illuminated DepthSense IMX556PLR CMOS Sensors von Sony. Die Kamera kann in drei Entfernungsbereichen für den Arbeitsabstand betrieben werden. Objekte innerhalb eines Sichtfelds von 56 °H und 43 °V und einer Entfernung zwischen 0,3 bis 6 Metern können zuverlässig erkannt werden. Bei der höchsten Modulationsfrequenz von 100 MHz wird dabei eine Genauigkeit von 5 mm ab 1,5 Meter Objektentfernung erreicht, bei Abständen unter 1,5 Meter liegt die Genauigkeit bei maximal 2,5 mm. Die Kamera führt eine integrierte Verarbeitung durch, liefert somit direkte 3D-Punktwolken und kann z. B. in den Anwendungsfeldern Robotik (z. B. Griff in die Kiste), Logistik (z. B. Palettieren) oder in der Automatisierungstechnik eingesetzt werden.

Bei vielen Anwendungen in den Bereichen der Navigation, Personenüberwachung, Kollisionsvermeidung und der mobilen Robotik müssen Objekte aus meist mehreren Metern im Zuge einer Anwesenheitskontrolle erkannt sowie die Lage und die Abmessungen auf wenige Zentimeter genau bestimmt werden. Diese Aufgabenstellungen sind mit dem ToF-Verfahren in der Regel gut zu lösen. Anwendungen im Bereich der automatisierten Handhabungssysteme arbeiten dagegen in mittleren Abständen von 1 bis 3 Metern und benötigen eine Messgenauigkeit von etwa 1 bis 5 mm. Für diese Aufgabenstellungen war das ToF-Verfahren bislang nur bedingt einsetzbar. Die vorgestellte Technologie möchte diese Lücke schließen und arbeitet laut Herstellerangaben auch in mittleren Arbeitsabständen so präzise wie herkömmliche Stereosysteme.

Beim ToF-Verfahren wird mittels einer Laserdiode Licht ausgesendet und die Reflektion des beleuchteten Objektes mit einer Kamera erfasst, entsprechend dem Prinzip des Radars. Es misst die Laufzeit des reflektierten Signals und für jedes Pixel im Kamerasensor kann der Abstand von der reflektierenden Oberfläche bestimmt werden. Damit kann mit einer Aufnahme in wenigen Millisekunden ein komplettes zweidimensionales Höhenbild erfasst werden. Diese Bilddaten werden dann in ein 3D-Modell des Objekts umgerechnet.

In dem vorgestellten System wurde ein neuer ToF-Sensor von Sony integriert. Der Sensor kombiniert die ToF-3D-Technologie mit der BSI-Technik (Backside Illuminated Sensor), die Lichtverluste mindert und bietet eine wesentlich verbesserte Effizienz bei hohen NIR-Wellenlängen. Die Beleuchtung kann hier so ausgelegt werden, dass die Lichtpulse für das menschliche Auge nicht schädigend sind. Der neue IMX556PLR-Sensor hat das 1/2-Zoll Format und bietet eine Auflösung von 640 x 480 Pixeln bei 10 μm Pixelgröße. Live werden bis zu 60 Bilder pro Sekunde erfasst.

Der Anwender kann die Kamera mittels SDK (Arena) in seine eigene Applikationen über die gängigen Programmiersprachen C, C++ oder C# einbinden. Mit GenICam sind spezielle Kameratreiber für die Verwendung des Systems nicht mehr nötig, was dessen Nutzung vereinfacht. Mit dem neuen GenICam 3.0 Release können Tiefeninformationen oder Punktwolken direkt von der Kamera gelesen werden. Eine weitere Konvertierung der Daten ist somit nicht erforderlich. Das System muss nicht kalibriert werden und ist außerdem gegenüber ungünstigen Lichtverhältnissen sehr robust.