3D Machine Vision

Inspiriert ist die drei dimensionale Bildverarbeitung von den natürlichsten und gleichzeitig komplexesten aller Bildverarbeitungskomponenten: den Augen. Menschen sehen ihre Umgebung mit zwei Augen, die leicht voneinander entfernt sind. Dieser räumliche Unterschied der Augen ermöglicht es, zusätzlich zu den horizontalen und vertikalen Informationen auch die Tiefe wahrzunehmen. Jedes Auge nimmt die Welt aus einem anderen Blickwinkel war. Erst durch die Verarbeitung im Gehirn werden die unterschiedlichen Bilder zu einem Ganzen kombiniert und dabei die Tiefeninformation ergänzt.

Das Wissen über die dritte Dimension macht auch in der Industrie bei verschiedensten Anwendungen den wesentlichen Unterschied. In der Robotik ermöglicht sie den maschinellen Produktions- und Fertigungshelfern ihre Umgebung räumlich zu interpretieren und sich folglich im Raum bewegen zu können. In der Logistik können mit Hilfe von 3D-Bildverarbeitung Vorgänge wie Pick & Place, Paket-Kontrolle, Palettierung, Beladen & Entladen von LKWs, und Depalettierung automatisiert werden.

Bei der Wahl der passenden 3D Machine Vision Komponente gibt es unterschiedliche Arten, zwischen denen abhängig vom jeweiligen Anwendungsfall entschieden werden kann.

Was ist der Unterschied zwischen einer 3D-Kamera und einem 3D-Vision-Sensor?

Auf der Suche nach der geeigneten Komponente begegnet man sowohl 3D-Kameras als auch 3D-Vision-Sensoren. Worin aber unterscheiden sich diese Arten von Komponenten?

Unter einem Vision-Sensor versteht man eine Bildverarbeitungskomponente, die für eine bestimmte Aufgabe optimiert ist. Hierfür nimmt der Vision-Sensor Bilder auf und wertet diese mit Hilfe von Bildverarbeitungsalgorithmen aus. Die Reaktion auf das Ergebnis wird dann ebenfalls von dem Sensor ausgelöst. Bei einem Vision-Sensor stellt die Kamera somit die Basis dar. Erst mit integrierten Algorithmen zur Auswertung der Bilder kann von einem Vision-Sensor gesprochen werden. Der Vorteil eines Vision-Sensors besteht darin, dass die Installation sowie der Betrieb des Gerätes sehr einfach sind. Allerdings ist man bei der Anpassungsfähigkeit eingeschränkt, da der Vision-Sensor nur für eine bestimmte Aufgabe angewendet werden kann.

Eine industrielle Kamera muss im Gegensatz zu dem Sensor für die Anwendung konfiguriert werden. Da sie keinen Prozessor integriert haben, können sie die Bilder nicht eigenständig verarbeiten. Sie müssen mit einem Computer verbunden sein, welcher die Bilder mit Hilfe einer Bildverarbeitungssoftware verarbeitet. Das macht die Applikation komplexer, zugleich aber auch flexibler und anpassungsfähiger als einen Vision-Sensor.

Ob eine Kamera oder ein Vision-Sensor besser geeignet ist, hängt von der jeweiligen Applikation als auch von der Vision Expertise des Anwenders ab.

Mit dem rc_visard bleibt Ihnen die Entscheidung zwischen einem 3D-Vision-Sensor und einer 3D-Kamera erspart. Durch integrierten Prozessor ist der rc_visard eine smarte 3D-Kamera, die mit optionalen Software-Modulen und Algorithmen auch als 3D-Stereosensor verwendet werden kann. Die Anbindung an einen externen Computer ist zumeist nicht notwendig, dank integrierter GigE Vision Schnittstelle aber dennoch möglich. Kameradaten können somit flexibel weiterverarbeitet und eigene 3D-Applikationen erstellt werden.

Das macht den rc_visard passend für zahlreiche Anwendung und für jeden Grad an Vision Expertise.

Wie funktioniert Stereo Vision?

Der rc_visard basiert auf Stereo Vision. Aber was steckt eigentlich hinter diesem Begriff? Die 3D-Bildverarbeitung mittels Stereo Vision ist eine verbreitete Technik, die eine schnelle Bildaufnahme und ein großes Sichtfeld bietet. Bei der Methode werden typischerweise zwei Flächenkameras verwendet. Wie bei den menschlichen Augen sind die beiden Kameras versetzt voneinander angebracht, um die Szene aus zwei Perspektiven aufzunehmen. Durch die Verarbeitung der Bilder aus den beiden Perspektiven werden die 3D-Informationen gewonnen. Entscheidend für die Genauigkeit der Daten ist die Bestimmung der gleichen Punkte in den Kamerabildern aus den unterschiedlichen Perspektiven. Dieser Prozess wird auch als Matching-Prozess bezeichnet.

Unter Berücksichtigung der relativen Position der Kameras vergleicht die Software entsprechende Punkte in den beiden Bildern, identifiziert Disparitäten und erzeugt eine vollständige 3D-Punktwolke.

Markante Punkte, wie beispielsweise die Ecken eines Würfels, können leicht als zusammengehörende Punkte identifiziert werden. Punkte, die sich auf einer glatten Oberfläche befinden, stellen allerdings eine Herausforderung dar. Mit Hilfe eines Musterprojektors kann dieser Herausforderung entgegengewirkt werden.

Diese Methode wird als Active Stereo Vision bezeichnet. Durch das Muster entsteht eine Textur auf der glatten Oberfläche, was den Matching-Prozess erleichtert.

Passive Stereo Vision Active Stereo Vision

 

In der industriellen Bildverarbeitung gibt es neben Stereo Vision noch weitere Möglichkeiten, ein drei dimensionales Bild zu erfassen. Zu den bekanntesten Methoden gehören Time of Flight (ToF), Lasertriangulation und strukturiertes Licht.

Der Vorteil von Stereo Vision liegt vor allem in der schnellen Erfassung des 3D-Bildes mit einer einzigen Aufnahme. Die Notwendigkeit zu scannen, wie es bei Laser Triangulationssysteme üblich ist, entfällt. Dadurch ergeben sich bei Stereo Vision schnellere Verarbeitungszeiten. Auch die Reichweite und der Arbeitsbereich sind in der Regel deutlich größer als bei Lasertriangulationssystemen. So sind auch große Objekte, wie sie beim De-/Palettieren üblich sind, problemlos im Kamerasichtfeld abbildbar.
Stereo Vision überzeugt mit einer guten Qualität der Punktwolke, vor allem im Nahbereich ist diese der ToF Technologie meist überlegen. Den Detailgrad von Laser Triangulationssystemen erreicht es allerdings nicht.

Auch bei stark strukturierten Szenen ist Stereo Vision weniger anfällig für Pseudofehler und bietet zusätzlich die Möglichkeit Farbsensoren zu nutzen.

Diese Eigenschaften machen Stereo Vision besonders geeignet für den Einsatz in der Logistik und Robotic beispielsweise für Bin Picking, (De-)Palettierung, Navigation fahrerloser Fahrzeuge oder Roboterführung.