Vision-Sensoren für Handling-Roboter

Vision-Sensoren für Handling-Roboter

Eingespieltes Team

Ohne Roboter ist die Automatisierung in vielen Industriebranchen nicht mehr vorstellbar. Vision-Sensoren agieren dabei oft als Augen des Roboters und liefern ihm alle benötigten Informationen über die Teilepositionen, bereits umgerechnet in dessen eigenes Koordinatensystem, sodass der Roboter nur noch zugreifen muss. Spezielle Funktionen wie Greiferfreiraumprüfung und Greifpunktoffset ermöglichen zusätzliche Flexibilität bei der Automatisierung von Handling-Aufgaben.

Zwei Vision-Sensoren der Reihe Visor von Sensopart unterstützen einen Handling-Roboter bei der Zuführung und Kontrolle von Kunststoffteilen. (Bild: Sensopart Industriesensorik GmbH)

Sensopart beschäftigt sich schon lange mit dem Thema Industrielle Bildverarbeitung – erste Visionsensoren wurden bereits im Jahr 2005 in den Markt eingeführt. Heute sind die bildverarbeitenden Sensoren längst ein zentraler Baustein in der Fabrikautomation und Robotik geworden. Der Hauptvorteil von Visionsensoren besteht neben ihrer kompakten Bauform und dem guten Preis/Leistungsverhältnis auch bei wachsendem Funktionsumfang nach wie vor in der einfachen Bedienbarkeit. Ein Beispiel hierfür ist die Kalibrierfunktion der Baureihe Visor: Positionen und Abstände im Sensorbild lassen sich mit dieser Funktion einfach in Roboterkoordinaten umwandeln. Gleichzeitig werden perspektivische Verzerrungen durch schräge Blickwinkel oder Linsenverzeichnungen korrigiert. Bisher musste diese Umrechung erst mühsam in der Robotersteuerung programmiert werden; dieser Aufwand für den Anwender entfällt nun, die Kamera liefert alle Positionen direkt im gewünschten Koordinatensystem.

Kamerageführte Robotersysteme

Unterschiedlich geformte Teile lassen sich mit einem solchen System erfassen, ohne dass es erforderlich ist, Aufnahmen oder Greifer zu verändern. Ähnliches gilt für Transportbehälter und Förderbänder, die nicht mehr an bestimmte Teile und Baugruppen angepasst werden müssen. Der mechanische Anpassungsaufwand entfällt und verschiebt sich in die Software. Da der Sensorhersteller die entsprechende Programmierarbeit bereits erledigt hat, genügen dem Anwender ein paar Mausklicks, um seine Anwendung startklar zu machen. Jede Teileform wird im Visionsensor einmal eingelernt, anschließend gilt es nur noch, den passenden Job im Sensor aufzurufen. Was gerade transportiert wird und wie das aussieht, teilt der Sensor dem Roboter mit, sodass er jedes Teil richtig greifen kann. Das Sensor-Roboter-Team sorgt so für geringere Engineeringkosten und mehr Flexibilität bei Produktwechseln. Das Sensorauge ermöglicht es dem Roboter, auch komplexe Pick&Place-Aufgabenstellungen zu lösen. Mit einer leicht konfigurierbaren Freiraumprüfung rund um das aufzunehmende Teil lässt sich sicherstellen, dass genügend Platz für den Greifer vorhanden ist. Eine Greifpunktverschiebung ist ebenfalls möglich: Hier erhält der Roboter z.B. die Botschaft, das Teil nicht mittig, sondern seitlich zu greifen. Zusätzliche Funktionen des Visionsensors wie Codelesen oder Klarschrifterkennung (OCR) ermöglichen gleichzeitig ein Tracking der Teile auf ihrem Produktionsweg.

Einfacheres Einlernen per Konturerkennung

Um Teilepositionen einfach zu erfassen, gibt es verschiedene Möglichkeiten. So hat der Nutzer die Möglichkeit, eine Konturlagenachführung zu definieren, indem er das zu erkennende Teil im Livebild mit der Maus markiert. Dabei lassen sich bei Bedarf auch die bereits beschriebenen Optionen ‚Greiferfreiraumprüfung‘ oder ‚Greifpunktoffset‘ nutzen. Sie senden dem Roboter die Teileposition und sorgen dafür, dass sich zusätzlich weitere Prüfungen ausführen lassen. So lässt sich ein Code lesen, eine Markierung oder die lagerichtige Zuführung erfassen. Mit der aktuell erscheinenden Funktionserweiterung bietet der Sensor außerdem weitere Möglichkeiten zur Positionserkennung. Hierzu dient jetzt auch der Konturdetektor selbst. Er bietet die Möglichkeit, bis zu 200 Objektinstanzen in einem Bild zu erkennen. Dies ist z.B. für schnelle Handlingprozesse mit einem Sauggreifer von Nutzen.

Seiten: 1 2Auf einer Seite lesen

SensoPart Industriesensorik GmbH
www.sensopart.com

Das könnte Sie auch Interessieren

Bild: Robotextile GmbH
Bild: Robotextile GmbH
Automatisierung von biegeschlaffen Werkstücken

Automatisierung von biegeschlaffen Werkstücken

Bei der Handhabung biegeschlaffer Werkstücke treten am Produkt Verformungen auf, die die Automatisierung seit Jahrzehnten vor ein Problem stellen. Eine weitere Herausforderung, die das prozesssichere Greifen von Stoffen bisher nahezu unmöglich macht, ist das Vereinzeln von Stofflagen voneinander. So findet die Maschinenbestückung und -entnahme in der Textilindustrie meist manuell durch eine Person statt. Diese nicht wertschöpfenden Tätigkeiten und Blindprozesse können nun durch die Greiferlösungen von Robotextile automatisiert werden.

Bild: ABB AG
Bild: ABB AG
Depalettierzelle mit AMR

Depalettierzelle mit AMR

ABB hat auf der diesjährigen Logimat die neueste Generation KI-gestützter Robotiklösungen gezeigt, darunter den autonomen mobilen Roboter Flexley Tug T702, den ersten einer ganzen Reihe von mobilen ABB-Robotern mit Visual-SLAM-Navigation.