Bir endüstriyel robotun kafessiz çalışmasını sağlayacak görüntü tabanlı güvenlik sisteminin geliştirilmesi

Thumbnail Image

Date

2019-05-31

Journal Title

Journal ISSN

Volume Title

Publisher

Bursa Uludağ Üniversitesi

Abstract

İnsan ve robotun birlikte çalışması ile yaratılan işbirliği sayesinde, üretimde esneklik, verimlilik, kapasite ve kalite arttırılabilmektedir. Bu birlikte çalışma formunda (insan-robot etkileşiminde) insan ve robotun aynı ortamı paylaşması; çarpma/çarpışma olasılığını ortaya çıkardığından, bu türden çalışma ortamlarında güvenliği sağlamak en önemli sorun olmaktadır. Geleneksel robotlu sistemlerde güvenlik; kafes sistemleri, lazer tarayıcılar, ışık bariyerleri gibi çeşitli donanımlarla sağlanmaktadır. Ancak bu sistemler çalışma ortamını kısıtlamakta, insan ile robotun birlikte çalışmasında avantaj olarak öne sürülen esneklik faktörünü ortadan kaldırmaktadır. Bu çalışmanın ana amacı, kafes ve diğer önleyici sistemleri ortadan kaldırabilmek için robot üzerine konumlandırılan kamera ve donanımların kullanıldığı görüntü işleme tabanlı bir sistem ve algoritma ortaya çıkarabilmektir. Kullanılan kamera ve donanımların ihtiyaçları sağlayacak nitelikte, ancak düşük maliyetli standart donanımlardan seçilmesine dikkat edilmiştir. Böylelikle standart endüstriyel robotların etkileşime uygun formda çalıştırılabilmeleri için düşük maliyetli ve kolay uygulanabilir bir çözüm yaratılmaya çalışılmıştır. Bu amaçla; çalışmada, öncelikle çoklu kamera konumlandırılması ve görüntü elde edilmesi üzerine geliştirilen yöntem açıklanmıştır. Ardından elde edilmiş çoklu görüntülerden tekil bir panoramik görüntü elde edilmesi ve bu veri üzerinden insan/nesne tespiti ile konum ve mesafe çıkarımının nasıl yapıldığı belirtilmiştir. Bulunan parametreler ve tanımlı güvenlik kurallarını kullanarak insan ve robotun aynı ortamda çalışmasını düzenleyen algoritma özetlenmiş, son olarak da geliştirilen sistemin getirmiş olduğu kazanım ele alınmış ve ileride yapılabilecek çalışmalara ilişkin öngörüler verilmiştir.
Thanks to the interoperability (collaboration) between human and robot; flexibility, efficiency, capacity and quality in production can be increased. In this form of work (human-robot interaction), sharing the same environment between human and robot creates the possibility of collision, thus ensuring the safety in such work environments is the most important problem. In traditional robotic systems, security is provided by various equipments such as cage systems, laser scanners and light barriers. However, these systems restrict the working environment and eliminate the flexibility factor that is proposed as an advantage in the interoperability of human and robot. The main purpose of this study is to develop an image processing-based system and algorithm using cameras and hardware positioned on the robot to eliminate cage and other preventive systems. The camera and equipment used in the system were chosen to be of low-cost standard equipment. Thus, it has been tried to create a cost-effective and easy-toimplement solution for operating standard industrial robots in a form suitable for interaction. In the article, firstly, the method developed on multiple camera positioning and image acquisition is explained. Then, it is explained how a panoramic image is obtained from the multiple images, how to make human or object detection on this image and how to make location and distance extraction via this detection. The algorithm that manages the operation of the human and the robot in the same environment using the extracted parameters and defined security rules is summarized. Finally, the achievements of the developed system are discussed and predictions for future studies are given.

Description

Keywords

Robot görüsü, İnsan robot işbirliği, Robotik sistemlerde güvenlik, Robot vision, Human robot collaboration, Safety in robotic systems

Citation

Duman, F. ve Düven, E. (2019). "Bir endüstriyel robotun kafessiz çalışmasını sağlayacak görüntü tabanlı güvenlik sisteminin geliştirilmesi". Uludağ Üniversitesi Mühendislik Fakültesi Dergisi, 24(2), 355-372.