本发明属于机器人视觉识别定位技术领域,尤其是一种基于视觉的零部件流水线自动分拣装箱设备。
背景技术:
随着机器人与计算机视觉技术的应用与发展,以及工厂自动化水平的不断提高,机器人已广泛应用于生产实际。如何提高机器人自主能力,适应更复杂环境与提高其应用灵活性,成为自动化生产线上机器人的必然要求。
技术实现要素:
为解决现有技术存在工厂流水线作业过程中产品不能按型号自动分拣打包的缺陷,本发明提供一种基于视觉的零部件流水线自动分拣装箱设备,通过工业相机与led光源对零部件图像信息进行采集,利用图像处理算法提取零部件边缘轮廓信息,将轮廓数据极坐标构成的高维向量作为特征,进行零部件型号识别及位置姿态计算,并将计算结果转移到机器人控制器,控制机械臂末端的吸盘吸取零部件并放置到对应料箱内。
为实现上述目的,本发明采用下述技术方案:
一种基于视觉的零部件流水线自动分拣装箱设备,它包括传送带、工控机、机器人和料箱,传送带上方安装有面阵相机和led光源,传送带上的接近开关检测到有零部件经过时,控制led光源点亮来触发面阵相机采集零部件图像信息,采集到的图像信息经工控机提取边缘特征,并将在线提取的特征与离线示教时提取的全部型号零部件特征进行比对,识别其型号并计算其相对于离线示教时零部件的相对平移旋转量,计算后将当前零部件位置姿态及机器人的机械臂控制运动指令发送给机器人的控制器,控制器控制机械臂通过吸盘吸取当前零部件并放置到对应料箱中。
进一步地,离线示教由人工辅助完成,将传送带上所有型号零部件进行编号,不同型号对应不同料箱,同时逐个将零部件放置到相机视场范围内,通过接近开关控制led光源点亮来触发面阵相机采集零部件图像信息,采集到的图像信息经工控机提取边缘特征,并存入数据库供在线识别定位用,并示教机械臂及末端关节的吸盘吸取零部件,并放置到对应料箱中,其主要目的是录入传送线上的零部件信息,同时控制器将示教姿态发送给工控机。
进一步地,工控机通过图像处理算法提取当前零部件最大边缘轮廓,并转换为极坐标向量与三维坐标,通过当前零部件三维坐标与数据库中数据进行比对,识别出当前零部件型号,然后通过当前零部件极坐标向量与数据库中对应型号极坐标向量进行匹配,计算当前零部件相对于示教位置的平移量与旋转量。
进一步地,工控机以当前零部件中心坐标为圆心,将其最大边缘轮廓数据转换为极坐标,通过线性插值算法得到固定大小高维向量,然后利用核主成分分析方法将高维向量进行降维,利用降维后的三维向量作为其分类标准,并将高维向量与三维向量存入数据库。
进一步地,工控机先对采集到的图像进行滤波,然后阈值分割,并通过与阈值方法将背景中的噪声去除,得到对应零部件的最大边缘轮廓。
进一步地,当传送带上出现新型号零部件时,采用离线示教进行识别定位与分拣。
上述对于新型号零部件是通过离线示教方法完成的,通过人工示教指定便于机器人吸取的零部件位置,此零部件特征向量,位置与姿态被计算并存入数据库,当传送带再次出现此类产品时,面阵相机实时采集图像提取边缘坐标并计算极坐标向量与降维坐标,利用欧式距离作为判断依据找到零部件型号,然后通过距离最近方法计算当前零部件相对于数据库中示教零部件的旋转角度。
有益效果:
1.本发明采用面阵相机与led光源方式对传送带上零部件信息进行采集,易于安装,当增加新产品时,只需进行简单离线示教,便可实现零部件在线识别与自动吸取打包;
2.本发明基于极坐标系下零部件边缘坐标构成向量作为特征,进行零部件型号识别,位置与姿态计算,具有方法简单、运算速度快、计算精度高、易推广等特点,能有效满足工厂需求。
附图说明
图1为本发明一实施例的示意图;
图2为本发明一实施例的具体操作流程图;
图3为本发明一实施例的当前零部件边缘轮廓极坐标向量与示教零部件的极坐标向量对比结果图;
图4为本发明一实施例的三种不同型号零部件的降维图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本实施例公开了一种基于视觉的零部件流水线自动分拣装箱设备,是基于视觉的非接触图像处理方法,如图1所示,它包括传送带2上随意摆放的零部件1、传送带2、接近开关3、面阵相机4、环形led光源5、用于图像处理的工控机6、机器人的控制器7,六轴机械臂8、吸盘9和用于包装不同型号的料箱10,传送带2上方安装有面阵相机4和led光源5,接近开关3位于相机视场范围内。
如图2所示,其具体操作流程是:首先当传送带2添加新型号零部件1时,需要离线将零部件1放置到相机视场范围内,通过控制led光源5点亮来触发面阵相机4采集零部件1图像,然后经工控机6对采集的图像进行处理提取其边缘轮廓坐标,并计算其极坐标向量与降维特征向量,将新型号零部件1的极坐标向量与降维特征向量存入数据库供在线识别定位用,然后对机器人进行示教吸取零部件1到指定料箱10。离线添加完新型号零部件1后,在线工作过程中,需要在传送带2安装接近开关3,用来检测是否有零部件1经过,当接近开关3检测到零部件1后控制led光源5点亮来触发面阵相机4采集图像,利用同样的图像处理方法得到当前传送带2上零部件1轮廓极坐标向量与降维特征向量,然后与数据库中极坐标向量与降维特征向量进行比对,确定当前零部件1型号,与其相对于离线示教位置的平移量与旋转量,然后将平移旋转量发送至机器人控制器7,控制机械臂8末端关节的吸盘9吸取零部件1并放置到指定料箱10。
图3为当前零部件边缘轮廓极坐标向量与示教零部件的极坐标向量的对比结果。
图4为应用实例中3种型号产品边缘轮廓极坐标向量降到三维后的分布情况。零部件轮廓极坐标向量降维计算方法如下:
设(x,y)表示图像的二维坐标,(cx,cy)表示图像处理得到的零部件1的中心坐标,以(cx,cy)为坐标中心,将零部件1轮廓坐标(xi,yi)转换为极坐标(θi,ir),其中i=1,…,n,n表示提取的轮廓点数。将数组{(θi,ri),i=1,…,n}进行线性插值,得到固定θ数组处的r值,构成极坐标向量r。
将单一零部件1在相机视场范围内任意位置任意角度摆放,采集十组图像并进行处理得到向量组ri,i=1,…,10,通过核函数k(x,y)计算向量组ri,i=1,…,10的核矩阵k,计算矩阵k的特征值λ=[λ1,…,λ10],取前三个最大特征值对应的特征向量为基向量。
通过本发明可以得到在线零部件1与示教零部件1的相对移动位置与旋转角度,从而控制机器人对零部件指定位置进行准确吸取。
对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。