一种基于机器视觉的工件定位与识别方法与流程

文档序号:18398877发布日期:2019-08-09 23:40阅读:1171来源:国知局
一种基于机器视觉的工件定位与识别方法与流程

本发明涉及机器视觉物体的定位与识别,尤其涉及一种流水线上工件的定位与识别方法。



背景技术:

随着我国经济的飞速发展,人们消费水平提高,产品消费需求与日俱增,但随之劳动力成本不断上涨,机器换人趋势愈来愈明显。机器与视觉的配合使工业生产更加高效与智能,大大降低了产品的生产成本和生产周期。

产品分拣是工业生产中最重要的一个环节之一,传统的人工分拣成本高,且效率低,难免因个人因主观原因导致分类错误,造成不必要的麻烦和损失。机器视觉的发展为解决这一类问题提供了可能。



技术实现要素:

为解决人工分拣工件效率低,无法保证高正确率的问题,本发明提供一种工件的定位与识别方法,这种识别方法基于机器视觉,能充分利用图像处理快速、精确的优势,对生产流水线上的工件进行实时定位和类型识别,以配合工业机器人分拣的需求。

为实现上述目的,本发明采用以下技术方案:

一种基于机器视觉的工件定位与识别方法,包括如下步骤:

步骤一,创建svm分类器,计算训练集图像的灰度共生矩阵,将灰度共生矩阵的熵,相关性,均匀性,对比度作为分类器的输入,训练分类器。

步骤二,工业相机采集流水线上工件的实时影像,并校正畸变。

步骤三,通过otsu阈值分割法将校正后的图像二值化,并用canny算法检测边缘,将目标与背景分割开来。otsu计算公式为:

为第一类像素方差,w1(t)为第一类像素权重,由该类像素的数量决定,为第二类像素方差,w2(t)为第二类像素权重,otsu算法思想是找到一个阈值t,使两类方差的加权和最小。步骤四,查找边缘图像的轮廓,将不是工件的轮廓去除,并将每个工件的分离出来,具体做法如下:

4.1用旋转矩形去拟合每个轮廓,设置过滤条件,判断旋转矩形的长和高是否在工件指定范围内,如果标志位为假,则丢弃该轮廓,标志位的判断公式为:

4.2用旋转矩形去拟合步骤4.1中已经过滤后的轮廓,得到矩形中心坐标和旋转角度,用外接矩形作为原图的roi提取每个工件所在的区域。

步骤五,求解图像坐标系与机器人坐标系的映射关系矩阵,图像坐标系与机器人坐标系映射矩阵为:

(xr,yr)为机器人坐标,(xi,yi)为图像坐标系,(tx,ty)为坐两标系相对平移向量,θ为两坐标系相对旋转角度,a为x轴缩放系数,b为y轴缩放系数。

步骤六,对旋转矩形中心坐标(xc,yc),即每个工件中心坐标进行变换,变换矩阵为步骤五中求出的映射矩阵,求得工件中心在机器人坐标系的坐标(xr,yr),实现对工件的定位。

步骤七,计算分离出的工件区域图像的灰度共生矩阵,将矩阵相应统计量输入分类器进行预测,得到工件的类型。

步骤八,将工件坐标,旋转角度和类型发送给机器人。

本发明利用流水线上工件的实时影像,通过计算机视觉实时处理实现工件自动定位与类型识别;通过对边缘图像轮廓查找拟合旋转矩形,矩形中心坐标变换得到工件在机器人坐标系中的定位。用svm分类器对工件灰度特征进行分类得到工件类型。本发明可以作为独立的算法模块嵌入到工件自动化生产和分拣的实时控制系统中,达到工件快速定位、自动化识别的目的。

本发明的优点是:基于机器视觉,能充分利用图像处理快速、精确的优势,对生产流水线上的工件进行实时定位和类型识别,以配合工业机器人分拣的需求,计算速度快、智能化程度高、识别准确。

附图说明

图1是本发明的工作流程框图。

图2是识别到的工件类型,中心点和旋转角度。

具体实施方式

下面结合附图进一步说明本发明的技术方案。

参照附图,一种基于机器视觉的工件的定位与识别方法,步骤如下:

步骤一,创建svm分类器,计算训练集图像的灰度共生矩阵,将灰度共生矩阵的熵,相关性,均匀性,对比度作为分类器的输入,训练分类器。

步骤二,采集流水线工件图片,采用张正友标定法对工业相机进行标定,校正拍摄图片畸变。

步骤三,通过otsu阈值分割法将校正后的图像二值化,并用canny算法检测边缘,将目标与背景分割开来。otsu计算公式为:

为第一类像素方差,w1(t)为第一类像素权重,由该类像素的数量决定,为第二类像素方差,w2(t)为第二类像素权重,otsu算法思想是找到一个阈值t,使两类方差的加权和最小。

步骤四,查找边缘图像的轮廓,将不是工件的轮廓去除,并将每个工件的分离出来,具体做法如下:

4.1用旋转矩形去拟合每个轮廓,设置过滤条件,判断旋转矩形的长和高是否在工件指定范围内,如果标志位为假,则丢弃该轮廓,标志位的判断公式为:

4.2用旋转矩形去拟合步骤4.1中已经过滤后的轮廓,得到矩形中心坐标和旋转角度,用外接矩形作为原图的roi提取每个工件所在的区域。

步骤五,求解图像坐标系与机器人坐标系的映射关系矩阵,具体过程如下:

5.1图像坐标系与机器人坐标系映射矩阵为:

(xr,yr)为机器人坐标,(xi,yi)为图像坐标系,(tx,ty)为坐两标系相对平移向量,θ为两坐标系相对旋转角度,a为x轴缩放系数,b为y轴缩放系数。

5.2在图像坐标中随机设置多处采样点,求得采样点在图像坐标系中的坐标集合u1:{(172,45),(23,54),(65,114),(56,80),(120,45),(74,82)},机器人末端执行器示教图像中的采样点,得到机器人坐标集合u2:

5.3将图像坐标集u1和对应的机器人坐标集u2代入步骤5.1关系式中,求得映射矩阵未知参数,为消除测量误差,对多次求取结果取平均值,解得映射矩阵为:

步骤六,对旋转矩形中心坐标(xc,yc),即每个工件中心坐标进行变换,变换矩阵为步骤5.1中求出的映射矩阵,求得工件中心在机器人坐标系的坐标(xr,yr),实现对工件的定位。

步骤七,计算分离出的工件区域图像的灰度共生矩阵,将矩阵相应统计量输入分类器进行预测,得到工件的类型。

步骤八,将工件坐标,旋转角度和类型发送给机器人。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1