机器人视觉导航定位图像特征点的匹配方法与流程

文档序号:11433358阅读:381来源:国知局
机器人视觉导航定位图像特征点的匹配方法与流程

本发明属于机器视觉定位领域,涉及机器人视觉导航定位图像特征点的匹配方法。



背景技术:

移动机器人是一个集环境感知、动态决策与规划、行为控制与执行等多功能于一体的综合系统,在军事领域、工业领域及民用领域等应用广泛。移动机器人的定位是进行行为控制与执行、环境感知等的重要基础,目前机器人常见的定位方法主要分为5大类:超声波导航定位、视觉导航定位、gps全球定位、光发射导航定位以及即时定位与地图构建(simultaneouslocalizationandmapping,slam)。

在机器人视觉导航定位技术中,精确的自主定位是实现移动机器人自主导航的关键技术。对于在建筑物中移动的机器人来说,通常天花板上的特征点是最有效的导航特征点,只要将机器人视觉中的特征点在地图中匹配、找到这些点在地图中的对应点,即可很方便的接算出机器人在地图中的位置和航向,但是仍存在如下技术问题亟待解决:图像采集得到的是二维图像,缺少高度信息,较难区分天花板特征点和其它高度位置的特征点信息;另外,目前的特征点提取匹配算法多是基于待匹配点邻域内的颜色分布进行的匹配,而室内相似景物众多,对于间距比较大的待匹配帧,拍摄到相似物体的可能性很大,故相似小区域对于特征点匹配引起的干扰很大,容易造成误匹配。



技术实现要素:

(一)要解决的技术问题

本发明提供了一种机器人视觉导航定位图像特征点的匹配方法,以至少部分解决以上所提出的技术问题。

(二)技术方案

根据本发明的一个方面,提供了一种机器人视觉导航定位图像特征点的匹配方法,包括:从两帧图像里面提取特征点,对二者的特征点进行粗匹配;以及利用空间几何的仿射变换不变性筛选匹配特征点。

在本发明的一个实施例中,利用空间几何的仿射变换不变性筛选匹配特征点包括:将两帧图像粗匹配后的特征点在各自帧内对应两两相连,确定对应的连线长度是否相等,筛选匹配特征点;以及将筛选出来的匹配特征点对应在两帧图像中组成三角形,确定连线夹角是否相等,进一步剔除误匹配特征点,完成特征点匹配。

在本发明的一个实施例中,确定对应的连线长度是否相等包括:在拍摄清晰的情况下直接利用数学意义上的相等即可;而针对拍摄时出现的模糊、像素离散化的情况,采用判断阈值法。

在本发明的一个实施例中,确定对应的连线长度是否相等的判断阈值法包括:

对于物体的成像位置位移量为δdcam来说,在如下所示物距区间范围的特征点都作为有效特征点:

其中,l为物距;f为摄像机焦距;dobj为距离摄像机光轴的景物位置;δdcam为成像位置位移量。

在本发明的一个实施例中,长度相等的含义为:连线长度误差在10个像素点的范围内认为是相等。

在本发明的一个实施例中,确定对应的连线长度是否相等,筛选匹配特征点为:成像位置位移量为δdcam为10个像素点间距,对于焦距为1.8mm的摄像头,拍摄3m处的景物,将距离天花板高度为0.5m范围内的特征点作为有效特征点进行匹配。

在本发明的一个实施例中,确定连线夹角是否相等包括:在拍摄清晰的情况下,直接利用数学意义上的相等即可;而针对拍摄时出现的模糊、像素离散化的情况,采用判断阈值法。

在本发明的一个实施例中,确定连线夹角是否相等的判断阈值法为:夹角相等的含义为:夹角的误差在2°的范围内认为是相等。

在本发明的一个实施例中,从两帧图像里面提取特征点的方法采用:sift、surf或orb算法。

(三)有益效果

从上述技术方案可以看出,本发明提供的机器人视觉导航定位图像特征点的匹配方法,至少具有以下有益效果之一:

1、通过利用拍摄到的天花板图像特征点在不同帧之间具有仿射变换不变性的特点,根据两帧图像中特征对的连线长度是否相等来筛选出误匹配特征点,并将筛选出来的图像特征点集合中不在同一直线的特征点三三组合,构建多个三角形,采用对应角相等进一步进行筛选,可以筛选出天花板上的特征点并实现准确匹配、剔除误匹配干扰点;

2、在对不同帧图像的特征点进行匹配时,判断长度、夹角是否相等采用阈值判定法,扩大了有效特征点的筛选范围,不局限于天花板特征点,同样适用于实际拍摄时出现的模糊、像素离散化等情景的定位。

附图说明

图1为根据本发明实施例机器人视觉导航定位图像特征点的匹配方法的流程图。

图2为根据本发明实施例依据空间几何的仿射变换不变性筛选匹配特征点的示意图,其中(a)为图像帧a的特征点连线示意图;(b)为图像帧b与图像帧a对应的特征点连线示意图。

图3为根据本发明实施例利用机器人视觉导航定位图像特征点的匹配方法进行特征点匹配前后的对比效果示意图,其中,(a)为图像帧a中的全部特征点;(b)为图像帧b中的全部特征点;(c)为图像帧a经过筛选匹配后的特征点;(d)为图像帧b经过筛选匹配后的特征点。

具体实施方式

本发明提供了一种机器人视觉导航定位图像特征点的匹配方法,通过利用拍摄到的图像特征点在不同帧之间具有仿射变换不变性的特点,根据两帧图像中特征对的连线长度、夹角是否相等来筛选出误匹配特征点,实现对有效特征点的准确匹配,并利用阈值判定法来判定连线长度、夹角是否相等,拓宽了有效特征点的筛选范围,还适用于拍摄模糊、像素离散化的情景。

为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步详细说明。

视觉导航定位的工作原理为对机器人周边的环境进行光学处理,先用摄像头进行图像采集,将采集的信息进行压缩,然后将它反馈到一个由神经网络和统计学方法构成的学习子系统,再由学习子系统将采集到的图像信息和实际位置联系起来,完成机器人的自主导航定位功能。

首先,以摄像机的内外参数模型描述空间点坐标与照片上的点坐标之间的关系;其数学表达式为:

其中,(x,y,z)表示拍摄到的景物中任一点m的三维空间坐标;(x,y)表示m点被拍摄到视觉图像中的对应点坐标;z表示尺度因子;f表示摄像机的焦距;dx表示摄像机的感光敏感元件中每个像素在x轴方向上的尺寸;dy表示摄像机的感光敏感元件中每个像素在y轴方向上的尺寸;a表示视角参数矩阵;t表示机器人的位移参数矩阵;r表示机器人的横滚角;p表示机器人的俯仰角;h表示机器人的航向角;tx表示机器人的空间位置横坐标;ty表示机器人的空间位置纵坐标;tz表示天花板高度;

对于在机器人视觉中正视区域的天花板,由于它通常与机器人运动的地面平行,tz为常数,拍摄天花板时的机器人航向角h和机器人的空间位置(tx,ty)是可以调整的,而其它姿态角,如横滚角r和俯仰角p都是0,所以天花板图像与机器人的视觉系统之间只有三个参数可以自由调整,通常根据天花板的这种性质,只要能够成功匹配出两帧中天花板上的特征点,即可根据这些特征点解算出两帧之间的相对位置和航向;

其次,提取并匹配两帧图像中相同景物上的相同特征点;

然后,根据相同特征点推导出机器人在拍摄这两帧图像时对应的航向角与运动的位移;推导依据的公式如下:

其中,(xa,ya)为图像帧a中的天花板上任一个特征点的坐标,(xb,yb)为该特征点在图像帧b中的对应点坐标;

其中,提取并匹配两帧图像中相同景物上的相同特征点至关重要,而目前有多种方法可以实现图像中的特征点提取与匹配,而相似小区域的干扰引起的误匹配会严重影响视觉定位的效果,本发明提出的机器人视觉导航定位图像特征点的匹配方法是在现有的sift、surf、orb等算法的前提上进行改进的方法,消除了误匹配特征点,可以实现准确定位。

在本发明的一个示例性实施例中,提供了一种机器人视觉导航定位图像特征点的匹配方法。图1为根据本发明实施例机器人视觉导航定位图像特征点的匹配方法的流程图,如图1所示,机器人视觉导航定位图像特征点的匹配方法,包括:

步骤s102:从两帧图像里面提取特征点,对二者的特征点进行粗匹配;

从图像里面提取特征点的方法有很多种,比如现有的sift、surf或orb算法等;

通常对特征点进行粗匹配时仅根据特征点小邻域内的图像信息分布进行匹配,误匹配较多;

步骤s104:将两帧图像粗匹配后的特征点在各自帧内对应两两相连,确定对应的连线长度是否相等,筛选匹配特征点;

其中,确定对应的连线长度是否相等在拍摄清晰的情况下直接利用数学意义上的相等即可;而针对拍摄时出现的模糊、像素离散化的情况,采用判断阈值法,其推导过程如下:

对于摄像机,拍摄到的物体距离和物体在照片中的成像位置具有如下关系式:

其中,dcam为距离摄像机光轴的成像位置;dobj为距离摄像机光轴的景物位置;f为摄像机焦距;l为物距;

当景物到摄像机的距离发生改变时,成像位置位移量δdcam与物距位移量δl之间的关系为:

公式(7)表明,要想使景物在照片中的成像位置发生δdcam的位移改变,则景物物距需要移动δl,大小为

数字摄像机的成像是由像素点构成的离散图像,在相机中,成像位置位移量δdcam大小等于若干个照片的像素点间距,大小为像素点的个数乘以两个像素点间距,不同的相机像素点间距不同,有的相机像素点间距为1μm,对应δdcam=10μm;有的相机为1.4μm,对应δdcam=14μm,而故以像素点的个数来定义成像位置位移量δdcam,即长度相等的误差阈值为10个像素点,其大小等于10倍的像素点间距;

在现实环境中f<<l,因此对于成像位置位移量为δdcam的摄像机来说,判断阈值法对应的物距区间如下:

在本实施例中,长度相等的判断阈值为:10个像素点,即误差在10个像素点长度以内视为长度相等,本实施例相机的像素点间距为1μm,则对应的成像位置位移量δdcam为10μm;

以10个像素点的阈值判定长度相等为例,对于焦距为8mm的摄像头,拍摄3m处的景物,只要距离天花板高度小于0.1125m范围内的特征点都可以作为有效特征点进行匹配;对于机器人常用的170°的广角镜头,焦距为1.8mm的摄像头,拍摄3m处的景物,距离天花板高度在0.5m的范围内的特征点都可以作为有效特征点进行匹配;

以上采用对应的连线长度是否相等筛选出误匹配的特征点是基于空间几何的仿射变换不变性,其具体原理下面进行详细介绍。

图2为根据本发明实施例依据空间几何的仿射变换不变性筛选匹配特征点的示意图,其中(a)为图像帧a的特征点连线示意图;(b)为图像帧b与图像帧a对应的特征点连线示意图,如图2所示,对于天花板上的特征点a、b,设它们在图像帧a、b中的连线距离分别为da,ab,db,ab,其表达式如下式所示:

其中,(xa,ya,za)和(xb,yb,zb)是点a、b在室内的真实空间三维坐标,(xa,a,ya,a)、(xa,b,ya,b)和(xb,a,yb,a)、(xb,b,yb,b)分别是a、b点在帧a、b图像中的二维坐标,机器人在拍摄帧a、b时,(tx,a,ty,a)和(tx,b,ty,b)是机器人所在的位置;

由公式(9)、(10)可知da,ab=db,ab,即天花板上的特征点连线的长度在帧a、b中保持不变;

如果是由相似小区域造成的误匹配特征点,则误匹配点与别的特征点构成的连线在帧a、b中不再保持相等,不具备上述的性质,因此可以通过对比两帧中特征对的连线长度是否相等来筛选出误匹配特征点;

步骤s106:将筛选出来的匹配特征点对应在两帧图像中组成三角形,确定连线夹角是否相等,进一步剔除误匹配特征点,完成特征点匹配;

由图2中δcde所示,在图像帧a和图像帧b中属于全等三角形,其对应的夹角相等;

对于拍摄清晰的情况下,直接利用数学意义上的相等即可;而针对拍摄时出现的模糊、像素离散化的情况,采用判断阈值法;本实施例中选用角度的判断阈值为:2°;

以上采用对应的连线夹角是否相等筛选出误匹配的特征点也是基于空间几何的仿射变换不变性,这里不作赘述;

图3为根据本发明实施例利用机器人视觉导航定位图像特征点的匹配方法进行特征点匹配前后的对比效果示意图,其中,(a)为图像帧a中的全部特征点;(b)为图像帧b中的全部特征点;(c)为图像帧a经过筛选匹配后的特征点;(d)为图像帧b经过筛选匹配后的特征点,从图中可以看出,经过筛选匹配后,误匹配特征点被剔除,只保留了天花板特征点,匹配效果良好。

为了验证本发明的普适性和有益效果,根据本发明实施例所示机器人视觉导航定位图像特征点的匹配方法进行了实际场景特征点匹配测试实验。该测试实验共采集数据集十余个,分别采取四个不同场景,分别为:较高的走廊;特征丰富的实验室;正常高度的走廊;特征少、重复性高的实验室。采用的测试手段为:采集用摄像头角度为170°。

具体的实验场景如下:

(1)在大厅中进行的实验,走廊较高,约6m~7m;

(2)实验室一中进行的实验,特征丰富,视野一侧有玻璃屋子;

(3)实验室外走廊中进行的实验,该走廊较窄,正常高度,两侧墙壁也在图像中;

(4)实验室二中进行的实验,特征少、重复性高;

在以上场景中进行测试后的结果表明,筛选后的特征点匹配均正确,不存在误匹配。

综上所述,本发明实施例提供了一种机器人视觉导航定位图像特征点的匹配方法,通过利用拍摄到的图像特征点在不同帧之间具有仿射变换不变性的特点,根据两帧图像中特征对的连线长度是否相等来筛选出误匹配特征点,并将筛选出来的图像特征点集合中不在同一直线的特征点三三组合,构建多个三角形,采用对应角相等进一步进行筛选,可以筛选出天花板上的特征点并实现准确匹配、剔除误匹配干扰点;另外,在对不同帧图像的特征点进行匹配时,判断长度、夹角是否相等采用阈值判定法,扩大了有效特征点的筛选范围,不局限于天花板特征点,同样适用于实际拍摄时出现的模糊、像素离散化等情景的定位。

当然,根据实际需要,本发明提供的机器人视觉导航定位图像特征点的匹配方法,还包含其他的常用方法和步骤,由于同发明的创新之处无关,此处不再赘述。

以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1