一种基于视觉的机器人导航过门方法

文档序号:9929225阅读:542来源:国知局
一种基于视觉的机器人导航过门方法
【技术领域】
[0001] 本发明涉及自动化技术领域,特别涉及一种基于视觉的机器人导航过门方法。
【背景技术】
[0002] 随着机器人技术的发展,室内自主机器人将会被广泛用于生活中的各个领域,如 办公室,医院和工厂等。要实现机器人在这些领域的自主导航,一个重要的问题便是使机器 人穿过门,因此,需要机器人能够获取环境信息,识别环境中的门,从而通过路径规划和导 航使机器人自主穿梭于各个房间之间。
[0003] 对于机器人过门的相关于研究已有人们提出多种方法,但是每种方法都有其局限 性和缺点。例如传统的方法是运用超声波或红外传感器在门附近检测机器人车体与门两边 框的距离,从而能够使机器人在过门的过程中较好的避开门两边框,顺利通过门。但是此种 方法需要知道比较精确的环境地图和机器人的初始位置,否则由于超声波和红外的检测性 能极有可能引导机器人过门失败。此外,利用超声波或红外识别门需要利用较多的先验知 识,这势必要求机器人在门附近获取尽可能多的信息,从而通过融合算法较准确地确定门 两边相对门的位置。
[0004] 近年来,随着视觉传感器的普及相关技术的提升,使用视觉传感器识别环境中的 物体成为可能并具有成本低,运算速率较快等优势。针对视觉传感器识别门或者环境中其 他物体,有人提出了增强学习的方法来获得门和机器人的相对位姿从而对机器人进行导 航,完成机器人的过门任务。但是这种方法是基于学习的算法,需要大量样本并训练较长时 间,而且识别率很大程度上取决于所训练样本的丰富性,如果样本选择不够丰富将不能适 应各种各样的门识别。有人使用霍夫变换对图像进行提取直线处理,从而使用基于模型的 方法估算门和机器人的相对位姿,这种算法虽然不依赖于样本,但是误差较大,算法较复 杂。还有一些算法使用图像处理相关方面的算法,效率较低,成功率有限。本专利提出了一 种基于双目的门识别方法,巧妙的运用了两个摄像头的安装高度相同这一特性,从而有利 于双目左右两幅图像水平中轴线的上的特征点匹配,达到更好的确定门在机器人坐标系下 的位姿的目的。

【发明内容】

[0005] 本发明提出一种新型室内移动机器人基于视觉的导航过门方法,该方法所使用的 传感器有里程计、视觉传感器,根据视觉返回的信息计算门和机器人的相对位置关系,根据 里程计返回的信息计算机器人的全局位置信息,从而控制机器人精确的实现过门的运动。
[0006] 本发明的技术方案提供了一种基于视觉的机器人导航过门方法,包括以下步骤:
[0007] S101、根据里程计或全局定位传感器得到机器人当前时刻在全局坐标系中的位置 和姿态参数(x,y,9),x为机器人相对于原点的横坐标,y为机器人相对于原点的纵坐标,0为 机器人朝向相对于x轴的夹角,逆时针旋转为正值角度夹角,顺时针旋转为负值角度夹角;
[0008] S102、根据用户指令确定机器人所要通过的门;
[0009] S103、确定机器人过门之前开启摄像头的区域,每个开启摄像头区域为:Areai = (xj,yk)(l< 其中i代表门的编号,N和M表示某个门前区域的范围;
[0010] S104、计算此次导航终点;
[0011] S105、起点和终点确定后,由A*算法计算机器人行走路径,控制机器人运动到导航 餘占. ,-、,
[0012] S106、根据里程计返回的航位推测信息(办,7:,0:),计算机器人相对门的位置和姿 态,求出机器人朝向和机器人与门中点连线的夹角A 0,控制机器人转动A 0使机器人朝向 门;
[0013] S107、机器人静止,同时下位机向上位机发送请求开启摄像头命令,上位机打开位 于机器人胸前的双目摄像头,并开始采集图像,进行门识别;
[0014] S108、根据图像处理返回的门左右两边框的坐标XI,y 1,Xr,yr XI,y 1,Xr,yr(XI <Xr, yl<yr)计算门中心坐标(x〇,y〇),其中
[0017] S109、以x〇,yo为原点,机器人当前朝向为基准,以从门左边框指向右边框为x轴正 向建立笛卡尔坐标系X0Y;
[0018] S110、求出机器人在X0Y坐标系下的坐标(Y rl,y' rl,9/rl),并求出机器人相对过门 过程中第一个矫正点(xii,yii)的距离A di和角度A 0:,其中,
[0019] -200mm<xii<200mm,
[0020] -1400mm<yii<-1000mm;
[0021] S111、控制机器人直行A CU,然后转弯A ,根据航位推测信息求出机器人当前朝 向与门中垂线夹角A 0 ' :,控制机器人转过A 0 ':角度对正目标门;
[0022] S112、求出机器人在X0Y坐标系下的坐标(Y r2,y' r2,9/r2),求出机器人相对过门过 程中第二个矫正点(xi2,yi2)的距离A d2和角度A 02,其中,
[0023] -200mm <xi2< 200mm,
[0024] -1000mm<yi2<-600mm;
[0025] S113、控制机器人直行A d2,然后转弯A 02,根据航位推测信息计算出机器人当前 朝向与门中垂线夹角A 0 ' 2,使机器人转过A 0 ' 2对正门;
[0026] S114、求出机器人在X0Y坐标系下的坐标(Y r3,y' r3,0' r3),求出机器人相对过门过 程中第三个矫正点(xi3,yi3)的距离A d3和角度A 03,其中,
[0027] -200mm <xi3< 200mm,
[0028] -600mm<yi3<~300mm;
[0029] S115、控制机器人直行A d3,然后转弯A 03,根据航位推测信息求出机器人当前朝 向与门中垂线夹角A0'3,使机器人转过A 0 ' 3对正门;
[0030] S116、控制机器人前进Ad,其中800mm< Ad<1200mm,使机器人完6成进门操作。
[0031]进一步的,在步骤S104中,所述计算此次导航终点,进一步包括:
[0032]对参考区域进行搜索,求出参考区域中每个参考点到机器人当前位置的欧几里得 距离即t/, =1/(.r-x/)? +(y-y,f其中x,y代表某个栅格在栅格地图中的坐标; 、 ,
[0033]对所有求得的di排序求得di的最小值;
[0034] cU最小值所相应的栅格位置便是机器人此次导航的终点。
[0035] 进一步的,在步骤S107中,所述进行门识别,进一步包括:
[0036] S201、上位机对双目摄像头采集到的左右两幅RBG图像h、Ir分别进行灰度化处理, 得到灰度图像Gray 1、Grayr;
[0037] S202、采用图像全局二值化算法(如阈值法、0STU大律法、Shanbhag法等)对得到的 灰度图像Grayi、Grayr分别进行二值化处理得到二值图像Binaryi、Binaryr;
[0038] S203、使用形状为矩形(a<b,且a取值为1或2,b取值范围为b<h&b>h.2,其中h为 采集得到图像的高)的结构元素,进行图像形态学的腐蚀、膨胀处理获得二值图像Binary '1、Binary' 1中的垂直条状区域f野,鮮…j野]^贫,二:f.畔,雖… 可能为门框或门扇存在的区域;
[0039] S204、以步骤S203中得到的垂直条状区域为匹配基元,对办和心中的垂直条状区域 进行匹配;
[0040] S205、对步骤S204中得到的垂直条状区域对左右两侧对应点应用双目测距原理得 出该点在机器人坐标系下的位置信息(x和y),同时得到图像中各个垂直条状区域的实际宽 度信息
[0042] S206、结合家居环境下门的实际宽度为850mm-1200mm,可得到符合实际门宽度的 垂直条状区域(一个垂直条状区域(门扇+左右两侧门框)、两个垂直条状区域(门框和门框、 门框和门扇)),进一步把得到的垂直条状区域认为是门,并将门左右两边框在机器人坐标 系下的坐标11,71,^,^返回下位机(当为一个垂直条状区域(门扇)时,返回垂直条状区域 两侧的坐标;当为两个垂直条状区域(门框和门框)时,返回两个垂直条状区域外侧的坐标; 当为两个垂直条状区域(门框和门扇)时,返回两个垂直条状区域内侧的坐标)。
[0043]进一步的,在步骤S204中,所述对RdPRr中的垂直条状区域进行匹配,进一步包括:
[0044] S301、根据双目立体匹配原则中同一物体在左右两个摄像头中的成像存在视差, 且对于光轴平行的双目测距模型,其在左摄像头图像坐标系下成像点的xi值大于其在右摄 像头图像坐标系下成像点的xr,即Ri中的元素 I?丨对应Rr中的匹配项轉满足4 ,其中 4为轉区域中心点的x值,4为轉区域中心点的x值,选择;4 ,的成像点。
[0045] S302、根据双目立体匹配原则中几何相似性约束,即心中的元素 Hf对应Rr中的匹 配项满足其几何特征相差不大,包括但不限于区域宽度w、颜色(RGB色彩空间、HSV色彩 空间、YUV色彩空间等)、纹理(LBP等)特征,通过对上述特征相似度进行度量:
[0046] 对于宽度特征
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1