移动机器人的重定位方法_2

文档序号:9886983阅读:来源:国知局
含义如下: P (A:运动t旲型; 心::粒子的米样分布。
[0021 ] S2:建立激光测距传感器感知模型,根据t时刻获取的激光测距传感器信息计算粒 子采样分布中各粒子权值(本实施例中先建立激光测距传感器感知模型,再建立视觉传感 器感知模型)。
[0022] 激光测距传感器提供了相对于环境中某个环境特征的相对距离和方向,扫描数据 可用极坐标表示为: 或者由直角坐标表示为:
其中
为扫描点数。
[0023] 在结构化室内环境中,激光地图采用几何地图构建方法。在每个采样时刻,激光传 感器对机器人周围环境进行扫描,得到一帧距离数据,通常是环境中的一组采样点。通过对 t时刻激光数据与0到t-Ι时刻采集的激光数据进行匹配,更新机器人位置,校正里程计的累 积误差,再用得到的机器人的位置和激光信息更新地图。
[0024]在激光测距传感器感知模型中,根据激光传感器的测距数据与地图上计算好的采 样之间的差别进行采样的概率更新:
式中各个参数的含义如下: 心{>):时刻第个测距数据; {>):地图上第次迭代采样过程中的第个测距数据。
[0025] S3:建立视觉传感器感知模型,根据t时刻获取的视觉传感器信息计算粒子采样分 布中各粒子权值。
[0026] 在基于视觉传感器的定位中,感知数据是由位姿场景图像提取的特征组成的特征 向量,当两幅图像的特征点生成后,寻找两个图像特征点集之间的匹配点对,采用角点邻域 相关匹配初步建立角点对应关系,然后利用马氏距离仿射变换不变性原理删除误匹配角点 对。设移动机器人在新的位姿实际观测到的环境模型为图像,则采样的权值更新为:
式中各个参数的含义如下: :重要性因子,反映了运动更新后的采样和当前观察模型的匹配程度; 视觉传感器观测量; j (64,今!):实际观测到的场景图像与样本图像之间的相似程度; 刀:设定的最大直线距离; 采样所处的位置与预先采集样本图像的位置之间的直线距离; 多:设定的最大相对角度; :采样与预先采集样本之间的相对角度。
[0027] S4:结合激光测距传感器感知模型和视觉传感器感知模型对各粒子的权值进行更 新。
[0028] 移动机器人融合激光测距传感器信息和视觉传感器信息对粒子进行更新的过程 如下:
户(Λ 称为重要性因子,它反映了运动更新后的采样和当前融合的观察模型的匹配 程度,估计出机器人t时刻位姿,最后对进行归一化处理,在进行下一定位周期前, 通过随机生成新的粒子替换权重最小的5%的粒子,以保证重定位出错或者机器人被人为搬 动到另一个位置时,粒子集中仍然包括有正确的位置,在下一次重定位时,还能定位出正确 的位置。
[0029] 其中,
,7?为规一化因子,以确保所有采样的概率之和
[0030] S5:重复步骤S1至S4直到检测到移动机器人重定位成功。
[0031] 当移动机器人在t时刻获得的激光测距传感器或/和视觉传感器的信息与定位处 的地图匹配率大于设定的阈值,则认为重定位成功;如果移动机器人在t时刻获得的激光测 距传感器或/和视觉传感器的信息与定位处的地图匹配率小于或等于设定的阈值,则认为 重定位失败,则返回至步骤SI,重复步骤S1至S4直到判定重定位成功。
[0032]以上是本发明的较佳实施例的详细说明,不认定本发明只局限于这些说明。对于 本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下所作出的等同替 代或明显变形,且性能或用途相同,都应当视为本发明所提交的权利要求书确定的保护范 围内。
【主权项】
1. 一种移动机器人的重定位方法,其特征在于,所述移动机器人包括测量移动机器人 位移和角度的传感器、激光测距传感器和视觉传感器,所述方法包括以下步骤: S1:建立移动机器人运动模型,根据蒙特卡洛(Monte Carlo)定位方法并结合移动机器 人上一时刻t-Ι的位姿状态和输入控制量预测移动机器人当前时刻t的位姿状态,得到移动 机器人在t时刻的粒子米样分布; S2:建立激光测距传感器感知模型,根据t时刻获取的激光测距传感器信息计算粒子采 样分布中各粒子权值; S3:建立视觉传感器感知模型,根据t时刻获取的视觉传感器信息计算粒子采样分布中 各粒子权值; S4:结合激光测距传感器感知模型和视觉传感器感知模型对各粒子的权值进行更新; S5:重复步骤S1至S4直到检测到移动机器人重定位成功。2. 如权利要求1所述的移动机器人的重定位方法,其特征在于,所述步骤S5中检测移动 机器人重定位是否成功的标准为:移动机器人在t时刻获得的激光测距传感器或/和视觉传 感器的信息与定位处的地图匹配率是否大于设定的阈值。3. 如权利要求1所述的移动机器人的重定位方法,其特征在于,所述步骤S2、S3的顺序 可交换。
【专利摘要】本发明申请揭示了一种<b>移动机器人的重定位方法</b>,包括步骤:S1:建立移动机器人运动模型,根据移动机器人上一时刻t-1的位姿状态和输入控制量并结合蒙特卡洛定位方法预测移动机器人当前时刻t的位姿状态,得到移动机器人在t时刻的粒子采样分布;S2:建立激光测距传感器感知模型,根据t时刻获取的激光测距传感器信息计算各粒子权值;S3:建立视觉传感器感知模型,根据t时刻获取的视觉传感器信息计算各粒子权值;S4:结合激光测距传感器感知模型和视觉传感器感知模型对各粒子的权值进行更新;S5:重复步骤S1至S4直到移动机器人重定位成功。本发明申请提高了移动机器人的重定位精度和速度。
【IPC分类】G05D1/02
【公开号】CN105652871
【申请号】
【发明人】不公告发明人
【申请人】深圳杉川科技有限公司
【公开日】2016年6月8日
【申请日】2016年2月19日
当前第2页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1