一种融合车载多传感器的slam装置的制造方法

文档序号:10744829阅读:623来源:国知局
一种融合车载多传感器的slam装置的制造方法
【专利摘要】本实用新型涉及融合车载多传感器的三轮全向移动机器人的同步定位与建图方法的技术领域,更具体地,涉及一种融合车载多传感器的SLAM装置。一种融合车载多传感器的SLAM装置,其中,包括三轮全向移动机器人车体,所述的机器人车体上设有车载传感器、车载编码器、车载惯性测量单元、车载控制器、上位机;所述的车载编码器和车载惯性测量单元连接车载控制器,所述的车载控制器连接上位机;所述的车载传感器与上位机连接。能够提高机器人定位和建图的效果,解决单纯依靠RGB?D传感器进行SLAM的深度值缺失或特征点稀少带来的定位和建图的误差问题,从而提高SLAM的鲁棒性和准确性。
【专利说明】
一种融合车载多传感器的SLAM装置
技术领域
[0001] 本实用新型涉及融合车载多传感器的三轮全向移动机器人的同步定位与建图方 法的技术领域,更具体地,涉及一种融合车载多传感器的SLAM装置。
【背景技术】
[0002] 全向移动机器人能实现任意方向的运动,可广泛应用于军事、工业、家用服务等领 域。移动机器人的同时定位和地图创建(SLAM,Simultaneous Localization And Mapping) 是机器人领域的热点研究问题,它是移动机器人自助任务规划和路径规划的前提和基础。 机器人的SLAM问题,简单的说就是在一个未知的环境中,移动机器人需要建立环境地图,并 在地图上的同时定位自身。这个过程类似于人走到一个完全陌生的环境中,在未携带任何 能够确定位置和方向的设备情况下,只能根据对周围环境的观察和对自身运动的估计认识 环境并确定自己的位置。
[0003] SLAM本质上是一个系统状态(包括机器人当前位姿以及所有地图特征位置等)估 计问题。从这一角度,其求解方法可大致分为基于Kalman滤波器的方法、基于粒子滤波器的 方法、基于图优化的方法3类。基于Kalman滤波(KF)和粒子滤波(PF)的方法主要依据递归贝 叶斯状态估计理论。而基于图优化的增量式SLAM算法框架,主要包括顺序数据关联、环形闭 合检测以及图优化3大部分。
[0004] 从传感器的角度分析,在室外环境中,定位的问题通常可以由GPS(Global Positioning System)来完成,因为GPS为机器人所承担的任务提供了很好的准确性。然而, 当在室内移动时,GPS数据不可用,难以准确估计机器人的位置,因此必须寻找其它解决方 案。以前大部分的机器人地图构建只能提供环境的二维信息,因为获得高质量的三维数据 非常昂贵或者对于机器人的运动有很多的约束。这一阶段的研究使用的数据源一般为激光 测距仪,双目摄像头和单目摄像头。激光测距仪的定位精度虽然高,但价格昂贵,三维激光 扫描仪的价格更是让人难以承担。而基于双目或单目的SLAM依赖于计算机视觉和图像处理 技术,缺点在于缺乏直观的场景深度信息,三维地图重建工作变得复杂。最近几年,随着微 软公司的Kinect、华硕公司的Xtion Pro Live等便宜且高效的RGB-D摄像机的出现,采用 RGB-D传感器进行移动机器人定位或SLAM的研究迅速发展起来。
[0005] RGB-D传感器能够同时提供彩色(RGB)和深度(Depth)图像信息,相比于激光测距 仪,它能够更廉价地获得深度信息,而相比于普通相机,它连续性好,环境信息更加丰富,因 此定位的精度更高,且更容易进行三维地图重建。而采用RGB-D摄像机对环境进行SLAM的最 新研究中,则有相当一部分都采用了基于图优化的SLAM方法。
[0006] 但RGB-D传感器也存在可获得的深度值有效范围较小的问题,对于一些空旷且较 大的场景,会出现深度值缺失或特征点缺失的问题,影响运动估计的准确性,甚至导致定位 和建图出现严重偏差。 【实用新型内容】
[0007] 本实用新型为克服上述现有技术所述的至少一种缺陷,提供一种融合车载多传感 器的SLAM装置,基于图优化的SLAM方法,考虑RGB-D传感器的优点并针对其局限性,引入车 载的编码器和惯性测量单元两类传感器,提出融合车载多传感器的SLAM方法,通过融合多 传感器的数据,计算得到全向移动机器人的位姿变换,减小由于深度值缺失以及特征点稀 少所造成的误差,使获得的机器人运动轨迹更为平滑准确,同时也提高建图的准确度。
[0008] 为解决上述技术问题,本实用新型采用的技术方案是:一种融合车载多传感器的 SLAM装置,其中,包括三轮全向移动机器人车体,所述的机器人车体上设有车载传感器、车 载编码器、车载惯性测量单元、车载控制器、上位机;所述的车载编码器和车载惯性测量单 元连接车载控制器,所述的车载控制器连接上位机;所述的车载传感器与上位机连接。所述 的车载传感器为Kinect体感传感器。
[0009] 本实用新型中,在未知环境下,三轮全向移动机器人在运动的过程中通过车载 RGB-D传感器(即Kinect体感传感器)获取周围环境的彩色图像和深度图像,从图像变化解 算出自身的运动变换,同时还通过车载编码器和车载惯性测量单元获得机器人自身的运动 数据,对这些数据进行融合处理,以获得机器人自身所处的位置并构建出周围环境的三维 地图,实现机器人的同步定位与建图(SLAM)。
[0010] 具体的,所述的机器人车体为正三角三轮机构。所述的机器人车体尺寸为长85cm, 宽78cm,高50cm。所述的三个轮的旋转轴互成120度。
[0011] 与现有技术相比,有益效果是:本实用新型在未知的环境中,全向移动机器人采用 车载传感器获取周围环境的信息,进行同步定位和建图,我们所考虑的车载传感器系统包 括RGB-D传感器、编码器和惯性测量单元。由于Kinect存在深度范围有限的问题,且基于图 像匹配估计运动的方式容易受到特征点缺失的影响,导致估计结果误差较大,因此我们考 虑融合Kinect、编码器和惯性测量单元的数据,优化位姿估计。基于所提出的多传感器加权 融合算法,本方法能够提高机器人定位和建图的效果,解决单纯依靠 RGB-D传感器进行SLAM 的深度值缺失或特征点稀少带来的定位和建图的误差问题,从而提高SLAM的鲁棒性和准确 性。
[0012] 融合车载编码器和惯性测量单元所估计的数据,较好地解决了RGB-D SLAM中存在 的深度范围有限、深度值缺失导致的定位和建图的偏差,提高SLAM方法的鲁棒性;
[0013] 采用加权平均的方式融合多传感器解算得到的位姿信息,提高了位姿的准确性, 从而提高SLAM的效果和准确性;
[0014] 把多传感器融合估计位姿的方法应用于SLAM系统,并提供一个较为完整的SLAM解 决方案。
【附图说明】
[0015] 图1是融合多传感器的SLAM系统结构图。
[0016] 图2是三轮全向机器人机械结构示意图。
[0017] 图3是世界坐标系图。
[0018]图4是机器人坐标系图。
[0019] 图5是合速度分解图。
[0020] 图6是多传感器数据融合方法流程框图。
[0021 ]图7是融合多传感器的SLAM方法流程框图。
[0022] 图8是机器人X轴上的轨迹跟踪效果对比图。
[0023] 图9是机器人y轴上的轨迹跟踪效果对比图。
[0024]图10是只使用Kinect的建图效果图。
[0025]图11是使用多传感器加权融合方法的建图效果图。
[0026]图12是机器人X轴上的轨迹跟踪效果对比图。
[0027]图13是机器人y轴上的轨迹跟踪效果对比图。
[0028]图14是只使用Kinect的建图效果图。
[0029] 图15是使用多传感器加权融合方法的建图效果图。
【具体实施方式】
[0030] 附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附 图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说, 附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性 说明,不能理解为对本专利的限制。
[0031] 如图1所示,一种融合车载多传感器的SLAM装置,其中,包括三轮全向移动机器人 车体,所述的机器人车体上设有车载传感器、车载编码器、车载惯性测量单元、车载控制器、 上位机;所述的车载编码器和车载惯性测量单元连接车载控制器,所述的车载控制器连接 上位机;所述的车载传感器与上位机连接。所述的车载传感器为Kinect体感传感器。
[0032]本实用新型中,在未知环境下,三轮全向移动机器人在运动的过程中通过车载 RGB-D传感器(即Kinect体感传感器)获取周围环境的彩色图像和深度图像,从图像变化解 算出自身的运动变换,同时还通过车载编码器和车载惯性测量单元获得机器人自身的运动 数据,对这些数据进行融合处理,以获得机器人自身所处的位置并构建出周围环境的三维 地图,实现机器人的同步定位与建图(SLAM)。
[0033](一)基于RGB-D传感器的位姿估计
[0034] RGB-D传感器采用微软公司的Kinect体感传感器。Kinect有一个彩色摄像头,用来 获取640*480的彩色图像,每秒最多获取30帧图像;彩色摄像头两边分别是红外发射器和红 外接收器,,它们共同组成景深摄像头,用以检测物体距离Kinect的深度信息。
[0035] 1、特征提取与匹配
[0036] 常用的图像特征提取算法有SIFT(Scale_invariant feature transform),SURF (Speeded Up Robust Features)等算法。SIFT算法基于尺度空间,能够不受图像的缩放、转 动以及仿射变换的影响。SURF算法是由Herbert Bay提出的一种基于二维Hessian矩阵的算 法,该算法是在SIFT算法上做的改进,提尚了算法的执行效率。本方法米用SURF算法对 Kinect获取的彩色图像进行特征点检测和描述符提取,采用FLANN的特征匹配方法进行特 征匹配。
[0037] (1)特征点检测:首先对原图像构建尺度空间金字塔,然后用Hessian矩阵求出极 值,在3X3X3的立体邻域内进行非极大值抑制,找出候选特征点,再在尺度空间和图像空 间中进行插值运算,得到稳定的特征点位置及所在的尺度值,最后利用像素的Haar小波响 应,通过统计60°范围内像素点的水平和垂直Haar小波响应来指定特征点的方向;
[0038] (2)描述符提取:以特征点为中心,首先将坐标轴旋转到主方向,按照主方向选取 边长为20s的正方形区域,将该窗口区域划分成4X4的子区域,在每一个子区域内,计算5s X 5s (采样步长取s)范围内的小波响应,相对于主方向的水平、垂直方向的Haar小波响应分 另Ij记做dx、d y,同样赋予响应值以权值系数,以增加对几何变换的鲁棒性;然后将每个子区域 的响应以及响应的绝对值相加形成Σ(1 Χ,Σ4, |dx|,Σ |dy|。这样,在每个子区域形成四维 分量的矢量Vsub=( Σ(1Χ, Σ |dx|,Sdy, Σ |dy| ),因此,对每一特征点,形成4Χ(4Χ4)=64维 的描述向量,再进行向量的归一化,从而对光照具有一定的鲁棒性。
[0039] (3)特征点匹配:使用FLANN(Fast Library for Approximate Nearest Neighbors)进行特征点匹配。FLANN是在高维空间执行快速近似最近邻搜索的一个库,它包 含一组优秀的最近邻搜索算法和一个自动选择最优算法并且根据数据集对算法参数进行 优化的系统;对于高维空间中的最近邻搜索问题,FLANN采用基于分层k-均值树的优先级搜 索算法或采用多重随机k-d树时具有最好的性能;相对于其他传统最近邻搜索算法,基于 FLANN的近似快速最近邻搜索的速度提高了 一个数量级。
[0040] 2、帧间变换估计
[0041] 得到两帧彩色图像之间的一组匹配特征点后,就可结合对应的深度图像的信息计 算两个图像间的转换关系。设两个帧分别为FdPF 2,则一组一一对应的匹配特征点为:
[0042] P={pi,p2, . . . ,pn} ^Fi, (I)
[0043] Q={qi,q2, · · ·,qN} EF2, (2)
[0044] 其中pi和qi都是R2中的点,i = I,…,N。
[0045] 三维空间点[X,y,z ]和它在图像中的像素坐标[u,V,d] (d指深度数据)的对应关系 为:
[0046;
(3)
[0047]其中,fx、fy指相机在两个轴上的焦距,Cx、c y指相机的光圈中心,s指深度图的缩放 因子。利用此公式,将帧F2中的特征点映射到当前帧的相机坐标系中,可得:
[0048]
[0049] 其中,qci 是 R3 中的点,i = l,. . .,N。
[0050] Ul丨丨亦步MfrnTC .
[0051]
(5)
[0052]其中,f是投影矩阵。通过最小化重投影误差的方法,可以获得比直接采用三维点 对进行计算并最小化空间距离更好的效果。
[0053] RANSAC(Random Sample Consensus)是一种迭代算法,用于去除图像特征点中的 一些离群点,提高匹配精度。RANSAC算法是一种比最小二乘法更优的求取模型参数的算法, 对于一组包含有噪声点的数据集,除了可以找到最佳参数,还能够剔除这些噪声点。本方法 结合RANSAC算法剔除错误匹配,以提高变换矩阵的准确性。通过使用RANSAC算法多次迭代 求解,从而获得更准确的变换估计。
[0054](二)基于编码器和惯性测量单元的位姿估计
[0055]本方法考虑的三轮全向移动机器人采用了正三角的三轮结构,长85cm,宽78cm,高 50cm,采取全向轮,可实现任意方向的移动。机器人上搭载了编码器、惯性测量单元,可解算 出机器人的位移和姿态变化。
[0056]本方法采用双向光电编码器,转动轴与电机通过联轴器连接,能够在电机转动时 产生三路方波,称作A相、B相和Z相。
[0057 ] 三轮全向移动机械结构如图2,其中Li = L2 = L3 = L (L表示驱动轮中心到机器人中 心的距离),三个驱动轮的旋转轴互成120°,%、%、V3表示驱动轮的运动方向。
[0058]三轮全向机器人的工作环境为一平面空间,建立世界坐标系X-Y,如图3所示;以全 向轮小车的中心点为原点,L2所在直线方向为y轴,建立机器人的体坐标系xa_ya,如图4所 示;在世界坐标系中对机器人的整体速度进行X轴和y轴方向上的分解,如图5。
[0059] 图3中的Θ。为世界坐标X轴与机器人坐#Xa轴的夹角,假设机器人在零状态时其夹 角为零,即世界坐标轴与机器人起始点的坐标轴重合,则Θ。表示机器人运动时产生的自旋 角度。图5中的β表示合速度V与世界坐标的X轴的夹角,V分解为V x和Vy。K =[匕%之J表 示小车的姿态变量。三轮全向移动机器人的运动学模型为:
[0060]
(6)
[0061] 将编码器输出的A相和B相输入到测速电路模块中,可以得到机器人三个轮子的速 度,即VhV2、V3。根据等式(6),可计算出机器人的水平速度Vx和纵向速度V y,积分即可获得三 轮全向机器人相对于起始点位置的相对位移X和y。
[0062] 惯性测量单元包括加速度计和陀螺仪,加速度计用于测量在机器人坐标下的三个 坐标轴方向上的加速度,陀螺仪用于测量机器人体坐标下的三个坐标轴方向上的角速度, 通过积分可以得到机器人旋转角度。通过数据融合算法融合惯性测量单元中的加速度与角 速度信息,可以估计得到Φ、Θ、P三个姿态角度,分别对应机器人绕Z轴、Y轴和X轴的旋转角 度,即机器人的位姿信息。
[0063](三)融合多传感器的机器人同步定位和建图方法
[0064] 本方法对Kinect、编码器和惯性测量单元的数据进行融合估计位姿,使用了关键 帧减少几余图像帧以提尚SLAM效率,并对关键帧进彳丁闭环检测以增加帧间关联,同时利用 帧间关联进行位姿图优化以减小累积误差,通过以上方法提高定位和建图的准确度。
[0065] 1、加权平均的多传感器数据融合方法
[0066]本方法采用加权平均的方法对Kinect、编码器和惯性测量单元的数据进行融合, 优化位姿估计。
[0067]用p表示用RANSAC算法求解帧间变换时的局内点对数目和用于求解变换的点对总 数目的比值,O^P^l;则当P越大,该算法求解的变换矩阵越可信,P的比值由求解变换的每 两帧图像确定。此外,用q作为衡量编码器数据准确性的因子,用r作为衡量惯性测量单元数 据准确性的因子,q和r的值越大则对应的传感器数据的准确度越高。当采用不同精确度的 传感器时,所对应的描述准确度的因子亦不同。在对多传感器数据进行融合时,可以通过实 验的方法选择适宜的q和:r的值。
[0068] 利用Kinect获取的图像信息可解算出帧间的平移向量和旋转向量,由车载编码器 可算出帧间的平移向量,而由车载惯性测量单元可估计得到帧间的旋转向量。
[0069] 本方法采用如下规则对多传感器的数据进行融合:
[0070] (1)获取位移变换时,将由Kinect获取的图像信息解算获得的平移向量与由编码 器的测量信息估计得到的帧间位移差值以4:1的比值进行融合,从而获得当前帧与前一帧 机器人的位移变换。机器人在二维平面运动,只有X和Y方向的位移变化,因此位移变换融合 公式如下:
[0071]
(7)
[0072] 其中,△ Xk和A yi^v别表示Kinect解得的机器人沿X方向和沿y方向的帧间位移,Δ X。和△ y。表示编码器解得的帧间位移,△ X和△ y表示加权融合后的帧间位移。
[0073] (2)获取姿态变换时,将由Kinect获取的图像信息解算获得的旋转向量与由惯性 测量单元的测量信息估计得到的帧间姿态差值以的比值进行融合,从而获得当前帧与 r 前一关键帧机器人的姿态变换。机器人在二维平面运动,只有绕Z轴旋转的角度Φ的变化,因 此姿态变换融合公式如下:
[0074]
(8)
[0075]其中,Δ ik表示Kined解得的机器人绕Z轴的帧间姿态角变化,Δ 表示惯性测量 单元解得的帧间姿态角变化,Αφ表示加权融合后的帧间姿态角变化。
[0076] (3)因为用于求解最小化重投影误差的点对至少需要4组,当利用Kinect获取的图 像信息求解的局内点数小于5组时,解算出的变换矩阵误差很大。在这种情况下舍弃由 Kinect获取的图像数据的估计值,而使用由编码器和惯性测量单元所获得的解算结果。 [0077]多传感器数据加权融合方法流程图如图6所示。
[0078] 2、关键帧检测与闭环检测
[0079] Kinect每秒钟可以获取30帧的图像,因此帧与帧之间距离很近,如果把每一帧都 用于构建地图,会导致地图频繁更新,消耗计算时间与储存空间。因此我们采取了提取关键 帧的方法,剔除冗余帧以提高效率。算出两帧之间的运动变换矩阵f的二范数e,若e小于设 定的阈值E min,则两帧之间变换太小,为冗余帧,丢弃当前帧;若e大于阈值Emin,则取为关键 帧。E min太小会导致剔除的冗余帧过少,从而降低效率,Emin过大则相邻关键帧的图像相差较 多,运动估计容易出错。E min的选取可根据不同的数据集进行测试,选取适宜的值。本方法选 取的Emin为0.1。
[0080]对提取的当如关键帧进行闭环检测,用关键帧分别与肖LlN个关键帧和整个关键帧 序列中的随机M帧进行帧间变换估计,算出两帧之间的运动变换矩阵T'类似于关键帧检 测,计算f的二范数e,当e大于Emin且小于Emax时,判定这两帧是机器人在相近的位置取得, 即机器人又回到曾到过的位置,则将算得的变换矩阵f作为新的约束关系加入位姿图中, 以便进行位姿图优化时能更好地消减误差。E max太小,则闭环检测成功率低,Emax太大,则容 易出现错误的闭环匹配,导致位姿图优化时误差更大。E max的选取也可根据不同的数据集进 行测试,选取适宜的值。本方法选取的Emax为1.0 。
[0081] 3、位姿图优化
[0082] 经过位姿融合、关键帧提取、闭环检测等步骤后,会得到一系列的位姿点之间的变 换关系。因此,对位姿进行全局一致优化的问题可用图来表示,也就是目前视觉SLAM里常用 的姿态图(pose graph)。图中的每个节点表示一个状态变量,即相机的各个姿态Vi:
[0083] Vi= [x,y,z ,qx,qy,qz,qw]i, (9)
[0084] 其中,x、y、z表示相机的位置,qx、qy、qz、qw用四元数表示相机的姿态角。
[0085] 每条边Eu表示连接两个相邻状态变量vdPw之间的测量值,即两帧之间的变换矩 阵 Ti,j:
[0086] (10)
[0087] 其中,R3*3表示旋转矩阵,可由旋转向量通过罗格里德斯变换获得,表示平移向 量。
[0088] 四元数的表示形式可与旋转矩阵的形式相互转换,所以节点V1的状态变量也可用 变换矩_的形―才V」丰G .
[0089] (11)
[0090] 理想的情况下,应有如下变换关系:
[0091] Xi = TijXj (12)
[0092] 但由于边中存在误差,使得所有的边给出的数据并不一致,因此转化成求解误差 函数的最小值的问题:
[0093]
(丄。)
[0094] 其中,表示优化变量Xi的估计值。
[0095] 本方法采用g2o(General Graph Optimization)算法,即通用图优化算法,来进行 位姿图的优化,求解出最优位姿f的组合,让误差E收敛到一个极小值。g2o是一个算法集, 根据具体的问题选用合适的算法求解优化问题。
[0096]优化后的位姿图包含了各个关键帧对应的相机位置和姿态,可据此绘出机器人的 运动轨迹。
[0097] 4、拼接点云建图
[0098]利用RGB-D传感器获取的彩色信息和深度信息将每帧图像转化为点云。利用公式 (3)可以将每个图像点的二维坐标映射到当前帧相机坐标系的三维坐标,再加入彩色RGB信 息,就可获得点云pc=[x y z r g b]。
[0099]点云的拼接,实质上是对点云做变换的过程。这个变换往往是用变换矩阵来描述 的,即公式(10),变换矩阵T结合了旋转和缩放,可对点进行齐次变换:
[0100]
(14)
[0101] 本方法采用了 PCL库里提供的点云变换函数,给定变换矩阵,就可对整个点云进行 移动,完成点Ζ5Γ的拼接。
[0102] 本方法提供了一个较为完整的SLAM解决方案,包括了特征的提取与匹配、运动估 计、关键帧检测、闭环检测、地图优化、建图与定位等步骤,并将多传感器加权融合的方法应 用于位姿估计,提高了 SLAM的准确度。本方法提供的SLAM方案的具体流程如图7所示。
[0103] 经过多次实验测量,本方法使用的编码器因子q设置为0.2,惯性测量单元因子r设 置为0.3。
[0104] 图8至11为针对同一数据集进行的SLAM方法的比较,包括只使用Kinect数据以及 融合了多传感器数据两种方法的即时建图和定位对比图。
[0105] 图8、9中方框中上部线条表示只使用车载Kinect获取的图像进行机器人自身运动 估计时算出的机器人的运动轨迹,方框中下部线条表示融合车载Kinect、编码器和惯性测 量单元获取的数据进行运动估计时算出的运动轨迹。当局内点对数目和用于RANSAC求解的 点对总数目的比值P较大时,Kinect的解算结果可信度较高,融合多传感器方法获得的位置 与Kinect解算出的位置相对较近;当p较小时,Kinect的解算结果可信度较低,融合多传感 器方法获得的位置与Kinert解算出的位置相对较远。
[0106] 可以看出,采取了加权融合的多传感器融合方法后,只使用Kinect时出现的明显 的运动估计错误(即尖刺)得到了修正,提高了机器人定位的效果和鲁棒性。
[0107] 图10为只使用Kinect的图像信息时的建图效果,图11为使用多传感器加权融合方 法的建图效果。由图中可以看到,图10的圈内是因运动估计误差较大而导致的建图偏差;而 在图11中,由于使用了多传感器加权融合方法,这个问题得到了修正。
[0108] 图12至15为使用另一数据集进行的SLAM方法的比较,包括只使用Kinect数据以及 融合了多传感器数据两种方法的即时建图和定位对比图。
[0109] 类似的,图12、13中方框中上部线条表示只使用车载Kinect获取的图像信息进行 机器人自身运动估计时算出的机器人的运动轨迹,方框中下部线条表示融合车载Kinect、 编码器和惯性测量单元获取的数据进行运动估计时算出的运动轨迹。
[0110]在图中可以看到,只使用Kinect的图像信息时,机器人的运动轨迹跟踪到中间处 丢失了,这是由于Kinect的深度测量范围有限,只能探测到4米内的物体,当机器人运动到 较空旷的位置时,Kinect无法获得足够的深度值去解算帧间的运动变换,只能丢弃当前帧; 在连续丢弃多帧后,即使机器人再次回到深度值丰富的地方,获得的当前帧与丢帧之前的 最后一个关键帧也因相差太远而难以匹配,最终导致机器人的定位失败;而采用多传感器 加权融合方法后,机器人在深度值缺失的情况下可以采用编码器和惯性测量单元继续估计 自身运动,很好地弥补了Kinect深度测量范围有限的问题。
[0111]图14为只使用Kinect的图像信息时的建图效果,图15为使用多传感器加权融合方 法的建图效果。由图中可以看到,图14的圈内是因为机器人定位失败而缺失的部分,而图15 中这个缺失的部分得到弥补,改善了建图的效果。
[0112]显然,本实用新型的上述实施例仅仅是为清楚地说明本实用新型所作的举例,而 并非是对本实用新型的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明 的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以 穷举。凡在本实用新型的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在 本实用新型权利要求的保护范围之内。
【主权项】
1. 一种融合车载多传感器的SLAM装置,其特征在于,包括三轮全向移动机器人车体,所 述的机器人车体上设有车载传感器、车载编码器、车载惯性测量单元、车载控制器、上位机; 所述的车载编码器和车载惯性测量单元连接车载控制器,所述的车载控制器连接上位机; 所述的车载传感器与上位机连接。2. 根据权利要求1所述的一种融合车载多传感器的SLAM装置,其特征在于:所述的车载 传感器为Kinect体感传感器。3. 根据权利要求1所述的一种融合车载多传感器的SLAM装置,其特征在于:所述的机器 人车体为正三角三轮机构。4. 根据权利要求1所述的一种融合车载多传感器的SLAM装置,其特征在于:所述的机器 人车体尺寸为长85cm,宽78cm,高50cm。5. 根据权利要求2所述的一种融合车载多传感器的SLAM装置,其特征在于:所述的三个 轮的旋转轴互成120度。
【文档编号】G01C21/16GK205426175SQ201620175291
【公开日】2016年8月3日
【申请日】2016年3月8日
【发明人】成慧, 吴依莹, 朱启源, 林倞
【申请人】中山大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1