融合IMU信息的双目视觉里程计定位方法、系统与流程

文档序号:18454671发布日期:2019-08-17 01:30阅读:389来源:国知局
融合IMU信息的双目视觉里程计定位方法、系统与流程

本发明属于定位技术领域,具体涉及一种融合imu信息的双目视觉里程计定位方法、系统。



背景技术:

在智能车及智能机器人应用中,定位技术是载体安全运动的关键技术之一。定位技术对于速度控制、路径规划、碰撞避让等行为决策有着重要的意义。

目前,常用的定位技术有gps定位、北斗卫星导航定位和惯性导航定位。gps定位系统和北斗卫星导航系统是举世闻名的全球定位系统,然而卫星信号的多径效应会导致较大的定位误差。尤其是在高楼林立的城市环境中,由于遮挡物较多,卫星接收器无法接收到三个以上的卫星信号,导致其无法解算出满足精度要求的绝对位置。惯性导航系统通过对载体的加速度和角速度进行积分,在短期内提供较高精度的导航信息,然而定位误差随时间增长不断累积。

双目视觉里程计是目前研究众多的一种定位技术,其应用广泛,成本较低,并且能够提供丰富的图像信息用于运动估计。近些年来,由于图像处理硬件和软件的进步,相机逐渐应用于嵌入式系统,成为智能车及智能机器人的重要元件。然而,在动态物体较多、光照变化的场景中,双目视觉里程计不能保证特征匹配的正确性,导致定位估计精度下降。与此不同的是,imu自主性好,不易受到外界环境的影响,并且能够快速提供一个初始估计。鉴于imu和双目视觉里程计的互补性,融合imu信息的双目视觉里程计实现方法具有重要的研究意义。



技术实现要素:

为了解决现有技术中的上述问题,即为了提高双目视觉里程计的定位鲁棒性和实时性,本发明的第一方面,提出了一种融合imu信息的双目视觉里程计定位方法,所述定位方法包括以下步骤:

步骤s100,通过装设于特定载体的双目视觉里程计和imu,在t时刻进行同步数据采集;

步骤s200,基于双目视觉里程计采集到的图像进行orb特征点检测和orb描述子提取,根据imu得到的先验信息进行特征点的环形匹配,得到第一特征点;

步骤s300,对所述第一特征点进行三角化形成空间点云,根据预设的特征点选择机制对所述第一特征点进行分类,并基于预设数量选取各分类的第一特征点;

步骤s400,基于步骤s300得到的各分类的第一特征点,根据随机抽样一致性算法进行位姿的解耦估计,获取所述载体相对于t-1时刻的运动信息,并基于该运动信息获取载体t时刻位置。

在一些优选实施方式中,所述定位方法在步骤s400之后还包括步骤s500:

步骤s500,基于步骤s400获取的载体相对于t-1时刻的运动信息,通过卡尔曼滤波更新imu的陀螺仪偏置和加速度偏置。

在一些优选实施方式中,步骤s200“基于双目视觉里程计采集到的图像进行orb特征点检测和orb描述子提取,根据imu得到的先验信息进行特征点的环形匹配,得到第一特征点”,其方法为:

步骤s211,将双目视觉里程计采集得到的t时刻左侧图像和右侧图像分别按照预设尺寸划分为多个图像块,并在每个图像块中提取预设数目的orb特征点;

步骤s212,采用非极大值抑制的方法,使得到的特征点均匀的分布在对应的图像平面;

步骤s213,基于t-1时刻到t时刻的imu数据得到加速度信息和旋转信息,计算t-1时刻到t时刻的相对旋转估计r0和相对平移估计p0,并将[r0|p0]作为imu提供的先验信息;

步骤s214,对t时刻和t-1时刻分别得到的四幅图像,基于imu提供的先验信息,采用对比描述子的方法,按照环形顺序进行两两图像之间的特征点匹配,去除匹配失败的特征点,将保留下来的特征点作为第一特征点。

在一些优选实施方式中,步骤s214中“按照环形顺序进行两两图像之间的特征点匹配”,其方法为:

对t时刻得到的左侧图像和右侧图像进行特征点匹配;

对t时刻得到的右侧图像和t-1时刻得到的右侧图像进行特征点匹配;

对t-1时刻得到的右侧图像和左侧图像进行特征点匹配;

对t-1时刻得到的左侧图像和t时刻得到的左侧图像进行特征点匹配。

在一些优选实施方式中,步骤s214中“对t时刻得到的左侧图像和右侧图像进行特征点匹配”,其方法为:

基于标定的双目视觉里程计两个相机间的参数,将左侧图像的特征点投影到右侧图像,以第一预设半径r1构建匹配区域,获取该区域内与左侧图像特征点描述子汉明距离最小和第二小的候选描述子,并在最小距离小于第二小距离与设定阈值的乘积时,选取最小距离对应的特征点为匹配到的特征点。

在一些优选实施方式中,步骤s214中“对t时刻得到的右侧图像和t-1时刻得到的右侧图像进行特征点匹配”,其方法为:

根据imu提供的先验信息[r0|p0],将t时刻右侧图像的特征点投影到t-1时刻的右侧图像,以第二预设半径r2构建匹配区域,获取该区域内与t时刻右侧图像特征点描述子汉明距离最小和第二小的候选描述子,并在最小距离小于第二小距离与设定阈值的乘积时,选取最小距离对应的特征点为匹配到的特征点。

在一些优选实施方式中,步骤s213中“基于t-1时刻到t时刻的imu数据得到加速度信息和旋转信息,计算t-1时刻到t时刻的相对旋转估计r0和相对平移估计p0”,其方法为:

如果imu数据不为零,执行:基于t-1时刻和t时刻之间imu中的陀螺仪数据,通过零阶四元数积分方法得到相对旋转估计r0;基于t-1时刻和t时刻之间imu中的陀螺仪数据和加速度计数据,通过龙格库塔四阶积分方法得到相对平移估计p0;

如果imu数据为零,执行:基于t-1时刻的加速度信息和旋转信息,采用匀速运动模型得到相对旋转估计r0和相对平移估计p0。

在一些优选实施方式中,步骤s300“对所述第一特征点进行三角化形成空间点云,根据预设的特征点选择机制对所述第一特征点进行分类,并基于预设数量选取各分类的第一特征点”,其方法为:

步骤s311,对所述第一特征点进行三角化形成空间点云,得到恢复深度信息后的第一特征点;

步骤s312,基于预设的基线倍数值,将所述恢复深度信息后的第一特征点归属类标记为远点类和近点类;

步骤s313,对每个图像块中的远点类第一特征点,基于跟踪次数进行由大到小的排序,并对跟踪次数一样的第一特征点,基于特征响应值进行由大到小的二次排序;根据各图像块中远点类第一特征点的排序顺序,对所有远点类第一特征点进行分组排序,并对每个分组中的远点类第一特征点依据图像块的排序顺序进行排序,获得远点集;

对每个图像块中的近点类第一特征点,基于跟踪次数进行由大到小的排序,并对跟踪次数一样的第一特征点,基于特征响应值进行由大到小的二次排序;根据各图像块中近点类第一特征点的排序顺序,对所有近点类第一特征点进行分组排序,并对每个分组中的近点类第一特征点依据图像块的排序顺序进行排序,获得近点集;

步骤s314,基于预设数量n,分别从远点集和近点集中选择前n个远点和前n个近点。

在一些优选实施方式中,步骤s400中“基于步骤s300得到的各分类的第一特征点,根据随机抽样一致性算法进行位姿的解耦估计,获取所述载体相对于t-1时刻的运动信息”,其方法为:

步骤s411,基于步骤s314得到的n个远点,通过随机抽样一致性算法,以r0为初始值得到相对旋转估计r;

步骤s412,基于步骤s314得到的n个近点,通过最小化重投影误差得到相对平移估计p;

步骤s413,基于相对旋转估计r和相对平移估计p,计算所述载体相对于t-1时刻的运动信息。

本发明的第二方面,提出了一种融合imu信息的双目视觉里程计定位系统,所述定位系统包括数据采集模块、特征提取和匹配模块、特征点选择模块、位姿解耦估计模块;

所述数据采集模块,配置为通过装设于特定载体的双目视觉里程计和imu,在t时刻进行同步数据采集;

所述特征提取和匹配模块,配置为基于双目视觉里程计采集到的图像进行orb特征点检测和orb描述子提取,根据imu得到的先验信息进行特征点的环形匹配,得到第一特征点;

所述特征点选择模块,配置为对所述第一特征点进行三角化形成空间点云,根据预设的特征点选择机制对所述第一特征点进行分类,并基于预设数量选取各分类的第一特征点;

所述位姿解耦估计模块,配置为基于所述特征点选择模块得到的各分类的第一特征点,根据随机抽样一致性算法进行位姿的解耦估计,获取所述载体相对于t-1时刻的运动信息,并基于该运动信息获取载体t时刻位置。

在一些优选实施方式中,所述定位系统还包括imu参数更新模块;

所述imu参数更新模块,配置为基于所述位姿解耦估计模块获取的载体相对于t-1时刻的运动信息,通过卡尔曼滤波更新imu的陀螺仪偏置和加速度偏置。

本发明的有益效果:

本发明可以避免动态物体导致的错误匹配,从而避免外点的引入。针对智能车或智能机器人快速转弯的场景,纯双目视觉里程计由于跟踪的特征点变少而导致精度下降,本发明方法由于融合了imu信息,定位精度能够得到保障。

本发明基于合理的特征点选择机制对特征点进行分类和排序,并结合随机抽样一致性算法实现位姿的解耦估计,提高了双目视觉里程计的定位精度、鲁棒性和实时性。

附图说明

通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:

图1是本发明一种实施例的融合imu信息的双目视觉里程计定位方法流程示意图;

图2是发明一种实施例中环形匹配流程示意图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。

需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。

本发明是一种融合imu信息的双目视觉里程计实现方法。本发明通过融合imu信息,提高了双目视觉里程计的定位鲁棒性和实时性;基于合理的特征点选择机制,结合随机抽样一致性算法实现位姿的解耦估计,提高了双目视觉里程计的定位精度。

双目视觉里程计根据图像序列之间的特征点和运动约束来估计相机的运动,经过坐标系变换后得到载体的运动信息。提取鲁棒的特征点和描述子,能保证位姿估计的鲁棒性,然而需要消耗大量计算资源在特征提取和特征匹配方面。为提高环形匹配的计算效率,通过对imu信息进行积分,得到粗略的运动先验信息,促进特征点的快速匹配。相比于直接进行特征点匹配,本发明使用的方法可以避免动态物体导致的错误匹配,从而避免外点的引入。此外,针对智能车或智能机器人快速转弯的场景,纯双目视觉里程计由于跟踪的特征点变少而导致精度下降,本发明方法由于融合了imu信息,定位精度能够得到保障。本发明通过特征点选择机制对特征点进行分类和排序,并结合随机抽样一致性算法实现位姿的解耦估计,提高了双目视觉里程计的定位精度、鲁棒性和实时性。

本发明的一种融合imu信息的双目视觉里程计定位方法,所述定位方法包括以下步骤:

步骤s100,通过装设于特定载体的双目视觉里程计和imu,在t时刻进行同步数据采集;

步骤s200,基于双目视觉里程计采集到的图像进行orb特征点检测和orb描述子提取,根据imu得到的先验信息进行特征点的环形匹配,得到第一特征点;

步骤s300,对所述第一特征点进行三角化形成空间点云,根据预设的特征点选择机制对所述第一特征点进行分类,并基于预设数量选取各分类的第一特征点;

步骤s400,基于步骤s300得到的各分类的第一特征点,根据随机抽样一致性算法进行位姿的解耦估计,获取所述载体相对于t-1时刻的运动信息,并基于该运动信息获取载体t时刻位置。

优选的,所述定位方法在步骤s400之后还包括步骤s500:

步骤s500,基于步骤s400获取的载体相对于t-1时刻的运动信息,通过卡尔曼滤波更新imu的陀螺仪偏置和加速度偏置。

为了更清晰地对本发明融合imu信息的双目视觉里程计定位方法进行说明,下面结合附图对本方发明方法一种实施例中各步骤进行展开详述。如图1所示,本发明包括五个步骤:数据采集、特征提取和匹配、特征点选择、位姿解耦估计、imu参数更新。

步骤s100,数据采集:通过装设于特定载体的双目视觉里程计和imu,在t时刻进行同步数据采集。

在载体上安装双目视觉里程计和imu,对传感器参数做好标定后,采用同步时钟脉冲触发传感器,采集各个传感器的数据。需要标定的参数包括相机内参数、相机间的外参数、相机和imu的外参数以及imu的陀螺仪偏置和加速度计偏置。

步骤s200,特征提取和匹配:基于双目视觉里程计采集到的图像进行orb特征点检测和orb描述子提取,根据imu得到的先验信息进行特征点的环形匹配,得到第一特征点。

步骤s211,将双目视觉里程计采集得到的t时刻左侧图像和右侧图像分别按照预设尺寸划分为多个图像块,并在每个图像块中提取预设数目的orb特征点。

双目视觉里程计的双目相机在t时刻采集到左侧图像和右侧图像,将两个图像平面按照宽度w、高度h分为若干个图像块。在每个图像块中提取预设同等数目的orb特征点,orb特征点提取方法为:

其中,i(x)为特征点圆周上任意一点的灰度,i(p)为圆心的灰度,εd为输入的灰度值差的阈值。如果n大于阈值,则认为p是orb特征点。如果图像块内灰度变化比较小,可以降低εd的值来保证特征点的数目。

步骤s212,采用非极大值抑制的方法,使得到的特征点均匀的分布在对应的图像平面。

计算orb特征点的响应值,在响应值大的特征点周围采用非极大值抑制的方法,使得到的特征点均匀的分布在图像平面上。

步骤s213,基于t-1时刻到t时刻的imu数据得到加速度信息和旋转信息,计算t-1时刻到t时刻的相对旋转估计r0和相对平移估计p0,并将[r0|p0]作为imu提供的先验信息。

利用t-1时刻和t时刻之间的imu信息,即加速度信息和旋转信息,通过积分的方式可以得到t-1时刻和t时刻的相对旋转估计r0和相对平移估计p0。

如果imu数据不为零,执行:基于t-1时刻和t时刻之间imu中的陀螺仪数据,通过零阶四元数积分方法得到相对旋转估计r0;基于t-1时刻和t时刻之间imu中的陀螺仪数据和加速度计数据,通过龙格库塔四阶积分方法得到相对平移估计p0;

如果imu数据为零,执行:基于t-1时刻的加速度信息和旋转信息,采用匀速运动模型得到相对旋转估计r0和相对平移估计p0。

步骤s214,对t时刻和t-1时刻分别得到的四幅图像,基于imu提供的先验信息,采用对比描述子的方法,按照环形顺序进行两两图像之间的特征点匹配,去除匹配失败的特征点,将保留下来的特征点作为第一特征点。

为保证特征匹配的正确性和快速性,融合imu信息作为先验信息,优化了环形匹配。环形匹配包含四个处理过程:对t时刻得到的左侧图像和右侧图像进行特征点匹配;对t时刻得到的右侧图像和t-1时刻得到的右侧图像进行特征点匹配;对t-1时刻得到的右侧图像和左侧图像进行特征点匹配;对t-1时刻得到的左侧图像和t时刻得到的左侧图像进行特征点匹配。

特征点的属性包括:特征点编号(id)、跟踪次数、特征强度(也就是响应值)、归属类(远类或近类),描述子。

如图2所示的环形匹配的具体步骤如下:

步骤s2141,对t时刻得到的左侧图像和右侧图像进行特征点匹配。

基于标定的双目视觉里程计两个相机间的参数,将左侧图像的特征点投影到右侧图像,以第一预设半径r1构建匹配区域,获取该区域内与左侧图像特征点描述子汉明距离最小和第二小的候选描述子,并在最小距离小于第二小距离与设定阈值的乘积时,选取最小距离对应的特征点为匹配到的特征点。本实施例中,令本步骤得到的最小距离为d1,第二小距离为d2,设定阈值为tc1,则在获取该区域内与左侧图像特征点描述子汉明距离最小和第二小的候选描述子后,若d1<tc1×d2则则匹配成功且匹配特征点是最小距离对应的特征点,否则特征点匹配失败并丢弃该特征点。

步骤s2142,对t时刻得到的右侧图像和t-1时刻得到的右侧图像进行特征点匹配。

根据imu提供的先验信息[r0|p0],将t时刻右侧图像的特征点投影到t-1时刻的右侧图像,以第二预设半径r2构建匹配区域,获取该区域内与t时刻右侧图像特征点描述子汉明距离最小和第二小的候选描述子,并在最小距离小于第二小距离与设定阈值的乘积时,选取最小距离对应的特征点为匹配到的特征点。本实施例中,令本步骤得到的最小距离为d3,第二小距离为d4,设定阈值为tc2,则在获取该区域内与t时刻右侧图像特征点描述子汉明距离最小和第二小的候选描述子后,若d3<tc2×d4则匹配成功且匹配特征点是最小距离对应的特征点,否则特征点匹配失败并丢弃该特征点。本实施例中r2>r1。

步骤s2143,对t-1时刻得到的右侧图像和左侧图像进行特征点匹配。

本实施例中采用步骤s2141的方法进行本步骤的特征点匹配。

步骤s2144,对t-1时刻得到的左侧图像和t时刻得到的左侧图像进行特征点匹配。

本实施例中采用步骤s2142的方法进行本步骤的特征点匹配。

只有通过该环形匹配的特征点,才是有效的特征点,且特征点跟踪次数加1。

步骤s300,特征点选择:对所述第一特征点进行三角化形成空间点云,根据预设的特征点选择机制对所述第一特征点进行分类,并基于预设数量选取各分类的第一特征点。

步骤s311,对所述第一特征点进行三角化形成空间点云,得到恢复深度信息后的第一特征点。

步骤s312,基于预设的基线倍数值,将所述恢复深度信息后的第一特征点归属类标记为远点类和近点类。

特征点选择机制需要考虑特征点的深度,将特征点分为远点类和近点类。如果特征点深度信息大于40倍基线(预设的基线倍数值),特征点归属类标记为远点类;如果特征点深度信息小于40倍基线,特征点归属类标记为近点类。

步骤s313,对每个图像块中的远点类第一特征点,基于跟踪次数进行由大到小的排序,并对跟踪次数一样的第一特征点,基于特征响应值进行由大到小的二次排序;根据各图像块中远点类第一特征点的排序顺序,对所有远点类第一特征点进行分组排序,并对每个分组中的远点类第一特征点依据图像块的排序顺序进行排序,获得远点集;对每个图像块中的近点类第一特征点,基于跟踪次数进行由大到小的排序,并对跟踪次数一样的第一特征点,基于特征响应值进行由大到小的二次排序;根据各图像块中近点类第一特征点的排序顺序,对所有近点类第一特征点进行分组排序,并对每个分组中的近点类第一特征点依据图像块的排序顺序进行排序,获得近点集。

特征点选择机制需要考虑特征点的分布、跟踪次数和特征点响应值,按照该优先级对每一类特征点进行排序。对步骤s211中得到的每一个图像块,首先在每一个图像块中对远点类第一特征点基于跟踪次数进行由大到小的排序,并对跟踪次数一样的第一特征点,基于特征响应值进行由大到小的二次排序,得到排序后的远点类第一特征点序列,例如,图像块序列包括m1、m2、m3,三个图像块中远点类第一特征点的排序结果分别为然后根据各图像块中远点类第一特征点的排序顺序,对所有远点类第一特征点进行分组排序,对每个分组中的远点类第一特征点依据图像块的排序顺序进行排序,获得远点集在一些实施例中,还可以通过循环选取的方法选择对应的远点类第一特征点逐次逐个放入特征点集合,以获取最终的远点集,例如按照据图像块的排序顺序,依次从各图像块中选取排序为第一个的远点类第一特征点顺次排列作为初始的特征点集合,然后采用同样的方法依次从各图像块中选取排序为第二个的远点类第一特征点顺次放入初始的特征点集合,以此类推,直至各图像块中远点类第一特征点均被放入特征点集合,以该特征点集合作为远点集。

本实施例中采用与上述远点集获取方法相同的方法获取近点集。

步骤s314,基于预设数量n,分别从远点集和近点集中选择前n个远点和前n个近点。

分别从远点集、近点集中选取前n个远点和前n个近点用于t时刻载体位姿的解耦估计。

该步骤可以防止选择的特征点都属于同一个图像块,造成位姿估计精度下降。

步骤s400,位姿解耦估计:基于步骤s300得到的各分类的第一特征点,根据随机抽样一致性算法进行位姿的解耦估计,获取所述载体相对于t-1时刻的运动信息,并基于该运动信息获取载体t时刻位置。

步骤s411,基于步骤s314得到的n个远点,通过随机抽样一致性算法,以r0为初始值得到相对旋转估计r。

每次在远点集中随机抽样1个点,通过单点ransac方法产生一个运动假设,满足该运动假设的内点数最多的方案即为最终的解。该部分内容现为现有技术,此处不再展开详述。

步骤s412,基于步骤s314得到的n个近点,通过最小化重投影误差得到相对平移估计p。

将t时刻之前的空间点云投影到t时刻的左侧图像和右侧图像得到的特征点的位置作为获取第二特征点,最小化第一特征点的位置与对应的第二特征点位置的差值的代价方程:

其中,分别为特征点在左侧图像和右侧图像上的第一特征点,πl为双目视觉里程计左侧相机投影模型,πr为双目视觉里程计右侧相机投影模型,x为t时刻之前的空间点云,r为步骤s411得到相对旋转估计,p为步骤s412得到的相对平移估计,n为近点个数。该代价方程采用高斯牛顿法进行优化求解,结合相对旋转估计r,以p0为初值,得到相对平移估计p。最终投影误差超过2个像素的特征点作为外点进行剔除。

步骤s413,基于相对旋转估计r和相对平移估计p,计算所述载体相对于t-1时刻的运动信息。

该步骤得到的运动信息包括载体相对于t-1时刻的位姿(相对旋转估计、相对平移估计)。基于相对旋转估计r和相对平移估计p的累积,以及双目视觉里程计与载体之间的位姿变换关系,计算出载体相对于初始时刻的位姿

步骤s500,imu参数更新:基于步骤s400获取的载体相对于t-1时刻的运动信息,通过卡尔曼滤波更新imu的陀螺仪偏置和加速度偏置,用于下一次的先验信息计算。

本发明第二实施例的一种融合imu信息的双目视觉里程计定位系统,包括数据采集模块、特征提取和匹配模块、特征点选择模块、位姿解耦估计模块;

所述数据采集模块,配置为通过装设于特定载体的双目视觉里程计和imu,在t时刻进行同步数据采集;

所述特征提取和匹配模块,配置为基于双目视觉里程计采集到的图像进行orb特征点检测和orb描述子提取,根据imu得到的先验信息进行特征点的环形匹配,得到第一特征点;

所述特征点选择模块,配置为对所述第一特征点进行三角化形成空间点云,根据预设的特征点选择机制对所述第一特征点进行分类,并基于预设数量选取各分类的第一特征点;

所述位姿解耦估计模块,配置为基于所述特征点选择模块得到的各分类的第一特征点,根据随机抽样一致性算法进行位姿的解耦估计,获取所述载体相对于t-1时刻的运动信息,并基于该运动信息获取载体t时刻位置。

优选的,本实施例的融合imu信息的双目视觉里程计定位系统还包括imu参数更新模块;imu参数更新模块,配置为基于所述位姿解耦估计模块获取的载体相对于t-1时刻的运动信息,通过卡尔曼滤波更新imu的陀螺仪偏置和加速度偏置。

所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。

需要说明的是,上述实施例提供的融合imu信息的双目视觉里程计定位系统,仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块来完成,即将本发明实施例中的模块或者步骤再分解或者组合,例如,上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块,以完成以上描述的全部或者部分功能。对于本发明实施例中涉及的模块、步骤的名称,仅仅是为了区分各个模块或者步骤,不视为对本发明的不当限定。

本发明第三实施例的一种存储装置,其中存储有多条程序,所述程序适于由处理器加载并执行以实现上述的融合imu信息的双目视觉里程计定位方法。

本发明第四实施例的一种处理装置,包括处理器、存储装置;处理器,适于执行各条程序;存储装置,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的融合imu信息的双目视觉里程计定位方法。

所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。

本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的模块、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件模块、方法步骤对应的程序可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

术语“第一”、“第二”等是用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。

术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。

至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1