车辆自定位方法、装置及系统与流程

文档序号:22675429发布日期:2020-10-28 12:30阅读:107来源:国知局
车辆自定位方法、装置及系统与流程

本发明涉及电子地图技术领域,尤其涉及一种车辆自定位方法、装置及系统。



背景技术:

近年来,自动驾驶技术得到了飞速发展,自动驾驶系统通常包含自定位、环境感知、决策规划和运动控制几大模块。其中自定位技术是所有自动驾驶系统的基础。自动驾驶系统对自定位的要求比较高,要求横向定位精度在20厘米之内,纵向定位精度在2米之内。

目前,自定位技术一般是通过视觉感知来识别各种参照物,如交通标志牌,地面箭头和文字,然后基于模糊全球定位系统(globalpositioningsystem,gps)和惯性测量单元(inertialmeasurementunit,imu)获取车辆初始位置和姿态信息,配合双目或激光雷达来获取周边点云,最后将周边点云与高精度地图上的参照点进行匹配,完成车辆自定位。

但是,这种方式对硬件设备的要求较高,需要车辆配备双目相机或者激光雷达,生产成本高,不利于在自动驾驶车辆上大范围推广使用。



技术实现要素:

本发明提供一种车辆自定位方法、装置及系统,可以仅依赖单目相机完成对环境的感知,并将感知的目标物直接与高精度地图中参照物从3d到2d的映射点做匹配,快速实现车辆的自定位,在保证定位精度的前提下,极大地降低了硬件成本。

第一方面,本发明实施例提供一种车辆自定位方法,包括:

获取车辆周围的道路图像,以及所述道路图像采集时刻对应的车辆初始位置和车辆的姿态信息;

根据所述车辆初始位置和车辆的姿态信息,获取高精度地图中所述车辆在前向预设距离范围内的参照物;

将从所述道路图像中识别出的目标物和所述参照物在道路图像上的投影进行匹配;

根据匹配结果解算车辆相机坐标;其中,所述车辆相机坐标用以表征所述车辆的位置,车辆相机安装在车辆的预设位置。

第二方面,本发明实施例提供一种车辆自定位装置,包括:

第一获取模块,用于获取车辆周围的道路图像,以及所述道路图像采集时刻对应的车辆初始位置和车辆的姿态信息;

第二获取模块,用于根据所述车辆初始位置和车辆的姿态信息,获取高精度地图中所述车辆在前向预设距离范围内的参照物;

匹配模块,用于将从所述道路图像中识别出的目标物和所述参照物在道路图像上的投影进行匹配;

解算模块,用于根据匹配结果解算车辆相机坐标;其中,所述车辆相机坐标用以表征所述车辆的位置,车辆相机安装在车辆的预设位置。

第三方面,本发明实施例提供一种车辆自定位系统,包括:

gps、imu、高精度地图提供设备、存储器、处理器,以及安装在车辆预设位置的相机;其中:

相机,用于获取车辆周围的道路图像;

gps,用于获取所述道路图像采集时刻对应的车辆初始位置;

imu,用于获取所述道路图像采集时刻对应的车辆的姿态信息;

高精度地图提供设备,用于提供高精度地图;

存储器,用于存储程序;

处理器,用于执行所述存储器存储的所述程序,当所述程序被执行时,所述处理器用于执行如第一方面中任一项所述的方法。

第四方面,本发明实施例提供一种计算机可读存储介质,包括:计算机程序,当其在计算机上运行时,使得计算机执行第一方面中任一所述的方法。

本发明提供的车辆自定位方法、装置及系统,通过获取车辆周围的道路图像,以及所述道路图像采集时刻对应的车辆初始位置和车辆的姿态信息;根据所述车辆初始位置和车辆的姿态信息,获取高精度地图中所述车辆在前向预设距离范围内的参照物;将从所述道路图像中识别出的目标物和所述参照物在道路图像上的投影进行匹配;根据匹配结果解算车辆相机坐标;其中,所述车辆相机坐标用以表征所述车辆的位置,车辆相机安装在车辆的预设位置。本发明可以仅依赖单目相机完成对环境的感知,并将感知的目标物直接与高精度地图中参照物从3d到2d的映射点做匹配,快速实现车辆的自定位,在保证定位精度的前提下,极大地降低了硬件成本。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1为本发明一应用场景的原理示意图;

图2为本发明实施例一提供的车辆自定位方法的流程图;

图3为本发明实施例二提供的车辆自定位方法的流程图;

图4为在参照物消失后进行持续定位的原理示意图;

图5为本发明实施例三提供的车辆自定位装置的结构示意图;

图6为本发明实施例四提供的车辆自定位装置的结构示意图;

图7为本发明实施例五提供的车辆自定位系统的结构示意图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。

下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。

图1为本发明一应用场景的原理示意图,如图1所示,通过安装在自动驾驶车辆上的相机11(单目相机或双目相机)获取车辆周围的道路图像,并通过全球定位系统12、惯性测量单元13得到该道路图像采集时刻对应的车辆初始位置和车辆的姿态信息。基于车辆初始位置和车辆的姿态信息,获取车辆在高精度地图15上的粗略位置,然后以该粗略位置为圆心,预设距离为半径,获取车辆在高精度地图15的前向预设距离范围内的所有参照物(可以是车道线、路面箭头、路面提示文字、标示牌、信号灯、路灯等等)。将参照物的3d坐标投影到道路图像上,得到参照物在道路图像上的投影。然后,通过目标深度学习网络14识别出道路图像中的目标物(可以是车道线、路面箭头、路面提示文字、标示牌、信号灯、路灯等等)。将目标物与参照物在道路图像上的投影进行匹配,若匹配成功,则记录与参照物匹配成功的目标物的2d坐标,以及参照物在高精度地图上的3d坐标。最后,基于参照物的3d坐标,以及与所述参照物匹配成功的目标物的2d坐标,解算车辆相机坐标;车辆相机坐标即可以表征车辆在高精度地图15上的位置。

本发明提供的车载定位方法,与传统的依赖高价位双目相机或者激光雷达感知车辆周围环境,获取周边点云,再利用周边点云与高精度地图的参照点进行匹配的方法相比,对硬件设备的要求大大降低。可以仅依赖单目相机或价格较低的双目相机完成对环境的感知,并将感知的目标物直接与高精度地图中参照物从3d到2d的映射点做匹配,从而快速实现车辆的自定位,易于在自动驾驶车辆上广泛推广。

下面以具体地实施例对本发明的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。

图2为本发明实施例一提供的车辆自定位方法的流程图,如图2所示,本实施例中的方法可以包括:

s101、获取车辆周围的道路图像,以及道路图像采集时刻对应的车辆初始位置和车辆的姿态信息。

本实施例中,通过车辆相机(以单目相机为例)实时拍摄车辆周围的道路图像,并从缓存中提取道路图像采集时刻对应的车辆初始位置和姿态信息;其中,车辆初始位置由全球定位系统gps定位得到,姿态信息由惯性测量单元imu测量得到;车辆初始位置包括:经度、纬度、高程;姿态信息包括:车辆速度、航向角、俯仰角、横滚角。本实施例中,车辆相机被预先安装在车辆上,例如可以安装在车辆的车身适合采集道路图像的位置。

在一种可选的实施方式中,车辆相机拍摄道路图像,以及gps和imu采集车辆初始位置和姿态信息基本同步。具体地,例如gps和imu以每秒100hz输出8维变量,该8维相连记为[timestamp,g,i,b,speed,heading,pitch,roll],分别表示当前传感器信息的时间戳,经度,纬度,高程,速度,航向角,俯仰角,横滚角。其中,经纬度坐标是wgs84坐标下的数值。相机的采集频率是30帧/秒。因此,为了使得道路图像的获取与gps、imu保持同步,可以采用两个线程的伪同步方案。具体地,一个线程获取gps和imu采集的信息,另一个主线程用来实时获取道路图像,然后设置一个共有的缓冲buffer用来存储gps和imu最新采集的信息。当主线程中获取一张道路图像后,立刻从缓冲buffer读取gps和imu采集的信息。

需要补充说明的是,在获取车辆相机拍摄的每一帧道路图像之后,要先对道路图像做畸变矫正操作。因此,本实施例中提到的道路图像,默认为去除畸变后的图像。

s102、根据车辆初始位置和姿态信息,获取高精度地图中车辆在前向预设距离范围内的参照物。

本实施例中,可以根据车辆初始位置和车辆的姿态信息,确定车辆在高精度地图上的粗略位置。可选地,在某一时刻通过普通精度的gps识别出车辆初始位置,其中,车辆初始位置中包含有经纬度信息;然后通过普通的imu获取该时刻车辆的车头朝向。最后,根据该车辆初始位置对应的经纬度信息以及车头朝向确定车辆在高精度地图上的粗略位置。在以粗略位置为圆心,以预设距离为半径的范围内,查找车辆前向的参照物,参照物包括:车道线、路面箭头、路面提示文字、标示牌、信号灯、路灯。

s103、将从道路图像中识别出的目标物和参照物在道路图像上的投影进行匹配。

本实施例中,可以通过目标深度学习网络识别出道路图像中的目标物;将目标物与参照物在道路图像上的投影进行匹配;若匹配成功,则记录与参照物匹配成功的目标物的2d坐标,以及参照物在高精度地图上的3d坐标。

由于本实施例中采用的是普通精度的gps,因此只能进行车辆的粗略定位(虽然高精度gps可以实现精准定位,但是高精度gps的价格高昂,不适于在中低端车辆上配置使用)。本实施例将高精度地图、普通单目相机以及普通精度的gps结合,以实现对车辆的精准定位。

具体地,为了获取车辆的精确位置,可以在高精度地图上找到车辆初始位置所对应的定位点,并以所述定位点为圆心,以预设距离为半径的范围内,查找车辆前向的参照物,参照物包括:车道线、路面箭头、路面提示文字、标示牌、信号灯、路灯等等。然后,获取该参照物在高精度地图上的3d坐标,将该3d坐标投影到道路图像的平面坐标系中,得到2d投影坐标。例如,可以选取自动驾驶车辆在高精度地图上的gps定位点为圆心,150米为半径范围内,并且位于前方视觉范围内的交通标志牌和地面箭头。然后从高精度地图中提取出交通标志牌和地面箭头的3d坐标,并将3d坐标投影到道路图像的平面坐标系中,得到2d投影坐标。

进一步地,将2d投影坐标作为目标深度学习网络的输入,由该目标深度学习网络识别出该2d投影坐标对应的目标物(例如交通标志牌、地面箭头等等)。最后,将参照物和目标目进行匹配(参照物是否与目标物一致),若匹配成功,则记录与参照物匹配成功的目标物的2d坐标,以及参照物在高精度地图上的3d坐标。

本实施例中,将目标物与参照物在道路图像上的投影进行匹配,例如可以建立二分图匹配模型进行匹配处理,也可以用匈牙利匹配算法完成目标物与参照物之间的匹配。

需要说明的是,本实施例中使用的普通精度gps的定位精度较低,而应用本实施例中的方法可以很好地解决普通精度gps定位精度低的问题。从而可以在中低端车辆上广泛使用普通精度gps来进行精准定位。本实施例依托成品高精度地图做定位参照,使用普通摄像头和gps完成高精定位任务,替代了价格昂贵的高精gps,大幅度降低了生产成本。

s104、根据匹配结果解算车辆相机坐标。

本实施例中,由于车辆相机安装在车辆的预设位置,因此可以通过车辆相机坐标用以表征所述车辆的位置。

在执行步骤s104之前,需要首先构建初始深度学习网络;采集不同城市道路的道路图像,并在道路图像上绘制包围参照物的候选框,得到标注后的道路图像;对标注后的道路图像进行裁剪和归一化处理,得到训练图像;将训练图像作为初始深度学习网络的输入,以包围参照物的候选框作为目标输出,训练初始深度学习网络,以得到目标深度学习网络。

本实施例中,从道路图像中识别出的目标物为:通过目标深度学习网络从所述道路图像中识别出的目标物;该目标物包括:车道线、路面箭头、路面提示文字、标示牌、信号灯、路灯。

本实施例中,目标深度学习网络主要包括卷积层,下采样层和反卷积层,并且网络中采用前后层中相同尺度连接的方式来保持像素特征,以降低在下采样的过程中造成的特征损失。从而使得目标深度学习网络可以识别尺度较小的目标物的结构特征,提高对小尺寸目标物的识别精度。本实施例中的目标深度学习网络基于像素的边框回归,在较高的像素分割基础上,使得较小的目标上也有分割像素结果,继而其边框回归结果保持,使得小目标也能检测到。本实施例中的网络结构和参数比经典网络ssd,mask-rcnn等较轻量,目标检测速度快。

在一可选的实施例中,目标深度学习网络的获取可以包括两个阶段,即训练阶段和测试阶段。训练阶段主要包括:在不同城市道路采集不同场景下的交通标志牌图像;将采集的交通标志牌图像进行等间隔的抽样,并标注图像中交通标志牌和地面箭头的像素坐标位置,以生成训练图像。对标注的图像进行预处理操作,例如裁剪,归一化处理,从而生成初始深度学习网络所需的格式。具体地,本实施例中,采集的道路图像的分辨率为1280x720,而初始深度学习网络的输入图像尺寸是1024x576。因此,需要先将图像缩放到1024x576大小,然后生成7个维度的256x144的特征图标签,每个维度分别记为:mask、x1、y1、x2、y、1/w、1/h。其中mask中交通标志牌的区域中的3x3区域设置为1,地面箭头区域设置为2,其他区域全部置0。测试阶段主要包括:利用训练阶段输出的结果对车载视频图像进行交通标志牌和地面箭头的检测。由于,网络输出像素分割mask结果以及在mask上每个为1和2的像素输出,因此交通标志牌和地面箭头目标上会有多个重合的框。此时,需要使用非极大值抑制算法进行窗口合并,最终,输出精确的交通标志牌和地面箭头的检测结果。

本实施例采用的目标深度学习网络基于像素的边框回归,在较高的像素分割基础上,使得较小的目标上也有分割像素结果,继而使其边框回归结果得以保持,因此能够监测较小的目标。另外,本实施例中目标深度学习网络的结构和参数比经典网络ssd,mask-rcnn等较轻量,因此具备更快的检测速度。

可选地,令参照物的任一空间点p的齐次坐标为[x,y,z,1]t,空间点p在道路图像上的投影点的齐次坐标为[u,v,1]t,则满足如下关系:

s(uv1)t=k(r|t)(xyz1)t

其中:k为车辆相机的内参数,s为尺度因子,r为空间点坐标与车辆相机坐标的旋转向量,t为空间点坐标与车辆相机坐标的平移向量,r|t为旋转平移矩阵,u为空间点p在道路图像上的横轴坐标值,v为空间点p在道路图像上的纵轴坐标值,x为世界坐标系下的x轴坐标值,y为世界坐标系下的y轴坐标值,z为世界坐标系下的z轴坐标值。由于车辆相机的内参数是已知的,因此可以通过上述公式计算出空间点坐标与车辆相机坐标的旋转向量r,以及空间点坐标与车辆相机坐标的平移向量t;然后基于旋转平移矩阵r|t通过空间点换算出车辆相机坐标。其具体换算过程为本领域的常规技术,此处不再赘述。

由于上述对应关系式中r和t一共存在六个自由度的变量需要求解,而旋转平移矩阵存在尺度等价性,因此只有五个自由度需要求解,因此至少需要五对匹配好的3d和2d坐标点来求解旋转平移矩阵r|t。因此,在采用上述方式进行解算车辆相机坐标时,需要选择至少五个最优的控制点(即空间点)进行方程的解算。需要说明的是,本实施例不限定控制点的选取算法,例如本领域技术人员可以以简化计算量的角度出发,选取至少五个控制点最为最优的控制点。

由于车辆相机是按照在车辆上的(车辆相机的坐标即对应车辆在高精度地图上的坐标),因此可以结合普通精度的gps识别出的车辆初始位置(对应参照物的gps信息)以及解算得到的车辆相机坐标进行车辆自定位。

需要说明的是,本实施例中的车辆相机可以采用工业相机,将视频帧和gps的同步使用硬件同步,提高同步精度,在更高速度行驶情况下可以提高定位精度。或者,也可以在高精度地图中引入更多的参照物,从而构建更多的2d坐标和3d坐标点对;通过设置点对的分布状态来大幅度提高定位精度。另外,虽然本实施例可以应用于单目相机,但是基于本发明的方法,也可以使用双目相机来构建参照物3d坐标点和目标物3d坐标点的定位解算模式。采用双目相机可以降低匹配的难度,从而大幅度增加匹配点数,有利于位姿解算的算法优化,提高定位精度。本实施例依托制作好的高精度地图中的目标做参照,因为高精度地图的精度在cm级,有了这样的绝对参照目标数据,为单目视觉高精定位提供了可能。

本实施例,通过获取车辆周围的道路图像,以及道路图像采集时刻对应的车辆初始位置和车辆的姿态信息;根据车辆初始位置和车辆的姿态信息,获取高精度地图中车辆在前向预设距离范围内的参照物;将从道路图像中识别出的目标物和参照物在道路图像上的投影进行匹配;根据匹配结果解算车辆相机坐标;其中,车辆相机坐标用以表征所述车辆的位置,车辆相机安装在车辆的预设位置。本发明可以仅依赖单目相机完成对环境的感知,并将感知的目标物直接与高精度地图中参照物从3d到2d的映射点做匹配,快速实现车辆的自定位,在保证定位精度的前提下,极大地降低了硬件成本。

图3为本发明实施例二提供的车辆自定位方法的流程图,如图3所示,方法可以包括:

s201、获取车辆周围的道路图像,以及道路图像采集时刻对应的车辆初始位置和车辆的姿态信息。

s202、根据车辆初始位置和车辆的姿态信息,获取高精度地图中车辆在前向预设距离范围内的参照物。

s203、将从道路图像中识别出的目标物和参照物在道路图像上的投影进行匹配。

s204、根据匹配结果解算车辆相机坐标。

本实施例中,步骤s201~步骤s204的技术原理和具体实现过程请参见图5所示步骤s101~步骤s104的相关描述,此处不再赘述。

s205、若参照物从道路图像中消失,则以消失前的最后一帧道路图像对应的车辆相机坐标为起始点,基于特征点法对后续每一帧道路图像中的车辆相机坐标进行姿态解算,以完成对车辆的持续定位。

本实施例中,可以以步骤s204中得到的定位r|t为初始状态参数,用成熟的基于特征点法的视觉惯性里程计(visual-inertialodometry,vio)对接下来的每一帧的相机的位置进行姿态解算。特征点选择计算速度较快的图像特征比对算法。vio主要有两个线程tracking(跟踪)和localmapping(定位映射)。图4为在参照物消失后进行持续定位的原理示意图,如图4所示,首先从视频帧中获取特征点(视觉特征跟踪),并对imu进行预积分处理(imu预积分),然后利用获取的特征点对imu进行初始化,使用紧耦合将imu测量和视觉约束信息放到一个非线性优化函数中去优化(视觉惯性相邻帧紧耦合优化)。紧耦合的框架使得imu数据可以对视觉里程计进行矫正,同时视觉里程计信息也可以矫正imu的零偏,使得紧耦合的定位精度较高。另外,在vio的基础上以视觉定位帧为原点,那么相邻帧和局部地图里的点都有了对应的绝对世界坐标,使得vio可以在参照物消失后完成高精定位任务。

需要说明的是,在视觉定位成功后,在视觉能看到参照的情况下,必然可以完成定位任务。但是,当参照从视觉内消失后,因为没有参照物进行辅助定位,因此视觉定位会出现中断。因此,在本实施例中组合了视觉里程计算法进行持续定位。例如:通过成熟的基于特征点法的vo算法对接下来的每一帧的相机的位置进行姿态解算,以有参照物的视觉定位帧为视觉里程计的初始状态,以完成参照物消失后很长一段的时间的精准定位。

本实施例,通过获取车辆周围的道路图像,以及道路图像采集时刻对应的车辆初始位置和车辆的姿态信息;根据车辆初始位置和车辆的姿态信息,获取高精度地图中车辆在前向预设距离范围内的参照物;将从道路图像中识别出的目标物和参照物在道路图像上的投影进行匹配;根据匹配结果解算车辆相机坐标;其中,车辆相机坐标用以表征所述车辆的位置,车辆相机安装在车辆的预设位置。本发明可以仅依赖单目相机完成对环境的感知,并将感知的目标物直接与高精度地图中参照物从3d到2d的映射点做匹配,快速实现车辆的自定位,在保证定位精度的前提下,极大地降低了硬件成本。

另外,本实施例中,在视觉定位成功后,使用视觉里程计做了定位精度保持,可以在视觉看不到参照物的情况下保持长时定位精度。

本实施例提供的方案与现有技术中单纯基于单目视觉和地图来做的高精定位的方案相比,采用的是高精度地图而非传统地图;现有技术方案中的道路特征作为定位参照,而本实施例使用地面标志和交通标志牌作为定位参照。因此,本申请中的技术方案具备更好的定位精度。

此外,与现有技术中基于传感器获取自车模糊位置信息,也都用了高精地图和单目视觉感知方案相比,本申请实施例中的视觉感知网络不同;在参照从视觉内消失后添加视觉里程计进行长时定位保持。并且本申请实施例中使用的视觉里程计进行位姿解算的方案是使用真实的环境参照进行识别定位,并非基于特殊的二维码进行识别定位,真实环境参照的识别定位更有利于解算结果的精确性,便于定位效果精度的提高。

图5为本发明实施例三提供的车辆自定位装置的结构示意图,如图5所示,本实施例中的装置可以包括:

第一获取模块51,用于获取车辆周围的道路图像,以及道路图像采集时刻对应的车辆初始位置和车辆的姿态信息;

第二获取模块52,用于根据车辆初始位置和车辆的姿态信息,获取高精度地图中车辆在前向预设距离范围内的参照物;

匹配模块53,用于将从道路图像中识别出的目标物和参照物在道路图像上的投影进行匹配;

解算模块54,用于根据匹配结果解算车辆相机坐标;其中,车辆相机坐标用以表征车辆的位置,车辆相机安装在车辆的预设位置。

可选地,匹配模块53,具体用于:

通过目标深度学习网络识别出所述道路图像中的目标物;

将所述目标物与所述参照物在道路图像上的投影进行匹配;

若匹配成功,则记录与所述参照物匹配成功的目标物的2d坐标,以及所述参照物在高精度地图上的3d坐标。

可选地,第二获取模块52,具体用于:

在高精度地图上找到车辆初始位置所对应的定位点,并以定位点为圆心,以预设距离为半径的范围内,查找车辆前向的参照物,参照物包括:车道线、路面箭头、路面提示文字、标示牌、信号灯、路灯。

可选地,还包括:

训练模块55,用于构建初始深度学习网络;

采集不同城市道路的道路图像,并在所述道路图像上绘制包围参照物的候选框,得到标注后的道路图像;

对所述标注后的道路图像进行裁剪和归一化处理,得到训练图像;

将所述训练图像作为所述初始深度学习网络的输入,以包围参照物的候选框作为目标输出,训练所述初始深度学习网络,以得到目标深度学习网络。

可选地,从道路图像中识别出的目标物为:通过目标深度学习网络从道路图像中识别出的目标物;目标物包括:车道线、路面箭头、路面提示文字、标示牌、信号灯、路灯。

可选地,解算模块54,具体用于:

令参照物的任一空间点p的齐次坐标为[x,y,z,1]t,空间点p在道路图像上的投影点的齐次坐标为[u,v,1]t,则满足如下关系:

s(uv1)t=k(r|t)(xyz1)t

其中:k为车辆相机的内参数,s为尺度因子,r为空间点坐标与车辆相机坐标的旋转向量,t为空间点坐标与车辆相机坐标的平移向量,r|t为旋转平移矩阵,u为空间点p在道路图像上的横轴坐标值,v为空间点p在道路图像上的纵轴坐标值,x为世界坐标系下的x轴坐标值,y为世界坐标系下的y轴坐标值,z为世界坐标系下的z轴坐标值。由于车辆相机的内参数是已知的,因此可以通过上述公式计算出空间点坐标与车辆相机坐标的旋转向量r,以及空间点坐标与车辆相机坐标的平移向量t;然后基于旋转平移矩阵r|t通过空间点换算出车辆相机坐标。其具体换算过程为本领域的常规技术,此处不再赘述。

本实施例可以执行上述图2所示的方法中的技术方案,其实现过程和技术效果与上述方法类似,此处不再赘述。

图6为本发明实施例四提供的车辆自定位装置的结构示意图,如图6所示,本实施例中的装置在图5所示装置的基础上还可以包括:

持续定位模块56,用于在根据匹配结果解算车辆相机坐标之后,若参照物从道路图像中消失,则以消失前的最后一帧道路图像对应的车辆相机坐标为起始点,基于特征点法对后续每一帧道路图像中的车辆相机坐标进行姿态解算,以完成对车辆的持续定位。

本实施例可以执行上述图2、图3所示的方法中的技术方案,其实现过程和技术效果与上述方法类似,此处不再赘述。

图7为本发明实施例五提供的车辆自定位系统的结构示意图,如图7所示,本实施例中的车辆自定位系统60包括:全球定位系统61、惯性测量单元62、高精度地图提供设备63、存储器64、处理器65,以及安装在车辆预设位置的相机66;其中:

相机66,用于获取车辆周围的道路图像;

全球定位系统61,用于获取所述道路图像采集时刻对应的车辆初始位置;

惯性测量单元62,用于获取所述道路图像采集时刻对应的车辆的姿态信息;

高精度地图提供设备63,用于提供高精度地图;

存储器64,用于存储计算机程序(如实现上述方法的应用程序、功能模块等)、计算机指令等,上述的计算机程序、计算机指令等可以分区存储在一个或多个存储器64中。并且上述的计算机程序、计算机指令、数据等可以被处理器65调用。

处理器65,用于执行存储器64存储的计算机程序,以实现上述实施例涉及的方法中的各个步骤。具体可以参见前面方法实施例中的相关描述。其中,存储器64、处理器65可以通过总线67耦合连接。

本实施例可以执行上述图2、图3所示的方法中的技术方案,其实现过程和技术效果与上述方法类似,此处不再赘述。

此外,本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当用户设备的至少一个处理器执行该计算机执行指令时,用户设备执行上述各种可能的方法。

其中,计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于asic中。另外,该asic可以位于用户设备中。当然,处理器和存储介质也可以作为分立组件存在于通信设备中。

本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。

最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1