高动态目标检测方法、装置、车辆及存储介质与流程

文档序号:31874989发布日期:2022-10-21 21:13阅读:67来源:国知局
高动态目标检测方法、装置、车辆及存储介质与流程

1.本技术涉及目标检测技术领域,尤其涉及一种高动态目标检测方法、装置、车辆及存储介质。


背景技术:

2.随着汽车工业的快速发展,自动驾驶汽车技术近年来受到了学术界和工业界的广泛关注。车辆目标检测是自动驾驶车辆技术中的一项具有挑战性的任务。它是自动驾驶汽车技术和智能交通系统领域的重要应用。它在自动驾驶技术中发挥着关键作用。车辆目标检测的目的是准确定位周围环境中剩余车辆的位置,避免与其他车辆发生事故。
3.目前自动驾驶车辆的主流传感器方案均采用普通摄像机作为视觉感知传感器,但普通摄像机的传感帧率决定了普通摄像机在感知高速运动物体时易产生运动模糊的缺点,导致目标检测效果降低。同时,普通摄像机感光动态范围小,难以适应光照骤变或光照过明/过暗场景,会出现过曝光或欠曝光情况,例如在出入隧道时,系统无法正常感知隧道口附近区域目标,这也会降低目标检测效果。


技术实现要素:

4.本技术提供一种高动态目标检测方法、装置、车辆及存储介质,能够提高高动态下目标检测的准确性。
5.为达到上述目的,本技术采用如下技术方案:
6.本技术实施例第一方面,提供一种高动态目标检测方法,该方法包括:
7.获取图像采集设备在预设时间段下采集的多帧图像,以及各帧图像的图像采样时间;
8.获取事件相机在预设时间段下采集的多个事件数据;
9.对各帧图像进行目标检测,得到各帧图像的目标物体信息,目标物体信息中包括图像中的物体的检测框;
10.根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据;
11.根据各检测事件数据确定目标事件流数据,目标事件流数据包括多个事件数据中除各检测事件数据外的数据;
12.对目标事件流数据进行目标检测,得到漏检物体信息;
13.根据目标物体信息和漏检物体信息得到目标检测结果。
14.在一个实施例中,各事件数据包括事件采样时间和多个像素点的位置信息;
15.根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据,包括:
16.根据各帧图像的图像采样时间和各事件采样时间,在多个事件数据中确定各帧图像对应的多个备选事件数据,图像的图像采样时间与对应的每个备选事件数据的事件采样
时间的时间间隔均小于预设阈值;
17.根据各帧图像的各检测框的位置,以及各帧图像对应的多个备选事件数据中的多个像素点的位置,在多个备选事件数据中确定各检测框对应的检测事件数据。
18.在一个实施例中,根据各帧图像的各检测框的位置,以及各帧图像对应的多个备选事件数据中的多个像素点的位置,在多个备选事件数据中确定各检测框对应的检测事件数据,包括:
19.获取图像采集设备和事件相机之间的空间标定参数;
20.根据各帧图像的各检测框的位置和空间标定参数,得到各检测框对应的事件坐标范围;
21.将多个备选事件数据中像素点坐标位于事件坐标范围中的备选事件数据确定为检测事件数据。
22.在一个实施例中,获取预设时间段下采集的多帧图像,以及各帧图像的图像采样时间之前,方法还包括:
23.利用预设的双摄像头标定算法对图像采集设备和事件相机进行空间标定,得到空间标定参数,空间标定参数包括:事件相机相对于图像采集设备的空间旋转矩阵和空间平移矩阵。
24.在一个实施例中,利用预设的双摄像头标定算法对图像采集设备和事件相机进行空间标定,得到空间标定参数,包括:
25.获取事件相机采集的灰度图像,并获取图像采集设备采集的目标图像,灰度图像和目标图像的图像采样时间相同;
26.利用双摄像头标定算法对灰度图像和目标图像进行空间标定,得到空间标定参数。
27.在一个实施例中,对各帧图像进行目标检测,得到各帧图像中的物体的检测框,包括:
28.对各帧图像进行目标检测,得到各帧图像对应的检测框的中心点坐标,以及各检测框的高度和宽度;
29.根据中心点的位置、高度和宽度确定各帧图像中的物体的检测框。
30.在一个实施例中,获取第一设备实时采集的目标设备运动过程中的图像之前,方法还包括:
31.对图像采集设备和事件相机进行时间配准。
32.本技术实施例第二方面,提供一种高动态目标检测装置,该装置包括:
33.第一获取模块,用于获取图像采集设备在预设时间段下采集的多帧图像,以及各帧图像的图像采样时间;
34.第二获取模块,用于获取事件相机在预设时间段下采集的多个事件数据;
35.第一检测模块,用于对各帧图像进行目标检测,得到各帧图像的目标物体信息,目标物体信息中包括图像中的物体的检测框;
36.第一确定模块,用于根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据;
37.第二确定模块,用于根据各检测事件数据确定目标事件流数据,目标事件流数据
包括多个事件数据中除各检测事件数据外的数据;
38.第二检测模块,用于对目标事件流数据进行目标检测,得到漏检物体信息;
39.第三确定模块,用于根据目标物体信息和漏检物体信息得到目标检测结果。
40.本技术实施例第三方面,提供一种车辆,该车辆包括存储器和处理器,该存储器存储有计算机程序,计算机程序被处理器执行时实现本技术实施例第一方面中的高动态目标检测方法。
41.本技术实施例第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现本技术实施例第一方面中的高动态目标检测方法。
42.本技术实施例提供的技术方案带来的有益效果至少包括:
43.本技术实施例提供的高动态目标检测方法,通过获取图像采集设备在预设时间段下采集的多帧图像,以及各帧图像的图像采样时间,以及获取事件相机在预设时间段下采集的多个事件数据,然后,对各帧图像进行目标检测,得到各帧图像的目标物体信息,其中,目标物体信息中包括图像中的物体的检测框,之后,根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据,并根据各检测事件数据确定目标事件流数据,目标事件流数据包括多个事件数据中除各检测事件数据外的数据,以及对目标事件流数据进行目标检测,得到漏检物体信息,最后,根据目标物体信息和漏检物体信息得到目标检测结果。本技术通过先对采集到的图像进行目标检测,得到目标物体信息,然后对除过目标物体信息对应的事件数据的事件流数据进行目标检测,可以得到图像检测没有检测到的物体信息,这样可以提高高动态下目标检测的准确性。
附图说明
44.图1为本技术实施例提供的一种车载终端的内部结构示意图;
45.图2为本技术实施例提供的一种高动态目标检测方法的流程图一;
46.图3为本技术实施例提供的一种高动态目标检测方法的流程图二;
47.图4为本技术实施例提供的一种高动态目标检测方法的流程图三;
48.图5为本技术实施例提供的一种高动态目标检测装置的结构图。
具体实施方式
49.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
50.以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本公开实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
51.另外,“基于”或“根据”的使用意味着开放和包容性,因为“基于”或“根据”一个或多个条件或值的过程、步骤、计算或其他动作在实践中可以基于额外条件或超出的值。
52.随着汽车工业的快速发展,自动驾驶汽车技术近年来受到了学术界和工业界的广
泛关注。车辆目标检测是自动驾驶车辆技术中的一项具有挑战性的任务。它是自动驾驶汽车技术和智能交通系统领域的重要应用。它在自动驾驶技术中发挥着关键作用。车辆目标检测的目的是准确定位周围环境中剩余车辆的位置,避免与其他车辆发生事故。
53.目前自动驾驶车辆的主流传感器方案均采用普通摄像机作为视觉感知传感器,但普通摄像机的传感帧率决定了普通摄像机在感知高速运动物体时易产生运动模糊的缺点,导致目标检测效果降低。同时,普通摄像机感光动态范围小,难以适应光照骤变或光照过明/过暗场景,会出现过曝光或欠曝光情况,例如在出入隧道时,系统无法正常感知隧道口附近区域目标,这也会降低目标检测效果。
54.为了解决上述问题,本技术实施例提供了一种高动态目标检测方法,通过获取图像采集设备在预设时间段下采集的多帧图像,以及各帧图像的图像采样时间,以及获取事件相机在预设时间段下采集的多个事件数据,然后,对各帧图像进行目标检测,得到各帧图像的目标物体信息,其中,目标物体信息中包括图像中的物体的检测框,之后,根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据,并根据各检测事件数据确定目标事件流数据,目标事件流数据包括多个事件数据中除各检测事件数据外的数据,以及对目标事件流数据进行目标检测,得到漏检物体信息,最后,根据目标物体信息和漏检物体信息得到目标检测结果。本技术通过先对采集到的图像进行目标检测,得到目标物体信息,然后对除过目标物体信息对应的事件数据的事件流数据进行目标检测,可以得到图像检测没有检测到的物体信息,这样可以提高高动态下目标检测的准确性。
55.本技术实施例提供的高动态目标检测方法的执行主体可以为车辆、服务器或者服务器集群等,本技术实施例对此不作限定。具体的,当执行主体为车辆时,通常为车辆中的车载终端,
56.图1为本技术实施例提供的一种车载终端的内部结构示意图。如图1所示,该车载终端包括通过系统总线连接的处理器和存储器。其中,该处理器用于提供计算和控制能力。存储器可包括非易失性存储介质及内存储器。非易失性存储介质存储有操作系统和计算机程序。该计算机程序可被处理器所执行,以用于实现以上各个实施例提供的一种高动态目标检测方法方法的步骤。内存储器为非易失性存储介质中的操作系统和计算机程序提供高速缓存的运行环境。
57.本领域技术人员可以理解,图1中示出的结构,仅仅是与本技术方案相关的部分结构的框图,并不构成对本技术方案所应用于其上的车载终端的限定,具体的车载终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
58.基于上述执行主体,本技术实施例提供一种高动态目标检测方法。如图2所示,该方法包括以下步骤:
59.步骤201、获取图像采集设备在预设时间段下采集的多帧图像,以及各帧图像的图像采样时间。
60.其中,图像采集设备可以为摄像机或rgb相机。
61.步骤202、获取事件相机在预设时间段下采集的多个事件数据。
62.其中,事件相机是基于事件的视觉传感器是一种新型的仿生型视觉传感器,与传统相机的工作机制和输出方式不同,基于事件的视觉传感器的像素可以单独检测光照强度
的变化,并在变化量超过一定阈值时输出包含位置、时间、极性的事件信息,拥有低延迟、高动态范围、低功耗的优点,适应于有高速运动、光照条件变化较大或小能耗的场合。
63.事件相机可选择数据输出模式,包含灰度图像帧模式与事件流数据模式,事件流数据坐标与灰度图像一致。当场景中由物体运动或光照改变造成像素变化时,会产生一系列的事件,这些事件以事件流方式输出。
64.具体的,事件流数据中的事件数据为离散的脉冲数据,事件数据的格式为[n*4]矩阵。其中,n表示离散脉冲的数量,4表示事件数据(x,y,a,t)的维度,x,y,a,t分别表示像素点的坐标x,y,事件极性a以及事件发生的时间t。事件极性表明事件的性质,正极性+1表示光强度变亮,负极性-1表示光强度变暗,可以将数据流数据集合极为λ。
[0065]
需要说明的是,事件相机和图像采集设备设置于同一目标设备中,分别用于采集该目标设备在运动过程中的图像和事件数据。具体的,该目标设备可以为车辆,此外该目标设备还可以为无人机、飞行器或自动巡检设备等,本技术对比不作限定。
[0066]
以自动驾驶场景为例,图像采集设备和事件相机设置于车辆上,用于采集车辆的前向视角,图像采集设备与事件相机安装于同一车辆前向视角相应位置,两相机的视野具备重合区域。同时,图像采集设备和事件相机还可以设置于目标设备的其他视角的相应位置,用于采集目标设备的其他视角,本技术对比不作限定。
[0067]
步骤203、对各帧图像进行目标检测,得到各帧图像的目标物体信息,目标物体信息中包括图像中的物体的检测框。
[0068]
可选的,可以利用适用于图像的目标检测算法,如深度学习算法,对各帧图像进行目标检测,得到检测到的各帧图像中目标物体信息。其中,目标物体信息中包括:检测框信息、目标物体的类别、置信度和目标物体的标识信息等。
[0069]
其中,目标物体可以包括自动驾驶系统所需的交通参与者、障碍物、交通设施等,如人、机动车、非机动车、锥桶、红绿灯等信息。算法输出每一帧图像各个目标位置、大小、类别、置信度等信息。
[0070]
需要说明的是,通过对各帧图像进行目标检测,可以得到各帧图像对应的检测框的中心点坐标,以及各检测框的高度和宽度,然后根据中心点的位置、高度和宽度可以确定出各帧图像中的物体的检测框。
[0071]
例如某一帧图像p,所对应采样时间的时间戳为tp,识别出其中一个目标m,目标m的信息数据向量为[um,vm,wm,hm,

],其中um,vm表示目标m检测框中心点在图像像素中的位置,wm,hm分别表示目标m检测框的宽和高,数据向量中的

代表其他感兴趣项,如目标类别、置信度、物体标识id等。一帧图像包含若干目标,将p中所含目标信息数据集记为:φp={[um,vm,wm,hm,

],m=1,2,3

}。
[0072]
步骤204、根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据。
[0073]
需要说明的是,图像采集设备和事件相机之间存在对应的空间转换关系,因此可以根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据。
[0074]
步骤205、根据各检测事件数据确定目标事件流数据,目标事件流数据包括多个事件数据中除各检测事件数据外的数据。
[0075]
步骤206、对目标事件流数据进行目标检测,得到漏检物体信息。
[0076]
可选的,可以利用适用于事件数据的目标检测算法对目标事件流数据进行目标检测,得到基于图像检测没有检测到的漏检物体信息。
[0077]
由于图像中蕴含更多的纹理信息,且目前图像视频的感知算法与事件相机比更为成熟,故以图像采集设备的目标检测为主,利用事件相机作为极端光照条件及运动模糊情况下的补充。
[0078]
步骤207、根据目标物体信息和漏检物体信息得到目标检测结果。
[0079]
其中,目标检测结果中包括:检测到的目标物体的类别信息、目标物体的检测框、目标物体的置信度和目标物体的标识信息。
[0080]
本技术实施例提供的一种高动态目标检测方法,通过获取图像采集设备在预设时间段下采集的多帧图像,以及各帧图像的图像采样时间,以及获取事件相机在预设时间段下采集的多个事件数据,然后,对各帧图像进行目标检测,得到各帧图像的目标物体信息,其中,目标物体信息中包括图像中的物体的检测框,之后,根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据,并根据各检测事件数据确定目标事件流数据,目标事件流数据包括多个事件数据中除各检测事件数据外的数据,以及对目标事件流数据进行目标检测,得到漏检物体信息,最后,根据目标物体信息和漏检物体信息得到目标检测结果。本技术通过先对采集到的图像进行目标检测,得到目标物体信息,然后对除过目标物体信息对应的事件数据的事件流数据进行目标检测,可以得到图像检测没有检测到的物体信息,这样可以提高高动态下目标检测的准确性。
[0081]
进一步的,由于事件相机的动态范围高,当仅存在少量的光线变化时,也可以检测到动态目标,这样在极端光照条件下,例如光照骤变或光照过明/过暗场景,也可以检测到动态目标,进而可以提高目标检测的准确性。
[0082]
可选的,上述步骤202中的事件数据包括事件采样时间和多个像素点的位置信息。对应的,如图3所示,上述步骤204根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据的过程可以为:
[0083]
步骤301、根据各帧图像的图像采样时间和各事件采样时间,在多个事件数据中确定各帧图像对应的多个备选事件数据。
[0084]
其中,图像的图像采样时间与对应的每个备选事件数据的事件采样时间的时间间隔均小于预设阈值。
[0085]
步骤302、根据各帧图像的各检测框的位置,以及各帧图像对应的多个备选事件数据中的多个像素点的位置,在多个备选事件数据中确定各检测框对应的检测事件数据。
[0086]
也就是说,先根据各帧图像的图像采集时间确定图像对应的备选事件数据,该备选事件数据的采样时间与图像的采集时间的时间间隔小于预设阈值,该预设阈值可以为相邻两帧图像的时间间隔。然后,根据图像中检测框的包括的无坐标位置,从备选事件数据中确定各检测框对应的检测事件数据。由于事件流数据是连续的脉冲数据,而相邻两个图像之间则包括采样时间间隔,因此在根据图像的采样时间确定对应的事件数据时,可以将事件数据的采样时间与图像的采集时间的时间间隔小于相邻两帧图像的时间间隔的事件数据确定为图像数据备选事件数据,这样可以保证确定的备选事件数据比较完整。
[0087]
具体的,如图4所示,上述步骤302根据各帧图像的各检测框的位置,以及各帧图像
对应的多个备选事件数据中的多个像素点的位置,在多个备选事件数据中确定各检测框对应的检测事件数据的过程可以为:
[0088]
步骤401、获取图像采集设备和事件相机之间的空间标定参数。
[0089]
步骤402、根据各帧图像的各检测框的位置和空间标定参数,得到各检测框对应的事件坐标范围。
[0090]
步骤403、将多个备选事件数据中像素点坐标位于事件坐标范围中的备选事件数据确定为检测事件数据。
[0091]
示例的,对于目标检测框顶点数据集:φ

p={[u
m1
,v
m1
,u
m2
,v
m2
,u
m3
,v
m3
,u
m4
,v
m4
],m=1,2,3

}中某个目标m,检测框4个顶点坐标为[u
m1
,v
m1
,u
m2
,v
m2
,u
m3
,v
m3
,u
m4
,v
m4
]。利用图像采集设备与事件相机的标定参数,及旋转矩阵r、平移矩阵t,计算[u
m1
,v
m1
,u
m2
,v
m2
,u
m3
,v
m3
,u
m4
,v
m4
]对应的事件相机坐标[x
m1
,y
m1
,x
m2
,y
m2
,x
m3
,y
m3
,x
m4
,y
m4
]。对每个检测框均进行转换操作,得到已检测目标在事件相机中的投影位置ψ

p={[x
m1
,y
m1
,x
m2
,y
m2
,x
m3
,y
m3
,x
m4
,y
m4
],m=1,2,3

}。然后,将处于检测框的4个顶点范围内,且处于时间[tp-δt,tp]的事件数据删除。其中,δt小于等于两帧图像时间间隔。例如事件数据(x0,y0,a,t0),(x0,y0)处于目标1检测框[x
11
,y
11
,x
12
,y
12
,x
13y13
,x
14
,y
14
]范围内,且t0∈[tp-δt,tp],则在事件流数据λ中删除(x0,y0,a,t0)。将过滤后的事件流数据记为λ

,即为目标事件流数据。
[0092]
基于目标事件流数据λ

,利用适用于事件相机数据的目标检测算法进行目标检测,可以检测出的目标为图像算法漏检的目标。
[0093]
需要说明的是,在执行上述步骤201之前可以先对图像采集设备和事件相机进行空间标定,得到空间标定参数,该空间标定参数包括:事件相机相对于图像采集设备的空间旋转矩阵和空间平移矩阵。
[0094]
可选的,由于灰度图像的像素坐标与事件数据的像素坐标一致,因此为了方便进行空间标定,可以通过获取事件相机采集的灰度图像,并获取图像采集设备采集的目标图像,其中,灰度图像和目标图像的图像采样时间相同,然后利用双摄像头标定算法对灰度图像和目标图像进行空间标定,得到空间标定参数。
[0095]
同时,在对图像采集设备和事件相机进行空间标定后,还需要对图像采集设备和事件相机进行时间配准,以使图像采集设备与事件相机共用自动驾驶计算平台的时间,保持同步的时间轴。
[0096]
本技术实施例提供的一种高动态目标检测方法,通过获取图像采集设备在预设时间段下采集的多帧图像,以及各帧图像的图像采样时间,以及获取事件相机在预设时间段下采集的多个事件数据,然后,对各帧图像进行目标检测,得到各帧图像的目标物体信息,其中,目标物体信息中包括图像中的物体的检测框,之后,根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据,并根据各检测事件数据确定目标事件流数据,目标事件流数据包括多个事件数据中除各检测事件数据外的数据,以及对目标事件流数据进行目标检测,得到漏检物体信息,最后,根据目标物体信息和漏检物体信息得到目标检测结果。本技术通过先对采集到的图像进行目标检测,得到目标物体信息,然后对除过目标物体信息对应的事件数据的事件流数据进行目标检测,可以得到图像检测没有检测到的物体信息,这样可以提高高动态下目标检测的准确性。
[0097]
进一步的,由于事件相机的动态范围高,当仅存在少量的光线变化时,也可以检测
到动态目标,这样在极端光照条件下,例如光照骤变或光照过明/过暗场景,也可以检测到动态目标,进而可以提高目标检测的准确性。
[0098]
如图5所示,本技术实施例还提供了一种高动态目标检测装置,该装置包括:
[0099]
第一获取模块11,用于获取图像采集设备在预设时间段下采集的多帧图像,以及各帧图像的图像采样时间;
[0100]
第二获取模块12,用于获取事件相机在预设时间段下采集的多个事件数据;
[0101]
第一检测模块13,用于对各帧图像进行目标检测,得到各帧图像的目标物体信息,目标物体信息中包括图像中的物体的检测框;
[0102]
第一确定模块14,用于根据各帧图像的图像采样时间和各事件数据,在多个事件数据中确定各帧图像的检测框对应的检测事件数据;
[0103]
第二确定模块15,用于根据各检测事件数据确定目标事件流数据,目标事件流数据包括多个事件数据中除各检测事件数据外的数据;
[0104]
第二检测模块16,用于对目标事件流数据进行目标检测,得到漏检物体信息;
[0105]
第三确定模块17,用于根据目标物体信息和漏检物体信息得到目标检测结果。
[0106]
在一个实施例中,第一确定模块14具体用于:
[0107]
根据各帧图像的图像采样时间和各事件采样时间,在多个事件数据中确定各帧图像对应的多个备选事件数据,图像的图像采样时间与对应的每个备选事件数据的事件采样时间的时间间隔均小于预设阈值;
[0108]
根据各帧图像的各检测框的位置,以及各帧图像对应的多个备选事件数据中的多个像素点的位置,在多个备选事件数据中确定各检测框对应的检测事件数据。
[0109]
在一个实施例中,第一确定模块14具体用于:
[0110]
获取图像采集设备和事件相机之间的空间标定参数;
[0111]
根据各帧图像的各检测框的位置和空间标定参数,得到各检测框对应的事件坐标范围;
[0112]
将多个备选事件数据中像素点坐标位于事件坐标范围中的备选事件数据确定为检测事件数据。
[0113]
在一个实施例中,该装置还包括标定模块18,该标定模块18用于:
[0114]
利用预设的双摄像头标定算法对图像采集设备和事件相机进行空间标定,得到空间标定参数,空间标定参数包括:事件相机相对于图像采集设备的空间旋转矩阵和空间平移矩阵。
[0115]
在一个实施例中,该标定模块18具体用于:
[0116]
获取事件相机采集的灰度图像,并获取图像采集设备采集的目标图像,灰度图像和目标图像的图像采样时间相同;
[0117]
利用双摄像头标定算法对灰度图像和目标图像进行空间标定,得到空间标定参数。
[0118]
在一个实施例中,第一检测模块13具体用于:
[0119]
对各帧图像进行目标检测,得到各帧图像对应的检测框的中心点坐标,以及各检测框的高度和宽度;
[0120]
根据中心点的位置、高度和宽度确定各帧图像中的物体的检测框。
[0121]
在一个实施例中,该装置还包括配准模块19,该配准模块19用于:对图像采集设备和事件相机进行时间配准。
[0122]
本实施例提供的高动态目标检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再多加赘述。
[0123]
关于高动态目标检测装置的具体限定可以参见上文中对于高动态目标检测方法的限定,在此不再赘述。上述高动态目标检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于车载终端中的处理器中,也可以以软件形式存储于车载终端中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0124]
本技术的另一实施例中,还提供一种车辆,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时实现如本技术实施例的高动态目标检测方法的步骤。
[0125]
本技术另一实施例中,还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如本技术实施例的高动态目标检测方法的步骤。
[0126]
本技术另一实施例中,还提供一种计算机程序产品,该计算机程序产品包括计算机指令,当计算机指令在高动态目标检测装置上运行时,使得高动态目标检测装置执行上述方法实施例所示的方法流程中高动态目标检测方法执行的各个步骤。
[0127]
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件程序实现时,可以全部或部分地以计算机程序产品的形式来实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机执行指令时,全部或部分地产生按照本技术实施例的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或者数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,dsl))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可以用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质(例如,软盘、硬盘、磁带),光介质(例如,dvd)、或者半导体介质(例如固态硬盘(solid state disk,ssd))等。
[0128]
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0129]
以上实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术专利的保护范围应以所附权利要求为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1