一种控制方法、装置、终端设备及计算机可读存储介质与流程

文档序号:33559672发布日期:2023-03-22 13:41阅读:48来源:国知局
一种控制方法、装置、终端设备及计算机可读存储介质与流程

1.本技术属于汽车电子技术领域,尤其涉及一种控制方法、装置、终端设备及计算机可读存储介质。


背景技术:

2.当车辆在夜晚行车时,需要开启前照灯以帮助驾驶员看清前方道路。但是,当夜晚会车时或者跟车时,如果前照灯的亮度过高,则会给司机造成眩目,看不清路况而造成交通事故。
3.目前的智能前照灯系统能够根据前视摄像头检测对向来车,从而调节前照灯亮度,然而,由于夜间光照条件恶劣等因素导致的相机成像质量不高,并且无法通过优化图像处理算法来提高成像质量,极易导致误检、漏检等问题,最终影响前照灯照明效果,从而影响夜间行车安全。


技术实现要素:

4.本技术实施例提供了一种控制方法、装置、终端设备及计算机可读存储介质,可以有效解决车辆前方区域的识别精度,实现了车辆大灯的精准控制,从而提高了行车安全性。
5.第一方面,本技术实施例提供了一种控制方法,包括:
6.获取第一数据,所述第一数据表示通过第一车辆上安装的雷达探测所述第一车辆的前方区域获取到的雷达数据;
7.获取第二数据,所述第二数据表示通过所述第一车辆上安装的摄像头拍摄所述第一车辆的前方区域获取到的图像数据;
8.根据所述第一数据和所述第二数据检测所述第一车辆前方的第二车辆,获得所述第二车辆的识别信息;
9.根据所述第二车辆的识别信息控制所述第一车辆的大灯模组照明。
10.本技术实施例中,利用相机拍摄到的第一车辆前方区域的图像数据、以及雷达探测到的第一车辆前方区域的雷达数据,获得第一车辆前方第二车辆的识别信息,相当于在识别第一车辆前方车辆的过程中、综合考虑了雷达数据和图像数据。通过上述方法,当夜晚光照条件恶劣或遇到雨雪雾霾等较差的天气状况时,能够有效避免由于相机成像质量差导致的误检、漏检等问题,提高了车辆前方区域的识别精度,从而精准控制车辆大灯模组照明,提高了行车的安全性。
11.在第一方面的一种可能的实现方式中,所述根据所述第一数据和所述第二数据检测所述第一车辆前方的第二车辆,获得所述第二车辆的识别信息,包括:
12.对所述第一数据和所述第二数据进行数据匹配处理,获得匹配数据;
13.根据所述匹配数据进行融合处理,获得所述第二车辆的识别信息。
14.在第一方面的一种可能的实现方式中,所述第一数据包括多帧第一点云数据,所述第二数据包括多张第一图像,所述匹配数据包括至少一组相匹配的第一点云数据和第一
图像,所述对所述第一数据和第二数据进行数据匹配处理,获得匹配数据,包括:
15.对于每帧所述第一点云数据,将所述第一点云数据分别与每张所述第一图像进行空间匹配,获得空间匹配结果;
16.将所述第一点云数据分别与每张所述第一图像进行时间匹配,获得时间匹配结果;
17.根据所述空间匹配结果和所述时间匹配结果确定与所述第一点云数据相匹配的第一图像。
18.在第一方面的一种可能的实现方式中,所述将所述第一点云数据分别与每张所述第一图像进行空间匹配,获得空间匹配结果,包括:
19.获取第三数据,所述第三数据表示雷达坐标系和相机坐标系之间之间的转化矩阵;
20.根据所述第三数据将所述第一点云数据分别与每张所述第一图像进行空间匹配,获得所述空间匹配结果。
21.在第一方面的一种可能的实现方式中,所述将所述第一点云数据分别与每张所述第一图像进行时间匹配,获得时间匹配结果,包括:
22.计算所述第一点云数据对应的采集时刻与每张所述第一图像对应的采集时刻之间的时间差;
23.根据计算出的所述时间差确定所述时间匹配结果。
24.在第一方面的一种可能的实现方式中,所述匹配数据包括至少一组相匹配的第一点云数据和第一图像,所述根据所述匹配数据进行融合处理,获得所述第二车辆的识别信息,包括:
25.对于每组相匹配的第一点云数据和第一图像,获取第四数据,所述第四数据包括解析所述第一图像获得的所述第一车辆与所述第二车辆之间的距离值与方位角;
26.获取第五数据,所述第五数据包括解析第一点云数据获得的所述第一车辆与所述第二车辆之前得距离值与方位角;
27.根据所述第四数据与所述第五数据确定所述第二车辆的识别信息。
28.在第一方面的一种可能的实现方式中,其特征在于,所述根据第四数据和所述第五数据确定所述第二车辆的识别信息,包括:
29.获取第一精度,所述第一精度表示为所述视摄像头的数据采集精度;
30.获取第二精度,所述第二精度表示为所述雷达的数据采集精度;
31.根据所述第一精度和所述第二精度确定权重。
32.根据所述权重从所述第四数据和所述第六数据中确定所述第二车辆的识别信息。
33.在第一方面的一种可能的实现方式中,所述根据所述权重从第四数据和所述第五数据中确定出所述第二车辆的识别信息,包括:所述方法还包括:
34.若所述权重小于第一预设值,则将所述第四数据确定为所述第二车辆的识别信息;
35.若所述权重大于第二预设值,则将所述第四数据确定为所述第二车辆的识别信息;
36.若所述权重介于所述第一预设值与所述第二预设值之间,则将对所述第四数据和
所述第五数据进行加权平均后得到的数据确定为所述第二车辆的识别信息。
37.第二方面,本技术实施例提供了一种控制装置,包括:
38.获取单元,用于获取第一数据,所述第一数据表示通过第一车辆上安装的雷达探测所述第一车辆的前方区域获取到的雷达数据;
39.生成单元,用于获取第二数据,所述第二数据表示通过所述第一车辆上安装的摄像头拍摄所述第一车辆的前方区域获取到的图像数据;
40.检测单元,用于根据所述第一数据和所述第二数据检测所述第一车辆前方的第二车辆,获得所述第二车辆的识别信息;
41.控制单元,用于根据所述第二车辆的识别信息控制所述第一车辆的大灯模组照明。
42.第三方面,本技术实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面中任一项所述的控制方法。
43.第四方面,本技术实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面中任一项所述的控制方法。
44.第五方面,本技术实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的控制方法。
45.可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
46.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
47.图1是本技术一实施例提供的控制系统的结构示意图;
48.图2是本技术一实施例提供的控制方法的流程示意图;
49.图3是本技术一实施例提供的信息识别的流程示意图;
50.图4是本技术一实施例提供的数据匹配的流程示意图;
51.图5是本技术一实施例提供的控制装置结构图;
52.图6是本技术实施例提供的终端设备的结构示意图。
具体实施方式
53.以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本技术实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本技术。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本技术的描述。
54.应当理解,当在本技术说明书和所附权利要求书中使用时,术语“包括”指示所描
述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
55.还应当理解,在本技术说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
56.如在本技术说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
[0057]
另外,在本技术说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
[0058]
在本技术说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本技术的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。
[0059]
随着科技的进步和生活水平的提高,智能车逐渐进入人们的视野,智能车机能够利用卫星定位系统提供位置、速度及时间等信息,并配合高精度导航电子地图的路线规划能力,为用户提高导航功能,帮助用户快速、准确、实现规划行车路线,同时引导用户按照规划的路线行驶,并到达目的地。
[0060]
当车辆在夜晚行车时,需要开启前照灯以帮助驾驶员看清道路。但是,当夜晚会车或者跟车时,如果前照灯的亮度过高,则会给司机造成炫目,看不清路况而造成交通事故。目前汽车的智能前照灯系统能够根据前视摄像头检测对向来车,从而调节前照灯亮度,然而,由于夜间光照条件恶劣等因素导致的相机成像质量不高,并且无法通过优化图像处理算法来提高成像质量,极易导致误检、漏检等问题,最终影响前照灯照明效果,从而影响夜间行车的安全。
[0061]
为了解决上述现有技术存在的不足之处,本技术实施例提出的一种控制方法。本技术实施例中,首先通过摄像头和雷达获取车辆前方探测范围内的图像数据和雷达数据,然后通过将图像数据和雷达数据进行融合,利用融合数据识别车辆前方区域,可以获知前方车辆目标的准确信息和准确位置。通过本技术实施例中的方法,能有效解决车辆前方区域的识别精度,实现了车辆大灯的精准控制,从而提高了行车安全性。
[0062]
首先介绍本技术实施例涉及到的控制系统。参见图1,是本技术实施例提供的控制系统的结构示意图。作为示例而非限定,如图1所示,控制系统可以包括:摄像头11、雷达12、信号处理器13、大灯控制器14。其中,信号处理器13接收摄像头11和雷达12采集到的数据,并利用本技术实施例提供的控制方法对上述数据进行处理,获得车辆前方区域的识别信息,最后将识别信息传送到大灯控制器14,大灯控制器14根据识别信息控制大灯模组照明。
[0063]
在一些应用场景中,还可以由信号处理器13根据识别信息控制大灯模组。
[0064]
本技术实施例提供的一种控制方法可由于图1所示的信号处器执行,在本技术中,参见图2,是本技术实施例提供的控制方法的流程示意图,作为示例而非限定,所述方法包括以下步骤:
[0065]
步骤s201,获取第一数据,所述第一数据表示通过第一车辆上安装的雷达探测所述第一车辆的前方区域获取到的雷达数据。
[0066]
在本技术实施例中,雷达的选择可以是激光雷达、毫米波雷达等多种,但是由于毫米波雷达不受光照条件限制,抗干扰能力强探测距离远等优点适合本技术的应用条件,所以本技术实施例中选择毫米波雷达采集雷达数据。
[0067]
将雷达设置在本车辆即第一车辆的车辆正上方,这样可以获取车辆前方可探测范围内的雷达数据即第一数据,雷达数据可以显示出前方车辆、行人等路况以便对本车的行驶速度、车辆大灯光照亮度等作出正确的判断,以提高行车的安全性,在获取雷达数据后,将采集到的雷达数据通过整车can总线发送给信号处理器应用于后续信号处理,上述采用毫米波雷达可以使采集到前方车辆以及行人的的数据更为准确。
[0068]
步骤s202,获取第二数据,所述第二数据表示通过所述第一车辆上安装的摄像头拍摄所述第一车辆的前方区域获取到的图像数据。
[0069]
在本实施例中,摄像头采集的图像数据即第二数据,摄像头设置在车内后视镜正上方,用于获取车辆前方摄像头视野范围内的图像数据,在采集完图像数据后同样将图像数据通过整车can总线发送给信号处理器。
[0070]
步骤s203,根据所述第一数据和所述第二数据检测所述第一车辆前方的第二车辆,获得所述第二车辆的识别信息。
[0071]
在本实施例中,利用信号处理器对通过整车can总线接收到的雷达数据和图像数据进行数据前处理和融合算法处理后,可以获得车辆前方的目标识别信息。
[0072]
示例性的,识别信息可以包括第二车辆相对于第一车辆的位置、行驶方向等信息,如车辆前方左前方同向行驶车辆、车辆左前方对向行驶车辆、车辆右前方同向行驶车辆、车辆右前方对向行驶车辆等识别信息,这样驾驶员可根据识别信息判断对方来车的准确位置,可提高夜间行车的安全性。
[0073]
在一个实施例中,参见图3,是本技术的一实施例提供的信息识别的流程示意图,如图3所示,步骤s203的一种实现方式,包括:
[0074]
步骤s301,对所述第一数据和所述第二数据进行数据匹配处理,获得匹配数据。
[0075]
步骤s302,根据所述匹配数据进行融合处理,获得所述第二车辆的识别信息。
[0076]
本技术实施例中,雷达数据可以为多帧点云数据,图像数据可以为多张拍摄图像。在车辆行驶过程中,不同时刻获取的点云数据和拍摄图像所对应的车辆前方区域也不同。在融合处理的过程中,若将不同时刻获取的点云数据和拍摄图像进行融合处理,相当于将车辆前方不同区域的雷达数据和图像数据进行了融合,此种情况下,获得的第二车辆的识别信息是不准确的。
[0077]
为了解决上述问题,本技术实施例中,对雷达数据和图像数据进行数据匹配处理,之后再利用匹配数据进行融合处理,以提高第二车辆的识别信息的准确度。
[0078]
在一个实施例中,第一数据包括多帧第一点云数据,所述第二数据包括多张第一图像,所述匹配数据包括至少一组相匹配的第一点云数据和第一图像,参见图4,是本技术一实施例提供的数据匹配的流程示意图,如图4所示,步骤s301的一种实现方式包括:
[0079]
步骤s401,对于每帧所述第一点云数据,将所述第一点云数据分别与每张所述第一图像进行空间匹配,获得空间匹配结果。
[0080]
在本实施例中,由于雷达采集到的雷达数据为一帧帧的点云数据,摄采集到的图像数据为多张图像,在融合算法处理之前首先需要进行空间匹配,为每一帧点云数据与每张图像进行空间匹配,得到空间匹配结果,最后进行空间匹配的点云数据与图像数据才能进行融合算法的处理,得到车辆的识别信息。
[0081]
在一个实施例中,步骤s301的一种实现方式,包括:
[0082]
获取第三数据,所述第三数据表示雷达坐标系和相机坐标系之间之间的转化矩阵;
[0083]
根据所述第三数据将所述第一点云数据分别与每张所述第一图像进行空间匹配,获得所述空间匹配结果。
[0084]
在本实施例中,在对第一点云数据与图像数据进行空间匹配时,可以利用坐标的转换实现。由于雷达和摄像头分别安装在车辆的不同位置,每个传感器都定义了自己的坐标,因此需要对雷达坐标系、相机坐标系进行统一的标准。
[0085]
一种实现方式中,标定雷达坐标系和相机坐标系之间的转化矩阵。对于每帧第一点云数据,根据所述转化矩阵将第一点云数据映射到相机坐标系下,获得映射图像;分别计算映射图像与每张第一图像之间的相似度;将最大的相似度对应的第一图像确定为与第一点云数据在空间上相匹配的图像。
[0086]
本技术实施例中,可以利用matlab标定工具箱计算转换矩阵。
[0087]
可选的,计算映射图像与每张第一图像之间的相似度的一种方式为:计算映射图像中每个像素与第一图像中每个像素之间的像素距离;根据像素距离匹配映射图像中的像素和第一图像中的像素;统计相匹配的像素的数量,将该数量确定为映射图像与每张第一图像之间的相似度。另一种方式为:将映射图像和第一图像输入预先训练后的检测模型,输出检测结果;该检测结果可以为置信度或概率值等,根据该检测结果确定匹配结果。
[0088]
另一种实现方式中,标定雷达坐标系和相机坐标系之间的转化矩阵。对于每张第一图像,根据所述转化矩阵将第一图像映射到雷达坐标系下,获得映射点云;分别计算映射点云与每帧第一点云数据之间的相似度;将最大的相似度对应的第一点云数据确定为与所述第一图像在空间上相匹配的点云数据。
[0089]
可选的,映射点云与第一点云数据之间的相似度的方式可以为:计算映射点云中每个点与第一点云数据中每个点之间的点云距离;根据点云距离匹配映射点云中的点和第一点云数据中的点;统计相匹配的点的数量,将该数量确定为映射点云与第一点云数据之间的相似度。
[0090]
步骤s402,将所述第一点云数据分别与每张所述第一图像进行时间匹配,获得时间匹配结果。
[0091]
本技术实施例中,需要将第一点云数据与第一图像进行时间匹配,时间匹配即为每帧第一点云数据寻找与该时刻最近邻时刻的图像数据,将雷达数据投影到图像数据中,这即为两种数据的时间匹配。
[0092]
在一个实施例中,步骤s402的一种实现方式,包括:
[0093]
计算所述第一点云数据对应的采集时刻与每张所述第一图像对应的采集时刻之间的时间差;根据计算出的所述时间差确定所述时间匹配结果。
[0094]
一种实现方式中,对于每帧第一点云数据,将与该帧第一点云数据的采集时刻的
时间差最小的第一图像,确定为与该帧第一点云在时间上相匹配的图像。
[0095]
示例性的,雷达获取了100帧点云数据,相机拍摄了80张图像。对于第一帧点云数据,分别计算第一帧点云数据的采集时刻与80张图像中每张图像的采集时刻之间的时间差。假设第一帧点云数据的采集时刻与第2张图像的采集时刻的时间差最小,则确定第一帧点云数据与第2张图像在时间上相匹配。
[0096]
步骤s403,根据所述空间匹配结果和所述时间匹配结果确定与所述第一点云数据相匹配的第一图像。
[0097]
在本实施例中,上述对于第一点云数据和每张图像数据分别进行了空间和时间的匹配获得了空间匹配结果和时间匹配结果,最后根据空间匹配结果和所述时间匹配结果确定与所述第一点云数据相匹配的第一图像,最后利用上述匹配的点云数据与图像数据进行融合算法的处理。
[0098]
在一个实施例中,匹配数据包括至少一组相匹配的第一点云数据和第一图像,步骤s302的一种实现方式,包括:
[0099]
对于每组相匹配的第一点云数据和第一图像,获取第四数据,所述第四数据包括解析所述第一图像获得的所述第一车辆与所述第二车辆之间的距离值与方位角;
[0100]
获取第五数据,所述第五数据包括解析第一点云数据获得的所述第一车辆与所述第二车辆之前得距离值与方位角;
[0101]
根据所述第四数据与所述第五数据确定所述第二车辆的识别信息。
[0102]
在本实施例中,对匹配成功的点云数据与图像数据进行融合算法的处理,利用卷积神经网络来检测图像数据并识别其中的前方目标车辆,输出前方目标车辆距离本车的距离值s1和方位角δ1即第四数据,然后解析匹配成成功的点云数据,输出前方目标车辆距离本车的距离值s2和方位角δ2,即第五数据。最后根据解析成功的第四和第五数据确定第二车辆的识别信息。
[0103]
上述数据中的距离值和方位角作为车辆前方的目标识别信息,可以根据方位角与距离值更加准确的判断出前方车辆的运行情况,充分提高了司机驾驶的安全性。
[0104]
在一个实施例中,步骤s302的一种实现方式,还包括:
[0105]
获取第一精度,所述第一精度表示为所述视摄像头的数据采集精度;
[0106]
获取第二精度,所述第二精度表示为所述雷达的数据采集精度;
[0107]
根据所述第一精度和所述第二精度确定权重;
[0108]
根据所述权重从所述第四数据和所述第五数据中确定所述第二车辆的识别信息。
[0109]
在本实施例中,因为测量误差的存在,所以需要获取摄像头的数据采集精度w1即第一精度,毫米波雷达的数据采集精度w2即第二精度,然后根据雷达和摄像头的相对精度确定权重ω。最后需要根据权重的大小从上述第四数据和第五数据中确定第二车辆的识别信息。
[0110]
在一个实施例中,步骤s302的一种实现方式,还包括:
[0111]
若所述权重小于第一预设值,则将所述第四数据确定为所述第二车辆的识别信息;
[0112]
若所述权重大于第二预设值,则将所述第四数据确定为所述第二车辆的识别信息;
[0113]
若所述权重介于所述第一预设值与所述第二预设值之间,则将对所述第四数据和所述第五数据进行加权平均后得到的数据确定为所述第二车辆的识别信息。
[0114]
在本实施例中,需要根据权重确定识别信息,权重的确定方法如下:
[0115]
若表明前视摄像头的精度不足,图像数据不予采用,将毫米波雷达的数据作为融合算法处理后的信息;若表明毫米波雷达的精度不足,雷达数据不予采用,将前视摄像头的数据作为融合算法处理后的信息,其中0.1为第一预设值,0.9为第二预设值,若则利用式(1)、式(2)将图像数据结果和雷达数据结果进行加权平均,计算出融合后前方目标车辆距离本车的距离值s和方位角δ:
[0116][0117][0118]
步骤s204,根据所述第二车辆的识别信息控制所述第一车辆的大灯模组照明。
[0119]
在本实施例中,信息处理模块将目标识别信息通过整车can总线发送给大灯控制器,大灯控制器根据识别信息控制大灯模组照明。
[0120]
如s203中所述,识别信息可以包括第二车辆相对于第一车辆的位置、行驶方向等信息,如车辆前方左前方同向行驶车辆、车辆左前方对向行驶车辆、车辆右前方同向行驶车辆、车辆右前方对向行驶车辆等。
[0121]
在一种实现方式中,可以根据识别信息中的第二车辆相对于第一车辆的行驶方向控制第一车辆的大灯模组亮灭。例如,若第二车辆相对于第一车辆的行驶方向为对向行驶,则控制第一车辆的大灯模组切换至近光灯。
[0122]
在另一种实现方式中,可以根据识别信息中的第二车辆相对应第一车辆的位置控制第一车辆的大灯模型的照明区域。例如,若第二车辆相对于第一车辆的位置为左前方,则关闭第一车辆的大灯模组左侧大灯,以使大灯模组通过右侧大灯照亮第一车辆的右前方区域;若第二车辆相对于第一车辆的位置为右前方,则关闭第一车辆的大灯模组的右侧大灯,以使大灯模组通过左侧大灯照亮第一车辆的左前方区域。
[0123]
一些控制场景中,大灯控制器根据车辆前方识别信息判断车辆前方的目标车辆是否驶出照明暗区;若是,则控制大灯模组恢复至正常照明;否则,根据实时更新的车辆前方的目标识别信息,实时调整大灯模组的照明效果,当目标车辆驶出照明暗区时,大灯控制器控制大灯模组恢复至正常照明。
[0124]
通过上述方法,车辆可以自动识别是否有对向来车,从而控制下游大灯模组在照明范围内形成照明暗区。本技术能避免对向来车的驾驶员产生眩目,提高夜间行车安全性。
[0125]
通过本技术实施例提供的控制方法。首先通过摄像头和雷达获取车辆前方探测范围内的图像数据和雷达数据,根据输入的图像数据和雷达数据,采用图像数据和雷达数据融合增强检测精度的数据融合思路,弥补了前视摄像头夜间成像质量不高的缺陷,有效解决了现有智能大灯系统中前视摄像头误检、漏检等问题,充分提升了道路照明的安全性和司机驾驶的舒适性。
[0126]
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本技术实施例的实施过程构成任何限定。
[0127]
对应于上文实施例所述的控制方法,图5是本技术实施例提供的控制装置的结构框图,为了便于说明,仅示出了与本技术实施例相关的部分。
[0128]
参照图5,该装置包括:
[0129]
获取单元51,用于获取第一数据,第一数据表示通过第一车辆上安装的雷达探测所述第一车辆的前方区域获取到的雷达数据;
[0130]
生成单元52,用于获取第二数据,第二数据表示通过所述第一车辆上安装的摄像头拍摄所述第一车辆的前方区域获取到的图像数据;
[0131]
检测单元53,用于根据第一数据和第二数据检测所述第一车辆前方的第二车辆,获得所述第二车辆的识别信息;
[0132]
控制单元54,用于根据第二车辆的识别信息控制第一车辆的大灯模组照明。
[0133]
可选的,检测单元53还用于:
[0134]
对所述第一数据和所述第二数据进行数据匹配处理,获得匹配数据;
[0135]
根据所述匹配数据进行融合处理,获得所述第二车辆的识别信息。
[0136]
可选的,检测单元53还用于:
[0137]
对于每帧所述第一点云数据,将所述第一点云数据分别与每张所述第一图像进行空间匹配,获得空间匹配结果;
[0138]
将所述第一点云数据分别与每张所述第一图像进行时间匹配,获得时间匹配结果;
[0139]
根据所述空间匹配结果和所述时间匹配结果确定与所述第一点云数据相匹配的第一图像。
[0140]
可选的,检测单元53还用于:
[0141]
获取第三数据,所述第三数据表示雷达坐标系和相机坐标系之间之间的转化矩阵;
[0142]
根据所述第三数据将所述第一点云数据分别与每张所述第一图像进行空间匹配,获得所述空间匹配结果。
[0143]
可选的,检测单元53还用于:
[0144]
计算所述第一点云数据对应的采集时刻与每张所述第一图像对应的采集时刻之间的时间差;
[0145]
根据计算出的所述时间差确定所述时间匹配结果。
[0146]
可选的,检测单元53还用于:
[0147]
对于每组相匹配的第一点云数据和第一图像,获取第五数据,所述第四数据包括解析所述第一图像获得的所述第一车辆与所述第二车辆之间的距离值与方位角;
[0148]
获取第五数据,所述第五数据包括解析第一点云数据获得的所述第一车辆与所述第二车辆之前得距离值与方位角;
[0149]
根据所述第四数据与所述第五数据确定所述第二车辆的识别信息。
[0150]
可选的,检测单元53还用于:
[0151]
获取第一精度,所述第一精度表示为所述视摄像头的数据采集精度;
[0152]
获取第二精度,所述第二精度表示为所述雷达的数据采集精度;
[0153]
根据所述第一精度和所述第二精度确定权重。
[0154]
根据所述权重从所述第四数据和所述第六数据中确定所述第二车辆的识别信息。
[0155]
可选的,检测单元53还用于:
[0156]
若所述权重小于第一预设值,则将所述第四数据确定为所述第二车辆的识别信息;
[0157]
若所述权重大于第二预设值,则将所述第四数据确定为所述第二车辆的识别信息;
[0158]
若所述权重介于所述第一预设值与所述第二预设值之间,则将对所述第四数据和所述第五数据进行加权平均后得到的数据确定为所述第二车辆的识别信息。
[0159]
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本技术方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
[0160]
另外,图5所示的控制装置可以是内置于现有的终端设备内的软件单元、硬件单元、或软硬结合的单元,也可以作为独立的挂件集成到所述终端设备中,还可以作为独立的终端设备存在。
[0161]
图6是本技术实施例提供的终端设备的结构示意图。如图6所示,该实施例的终端设备6包括:至少一个处理器60(图6中仅示出一个)处理器、存储器61以及存储在所述存储器61中并可在所述至少一个处理器60上运行的计算机程序62,所述处理器60执行所述计算机程序62时实现上述任意各个控制方法实施例中的步骤。
[0162]
所述终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该终端设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,图6仅仅是终端设备6的举例,并不构成对终端设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
[0163]
所称处理器60可以是中央处理单元(central processing unit,cpu),该处理器60还可以是其他通用处理器、数字信号处理器(digital signalprocessor,dsp)、专用集成电路(application specific integrated circuit,asic)、现成可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0164]
所述存储器61在一些实施例中可以是所述终端设备6的内部存储单元,例如终端设备6的硬盘或内存。所述存储器61在另一些实施例中也可以是所述终端设备6的外部存储设备,例如所述终端设备5上配备的插接式硬盘,智能存储卡(smart media card,smc),安全数字(secure digital,sd)卡,闪存卡(flash card)等。进一步地,所述存储器61还可以既包括所述终端设备5的内部存储单元也包括外部存储设备。所述存储器61用于存储操作系统、应用程序、引导装载程序(boot loader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
[0165]
本技术实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储
有计算机程序,所述计算机程序被处理器执行时可实现上述各个方法实施例中的步骤。
[0166]
本技术实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行时可实现上述各个方法实施例中的步骤。
[0167]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、电载波信号、电信信号以及软件分发介质。例如u盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
[0168]
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
[0169]
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
[0170]
在本技术所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
[0171]
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0172]
以上所述实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的精神和范围,均应包含在本技术的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1