一种车辆自动驾驶方法、车载控制器及系统与流程

文档序号:24647057发布日期:2021-04-13 15:39阅读:106来源:国知局
一种车辆自动驾驶方法、车载控制器及系统与流程

1.本发明属于车辆自动驾驶技术领域,尤其涉及一种车辆自动驾驶方法、车载控制器及系统。


背景技术:

2.在汽车发展趋势中,自动驾驶将是汽车发展的主要方向。
3.目前的自动驾驶模型一般是利用单一传感器采集的数据进行训练得出的,功能比较单一。但自动驾驶场景复杂多变,无法穷举,单一传感器性能受限,单一传感器无法满足高级别自动驾驶感知功能,面对复杂多变的自然驾驶环境,无法高精度地对车辆进行行为控制。


技术实现要素:

4.针对现有技术存在的问题,本发明实施例提供了一种车辆自动驾驶方法、车载控制器及系统,用于解决现有技术中的车辆自动驾驶模型在面对复杂多变的自然驾驶环境时,无法高精度地对车辆进行行为控制的技术问题。
5.本发明提供一种车辆自动驾驶方法,所述方法包括:
6.获取各类型的历史驾驶场景数据,将各所述历史驾驶场景数据发送至云服务器,使得所述云服务器基于所述历史驾驶场景数据及对应的标签数据训练驾驶模型;
7.接收由所述云服务器发送的所述驾驶模型对应的模型参数及高精度地图;
8.实时获取当前驾驶场景中当前目标的点云数据及相机图像数据,基于所述相机图像数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息;基于所述点云数据及对应的模型参数进行迁移学习,输出识别出的所述当前目标的第二当前目标信息;所述当前目标为所述当前驾驶场景中存在的所有交通参与者;
9.将所述第一当前目标信息、所述第二当前目标信息及所述高精度地图进行感知融合,输出所述当前驾驶场景的感知数据;
10.基于所述感知数据对所述当前车辆进行行驶控制。
11.可选的,所述基于所述相机图像数据及对应的模型参数进行迁移学习,输出识别出的所述当前目标的第一当前目标信息,包括:
12.获取相机图像数据对应的第一当前标签数据,基于所述相机图像数据及所述第一当前标签数据进行卷积神经网络运算,输出所述当前目标的2d包围盒及所述当前目标的第一目标分类;
13.基于所述当前目标的2d包围盒对所述当前目标进行目标姿态估计及目标大小估计,输出所述当前目标的目标姿态及目标大小;
14.对所述目标姿态及所述目标大小进行3d推理,输出所述当前3d包围盒;基于所述3d包围盒确定所述当前目标的第一位置信息。
15.可选的,所述基于所述相机图像数据及对应的模型参数进行迁移学习,输出识别
出的所述当前目标的第一当前目标信息,还包括:
16.对所述相机图像数据进行逆透视变换,获得变换后的相机图像数据;
17.获取所述当前车辆的姿态数据及相机外参数据,基于所述当前车辆的姿态数据、所述相机外参数据对变换后的相机图像数据进行空间坐标映射,获得相机图像数据对应的空间坐标;
18.基于所述空间坐标及相机内参数据确定所述当前目标与所述当前车辆之间的距离。
19.可选的,所述基于所述点云数据及所述模型参数进行迁移学习,输出识别出的所述当前目标的第二当前目标信息,包括:
20.对所述点云数据进行点云体素化,获得点云体素数据;
21.获取所述点云数据对应的第二当前标签数据;
22.对所述点云体素数据及所述第二当前标签数据进行特征提取,获得点云体素特征;
23.基于稀疏卷积神经网络对所述点云体素特征进行运算,输出所述当前目标的第二目标分类、第二目标位置信息及方向。
24.可选的,所述将所述第一当前目标信息、所述第二当前目标信息及所述高精度地图进行感知融合,输出所述当前驾驶场景的感知数据,包括:
25.确定所述第一当前目标信息的第一权重及所述第二当前目标信息的第二权重;
26.基于所述第一权重、所述第二权重确定所述当前目标的综合目标信息;
27.获取所述高精度地图中所述当前目标对应的参考目标信息,利用所述参考目标信息对所述综合目标信息进行反向定位,输出所述当前目标的最终目标信息,所述最终目标信息为所述当前驾驶场景的感知数据。
28.可选的,所述基于所述感知数据对所述当前车辆进行行驶控制,包括:
29.基于所述感知数据对所述当前目标进行态势预估,输出所述当前目标在当前时刻的下一时刻的运动轨迹;
30.基于所述当前目标在当前时刻的下一时刻的运动轨迹控制所述当前车辆的行驶状态。
31.本发明还提供一种车载控制器,所述车载控制器包括:
32.获取单元,用于获取各类型的历史驾驶场景数据,将各所述历史驾驶场景数据发送至云服务器,使得所述云服务器基于所述历史驾驶场景数据及对应的标签数据创建驾驶模型;
33.接收单元,用于接收由所述云服务器发送的驾驶模型对应的模型参数及高精度地图;
34.学习单元,用于实时获取当前驾驶场景中当前目标的点云数据及相机图像数据,基于所述相机图像数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息;基于所述点云数据及对应的模型参数进行迁移学习,输出识别出的所述当前目标的第二当前目标信息;所述当前目标为所述当前驾驶场景中存在的所有交通参与者;
35.融合单元,用于将所述第一当前目标信息、所述第二当前目标信息及所述高精度地图进行感知融合,输出所述当前驾驶场景的感知数据;
36.控制单元,用于基于所述感知数据对所述当前车辆进行行驶控制。
37.可选的,所述学习单元具体用于:
38.获取相机图像数据对应的第一当前标签数据,基于所述相机图像数据及所述第一当前标签数据进行卷积神经网络运算,输出所述当前目标的2d包围盒及所述当前目标的第一目标分类;
39.基于所述当前目标的2d包围盒对所述当前目标进行目标姿态估计及目标大小估计,输出所述当前目标的目标姿态及目标大小;
40.对所述目标姿态及所述目标大小进行3d推理,输出所述当前3d包围盒;基于所述3d包围盒确定所述当前目标的第一位置信息。
41.可选的,所述学习单元具体用于:
42.对所述相机图像数据进行逆透视变换,获得变换后的相机图像数据;
43.获取所述当前车辆的姿态数据及相机外参数据,基于所述当前车辆的姿态数据、所述相机外参数据对变换后的相机图像数据进行空间坐标映射,获得相机图像数据对应的空间坐标;
44.基于所述空间坐标及相机内参数据确定所述当前目标与所述当前车辆之间的距离。
45.本发明还提供一种车辆自动驾驶系统,所述系统包括:
46.传感器,用于采集各类型的历史驾驶场景数据、当前驾驶场景中当前目标的点云数据及相机图像数据;
47.车载控制器,用于接收由所述传感器发送的所述历史驾驶场景数据;
48.云服务器,用于接收由所述车载控制器发送的所述历史驾驶场景数据,为所述驾驶场景数据添加对应的标签数据,根据所述历史驾驶场景数据对应的标签数据训练驾驶模型;
49.所述车载控制器还用于:接收由所述云服务器发送的所述驾驶模型对应的模型参数及高精度地图;
50.实时获取当前驾驶场景中当前目标的点云数据及相机图像数据,基于所述相机图像数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息;基于所述点云数据对应的模型参数进行迁移学习,输出识别出的所述当前目标的第二当前目标信息;所述当前目标为所述当前驾驶场景中存在的所有交通参与者;
51.将所述第一当前目标信息、所述第二当前目标信息及所述高精度地图进行感知融合,输出所述当前驾驶场景的感知数据;
52.基于所述感知数据对所述当前车辆进行行驶控制。
53.本发明提供了一种车辆自动驾驶方法、车载控制器及系统,方法包括:获取各类型的历史驾驶场景数据,将各所述历史驾驶场景数据发送至云服务器,使得所述云服务器基于所述历史驾驶场景数据及对应的标签数据训练驾驶模型;接收由所述云服务器发送的所述驾驶模型对应的模型参数及高精度地图;实时获取当前驾驶场景中当前目标的点云数据及相机图像数据,基于所述相机图像数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息;基于所述点云数据及对应的模型参数进行迁移学习,输出识别出的所述当前目标的第二当前目标信息;所述当前目标为所述当前驾驶场景中存在的
所有交通参与者;将所述第一当前目标信息、所述第二当前目标信息及所述高精度地图进行感知融合,输出所述当前驾驶场景的感知数据;基于所述感知数据对所述当前车辆进行行驶控制;如此,因驾驶模型是云端服务器通过各类型驾驶场景的数据不断训练得出的,驾驶模型的基准精度是可以得到确保的;并且,当前车辆接收到驾驶模型对应的模型参数后,也会不断地根据实时的驾驶场景数据进行迁移学习,并与高精度地图进行融合,以提高感知数据的准确度和感知精度,为自动驾驶的精准决策规划提供有利保证,进而可高精度地对车辆进行行为控制。
附图说明
54.图1为本发明实施例提供的车辆自动驾驶系统整体结构示意图;
55.图2为本发明实施例提供的车辆自动驾驶方法流程示意图;
56.图3为本发明实施例提供的车载控制器整体结构示意图。
具体实施方式
57.为了解决现有技术中的车辆自动驾驶模型在面对复杂多变的自然驾驶环境时,无法高精度地对车辆进行行为控制的技术问题,本发明提供了一种车辆自动驾驶方法、车载控制器及系统。
58.下面通过附图及具体实施例对本发明的技术方案做进一步的详细说明。
59.实施例一
60.本实施例提供一种车辆自动驾驶系统,如图1所示,系统包括:传感器车载控制器1及云服务器2;其中,传感器包括:图像传感器3、激光雷达传感器4、高分辨率毫米波雷达传感器5及超声波雷达传感器6;
61.传感器,用于采集各类型的历史驾驶场景数据、当前驾驶场景的点云数据及图像数据;具体的,图像传感器3用于采集驾驶场景中各目标的图像数据;激光雷达传感器4用于采集驾驶场景中各目标的点云数据;毫米波雷达传感器5用于采集驾驶场景中各目标的点云数据;超声波雷达传感器6用于采集驾驶场景中各目标的雷达数据。这里,考虑到驾驶场景的自然环境较为复杂,因此需要多种类型的雷达传感器来采集驾驶场景数据,以能提高精度。车载控制器1,用于接收由各传感器发送的驾驶场景数据;
62.云服务器2,用于接收由车载控制器1发送的历史驾驶场景数据,并为历史驾驶场景数据添加对应的标签数据,并基于历史驾驶场景数据及对应的标签数据训练驾驶模型,驾驶模型包括至少一种目标识别模型;其中,标签数据包括:各目标的类别信息、位置信息及置信度信息等。比如,类别信息可以包括:人、建筑物、车辆、栏杆等等。
63.车载控制器1还用于:接收由云服务器2发送的驾驶模型对应的模型参数及高精度地图;实时获取当前驾驶场景中当前目标的点云数据及相机图像数据,基于相机图像数据及模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息;基于点云数据及模型参数进行迁移学习,输出识别出的当前目标的第二当前目标信息;当前目标为当前驾驶场景中存在的所有交通参与者;将第一当前目标信息、第二当前目标信息及高精度地图进行感知融合,输出当前驾驶场景的感知数据;基于感知数据对当前车辆进行行驶控制。其中,当前目标信息包括:当前目标的类别信息及当前目标的位置信息等。
64.具体的,当云服务器2接收到历史驾驶场景数据后,会基于驾驶场景数据创建训练样本集,训练样本集中有多个样本数据,每个样本数据均包括历史驾驶场景数据及对应的标签数据。其中,训练样本集可以包括不同场景下的训练样本集,云服务器可以利用不同的训练样本集进行训练,得到驾驶模型。
65.举例来说,在车辆定位场景下,训练样本集可以包括各类静态目标的样本,例如建筑物,红绿灯和标识牌等。在行驶场景下,训练样本集可以包括各类动态目标的样本,例如当前车辆周围的其他车辆,行人等。
66.云服务器2利用深度学习模型训练网络对训练样本集进行模型训练,得到驾驶模型,驾驶模型达到预期效果后,将用于描述该驾驶模型的模型参数写入参数文件中,并基于无线通信方式将参数文件发送至车载控制器1。这样,只将参数文件发送至车载控制器1中,不但可以提高传输速率,也能提高数据传输的准确性。
67.云服务器2中包括有高精度地图,云服务器2还可以实时接收车载控制器1发送的高精度地图数据,来实时更新高精度地图,并将高精度地图发送至车载控制器1。
68.这样将驾驶模型的训练过程及高精度地图的更新过程放至云服务器1中执行,可以利用云服务器1强大的运算能力,进而可以提高训练效率及高精度地图的更新效率;同时也降低了车载控制器1的数据处理负担。
69.车载控制器1接收到参数文件后,会基于参数文件进行快速迁移学习,以还原驾驶模型,并将当前驾驶场景中的点云数据及相机图像数据作为驾驶模型的输入,分别对相机图像数据及点云数据进行识别,然后输出第一当前目标信息及第二当前目标信息;
70.然后将第一当前目标信息、第二当前目标信息及高精度地图进行感知融合,输出对当前驾驶场景的感知数据;基于感知数据对所述当前车辆进行行驶控制。
71.这里,车载控制器2如何执行上述迁移学习过程及融合过程会在后续有关车载控制器侧的实施例中详细描述,故在此不再赘述。
72.基于同样的发明构思,本发明还提供了一种车辆自动驾驶方法,详见实施例二。
73.实施例二
74.本实施例提供一种车辆自动驾驶方法,应用在车载控制器,如图2所示,方法包括:
75.s210,获取各类型的历史驾驶场景数据,将各所述历史驾驶场景数据发送至云服务器,使得所述云服务器基于所述历史驾驶场景数据训练驾驶模型;
76.驾驶场景是指开车路上的各种路况包含的交通参与者的场景,车辆在自然环境中行驶时,驾驶场景会存在多种类型,比如直线行驶、弯道行驶、变速行驶,泊车场景等等,因此需要获取到各种类型的历史驾驶场景数据。
77.这里,车辆上安装有各种类型的传感器,可以利用各传感器采集历史驾驶场景数据。传感器可以包括:激光雷达传感器、高分辨率毫米波雷达传感器、图像传感器及超声波雷达传感器等;图像传感器可以为智能相机。
78.本申请主要是考虑到自然驾驶环境复杂多变,因此设置有多种类型的传感器,以能适应不同情况的驾驶场境。
79.例如,在泊车场景中,车辆速度较低,此时利用雷达传感器或高分辨率毫米波雷达传感器采集的点云数据会不太合适,那么可以使用超声波雷达传感器采集的驾驶场景数据来进行驾驶模型训练或进行迁移学习。
80.当各传感器采集到历史驾驶场景数据后,将历史驾驶场景数据发送至车载控制器,车载控制器获取到各类型的历史驾驶场景数据后,将各历史驾驶场景数据发送至云服务器,云服务器为历史驾驶场景数据添加对应的标签数据;基于历史驾驶场景数据及对应的标签数据训练驾驶模型。其中,标签数据包括:各目标的类别信息、位置信息及置信度信息等。比如,类别信息可以包括:人、建筑物、车辆、栏杆等等。
81.这里,云服务器基于历史驾驶场景数据及对应的标签数据训练驾驶模型的具体实施方式已在实施例一中详细描述,故在此不再赘述。
82.s211,接收由所述云服务器发送的所述驾驶模型对应的模型参数及高精度地图;
83.云服务器训练出驾驶模型后,确定驾驶模型达到预期效果时,将驾驶模型对应的模型参数写入参数文件中,将参数文件发送至车载控制器;同时将高精度地图发送至车载控制器。
84.这样,车载控制器只接收由云服务器发送的驾驶模型对应的模型参数,可以基于模型参数还原出驾驶模型,很大程度上降低了自身的数据处理负担,提高数据处理效率。其中,因驾驶模型中包括图像目标识别模型及雷达数据目标识别模型等;模型参数包括:图像目标识别模型对应的模型参数、雷达数据目标识别模型对应的模型参数等,图像识别模型对应的模型参数与雷达数据识别模型对应的模型参数不同。
85.另外,当车载控制器实时获取到最新的高精度地图数据后,会将高精度地图数据发送至云服务器,以使云服务器可以更新高精度地图,确保高精度地图的精度。
86.进一步地,车载控制器还可以将实时获取到的传感器数据发送至云服务器,使得云服务器利用实时的传感器数据更新训练样本集,以基于更新后的训练样本集对驾驶模型继续训练。
87.s212,实时获取当前驾驶场景中当前目标的点云数据及相机图像数据,基于所述相机图像数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息;基于所述点云数据及对应的模型参数进行迁移学习,输出识别出的所述当前目标的第二当前目标信息;所述当前目标为所述当前驾驶场景中存在的所有交通参与者;
88.当车辆在当前驾驶环境中行驶时,同样可以利用各雷达传感器采集当前驾驶场景中的当前目标的点云数据,利用图像传感器采集当前驾驶场景中的当前目标的图像数据,车载控制器会接收由各雷达传感器及图像传感器发送的当前目标的点云数据及相机图像数据。
89.那么车载控制器基于相机图像数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息;基于点云数据及对应的模型参数进行迁移学习,利用向前传播算法输出识别出的当前目标的第二当前目标信息;当前目标为当前驾驶场景中存在的交通参与者。例如,交通参与者可以包括:车辆、行人等。
90.作为一种可选的实施例,基于相机图像数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息,包括:
91.获取相机图像数据对应的第一当前标签数据,基于相机图像数据及第一当前标签数据进行卷积神经网络运算,输出当前目标的2d包围盒及当前目标的第一目标分类;比如第一目标分类可以包括:建筑物、人、车辆,道路栅栏、树等等;
92.确定出当前目标的2d包围盒后,相当于确定出当前目标的2d位置信息了,那么基
于当前目标的2d包围盒对当前目标进行目标姿态估计及目标大小估计,输出当前目标的目标姿态及目标大小;
93.对目标姿态及目标大小进行3d推理(2d、3d关系推理约束),输出当前3d包围盒;基于3d包围盒确定当前目标的第一位置信息;第一位置信息为3d位置信息。
94.进一步地,对相机图像数据进行逆透视变换,获得变换后的相机图像数据;
95.获取当前车辆的姿态数据及相机外参数据,基于当前车辆的姿态数据、所述相机外参数据对变换后的相机图像数据进行空间坐标映射,获得相机图像数据对应的空间坐标;
96.基于空间坐标及相机内参确定当前目标与所述当前车辆之间的距离。这样及确定出了当前车辆(自车)与当前目标之间的距离。
97.其中,相机内参数据可以包括:相机焦距、相机光学中心及图片大小;相机外参数据包括:图像传感器相对于车辆后轴中心的安装位置、图像传感器的偏航角、翻滚角及俯仰角。
98.作为一种可选的实施例,针对任一雷达传感器采集的点云数据,基于点云数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第二当前目标信息,包括:
99.对点云数据进行点云体素化,获得点云体素数据,以能剔除无效的点云数据;
100.获取点云数据对应的第二当前标签数据;
101.对所述点云体素数据及第二当前标签数据进行特征提取,获得点云体素特征;
102.基于稀疏卷积神经网络对所述点云体素特征进行运算,输出当前目标的第二目标分类、第二目标位置信息及方向。同样的,第二目标分类也可以包括:建筑物、人、车辆,道路栅栏、树等等。
103.值得注意的是,因雷达传感器的类型包括多种,那么对于每一种雷达传感器来说,均包括有对应的第二当前目标信息。
104.s213,将所述第一当前目标信息、所述第二当前目标信息及所述高精度地图进行感知融合,输出所述当前驾驶场景的感知数据;
105.当第一当前目标信息及第二当前目标信息确定出之后,因传感器自身的精度以及驾驶场景环境的不同,针对同一当前目标,可能会导致第一当前目标信息及第二当前目标信息会有差别,因此需要将第一当前目标信息、第二当前目标信息及高精度地图进行感知融合,输出对当前驾驶场景的感知数据。
106.举例来说,在某一驾驶场景中,针对同一当前目标,假设第一当前目标信息中记载的当前目标的位置为a,第二当前目标信息中记载的当前目标位置分为b,而a和b是可能不同的。
107.作为一种可选的实施例,将第一当前目标信息、第二当前目标信息及高精度地图进行感知融合,输出当前驾驶场景的感知数据,包括:
108.确定第一当前目标信息的第一权重及第二当前目标信息的第二权重;
109.基于第一权重、所述第二权重确定当前目标的综合目标信息;综合目标实质上也包括有当前目标的目标分类、位置、大小、方向等信息;
110.获取高精度地图中当前目标对应的参考目标信息,利用参考目标信息对综合目标信息进行反向定位,输出当前目标的最终目标信息,最终目标信息为当前驾驶场景的感知
数据。其中,感知数据可以包括:交通参与者的位置信息、大小信息、速度信息、加速度信息及类别信息等。
111.这里,第一权重和第二权重是基于实际驾驶场景进行确定的,比如,针对当前目标来说,在对当前目标的横向位置进行识别时,因图像传感器在横向识别精度要比雷达传感器的横向识别精度高,那么此时可第一权重大于第二权重;而在对当前目标的纵向位置进行识别时,因雷达传感器的纵向识别精度要比图像传感器的纵向识别精度高,此时可以第二权重可以大于第一权重。
112.比如:在纵向识别中,根据第二当前目标信息确定当前目标与当前车辆之间的距离为10m,根据第一当前目标信息确定当前目标与当前车辆之间的距离为9m,因雷达传感器在纵向识别的精度比图像传感器在纵向识别的精度要高,因此可以设置第二权重大于第一权重。
113.基于第一权重、所述第二权重确定当前目标的综合目标信息后,为了进一步提高综合目标信息的精度,可利用高精度地图中当前目标对应的参考目标信息对综合目标信息进行反向定位。这里因高精度地图中的参考目标信息精度较高,因此利用参考目标信息对综合目标信息进行反向定位后,可以提高综合目标信息的精度。当然,也可以利用反向定位后的综合目标信息对当前车辆进行反向定位,以提高自车的定位精度。
114.具体的,利用参考目标信息对综合目标信息进行反向定位,输出当前目标的最终目标信息,可以包括:
115.针对当前目标,将综合目标信息中的当前目标位置信息作为第一观测值,第一观测值可以理解为当前时刻识别出的观测值;将参考目标信息中的当前目标位置信息作为第二观测值;再获取到当前时刻的上一时刻识别出的当前目标位置信息,将当前时刻的上一时刻识别出的当前目标位置信息作为第三观测值;将第一观测值、第二观测值及第三观测值进行卡尔曼滤波加权融合、或进行联合概率数据关联(jpda,joint probabilistic data association)融合、或利用深度学习网络进行深度学习训练,进而可以得出最终的位置信息,提高当前目标的定位精度;然后可以利用当前目标最终的位置信息反向校准当前车辆的位置信息,同时提高当前车辆的位置信息的精度。
116.举例来说,比如当前目标为地表任一物体(比如建筑物),那么将综合目标信息中的物体位置信息作为第一观测值,第一观测值可以理解为当前时刻识别出的观测值;将参考目标信息中的物体位置信息作为第二观测值;再获取到当前时刻的上一时刻识别出的物体位置信息,将当前时刻的上一时刻识别出的物体位置信息作为第三观测值;将第一观测值、第二观测值及第三观测值进行卡尔曼滤波加权融合、或进行联合概率数据关联(jpda,joint probabilistic data association)融合、或利用深度学习网络进行深度学习训练,进而可以得出一个较为准确的物体位置信息,提高物体的定位精度;然后可以利用该物体的位置信息反向校准当前车辆的位置信息,提高当前车辆的位置信息的精度。
117.或者,比如当前目标为车道线,针对车道线的位置来说,将综合目标信息中的车道线位置信息作为第一观测值,第一观测值可以理解为当前时刻识别出的观测值,将参考目标信息中的车道线位置信息作为第二观测值;再获取到当前时刻的上一时刻识别出的车道线位置信息,将当前时刻的上一时刻识别出的车道线位置信息作为第三观测值;将第一观测值、第二观测值及第三观测值进行卡尔曼滤波加权融合、或进行jpda融合、或利用深度学
习网络进行深度学习训练,进而可以得出一个较为准确的车道线位置信息,提高车道线的定位精度,解决当前车辆的传感器在小于250米半径场景的弯道中识别车道线不稳定的问题,稳定输出包括弯道在内的道路车道线,确保弯道场景自动驾驶的控制精度。
118.s214,基于所述感知数据对所述当前车辆进行行驶控制。
119.确定出感知数据后,基于感知数据对当前车辆进行行驶控制。
120.作为一种可选的实施例,基于感知数据对当前车辆进行行驶控制,包括:
121.基于感知数据对当前目标进行态势预估,输出当前目标在当前时刻的下一时刻的运动轨迹;
122.基于述当前目标在当前时刻的下一时刻的运动轨迹控制当前车辆的行驶状态。行驶状态可以包括:车道保持、加速变道、紧急制动、减速转弯及人行道减速避让等。
123.这样,当前车辆接收到驾驶模型对应的模型参数后,也会不断地根据实时的驾驶场景数据进行迁移学习,并与高精度地图进行融合,以提高感知数据的准确度和感知精度,为自动驾驶的精准决策规划提供有利保证,进而可高精度地对车辆进行行为控制。
124.基于同样的发明构思,本发明还提供一种车载控制器,详见实施例三。
125.实施例三
126.本实施例提供一种车载控制器,如图3所示,车载控制器包括:获取单元31、接收单元32、学习单元33、融合单元34及控制单元35;其中,
127.获取单元31,用于获取各类型的历史驾驶场景数据,将各所述历史驾驶场景数据发送至云服务器,使得所述云服务器基于所述历史驾驶场景数据及对应的标签数据创建驾驶模型;
128.接收单元32,用于接收由所述云服务器发送的驾驶模型对应的模型参数及高精度地图;
129.学习单元33,用于实时获取当前驾驶场景中当前目标的点云数据及相机图像数据,基于所述相机图像数据及所述模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息;基于所述点云数据及所述模型参数进行迁移学习,输出识别出的所述当前目标的第二当前目标信息;所述当前目标为所述当前驾驶场景中存在的所有交通参与者;
130.融合单元34,用于将所述第一当前目标信息、所述第二当前目标信息及所述高精度地图进行感知融合,输出所述当前驾驶场景的感知数据;
131.控制单元35,用于基于所述感知数据对所述当前车辆进行行驶控制。
132.具体的,驾驶场景是指开车路上的各种路况包含的交通参与者的场景,车辆在自然环境中行驶时,驾驶场景会存在多种类型,比如直线行驶、弯道行驶、变速行驶,泊车场景等等,因此获取单元31需要获取到各种类型的历史驾驶场景数据。
133.这里,车辆上安装有各种类型的传感器,可以利用各传感器采集历史驾驶场景数据。传感器可以包括:激光雷达传感器、高分辨率毫米波雷达传感器、图像传感器及超声波雷达传感器等;图像传感器可以为智能相机。
134.本申请主要是考虑到自然驾驶环境复杂多变,因此设置有多种类型的传感器,以能适应不同情况的驾驶场境。
135.例如,在泊车场景中,车辆速度较低,此时利用雷达传感器或高分辨率毫米波雷达传感器采集的点云数据会不太合适,那么可以使用超声波雷达传感器采集的驾驶场景数据
来进行驾驶模型训练或进行迁移学习。
136.当各传感器采集到历史驾驶场景数据后,将历史驾驶场景数据发送至车载控制器,车载控制器获取到各类型的历史驾驶场景数据后,将各历史驾驶场景数据发送至云服务器,云服务器为历史驾驶场景数据添加对应的标签数据;基于历史驾驶场景数据及对应的标签数据训练驾驶模型。其中,标签数据包括:各目标的类别信息、位置信息及置信度信息等。比如,类别信息可以包括:人、建筑物、车辆、栏杆等等。
137.这里,云服务器基于历史驾驶场景数据及对应的标签数据训练驾驶模型的具体实施方式已在实施例一中详细描述,故在此不再赘述。
138.云服务器训练出驾驶模型后,确定驾驶模型达到预期效果时,将驾驶模型对应的模型参数写入参数文件中,将参数文件发送至车载控制器;同时将高精度地图发送至车载控制器。
139.这样,接收单元32只接收由云服务器发送的驾驶模型对应的模型参数,可以基于模型参数还原出驾驶模型,很大程度上降低了自身的数据处理负担,提高数据处理效率。其中,因驾驶模型中包括图像目标识别模型及雷达数据目标识别模型等;模型参数包括:图像目标识别模型对应的模型参数、雷达数据目标识别模型对应的模型参数等,图像识别模型对应的模型参数与雷达数据识别模型对应的模型参数不同。
140.另外,当车载控制器实时获取到最新的高精度地图数据后,会将高精度地图数据发送至云服务器,以使云服务器可以更新高精度地图,确保高精度地图的精度。
141.进一步地,车载控制器还可以将实时获取到的传感器数据发送至云服务器,使得云服务器利用实时的传感器数据更新训练样本集,以基于更新后的训练样本集对驾驶模型继续训练。
142.当车辆在当前驾驶环境中行驶时,同样可以利用各雷达传感器采集当前驾驶场景中的当前目标的点云数据,利用图像传感器采集当前驾驶场景中的当前目标的图像数据,接收单元32会接收由各雷达传感器及图像传感器发送的当前目标的点云数据及相机图像数据。
143.那么学习单元33基于相机图像数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息;基于点云数据及对应的模型参数进行迁移学习,利用向前传播算法输出识别出的当前目标的第二当前目标信息;当前目标为当前驾驶场景中存在的交通参与者。例如,交通参与者可以包括:车辆、行人等。
144.作为一种可选的实施例,学习单元33基于相机图像数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息,包括:
145.获取相机图像数据对应的第一当前标签数据,基于相机图像数据及第一当前标签数据进行卷积神经网络运算,输出当前目标的2d包围盒及当前目标的第一目标分类;比如第一目标分类可以包括:建筑物、人、车辆,道路栅栏、树等等;
146.确定出当前目标的2d包围盒后,相当于确定出当前目标的2d位置信息了,那么基于当前目标的2d包围盒对当前目标进行目标姿态估计及目标大小估计,输出当前目标的目标姿态及目标大小;
147.对目标姿态及目标大小进行3d推理(2d、3d关系推理约束),输出当前3d包围盒;基于3d包围盒确定当前目标的第一位置信息;第一位置信息为3d位置信息。
148.进一步地,对相机图像数据进行逆透视变换,获得变换后的相机图像数据;
149.获取当前车辆的姿态数据及相机外参数据,基于当前车辆的姿态数据、所述相机外参数据对变换后的相机图像数据进行空间坐标映射,获得相机图像数据对应的空间坐标;
150.基于空间坐标及相机内参确定当前目标与所述当前车辆之间的距离。这样及确定出了当前车辆(自车)与当前目标之间的距离。
151.其中,相机内参数据可以包括:相机焦距、相机光学中心及图片大小;相机外参数据包括:图像传感器相对于车辆后轴中心的安装位置、图像传感器的偏航角、翻滚角及俯仰角。
152.作为一种可选的实施例,针对任一雷达传感器采集的点云数据,学习单元33基于点云数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第二当前目标信息,包括:
153.对点云数据进行点云体素化,获得点云体素数据,以能剔除无效的点云数据;
154.获取点云数据对应的第二当前标签数据;
155.对所述点云体素数据及第二当前标签数据进行特征提取,获得点云体素特征;
156.基于稀疏卷积神经网络对所述点云体素特征进行运算,输出当前目标的第二目标分类、第二目标位置信息及方向。同样的,第二目标分类也可以包括:建筑物、人、车辆,道路栅栏、树等等。
157.值得注意的是,因雷达传感器的类型包括多种,那么对于每一种雷达传感器来说,均包括有对应的第二当前目标信息。
158.当第一当前目标信息及第二当前目标信息确定出之后,因传感器自身的精度以及驾驶场景环境的不同,针对同一当前目标,可能会导致第一当前目标信息及第二当前目标信息会有差别,因此融合单元34需要将第一当前目标信息、第二当前目标信息及高精度地图进行感知融合,输出当前驾驶场景的感知数据。
159.举例来说,在某一驾驶场景中,针对同一当前目标,假设第一当前目标信息中记载的当前目标的位置为a,第二当前目标信息中记载的当前目标位置分为b,而a和b是可能不同的。
160.作为一种可选的实施例,融合单元34将第一当前目标信息、第二当前目标信息及高精度地图进行感知融合,输出对当前驾驶场景的感知数据,包括:
161.确定第一当前目标信息的第一权重及第二当前目标信息的第二权重;
162.基于第一权重、所述第二权重确定当前目标的综合目标信息;综合目标实质上也包括有当前目标的目标分类、位置、大小、方向等信息;
163.获取高精度地图中当前目标对应的参考目标信息,利用参考目标信息对综合目标信息进行反向定位,输出当前目标的最终目标信息,最终目标信息为当前驾驶场景的感知数据。其中,感知数据可以包括:交通参与者的位置信息、大小信息、速度信息、加速度信息及类别信息等。
164.这里,第一权重和第二权重是基于实际驾驶场景进行确定的,比如,针对当前目标来说,在对当前目标的横向位置进行识别时,因图像传感器在横向识别精度要比雷达传感器的横向识别精度高,那么此时可第一权重大于第二权重;而在对当前目标的纵向位置进
行识别时,因雷达传感器的纵向识别精度要比图像传感器的纵向识别精度高,此时可以第二权重可以大于第一权重。
165.比如:在纵向识别中,根据第二当前目标信息确定当前目标与当前车辆之间的距离为10m,根据第一当前目标信息确定当前目标与当前车辆之间的距离为9m,因雷达传感器在纵向识别的精度比图像传感器在纵向识别的精度要高,因此可以设置第二权重大于第一权重。
166.基于第一权重、所述第二权重确定当前目标的综合目标信息后,为了进一步提高综合目标信息的精度,可利用高精度地图中当前目标对应的参考目标信息对综合目标信息进行反向定位。这里因高精度地图中的参考目标信息精度较高,因此利用参考目标信息对综合目标信息进行反向定位后,可以提高综合目标信息的精度。当然,也可以利用反向定位后的综合目标信息对当前车辆进行反向定位,以提高自车的定位精度。
167.具体的,利用参考目标信息对综合目标信息进行反向定位,输出当前目标的最终目标信息,可以包括:
168.针对当前目标,将综合目标信息中的当前目标位置信息作为第一观测值,第一观测值可以理解为当前时刻识别出的观测值;将参考目标信息中的当前目标位置信息作为第二观测值;再获取到当前时刻的上一时刻识别出的当前目标位置信息,将当前时刻的上一时刻识别出的当前目标位置信息作为第三观测值;将第一观测值、第二观测值及第三观测值进行卡尔曼滤波加权融合、或进行联合概率数据关联(jpda,joint probabilistic data association)融合、或利用深度学习网络进行深度学习训练,进而可以得出最终的位置信息,提高当前目标的定位精度;然后可以利用当前目标最终的位置信息反向校准当前车辆的位置信息,同时提高当前车辆的位置信息的精度。
169.举例来说,比如当前目标为地表任一物体(比如建筑物),那么将综合目标信息中的物体位置信息作为第一观测值,第一观测值可以理解为当前时刻识别出的观测值;将参考目标信息中的物体位置信息作为第二观测值;再获取到当前时刻的上一时刻识别出的物体位置信息,将当前时刻的上一时刻识别出的物体位置信息作为第三观测值;将第一观测值、第二观测值及第三观测值进行卡尔曼滤波加权融合、或进行联合概率数据关联(jpda,joint probabilistic data association)融合、或利用深度学习网络进行深度学习训练,进而可以得出一个较为准确的物体位置信息,提高物体的定位精度;然后可以利用该物体的位置信息反向校准当前车辆的位置信息,提高当前车辆的位置信息的精度。
170.或者,比如当前目标为车道线,针对车道线的位置来说,将综合目标信息中的车道线位置信息作为第一观测值,第一观测值可以理解为当前时刻识别出的观测值,将参考目标信息中的车道线位置信息作为第二观测值;再获取到当前时刻的上一时刻识别出的车道线位置信息,将当前时刻的上一时刻识别出的车道线位置信息作为第三观测值;将第一观测值、第二观测值及第三观测值进行卡尔曼滤波加权融合、或进行jpda融合、或利用深度学习网络进行深度学习训练,进而可以得出一个较为准确的车道线位置信息,提高车道线的定位精度,解决当前车辆的传感器在小于250米半径场景的弯道中识别车道线不稳定的问题,稳定输出包括弯道在内的道路车道线,确保弯道场景自动驾驶的控制精度。
171.确定出感知数据后,控制单元35基于感知数据对当前车辆进行行驶控制。
172.作为一种可选的实施例,控制单元35基于感知数据对当前车辆进行行驶控制,包
括:
173.基于感知数据对当前目标进行态势预估,输出当前目标在当前时刻的下一时刻的运动轨迹;
174.基于述当前目标在当前时刻的下一时刻的运动轨迹控制当前车辆的行驶状态。行驶状态可以包括:车道保持、加速变道、紧急制动、减速转弯及人行道减速避让等。
175.这样,当前车辆接收到驾驶模型对应的模型参数后,也会不断地根据实时的驾驶场景数据进行迁移学习,并与高精度地图进行融合,以提高感知数据的准确度和感知精度,为自动驾驶的精准决策规划提供有利保证,进而可高精度地对车辆进行行为控制。
176.本发明实施例提供的一种车辆自动驾驶方法、车载控制器及系统能够带来的有益效果至少是:
177.本发明提供了一种车辆自动驾驶方法、车载控制器及系统,方法包括:获取各类型的历史驾驶场景数据,将各所述历史驾驶场景数据发送至云服务器,使得所述云服务器基于所述历史驾驶场景数据及对应的标签数据训练驾驶模型;接收由所述云服务器发送的所述驾驶模型对应的模型参数及高精度地图;实时获取当前驾驶场景中当前目标的点云数据及相机图像数据,基于所述相机图像数据及对应的模型参数进行迁移学习,输出识别出的当前目标的第一当前目标信息;基于所述点云数据及对应的模型参数进行迁移学习,输出识别出的所述当前目标的第二当前目标信息;所述当前目标为所述当前驾驶场景中存在的所有交通参与者;将所述第一当前目标信息、所述第二当前目标信息及所述高精度地图进行感知融合,输出所述当前驾驶场景的感知数据;基于所述感知数据对所述当前车辆进行行驶控制;如此,因驾驶模型是云端服务器通过各类型驾驶场景的数据不断训练得出的,驾驶模型的基准精度是可以得到确保的;同时也可以降低车载控制器的处理负担,进而降低单车成本;并且,当前车辆接收到驾驶模型对应的模型参数后,也会不断地根据实时的驾驶场景数据进行迁移学习,并与高精度地图进行融合,以提高感知数据的准确度和感知精度,为自动驾驶的精准决策规划提供有利保证,进而可高精度地对车辆进行行为控制。
178.以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1