自动驾驶仿真测试场景库生成方法、装置及平台与流程

文档序号:30949722发布日期:2022-07-30 06:58阅读:284来源:国知局
自动驾驶仿真测试场景库生成方法、装置及平台与流程

1.本技术实施例涉及自动驾驶测试技术领域,尤其涉及一种自动驾驶仿真测试场景库生成方法、装置及平台。


背景技术:

2.随着自动驾驶技术的发展,自动驾驶车辆测试已经成为了保证自动驾驶车辆安全性的重要环节,决策规划系统作为自动驾驶的核心,为了提高其测试的安全性和效率并降低测试成本,一般对其进行仿真测试,为此,需要建立测试场景。
3.目前,可以通过以下几种方案建立仿真测试场景:利用仿真平台手工制作各种动态场景,但是,该方案并不是基于实际道路的动态场景,而是模拟,导致测试精度低;利用扫描得到的街景图和真实的轨迹自动合成逼真图像和仿真移动模式,并依据该技术提出公开数据集,其中许多场景都是在车辆密集、路况复杂的城市捕捉得到的,但是所生成的数据集只适用于特定平台,不适用于其他平台;还可以采用毫米波雷达、车队实时防撞系统mobileye、摄像头、全球卫星导航系统(global navigation satellite system,gnss)进行采集,通过场景融合、提取、标注、分析、建立生成动态场景,但是该方案所需硬件设备多,数据处理难度大。
4.因此,现有技术建立的自动驾驶仿真测试场景存在局限性、精度低,且数据处理难度大的问题。


技术实现要素:

5.本技术实施例提供一种自动驾驶仿真测试场景库生成方法、装置及平台,以克服现有技术建立的自动驾驶仿真测试场景存在局限性、精度低,且数据处理难度大的问题。
6.第一方面,本技术实施例提供一种自动驾驶仿真测试场景库生成方法,包括:
7.获取高精地图数据,并根据所述高精地图数据,生成静态场景数据;
8.采集动态场景数据,并根据所述动态场景数据,对动态场景进行分割,得到分割后的动态场景数据;
9.识别所述分割后的动态场景数据的动态特征;
10.根据所述静态场景和所述动态特征,生成动态场景库。
11.在一种可能的设计中,所述采集动态场景数据,并根据所述动态场景数据,对动态场景进行分割,得到分割后的动态场景数据,包括:
12.采集动态场景数据,所述动态场景数据包括视频或图像数据;
13.根据所述视频或图像数据,对动态场景进行筛选,得到与预设特征类别匹配的动态场景视频段或图像帧段,所述动态场景视频段或图像帧段为分割后的动态场景数据。
14.在一种可能的设计中,所述识别所述分割后的动态场景数据的动态特征,包括:
15.对所述动态场景视频段或图像帧段中视野范围内的动态目标进行分类和定位,确定所述动态特征,所述动态特征包括动态目标的类别和所述动态目标的位置信息。
16.在一种可能的设计中,所述对所述动态场景视频段或图像帧段中视野范围内的动态目标进行分类和定位,确定所述动态特征,包括:
17.通过动态特征识别模型,根据所述动态场景视频段或图像帧段,确定所述动态目标的类别和所述动态目标的位置信息;
18.其中,所述动态特征识别模型是由历史的动态场景视频段或图像帧段以及对应的历史的动态目标数据训练得到的,所述历史的动态目标数据包括历史的动态目标的类别和历史的动态目标的位置信息。
19.在一种可能的设计中,在所述确定所述动态特征之后,所述方法还包括:
20.对所述动态目标进行标记,并根据标记后的标识,对所述动态目标进行轨迹跟踪,得到目标轨迹,用以分析动态目标行为。
21.在一种可能的设计中,所述根据所述静态场景数据和所述动态特征,生成动态场景库,包括:
22.根据所述动态特征,对所述动态场景视频段或图像帧段进行动态场景的分类标签的标记;
23.根据所述静态场景以及标记的分类标签,对所述动态场景视频段或图像帧段进行编辑,得到动态场景文件;
24.将所述动态场景文件存储在建立的场景库中的相应的类别库中,生成动态场景库,所述动态场景库中包含所述预设特征类别对应的类别库,每个类别库包含至少一个动态场景。
25.在一种可能的设计中,所述根据所述高精地图数据,生成静态场景数据,包括:
26.对所述高精地图数据解析,生成第一csv文件和第二csv文件,所述第一csv文件用于描述每个车道的连接关系,所述第二csv文件用于描述道路边界和车道的对应关系;
27.根据所述第一csv文件和所述第二csv文件,生成所述静态场景数据。
28.在一种可能的设计中,所述根据所述第一csv文件和所述第二csv文件,生成所述静态场景数据,包括:
29.将所述第一csv文件和所述第二csv文件合并,生成含有道路连接关系的txt文件,所述含有道路连接关系的txt文件用于描述道路边界的前后连接关系;
30.根据所述txt文件,生成所述静态场景数据。第二方面,本技术实施例提供一种自动驾驶仿真测试场景库生成装置,包括:
31.获取模块,用于获取高精地图数据,并根据所述高精地图数据,生成静态场景数据;
32.分割模块,用于采集动态场景数据,并根据所述动态场景数据,对动态场景进行分割,得到分割后的动态场景数据;
33.识别模块,用于识别所述分割后的动态场景数据的动态特征;
34.场景生成模块,用于根据所述静态场景数据和所述动态特征,生成动态场景库。
35.第三方面,本技术实施例提供一种自动驾驶仿真测试平台,所述自动驾驶仿真测试平台使用如上第一方面以及第一方面各种可能的设计所述的方法生成的动态场景库。
36.本实施例提供的自动驾驶仿真测试场景库生成方法、装置及平台,首先获取高精地图数据,并根据所述高精地图数据,生成静态场景数据;然后采集动态场景数据,并根据
所述动态场景数据,对动态场景进行分割,得到分割后的动态场景数据;通过识别所述分割后的动态场景数据的动态特征,再根据所述静态场景数据和所述动态特征,生成动态场景库。因此,本技术是通过对采集的动态场景数据进行场景分割、动态特征识别等步骤结合采集到的高精度地图来完成动态场景库的生产,无需复杂的数据处理过程,使得动态场景的生产实现了简单操作和自动化,大大提高了动态场景生产的效率以及精准度,节约了人工工作量,同时生成的动态场景库能够为不同的仿真测试平台提供场景库数据,解决了现有技术存在局限性的问题。
附图说明
37.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
38.图1为本技术实施例提供的自动驾驶仿真测试场景库生成方法的示意图;
39.图2为本技术实施例提供的自动驾驶仿真测试场景库生成方法的流程示意图;
40.图3为本技术实施例提供的动态场景库的示意图;
41.图4为本技术动态特征识别的神经网络检测示意图;
42.图5为本技术动态特征识别的神经网络训练和测试示意图;
43.图6为本技术提供的自动驾驶仿真测试场景库生成系统的示意图;
44.图7为本技术实施例提供的自动驾驶仿真测试场景库生成装置的结构示意图;
45.图8为本技术实施例提供的自动驾驶仿真测试场景库生成设备的结构示意图。
具体实施方式
46.为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
47.本技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例,例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
48.可以通过以下几种方案建立仿真测试场景:利用仿真平台手工制作各种动态场景,但是,该方案并不是基于实际道路的动态场景,而是模拟,导致测试精度低;利用扫描得到的街景图和真实的轨迹自动合成逼真图像和仿真移动模式,并依据该技术提出公开数据集,其中许多场景都是在车辆密集、路况复杂的城市捕捉得到的,但是所生成的数据集只适用于特定平台,不适用于其他平台;还可以采用毫米波雷达、车队实时防撞系统mobileye、
摄像头、全球卫星导航系统(global navigation satellite system,gnss)进行采集,通过场景融合、提取、标注、分析、建立生成动态场景,但是该方案所需硬件设备多,数据处理难度大。因此,现有技术建立的自动驾驶仿真测试场景存在局限性、精度低,且数据处理难度大的问题。
49.因此,针对上述问题,本技术的技术构思是基于高精地图数据以及采集路上车辆动态数据,通过场景分割、动态识别等步骤来完成动态场景的生产,无需复杂的数据处理过程,使得动态场景的生产实现了简单操作和自动化,大大提高了动态场景生产的效率以及精准度,节约了人工工作量,同时生成的动态场景库能够为不同的仿真测试平台提供场景库数据,解决了现有技术存在局限性的问题。
50.下面以具体地实施例对本技术的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
51.图1为本技术实施例提供的自动驾驶仿真测试场景库生成方法的示意图。在实际应用中,场景测试用例主要通过虚拟仿真环境及工具链进行复现,因此建设虚拟场景数据库是连接场景数据与场景应用的关键桥梁。场景测试用例需要标准以便实现仿真环境之间进行场景交换。场景库的范围应当覆盖典型场景、边角场景、事故场景等多种类型。
52.参见图1,通过采集高精地图(hadmap)数据,将高精地图数据自动转换为自动驾驶仿真所需要的静态场景,并基于双目设备采集数据,比如双目摄像头设备,配合gnss定位,采集路上车辆动态数据,然后通过场景分割、动态特征识别、动态场景编辑等步骤来完成动态场景的生产,使动态场景的生产方法实现了简单操作和自动化,大大提高了动态场景生产的效率,节约了人工工作量。
53.具体地,将高精地图数据进行静态场景加工,得到用opendrive数据,然后结合opendrive数据,对动态场景编辑,生成openscenario数据,进而基于建立的场景库生成动态场景库。其中,openscenario是一种开放文件格式,用于描述驾驶模拟应用程序中的动态内容。openscenario的主要用途是描述复杂、同步的交通参与者,涉及多个实体,如车辆、行人和其他交通参与者。交通参与者的描述可能基于驾驶员的行为(例如执行车道更改)或轨迹(例如从记录的驾驶机动动作中获得)。其他内容,如自我车辆的描述、司机外观、行人、交通和环境状况,也包括在标准中。
54.因此,该自动驾驶仿真测试场景库生成方法,建立自动驾驶仿真测试场景库,为自动驾驶测试模型在环、软件在环、硬件在环、驾驶员在环等测试验证环境提供足够丰富的测试场景,支撑自动驾驶虚拟路测仿真测试、车规级产品检验检测等服务,形成适合实际路况的自动驾驶仿真测试场景标准,能够覆盖各种道路和路况,包括高速公路、城际道路、城市道路、园区道路、地下停车场等。
55.具体地,该自动驾驶仿真测试场景库生成方法可用于自动驾驶仿真测试动态场景库的构建,生产的场景库数据可以为不同类型的客户提供场景库数据,为不同的仿真测试平台提供场景库数据。为车厂、自动驾驶行业等提供训练算法服务;还可以提供场景还原与控制服务以及提供评估测评服务。
56.图2为本技术实施例提供的自动驾驶仿真测试场景库生成方法的流程示意图,该方法的执行主体可以是自动驾驶仿真测试场景库生成设备或自动驾驶仿真测试场景库生成系统;该方法可以包括:
57.s201、获取高精地图数据,并根据所述高精地图数据,生成静态场景数据。
58.本实施例中,采集高精地图数据,按照标准规格读取到系统(比如自动驾驶仿真测试场景库生成设备)内存中,主要区分road(道路)、link(参考线)、lane(单行道)、node(结点)、object(目标)等高精地图要素,然后将这些要素用opendrive的存储格式进行重新定义。将高精地图数据转换成静态场景数据,该过程自动化完成,无需人工操作。
59.s202、采集动态场景数据,并根据所述动态场景数据,对动态场景进行分割,得到分割后的动态场景数据。
60.本实施例中,可以采用双目设备采集动态场景数据,然后基于动态场景数据对动态场景进行分割,得到分割后的动态场景数据。
61.在一种可能的设计中,所述采集动态场景数据,并根据所述动态场景数据,对动态场景进行分割,得到分割后的动态场景数据,可以通过下述步骤实现:
62.步骤a1、采集动态场景数据,所述动态场景数据包括视频或图像数据。
63.步骤a2、根据所述视频或图像数据,对动态场景进行筛选,得到与预设特征类别匹配的动态场景视频段或图像帧段,所述动态场景视频段或图像帧段为分割后的动态场景数据。
64.本实施例中,通过双目设备,采集动态场景数据,所述双目设备由gnss天线、惯导及相机镜头集成,所述动态场景数据包括视频或图像数据。其中,双目设备集成了gnss天线、惯导及相机镜头于一体,在开阔区域可以达到30cm的精度,实时定位精度在1-1.5m,且支持在线传输和后台传输,多数据采集方案,为更多应用场景带来便利,实现云端的道路要素信息的检测、三维场景还原和构建。其中,该双目设备可以包括相机镜头、sim卡槽、gnss天线口、imu、sd卡、hdmi、micro-usb、网口、dc电源;相机镜头用于采集图像;sim卡槽用于插入4g卡,传输数据;gnss天线口用于接收gps信号;imu用于组合导航定位;sd卡用于存储数据;hdmi用于显示采集图像;micro-usb用于调试设备硬件;网口用于以太网传输数据;dc电源用于设备供电。
65.该双目设备可实现对前向道路中的车辆、行人、车道线、交通标志牌等目标的精确识别与定位。且实现视频、图片、结构化信息的本地化存储。这里的结构化信息可以包括定位数据等。
66.具体地,根据采集的行车记录视频或图像数据即动态场景数据,进行场景的筛选与甄别。截取出符合特征类别的动态场景视频段或图像帧段,实现动态场景分割。
67.其中,场景分割的标准取决于动态场景的生产需求,需要根据所要提取的动态场景类型进行分割。例如:可以分割出一个本车超车行为场景,也可分割出一个前车急停行为场景等。在此不做具体限定。
68.s203、识别所述分割后的动态场景数据的动态特征。
69.本实施例中,可以采用动态特征识别模型,对分割后的动态场景数据的动态特征进行识别。即将动态场景视频段或图像帧段对应的每帧图像输入到动态特征识别模型中,输出该图像对应的动态特征。
70.s204、根据所述静态场景数据和所述动态特征,生成动态场景库。
71.其中,在生成动态场景库之前,为截取的动态场景视频段或图像帧段定义动态场景的分类标签,以便场景生成后存放在动态场景库中。用以识别出当前视频段或图像帧段
属于哪个动态场景,以便在生场动态场景时加入到分类的动态场景中。
72.本实施例中,将高精地图数据可以制作成静态场景数据,然后利用静态场景数据和识别出的分割后的动态场景数据的动态特征,生成各个动态场景,将各个动态场景存储至预先建立好的场景库的类别库中。
73.其中,动态场景可以指仿真中具备动态特性的管控、车流等部分,是仿真测试场景的关键构件,主要可以包括:交通管理控制仿真,机动车仿真,行人与非机动车仿真等。
74.在实际应用中,参见图3所示,图3为本技术实施例提供的动态场景库的示意图。对实际道路环境中所产生的动态场景进行了归类,形成了如图3所示的动态场景库,包含4个一级分类,9个二级分类,至少147个细类,根据细类可任意组合形成多种多样的动态场景。需要说明的是,图3所示的动态场景库仅仅是示例性的,在此不做具体限定。
75.其中,4个一级分类可以包括环境、事件、车辆行为以及数字信号;9个二级分类可以包括环境类中的天气、光照、时间、路面环境,事件类中的交通事件,车辆行为类中的本车行为、前车行为、泊车,数字信号类中的数字信号;至少147个细类可以包括:天气类中的雨、雪、晴、多云、阴、冻雨、沙尘、雾、风、冰雹、干燥,光照类中的太阳高度角、海拔高度、光照强度,时间类中的日期、时间,路面环境类中的积水、积雪、披冰、沙土路面、坑洼路面、车辙路面、波浪路面、摩擦系数,交通事件类中的事故、障碍物、灾害、设备故障、拥堵、车辆类型限制、车道通行限制、道路通行限制、行人、非机动车、信号灯、路面施工、其他活动物,本车行为类中的直行、突然插入、调头、变道、左转、右转、并线、超车、靠边停车、刹车、车道保持、定速巡航,前车行为类中的直行、突然插入、调头、变道、左转、右转、并线、超车、靠边停车、刹车、车道保持、定速巡航,泊车类中的侧方停车、垂直倒库、斜列倒库,数字信号类中的v2x、有数字地图、无数字地图等。
76.本实施例提供的自动驾驶仿真测试场景库生成方法,首先通过获取高精地图数据,并根据所述高精地图数据,生成静态场景数据;然后采集动态场景数据,并根据所述动态场景数据,对动态场景进行分割,得到分割后的动态场景数据;通过识别所述分割后的动态场景数据的动态特征,再根据所述静态场景数据和所述动态特征,生成动态场景库。因此,本技术是通过对采集的动态场景数据进行场景分割、动态特征识别等步骤结合采集到的高精度地图来完成动态场景库的生产,无需复杂的数据处理过程,使得动态场景的生产实现了简单操作和自动化,大大提高了动态场景生产的效率以及精准度,节约了人工工作量,同时生成的动态场景库能够为不同的仿真测试平台提供场景库数据,解决了现有技术存在局限性的问题。
77.在一种可能的设计中,本实施例在上述实施例的基础上,对如何识别所述分割后的动态场景数据的动态特征进行了详细说明。所述识别所述分割后的动态场景数据的动态特征,可以包括:
78.对所述动态场景视频段或图像帧段中视野范围内的动态目标进行分类和定位,确定所述动态特征,所述动态特征包括动态目标的类别和所述动态目标的位置信息。
79.其中,在所述确定所述动态特征之后,该自动驾驶仿真测试场景库生成方法还可以包括:对所述动态目标进行标记,并根据标记后的标识,对所述动态目标进行轨迹跟踪,得到目标轨迹,用以分析动态目标行为。
80.本实施例中,动态特征提取主要是将动态场景视频段或图像帧段视野范围内的动
态目标(车辆、行人)定位和分类出来,确定出动态目标的具体类别和位置。然后赋予唯一的id(identity document)即标识,进行目标轨迹的跟踪,为环境车辆行为进行定义。这里的环境车辆可以是动态目标。
81.在一种可能的设计中,如何对动态目标进行分类和定位,进而确定动态特征,可以通过以下步骤实现:
82.通过动态特征识别模型,根据所述动态场景视频段或图像帧段,确定所述动态目标的类别和所述动态目标的位置信息。
83.其中,所述动态特征识别模型是由历史的动态场景视频段或图像帧段以及对应的历史的动态目标数据训练得到的,所述历史的动态目标数据包括历史的动态目标的类别和历史的动态目标的位置信息。
84.本实施例中,参见图4所示,图4为本技术动态特征识别的神经网络检测示意图。通过深度学习的方法搭建神经网络结构来训练输出目标的位置信息bbox和类别信息cls。这里搭建好的神经网络模型可以是动态特征识别模型。其中,搭建过程中,需要确定网络结构中的输入input模块,提取特征信息的backbone模块,融合网络结构中不同层特征信息的neck模块,网络最后的输出head模块。其中,backbone是一种帮助开发重量级的javascript应用的框架,可以为主干网络;head是获取网络输出内容的网络,利用之前提取的特征,head利用这些特征,做出预测;neck放在backbone和head之间的,是为了更好的利用backbone提取的特征。
85.具体地,参见图5所示,图5为本技术动态特征识别的神经网络训练和测试示意图。具体的训练和测试流程为:
86.准备训练所使用的真值数据集合,比如历史的动态场景视频段或图像帧段以及对应的历史的动态目标数据,将真值数据分为训练样本和测试样本,训练样本用于动态目标识别模型(即动态特征识别模型)的训练,测试样本用于测试最后模型的效果。配置模型训练过程中各项需要的参数。数据和参数准备完后,就可以使用设计的网络进行动态目标识别模型的训练。示例性的,通过实验在gpu:gtx-1070的机器上,模型前向推理可以达到25帧/秒,识别准确率达到90%左右。
87.具体地,将动态目标数据作为训练样本,通过特征选取和提取,训练检测器,通过检测器输出位置信息bbox和类别信息cls;输入图像作为测试样本,通过扫描窗口,进行特征选取和提取,输入到检测器中,输出该图像对应的位置信息bbox和类别信息cls。其中,训练样本用于训练神经网络模型,测试样本用于测试网络模型。
88.在一种可能的设计中,本实施例在上述实施例的基础上,对如何根据所述静态场景数据和所述动态特征,生成动态场景库进行了详细说明。所述根据所述静态场景数据和所述动态特征,生成动态场景库,可以通过以下步骤实现:
89.步骤b1、根据所述动态特征,对所述动态场景视频段或图像帧段进行动态场景的分类标签的标记。
90.步骤b2、根据所述静态场景数据以及标记的分类标签,对所述动态场景视频段或图像帧段进行编辑,得到动态场景文件。
91.步骤b3、将所述动态场景文件存储在建立的场景库中的相应的类别库中,生成动态场景库,所述动态场景库中包含所述预设特征类别对应的类别库,每个类别库包含至少
一个动态场景。
92.本实施例中,首先为截取的动态场景视频段或图像帧段定义动态场景的分类标签,以便场景生成后存放在动态场景库中。将高精地图数据转换成静态场景数据后,通过静态场景数据以及标记的分类标签,对所述动态场景视频段或图像帧段进行编辑,生成动态场景文件。
93.具体地,根据前述步骤的输入信息,比如静态场景数据以及标记的分类标签,对动态场景进行编辑,形成可运行的动态场景xml文件即动态场景文件。并将该动态场景文件存储在建立的场景库中的相应的类别库中,生成动态场景库。
94.其中,动态场景在制作过程中,主要影响因素可以包括:本车轨迹坐标、车速点集、环境车轨迹坐标、车速点集。因为在动态目标识别及实时动态(real-time kinematic,rtk)轨迹获得定位坐标的精度问题,在动态场景生成时候,往往很难和静态底图相匹配,因此,需要对轨迹坐标点集和车速点集处理,进行动态场景可视化编辑,以便于车辆轨迹与静态底图匹配。
95.其中,生成静态场景数据的过程可以通过以下步骤实现:
96.步骤d1、根据所述高精地图数据,对所述高精地图数据的mif格式数据分别按照参考线、结构物和车道样式进行解析,生成所述参考线、所述结构物和所述车道样式分别对应的txt文件,所述参考线对应的txt文件用于描述车道、车道属性,所述结构物对应的txt文件用于描述结构物的属性、所属车道、位置信息,所述车道样式对应的txt文件用于描述车道的样式信息。
97.步骤d2、对所述高精地图数据解析,生成第一csv文件和第二csv文件,所述第一csv文件用于描述每个车道的连接关系,所述第二csv文件用于描述道路边界和车道的对应关系。
98.步骤d3、将所述第一csv文件和所述第二csv文件合并,生成含有道路连接关系的txt文件,所述含有道路连接关系的txt文件用于描述道路边界的前后连接关系。
99.步骤d4、将所述参考线、所述结构物和所述车道样式分别对应的txt文件以及所述含有道路连接关系的txt文件中的数据转换为xml文件,所述xml文件用于描述道路要素和连接关系。
100.步骤d5、将所述xml文件转化成兼容型的xodr文件,所述xodr文件中含有所述静态场景数据,所述静态场景数据中至少包括:车道及车道连接关系描述、高程描述、结构物描述、信号灯描述、参考线描述、道路类型描述、道路交叉口及交叉口与车道的连接关系描述。
101.具体地,(1)对mif格式数据进行解析,将数据按照link(参考线)、结构物和车道样式进行分解,分别转成link、结构物和车道样式对应的txt文件,每个link的txt文件中描述车道、车道属性等,结构物txt文件中描述结构物的属性、所属车道、位置等信息;车道样式txt文件中描述车道的样式信息,例如车道线是双黄线、69虚线、实线等等。同时,需要生成两个csv文件,一个csv文件(即第一csv文件)用来描述每个车道的连接关系;另一个csv文件(第二csv文件)用来描述道路边界和车道lane的对应关系。
102.(2)将上述两个csv文件合并,生成道路连接关系txt文件,在文件中描述道路边界的前后连接关系。
103.(3)将上述数据综合转换为xml,xml中描述所有道路要素和连接关系。包括参考
线、车道和车道段连接关系、结构物、交叉路口、交叉路口和车道的连接关系等等。
104.其中,xml的节点构成为:
[0105]-road
[0106]
‑‑‑‑‑‑
planview
[0107]
‑‑‑‑‑‑
lanes
[0108]
‑‑‑‑‑‑‑‑‑‑‑‑
section
[0109]
‑‑‑‑‑‑
objects
[0110]-junction
[0111]
‑‑‑‑‑‑
link
[0112]
(4)将xml转化成多个测试平台兼容的xodr文件,xodr文件中将xml中的参考线离散点转成了矢量线的描述方式,采用起始点坐标、长度、方向来描述参考线。这里的转换后的xodr文件中含有所述静态场景数据,转换后的xodr文件从结构上更加清晰,包括:车道及车道连接关系描述、高程描述、结构物描述、信号灯描述、参考线描述、道路类型描述、道路交叉口及交叉口与车道的连接关系描述。
[0113]
xodr的节点构成为:
[0114][0115]
其中,上述过程全部实现自动化操作,提高转化效率。
[0116]
在实际应用中,该自动驾驶仿真测试场景库生成方法的执行主体以自动驾驶仿真测试场景库生成系统即动态场景生产系统为例,参见图6所示,图6为本技术提供的自动驾驶仿真测试场景库生成系统的示意图。该动态场景生产系统可以包括静态场景生成模块、场景分割模块、动态特征识别模块、动态场景编辑模块;其中,静态场景生成模块可以利用已有hadmap数据,自动转化成opendrive格式静态场景数据;场景分割模块可以实现对双目设备采集的视频或影像的分割,设置分割的主要参数,为动态场景添加标签;动态特征识别模块可以利用上一步分割的视频段或影像集,自动识别环境车辆或行人等目标的类别和运动轨迹;动态场景编辑模块可以将静态场景数据、动态识别的环境车辆或行人等目标的类别、运动轨迹、以及本车运动轨迹、车速轨迹等数据,对动态场景进行编辑,并输出openscenario格式标准动态场景文件。并将标准动态场景文件存储到动态场景库的相应类别库中。
[0117]
本实施例中,基于采集到的高精地图数据,自动转换为自动驾驶仿真所需要的静态场景,并基于双目摄像头设备,配合gnss定位,采集路上车辆动态数据,通过场景分割、动物识别、场景编辑等步骤来完成动态场景的生产,使动态场景的生产方法实现了简单操作和自动化,大大提高了动态场景生产的效率,节约了人工工作量。
[0118]
因此,本技术采用双目设备进行动态场景的加工制作,相对比现有技术手段,减少了硬件设备的数量,降低成本,使动态场景的生成实现了简单操作和自动化,大大提高了动态场景生产的效率以及精度,节约了人工工作量。并保证了场景全部为实际道路场景。同时,由于采用了openscenario标准格式的动态场景文件,本技术所建立的动态场景,可供多种自动驾驶仿真测试平台进行测试,解决了现有技术存在局限性的问题。
[0119]
为了实现所述自动驾驶仿真测试场景库生成方法,本实施例提供了一种自动驾驶仿真测试场景库生成装置。参见图7,图7为本技术实施例提供的自动驾驶仿真测试场景库生成装置的结构示意图;所述自动驾驶仿真测试场景库生成装置70,包括:获取模块701、分割模块702、识别模块703以及场景生成模块704;获取模块701,用于获取高精地图数据,并根据所述高精地图数据,生成静态场景数据;分割模块702,用于采集动态场景数据,并根据所述动态场景数据,对动态场景进行分割,得到分割后的动态场景数据;识别模块703,用于识别所述分割后的动态场景数据的动态特征;场景生成模块704,用于根据所述静态场景数据和所述动态特征,生成动态场景库。
[0120]
本实施例中,通过设置获取模块701、分割模块702、识别模块703以及场景生成模块704,用于获取高精地图数据,并根据所述高精地图数据,生成静态场景数据;然后采集动态场景数据,并根据所述动态场景数据,对动态场景进行分割,得到分割后的动态场景数据;通过识别所述分割后的动态场景数据的动态特征,再根据所述静态场景数据和所述动态特征,生成动态场景库。因此,本技术是通过对采集的动态场景数据进行场景分割、动态特征识别等步骤结合采集到的高精度地图来完成动态场景库的生产,无需复杂的数据处理过程,使得动态场景的生产实现了简单操作和自动化,大大提高了动态场景生产的效率以及精准度,节约了人工工作量,同时生成的动态场景库能够为不同的仿真测试平台提供场景库数据,解决了现有技术存在局限性的问题。
[0121]
本实施例提供的装置,可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,本实施例此处不再赘述。
[0122]
在一种可能的设计中,分割模块,具体用于:采集动态场景数据,所述动态场景数据包括视频或图像数据;根据所述视频或图像数据,对动态场景进行筛选,得到与预设特征类别匹配的动态场景视频段或图像帧段,所述动态场景视频段或图像帧段为分割后的动态场景数据。
[0123]
在一种可能的设计中,识别模块,包括:识别单元;识别单元,用于对所述动态场景视频段或图像帧段中视野范围内的动态目标进行分类和定位,确定所述动态特征,所述动态特征包括动态目标的类别和所述动态目标的位置信息。
[0124]
在一种可能的设计中,识别单元,具体用于:通过动态特征识别模型,根据所述动态场景视频段或图像帧段,确定所述动态目标的类别和所述动态目标的位置信息;其中,所述动态特征识别模型是由历史的动态场景视频段或图像帧段以及对应的历史的动态目标数据训练得到的,所述历史的动态目标数据包括历史的动态目标的类别和历史的动态目标
的位置信息。
[0125]
在一种可能的设计中,该装置还可以包括:处理模块;处理模块,用于在所述确定所述动态特征之后,对所述动态目标进行标记,并根据标记后的标识,对所述动态目标进行轨迹跟踪,得到目标轨迹,用以分析动态目标行为。
[0126]
在一种可能的设计中,场景库生成模块,包括:标记单元、编辑单元、场景库生成单元;标记单元,用于根据所述动态特征,对所述动态场景视频段或图像帧段进行动态场景的分类标签的标记;编辑单元,用于根据所述静态场景数据以及标记的分类标签,对所述动态场景视频段或图像帧段进行编辑,得到动态场景文件;场景库生成单元,用于将所述动态场景文件存储在建立的场景库中的相应的类别库中,生成动态场景库,所述动态场景库中包含所述预设特征类别对应的类别库,每个类别库包含至少一个动态场景。
[0127]
在一种可能的设计中,获取模块,具体用于:
[0128]
根据所述高精地图数据,对所述高精地图数据的mif格式数据分别按照参考线、结构物和车道样式进行解析,生成所述参考线、所述结构物和所述车道样式分别对应的txt文件,所述参考线对应的txt文件用于描述车道、车道属性,所述结构物对应的txt文件用于描述结构物的属性、所属车道、位置信息,所述车道样式对应的txt文件用于描述车道的样式信息;
[0129]
对所述高精地图数据解析,生成第一csv文件和第二csv文件,所述第一csv文件用于描述每个车道的连接关系,所述第二csv文件用于描述道路边界和车道的对应关系;
[0130]
根据所述第一csv文件和所述第二csv文件,生成所述静态场景数据。
[0131]
在一种可能的设计中,获取模块,具体用于:
[0132]
将所述第一csv文件和所述第二csv文件合并,生成含有道路连接关系的txt文件,所述含有道路连接关系的txt文件用于描述道路边界的前后连接关系;
[0133]
根据所述txt文件,生成所述静态场景数据。
[0134]
在一种可能的设计中,获取模块,具体用于:
[0135]
将所述参考线、所述结构物和所述车道样式分别对应的txt文件以及所述含有道路连接关系的txt文件中的数据转换为xml文件,所述xml文件用于描述道路要素和连接关系;
[0136]
根据xml文件,生成所述静态场景数据。
[0137]
在一种可能的设计中,获取模块,具体用于:
[0138]
将所述xml文件转化成兼容型的xodr文件,所述xodr文件中含有所述静态场景数据;
[0139]
其中,所述静态场景数据中至少包括:车道及车道连接关系描述、高程描述、结构物描述、信号灯描述、参考线描述、道路类型描述、道路交叉口及交叉口与车道的连接关系描述。
[0140]
本技术实施例提供一种自动驾驶仿真测试平台,所述自动驾驶仿真测试平台使用如上所述的自动驾驶仿真测试场景库方法生成的动态场景库。
[0141]
为了实现所述自动驾驶仿真测试场景库生成方法,本实施例提供了一种自动驾驶仿真测试场景库生成设备。图8为本技术实施例提供的自动驾驶仿真测试场景库生成设备的结构示意图。如图8所示,本实施例的自动驾驶仿真测试场景库生成设备80包括:处理器
801以及存储器802;其中,存储器802,用于存储计算机执行指令;处理器801,用于执行存储器存储的计算机执行指令,以实现上述实施例中所执行的各个步骤。具体可以参见前述方法实施例中的相关描述。
[0142]
本技术实施例还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上所述的自动驾驶仿真测试场景库生成方法。
[0143]
本技术实施例还提供一种计算机程序产品,包括计算机程序该计算机程序被处理器执行时实现如上所述的自动驾驶仿真测试场景库生成方法。
[0144]
在本技术所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。另外,在本技术各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个单元中。上述模块成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
[0145]
上述以软件功能模块的形式实现的集成的模块,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本技术各个实施例所述方法的部分步骤。应理解,上述处理器可以是中央处理单元(英文:central processing unit,简称:cpu),还可以是其他通用处理器、数字信号处理器(英文:digital signal processor,简称:dsp)、专用集成电路(英文:application specific integrated circuit,简称:asic)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
[0146]
存储器可能包含高速ram存储器,也可能还包括非易失性存储nvm,例如至少一个磁盘存储器,还可以为u盘、移动硬盘、只读存储器、磁盘或光盘等。总线可以是工业标准体系结构(industry standard architecture,isa)总线、外部设备互连(peripheral component,pci)总线或扩展工业标准体系结构(extended industry standard architecture,eisa)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,本技术附图中的总线并不限定仅有一根总线或一种类型的总线。上述存储介质可以是由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(sram),电可擦除可编程只读存储器(eeprom),可擦除可编程只读存储器(eprom),可编程只读存储器(prom),只读存储器(rom),磁存储器,快闪存储器,磁盘或光盘。存储介质可以是通用或专用计算机能够存取的任何可用介质。
[0147]
一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于专用集成电路(application specific integrated circuits,简称:
asic)中。当然,处理器和存储介质也可以作为分立组件存在于电子设备或主控设备中。
[0148]
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。
[0149]
最后应说明的是:以上各实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述各实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1