基于拟人驾驶的ACC/AEB系统及车辆的制作方法

文档序号:13364190阅读:430来源:国知局

本发明属于高级辅助驾驶的技术领域。更具体地,本发明涉及一种基于拟人化驾驶的acc/aeb系统。另外,本发明还涉及采用该系统的车辆。



背景技术:

近年来,随着高级驾驶辅助系统(adas)的逐步普及,而acc/aeb系统作为主动安全系统已经作为ncap评分项,并且世界各国已经强制性安装此系统,以减轻驾驶人的驾驶疲劳和减少交通碰撞追尾事故的发生。

但是,目前acc/aeb系统在开发过程中都普遍采用先通过对驾驶人驾驶行为参数的研究,再获取一个样本内驾驶人的驾驶行为参数,作为驾驶人acc/aeb控制的主要参数。其存在的问题是:

首先,这样获得的控制参数样本量较小,不能覆盖所有人的驾驶行为和驾驶习惯;

其次,在acc/aeb开发过程中,开发人员都是根据试验的加速度、减速以及制动力等参数进行舒适性和安全性的标定,这样的小样本量的参数完全不适合于每个驾驶人的驾驶习惯;

最后,一套控制参数涵盖所有的驾驶行为,造成了加速、减速以及制动过程的粗暴,导致了驾驶的不舒适性和不愉悦感,不适合每个人的驾驶习惯,不能做到拟人化驾驶。

因此,如何在acc/aeb系统在工作的过程中做到完全能模拟驾驶人个人驾驶习惯,实现拟人化驾驶,是评价产品的一项重要指标。



技术实现要素:

本发明提供一种基于拟人驾驶的acc/aeb系统,其目的是实现acc/aeb过程中的拟人化驾驶,更好的符合驾驶人的驾驶需求。

为了实现上述目的,本发明采取的技术方案为:

本发明的基于拟人驾驶的acc/aeb系统,包括环境感知模块、数据融合模块、决策控制模块、拟人驾驶模块以及执行模块。

所述的拟人驾驶模块在训练过程将传感器参数、驾驶行为参数、车辆运行参数送入机器学习模型,通过驾驶人驾驶车辆在不同工作场景下学习;在正常驾驶过程中驾驶人可以实时对机器学习和监督模块进行训练;当驾驶人进行acc/aeb驾驶状态的时候,机器学习结果和acc/aeb决策控制模块的结果进行比较与纠正,以实现拟人驾驶和个性驾驶。

所述的环境感知模块包括视觉传感器、雷达传感器、激光雷达传感器、车联网v2x及高精度地图及差分gps。

所述的视觉传感器包括单目摄像头,双目摄像头以及3d摄像头。

所述的视觉传感器通过摄像机实时拍摄行车前方的场景,通过图像处理算法和坐标变换和图像矫正算法,并对场景中的有效目标信息进行提取。

所述的雷达传感器凭借着其全天候工作特点,实现对行车前方目标的识别、分类和跟踪,并测量出有效目标的相关参数。

所述的激光雷达传感器通过扫面方式,建立周围物体的立体模型,并得到更精确的危险目或跟随标的位置参数。

所述的车联网v2x通过无线技术通讯,本车将获得周围其它车辆、基础交通设施、道路标识牌、限速标识牌、行人及其可穿戴设备和无线传输设备提供的位置、速度、距离、方位和状态信息。

所述的基础交通设施包括红绿灯状态信息、红绿灯时间长度信息、交通路口转向通过信息。

所述的高精度地图及差分gps为车辆实时提供道路坡度、道路曲率、道路坐标信息及车辆gps定位信息。

所述的环境感知传感器数据是77ghz毫米波的雷达传感器、激光雷达传感器、机器视觉传感器、车联网v2x、高精度地图及差分gps的数据中的任意一种,直接送入拟人驾驶模块和决策控制模块。

所述的数据融合模块将环境感知模块获得的有效目标的数据进行数据级和特征级以及时间、相位和空间之间的相互匹配与融合,获得目标更为准确的参数信息。

所述的数据融合模块包括将毫米波的雷达传感器、激光雷达传感器、机器视觉传感器、车联网v2x、高精度地图及差分gps中的任意两种或所有传感器进行融合后的数据送给拟人驾驶模块和决策控制模块。

所述的决策控制模块将数据融合模块融合后的数据,再结合本车运行过程状态参数、驾驶人意图参数进行决策级的融合,并计算出车辆防撞预警时间(ttc)、防撞预警时间倒数、制动减速度、制动力、加速度的参数;根据车辆防撞预警时间(ttc)时间的相关组合,决策acc和aeb的各种工作状态和介入的时机,实时的将控制参数发送给执行机构执行相关的动作。

所述的拟人驾驶督模块采用增强自学习型神经网络。

所述的增强自学习型神经网络接收感知传感器的数据、驾驶人行为参数以及车体运行参数,进行机器学习与训练。

所述的拟人驾驶模块对决策控制模块计算的结果进行比较与纠正,以输出接近于拟人化和符合驾驶人驾驶行为的控制参数。

所述的执行模块包括线控制动系统、电子稳定系统(esc)和发动机(ems)或电机控制器。

所述的执行模块根据决策控制模块和拟人驾驶模块比较和纠正的结果输出给执行模块,实现加速、制动、减速的动作,符合驾驶人的驾驶习惯,达到驾驶的舒适性和稳定性。

为了实现与上述技术方案相同的发明目的,本发明还提供一种车辆的技术方案,该车辆采用以上所述的基于拟人驾驶的acc/aeb系统。

本发明采用上述技术方案具有以下效果:

利用增强型神经网络,可以实现在驾车过程中对驾驶人驾驶行为参数的学习,并将驾驶人行为参数和决策控制模块计算获得的参数进行比较与纠正,避免决策控制过程中出现加速度、减速度、制动力、加速度速率以及减速度速率之间过大或过小而影响驾驶的舒适性和安全性,使acc/aeb系统更符合驾驶人驾驶特性,感觉跟驾驶人自己开车一样,实现acc/aeb过程中的拟人化驾驶,更好的符合驾驶人的驾驶需求。

附图说明

附图所表达的内容简要说明如下:

图1为环境感知数据直接送入神经网络模型框图;

图2为数据融合后送入神经网络模型框图;

图3为基于单传感器的拟人驾驶acc/aeb系统结构图;

图4为基于数据融合的拟人驾驶acc/aeb系统结构图。

具体实施方式

下面对照附图,通过对实施例的描述,对本发明的具体实施方式作进一步详细的说明,以帮助本领域的技术人员对本发明的发明构思、技术方案有更完整、准确和深入的理解。

本发明涉及车辆自适应巡航、主动安全、雷达、图像处理、多传感器数据融合、模式识别、神经网络、电子、软件、嵌入式计算机、总线通讯等相关领域,针对现有技术中的acc/aeb系统不能完全做到拟人驾驶,且不能适合各个驾驶人的驾驶行为习惯的问题,本发明提出了一种基于拟人驾驶的acc/aeb系统,把驾驶人行为特性参数送入到神经网络中不断的进行学习,获得驾驶人在各个工况和场景下的最佳控制参数,提高了驾驶的拟人化和个性化,实现了acc/aeb驾驶过程中的舒适性、安全性和愉悦驾驶。

如附图所示本发明的结构,为一种基于拟人驾驶的acc/aeb系统。为了克服现有技术的缺陷,实现acc/aeb过程中的拟人化驾驶,更好的符合驾驶人的驾驶需求的发明目的,本发明采取的技术方案为:

如图1至图4所示,本发明的基于拟人驾驶的acc/aeb系统,包括环境感知模块、数据融合模块、决策控制模块、拟人驾驶模块以及执行模块。

本发明通过在原acc/aeb系统的基础上集成拟人驾驶模块,当驾驶人在驾驶车辆的过程中,拟人驾驶模块块不断的采集驾驶人在行车过程中的加速、减速、制动压力、车间时距、车速、前车目标相对速度、相对加速度等相关驾驶行为参数,将这些驾驶人行为参数送入拟人驾驶模块的神经网络。通过驾驶人长期驾驶和长时间行车,这些控制参数不断的可以对神经网络进行训率,并训率得到各个工况和场景下的拟人化控制参数;

本发明提出的一种基于拟人驾驶的acc/aeb系统能在驾驶人驾驶过程中采用神经网络不断学习驾驶行为参数,并在车辆转入acc/aeb工作模式的时候,将驾驶人的驾驶行为参数与决策控制参数进行比较与纠正,赋予acc/aeb系统符合驾驶人驾驶行为的参数,提高acc/aeb系统的拟人化驾驶和个性化驾驶。

当驾驶人开启acc/aeb功能的时候,环境视觉感知模块将根据行车环境实时的探测车辆行车前方的目标车辆和障碍物,并把目标物体的参数送入到决策控制模块;决策控制模块根据运行工况和场景计算出本车所应执行的控制参数。拟人驾驶模块将实时监控决策控制模块计算的控制参数并和拟人驾驶模块的数据进行比较和判断,以对计算结果进行纠正;最后将纠正的结果发送给执行模块执行相关的动作。

参照图3、图4,决策控制模块包括安全制动距离计算算法、工况切换算法及控制量计算算法等,其中,工况切换模块包括定速模式、定距模式、弯道模式、启停模式和超车模式。执行模块预警显示、线控制动、esc、动力单元。在车辆行驶过程中,各模块之间相互配合、相互动作,共同完成车辆的前车避撞预警、自动紧急制动、自适应巡航功能。

本发明的具体构成:

1、环境感知模块:

所述的环境感知模块主要包括视觉传感器、雷达传感器(77ghz毫米雷达)、激光雷达(lidar)传感器、车联网v2x及高精度地图及差分gps等。所述的视觉传感器包括单目摄像头,双目摄像头以及3d摄像头。

所述的视觉传感器通过摄像机实时拍摄行车前方的场景,通过图像处理算法和坐标变换和图像矫正算法,并对场景中的有效目标信息进行提取。

所述的雷达传感器凭借着其全天候工作特点,实现对行车前方目标的识别、分类和跟踪,并测量出有效目标的相关参数。

所述的激光雷达传感器通过扫面方式,建立周围物体的立体模型,并得到更精确的危险目或跟随标的位置参数。

环境感知传感器数据是77ghz毫米波的雷达传感器、激光雷达传感器、机器视觉传感器、车联网v2x、高精度地图及差分gps的数据中的任意一种,直接送入拟人驾驶模块和决策控制模块。

环境感知模块完成对行车前方目标的探测、识别、分类以及跟踪等;机器视觉传感器包括单目摄像头、双目摄像头、3d摄像头等。感知传感器数据可以是77ghz毫米波雷达传感器参数、激光雷达、机器视觉传感器(单目摄像头,双目摄像头以及3d摄像头)、车联网v2x、高精度地图及差分gps的数据任意一种直接送入拟人驾驶模块和决策控制模块;

其中,摄像头安装于汽车前挡风玻璃处,机器视觉单元通过摄像头实时获取前方道路视频图像数据,然后通过视觉处理器对其进行分析处理后得到前方路况及车况信息;77ghz毫米波雷达安装在车辆保险杠中间位置处获取前方目标的相对车速、相对距离信息从而得到前方车况及路况信息;激光雷达安装在车顶上,通过对扫描场景的反馈与信息处理,获得周围障碍物的相关参数。

2、数据融合模块:

所述的数据融合模块将环境感知模块获得的有效目标的数据进行数据级和特征级以及时间、相位和空间之间的相互匹配与融合,获得目标更为准确的参数信息。

数据融合模块包括将毫米波的雷达传感器、激光雷达传感器、机器视觉传感器(单目摄像头,双目摄像头以及3d摄像头)、车联网v2x、高精度地图及差分gps中的任意两种或所有传感器进行融合后的数据送给拟人驾驶模块和决策控制模块。

数据融合模块完成对多传感器信息的融合,给出更精确的定位数据;数据融合模块将视觉传感器、雷达传感器以及激光雷达传感器获得的有效目标的数据进行数据级和特征级以及时间、相位和空间之间的相互匹配与融合,获得目标更为准确的参数信息;

数据融合模块将机器视觉传感器、激光雷达或毫米波雷达的数据进行融合,实现各个传感器之间的优势互补,获得acc/aeb行车前方危险目标的距离、速度、方位角等相关控制参数,将这些控制参数送入拟人驾驶模块和决策控制模块;

3、决策控制模块:

所述的决策控制模块将数据融合模块融合后的数据,再结合本车运行过程状态参数、驾驶人意图参数进行决策级的融合,并计算出车辆防撞预警时间(ttc)、防撞预警时间倒数、制动减速度、制动力、加速度的参数;根据车辆防撞预警时间(ttc)时间的相关组合,决策acc和aeb的各种工作状态和介入的时机,实时的将控制参数发送给执行机构执行相关的动作。

决策控制模块根据融合的数据信息以及结合本车运行参数信息和驾驶人意图信息,实时计算出车辆减速度、加速度以及制动力等相关参数,并将控制参数送给执行机构;

决策控制模块主要将数据融合模块融合后的数据再结合本车运行过程状态参数、驾驶人意图参数等进行决策级的融合,并计算出车辆防撞预警时间(ttc)、防撞预警时间倒数、制动减速度、制动力、加速度等参数;根据ttc时间的相关组合,决策acc和aeb的各种工作状态和介入的时机,实时的将控制参数发送给执行机构执行相关的动作;

决策控制模块包括安全制动距离计算算法、工况切换算法及制动及加速控制算法等;该模块根据感知系统提供的相关参数信息实时计算安全制动距离,工况切换模块根据计算的安全制动距离并结合当前的车况及路况进行模式转换(或驾驶人根据判断手动进行模式切换),制动及加速控制算法根据当前工况及路况和车况信息进行决策并将决策结果发送给各执行模块;

如图3所示,决策控制模块将根据环境感知模块中,其中一个传感器送来危险目标的数据,实时计算制动减速、制动加速度以及决策车辆在acc/aeb状态下的纵向控制;

如图4所示,决策控制模块将根据数据融合模块融合后的数据进行车辆在acc/aeb状态下的纵向控制;

如图3、图4所示,决策控制模块输出的结果与拟人驾驶模块输出的结果进行比较与纠正,将控制量发送给执行模块。

4、拟人驾驶模块:

所述的拟人驾驶模块在训练过程将传感器参数、驾驶行为参数、车辆运行参数送入机器学习模型,通过驾驶人驾驶车辆在不同工作场景下学习;在正常驾驶过程中驾驶人可以实时对机器学习和监督模块进行训练;当驾驶人进行acc/aeb驾驶状态的时候,机器学习结果和acc/aeb决策控制模块的结果进行比较与纠正,以实现拟人驾驶和个性驾驶。

拟人驾驶督模块采用增强自学习型神经网络。所述的增强自学习型神经网络接收感知传感器的数据、驾驶人行为参数以及车体运行参数,进行机器学习与训练。

拟人驾驶模块对决策控制模块计算的结果进行比较与纠正,以输出接近于拟人化和符合驾驶人驾驶行为的控制参数。

拟人驾驶模块主要采用增强型自学习神经网络,对驾驶人在特殊工况和平常驾驶过程的驾驶参数进行学习与记忆,并与acc/aeb决策结果进行比较与修正,获得接近与驾驶人驾驶行为控制参数,以实现对车辆纵向的控制。拟人驾驶模块主要在训练过程将传感器参数、驾驶行为参数、车辆运行参数送入机器学习模型,通过驾驶人驾驶车辆在不同工作场景下的学习,而且在驾驶人正常驾驶过程中可以实时对机器学习和监督模块进行训练;当驾驶人进行acc/aeb驾驶状态的时候,机器学习结果和acc/aeb决策控制模块的结果进行比较与纠正,以实现拟人驾驶和个性驾驶。

拟人驾驶模块对决策控制模块计算的结果进行比较与纠正,以输出接近于拟人化和符合驾驶人驾驶行为的控制参数;

拟人驾驶模块和原先的acc/aeb系统集成在一套软件体系构架里面,集成度比较高,安全可靠,使用和操作简单可靠。而且可以实现在特殊工况下的自学习和在驾驶人平时驾驶过程中,对驾驶人行为特性的学习与记忆,能适应各个驾驶人的驾驶行为特性,做到拟人驾驶和愉悦驾驶,不仅使驾驶人感觉到车辆的制动、减速、加速以及走-停功能和本人一样的驾驶行为,也能做到安全、稳定可靠的驾驶。

如图1所示,拟人驾驶模块可以直接接收机器视觉传感器数据、77ghz毫米波雷达数据、激光雷达、车联网v2x、高精度地图及差分gps数据中其中一个传感器的数据;

如图2所示,拟人驾驶模块,数据融合模块将视觉数据、雷达数据、以及激光雷达数据经过滤波处理后,通过一定的融合算法将两类或两类以上不同的传感器信息进行融合,以获取准确的前车车况信息及前方路况信息。

如图2所示,拟人驾驶模块可以接收机器视觉传感器、77ghz毫米波雷达以及激光雷达、车联网v2x、高精度地图及差分gps两个或两个以上数据的融合,以获得前面物体的参数;

如图1、图2所示,拟人驾驶模块将接收环境感知模块参数、驾驶人行为参数以及车辆自身状态参数,对驾驶人行为进行训练与学习;

拟人驾驶模块将在驾驶人平时驾驶过程中对拟人驾驶模块进行训率,也可以对特意对一些特殊工况进行训率。

拟人驾驶模块主要采用增强型神经网络,采用三层神经网络,其中一层输入层、一层隐含层和一层输出层。将环境感知模块传感器数据直接送入拟人驾驶模块或将环境感知模块的传感器数据融合后送入拟人驾驶模块;在驾驶人驾驶过程中,拟人驾驶模块将结合环境感知传感器的数据和车辆自身运行参数以及驾驶人行为参数进行学习与训率;驾驶人也可以对驾驶的特殊工况进行训率;通过驾驶人长时间无意识驾驶,对神经网络进行了训率与自学习,因此,在神经网络中对输入层与隐含层,以及隐含层与输出层之间在各种驾驶模式、路况及工况的情况下,形成了各层以及各个神经元之间形成了权值。

当车辆处于acc/aeb工作模式的时候,一方面拟人驾驶模块根据环境感知模块和车辆自身状态参数,输出符合驾驶人驾驶的控制参数,同时决策控制模块也将根据环境感知模块和车辆自身状态信息实时计算车辆的控制参数,将拟人驾驶模块的控制参数与决策控制模块的参数进行比较与纠正,将理想的纵向驾驶控制参数传输给执行单元,执行相关的操作。拟人驾驶模块不参与决策与计算,只是起到对驾驶人驾驶行为参数的学习。

5、执行模块:

所述的执行模块包括预警显示、线控制动系统、电子稳定系统(esc)和发动机(ems)或电机控制器。执行模块根据决策控制模块和拟人驾驶模块比较和纠正的结果输出给执行模块,实现加速、制动、减速的动作,符合驾驶人的驾驶习惯,达到驾驶的舒适性和稳定性。

执行模块主要执行决策控制模块的执行结果,控制车辆加减速或制动。它根据决策控制模块和拟人驾驶模块比较和纠正的结果输出给执行模块,实现加速、制动、减速等动作,符合驾驶人的驾驶习惯,达到驾驶的舒适性和稳定性。它根据决策控制模块传递的决策信息,启动相应的部件,实现自适应巡航、自动紧急制动等功能中的某一项功能,以及上述功能的组合运用;

如图3、图4所示,执行模块根据决策控制模块与拟人驾驶模块比较纠正后的控制量,实现对各个执行单元的调节,实现报警提示、减速、制动以及加速等相关纵向控制行为。

为了实现与上述技术方案相同的发明目的,本发明还提供一种车辆的技术方案,该车辆采用以上所述的基于对驾驶人驾驶行为自学习的神经网络acc/aeb/系统。

上述所述的系统组成及功能、工作原理、控制方法不仅适用于商用汽车,重卡、轻卡、专用车辆等,而且也适用于乘用车,如轿车、面包车、客车及suv等。

6、实施例一:

参照图1、图3,本发明采用单一传感器的具体方案为:

环境感知模块包括机器视觉传感器(单目摄像头、双目摄像头和3d摄像头)、77ghz毫米波雷达、激光雷达及车联网v2x。

如果系统只有上述其中的一个传感器作为感知器件,将单一传感器采集的数据经滤波、识别、跟踪及危险目标识别后,把危险目标的速度、相对距离、加速度、减速、方位角等相关参数送入拟人驾驶模块;拟人驾驶模块结合目标运动参数和驾驶人驾驶行为参数、车辆自身运行参数送入增强型人工神经网络,通过驾驶人在长期驾驶过程中不断的对神经网络各个层之间以及神经元进行训率与学习,获得各个神经元及各层之间的权重,获得驾驶人在驾驶过程中最优的驾驶行为参数,如车间时距、不同工况下的制动减速度、加速度以及制动力等。

驾驶人也可以对特殊工况进行学习,以获得特殊工况下的驾驶行为参数。

如果驾驶人把车辆转换到acc/aeb驾驶模式的时候,acc/aeb控制模块将根据环境感知传感器获得数据、驾驶行为参数以及车辆自身运行的参数根据控制策略计算在不公工况下的车间时距、制动减速、车辆减速度以及制动力等相关参数;将acc/aeb决策控制模块计算的车辆纵向控制参数和拟人驾驶模块的驾驶人习惯驾驶参数进行比较,并对其中不符合驾驶人驾驶行为的参数进行一定权值和算法的修正后,获得新的车辆纵向控制参数,将此参数发送给执行单元,执行相关的制动、加速、减速以及合适的车间时距,使车辆符合驾驶人的驾驶习惯,实现平稳、舒适和安全的拟人化驾驶。

7、实施例二:

参照图2、图4,本发明采用多传感器融合方案为:

环境感知模块包括机器视觉传感器(单目摄像头、双目摄像头和3d摄像头)、77ghz毫米波雷达、激光雷达及车联网v2x。

系统将两个或两个以上的传感器进行融合,将融合得到危险目标的速度、相对距离、加速度、减速、方位角等相关参数送入拟人驾驶模块;拟人驾驶模块结合目标运动参数和驾驶人驾驶行为参数、车辆自身运行参数送入增强型人工神经网络,通过驾驶人在长期驾驶过程中不断的对神经网络各个层之间以及神经元进行训率与学习,获得各个神经元及各层之间的权重,获得驾驶人在驾驶过程中最优的驾驶行为参数,如车间时距、不同工况下的制动减速度、加速度以及制动力等。

驾驶人也可以对特殊工况进行学习,以获得特殊工况下的驾驶行为参数。

如果驾驶人把车辆转换到acc/aeb驾驶模式的时候,acc/aeb控制模块将根据环境感知传感器获得数据、驾驶行为参数以及车辆自身运行的参数根据控制策略计算在不公工况下的车间时距、制动减速、车辆减速度以及制动力等相关参数;将acc/aeb决策控制模块计算的车辆纵向控制参数和拟人驾驶模块的驾驶人习惯驾驶参数进行比较,并对其中不符合驾驶人驾驶行为的参数进行一定权值和算法的修正后,获得新的车辆纵向控制参数,将此参数发送给执行单元,执行相关的制动、加速、减速以及合适的车间时距,使车辆符合驾驶人的驾驶习惯,实现平稳、舒适和安全的拟人化驾驶。

上面结合附图对本发明进行了示例性描述,显然本发明具体实现并不受上述方式的限制,只要采用了本发明的方法构思和技术方案进行的各种非实质性的改进,或未经改进将本发明的构思和技术方案直接应用于其它场合的,均在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1