一种基于深度神经网络的车辆测距方法与流程

文档序号:18298226发布日期:2019-07-31 09:42阅读:935来源:国知局
一种基于深度神经网络的车辆测距方法与流程

本发明涉及车联网领域,具体涉及一种基于深度神经网络的车辆测距方法。



背景技术:

保持汽车驾驶时的自动性、舒适性和安全性是智能汽车一直追求的目标。为保障驾车安全、发展汽车防撞技术十分关键。世界各国对汽车防撞技术的研究和发展投入了大量的人力、物力和财力。而这一技术的核心却是车辆测距技术。

汽车必须凭借传感器测量前方车辆的距离,并迅速反馈给汽车,以在危机的情况下,通过报警或自动进行某种预先设定的操作如紧急制动等,来避免由于驾驶员疲劳、疏忽、误判断所造成的交通事故。根据奔驰公司对各类交通事故的研究表明:若驾驶员能够提早一秒意识到有事故危险并采取相应的正确措施,则绝大多数的交通事故将可以避免。由此可见,测距技术对保障行车安全,提高汽车智能化水平有重要意义。

当前检测车辆前方障碍物的做法分成两大类:一是利用激光雷达、毫米波雷达等这类主动传感器,主要通过传感器获取前方障碍物的距离信息;二是利用摄像头这种被动传感器,通过对图像的分析和理解,从而获取障碍物的距离。其中,通过单目视觉对前方车辆实现测距是实时、低成本的有效方法。

现有发明中,基于单目视觉的车辆测距的方法分成检测和测距。这些测距方法都是根据检测出的目标车辆的图像坐标,然后建立几何模型等,最后计算前方车辆距离。

现有技术中的方法有一个共同的缺点是都需要对单目摄像头的安装有一定要求,需要测定摄像头高度和俯仰角。实际中,通过手动测量摄像头相对地平面的绝对高度和俯仰角往往精度都不够高,而所有这些方法都需要基于使用高度和俯仰角作为车辆测距的输入数据,一旦这些数据不够精确,那么接下来的测距方法也会受到很大影响。另外,在实际产业应用中,如果每台单目测距设备都需要如此繁琐的安装,那么对于应用的广泛性也就受到了很大程度的限制。



技术实现要素:

针对上述问题,本发明主要解决现有因单目摄像头安装繁琐并由此带来的测距精度不够高的问题。本发明提出了一种基于深度神经网络的车辆测距方法,该方法可以使得汽车仅仅通过单目摄像头就能实时获取前方车辆的高精度距离信息,以使得单目视觉能在汽车辅助驾驶、无人驾驶等领域得到更普遍的应用。

具体的,本发明提出一种基于深度神经网络的车辆测距方法,包括:

s1、采集目标车辆图像,并提取所述目标车辆的图像坐标;

s2、建立预测网络,加载包含所述目标车辆的图像坐标的训练样本,通过深度神经网络模型对所述样本进行训练,以计算得到所述预测网络的网络模型参数;

s3、将所述目标车辆的图像坐标作为上述训练后的预测网络的输入,通过前向传播算法预测目标车辆距离。

优选的,所述步骤s2,包括:

(1)加载训练样本,并进行样本特征增强和样本归一化;

(2)深度神经网络参数初始化,并训练深度神经网络模型,直至满足终止条件;

(3)保存模型参数,得到最终模型。

优选的,所述样本特征增强包括:通过非线性映射函数将原始四维数据升至任意的大于四维的特征数据。

优选的,所述深度神经网络模型包括输入层、隐藏层、输出层。

优选的,所述隐藏层包括两层隐藏层,第一层隐藏层设置m层过滤器,并使用激活函数relu函数进行第一层隐藏层的输出,第二层隐藏层设置n层过滤器,并使用激活函数relu函数进行第二层隐藏层的输出,其中,m>n>20。

优选的,所述输出层仅包含线性映射单元,没有激活函数。

优选的,所述模型训练的初始化优化算法采用adam算法,所述模型训练结果的评价标准采用平均绝对百分误差。

优选的,所述训练中,采用adam算法作为前三分之一轮数的损失函数优化算法,在后三分之二轮数的损失函数优化过程中使用随机梯度下降算法。

优选的,所述训练中,使用动量学习率策略和学习率衰减策略;其中,

动量学习率δwt:

其中,γ为动量因子,α为学习率,为梯度,t代表当前轮数;

学习率衰减为:

其中,dr为衰减率;ds为衰减周期。

优选的,所述训练中,采用丢弃正则化方法来处理所述深度神经网络模型的过拟合状态。

本发明的优点在于:相比于现有的技术,首先,本发明提出的方法对摄像头的安装几乎没有特殊要求,不需要事先知道摄像头的距地高度和俯仰角数据;模型训练部分首先通过结合不同的损失函数优化算法来加速收敛,调整学习率策略以及批尺寸(batchsize),提高了总体识别正确率与训练时间。最后针对深度卷积神经网络中易于出现的过拟合现象使用正则化、dropout算法进行了处理。另外,因为本发明提出的方法是通过神经网络对真实数据进行学习获得的非线性映射函数,故利用学习获得的模型进行距离的预测,所以不用事先建立测距的几何模型,因此这就解决了人工建模的拟合程度较低的问题。综上,本发明的优点包括两方面:一是解决了传统基于几何测距所带来的繁琐;二是解决了先建模后预测的测距精度不够高的问题。

附图说明

通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:

图1示出了根据本发明实施方式的一种基于深度神经网络的车辆测距方法流程图。

图2示出了根据本发明实施方式的模型训练流程图。

图3示出了adam算法与随机梯度下降算法在小样本集上的训练误差曲线图。

图4示出了本发明采用的损失优化算法流程图。

图5示出了不同的学习率对模型的收敛情况的影响示意图。

图6示出了不同的拟合状态示意图。

图7示出了本发明使用的dropout方法示意图。

图8示出了本发明车辆距离预测示意图。

具体实施方式

下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。

如图1所示,本发明提供一种基于深度神经网络的车辆测距方法,包括:

s1、采集目标车辆图像,并提取所述目标车辆的图像坐标;

s2、建立预测网络,加载包含所述目标车辆的图像坐标的训练样本,通过深度神经网络模型对所述样本进行训练,以计算得到所述预测网络的网络模型参数;

s3、将所述目标车辆的图像坐标作为上述训练后的预测网络的输入,通过前向传播算法预测目标车辆距离。

以下从八个方面具体介绍本发明方案的技术细节:

1、深度神经网络

深度神经网络是机器学习诸多算法中的一类。它的核心思想是将特征的提取过程加入训练的过程中,能够按照层级结构提取低阶到高阶的特征,将特征进行更好的表示,利用在分层架构中的不同的信息处理阶段建立多层次结构。深度学习的崛起,背后的支撑是硬件性能的大幅度提示以及大数据时代的样本量急剧增长。

深度神经网络采用的训练过程为:

(1)前向传播的特征提取与预测计算。利用多层结构进行特征提取,这些方式中的参数的数量非常多,保证特征提取的泛化性。

(2)后向传播的参数调整计算。在进行正向传播后,会将得到的结果与实际结果进行误差计算,将得到的误差反向传播,对损失函数进行损失函数优化,调整特征提取的多层结构中的参数,保证误差能够进一步下降。

2、算法总体流程

由于本发明使用的深度学习技术是基于学习的算法,故算法在流程上分为训练与预测两部分,需要先进行训练,得出模型后进行预测。

本发明开始首先判断是否有已训练好得模型参数,如果已有训练好的网络模型,则直接加载网络模型参数,同时将检测出的目标车辆图像坐标作为预测网络的输入,然后通过前向传播算法预测距离数据。反之,如果尚未找到训练好的网络模型,则加载包含目标车辆图像坐标的训练样本,然后通过深度神经网络模型对样本进行训练,以计算网络模型参数并存储。

训练部分整体的流程图如图2所示,包括:

(1)加载训练样本,并进行样本特征增强和样本归一化;

(2)深度神经网络参数初始化,并进行深度神经网络模型训练,直至满足终止条件;

(3)保存模型参数,得到最终模型。

在整个流程中,最重要的部分是方框部分对深度神经网络的设计,网络模型的设计确定了模型的参数个数,进一步决定了复杂程度。过于简单的模型由于本身参数较少,无法对数据的复杂规律进行学习,但优点在于计算复杂度低,鲁棒性、实时性较强;过于复杂的模型计算复杂度高,基本无法满足实时性要求,对数据中的噪声较为敏感,易出现过拟合现象,所以整个模型的深度与复杂程度应与问题相匹配,既不能太大导致过于复杂,也不能过于简单导致效果较差。

在本发明接下来,将会从本发明模型的设计思想、参数对实时性的影响等角度详细描述整个网络的设计过程。

在进行了网络的输出形式的基本设计后,按照深度学习算法的设计准则,需要对学习过程进行定义。深度网络中的损失函数可谓整个网络模型的“方向盘”与“指南针”,通过样本的预测结果与真实标记产生的误差反向传播指导网络参数学习与表示学习。网络设计的目标是希望将目标的测距精度提高。参照本发明的网络输出结构的定义,本发明的目标在以下几个方面具体体现:

3、距离损失函数的确定

在前向碰撞预警系统中,核心是对碰撞时间的预估,当碰撞时间小于某个阈值时,需要对驾驶员进行提示。而距离的测量是计算碰撞时间的第一步,如果对距离的估计过于保守,即预估距离小于实际距离,可能出现的情况就是系统会频繁的提示碰撞,而实际上碰撞的可能性极低,造成驾驶员对系统功能的不适应以及不信任;相反,如果预估距离比实际距离偏大,带来对碰撞的乐观评估,那么将会造成十分危险的后果。在交通场景中,车载摄像头固定在车上,等外参固定,距离是可以进行预测的。本发明中,距离损失函数定义如下:

其中代表真实距离,ndis_i代表预测的距离,μ为权重参数。

4、设计深度神经网络模型

本发明中,模型分为输入层、隐藏层、输出层,通过相邻层神经元两两相连以构成全连接神经网络。网络模型的目标是近似某个函数f*。为了达到推理预测,使y=f*(x)将输入x映射到一个类别y。定义一个映射,如下:

y=f*(x;θ)

通过学习参数θ的值,使它能够得到最佳的测距函数近似。

鉴于已知的坐标数据特点,若直接将原始的四维数据输入网络进行训练,会使得由于数据间的互信息量较少,以至于预测的距离精度较低。故一定要先对原始数据进行特征增强,将原始的四维数据扩充为二十维的特征数据,即输入层是20维经过归一化处理的向量,为了避免过拟合以及经过实验验证,模型选择了两层隐藏层,第一层隐藏层设置了50层过滤器,并使用激活函数relu函数进行第一层隐藏层的输出,第二层隐藏层设置了25层过滤器,并使用激活函数relu函数进行第二层隐藏层的输出。使用两层隐藏层是可以使深度神经网络能够学习到更多变量间的互补信息。

本发明在升维的步骤中,是通过自定义不同的非线性映射函数,将原始的四维数据至二十维数据,采用非线性映射函数是为了扩充原始数据,以获得更多的互补特征数据。实际的升维并不仅限于升至二十维,也可通过自定义不同的非线性映射函数将原始数据升至任意的大于四维数据即可。

本发明网络模型的设计中,第一层设置为50个神经元,第二层设置为25个神经元是为了是神经网络在初始阶段提取出尽可能多的数据间的特征,实际中,只要保证网络模型的前两层各自的神经元个数大于20,且第一层神经元数量不小于第二层神经元数量即可。

其中,全连接神经网络分成线性部分和非线性部分。将车辆检测的矩形框做特征增强,并将其归一化作为输入特征向量x=[x1,x2,…,xn]t,其经过隐含层,先得到线性输出向量z=[z1,z2,…,z3]t,通过权重向量w与偏置b向量来确定的,这即是神经网络需要学习的参数,即按下式计算:

z=w·x+b

在得到线性输出向量后,利用relu非线性激活函数对输出向量进行转换得到隐含层的输出向量h=[h1,h2,…,hn]t,如下:

relu函数:

f(x)=max(θ,x)

比较特殊的是,本发明中深度神经网络模型的输出层被设计为只有线性部分,不包含relu非线性激活函数。原因是最后输出层与分类器模型不同的是预测结果并未使用激活函数,本发明设计的深度神经网络最终是用于拟合出距离,而距离是一个实数值,因此该网络属于回归模型,需要输出一个实数范围的距离值,而不是类别的概率。

5、样本处理

单目测距方法可分为两类,一类是先建模后测距,另一类是先测距后建模。

实际上,单目视觉测距算法要研究的内容就是前方障碍物在图像平面中的位置坐标(x,y,w,h)实际距离d之间的映射关系:d=f(x,y,w,h)。

本发明的主要目的是介绍如何将回归建模这一“逆”向思维引入到单目测距算法的研究中来,因此,本发明的内容只针对直道这种特殊情况,主要基于两点考虑:(1)基于数据回归建模的思想,对于直道情况和弯道、坡道情况,并没有本质区别,只是需要增加两个回归变量,因此本发明并不失一般性;(2)对于弯道、坡道情况,首先需要能准确测量道路弯曲程度、道路起伏程度的视觉算法,但这方面的研究工作,既不是本发明内容,又是目前还需要进一步研究的工作。因此,本发明的测距算法将重点针对结构化、以及非结构化水平直道情况进行分析和说明。

为了更加充分地利用位置坐标特征、降低误差,对目标车辆的原始特征x,y,w,h进行精心设计,在保障特征之间的独立性前提下,将原始特征扩展为20个特征。

模型的输出是预测前方车辆的距离。该模型kitti的7000多个数据作为模型的数据来源。

6、模型训练

由于深度卷积神经网络结构的特殊性,模型训练过程意味着选择损失函数优化器并调节许多超参数的过程,这些超参数的调节并没有太多的理论指导,通常根据实验效果所确定,超参数涉及到算法实际运行的方方面面,有的会影响运行的存储成本及时间,还有一些会影响到最终的模型准确率等性能。

在一个模型取得较好效果的训练过程中,对模型的内部参数的调整会起到极为重要的作用。研究人员之所以使用各种优化策略和算法来进行训练过程的优化,其目的都是为了使模型逼近或达到最优值,达到在当前数据下的性能极限。

样本训练的过程伴随的最重要步骤是调整神经网络模型的参数,而神经网络模型的参数非常多,调参的工作量巨大,针对本发明距离预测的目的,详细的调参方案如下:

网络的第一层设置为50个神经元,第二层设置为25个神经元,这样既保证特征间的互补性得以充分挖掘,同时避免神经元过多而出现过拟合现象。除最后输出层外,损失函数均使用relu函数,输出层设计为仅包含线性映射单元,没有激活函数,以便最后可以获取一个实数范围的值。

1.损失函数优化算法

由于距离预测属于回归预测,因此本发明的损失函数采用的是均方根误差,其公式如下:

其中代表真实距离,ndis_i代表预测的距离,μ为权重参数。

模型的目的就是最大化地减少损失函数的值,从而调整每个参数的值,因而模型选择的优化方法是adam算法,adam算法根据损失函数对每个参数的梯度的一阶矩估计和二阶矩估计动态调整针对每个参数的学习速率。adam也是基于梯度下降的方法,但是每次迭代参数的学习步长都有一个确定的范围,不会因为很大的梯度导致很大的学习步长,参数的值比较稳定。

同时在训练时,模型训练结果的评价标准采用平均绝对百分误差mape,其值越接近于0,预测的准确度越高,其公式如下:

经过多次试验比较,不断修改学习速率的大小以及adam算法其他参数,以保证最后的结果趋近于目标值,学习到更加精确的权重。

模型的训练过程可以总结为让损失函数逐渐下降的过程,这个下降过程中所用到的算法就被称为优化算法。

本发明中,考虑如果使用全程的随机梯度下降法所需的训练过程时间较长,大部分时间集中在显著下降阶段,而收敛阶段的训练时间相对较短。

按照对人工调节的依赖性来划分,优化算法可分为人工调节的优化算法与自适应的优化算法,常见的人工调节的优化算法如梯度下降、随机梯度下降、带有动量的随机梯度下降,都需要进行学习率的设定,而自适应的优化算法如adam算法,并不需要进行学习率的设定。如图3所示,为adam算法与随机梯度下降算法在小样本集上的训练误差曲线。

如图3所示,在损失优化过程的初期,随机梯度下降算法相较于自适应算法adam来说损失函数下降更为缓慢,但在收敛阶段,随机梯度下降算法能够取得更好的效果,为了结合两者的优点,本发明采用adam作为前三分之一轮数的损失函数优化算法,目的是为了尽快的下降到一个较为平稳的位置,在后三分之二轮数的损失函数优化过程中使用了随机梯度下降算法,目的是取得更好的收敛性。本发明采用损失优化算法流程图如图4所示。

2.学习率

学习率可能是最重要的超参数,相对于其他的超参数,它控制模型的有效容量的方式更为复杂:当学习率适合优化问题时,模型的有效容量最高,此时学习率是恰当的、合适的,既不会特别大也不会特别小。

学习率和训练误差之间存在u型曲线。直观来说,一方面,当学习率过大时,梯度下降可能会不经意地增加而非减少训练误差,另一方面,当学习率太小,训练不仅慢,还有可能永久停留在一个很高的训练误差上。

学习率在模型的训练中有巨大的影响,如图5所示,利用小数据集的训练曲线直观的表示了不同的学习率对模型的收敛情况的影响。

为了保证模型的训练能够收敛到一个较好的结果,本发明使用的技术方案为:

(1)使用动量学习率策略,防止陷入局部最优。

(2)使用学习率衰减策略,避免学习率过大导致收敛误差过大。

动量学习率δwt:

其中,γ为动量因子,α为学习率,为梯度,t代表当前轮数。

动量学习率的设计原理为物理上的物体具有惯性的性质,相对于不采用动量学习率,其学习效果得到了提高,跳出局部最小的可能性变大及所需时间大大减少,而若是动量因子过大,就有可能跳出最佳区域或发生梯度爆炸,导致不能收敛到一个好的位置或无法收敛。

学习率衰减表示为:

其中,dr为衰减率;ds为衰减周期。

本发明在这部分的参数选择中,对初始学习率、动量因子、衰减率、衰减周期进行了启发式搜索,由于每进行一次完整的训练将耗时接近5天,所以将每组参数与优化器进行全部尝试一遍的方式并不可行,故参照机器学习中交叉验证的思想,将样本随机分为了数量相等的五份,在五个样本集上使用相同参数,取最终结果的均值代表其最终效果,评价标准为识别准确率(检测到目标并分类正确认为是识别正确),具体参考最终模型的识别准确率(finaltesterror),部分关于学习率的测试数据如表1:

表1学习率参数测试数据

本发明的参数启发式搜索的过程如下:1.设置初始学习率为0.2,其它参数为0,会出现学习率太大,模型发散的问题;2.进一步减小学习率至0.02,模型收敛程度不好,怀疑学习率可能仍然过大;3.进一步加入衰减策略后,发现收敛增强,验证了学习率太大的猜想;4.加入动量因子,模型效果略有提升;5.继续增大动量因子,模型出现大幅度效果提升;6.增大动量因子,效果下降,调整初始学习率,过小,收敛时间大幅度提升。

针对在学习率相关参数的选择过程出现的现象,可以总结为:在训练过程中,好的学习率并不是一成不变的,在一开始高的学习率能够带来较快的目标函数下降,但在问题不是凸优化问题时,收敛就要额外的小心,一方面是由于其解的个数是未知的,另一方面有可能其最优解的小区间的宽度极窄,梯度极大,如果一直保持高的学习率,将会在其附近发生震荡,收敛性大大下降,这就需要进行一个学习率的调整。为了应对这种问题,使用了学习率衰减策略,学习率衰减是指在训练过程中,学习率会随着轮数的增大而阶梯形的变小,能够带来更好的收敛性。

3.batchsize

batchsize(批尺寸)涉及诸多在训练效果与硬件成本、时间成本上的矛盾。在机器学习中,它是的一个重要参数,它代表的意义是每次进行损失优化时输入的样本个数。

如果数据集比较小,完全可以采用在损失优化时使用全部数据,这样做的优点是:更多的样本更能够对样本空间进行更精确的描述,使得随机偏差随着样本数目增加带来的确定性增加而降低,从而更准确的找到损失优化的方向,更好的进行损失优化。而对于较大的数据集,受限于硬件条件,这就成为了不可能完成的任务。相反,如果在每一轮的迭代过程中输入1条样本进行计算,令批尺寸等于1,这样又会带来新的问题,就是每次迭代都是以单个样本进行,难以达到收敛。当两个极端都不适用时,自然要考虑一个合适的批尺寸作为适中的方案,那就是批梯度下降。通过设置适当的批尺寸,达到训练效果和硬件条件上的平衡。这样就能带来三条优点:1、内存利用率提高;2、跑完1个epoch(全样本数量)所需的迭代次数减少,处理相同数据量,所需的时间进一步减少,速度进一步加快;3、提升调参效率;一味的增大批尺寸,就会导致调参效率降低,当批尺寸大于样本中的某个比例时,其梯度方向几乎不会改变。

在本发明的批尺寸参数搜索中,仍然使用了与学习率搜索过程中的方法,将样本随机分为了数量相等的五份,在五个样本集上使用相同的参数,取最终结果的均值代表其最终效果,参考的评价标准为识别准确率(检测到目标并分类正确认为是正确识别),具体参考最终模型的识别准确率(finaltesterror)。

表2batchsize测试数据

由于gpu在处理2的整数次幂数字的批尺寸时速度优于其他数值,又受限于硬件条件,在批尺寸上,并没有进行大量的搜索,针对128、80、64、32、16这五个数值进行了搜索,在搜索过程中,批尺寸为128时出现了内存溢出、批尺寸为16时模型无法收敛的情况。在80、64、32的选择上,64在收敛时间、最终模型识别准确率方面均占有优势。

7、dropout的过拟合处理

绝大多数的机器学习与深度学习模型在训练过程中都会存在两种状态:欠拟合与过拟合。欠拟合是指由于模型的参数较少、假设十分简单或训练不够充分而导致效果不好,训练误差与验证都无法进一步下降,此时模型的方差(variance)较低,而偏差(bias)较大。一般来说对于如lr等线性模型来说,欠拟合是有可能出现的,但对于参数较为冗余,模型复杂的卷积神经网络来说,更多的情况是出现了过拟合,即在训练集上误差很低,但在验证集上的效果与训练集差距极大,此时模型的方差较高,而偏差较低。如图6所示,为不同的拟合状态示意图。

由奥卡姆的剃刀准则可知,如果两个具有相同效果的模型,一个复杂,另一个简单,那么要选择那个较为简单的。于是本发明使用基于修改网络的目标函数以取得更小的泛化误差思路的l1,l2正则化方式,以及通过随机修改网络本身结构减少神经元之间的依赖性的丢弃正则化(dropout)方法来处理模型的过拟合状态。

传统神经网络中,由于神经元间的互联,对于某单个神经元来说,其反向传导来的梯度信息同时也受到其他神经元的影响,可谓“牵一发而动全身”。这就是所谓的“复杂协同适应”效应。随机失活的提出正是一定程度上缓解了神经元之间复杂的协同适应,降低了神经元间依赖,避免了网络过拟合的发生。

dropout指在训练时随机的暂时丢弃一部分神经元以断开连接使其失去作用。这种丢弃正则化的方式可以通过其随机性来防止过拟合,同时能够高效地连接不同网络架构,使其失去依赖效应。在实际使用中,dropout能够在降低过拟合的同时通过减少在训练数据上的训练节点数目,提高了算法的学习速度。

dropout被广泛的认为是集成了大量深层神经网络的bagging方法,(bagging是通过结合多个互相依赖性极低的模型来降低泛化误差的技术,主要的做法是分别训练几个不同的模型,然后让所有模型进行加权投票来测试样例的输出。)它提供了一种廉价的集成近似方法,能够训练和评估值数据数量的神经网络。图7示出了本发明使用的dropout方法示意图。

dropout的重要参数为丢弃概率dropoutrate,当模型结构确定后,需要调节p来平衡模型的集成个数与单个模型容量,一般来说,dropoutrate越大,单个模型容量越大而集成个数越小,反之单个模型容量越小、模型个数越多。

本发明在当前模型的全连接层使用dropout策略,部分对丢弃概率dropoutrate进行网格搜索的数据如下表3:

表3dropoutrate测试数据

搜索过程中首先以不使用dropout策略训练的模型为基准,发现误差并不随着丢弃概率进行均匀变化,相对于0.5-0.7过程中0.03的错误率变化,0.7-0.9部分出现了由0.14到0.4的大幅度跳变。

8、网络模型的预测

通过上述步骤训练完网络模型后,即可对目标车辆进行测距。车辆距离预测示意图如图8所示:首先,输入目标图像的图像坐标;然后加载已训练好的模型参数;最后利用前向传播计算距离。

相比于现有的技术,首先,本发明提出的方法对摄像头的安装几乎没有特殊要求,不需要事先知道摄像头的距地高度和俯仰角数据;模型训练部分首先通过结合不同的损失函数优化算法来加速收敛,调整学习率策略以及批尺寸(batchsize),提高了总体识别正确率与训练时间。最后针对深度卷积神经网络中易于出现的过拟合现象使用正则化、dropout算法进行了处理。另外,因为本发明提出的方法是通过神经网络对真实数据进行学习获得的非线性映射函数,故利用学习获得的模型进行距离的预测,所以不用事先建立测距的几何模型,因此这就解决了人工建模的拟合程度较低的问题。综上,本发明的优点包括两方面:一是解决了传统基于几何测距所带来的繁琐;二是解决了先建模后预测的测距精度不够高的问题。

以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1