一种基于深度网络的车辆检测方法与流程

文档序号:12471115阅读:431来源:国知局
一种基于深度网络的车辆检测方法与流程

本发明属于图像处理技术领域,涉及图像信息感知,具体涉及一种基于深度学习的车辆检测方法。



背景技术:

交通安全问题已成为世界性的重大问题,而汽车的安全性对人类生命财产的影响更是不言而喻。随着高速公路的发展和汽车性能的提高,汽车行驶速度也相应加快,加之汽车数量增加以及交通运输日益繁忙,汽车事故增多所引起的人员伤亡和财产损失,已成为一个不容忽视的社会问题,汽车的行车安全更显得非常重要。传统的被动安全已经远远不能避免交通的事故发生,而主动安全技术由于可以预防事故的发生而倍受关注。视觉传感由于具有信息量大、成本低廉的特点,在汽车主动安全领域有着广泛的应用。

车辆检测技术是指利用图像传感手段对图像中的车辆搜寻和判定,获得图像中车辆的多种属性(如位置、速度、形状、外观)的过程。它是汽车主动安全领域,尤其是实现追尾预警(Forward Collision Warning,FCW)以及自动紧急刹车(Automatic Emergency Braking,AEB)功能的关键技术之一。但是,由于实际公路环境具有较大的复杂性和不确定性,会存在检测目标被遮挡、背景环境复杂、存在与目标相似的物体(如非车辆道路物体)、光线强弱变化大和车辆运动速度快等问题。因此,如何提高车辆检测的准确性、鲁棒性和实时性,解决实际道路环境下的车辆检测一直是人们研究的热点。

目前常用以人工特征结合通用分类器的方法在车辆检测中占主导地位,也取得了一定的效果。然而该方法的最大缺点是,各类人工特征都尤其局限性,不能满足越来越复杂的道路环境下车辆检测的需要。针对此,本发明采用一种能够进行特征自生成的采用深度学习的车辆检测方法。



技术实现要素:

一种基于深度网络的车辆检测方法,与基于人工特征和常规分类器的方法相比,具有检测率高,适应性强的优点。

本发明详细技术方案如下:

一种基于深度网络的车辆检测方法,其特征在于:所述方法包括以下步骤:

1)选取图像中可能是车辆的子图片;

2)准备深度网络训练样本的;

3)对为深度网络分类器CDNN结构进行确定;

4)对待分类样本进行判断,最后得到检测结果。

优选地,上述步骤1)中设任一待判断子图片为I(x),则该子图片的对称度用如下的公式进行计算:

<mrow> <mi>S</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>E</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> <mo>-</mo> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>O</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> </mrow> <mrow> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>E</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> <mo>+</mo> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>O</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> </mrow> </mfrac> <mo>,</mo> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> <mo>&le;</mo> <mi>u</mi> <mo>&le;</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>

公式中,设图像中心对称轴横坐标为xs,u=x-xs

此外:

公式(1)所计算的值S(xs)即为某图像块的对称性度量。

优选地,上述步骤2中深度网络训练样本是通过人工选取大量车辆及非车辆的图片,并分别标记为正负样本,将所有正负样本都归一化到长宽均为32像素的尺寸,并设第i个样本的灰度特征向量为Gi;并设正负样本数共为n。

优选地,上述步骤3中分类器结构由训练样本个数及待分类类数确定;其中深度神经网络是一个前馈的神经网络结构,并由输入层、模式层、求和层与输出层构成。

优选地,上述步骤4中待判断样本先以灰度特征向量Gi表征;然后将该向量输入到步骤2得到的CDNN中,待判断样本属于输出神经元为1的类。

优选地,上述步骤4还包括以下步骤:

4.1、通过CDNN输入层接收来自待判断样本的灰度特征向量Gi

4.2、计算CDNN模式层计算输入特征向量与训练样本集中各个模式的匹配关系,该层每个模式神经元j的输出为:

<mrow> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mo>&lsqb;</mo> <mo>-</mo> <mfrac> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mrow> <mo>(</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <msup> <mi>&sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>&rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>

其中:Wj为输入层到模式层神经元j连接的权值,其值为神经元j对应训练样本的特征向量;σ为平滑参数,σ取0.25;

4.3、求和层按式(3)计算,对步骤4.2中j个模式单元的输出按照类别分别求和,求和层神经元对应值即为样本属于该类的估计概率密度;

4.4、输出层在各个分类模式求和层中选择一个具有最大输出的神经元作为整个系统的输出;具有最大输出的求和层想对应的输出层神经元输出为1,即所对应的那一类即为待判断的样本类别,输出层其他神经元的输出全为0。

优选地,上述步骤3中输入层神经元个数为样本的维数;模式层神经元个数所有训练样本个数之和;求和层神经元个数为待分类类数;输出层神经元个数与模式层相同。

本发明具有以下优点:

本发明通过分析目前计算机视觉领域比较典型的车辆检测方法,并细致的分析了已有方法的不足。提出了一种基于深度网络的车辆检测方法。该方法以深度网络(DNN)取代传统的分类器,大大提高了车辆检测的准确率。

附图说明

图1为本发明实施方案流程图

图2为本发明使用的深度网络的结构图

具体实施方式

为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

步骤1:步骤1为图像中可能是车辆的子图片的选取。该步骤的目的是筛选出有一定可能属于车辆的子图片,拒绝绝大部分非车辆图片,减少后续分类器需处理的子图片数量,提升车辆检测实时性。

设任一待判断子图片为I(x),则该子图片的对称度可以用如下的公式进行计算:

<mrow> <mi>S</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>E</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> <mo>-</mo> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>O</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> </mrow> <mrow> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>E</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> <mo>+</mo> <msubsup> <mo>&Integral;</mo> <mrow> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> <mrow> <mo>+</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> </mrow> </msubsup> <mi>O</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>u</mi> </mrow> </mfrac> <mo>,</mo> <mo>-</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> <mo>&le;</mo> <mi>u</mi> <mo>&le;</mo> <mi>w</mi> <mo>/</mo> <mn>2</mn> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>

公式中,设图像中心对称轴横坐标为xs,u=x-xs

此外:

公式(1)所计算的值S(xs)即为某图像块的对称性度量。本发明中,将对称度小于0.2的子图像块均视为非车辆,予以舍弃。剩余子图像块会进一步输入到深度网络分类器中进行进一步判断。

步骤2:该步骤为深度网络训练样本的准备。通过人工选取大量车辆及非车辆的图片,分别标记为正负样本。将所有正负样本都归一化到长宽均为32像素的尺寸,并设第i个样本的灰度特征向量为Gi。此外,不妨设正负样本数共为n。

步骤3:该步骤为深度网络分类器CDNN结构确定。分类器结构由训练样本个数及待分类类数确定。深度神经网络是一个前馈的神经网络结构,并由输入层、模式层、求和层与输出层构成(如图2)。输入层神经元个数为样本的维数。模式层神经元个数所有训练样本个数之和。求和层神经元个数为待分类类数。输出层神经元个数与模式层相同。

步骤4:该步骤为待分类样本判断。将待判断样本先以灰度特征向量Gi表征。然后将该向量输入到步骤2得到的CDNN中,待判断样本属于输出神经元为1的类。

步骤4-1:CDNN输入层接收来自待判断样本的灰度特征向量Gi

步骤4-2:CDNN模式层计算输入特征向量与训练样本集中各个模式的匹配关系,该层每个模式神经元j的输出为:

<mrow> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mo>&lsqb;</mo> <mo>-</mo> <mfrac> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mrow> <mo>(</mo> <msub> <mi>W</mi> <mi>j</mi> </msub> <mo>-</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <msup> <mi>&sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>&rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>

其中:Wj为输入层到模式层神经元j连接的权值,其值为神经元j对应训练样本的特征向量;σ为平滑参数,σ取0.25。

步骤4-3:求和层按式(3)计算,对步骤4-2中j个模式单元的输出按照类别分别求和。求和层神经元对应值即为样本属于该类的估计概率密度。

步骤4-4:输出层在各个分类模式求和层中选择一个具有最大输出的神经元作为整个系统的输出。具有最大输出的求和层想对应的输出层神经元输出为1,即所对应的那一类即为待判断的样本类别,输出层其他神经元的输出全为0。

最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1